深度合成技术即将被戴上紧箍咒。据了解,《互联网信息服务深度合成管理规定》(以下简称“《规定》”)将于1月10日起施行,从技术提供者、服务使用者以及监管等各方面,对深度合成技术应用提出规范。
所谓“深度合成技术”,是指利用以深度学习、虚拟现实为代表的生成合成类算法制作文本、图像、音频、视频、虚拟场景等信息的技术,包括文本转语音、音乐生成、人脸生成、人脸替换、图像增强等技术。目前该技术已应用于传媒、影视制作、社交娱乐、教育以及电子商务等行业,如修复历史老照片、AI换脸、虚拟主播等。最近火热的聊天机器人ChatGPT,“科技与狠活”AIGC(AI-Generated content 即AI生产内容)、二级市场热炒的数字人等均属于深度合成技术领域。
南都湾财社记者注意到,《规定》对深度合成服务提供者、技术支持者等各方责任义务进行了系统性制度设计,包括算法机制机理审核、信息内容管理、安全评估等。比如,新规要求深度合成服务提供者主体不得利用深度合成服务从事违法活动,还要建立健全用户管理制度,制定和公开管理规侧等,加强深度合成内容管理,建立健全辟谣机制和申诉、投诉、举报机制。
《规定》要求深度合成服务提供者落实信息安全主体责任,建立健全管理制度和技术保障措施,制定公开管理规则、平台公约,对使用者进行真实身份信息认证,明确应用程序分发平台应当落实安全管理责任,核验深度合成类应用程序相关情况。
此外,《规定》也提出了明确的数据和技术管理规范。其中包括,深度合成服务提供者和技术支持者提供人脸、人声等生物识别信息编辑功能的,应当提示深度合成服务使用者依法告知被编辑的个人,并取得其单独同意;
同时,《规定》指出,提供智能对话、合成人声、人脸生成、沉浸式拟真场景等生成或者显著改变信息内容功能的服务的,应当进行显著标识,避免公众混淆或者误认。要求任何组织和个人不得采用技术手段删除、篡改、隐匿相关标识。
中国政法大学副校长时建中认为,随着深度合成技术的开源开放、深度合成产品和服务的逐渐增多,深度合成内容制作的技术门槛越来越低,普通人仅需要少量的图像、音频、视频、文本等样本数据,利用简便易用的深度合成工具,就能够模糊真实信息和虚假信息的边界。但深度合成技术一旦被滥用,会造成巨大风险与实质性危害,可能给个人、企业造成肖像、名誉等人格和财产权益损害,也可能给社会秩序、国家政治稳定和安全造成巨大威胁。
全国政协委员、北京金台律师事务所主任皮剑龙指出,“《规定》在此背景下出台,为划定深度合成服务的‘底线’和‘红线’,维护网络空间良好生态发挥了重要作用。”据其介绍,对于深度合成技术的监管,此前在《互联网信息服务算法推荐管理规定》《网络音视频信息服务管理规定》《网络信息内容生态治理规定》等法规中均有提及,而《规定》则对深度合成内容更有针对性地进行规制,标志着监管部门针对互联网信息内容监管版图进一步细化。
此外,有业内律师指出,新规对于提供深度合成服务的创业公司来说影响较大,由于深度合成内容涵盖范围广,供应商需要加大力度进行相关审核,会抬高合规要求和合规成本。