本文将从法规框架、算法训练、内容生成和监管体系四个角度出发,对《办法》所提出的应对风险的各项规制路径加以解读。
文|赵志东 蔡佳雯
就在OpenAI正式发布GPT-4语言模型之后不久,特斯拉首席执行官埃隆·马斯克(Elon Musk)、苹果联合创始人史蒂夫·沃兹尼亚克(Steve Wozniak)及其他一千多位业界人员共同签署了公开信,呼吁至少暂停诸如ChatGPT这类功能强大的人工智能系统至少六个月,并在此期间开发出一套用于高级人工智能的共享安全协议,以使强大的人工智能系统更加准确、安全、可解释、透明、稳健、以及对人类更为忠诚。
2023年4月11日,国家互联网信息办公室发布了《生成式人工智能服务管理办法(征求意见稿)》(以下简称《办法》),就我国生成式人工智能相关产业的监管给出了回应,并向公众征求意见,意见反馈截止时间为2023年5月10日。本文将从法规框架、算法训练、内容生成和监管体系四个角度出发,对《办法》所提出的应对风险的各项规制路径加以解读。
一、框架概览
《生成式人工智能服务管理办法(征求意见稿)》全文共21条,以《中华人民共和国网络安全法》、《中华人民共和国数据安全法》、《中华人民共和国个人信息保护法》这三部法律为上位法,并与《互联网信息服务深度合成管理规定》、《互联网信息服务算法推荐管理规定》相衔接,共同构成对生成式人工智能领域的监管。
《办法》第二条对生成式人工智能产品给出了明确的界定,即基于算法、模型、规则生成文本、图片、声音、视频、代码等内容的技术。而承担责任的主体,则是利用生成式人工智能产品提供聊天和文本、图像、声音生成等服务的组织和个人(以下简称“提供者”)。《办法》第五条明确规定了提供者应当承担生成式人工智能产品生成内容生产者的责任,如果涉及个人信息的,还要承担个人信息处理者的法定责任。
值得一提的是,仅通过提供可编程接口等方式支持他人自行生成文本、图像、声音的主体,也同样被认定为提供者。这对大语言模型的技术服务商来说无疑是较大的法律责任。从商业模式来看,技术服务商大都只提供技术支持,不会实际参与内容生产,对服务使用者生成内容的控制权有限。其次,关于服务过程所涉及的个人信息的处理目的和处理方式,也大都由使用者自行决定,技术服务商基本上不会接触到个人信息。该条款未来是否会有所调整,有待《办法》正式颁布。
在《办法》的适用范围方面,只要是研发、利用生成式人工智能产品,且面向中华人民共和国境内公众提供服务的,都会受到我国法律的规制,无论其服务提供者位于境内或境外。因此,除了国内的一些生成式人工智能产品如百度的“文心大模型”、阿里的“通义千问大模型”等未来会受到《办法》监管,一旦ChatGPT等服务提供者位于境外的产品面向中国境内公众提供服务,也将被纳入我国的监管范围。
二、算法训练
《办法》就算法训练数据合法性、人工算法标注规则予以了清晰的指引。
在数据合法性方面,《办法》第七条规定,提供者应当对生成式人工智能产品的预训练数据、优化训练数据来源的合法性负责。具体来说,用于生成式人工智能产品的预训练、优化训练数据,应满足以下要求:(一)符合《中华人民共和国网络安全法》等法律法规的要求;(二)不含有侵犯知识产权的内容;(三)数据包含个人信息的,应当征得个人信息主体同意或者符合法律、行政法规规定的其他情形;(四)能够保证数据的真实性、准确性、客观性、多样性;(五)国家网信部门关于生成式人工智能服务的其他监管要求。
《办法》第八条则对人工标注进行了规定。当前大部分生成式人工智能产品都使用了基于人类偏好的强化学习的机器训练模型(Reinforcement Learning from Human Feedback),由技术人员预先给生成式人工智能产品输入海量语言数据,并根据人工标注的高质量回答对生成式人工智能产品生成的回答建立打分和奖励模型,引导训练生成式人工智能产品模型对输出结果不断进行校正和优化,并向高分方向完善输出答案,最终使得生成式人工智能产品能够学习人类语言的特征和结构,实现用自然语言进行人机交流。在生成式人工智能产品的整个训练过程中,人工标注的准确性对最终生成式AI的结果有较大影响。故而《办法》规定,生成式人工智能产品研制中采用人工标注时,提供者应当制定清晰、具体、可操作的标注规则,对标注人员进行必要培训,并抽样核验标注内容的正确性。
三、内容生成
在内容生成方面,《办法》主要关注了算法歧视和虚假信息两大问题。
在防止算法歧视方面,《办法》要求提供者在算法设计、训练数据选择、模型生成和优化、提供服务等过程中,采取措施防止出现种族、民族、信仰、国别、地域、性别、年龄、职业等歧视。
而内容准确性方面,则是对生成式人工智能产品“一本正经地胡说八道”的风险防范。由于生成式人工智能产品语言模型的训练中,生成式人工智能掌握的仅是自然语言的规律和结构,但不代表其内容本身是真实准确的。尤其是在法律、医学等专业领域,用户需要一定的专业知识才能辨别生成式人工智能产品生成内容的真假。
《办法》第四条明确规定,利用生成式人工智能生成的内容应当真实准确,采取措施防止生成虚假信息。具体来说,如果提供者在产品运行中发现、或经用户举报后知悉的违法生成内容,提供者应当采取内容过滤等措施,并在3个月内通过模型优化训练等方式防止再次生成。
然而,由于技术限制,当前这种“一本正经地胡说八道”的虚假信息仍无法完全避免,三个月的优化整改时间是否足以解决虚假信息的问题仍有待商榷。
四、监管体系
在监管机制上,《办法》规定了从安全评估与算法备案、算法披露、到用户投诉处理机制与侵权内容处理机制等一整套全面的监管制度,以确保生成式人工智能产品尊重社会公德、公序良俗。
首先,《办法》延续了《互联网信息服务算法推荐管理规定》及《具有舆论属性或社会动员能力的互联网信息服务安全评估规定》中的履行安全评估、算法备案义务。《办法》将生成式人工智能产品直接界定为具有舆论属性或社会动员能力,也体现了有关部门对于生成式人工智能产品的监管态度。由于申报安全评估的时间节点在产品上市前,因而建议开发运营企业预留充足的时间,避免影响产品上市周期和公司规划。
其次,《办法》要求提供者指导用户科学认识和理性使用生成式人工智能生成的内容,并建立用户投诉接收处理机制,及时处置个人关于更正、删除、屏蔽其个人信息的请求。如提供者发现用户利用生成式人工智能产品过程中违反法律法规,违背商业道德、社会公德行为时,包括从事网络炒作、恶意发帖跟评、制造垃圾邮件、编写恶意软件,实施不正当的商业营销等,应当暂停或者终止服务。
再次,《办法》要求提供者进行算法披露,披露范围包括预训练和优化训练数据的来源、规模、类型、质量等描述,人工标注规则,人工标注数据的规模和类型,基础算法和技术体系等。此前,仅具有舆论属性或者社会动员能力的算法推荐服务提供者在进行算法备案时,才需要共识披露服务提供者的名称、服务形式、应用领域、算法类型、算法自评估报告等信息,可见我国应对生成式人工智能产品的监管思路的转变。当然,算法透明度、政府监管与商业秘密、知识产权保护之间的界限一直是业界关注的焦点,有关算法披露义务中哪些信息属于必要范围,也有待有关部门进一步的澄清。
(本文为投稿,《元宇宙NEWS》不承担任何相关责任。作者为德恒上海律师事务所 赵志东 蔡佳雯,电子邮箱:zhaozd@dehenglaw.com)