随着生成式AI的爆发,社交媒体上的内容越来越真假难辨。为规范人工智能生成合成内容标识,近日,国家网信办起草的《人工智能生成合成内容标识办法(征求意见稿)》(以下简称《办法》),面向社会公开征求意见。围绕相关话题,法治网研究院近日邀请了南开大学法学院副院长陈兵教授、西南政法大学人工智能法学院院长陈亮教授、华东政法大学国家安全研究院副院长阙天舒教授、中国政法大学数据法治研究院张凌寒教授、《法治日报》律师专家库成员苟博程律师展开了一场深度对谈。
01
法治网研究院:我们注意到,《办法》要求, 在文本、图片、音频、视频等应用场景,要对人工智能生成合成内容添加显著的提示标识。通俗地讲,就是要给人工智能生成合成内容打上“专属水印”。在您看来,当前人工智能生成合成内容为什么迫切需要添加显著的提示标识?
陈亮:当前,鱼龙混杂、真假难辨的AI生成内容的激增,引发人们对其透明度、真实性和误导性的关注和忧虑。充斥于各大网络平台的虚假AI生成内容,正成为滋生民事侵权乃至刑事犯罪的温床,也影响了消费者与平台之间的信任关系,进而阻碍了人工智能产业的良性健康发展。
为AI生成内容添加显著提示标识,提醒消费者相关内容的生成方式,提高消费者的警惕性,可以大大降低AI生成内容的欺骗、误导乃至操纵等风险,搭建起平台与受众之间的信任纽带,从而很好地平衡创新激励与权利保护之间的紧张关系。
陈兵:自生成式人工智能技术广泛应用以来,大量AI生成内容涌入赛博空间,在丰富网络内容、降低生产成本、增进制作效率的同时,也引发了大量的数据污染、内容造假、知识产权侵权、利用生成内容进行诈骗、无底线博流量等一系列乱象。对人工智能生成合成内容添加显著的提示标识,首先,能够给予内容受众区分AI生成合成内容与人类创作内容的能力,保障公众知情权;其次,有助于压实相关主体责任,防范虚假信息的传播,营造清朗的网络空间;最终,能够促进人工智能技术的透明度与可信度的提升,确保人工智能实现坚持高质量发展与高水平安全良性互动。阙天舒:人工智能生成内容亦真亦假、难以辨别,一些深度伪造的信息容易以假乱真,干扰人们的正常判断。从消费者权益保护的角度,对人工智能生成内容进行标识是履行产品信息披露义务、保障消费者知情权的具体体现。从知识产权保护的角度,对人工智能生成内容进行标识是缓和生成作品产权归属争论、促进人工智能创作物市场构建的关键路径。从人工智能治理的角度,对人工智能生成内容进行标识是提升人工智能透明度、增强算法可解释性的重要方式。张凌寒:随着生成内容越来越逼真,人们在一般社会生活中已经难以辨别其真伪。生成式人工智能可能被用于传播虚假信息、侮辱诽谤、诈骗甚至更严重的违法犯罪活动中。对人工智能生成合成内容添加标识,一方面提示受众保持谨慎,避免轻信误信和随意转发;另一方面还可用于确认内容来源,便于界定责任范围,是对人工智能监管问责制度的重要补充。
02
法治网研究院:近年来,人工智能生成合成内容获得快速发展,给人们的生产生活带来极大便利和优质体验。与此同时,利用AI实施诈骗、侵权等违法犯罪的数量也在明显增加。您认为,对于人工智能生成合成内容的服务提供者、互联网应用程序分发平台而言,应当如何对照《办法》的相关内容,进一步做好合规工作?
张凌寒:对于内容服务平台,内容标识义务至少包括两个重要方面:一是明确标识所采用的技术方案,确保标识包含《办法》所要求的各类信息。
二是建立相应的标识识别、核验机制,引导、敦促用户主动声明上传的生成内容并使用平台提供的标识工具,还应对用户上传的内容及其标识情况进行核验,确保生成内容始终处于被标识状态。应用程序分发平台则需要制定核验服务提供者标识功能的规程,确保程序上线时标识功能的正常运行。苟博程:面对《办法》即将颁布实施的现实,服务提供者和互联网应用程序分发平台应积极部署合规措施。首先,完善技术手段,确保所有AI生成的文本、图片、音频、视频内容均添加显著的提示标识或“水印”。其次,建立和健全内容审核机制,实时监控和过滤可能存在的违法违规内容。最后,加强用户教育,提醒用户辨别AI生成内容,防范潜在风险。同时,积极与监管部门沟通,及时了解和适应政策变化,确保平台运营合法合规。
03
法治网研究院:目前,《办法》正处于面向社会公开征求意见阶段。对于《办法》,您最想提的建议和意见是什么?
陈兵:《办法》既是对服务提供者自我合规的指引,也是对监管部门提供的监管要求及监管规则。因此,《办法》对于标注方式的规定应当做到清晰、明确,具有可及性与可操作性。
对于显示标识而言,《办法》第四条虽然对显示标识的应用场景与添加位置进行了明确规定,但目前尚缺乏对于标识具体的位置、字形、表达、标定时间等具体信息予以详细规定;对于隐性标识而言,数字水印等技术存在技术差异与多平台兼容,这方面《办法》也需要对技术标准与兼容性进行要求。当然,这个有关技术标准及兼容性,特别是技术上的可兼容与商业场景下的兼容性还有不同内涵,若想明确在《办法》中规定,客观上也确实存在一定困难。然而,这个问题在推动整个《办法》的实效性上却是非常重要的,必须予以重视。我建议,可以考虑做好转引条款的设计,至少提供下一步解决的预留接口。
陈亮:内容标签往往通过两种路径来降低人工智能可能带来的风险:一是关注生成内容的技术流程,旨在向用户传达特定内容的生成方式,而对生成内容的潜在危害不予置评;二是关注生成内容的潜在危害,而对生成内容的技术流程不予置评。
《办法》更多的是采用第一种方式,从而对生成内容对平台用户或整个社会的潜在影响持不可知论的态度,这无疑加重了用户认知负担,对用户的认知模式和认知能力提出了一定挑战。我建议,进一步增加有关生成内容潜在危害的标识,以减轻用户因认知模式和认知能力局限而无法研判AI生成内容潜在影响所带来的决策偏差或决策失误。
阙天舒:在标识方式上,《办法》区分了隐式标识和显式标识。关于隐式标识,依照《办法》规定,似乎所有情形下均应添加。我认为这方面有待商榷,应当明确特殊情况下无需进行隐式标识的情形。比如,生成来源绝对可靠时,就没必要进行标识。关于显式标识,我认为,针对一些特殊领域的人工智能生成场景,不仅要标识“人工智能生成内容”,还要作一些指引性的提示。比如,当生成内容涉及政治、军事、法律、医学、伦理等专业领域时,应当特别提示服务使用者咨询专业人士意见。