人工智能生成合成内容如何标识
细化实施规范出台
近日,国家互联网信息办公室、工业和信息化部、公安部、国家广播电视总局联合发布《人工智能生成合成内容标识办法》。办法聚焦人工智能“生成合成内容标识”关键点,通过标识提醒用户辨别虚假信息,明确相关服务主体的标识责任义务,规范内容制作、传播各环节标识行为,将于2025年9月1日起施行。
专家认为,办法是我国推进人工智能领域安全治理、促进产业规范健康发展、引导技术向善的重要举措,标志着我国在生成式人工智能领域迈出了构建安全可信生态的关键一步。
近年来,生成式人工智能、深度合成等新技术快速发展,为生成合成文本、图片、音频、视频等信息提供了便利工具。
“然而,人工智能生成合成内容日益逼真,也催生虚假消息传播、身份信息冒充、恶意内容生成等新型安全风险,并削弱着公众对网络传播内容的信任根基。”中国工程院院士、浙江大学教授陈纯认为,面对人工智能安全治理这一世界性难题,四部门适时出台《人工智能生成合成内容标识办法》,配套强制性国家标准《网络安全技术 人工智能生成合成内容标识方法》同时发布,成为保障人工智能时代网络生态安全有序的关键手段。
国家网信办有关负责人表示,办法重点解决“哪些是生成的”“谁生成的”“从哪里生成的”等问题,推动由生成到传播各环节的全流程安全管理,力争打造可信赖的人工智能技术。
“此前出台的《互联网信息服务算法推荐管理规定》《互联网信息服务深度合成管理规定》《生成式人工智能服务管理暂行办法》提出了标识有关要求,办法进一步细化了标识的具体实施规范。”北京航空航天大学法学院副教授赵精武认为,办法明确了生成合成内容制作传播各主体的责任义务,用户能够清晰识别人工智能生成的内容,减轻人工智能生成合成技术滥用危害,防范利用生成合成内容传播虚假信息、实施电信诈骗等风险行为。
一方面,清晰的内容标识有助于提升信息透明度,增强用户的知情权和选择权,培养公众对人工智能技术的理性认知。另一方面,对于服务提供者及传播平台而言,内容标识制度既是责任也是机遇,鼓励企业在追求技术能力提升的同时,提升对产品社会影响的关注度,推动整个行业向更加规范、健康的方向发展。