新闻事件:人工智能深度合成技术的快速发展,推动了“AI换脸拟声”在影视、广告、社交等领域广泛兴起,同时,“AI换脸拟声”的不当滥用也引发了诸多关注。今年全国两会,全国政协委员靳东“建议为规范AI换脸立法”登上热搜,全国人大代表雷军也表示:“我本人也是AI受害者,呼吁尽快立法重点整治。”
“受害者”呼声值得被重视
正观新闻:面貌被合成、声音被伪造,靳东、雷军只是“深度受害者”的冰山一角。过去一段时间,不法分子利用公众人物形象、声音进行AI深度合成视频,实行诈骗,给社会带来信息失真、认知混乱等问题。这恰恰说明,现阶段规范AI合成技术应用和传播边界,已非常迫切。
靳东、雷军两位公众人物,在全国两会上纷纷提出AI合成音视频相关治理意见,不仅推动行业自律和技术应用的伦理合规性,也强化相关平台主体责任,明确了使用AI技术的发展和风险防范,无疑是及时且有必要的。
当然,在实践层面,如何将这类原则性要求细化为具体指导,确保各方拥有明确预期,尚需深入研究。比如,对于提供生成式AI服务的服务商而言,面对此类侵权行为是否应该承担责任?应承担何种责任?若相关平台未能及时有效阻止,是否应连带担责?这些问题值得探讨。
重点应是传播环节监管
21世纪经济报道:对于某一类的换脸拟声,AI是无法区别恶意还是善意的,那么,就只能是完全封禁。随着以DeepSeek为代表的高性价比人工智能技术路线的出现,私人部署的价格已经降低到200万元,如果再容忍生成内容的速度慢一些,这个价格还可以进一步降低到50万元。也就是说,AI算力越来越出现分散化、私人化的趋势。这就意味着监管是不对称的,越是大型的AI厂商,受到的监管越大,小型厂商或者私人部署反而受到的监管约束较小,可能会让一些不法分子利用“AI换脸拟声”进行的违法活动得到规避。一些电诈分子如果使用国外的生成式AI工具,那么国内如果仅仅对相关工具进行监管,对他们可能不会有太大影响。
因此,监管应聚焦于传播层面,在平台上进行中游式监管,这更合乎逻辑,而不是对生成式人工智能服务者和供应商提出过高的合规义务。
侵害他人利益的惩罚机制需更明确
潇湘晨报:加强对AI换脸技术的立法监管,应尽快立法明确企业以及使用者应该承担的义务,从事前、事中、事后三个环节进行规范。
在事前,规范研发者的技术伦理和信息素养,强化制作者的标识义务和声明义务。事中,保障信息主体的知情同意权,最重要的是推动AI换脸技术服务提供者在收集个人信息时严格遵守知情同意规则,其中,加强传播平台的内容审查义务尤为重要。如果有人用AI换脸技术制作了视频,上传的时候,要作AI使用说明。比如在AI内容生成时自动添加一个水印,或发布时自动增加标识。
假如AI换脸技术的使用者对他人造成了损失或侵犯他人权益,在惩罚方式上要更加明确。通过立法形式,明确侵权责任主体及责任划分标准,设立惩罚性赔偿机制,才能让AI技术的使用更规范、让AI的发展更健康。