作者:李思辉 来源:中国科学报 发布时间:2025/3/10 11:59:04
选择字号:
对AI生成内容强制标识是一种伦理责任

 

■李思辉

网上海量的图文、视频,究竟有多少是人工智能(AI)生成的?公众如何分辨?今年,有全国人大代表建议,对AI生成内容强制标识,并明确对AI深度合成服务商未履行标识义务的惩罚制度。这一建议很快成为热议话题。

时下很多人言必谈AI、文必查DeepSeek,AI俨然成为时尚的代名词。在享受AI带来诸多便利的同时,我们也应该注意它光鲜背后的“阴影面”。

一些AI软件在生成图文、视频的过程中东拼西凑、以讹传讹乃至制假造假,造成诸多风险;有高校学者竟用AI造假的图片、论文投稿,引发一片唏嘘;AI换脸一度以假乱真,令人心生忧虑……如果任凭新技术不负责任地“狂飙”,每个人都可能深受其害。

科学发展、技术变革是人类社会不断向前的推动力,但硬币都有两面,必须辩证看待、科学应对。如果只强调新技术可能造成的危害,防之如洪水猛兽,则新技术可能被扼杀在摇篮里;反之,如果只看到新技术带来的“美好”,不及时建立相应的制衡措施,确保科技向善,而是信马由缰,则会对整个社会造成冲撞。

一部人类科学技术的发展史,也是一部科技伦理不断对新技术进行必要约束的历史。AI风行天下的同时,构建一套规范AI应用的规则制度也应该提上日程。从这个意义上说,全国人大代表“对AI生成内容强制标识”的建议,非常必要、及时、在理。

AI生成内容到底可不可信、值不值得采用,当然取决于使用者的判断。但是,针对AI生成内容,无论好坏、真假、对错一律强制加以显著标识,至少体现了对公众知情权的基本尊重,能够起到提醒作用,也让一些人不能掩耳盗铃地把AI创作据为己有,尽到了起码的伦理责任。

有人说,对AI生成内容强制标识影响了AI生成效率。实际上,相对于公众劳心费力的甄别成本,相对于整个社会的信任成本、运行效率,强制标识带来的消耗不值一提。

2022年,国家网信办、工信部、公安部联合出台的《互联网信息服务深度合成管理规定》要求,任何组织和个人不得利用深度合成服务制作、复制、发布、传播法律、行政法规禁止的信息。2024年,网信办发布的《人工智能生成合成内容标识办法(征求意见稿)》提出,网络信息服务提供者应当按照有关强制性国家标准的要求进行标识。当务之急是在此基础上,尽快健全相关法律法规,进一步规范AI应用,进一步明确一些问题。

比如,明确AI生成内容必须“在适当位置添加显著的提示标识”,让AI深度合成服务商承担起应尽的法律和伦理责任,对履责不力者依法予以惩治;明确对AI生成内容谁传播谁负责的原则,让一些人对发布不实信息行为有所顾忌;明确AI生成内容的著作权、知识产权归属,避免无据可查、相互扯皮。

此外,还应不断增强公民科学素养、辨别能力,最终让AI成为一种安全可控的工具,供人们选择和利用,而非变成一匹桀骜不驯的野马,把人们带到“沟里”。

《中国科学报》(2025-03-10 第1版 要闻)
Baidu
 
特别声明:本文转载仅仅是出于传播信息的需要,并不意味着代表本网站观点或证实其内容的真实性;如其他媒体、网站或个人从本网站转载使用,须保留本网站注明的“来源”,并自负版权等法律责任;作者如果不希望被转载或者联系转载稿费等事宜,请与我们接洽。
 
 打印  发E-mail给: 
    
 
相关新闻 相关论文

图片新闻
科学网2025年2月十佳博文榜单公布! AI助力更快探测恒星合并
全球海冰面积降至历史最低水平 光首次被转化为超固体
>>更多
 
一周新闻排行
 
编辑部推荐博文
 
Baidu
map