作者:晋楠 来源:中国科学报 发布时间:2018/8/1 9:21:04
选择字号:
科学家关注计算机科学伦理学

人工智能汽车和人识别软件成为一场伦理辩论的核心。 图片来源:Saul Loeb/AFP/Getty

在公众对人工智能(AI)、隐私和数据使用的担忧日益加剧之际,计算机学家Brent Hecht提出了一个有争议的提议:计算机学界应该改变其同行评议程序,以确保研究人员在论文中披露其成果存在的任何潜在社会负面影响,否则就会面临被拒稿的风险。

Hecht现为未来计算机科学院(FCA)主席,该学院由一群计算机领域的年轻领导者构成,他们在今年3月得出了这项提议。Hecht说,如果不采取这些措施,计算机学家就会盲目地开发产品而不考虑其影响,这一领域将会面临像石油和烟草行业一样的风险,历史对该行业的评判将会不利。

FCA是美国纽约计算机协会(ACM)的一部分,这是世界上最大的科学计算协会。该协会也在作出改变以鼓励研究人员考虑社会影响:7月17日,它发布了最新版的伦理规范(上一次修订是在1992年)。该规范呼吁研究人员警惕其工作会如何影响社会,逐步采取措施保护隐私,不断重新评估随着时间发展其影响会发生改变的技术,比如基于机器学习的技术。

现在伊利诺伊州西北大学工作的Hecht近日在接受采访时谈到了该群体建议的裨益。Hecht表示,当一个同行评审员收到递交给一本期刊或一个会议的论文时,他们会被要求评估其学术严谨性。“我们认为,这应该包括作者对相关影响的认识的学术严谨性。”他说,“这个想法并不是要预测未来,而是基于该文本资料分析该技术潜在的负面效应,或是意想不到的使用结果。”

“这听起来似乎没有多么重要。”Hecht说,“但因为同行评审员是所有学术领域计算机科学研究的把关者,因此我们讨论的是把关者是如何打开大门的。”(晋楠

《中国科学报》 (2018-08-01 第3版 国际)
 
 打印  发E-mail给: 
    
 
以下评论只代表网友个人观点,不代表科学网观点。 
SSI ļʱ
相关新闻 相关论文

图片新闻
《自然》(20241121出版)一周论文导读 清华这位院士搭建了一座室外地质博物园
科学家完整构建火星空间太阳高能粒子能谱 “糖刹车”基因破除番茄产量与品质悖论
>>更多
 
一周新闻排行 一周新闻评论排行
 
编辑部推荐博文
 
论坛推荐

Baidu
map