人工智能汽车和人识别软件成为一场伦理辩论的核心。 图片来源:Saul Loeb/AFP/Getty
在公众对人工智能(AI)、隐私和数据使用的担忧日益加剧之际,计算机学家Brent Hecht提出了一个有争议的提议:计算机学界应该改变其同行评议程序,以确保研究人员在论文中披露其成果存在的任何潜在社会负面影响,否则就会面临被拒稿的风险。
Hecht现为未来计算机科学院(FCA)主席,该学院由一群计算机领域的年轻领导者构成,他们在今年3月得出了这项提议。Hecht说,如果不采取这些措施,计算机学家就会盲目地开发产品而不考虑其影响,这一领域将会面临像石油和烟草行业一样的风险,历史对该行业的评判将会不利。
FCA是美国纽约计算机协会(ACM)的一部分,这是世界上最大的科学计算协会。该协会也在作出改变以鼓励研究人员考虑社会影响:7月17日,它发布了最新版的伦理规范(上一次修订是在1992年)。该规范呼吁研究人员警惕其工作会如何影响社会,逐步采取措施保护隐私,不断重新评估随着时间发展其影响会发生改变的技术,比如基于机器学习的技术。
现在伊利诺伊州西北大学工作的Hecht近日在接受采访时谈到了该群体建议的裨益。Hecht表示,当一个同行评审员收到递交给一本期刊或一个会议的论文时,他们会被要求评估其学术严谨性。“我们认为,这应该包括作者对相关影响的认识的学术严谨性。”他说,“这个想法并不是要预测未来,而是基于该文本资料分析该技术潜在的负面效应,或是意想不到的使用结果。”
“这听起来似乎没有多么重要。”Hecht说,“但因为同行评审员是所有学术领域计算机科学研究的把关者,因此我们讨论的是把关者是如何打开大门的。”(晋楠)
《中国科学报》 (2018-08-01 第3版 国际)