作者:刘园园 来源:科技日报 发布时间:2015/8/4 10:48:26
选择字号:
霍金等千名专家敦促禁止“杀人机器人”

 

科技日报北京8月3日电 (记者刘园园)1000多名知名科学家和人工智能领域专家近日签署公开信,警告可能出现人工智能军备竞赛,并敦促联合国发布针对“攻击性自动化武器”的禁令。

据英国《卫报》报道,公开信的签署者包括著名科学家斯蒂芬·威廉·霍金、特斯拉CEO伊隆·马斯克、苹果联合创始人史蒂夫·沃兹尼亚克以及谷歌人工智能项目负责人米斯·哈撒比斯等。这封信已在网上公开发表,并于日前提交至在阿根廷布宜诺斯艾利斯召开的国际人工智能联合会议。

公开信称:“人工智能技术已经发展到这样一种地步:尽管不合法,自动化武器的使用将在几年内而不是几十年内会成为现实。这将带来极大的风险,自动化武器已经被称为继火药和核武器之后的武器的第三次革命。”

这封信认为,人工智能可以让战场对军事人员而言更为安全,但是能够自主操作的攻击性武器会降低战争发生的门槛,从而给人类生命带来更大的损失。

公开信指出,如果某个军事力量开始研发能选择攻击目标并在没有人类直接操控情况下自动运行的武器系统,会像当年的原子弹一样引发军备竞赛。而与核武器不同的是,人工智能武器并不需要具体的、难于制造的材料,因此很难对其生产进行监控。这封信称,“人类今天所面对的关键问题在于,是在全球范围内启动一场人工智能军备竞赛,还是将其扼杀在萌芽状态。”

新南威尔士大学人工智能教授托比·沃尔什对这一呼吁表示支持:“我们需要在当下做出决定,这个决定将主宰我们的未来,并事关我们是否走在正确的道路上。”

“杀人机器人”是当今的热议话题。霍金和马斯克此前都曾警告说,人工智能是人类最大的威胁,而且完全人工智能的发展将导致人类的终结。今年4月,联合国曾专门召开会议讨论了包括“杀人机器人”在内的未来武器的发展,这次会议曾考虑针对某些特定类型的自动化武器颁布禁令,但遭到一些国家的反对。

 
特别声明:本文转载仅仅是出于传播信息的需要,并不意味着代表本网站观点或证实其内容的真实性;如其他媒体、网站或个人从本网站转载使用,须保留本网站注明的“来源”,并自负版权等法律责任;作者如果不希望被转载或者联系转载稿费等事宜,请与我们接洽。
 
 打印  发E-mail给: 
    
 
以下评论只代表网友个人观点,不代表科学网观点。 
SSI ļʱ
相关新闻 相关论文

图片新闻
《自然》(20241121出版)一周论文导读 清华这位院士搭建了一座室外地质博物园
科学家完整构建火星空间太阳高能粒子能谱 “糖刹车”基因破除番茄产量与品质悖论
>>更多
 
一周新闻排行 一周新闻评论排行
 
编辑部推荐博文
 
论坛推荐

Baidu
map