科技日报北京11月6日电 (记者张梦然)据英国《独立报》网站、剑桥新闻网4日消息,英国著名物理学家斯蒂芬·霍金在接受《连线》杂志采访时,表达了其对人工智能(AI)的担忧。霍金认为,人工智能有可能会取代人类,最终会演变成一种超越人类的新生命形式。
霍金表示,即使人们会设计出计算机病毒,但也有人会相应的改进和完善自己的AI技术,到那时就会出现一种超越人类的新生命形式。
霍金认为,追求效率的机器会想“甩脱”人类,而人类已经到达了一个不能后退的临界点。地球对人们来说太小了,全球人口正在以惊人的速度增长,人们正处于自我毁灭的危险境地之中。因此他倡导应该有更多人投身于科学事业。霍金称,制定新的太空计划是当前科学界的迫切工作,一个新的“太空时代”可以吸引年轻人参与科学,进而找到宇宙中合适的行星作为人类另一个可以居住的地方。
霍金已不是第一次对人工智能的崛起表示担心。2016年10月,霍金也曾警告称,人工智能可以发展自己的意志,并与人类的意志抗衡。他在剑桥大学智能未来研究中心发表演讲探讨人工智能快速发展的意义时表示:人工智能的崛起对于人类来说既是好事也是坏事。生物大脑能够实现的目标,和计算机能够实现的目标之间没有太大区别。因此从理论上来说,计算机可以模拟人类的智慧并超越它。
但此次霍金也强调,当今人工智能正在飞速发展,获得了巨大的投资,也存在巨大的优势。技术革命可以帮助消除工业化对自然界造成的一些损害。
霍金说,我们的目标是最终根除疾病和贫穷,在这一过程中我们生活的方方面面也会转变。而“成功创造了人工智能,很可能是人类文明史上最伟大的事件。但如果我们不能学会如何避免风险,那么我们会把自己置于绝境”。
特别声明:本文转载仅仅是出于传播信息的需要,并不意味着代表本网站观点或证实其内容的真实性;如其他媒体、网站或个人从本网站转载使用,须保留本网站注明的“来源”,并自负版权等法律责任;作者如果不希望被转载或者联系转载稿费等事宜,请与我们接洽。