“如果伦理没有做好准备,将来我们创造出来的就可能是怪物。”近日,在由中科院学部科学道德建设委员会主办,学部科学规范与伦理研究支撑中心、福建省科协共同承办,《科学与社会》编辑部协办的以“人工智能:在效率和安全中寻求统一”为主题的2017’科技伦理研讨会上,北京大学
技术学院教授査红彬说。
2016年达沃斯全球经济论坛用以机器智能为象征的第四次工业革命即将到来为主题,阐释了机器智能将对人类社会产生的影响。在机器智能的影响下,信息社会将向人和及其共存共创的智能社会发生转变。
随着基于深度学习的Alphago连续战胜多位人类的围棋名将后,人工智能对人类社会产生怎样的影响,以及人类是否存在未来被人工智能取代的风险等涉及人工智能伦理的话题讨论便从未停歇过。
然而,在査红彬看来,现在Alphago事实上还是在环境已知、规则化的封闭环境中的研究成果,而未来人工智能的研究应该是在未知环境、非规则化的机器人。
虽然,人工智能的发展目前仍处于模拟人的思维、感知、行为的弱人工智能阶段,但对于能够模拟人类意识的强人工智能,人类还是应当通过伦理先于技术发展的探讨,为人工智能与人类自身的和平相处打好基础。
著名英国物理学家霍金曾表示,人工智能“是好是坏我们仍不能确定,但我们应该竭尽所能,确保其未来发展对我们和我们的环境有利”。
在中科院科技战略咨询研究院研究员李真真看来,应该从两个维度来看待人工智能的发展,人工智能应用带来社会智能化的过程,以及人工智能系统自身的发展及其引发的问题。
“智能化的过程令社会发生了变化,从社会生态视角来看,人工智能发展带来了人机关系的核心问题。”李真真说。
事实上,当下人工智能的发展已经带来了诸多伦理挑战。如是否会导致大规模失业、是否会带来个人隐私与社会安全的隐患等。
不过与会专家更关注的是“奇点”到来后,人类将如何自处。
据査红彬介绍,人工智能的技术奇点是指人工智能超过人类智力极限的时间点,“此后世界的发展将会超出人类的理解范畴”。
依据库兹韦尔的“加速循环规则”,技术的力量正以指数级的速度迅速增长,技术奇点将于2045年到来。
这无疑会增加人类的紧迫感,但科学家也表示,对此并非无计可施。
据浙江大学预言与认知研究中心教授廖备水介绍,他们正在考虑将伦理嵌入到人工智能系统中。在他看来,当下人工主体的探讨并没有讨论社会层面的内容,而规范主体应当是人工主体与社会规范和伦理的结合。
这需要抽取人类社会的价值观念,并将其嵌入到智能系统中,从而对智能系统行为形成约束。
廖备水介绍称,他们通过提供数学模型来处理各种不一致情境中的推理,同时可实现不同利益攸关方的求同存异。这样便可“为解释自主智能系统的决策提供一种自然而形象的途径”。
尽管专家对探讨人工智能发展的伦理框架态度积极,但也对其发展可以对人类社会带来的益处予以了肯定。
上海交通大学计算机科学与工程系教授吕宝粮表示,通过无创的可穿戴脑机交互系统,可以实现对人、动物在自然场景下的情绪识别和调控。“如特殊岗位的极端情绪和情感监控以及抑郁症的检测量化等都可以实现”。
会上,中科院院士裴钢特别提醒,伦理道德法律法规有不同历史文化社会背景,也有很强的现实要求,然而现在的伦理体系多是西方主导的伦理,这应当引起中国科学家的注意。他建议,中国科学家应当在加快在相应伦理规则中探讨的步伐,在国际社会发出中国科技伦理的声音。