|
一场探讨科技伦理的学术论坛,人文学者占绝大多数、科学家寥寥无几,这一现象引发学界再思考 |
追问“科技向善”,科学家不应缺席科技伦理研究 |
|
■随着人工智能等新技术迅速发展、与人类的关系越来越密切,科学研究的探索正不断触探人类生命伦理的底线,科技工作者与人文社科学者是时候坐下来、共同投入到科技伦理研究之中了
■对科技伦理的研究不仅需要更多科技工作者参与,而且应该不限于学者——需要更多的人、更多的机构参与其中,大家共同探讨事关社会与人类安全的重大问题,积极推动科技向善
■本报记者 姜澎
一场围绕科技伦理展开的“头脑风暴”,来参加的大多数是人文社科领域的学者,科技工作者则寥寥无几。日前,由复旦大学与中国科协联合主办的中国科技伦理高峰论坛上,有学者忍不住感慨:科技伦理论坛的参加者应该至少有三分之一是科学家,但让人遗憾的是,目前不少类似的学术论坛,几乎都出现了“科学家缺席”的现象。
中国科协-复旦大学科技伦理研究院院长王国豫也在接受记者采访时呼吁,随着人工智能等新技术迅速发展、与人类的关系越来越密切,科学研究的探索正不断触探人类生命伦理的底线,科技工作者与人文社科学者是时候坐下来、共同投入到科技伦理研究之中了。
火爆全球的大模型,价值对齐仍未完全解决
“即便是人工智能和
这两个最早开始关注伦理的科学领域,至今,对于不同场景下的具体伦理问题,学界内部都存在着大量的争议。”王国豫指出,当下,随着各类跨界的科学研究越来越多,给科技伦理治理带来的挑战也越来越多。
就以近年来引发争议最多的人工智能领域为例。多位学者在接受记者采访时提及,人工智能自诞生之初就面临着价值对齐的问题,且这样的问题至今都未能完全解决。
所谓价值对齐,简言之,就是确保人工智能的价值观与人类的价值观相一致。而时至今日,火遍全球的人工智能大模型,依然没有明确提出与人类的价值对齐、保持一致的价值观。
事实上,在对于“什么是有价值的”这一根本问题上,身处不同文化圈的人们在其历史长河中,逐渐形成了各自的主流价值,从而给出不同答案,甚至不只不同群体之间存在差异,同一个群体内部也会存在不同的判断和选择。
就大模型而言,如何使其具备普遍的价值观,不仅人工智能专家和人文社科领域的学者之间存在着比较大的分歧,人工智能研究领域内部的意见也并不一致。一位人工智能领域的学者告诉记者,越来越多的人倾向于认为,应该确保大模型具有人类最大公约数下的价值共识,但仍有部分业界专家对此持保留意见,认为“过于强调大模型的价值对齐,会影响人工智能本身的创造能力”。
科技伦理的复杂性,远超人们想象
科技是发展的利器,也可能成为风险的源头。科技伦理问题的复杂性,也远超人们想象。
在
领域,科技伦理也面临着一系列复杂棘手的难题。中国医学科学院、北京协和医学院生命伦理学研究中心执行主任翟晓梅就以我国基因编辑技术研究和转化领域两个大众熟知的案例为切入点,探讨新兴科技医学研究与转化的伦理视角。
2015年4月,中山大学黄军就团队发表了全球第一篇利用基因编辑技术修改人类胚胎基因的论文。这一研究结果很快引发国际社会的巨大伦理争论,认为黄军就团队的工作使“全世界科学家感到震惊”,因为对人胚的基因进行编辑“是一条不应该跨越的界线”,“对人胚进行基因编辑是设计婴儿,因而引发了令人不安的伦理问题”。
但仔细了解黄军就团队的研究工作后,可以发现其研究是可以得到伦理学辩护的。首先,团队涉及研究使用人胚的来源合规。他们使用的人胚来源于IVF剩余的不可存活、不可能发育成有感觉的细胞的三倍体受精卵(正常的受精卵是二倍体);在程序上,团队也采取了非常谨慎的措施,即这些受精卵发育48小时、发育到8个细胞时就销毁,以用来分析基因编辑的效应。而国际学术界通常要求在使用人胚进行干细胞研究时,允许人胚体外培养5-6天、达到100-300个细胞。黄军就在发表的论文中也明确提出,“这一基础实验室研究的结论是,基因编辑技术从目前成效看,还有较高的脱靶率”。此外,论文还清楚地表明立场:这种技术不应应用于人类胚胎的临床研究。
另一个反面案例,就是众所周知的南方科技大学原副教授贺建奎所从事的基因编辑技术。他的工作并非基础实验室研究,而是临床应用。在实质伦理学方面,其研究是在不充分的科学和医学基础上进行的,医学上不是必要的,也违背了国际公认的伦理准则和我国的规范。“我们应该认真思考,我们这代人对未来几代人负有什么责任?技术上的进步,不能成为一种特权。”翟晓梅说。
科技伦理关注的不仅是现在,更是未来
“近年来,一些科幻小说和影视作品不时对科技发展带来的负面效应开展深刻思考、反思,不断探索科技伦理的边界。但与之形成对比的是,现实生活中,我们的科技工作者对科技伦理的关注度却并不够。”在这次论坛上,不少学者在发言时不约而同提到了这一观点。
仍以人工智能为例。早在上世纪四五十年代,科幻作家阿西莫夫就幻想,未来的世界将由人类和机器人构成,并基于对人类的保护提出了“机器人三原则”;本世纪初,斯皮尔伯格的电影《人工智能》提出问题——“如果机器人学会爱人类时,人类能爱机器人吗”,更是对人工智能发出终极伦理拷问。
中国科学院自动化研究所研究员、人工智能伦理与治理中心主任曾毅坦率地说,随着生成式人工智能(AIGC)不断迭代,那些曾被视为潜在风险的伦理问题正成为确切存在的问题。但是,科学界对此并没有予以足够的重视。“我曾与一些从事系统安全的研究者讨论过一些科技伦理问题,可他们简单地认为,伦理问题与系统安全无关。试问,一个不道德的系统怎么可能是安全的?”
科技伦理之所以重要,不仅因为其关系到当下的伦理问题,更关系到未来。翟晓梅强调,
领域的科技伦理必须坚守“代际公正”原则。而从某种程度上来说,对于整个科学领域,这一原则都是适用的,且具有重要意义。
所谓代际公正,就
领域而言,是指科技不仅要确保人类健康需求与伦理风险的平衡,还要确保科学家没有滥用他们掌握科技的特权、影响我们子孙后代的利益。翟晓梅解释说,“我们这一代人所推动的科技进步会影响到未来世代的科学进步,但我们对子孙后代的生命并没有所有权,所以当代的科学家有义务保障未来世代的生命质量。”
曾毅也从人工智能为切入点,谈到科技伦理对未来的影响。“不妨试想一下:当这个世界上出现了超级人工智能的时候,我们能否保证这个超级人工智能有着超越人类的利他心?正如现在关于蚂蚁的800多条维基百科中,只有一条谈到蚂蚁的社会结构与人类社会结构有某种程度的相似之处。我们面对的这个世界是以人类为中心的,未来如何确保超级人工智能在认知这个世界时会遵循‘以人类为中心’?”
推动科学与人文的对话,任重道远
“科技伦理很具体,不仅包含明确的概念、规范、原则,而且关系到事实层面的工作。但长期以来,从事伦理学研究的学者与科学工作者之间缺乏畅通的沟通机制,这就使得对科技伦理的研究很多时候是‘从概念到概念’。”王国豫接受采访时再三强调,当科技发展使得科技伦理的风险越来越大时,需要更多科技工作者参与到对科技伦理的发展和规范中来。她多年来在高校哲学系任教,且同时在人工智能、计算机等多个领域参与科技伦理研究和规范工作。她坦言,科学工作者和人文社科工作者的知识结构决定了他们看问题的视角不同,甚至两者的语言体系都不一样。但是,“缺少科技工作者参与的科技伦理工作,一定是有缺憾的”。
事实上,历史上很多关于科技伦理的问题,最初都是由科技工作者提出的。而现在,一个让人稍感欣慰的迹象是,越来越多的科学工作者开始关注科技伦理问题。北京大学医学人文学院院长、医学部公共教学部主任周程介绍,在2017年前,人工智能伦理领域的论文数一直平稳保持在低位;而在2017年后,相关论文数量呈几何级增长。同样,AlphaGo的问世也推动国际电气与电子工程师协会(IEEE)于2016年底发布世界首个人工智能道德准则设计草案,即《人工智能设计的伦理准则》。但是,这些工作只是一个开始,未来,如何推动科学工作者和伦理学研究者之间的交流,依旧任重道远。
“随着科研探索进入‘无人区’,人类科技活动对未来的影响,包括其产生的风险和利益,我们在当下或许无法作出准确预判。从这个意义上讲,对科技伦理的研究不仅需要更多科技工作者参与,而且应该不限于学者——需要更多的人、更多的机构参与其中,大家共同探讨事关社会与人类安全的重大问题,积极推动科技向善。”王国豫也进一步呼吁,要积极推动科技伦理纳入教育之中,让科技伦理要求贯穿于科学活动的全过程,倡导更多人参与科技伦理的讨论和规范,为强化科技伦理治理提供更有力的支撑。
(原标题:追问“科技向善”,期待更多科学家上场)
特别声明:本文转载仅仅是出于传播信息的需要,并不意味着代表本网站观点或证实其内容的真实性;如其他媒体、网站或个人从本网站转载使用,须保留本网站注明的“来源”,并自负版权等法律责任;作者如果不希望被转载或者联系转载稿费等事宜,请与我们接洽。