“关于基因编辑的文章,2012年只有7篇,2018年达到2750篇,作者超过36000人,分布在92个国家,从属于3600多所大学和研究机构。对他们的问卷调查发现,40%的人从没听说过已有的60多个基因编辑相关宣言,真正研究过那些共识条款的人不足20%。这就是我们的现状。”11月8日晚,第二届世界科技与发展论坛以“科技伦理与科学文化”为题举办高端对话,清华大学苏世民书院院长薛澜现场分享了一项研究。
他进一步说,在参与调查的全球科学家中,有30%同意“暂停基因编辑研究”,超过50%反对,“科技工作者内部都是分裂的,可见从业者并没有对基因编辑的伦理问题进行深入思考。”
基因编辑之外,人工智能、脑机接口、自动驾驶……在现代科技快速迭代和社会应用不断创新的今天,技术和产业创新紧密结合,在推动社会发展的同时引发一系列伦理问题,冲击着人类传统的伦理观念。正如世界工程组织联合会主席龚克所言,“挑战已经近在眼前”。
基因编辑、人工智能等伦理争议最受关注
根据中国社科院组织的相关调查,在科技伦理领域最受关注的问题中,基因技术排在首位,机器人、人类增强、人工智能等分列其后。
作为生殖医学科学家,北大第三医院院长乔杰院士身处技术和伦理冲突的“第一线”。她表示,伦理知识体系建设的起点就是医学伦理,“一定要关注新技术可能对人类生理心理、权益尊严、道德法律的影响。科技推动社会进步,伦理是对社会的保障。”
她以所在领域为例:辅助生殖给不孕症患者带来福音,但基因歧视、可能的筛选甚至婴儿定制等都值得深思,遗传学的父母和社会学的父母背后的伦理法律风险也需要讨论。而新摘得诺奖的基因编辑技术更是伦理争议“重灾区”,“分子剪刀廉价又高效,但用它剪什么?在缺乏严格伦理审查的情况下,后果不可预估。”乔杰说。
“科学家开展前沿医学科学研究必须做出一个判断,我们要用什么样的伦理规则处理人类胚胎,这样的规定对于医学进步非常重要。”中科院脑科学与智能技术卓越创新中心学术主任蒲慕明院士表示,“像脑机接口,可以解读大脑中的活动,改变人的行为模式甚至控制人。像新药研发,药物不再只是帮助人类治愈疾病,还有可能增强人体机能,这会不会导致社会进一步分化?”
在人工智能领域,伦理问题相伴相生。微软首席科学家埃里卡·霍维茨一一列举:AI系统的可信度、安全性、公平性、透明度,数据中深埋的偏见、歧视等不一而足。
在薛澜看来,新兴科技带来的伦理挑战主要集中于不可控的风险如基因编辑对人类身体和后代的影响;侵权的风险如数据隐私和保护;责任性的风险如自动驾驶事故以及社会性的风险。“都是必须思考,找到解决方案的伦理问题”。
需跨国跨领域跨圈层合作治理
“二战后到现在,从事科研活动的人数剧增,且来自不同国家不同文化不同宗教,传统的科技伦理治理机制已经失灵。”薛澜坦言。
是否有建立新机制的可能?所有人的回答都指向对话与合作。
“去年拟定在工程领域负责任地运用人工智能和大数据的原则时,我们对全球各大企业的相关做法进行了比较,结果发现极大相似性。在最基本原则上,大家的认识是相同的。”龚克说。蒲慕明同样表示,从克隆技术、原子弹技术的发展史来看,在新的争议技术上建立全球性伦理行为准则是可以实现的。
在联合国教科文组织UNESCO人工智能伦理委员会召集人、荷兰特文特大学教授保罗·维贝克看来,确定共同的伦理治理框架是最重要的,因为“技术的影响不局限于某个国家,它是全球的。而好的伦理规则适用于所有技术和国家,需要相互了解共同开发”。他表示,通过建立沟通平台,开发技术影响的预测评估工具,可以进行技术规制。
薛澜表示,要实现科技伦理的全球治理,深入的研究和对话是首要的,各个国家、企业、社会组织、科学家团体都要参与其中,更坦诚地沟通甚至“交火”。其中,龚克特别强调了科学共同体的作用,“科学共同体不仅要在技术创新上走在前面,也要在伦理上走在前面”。
科技伦理建设是全球性议题。去年7月,《国家科技伦理委员会组建方案》审议通过,我国科技伦理建设全面启动。
“全球科技伦理治理是我们的必修课。我们需要在科技伦理方面更多交流、达成共识。”微软公司前执行副总裁、美国工程院外籍院士沈向洋说,“这是人类共同的责任。”
(科技日报北京11月8日电)
特别声明:本文转载仅仅是出于传播信息的需要,并不意味着代表本网站观点或证实其内容的真实性;如其他媒体、网站或个人从本网站转载使用,须保留本网站注明的“来源”,并自负版权等法律责任;作者如果不希望被转载或者联系转载稿费等事宜,请与我们接洽。