|
|
人工智能设计的蛋白质能被“武器化”吗? |
科学家们制定了安全指南 |
人工智能设计的蛋白质能被用作生物武器吗?为了避免这种可能性,以及避免烦琐的政府监管,3月8日,美国研究人员发起了一项倡议,呼吁安全、合乎道德地使用蛋白质设计。
美国西雅图华盛顿大学计算生物物理学家David Baker是这项倡议的发起者之一,他说:“蛋白质设计的潜在好处远远超过了危险。”其他数十名将人工智能应用于生物设计的科学家也签署了该倡议。
“这是一个良好的开端。我会在倡议上签名。”美国乔治城大学全球卫生政策专家Mark Dybul说。但他也认为“我们需要政府的行动和规则,而不仅仅是自愿的指导”。
此前,美国国会、智库和其他组织纷纷发布报告,探讨人工智能工具——比如AlphaFold等蛋白质结构预测网络、ChatGPT等大型语言模型,是否有可能使开发生物武器变得更加容易。
?
人工智能工具AlphaFold可以设计蛋白质以执行特定功能。图片来源:Google DeepMind
几十年来,包括Baker和同事在内的研究人员一直在尝试设计和制造新的蛋白质。但近年来,得益于人工智能的进步,他们的创造能力有了大爆发。曾经需要数年时间或不可能实现的工作——比如设计一种与特定分子结合的蛋白质,现在可以在几分钟内实现,而科学家为此开发的大多数人工智能工具都是免费的。
为评估恶意使用设计蛋白的可能性,华盛顿大学贝克蛋白质设计研究所于2023年10月举办了一次人工智能安全峰会。“问题是:蛋白质设计应该如何受到监管?如果有危险的话,危险是什么?”Baker说。
这份由美国、欧洲、亚洲的数十名科学家提出的倡议呼吁生物设计界自我监管,包括定期审查人工智能工具的能力和监测其研究实践。Baker希望该领域成立一个专家委员会,在相关软件广泛使用前对其进行审查,并在必要时设置安全“护栏”,避免恶意内容。
该倡议还呼吁改进DNA合成的筛查,这是将人工智能设计的蛋白质转化为实际分子的关键一步。目前,许多提供这项服务的企业都与一个名为国际基因合成联盟(IGSC)的行业组织签约,该组织要求它们进行筛查,以识别毒素或病原体等有害分子。
美国合成生物学公司Twist Bioscience的生物安全主管、IGSC主席James Diggans表示:“防御人工智能产生威胁的最佳方法是建立能够检测这些威胁的人工智能模型。”
各国政府也在努力应对人工智能带来的生物安全风险。2023年10月,美国总统拜登签署了一项行政命令,呼吁对此类风险进行评估,并提高了要求联邦资助的研究进行DNA合成筛查的可能性。
Baker希望政府相关部门不要干涉该领域的未来发展,他说,政府监管可能会限制人工智能设计的蛋白质可能产生的药物、疫苗和材料的开发。Diggans补充道,由于蛋白质设计工具的开发速度很快,目前尚不清楚如何对其进行监管。很难想象,监管在这一周是适用的,在下一周仍然是适用的。”
但是,美国斯坦福大学微生物学家David Relman表示,科学家主导的努力不足以确保人工智能的安全使用。“科学家无法代表广大公众的利益。”
版权声明:凡本网注明“来源:中国科学报、科学网、科学新闻杂志”的所有作品,网站转载,请在正文上方注明来源和作者,且不得对内容作实质性改动;微信公众号、头条号等新媒体平台,转载请联系授权。邮箱:shouquan@stimes.cn。