2024年3月23日,由教育部关心下一代工作委员会、国家卫健委规划发展与信息化司指导,北京师范大学互联网发展研究院、中国社会管理研究院主办的“人工智能与下一代健康成长论坛”在京召开。来自教育部、国家卫健委、全国妇联等有关部门,北京大学、北京师范大学、中国教育科学研究院、中国移动、科大讯飞、阿里云等单位的专家和企业代表参会。
论坛上,北京师范大学互联网发展研究院重磅发布了《向善而“生”——生成式人工智能技术发展中的科技伦理框架研究报告》。该报告是当前国内从社会伦理和社会治理视角,对生成式人工智能技术发展与应用开展全面深入研究的重要成果。报告梳理了生成式人工智能带来的发展新机遇、主要应用场景、技术运行逻辑、内在风险机理,分析了生成式人工智能可能带来的社会风险与科技伦理挑战,并对包容创新发展、引导科技向善提出了相应的政策建议。
《向善而“生”——生成式人工智能技术发展中的科技伦理框架研究报告》
北师大互联网发展研究院团队介绍,在中华优秀传统文化中,就有“道生一,一生二,二生三,三生万物”的宇宙自然观。“向善而‘生’”,不仅是指生成式人工智能应秉持科技向善的原则,为人类服务,也包含了生成式人工智能将成为一种生生不息的力量,为人类社会发展注入源源不竭的动力。
报告首先分析了生成式人工智能技术带来的发展新机遇、主要应用场景、技术运行逻辑和内在风险机理。从当前来看,生成式人工智能将主要带来内容创新领域的飞跃、个性化服务的深化、效率提升与成本优化、推进行业融合与创新等新发展新机遇;主要应用于知识问答、编程反馈、协同创作等的场景;遵循提出问题、分析需求、生成内容、互动反馈、校准输出的技术运行逻辑。此外,生成式人工智能的语料数据库存在真假双重性与匿名性,人机互动模式以消除用户隐私性为基本前提,对算法与算力的依赖具有高度的技术单向性,结果输出的高效便捷具有技术沉溺诱导性,工具理性逐渐凸显造成理性天平失衡等内在机理可能导致风险的产生。
机遇·场景·逻辑·机理
报告认为现代社会作为一种“风险社会”,具有一系列的不确定性。生成式人工智能由于技术应用的不确定性,可能会带来新型的风险社会,造成结构性失业潮的到来、数字权力格局的改变、网络内容治理的挑战、版权归属的法律困境、数字社会层级分化加剧、技术异化加速、环境可持续发展等问题。
一种新型风险社会
报告指出生成式人工智能可能带来多种伦理风险,比如数据获取侵害用户隐私,内置偏见强化社会歧视,深度伪造加剧信任危机,算法黑箱缺乏透明监督,工具逻辑弱化价值判断,类人特征引发交往困境,技术依赖降低人类自主。
智能时代的伦理追问
如何有效规避和应对生成式人工智能带来的风险和伦理问题则成为关乎社会良序运行与可持续发展的重大课题。为此,报告建议采取以下七类措施开展有效的技术规制与治理,确保AIGC真正向善而“生”:加强教育培训提升全民人工智能素养,构建多元主体人工智能治理共同体,以大模型平台为抓手建立数字安全监管机制,强化人工智能技术的全过程治理,弥合智能鸿沟推进数字社会团结,建立人工智能风险预警与干预机制,推动人工智能发展的绿色化转型。
ChatGPT类生成式人工智能的治理路径
总之,立足当下,报告认为,安全是发展的保障,发展是安全的前提,不发展是最大的不安全。应对生成式人工智能保持开放和包容的态度,积极拥抱智能时代,加强对技术发展的治理,强化对技术的伦理观照,真正让技术服务于人,助力人的自由全面发展。
特别声明:本文转载仅仅是出于传播信息的需要,并不意味着代表本网站观点或证实其内容的真实性;如其他媒体、网站或个人从本网站转载使用,须保留本网站注明的“来源”,并自负版权等法律责任;作者如果不希望被转载或者联系转载稿费等事宜,请与我们接洽。