负责任地进行创新--负责任的人工智能实践如何应对国际和平与安全面临的风险

9 月 27 日星期六和 10 月 13 日星期一

虽然民用人工智能的进步可以带来巨大的积极潜力,但滥用民用人工智能也会给国际和平与安全带来重大风险。至关重要的是,民用人工智能领域的技术界往往没有意识到这些挑战,参与不足,或不确定自己在应对这些挑战方面可以发挥的作用。

在欧洲联盟的慷慨支持下,联合国裁军事务厅(UNODA)开展了 "促进负责任的人工智能创新以促进和平与安全 "项目,作为该项目的一部分,联合国裁军事务厅一直在与学术界、工业界和民间社会的人工智能从业人员和技术专家联系,研究负责任的做法、风险管理框架以及如何从设计开始应对国际和平与安全面临的风险,包括通过《负责任的人工智能创新以促进国际和平与安全手册》。

2025 年 9 月 27 日,联合国裁军事务厅与东道主谷歌 DeepMind 公司和首尔国立大学一道,在首尔举行的机器人学习会议(CoRL)上召开了一次特别会议,题为 "正确的机器人学习":负责任地开发机器人基础模型。会议探讨了大规模机器学习模型在伦理和责任方面的考虑,这些模型能够在广泛的机器人体现和任务中进行泛化。机器人基础模型和视觉-语言-动作系统有望开启从护理机器人到自适应制造等体现智能的新可能性,但也提出了与安全、责任和公平有关的独特挑战,以及对国际和平与安全的未被充分认识的风险。

联合国裁军事务厅作为全球人工智能和机器人技术从业人员专家小组的成员发言。

会议汇集了多学科的专家发言人,包括Chihyung Jeon教授(韩国科学技术院)、Sowon Hahn教授(首尔国立大学)、Carolina Parada博士(谷歌DeepMind)和Charles Ovink先生(联合国裁军事务厅)。讨论探讨了人与机器人互动、偏见与公平、治理与监督以及滥用风险等方面的关键主题。小组成员强调,尤其是在这些系统越来越多地融入社会和护理环境的情况下,需要建立具有背景意识的伦理框架,在创新与安全性、可靠性和信任之间取得平衡。

2025 年 10 月 13 日,查尔斯-奥文克参加了普林斯顿大学的科学与全球安全计划,与研究人员和技术专家就推进负责任的科学创新方法以支持裁军、军备控制、不扩散及国际和平与安全继续进行技术接触。设在普林斯顿的该方案长期致力于军备控制和不扩散研究与政策,它提供了一个宝贵的论坛,将人工智能和机器人技术的伦理和治理考虑因素与数十年来科学促进政策参与的经验教训联系起来。

联合国裁军事务厅与普林斯顿大学的年轻研究人员和技术专家一起,讨论人工智能开发中负责任的做法,以及风险管理框架可帮助应对国际和平与安全风险的方式。

这些活动共同强调了促进关于负责任地使用人工智能的包容性跨学科对话的重要性,并确保人工智能未来背后的技术从业人员参与应对人工智能可能带来的风险。

有关联合国裁军事务厅负责任的创新和人工智能工作的更多信息,请联系政治事务干事 Charles Ovink 先生,电子邮件:charles.ovink@un.org。