Innover de manière responsable - Comment les pratiques responsables en matière d'IA peuvent répondre aux risques pour la paix et la sécurité internationales

Samedi 27 septembre et lundi 13 octobre

Si les progrès de l'IA civile peuvent offrir un potentiel positif remarquable, l'utilisation abusive de l'IA civile présente des risques importants pour la paix et la sécurité internationales. La communauté technique dans le domaine de l'IA civile n'est souvent pas consciente de ces défis, n'est pas suffisamment impliquée ou n'est pas sûre du rôle qu'elle peut jouer pour les relever.

Dans le cadre du projet Promoting Responsible Innovation in Artificial Intelligence for Peace and Security, rendu possible grâce au soutien généreux de l'Union européenne, le Bureau des affaires de désarmement des Nations unies (UNODA) a contacté des praticiens de l'IA et des experts techniques du monde universitaire, de l'industrie et de la société civile, afin d'examiner les pratiques responsables, les cadres de gestion des risques et la manière d'aborder les risques pour la paix et la sécurité internationales dès la conception, notamment par le biais du Handbook on Responsible Innovation in AI for International Peace and Security (Manuel sur l'innovation responsable en matière d'IA pour la paix et la sécurité internationales).

Le 27 septembre 2025, l'UNODA a rejoint les hôtes de Google DeepMind et de l'Université nationale de Séoul pour une session spéciale à la Conférence sur l'apprentissage des robots (CoRL) à Séoul, intitulée Robot Learning Done Right : Développer de manière responsable des modèles de base pour la robotique. Cette session s'est penchée sur les considérations éthiques et de responsabilité qui découlent des modèles d'apprentissage automatique à grande échelle capables de se généraliser à un large éventail d'incarnations et de tâches robotiques. Les modèles de base de la robotique et les systèmes vision-langage-action promettent d'ouvrir de nouvelles possibilités en matière d'intelligence incarnée, de la robotique de soins à la fabrication adaptative, mais soulèvent également des défis uniques liés à la sécurité, à la responsabilité et à l'équité, ainsi que des risques sous-estimés pour la paix et la sécurité internationales.

L'UNODA intervient dans le cadre d'un groupe d'experts pour les praticiens de l'IA et de la robotique du monde entier.

La session a réuni un groupe multidisciplinaire d'intervenants experts, dont le professeur Chihyung Jeon (Korea Advanced Institute of Science and Technology), le professeur Sowon Hahn (Seoul National University), le Dr Carolina Parada (Google DeepMind) et M. Charles Ovink (UNODA). Les discussions ont porté sur des thèmes clés de l'interaction homme-robot, les préjugés et l'équité, la gouvernance et la surveillance, ainsi que les risques d'utilisation abusive. Les panélistes ont souligné la nécessité d'établir des cadres éthiques adaptés au contexte, qui concilient l'innovation avec la sécurité, la fiabilité et la confiance, d'autant plus que ces systèmes sont de plus en plus intégrés dans les environnements sociaux et de soins.

L'UNODA a poursuivi son engagement technique le 13 octobre 2025, lorsque Charles Ovink a rejoint le programme de l'Université de Princeton sur la science et la sécurité mondiale (SGS) pour engager les chercheurs et les experts techniques à faire progresser les approches responsables de l'innovation scientifique à l'appui du désarmement, du contrôle des armes, de la non-prolifération et de la paix et de la sécurité internationales. Le programme de Princeton, qui contribue depuis longtemps à la recherche et à la politique en matière de contrôle des armes et de non-prolifération, a fourni un forum précieux pour relier les considérations éthiques et de gouvernance des technologies de l'IA et de la robotique aux leçons tirées de décennies d'engagement en faveur de la science et de la politique.

L'UNODA se joint à de jeunes chercheurs et à des experts techniques à Princeton pour discuter des pratiques responsables dans le développement de l'IA et de la manière dont les cadres de gestion des risques peuvent aider à faire face aux risques pour la paix et la sécurité internationales.

Ensemble, ces événements soulignent l'importance de favoriser un dialogue inclusif et interdisciplinaire sur l'utilisation responsable de l'IA, et de s'assurer que les praticiens techniques à l'origine de l'avenir de l'IA s'engagent à traiter les risques qu'elle peut présenter.

Pour plus d'informations sur les travaux de l'UNODA sur l'innovation responsable et l'IA, veuillez contacter M. Charles Ovink, responsable des affaires politiques, à l'adresse suivante : charles.ovink@un.org.