Le 16 octobre, dans le cadre du premier Forum Youth4Disarmament des Nations Unies soutenu par le gouvernement de la République de Corée, de jeunes leaders ont rejoint des experts nucléaires et des diplomates pour un panel d'experts approfondi sur les "Effets déstabilisateurs de l'intelligence artificielle et des technologies de l'information et de la communication sur la stabilité nucléaire"
Ce groupe d'experts a permis aux jeunes participants de s'entretenir avec des experts sur le lien entre les armes nucléaires et les technologies émergentes. Les experts ont aidé les participants à affiner leur projet de document final avec des recommandations clés qui seront distribuées aux délégations du premier comité de l'Assemblée générale des Nations unies en décembre 2025.
En ouvrant la session, la modératrice, Mme Umi Ariga-Maisy, chargée de recherche à l'Institut japonais des affaires internationales, a encadré la discussion autour du besoin urgent de comprendre les risques émergeant de l'intersection de l'IA, des cybertechnologies et des systèmes de commandement nucléaire (NC3). Le panel d'experts et les participants au forum ont été invités à réfléchir aux défis et aux opportunités que représentent les effets déstabilisateurs de l'intelligence artificielle et des technologies de l'information et de la communication (TIC) sur la stabilité nucléaire.
Mme Dina Tawfik, membre du Centre d'études sur l'énergie et la sécurité, a fait remarquer que des études récentes ont montré que l'intelligence artificielle avait tendance à choisir des options plus agressives. Elle a également souligné d'autres risques liés à l'opacité des algorithmes, aux biais d'automatisation et à la perception erronée des armes nucléaires.

M. Giacomo Persi Paoli, chef du programme "Sécurité et technologie" à l'Institut des Nations unies pour la recherche sur le désarmement (UNIDIR), a souligné que les développements de l'IA ont généralement été sous-estimés et que la prochaine génération pourrait potentiellement surpasser les performances de la prochaine génération d'IA en 2027. Il a également noté que même si l'intégration de l'IA dans les systèmes de commandement, de contrôle et de communication nucléaires (NC3) pouvait facilement être évitée, le défi de l'intégration de l'IA dans le processus de prise de décision nucléaire pourrait constituer une vulnérabilité du point de vue de la sécurité et de la cybersécurité.
Mme Beyza Unal, du Bureau des affaires de désarmement des Nations unies ( ), chef de l'unité "Science et technologie", a souligné les nombreuses vulnérabilités à l'intersection de l'IA, de la cybernétique et des systèmes nucléaires. Elle a noté que de nombreux NC3 et infrastructures de production reposent encore sur des technologies obsolètes et des chaînes d'approvisionnement fragiles, ce qui les expose à des faiblesses potentielles en matière de cybersécurité. Elle a en outre mis l'accent sur les multiples problèmes de sécurité posés par l'évolution rapide de la cybertechnologie par rapport au temps nécessaire pour intégrer de nouvelles technologies dans des systèmes d'armes nucléaires préexistants.

Mme Patricia Jaworek, directrice du programme de politique nucléaire mondiale à la Nuclear Threat Initiative (NTI), a expliqué comment les risques liés à l'IA ont commencé à être pris en compte dans les discussions sur le TNP et les initiatives connexes, telles que les contributions de l'initiative de Stockholm au troisième comité préparatoire et les efforts multilatéraux récents comme la déclaration conjointe Biden-Xi pour 2024. Elle a souligné que le lien entre l'IA et le nucléaire représente non seulement des défis technologiques et structurels, mais aussi des défis politiques et institutionnels.
Mme Erika Campos, deuxième secrétaire à la mission permanente du Brésil auprès des Nations unies, a mis l'accent sur les deux résolutions présentées à la première commission de cette année, qui traitent de certains aspects de l'IA et des technologies émergentes. Elle a également encouragé l'engagement par le biais de mécanismes tels que les zones exemptes d'armes nucléaires et le groupe d'experts gouvernementaux sur la vérification du désarmement nucléaire pour gérer les questions du lien entre l'IA et le nucléaire.
M. Leonard Günzel, ancien élève du programme "Innovation responsable dans l'IA pour la paix et la sécurité" de l'UNODA, a souligné le manque d'éducation dans le domaine de l'ingénierie responsable. Il a insisté sur la nécessité d'une formation à l'ingénierie responsable et éthique et a encouragé la communauté politique et la communauté des ingénieurs à s'engager davantage dans les questions sociétales et les unes envers les autres.

Pendant la partie interactive des questions-réponses, les participants ont exploré les défis de la vérification, les cadres de gouvernance et les moyens de combler le fossé entre la communauté politique et la communauté technique. Les experts ont préconisé des taxonomies communes, des incitations industrielles en faveur d'une IA responsable et l'élargissement des possibilités de bourses et de formation afin de favoriser la compréhension interdisciplinaire. Ils ont également suggéré que les discussions sur l'IA soient formellement intégrées aux futures délibérations du TNP sur la transparence et la responsabilité et ont souligné que les solutions durables dépendront de l'innovation et de l'engagement des jeunes leaders.
En conclusion, les participants et les experts ont souligné l'importance d'un dialogue continu entre les jeunes, les décideurs politiques et la communauté scientifique pour assurer la stabilité entre l'IA et la technologie nucléaire. Ils ont insisté sur le fait que combler le fossé entre le secteur des technologies émergentes rapides et les sphères dirigeantes sera essentiel pour éviter les erreurs d'appréciation et maintenir la sécurité mondiale.