El 16 de octubre, como parte del Foro inaugural Youth4Disarmament de las Naciones Unidas apoyado por el Gobierno de la República de Corea, jóvenes líderes se unieron a expertos nucleares y diplomáticos para un panel de expertos en profundidad sobre los "Efectos desestabilizadores de la inteligencia artificial y la tecnología de la información y las comunicaciones sobre la estabilidad nuclear"
El panel de expertos brindó a los jóvenes participantes una oportunidad interactiva para entablar un diálogo significativo con expertos sobre el nexo entre las armas nucleares y las tecnologías emergentes. Los expertos ayudaron a los participantes a perfeccionar su proyecto de documento final con recomendaciones clave que se distribuirá entre las delegaciones de la Primera Comisión de la Asamblea General de la ONU en diciembre de 2025.
Al abrir la sesión, la moderadora Umi Ariga-Maisy, investigadora del Instituto Japonés de Asuntos Internacionales, enmarcó el debate en torno a la urgente necesidad de comprender los riesgos que surgen de la intersección de la IA, las tecnologías cibernéticas y los sistemas de mando nuclear (NC3). El panel de expertos y los participantes en el foro se presentaron para reflexionar sobre los retos y las oportunidades que presentan los efectos desestabilizadores de la Inteligencia Artificial y las TIC sobre la Estabilidad Nuclear.
La participante en el foro, Dina Tawfik, miembro del Centro de Estudios sobre Energía y Seguridad, señaló que, según estudios recientes, la IA tiende a elegir opciones más escalatorias. También destacó otros riesgos relacionados con la opacidad algorítmica, los sesgos de automatización y la percepción errónea de las armas nucleares.

ElSr. Giacomo Persi Paoli, Jefe del Programa de Seguridad y Tecnología del Instituto de las Naciones Unidas de Investigación sobre el Desarme (UNIDIR), destacó que los avances de la IA se han subestimado en general y que la próxima generación podría superar potencialmente el rendimiento de la siguiente generación de IA en 2027. También señaló que, aunque la integración de la IA en los sistemas de Mando, Control y Comunicaciones Nucleares (NC3) podría evitarse fácilmente, el reto de la integración de la IA en el proceso de toma de decisiones nucleares podría suponer una vulnerabilidad tanto desde el punto de vista de la seguridad como de la ciberseguridad.
LaSra. Beyza Unal, Jefa de la Unidad de Ciencia y Tecnología de la Oficina de Asuntos de Desarme de las Naciones Unidas , expuso las numerosas vulnerabilidades existentes en la intersección de la IA, la ciberseguridad y los sistemas nucleares. Señaló que muchas NC3 e infraestructuras de producción siguen dependiendo de tecnologías anticuadas y cadenas de suministro frágiles, lo que las deja expuestas a posibles puntos débiles en su ciberseguridad. Además, hizo hincapié en los múltiples retos de seguridad que plantea el adelanto de la tecnología cibernética en comparación con el tiempo que se tarda en integrar las nuevas tecnologías en los sistemas de armas nucleares preexistentes.

LaSra. Patricia Jaworek, Directora del Programa de Política Nuclear Global de la Iniciativa contra la Amenaza Nuclear (NTI), explicó cómo los riesgos relacionados con la IA han empezado a figurar en los debates sobre el TNP y en las iniciativas relacionadas, como las contribuciones de la Iniciativa de Estocolmo en el tercer Comité Preparatorio y los recientes esfuerzos multilaterales como la Declaración Conjunta Biden-Xi de 2024. Hizo hincapié en que el nexo AI-nuclear no sólo representa desafíos tecnológicos y estructurales, sino también políticos e institucionales.
LaSra. Erika Campos, Segunda Secretaria de la Misión Permanente de Brasil ante las Naciones Unidas, destacó las dos resoluciones presentadas este año ante la Primera Comisión que abordan aspectos de la IA y las tecnologías emergentes. También alentó el compromiso a través de mecanismos como las Zonas Libres de Armas Nucleares y el Grupo de Expertos Gubernamentales sobre Verificación del Desarme Nuclear para gestionar las cuestiones del nexo entre la IA y las armas nucleares.
El Sr. Leonard Günzel, participante en el Foro, Innovación responsable en IA para la paz y la seguridad, UNODA, subrayó la falta de educación en ingeniería responsable. Hizo hincapié en la necesidad de una educación en ingeniería responsable y ética y animó tanto a la comunidad política como a la de ingeniería a comprometerse más con las cuestiones sociales y entre sí.

Durante la parte interactiva de preguntas y respuestas, los participantes exploraron los retos de la verificación, los marcos de gobernanza y las formas de salvar la brecha entre las comunidades política y técnica. Los expertos pidieron taxonomías compartidas, incentivos de la industria para una IA responsable y la ampliación de las oportunidades de becas y formación para fomentar el entendimiento interdisciplinar. También sugirieron que los debates sobre la IA podrían integrarse formalmente en las futuras deliberaciones del TNP sobre transparencia y responsabilidad y subrayaron que las soluciones duraderas dependerán de la innovación y el compromiso de los jóvenes líderes.
Para concluir, los participantes y expertos subrayaron la importancia de un diálogo continuo entre los jóvenes, los responsables políticos y la comunidad científica para garantizar la estabilidad entre la IA y la tecnología nuclear. Hicieron hincapié en que salvar la brecha entre el sector de la tecnología rápidamente emergente y las esferas de gobierno será clave para evitar errores de cálculo y mantener la seguridad mundial.