Hacer innovación de forma responsable - Cómo las prácticas responsables de la IA pueden hacer frente a los riesgos para la paz y la seguridad internacionales

Sábado 27 de septiembre y lunes 13 de octubre

Aunque los avances en la IA civil pueden ofrecer un potencial positivo notable, su uso indebido presenta riesgos significativos para la paz y la seguridad internacionales. Desde un punto de vista crítico, la comunidad técnica en el espacio de la IA civil a menudo no es consciente de estos retos, está poco comprometida o no está segura del papel que puede desempeñar para abordarlos.

Como parte del proyecto Promoción de la innovación responsable en inteligencia artificial para la paz y la seguridad, que ha sido posible gracias al generoso apoyo de la Unión Europea, la Oficina de Asuntos de Desarme de las Naciones Unidas (UNODA) se ha puesto en contacto con profesionales de la IA y expertos técnicos del mundo académico, la industria y la sociedad civil, para examinar las prácticas responsables, los marcos de gestión de riesgos y la forma de abordar los riesgos para la paz y la seguridad internacionales desde el diseño, incluso a través del Manual sobre innovación responsable en IA para la paz y la seguridad internacionales.

El 27 de septiembre de 2025, la UNODA se unió a los anfitriones Google DeepMind y la Universidad Nacional de Seúl para celebrar una sesión especial en la Conferencia sobre Aprendizaje de Robots (CoRL) en Seúl, titulada Robot Learning Done Right: El desarrollo responsable de modelos básicos para la robótica. La sesión examinó las consideraciones éticas y de responsabilidad que surgen de los modelos de aprendizaje automático a gran escala capaces de generalizar en una amplia gama de encarnaciones y tareas robóticas. Los modelos fundacionales de la robótica y los sistemas de visión-lenguaje-acción prometen desbloquear nuevas posibilidades en la inteligencia corporizada, desde la robótica asistencial hasta la fabricación adaptativa, pero también plantean retos únicos relacionados con la seguridad, la responsabilidad y la equidad, así como riesgos infravalorados para la paz y la seguridad internacionales.

UNODA presenta como parte de un panel de expertos a profesionales de la IA y la robótica de todo el mundo.

La sesión reunió a un grupo multidisciplinar de ponentes expertos, entre los que se encontraban el profesor Chihyung Jeon (Instituto Avanzado de Ciencia y Tecnología de Corea), el profesor Sowon Hahn (Universidad Nacional de Seúl), la Dra. Carolina Parada (Google DeepMind) y el Sr. Charles Ovink (UNODA). Los debates exploraron temas clave en la interacción humano-robot, la parcialidad y la imparcialidad, la gobernanza y la supervisión, y los riesgos del uso indebido. Los panelistas hicieron hincapié en la necesidad de marcos éticos conscientes del contexto que equilibren la innovación con la seguridad, la fiabilidad y la confianza, especialmente a medida que estos sistemas se integran cada vez más en entornos sociales y asistenciales.

La UNODA continuó su compromiso técnico el 13 de octubre de 2025, cuando Charles Ovink se unió al programa de la Universidad de Princeton sobre Ciencia y Seguridad Global (SGS) para comprometer a investigadores y expertos técnicos en el avance de enfoques responsables de la innovación científica en apoyo del desarme, el control de armas, la no proliferación y la paz y la seguridad internacionales. El programa con sede en Princeton, con sus contribuciones de larga data a la investigación y la política de control de armas y no proliferación, proporcionó un valioso foro para conectar las consideraciones éticas y de gobernanza de las tecnologías de IA y robótica con las lecciones de décadas de compromiso de la ciencia con la política.

La UNODA se une a jóvenes investigadores y expertos técnicos en Princeton para debatir las prácticas responsables en el desarrollo de la IA, y las formas en que los marcos de gestión de riesgos pueden ayudar a abordar los riesgos para la paz y la seguridad internacionales.

Juntos, estos eventos subrayan la importancia de fomentar un diálogo inclusivo e interdisciplinar sobre el uso responsable de la IA, y de garantizar que los profesionales técnicos que están detrás del futuro de la IA se comprometan a abordar los riesgos que puede presentar.

Si desea más información sobre el trabajo de la UNODA en materia de innovación responsable e IA, póngase en contacto con el Sr. Charles Ovink, Oficial de Asuntos Políticos, en charles.ovink@un.org.