Impulsados por factores como los grandes avances en el aprendizaje automático, el acceso a los datos y las innovaciones en hardware, los avances en IA se están empleando en campos que van desde el descubrimiento de fármacos hasta la gestión de la cadena de suministro. Sin embargo, esos mismos avances también presentan riesgos reales para la paz y la seguridad internacionales.
Aunque algunos de ellos se derivan del potencial de la IA para fines militares, incluso los desarrollos de la IA destinados exclusivamente a un uso civil pueden ser reutilizados con fines maliciosos o perjudiciales, desde campañas de desinformación y ciberataques hasta operaciones terroristas. La tecnología no es intrínsecamente neutral, y las decisiones tomadas a lo largo del ciclo de vida de la IA, así como las acciones que ésta facilita, también están destinadas a repercutir en la paz y la seguridad internacionales.
Puede resultar difícil para los profesionales de la IA prever cómo su trabajo puede tener consecuencias negativas no intencionadas, pero dada su posición en el ciclo de vida de la IA, están especialmente bien situados para ayudar a abordar estos riesgos y pueden desempeñar papeles fundamentales para mitigarlos. Desde principios de 2023, la Oficina de Asuntos de Desarme de las Naciones Unidas (UNODA) y el Instituto Internacional de Estocolmo para la Investigación de la Paz (SIPRI) han trabajado con profesionales de la IA, tanto del mundo académico como de la sociedad civil y la industria, de todo el mundo para probar y desarrollar materiales educativos que puedan introducirse en la educación STEM y ayudar a los futuros profesionales de la IA a abordar los riesgos para la paz y la seguridad internacionales en su origen.
Basándose en este trabajo, la UNODA y el SIPRI lanzaron en julio el Manual sobre innovación responsable en IA para la paz y la seguridad internacionales, un valioso recurso para educadores y estudiantes de IA que quieran innovar de forma responsable. El manual se diseñó para ayudar a los profesionales de la IA a ser conscientes de cómo su trabajo puede tener consecuencias derivadas para la paz y la seguridad internacionales, ayudar a mitigar los riesgos que su trabajo pueda presentar y participar en debates sobre el nexo entre la IA y la paz y la seguridad internacionales. El manual está diseñado para ser utilizado por educadores que deseen integrar el material en sus planes de estudios, así como por lectores individuales. El manual es uno de los resultados de un proyecto más amplio, Promover la innovación responsable en inteligencia artificial para la paz y la seguridad, llevado a cabo por la Oficina de Asuntos de Desarme de las Naciones Unidas (UNODA) y el Instituto Internacional de Estocolmo para la Investigación de la Paz (SIPRI), con el generoso apoyo de la Unión Europea.
Para más información sobre la Promoción de la innovación responsable en IA para la paz y la seguridad, póngase en contacto con el Sr. Charles Ovink, Oficial de Asuntos Políticos,en charles.ovink@un.org.