Суббота 27 сентября и понедельник 13 октября
Несмотря на то, что достижения в области гражданского ИИ могут предложить замечательный положительный потенциал, неправильное использование гражданского ИИ представляет собой значительный риск для международного мира и безопасности. Очень важно, что техническое сообщество в сфере гражданского ИИ часто не знает об этих проблемах, недостаточно вовлечено в их решение или не уверено в том, какую роль оно может сыграть в их устранении.
В рамках проекта "Продвижение ответственных инноваций в искусственном интеллекте для мира и безопасности", ставшего возможным благодаря щедрой поддержке Европейского Союза, Управление ООН по вопросам разоружения (UNODA) обратилось к практикам и техническим экспертам в области ИИ из академических кругов, промышленности и гражданского общества, чтобы изучить ответственную практику, системы управления рисками и способы устранения рисков для международного мира и безопасности с момента разработки, в том числе с помощью Руководства по ответственным инновациям в ИИ для международного мира и безопасности.
27 сентября 2025 года УНП ООН совместно с компанией Google DeepMind и Сеульским национальным университетом провело специальную сессию на Конференции по обучению роботов (CoRL) в Сеуле под названием "Обучение роботов, сделанное правильно: Ответственная разработка базовых моделей для робототехники. На сессии рассматривались вопросы этики и ответственности, возникающие при разработке крупномасштабных моделей машинного обучения, способных обобщать широкий спектр робототехнических воплощений и задач. Фундаментальные модели робототехники и системы "зрение-язык-действие" обещают открыть новые возможности в области воплощенного интеллекта, от робототехники для ухода до адаптивного производства, но также поднимают уникальные проблемы, связанные с безопасностью, подотчетностью и справедливостью, и недооцененные риски для международного мира и безопасности.

На сессии собралась междисциплинарная группа экспертов, среди которых профессор Чихьюнг Чон (Корейский передовой институт науки и технологий), профессор Совон Хан (Сеульский национальный университет), доктор Каролина Парада (Google DeepMind) и г-н Чарльз Овинк (УНП ООН). В ходе дискуссий были рассмотрены ключевые темы взаимодействия человека и робота, предвзятость и справедливость, управление и надзор, а также риски неправомерного использования. Участники дискуссии подчеркнули необходимость разработки этических рамок, учитывающих контекст, которые позволят сбалансировать инновации с безопасностью, надежностью и доверием, особенно по мере того, как эти системы будут все больше интегрироваться в социальную среду и среду ухода.
УНП ООН продолжило свое техническое участие 13 октября 2025 г., когда Чарльз Овинк присоединился к программе Принстонского университета "Наука и глобальная безопасность" (SGS), чтобы привлечь исследователей и технических экспертов к продвижению ответственных подходов к научным инновациям в поддержку разоружения, контроля над вооружениями, нераспространения и международного мира и безопасности. Программа, базирующаяся в Принстоне, с ее многолетним вкладом в исследования и политику в области контроля над вооружениями и нераспространения, предоставила ценный форум для обсуждения этических и управленческих аспектов технологий искусственного интеллекта и робототехники с уроками, полученными за десятилетия работы в области науки в интересах политики.

Вместе эти мероприятия подчеркивают важность развития инклюзивного междисциплинарного диалога об ответственном использовании ИИ и обеспечения того, чтобы технические специалисты-практики, стоящие за будущим ИИ, были вовлечены в решение проблем, связанных с рисками, которые он может представлять.
Для получения дополнительной информации о работе UNODA в области ответственных инноваций и ИИ, пожалуйста, свяжитесь с г-ном Чарльзом Овинком, сотрудником по политическим вопросам, по адресу charles.ovink@un.org.