Как саммиты в Сеуле, Франции и за их пределами могут активизировать международное сотрудничество в области безопасности ИИ на передовых рубежах
В прошлом году правительство Великобритании провело в Блетчли-Парке первый крупный глобальный саммит по безопасности ИИ. Он сосредоточил внимание всего мира на быстром прогрессе на переднем крае развития искусственного интеллекта и принял конкретные международные меры по реагированию на потенциальные будущие риски, включая Декларацию Блетчли; новые институты безопасности ИИ; и Международный научный отчет о продвинутой безопасности искусственного интеллекта.
Спустя шесть месяцев после Блетчли международное сообщество имеет возможность развить этот импульс и активизировать дальнейшее глобальное сотрудничество на саммите AI в Сеуле на этой неделе. Ниже мы делимся некоторыми мыслями о том, как саммит – и будущие – может способствовать прогрессу на пути к общему глобальному подходу к передовой безопасности ИИ.
Возможности искусственного интеллекта продолжают развиваться быстрыми темпами
Со времени Блетчли во всей области были достигнуты значительные инновации и прогресс, в том числе со стороны Google DeepMind. ИИ продолжает совершать прорывы в важнейших научных областях: наша новая модель AlphaFold 3 предсказывает структуру и взаимодействие всех молекул жизни с беспрецедентной точностью. Эта работа поможет изменить наше понимание биологического мира и ускорить открытие лекарств. В то же время семейство моделей Gemini уже сделало продукты, которыми пользуются миллиарды людей по всему миру, более полезными и доступными. Мы также работали над улучшением того, как наши модели воспринимают, рассуждают и взаимодействуют, и недавно поделились своим прогрессом в создании будущих ИИ-помощников с помощью Project Astra.
Этот прогресс в возможностях ИИ обещает улучшить жизнь многих людей, но также поднимает новые вопросы, которые необходимо решать совместно в ряде ключевых областей безопасности. Google DeepMind работает над выявлением и решением этих проблем посредством новаторских исследований в области безопасности. Только за последние несколько месяцев мы поделились нашим развивающимся подходом к разработке целостного набора оценок безопасности и ответственности для наших передовых моделей, включая ранние исследования, оценивающие критически важные возможности, такие как обман, кибербезопасность, самораспространение и самораспространение. рассуждения. Мы также опубликовали углубленное исследование о том, как привести будущих продвинутых помощников ИИ в соответствие с человеческими ценностями и интересами. Помимо программ LLM, мы недавно поделились нашим подходом к биобезопасности AlphaFold 3.
Эта работа движима нашим убеждением в том, что нам необходимо внедрять инновации в области безопасности и управления так же быстро, как мы внедряем инновации в области возможностей, и что обе вещи должны делаться в тандеме, постоянно информируя и усиливая друг друга.
Достижение международного консенсуса в отношении передовых рисков ИИ
Максимизация выгод от передовых систем искусственного интеллекта требует достижения международного консенсуса по важнейшим вопросам безопасности на границах, включая прогнозирование и подготовку к новым рискам, помимо тех, которые представляют собой современные модели. Однако, учитывая высокую степень неопределенности в отношении этих потенциальных будущих рисков, со стороны политиков существует явный спрос на независимую, научно обоснованную точку зрения.
Вот почему выпуск нового промежуточного Международного научного отчета о безопасности передового искусственного интеллекта является важным компонентом Сеульского саммита по искусственному интеллекту, и мы с нетерпением ждем возможности представить доказательства нашего исследования позднее в этом году. Со временем такого рода усилия могут стать центральным вкладом в процесс саммита, и в случае успеха, мы считаем, что ему следует придать более постоянный статус, примерно по образцу функции Межправительственной группы экспертов по изменению климата. Это стало бы жизненно важным вкладом в доказательную базу, которая необходима политикам во всем мире для информирования международных действий.
Мы считаем, что эти саммиты по искусственному интеллекту могут стать регулярным форумом, посвященным достижению международного консенсуса и общего, скоординированного подхода к управлению. Сохранение особого внимания к безопасности границ также обеспечит, чтобы эти встречи дополняли, а не дублировали другие усилия в области международного управления.
Установление передовой практики проведения оценок и согласованной структуры управления
Оценки являются важнейшим компонентом, необходимым для обоснования решений по управлению ИИ. Они позволяют нам измерять возможности, поведение и влияние системы ИИ, а также являются важным исходным материалом для оценки рисков и разработки соответствующих мер по их снижению. Однако наука об оценке безопасности ИИ все еще находится на ранней стадии своего развития.
Вот почему Форум по передовым моделям (FMF), который Google запустил совместно с другими ведущими лабораториями искусственного интеллекта, взаимодействует с институтами безопасности ИИ в США и Великобритании и другими заинтересованными сторонами для обсуждения передовых методов оценки передовых моделей. Саммиты по искусственному интеллекту могли бы помочь масштабировать эту работу на международном уровне и помочь избежать мозаики национальных режимов тестирования и управления, которые дублируют или конфликтуют друг с другом. Крайне важно избегать фрагментации, которая может непреднамеренно нанести вред безопасности или инновациям.
Институты безопасности искусственного интеллекта США и Великобритании уже договорились о выработке общего подхода к испытаниям на безопасность, что является важным первым шагом на пути к большей координации. Мы считаем, что со временем появится возможность выработать на основе этого общий, глобальный подход. Первоначальным приоритетом саммита в Сеуле может стать согласование дорожной карты для широкого круга участников для сотрудничества в разработке и стандартизации передовых критериев и подходов к оценке ИИ.
Также будет важно разработать общие механизмы управления рисками. Чтобы внести свой вклад в эти дискуссии, мы недавно представили первую версию нашей Frontier Safety Framework — набора протоколов для активного выявления будущих возможностей ИИ, которые могут нанести серьезный вред, и внедрения механизмов для их обнаружения и смягчения. Мы ожидаем, что Рамочная основа будет значительно развиваться по мере того, как мы будем учиться на ее реализации, углублять наше понимание рисков и оценок ИИ, а также сотрудничать с промышленностью, научными кругами и правительством. Мы надеемся, что со временем обмен нашими подходами облегчит работу с другими по согласованию стандартов и лучших практик оценки безопасности будущих поколений моделей ИИ.
На пути к глобальному подходу к передовой безопасности ИИ
Многие из потенциальных рисков, которые могут возникнуть в результате прогресса на переднем крае ИИ, носят глобальный характер. В преддверии Сеульского саммита по искусственному интеллекту и предстоящих саммитов во Франции и за ее пределами мы с нетерпением ждем возможности развивать глобальное сотрудничество в области безопасности искусственного интеллекта. Мы надеемся, что эти саммиты станут специализированным форумом для продвижения к общему глобальному подходу. Правильное решение этой проблемы является важным шагом на пути к раскрытию огромных преимуществ ИИ для общества.