Глобальное управление искусственным интеллектом: рождение новой архитектуры или фрагментация «цифровой повестки»?

AP/Bebeto Matthews

Конкуренция ТНК и государств за правила игры в сфере ИИ

Мировая архитектура в области управления искусственным интеллектом (ИИ) формируется в условиях асимметричного распределения сил. Согласно Докладу ЮНКТАД о технологиях и инновациях за 2025 г., доминирование ограниченного числа транснациональных корпораций приобретает олигополистический характер: складывается ситуация, при которой несколько крупных игроков концентрируют в своих руках основную часть ресурсов, инфраструктуры и технологий, а их решения фактически определяют правила игры для всего сектора. Так, компании Alphabet, Amazon и Microsoft контролируют более двух третей глобального рынка облачных сервисов и хранилищ данных, а в сегменте графических процессоров, критически важных для высокопроизводительных вычислений, Nvidia занимала около 90% мирового рынка в третьем квартале 2024 г. Дополнительным индикатором дисбаланса выступает распределение инвестиций — приблизительно 40% мировых частных вложений в сферу ИИ приходится на ограниченное число компаний (около 100), преимущественно расположенных в США и Китае. Уже сегодня наблюдается глобальное смещение центров технологической мощи в пользу нескольких государств.

На этом фоне нормативное соперничество приобретает стратегическое значение. Начавшаяся гонка по разработке «правил» в сфере ИИ отражает борьбу государств и их объединений за определяющее влияние на параметры регулирования его разработки и применения. Ведущие державы и политические блоки стремятся продвигать собственную нормативную модель, отражающую определенные политико-экономические интересы, культурные ценности и стратегическое видение развития сквозной технологии. За последние годы в рамках различных международных организаций появились многочисленные документы и инициативы по ИИ: Рекомендация Совета ОЭСР по ИИ от 2019 г., Хиросимский процесс, Рамочная конвенция Совета Европы по ИИ, правам человека, демократии и верховенству права от 2024 г. и многие другие. Тем не менее, несмотря на их количество, ни один из них не обладает всеобъемлющим характером, напротив, они имеют преимущественно региональную или блоковую направленность. Кроме того, превалирует тенденция к формированию подобных инициатив при активном участии стран «Большой семерки», тогда как, по данным ЮНКТАД, 118 государств в основном глобального Юга остаются не включенными в эти процессы.

Таким образом, технологическая диспропорция усугубляется переносом конкуренции из «прикладного» сектора ИИ, связанного с его разработкой и практическим использованием, в сферу международных отношений. В совокупности эти факторы усиливают риск фрагментации в сфере международного регулирования этой технологии, что, в свою очередь, ставит под вопрос формирование универсальной и согласованной архитектуры глобального управления ИИ.

Первые шаги по институционализации в ускоренном режиме: консультативный совет и контуры глобальной архитектуры ИИ

В условиях сохраняющегося технологического дисбаланса, фрагментации регулирования, а также множественности инициатив, Организация Объединенных Наций постепенно стремилась закрепить за собой ИИ-повестку и роль универсальной площадки для выработки согласованных подходов к глобальному управлению технологией. Ранее предпринятые шаги, среди которых проведение Международным союзом электросвязи с 2017 г. глобального саммита «ИИ во благо» и принятие в 2021 г. государствами — членами ООН Рекомендации ЮНЕСКО об этических аспектах ИИ, ставшей первым универсальным сводом принципов этичного обращения с технологиями ИИ, заложили основу для этого процесса.

Особое значение имели усилия генерального секретаря ООН. 26 октября 2023 г. на пресс-конференции в Нью-Йорке он объявил об учреждении Консультативного органа высокого уровня по искусственному интеллекту (High-Level Advisory Body on Artificial Intelligence), куда вошли 38 экспертов с целью выработки рекомендаций по трем основным направлениям:

  1. международное управлении ИИ;
  2. исследование рисков и вызовов, связанных с ИИ, и выработка способов их преодоления;
  3. использование ИИ для ускорения достижения Целей устойчивого развития.

Уже в сентябре 2024 г. Консультативный орган представил финальный доклад «Управлении ИИ во благо человечества». В нем было предложены семь ключевых рекомендаций по управлению рисками, связанными с ИИ:

  1. формирование независимой международной научной группы экспертов;
  2. запуск межправительственного диалога по управлению ИИ;
  3. учреждение центра обмена стандартами ИИ;
  4. формирование глобальной сети по наращиванию потенциала;
  5. разработка всемирной системы данных по ИИ;
  6. создание глобального фонда для ИИ;
  7. открытие специализированного офиса по ИИ в системе ООН.

Доклад также содержал призыв создать первую «глобально инклюзивную и распределенную архитектуру управления ИИ», основанную на международном сотрудничестве.

Несмотря на рекомендательный характер, данный документ оказал непосредственное нормативное воздействие на ИИ-проблематику: его ключевые положения были воспроизведены в ряде резолюций Генеральной Ассамблеи ООН и нашли отражение в Глобальном цифровом договоре. Тем самым был обозначен переход от экспертных инициатив к закреплению рамочных параметров многоуровневой архитектуры глобального управления технологией. Примечательно, что этот переход осуществился в беспрецедентно сжатые сроки: менее чем за год Консультативный совет не только подготовил проект, но и представил итоговый доклад, заложив основу для дальнейшего прогресса. Не исключено, что столь ускоренный характер работы совета был обусловлен стремлением продвинуть ключевые рекомендации в экспертном формате, минуя на первом этапе межправительственный механизм, потенциально сопряженный с серьезными разногласиями.

Нормативное оформление ИИ-повестки: резолюции ГА ООН и Пакт во имя будущего

2024 год ознаменовался не только публикацией итогового доклада Консультативного органа высокого уровня, но и концентрацией значимых международных инициатив в области ИИ, прежде всего в рамках ООН. За короткий промежуток времени Генеральная Ассамблея приняла целый ряд документов, которые, с одной стороны, обозначили рамочные ориентиры регулирования, а с другой — отразили многообразие подходов и различие стратегических интересов в области ИИ.

В марте 2024 г., во многом под воздействием критики итогов саммита в Блетчли-парке, США при поддержке союзников инициировали внесение на рассмотрение Генеральной Ассамблеи резолюции «Использование возможностей безопасных, защищенных и надежных систем искусственного интеллекта для устойчивого развития». Документ был принят на консенсусной основе и стал первой резолюцией по вопросам гражданского применения ИИ.

Уже в июле 2024 г. последовала вторая резолюция, на этот раз инициированная Китаем, «Укрепление международного сотрудничества в деле наращивания потенциала в области искусственного интеллекта». Она сместила акцент к вопросам справедливого распределения ресурсов и технологий. Таким образом, первые две резолюции задали разнонаправленные векторы развития глобальной ИИ-повестки: одна сфокусировалась на необходимости применения безопасных систем, другая — на справедливом распределении ресурсов и технологий.

Следующим шагом стало одобрение в сентябре 2024 г. Пакта во имя будущего, включавшего Глобальный цифровой договор в качестве приложения. В документе были согласованы контуры новых механизмов глобального управления ИИ, во многом воспроизводившие положения доклада Консультативного органа высокого уровня. Однако договор не получил единодушной поддержки: он содержал ряд спорных положений и стал предметом широкой критики, в том числе со стороны России, указывавшей на непрозрачность подготовки документа и риск подмены существующих многосторонних переговорных форматов. Принятие документа одновременно отразило наличие глубоких разногласий в подходах государств и закрепило рамочную траекторию дальнейшего развития механизмов по ИИ под эгидой ООН.

Особого внимания заслуживает и военное измерение дискуссий. Так, 16 октября 2024 г. Первый комитет Генеральной Ассамблеи одобрил проект, а 24 декабря документ был принята резолюция «Применение искусственного интеллекта в военной области и его последствия для международного мира и безопасности». В ней подтверждалась применимость норм международного права, включая Устав ООН, международное гуманитарное право и нормы в области прав человека, к использованию ИИ в военной сфере. За проект проголосовали 165 государств, два выступили против, шесть воздержались. Российская Федерация в своем выступлении указала на риски подрыва текущих многосторонних усилий в рамках Группы правительственных экспертов, а также выразила несогласие с включением критериев «ответственного применения» ИИ и ссылками на региональные инициативы, которые, по мнению Москвы, не должны задавать стандарты для переговоров по управлению военным ИИ.

Логическим продолжением вынесения проблематики ИИ в плоскость международной безопасности стало заседание Совета Безопасности ООН на высоком уровне по проблематике ИИ в рамках повестки дня «Поддержание международного мира и безопасности», проведенное 19 декабря 2024 г. по инициативе США. Как заявлялось, мероприятие было нацелено на включение проблематики искусственного интеллекта в число стратегических приоритетов в сфере поддержания международной стабильности.

В 2025 г. динамика сохранилась — 5 июля Генеральная Ассамблея ООН единогласно приняла резолюцию «Роль искусственного интеллекта в создании новых возможностей для устойчивого развития в Центральной Азии», инициированную Республикой Таджикистан. Документ закрепил механизмы использования ИИ для достижения Целей устойчивого развития в регионе. Одно из центральных положений документа — предложение о создании в Душанбе Регионального центра ИИ для координации образовательных, исследовательских и инфраструктурных инициатив в Центральной Азии.

Принятые документы свидетельствуют о выстраивании рамочных норм в сфере ИИ и постепенном расширении повестки гражданского применения ИИ, от задач устойчивого развития и вопросов доверия до проблем международной безопасности и региональных инициатив. Одновременно закладывается основа для дальнейшего кодификационного процесса в этой области. При этом проявляется тенденция к локализованным формам кооперации, которые могут дополнить глобальный механизм. Вероятно, это указывает на усиление роли региональных центров как площадок для апробации и адаптации будущих норм.

Кульминация: резолюция ARES/79/325 и новые механизмы глобального управления ИИ

26 августа 2025 г. Генеральная Ассамблея ООН приняла резолюцию A/RES/79/325, учредив два новых механизма по глобальному управлению ИИ — Независимую международную научную группу по ИИ и Глобальный диалог по управлению ИИ. Документ закрепил условия их функционирования:

1) Научная панель будет состоять из 40 экспертов, назначаемых в личном качестве сроком на три года на равной географической основе, и ежегодно подготавливать аналитические доклады, «имеющие отношение к политике, но не носящие предписывающего характера, и содержащие тематическую справочную информацию», в которых должны обобщаться мировые исследования рисков, возможностей и последствий применения ИИ.

2) Глобальный диалог станет многосторонней площадкой для политических дискуссий и выработки консенсуса в сфере регулирования технологий ИИ для правительств и заинтересованных акторов. Первый диалог состоится в сентябре 2025 г. в рамках 80-й сессии ГА ООН. В 2026 г. встреча пройдет в рамках Всемирного саммита МСЭ «Искусственный интеллект во благо» (AI for Good), а в 2027 г. — в ходе многостороннего форума по использованию научно-технических достижений и новаторства в интересах достижения целей в области устойчивого развития.

Фактически данная резолюция формирует институциональное ядро глобального управления ИИ в системе ООН и знаменует переход от рамочных деклараций к созданию единой архитектуры. Вместе с тем ООН закрепила за собой функцию координатора многоуровневой системы управления ИИ. Тем не менее следует учитывать, что сохраняется риск «мягкой полицентричности», при которой глобальная архитектура не становится единой, а превращается в сеть частично совместимых режимов.

Принципиальное значение имеет то, что в резолюции мандат создаваемых под эгидой ООН институтов ограничивается исключительно вопросами гражданского применения ИИ. Тем самым намеренно исключается военный аспект, который в международной практике остается чувствительным. Эта проблематика продолжает оставаться предметом отдельного обсуждения. Таким образом, складывается двухконтурная структура мандатов:

  • гражданское применение ИИ институционализировано в новых механизмах (научная группа и глобальный диалог);
  • военное применение ИИ вынесено в отдельный переговорный трек (прежде всего, в рамках площадки Группы правительственных экспертов государств-участников Конвенции о «негуманном» оружии по смертоносным автономным системам вооружений (ГПЭ по САС), а также в Комиссии ООН по разоружению.), что позволяет избежать блокировки переговоров по гражданскому измерению ИИ-повестки.

Вместо заключения. Возможные сценарии эволюции глобальной архитектуры управления ИИ и будущее «правил игры»

В 2024–2025 г. наблюдается ускоренная институционализация ИИ-повестки в рамках ООН. Принятые документы не только обозначили переход от декларативных принципов к созданию конкретных процедурных и организационных механизмов, но и продемонстрировали усиливающуюся политизацию вопроса. С одной стороны, решения ООН закрепили ориентиры и необходимость выработки согласованных подходов к управлению ИИ. С другой стороны, разногласия по содержанию отдельных документов и множественность параллельных инициатив указывают на сохраняющийся риск нормативной раздробленности и конкуренции режимов.

При этом не следует исключать, что выделение отдельного «ИИ-трека» можно рассматривать и как попытку рассредоточить переговорный процесс по ИКТ в целом, отчасти выводя за скобки наиболее политически чувствительные вопросы. В этом контексте учреждение Независимой международной научной группы и Глобального диалога по управлению ИИ одновременно свидетельствует о консолидации усилий и о возможности дальнейшего расслоения переговоров.

Сам процесс формирования глобальной архитектуры управления ИИ находится лишь на ранней стадии институционализации. Тем не менее перспективы глобального управления ИИ после принятия резолюции 79/325 следует рассматривать не как абстрактные гипотезы, а как сценарии развития уже заданного институционального контура. Создание Независимой международной научной группы по ИИ и Глобального диалога по управлению ИИ задало минимально необходимую инфраструктуру координации — регулярные экспертные доклады непредписывающего характера и цикличный межправительственный трек. На основе этих параметров можно выделить три базовых сценария развития глобальной архитектуры управления ИИ — оптимистический (ускоренная унификация), промежуточный (мягкая полицентричность) и пессимистический (контурная фрагментация).

1) Сценарий ускоренной унификации через институциональное ядро ООН. На основе регулярных докладов Научной группы формируется консолидированный корпус доказательной базы и общих понятий, а Глобальный диалог постепенно переходит от обмена позициями к согласованию минимально обязательных параметров регулирования. Результатом может стать рамочное политико-правовое соглашение под эгидой ООН (в формате всеобщей декларации с протокольной линией), либо «пакет» согласованных стандартов, подлежащих последующей имплементации в национальные и региональные режимы.

2) Сценарий мягкой полицентричности. Глобальный диалог и доклады Научной группы выступают механизмами совместимости между региональными и национальными режимами, но без перехода к обязательным к исполнению нормам. Возникает сетевой режим координации — набор согласованных руководящих принципов, добровольных кодексов и технических стандартов, признанных через практику и ссылки в национальных актах. «Мягкая полицентричность» становится устойчивым состоянием, разные центры силы сохраняют свои модели, но согласуют параметры совместимости. Это должно способствовать укреплению мягкого права, формированию зачатков обычных норм (например, об обязательной оценке рисков и человеческом надзоре), росту транспарентности через регулярные отчеты, без механизма принуждения. Роль ООН в данном сценарии сводится к функции координатора и «рефери» совместимости режимов.

3) Сценарий контурной фрагментации при сохранении опоры в лице ООН. Формируются несколько квазисамостоятельных регуляторных зон, каждая со своими обязательными требованиями. Однако Научная группа и Глобальный диалог функционируют как площадки обмена информацией, стресс-тестирования норм, деэскалации инцидентов и выработки «протоколов безопасности» по узким вопросам (например, уведомление об инцидентах с ИИ высокого риска). В этом контексте роль ООН будет ограничиваться удержанием «тонкой связности» через регулярный диалог и доклады, что будет позволять предотвратить полный распад режима.

Подводя итог, сценарный анализ показывает, что эволюция глобальной архитектуры управления ИИ не предопределена, напротив, будет зависеть от политической воли и осознания общей судьбы человечества перед лицом технологического прогресса. При этом дальнейшее развитие архитектуры во многом будет зависеть от того, какую динамику получат новосозданные механизмы. В этой связи особое значение приобретают предстоящие международные мероприятия:

  • неофициальное заседание высокого уровня с участием широкого круга заинтересованных сторон в рамках недели заседаний высокого уровня восьмидесятой сессии Генеральной Ассамблеи (сентябрь 2025 г.);
  • Глобальный диалог в рамках Всемирного саммита Международного союза электросвязи «Искусственный интеллект во благо» (Женева, 2026 г.);
  • многосторонний форум по использованию научно-технических достижений и новаторства в интересах достижения целей в области устойчивого развития (Нью-Йорк, 2027 г.).

Именно эти мероприятия станут индикаторами того, в каком направлении будет развиваться формирующаяся архитектура глобального управления ИИ: в сторону консолидации или, напротив, к закреплению многоуровневой и частично фрагментированной системы. В любом случае процесс кодификации и институционализации в сфере ИИ вступил в фазу необратимости, а перед международным сообществом стоит задача не только согласовать «правила игры», но и обеспечить их универсальную применимость, минимизировав риск «ИИ-разломов».

Данные о правообладателе фото и видеоматериалов взяты с сайта «Российский совет по международным делам», подробнее в Условиях использования