ИИ должен замолчать: Возняк, Хинтон и Брэнсон требуют остановить машины, пока не поздно

Искусственный интеллект

Искусственный интеллект

© commons.wikimedia.org by Kharsohtun is licensed under Creative Commons Attribution-Share Alike 4.0 International

22 октября 2025 года Институт "Будущее жизни" (Future of Life Institute, FLI) опубликовал новый документ под названием "Заявление о сверхинтеллекте" - обращение к мировому научному и технологическому сообществу с требованием временно приостановить разработку искусственного интеллекта, способного превзойти человека в большинстве интеллектуальных задач.

Под документом стоят подписи известных деятелей науки, политики и бизнеса, включая Стива Возняка, Стива Бэннона, нобелевских лауреатов Йошуа Бенджио и Джеффри Хинтона, а также Ричарда Брэнсона, принца Гарри и Меган Маркл.

"Человечество должно убедиться, что сверхинтеллект безопасен и поддаётся контролю, прежде чем пересечёт точку невозврата", — отмечается в заявлении FLI.

Что предлагает "Заявление о сверхинтеллекте"

Авторы инициативы призывают остановить исследования и тестирование систем, способных к общему сверхинтеллекту (AGI), до выполнения двух ключевых условий:

  1. Научный консенсус о безопасности таких систем и методах их контроля.

  2. Общественный мандат, то есть широкое согласие человечества на продолжение подобных разработок.

В тексте подчёркивается, что быстрый прогресс в области ИИ угрожает не только сфере труда и свободе личности, но и "достоинству человека и самому выживанию цивилизации".

Кто подписал документ

Подписи под "Заявлением о сверхинтеллекте" поставили представители разных областей — от технологического бизнеса до политики и гуманитарных наук. Среди них:

  • Стив Возняк, сооснователь Apple;

  • Стив Бэннон, политический стратег;

  • Йошуа Бенджио и Джеффри Хинтон, пионеры глубинного обучения;

  • Ричард Брэнсон, основатель Virgin Group;

  • принц Гарри и Меган Маркл.

Такой широкий список показывает, что опасения относительно ИИ выходят за рамки технологического сектора и становятся глобальным общественным вопросом.

Продолжение мартовского письма 2023 года

Это не первое обращение FLI к мировым компаниям. Весной 2023 года институт опубликовал открытое письмо с призывом объявить шестимесячную паузу в обучении моделей мощнее GPT-4. Тогда инициатива вызвала бурные дискуссии, но ни одна крупная компания (включая OpenAI, Google и Anthropic) фактически её не поддержала.

Теперь FLI идёт дальше — речь идёт не просто о паузе, а о моратории без конкретного срока, который может быть снят только после появления научных гарантий безопасности.

Почему это важно сейчас

С момента публикации предыдущего письма ИИ-индустрия прошла несколько ключевых этапов:

  • Появление многоагентных систем с автономным планированием и действиями в реальном мире;

  • Рост вычислительных мощностей, необходимых для обучения крупных моделей;

  • Активное внедрение ИИ в системы государственного управления, образования и здравоохранения.

FLI предупреждает, что эти тенденции могут привести к созданию систем, способных принимать решения без человеческого контроля - от финансовых операций до военных задач.

Основные тезисы заявления

ПунктСодержание
ЦельВременная остановка исследований сверхинтеллекта
ПродолжительностьДо достижения научного консенсуса и общественного согласия
ОбоснованиеРиски для труда, свободы, достоинства и выживания человечества
Характер документаНейтральный, не антиискусственный, направлен на безопасность
Предыдущий документПисьмо о "передышке" для GPT-4 (март 2023 года)

Каковы потенциальные риски сверхинтеллекта

FLI и соавторы заявления выделяют несколько направлений угроз:

  • Экономические - вытеснение людей из ключевых профессий и концентрация капитала у разработчиков ИИ.

  • Политические - возможность манипуляции информацией и общественным мнением.

  • Этические - отсутствие прозрачности в принятии решений нейросетями.

  • Экзистенциальные - риск того, что сверхинтеллект выйдет из-под контроля и поставит под угрозу человечество.

Организация не предлагает отказаться от ИИ как технологии, а требует ввести механизмы контроля и "тормозы безопасности", прежде чем двигаться дальше.

Ошибка → Последствие → Альтернатива

ОшибкаПоследствиеАльтернатива
Игнорировать риски сверхинтеллектаПотенциальная потеря контроля над системамиВвести мораторий до появления надёжных методов контроля
Сосредоточиться только на коммерческой выгодеУсиление неравенства и этических конфликтовФормировать международные стандарты регулирования
Отложить обсуждение до появления угрозОпоздание с мерами безопасностиСоздание глобальной этической платформы для диалога

А что если мораторий всё же введут?

Если инициативу FLI поддержат правительства или международные организации, это станет первым в истории ограничением на фундаментальные исследования ИИ.
Однако реализация такой меры потребует согласованности между ведущими державами — США, ЕС, Китаем и Индией, что пока представляется маловероятным.

С другой стороны, подобный шаг может ускорить создание международного регулятора по ИИ, аналогичного МАГАТЭ в сфере атомной энергетики.

Плюсы и минусы инициативы

ПлюсыМинусы
Повышение уровня общественного контроляЗамедление научного прогресса
Стимулирование разработки безопасных стандартовРиск ухода исследований "в тень"
Привлечение внимания политиков и обществаОтсутствие единых критериев "сверхинтеллекта"
Возможность формирования международного договораСложность реализации в условиях конкуренции

Исторический контекст

Институт "Будущее жизни" был основан в 2014 году группой исследователей, в числе которых Макс Тегмарк и Йошуа Бенджио. Организация известна своими инициативами в области этики ИИ и глобальной безопасности.
В 2015 году FLI уже публиковал "Письмо об опасностях неконтролируемого ИИ", подписанное Илон Маском и Стивеном Хокингом. С тех пор институт остаётся одним из ключевых центров дискуссий о безопасном развитии искусственного интеллекта.

Интересные факты

  1. Текст заявления умещается на две страницы и написан намеренно без сложных терминов — чтобы его могли подписать не только учёные, но и общественные деятели.

  2. Среди подписантов — представители более чем 40 стран.

  3. FLI планирует направить документ в ООН, Европейскую комиссию и Белый дом для рассмотрения на уровне политики.

FAQ

Что такое "сверхинтеллект" в понимании FLI?
Это система, превосходящая человека в большинстве интеллектуальных задач — от логического рассуждения до научного анализа и творчества.

Означает ли это запрет на обычные ИИ-системы?
Нет. Речь идёт только о разработке моделей, близких к общему или сверхчеловеческому интеллекту.

Есть ли шанс, что правительства поддержат инициативу?
Пока документ имеет декларативный характер, но может стать основой для будущих международных соглашений.

Данные о правообладателе фото и видеоматериалов взяты с сайта «NewsInfo», подробнее в Условиях использования
Анализ
×
Рэйчел Меган Маркл
Последняя должность: Герцогиня Сассекская, графиня Дамбартон баронесса Килкил
25
Ричард Чарльз Николас Брэнсон
Последняя должность: Основатель (Virgin Group Ltd.)
7
Стивен Кевин Бэннон (Стив Бэннон)
Сфера деятельности:Должностное лицо
21
Возняк Стив
Хинтон Джеффри