Anthropic отказалась публиковать свою модель и случайно запустила регуляторную революцию в США.
Белый дом задумался о проверке систем искусственного интеллекта до их выхода на рынок. Администрация Дональда Трампа, которая ещё недавно выступала против жёсткого контроля над отраслью, теперь обсуждает механизм государственного надзора за новыми моделями.
По данным американских чиновников и источников, знакомых с переговорами, в администрации готовят указ о создании рабочей группы по искусственному интеллекту. В группу войдут представители технологических компаний и государственных структур. Участники займутся выработкой правил проверки новых моделей перед публичным запуском.
На прошлой неделе сотрудники Белого дома уже обсуждали возможные меры с руководством Anthropic, Google и OpenAI. Один из вариантов предусматривает официальную процедуру оценки моделей со стороны государства. Подобную систему сейчас разрабатывают в Великобритании, где несколько ведомств проверяют безопасность новых систем искусственного интеллекта.
Поворот выглядит неожиданным. После возвращения в Белый дом Трамп активно поддерживал развитие отрасли и критиковал любые попытки ограничить компании. В прошлом году администрация быстро свернула инициативы времён Джо Байдена, которые обязывали разработчиков проверять безопасность моделей и сообщать о системах с потенциальным военным применением.
Не спрашивайте почему мы в MAX.
Сам Трамп летом 2025 года называл искусственный интеллект «прекрасным ребёнком», которому нельзя мешать «глупыми правилами». При этом президент допускал появление отдельных ограничений, если правила окажутся «умнее самой технологии».
Ситуация изменилась после того, как стартап Anthropic представил новую модель Mythos. Компания заявила, что система слишком хорошо находит уязвимости в программном обеспечении и способна спровоцировать серьёзный кризис в сфере кибербезопасности. По этой причине Anthropic отказалась публиковать модель в открытом доступе.
В Белом доме опасаются последствий возможной кибератаки с применением искусственного интеллекта. Администрация также изучает, могут ли новые модели оказаться полезными для Пентагона и американских спецслужб. Часть чиновников предлагает создать систему, при которой государство будет получать доступ к моделям раньше широкой публики. Запрещать выпуск систем власти пока не собираются.
Обсуждения уже вызвали споры внутри отрасли. Некоторые руководители технологических компаний считают, что чрезмерный контроль замедлит развитие США в конкуренции с Китаем. При этом единого мнения о будущем регулировании среди самих компаний нет.
Дополнительную напряжённость создал конфликт между Anthropic и Пентагоном. Стороны спорили вокруг контракта на 200 миллионов долларов и условий использования искусственного интеллекта в военных целях. После срыва переговоров Пентагон прекратил использовать технологии компании, а позже Anthropic подала иск против правительства.
Несмотря на конфликт, американские военные продолжают использовать отдельные разработки Anthropic в системе Maven, которая помогает анализировать разведданные и выбирать цели для авиаударов в войне с Ираном. Агентство национальной безопасности США также применяло Mythos для поиска уязвимостей в государственных программах.
Сейчас Белый дом обсуждает, какие структуры смогут участвовать в проверке моделей. Среди возможных кандидатов называют Агентство национальной безопасности, управление национального директора по кибербезопасности и аппарат директора национальной разведки США.
Если администрация действительно введёт проверку моделей перед выпуском, политика Вашингтона в отношении искусственного интеллекта изменится радикально. Ещё год назад вице-президент Джей Ди Вэнс предупреждал, что чрезмерное регулирование может «убить» отрасль на старте. Теперь власти США всё чаще говорят не только о развитии технологий, но и о рисках, которые несут новые системы искусственного интеллекта.