По данным источников The New York Times, Белый дом допускает введение механизма государственной проверки новых ИИ-моделей перед их публичным запуском.
Предполагается, что специальная рабочая группа, состоящая из чиновников и представителей техкомпаний — OpenAI, Google и Anthropic, должна будет выработать процедуры оценки рисков, связанных с созданием «продвинутых» нейросетей.
Ранее Дональд Трамп выступал за минимальное вмешательство государства в развитие ИИ и даже отменил указ администрации Джо Байдена, обязывавший вендоров делиться результатами тестирования безопасности своих LLM. Новый же подход продиктован растущими опасениями по поводу ИБ-рисков продвинутых ИИ-систем — в частности, способность недавних разработок Anthropic находить уязвимости и потенциально использовать их вызвало у нынешней администрации президента США обеспокоенность касательно национальной кибербезопасности.
Меж тем рассматриваемые в этом поле меры, по прогнозам NYT, могут ограничиться лишь доступом правительства к информации о моделях и их тестировании, без прямого запрета на релиз.
- Искусственный интеллект
- Нацбезопасность
- За рубежом