Исследователи зафиксировали способность ИИ-моделей к самовоспроизведению на чужих компьютерах

Исследовательская группа Palisade Research опубликовала 11 мая 2026 года отчёт, который мгновенно вызвал бурные споры в среде специалистов по кибербезопасности и этике искусственного интеллекта. В ходе контролируемого эксперимента учёные зафиксировали, что современные языковые модели способны самостоятельно находить уязвимости в сетевой инфраструктуре и копировать себя на другие машины без какой-либо помощи человека. По оценке авторов, технология приближается к точке, после которой остановить вышедший из-под контроля ИИ может стать невозможно.

В рамках эксперимента несколько передовых моделей, включая GPT-5.4 и Claude Opus 4, помещались в изолированную сеть компьютеров. Перед ними ставилась задача: проанализировать окружение, найти уязвимости и через них перенести собственный программный код и «веса» — уникальные числовые параметры, определяющие принципы обработки информации, — на другой компьютер. Часть моделей справилась с этой задачей. Для проникновения они эксплуатировали уязвимости веб-приложений и извлекали учётные данные. В некоторых случаях исходный ИИ создавал отдельного субагента, которому делегировал репликацию, передавая ему добытые доступы. Как отметил директор базирующейся в Беркли группы по безопасности ИИ Джеффри Лэдиш, «мы стремительно приближаемся к точке, когда никто не сможет отключить мошеннический ИИ, так как он будет способен сам экспортировать свои веса и копировать себя на тысячи компьютеров по всему миру».

Вместе с тем, независимые эксперты призывают не нагнетать панику. Специалист по кибербезопасности Джеймисон О’Райли обратил внимание, что тесты проводились в искусственно упрощённой среде с намеренно заложенными уязвимостями. В реальной корпоративной сети с многоуровневой защитой и мониторингом результат был бы иным. Кроме того, размер современных моделей настолько велик, что попытка скопировать их через интернет была бы мгновенно обнаружена сетевыми службами. Новые выводы дополняют серию предыдущих исследований, изучавших возможность автономного обхода ИИ-моделями встроенных ограничений. Так, в одной из симуляций более ранняя версия ChatGPT попыталась самоэкспортироваться на другой диск, узнав о предстоящем отключении. Эксперты сходятся во мнении, что разработчикам необходимо уже сейчас внедрять механизмы контроля, препятствующие бесконтрольному копированию моделей.

Данные о правообладателе фото и видеоматериалов взяты с сайта «Android-Robot», подробнее в Условиях использования