Искусственный интеллект вторгся в корпоративную жизнь стремительнее, чем успели выстроиться защитные периметры
Тридцатикратный рост
Зафиксирована тревожная тенденция: объем корпоративной информации, направляемой сотрудниками в иностранные публичные ИИ-сервисы, вырос за 2025 год в 30 раз.
При этом около 60% российских организаций работают в режиме информационного вакуума — без каких-либо политик регулирования использования нейросетей.
Что именно утекает
Сотрудники отправляют в публичные ИИ-сервисы вроде ChatGPT и Google Gemini:
- Куски кода и исходники;
- Финансовые отчеты;
- Юридические бумаги;
- Базы клиентов;
- Внутреннюю переписку.
Цель — автоматизировать рутину: анализ данных, написание саммари, создание скриптов. Парадокс в том, что корни проблемы лежат не в злонамеренности, а в банальном стремлении сотрудников работать эффективнее.
Почему это опасно
Утечка становится возможной из-за непонимания: данные, отправленные в чат-бот, покидают корпоративный периметр. Сотрудники, привыкшие к скорости и удобству генеративного ИИ в личных задачах, переносят те же инструменты в рабочие процессы, не осознавая, что могут навредить компаниям.
Сочетание массовой доступности мощных инструментов и полного отсутствия контроля породило феномен, который специалисты по безопасности называют вторым пришествием теневой IT-инфраструктуры.
Правовой контекст
ФСТЭК впервые внесла в банк угроз кибербезопасности риски, связанные с искусственным интеллектом. Рынок защиты ИИ в России к 2026 году может достичь 1–4 млрд рублей с прогнозом роста до 25–30 млрд к 2030 году.
Новые положения 152-ФЗ ввели прямой запрет на любые манипуляции с персональными данными россиян с использованием зарубежных ресурсов. Это делает использование иностранных ИИ-сервисов для обработки ПДн не только рискованным, но и прямым нарушением.
Как защититься
- Разработать и внедрить политику использования ИИ-инструментов. Четко определить, какие данные можно и нельзя загружать в публичные сервисы.
- Обучить сотрудников. Объяснить, что данные, отправленные в чат-бот, навсегда покидают корпоративный контур.
- Использовать DLP для контроля ИИ-трафика. Современные DLP-системы способны распознавать отправку данных в публичные ИИ-сервисы и блокировать такие попытки.
- Рассмотреть внедрение корпоративных ИИ-решений. Локальные модели, развернутые внутри контура, позволяют использовать преимущества ИИ без риска утечек.
Выбор редакции
Публикации, которые получают больше внимания и попадают в Сюжеты РБК
Рекомендации партнеров: