Этот риск возникает не во всех случаях: его наличие зависит от того, как организована работа конкретной ИИ-системы, где обрабатываются данные и какой статус имеют загружаемые данные.
Чем рискует компания, когда сотрудники загружают договоры и внутренние документы в ИИ-сервисы, — в майской статье журнала «Юрист компании» рассказала Анна Макарова, руководитель направления правового обеспечения Домклик.
Эксперт объяснила, какие угрозы нужно учитывать при использовании нейросетей в работе в 2026 году, и предложила решения, которые помогут защитить охраняемую информацию.
Первый и самый острый риск — утечка охраняемой информации. Этот риск возникает не во всех случаях: его наличие зависит от того, как организована работа конкретной ИИ-системы, где обрабатываются данные и какой статус имеют загружаемые данные. Вот ситуации, в которых такой риск действительно возникает:
Работа с ИИ через модель Saa S — Software as a Service. Данные уходят на сервер провайдера: российских, таких как Яндекс или Сбер, или зарубежных, например, Open AI или DeepSeek. Это автоматически означает предоставление доступа третьему лицу.
Использование загруженных данных для обучения модели. Известны случаи, когда ChatGPT выдавал одному пользователю ответы, содержащие внутренние документы другого пользователя.
Еще в статье — о других рисках работы с нейросетями: