Мессенджер стал сценой для цифрового спектакля: нейросети копируют лица и голоса ради доступа к вашим деньгам

Мошенники охотятся за голосовыми сообщениями в чатах

Мошенники охотятся за голосовыми сообщениями в чатах

© ChatGPT: Мошенники охотятся за голосовыми сообщениями в чатах by ChatGPT 5.0 is licensed under Свободно распространяемое изображение

Мошенничество с "голосами близких" всё чаще выглядит как обычное сообщение в мессенджере, а не как очевидная уловка. Технологии генерации текста, изображений и видео снижают бдительность и заставляют людей действовать на эмоциях. Об этом сообщает ТАСС.

Злоумышленники используют нейросети, чтобы выдавать себя за родственников и доверенных лиц и под этим предлогом выманивать деньги или персональные данные.

Почему подделки стали убедительнее

В МВД объясняют, что ключевой элемент таких схем — правдоподобие контента, созданного генеративными моделями. Текст, изображение или аудиосообщение могут выглядеть и звучать так, будто их отправил реальный человек. Потерпевший воспринимает сигнал как подлинный и реже проверяет детали.

По словам официального представителя МВД России Ирины Волк, злоумышленники имитируют личности тех, кому привыкли доверять. Это могут быть родственники, сотрудники банков, представители государственных органов или публичные деятели. Универсальность "масок" позволяет мошенникам подстраивать легенду под конкретную ситуацию и адресата.

"В основе большинства таких схем лежит способность генеративных моделей создавать правдоподобный текстовый, визуальный или аудиовизуальный контент, который воспринимается потерпевшим как подлинный, что позволяет злоумышленникам имитировать личности доверенных лиц", — сказала официальный представитель МВД РФ Ирина Волк.

Как работает схема с синтезированным голосом

Ирина Волк уточнила, что для давления на жертву всё чаще используют синтезированные голоса и видеозаписи. Такой формат помогает быстрее убедить человека перевести деньги или раскрыть персональные данные. Особенно опасны ситуации, когда сообщение приходит с реального аккаунта, доступ к которому получили посторонние.

В качестве примера представитель МВД привела случай, когда неизвестный завладел доступом к чужой странице в иностранном мессенджере. Затем он применил нейросеть для генерации аудиоматериалов и отправил голосовое сообщение от имени владельца аккаунта. В сообщении звучала просьба помочь и перевести 35 000 рублей через систему быстрых платежей.

Чем заканчивается доверие "проверенному" контакту

Получатель сообщения решил, что просьба пришла от родной сестры. Он перечислил указанную сумму, не распознав подмену. В результате деньги попали к мошенникам.

В МВД обращают внимание, что подобные эпизоды строятся на доверии к знакомому голосу и привычному каналу связи. Технологическая правдоподобность подделки становится тем фактором, который ломает обычные "стоп-сигналы". Именно поэтому схемы с нейросетями всё чаще приводят к прямым финансовым потерям.

Данные о правообладателе фото и видеоматериалов взяты с сайта «NewsInfo», подробнее в Условиях использования