ИИ-копии умерших: что нужно знать о новой схеме мошенничества в мессенджерах

Зачем мошенники делают ИИ копии умерших людей

Фото: ИЗВЕСТИЯ/Сергей Коньков

«Известия»: мошенники используют ИИ-копии покойников для обмана их родных

Цифровые копии покойных, созданные с помощью искусственного интеллекта (ИИ), активно применяют в мошеннических схемах, предупредили эксперты в беседе с «Известиями». Основная цель злоумышленников — родственники и знакомые умерших. Часто атаки происходят через соцсети и мессенджеры.

По словам Al-консультанта и эксперта по кибербезопасности компании «Газинформсервис» Татьяны Буториной, такие копии могут принимать форму голограмм, чат-ботов и VR-образов. Они воспроизводят визуальный и звуковой облик человека, включая поведенческие черты.

«По данным Gartner Inc., мировой рынок виртуальных личностей в 2021–2035 годах вырастет приблизительно в 11 раз. Уже сейчас ИИ-копии людей применяются в самых разнообразных сферах и пользуются в мировой практике огромным успехом», — рассказала специалист.

Мошенники все чаще используют цифровых двойников, поскольку граница между реальным и виртуальным личностями стирается, что открывает широкие возможности для манипуляций в разных сферах.

Аналитик Евгений Панков из Координационного центра доменов.RU/. РФ добавил: большинство пользователей не ожидают угрозы от образа умершего, и это делает их особенно уязвимыми. Эмоциональная вовлеченность и доверие приводят к тому, что люди легко выполняют опасные действия — переходят по ссылкам, отправляют коды или переводят деньги.

Какие схемы с ИИ-копиями умерших уже применяли

В России активно используют дипфейки, включая копии умерших людей. Евгений Панков вспомнил случаи, когда мошенники получали доступ к аккаунтам покойных, чтобы обмануть их знакомых, не знавших о смерти.

«За рубежом фиксировались случаи мошенничества с использованием поддельных некрологов известных людей для получения трафика и дохода от рекламы на сайтах и в YouTube. Сгенерированные с помощью ИИ некрологи с кликбейтными заголовками быстро появляются в топе выдачи Google и получают широкое распространение», — рассказал специалист.

Такие схемы опираются на алгоритмы рекомендаций и персонализированный контент. По словам Буториной, чаще всего подобные мошенничества встречаются в США, Китае и Великобритании.

В России также зафиксировали подобные случаи: в 2024 году злоумышленники связывались с семьями покойных, пытаясь получить деньги. Благодаря внимательности родных и сотрудников компаний, часть атак удалось предотвратить.

«В том же году появился такой термин для мошеннических схем, как „кибермистификация“, сочетающий методы социальной инженерии с ИИ-копиями и общением в мессенджерах», — рассказала Буторина.

По словам Александры Шмигириловой из компании «Код безопасности», массового характера эти схемы пока не приобрели. Иногда злоумышленники даже не знают, что рассылают сообщения от лица умершего — просто используют взломанные базы контактов, где такие люди ещё числятся.

В каких аферах могут участвовать «цифровые покойники»

Существует несколько сценариев использования ИИ-клонов умерших, рассказала Шмигирилова. Первый — общение с горюющими. Потерявшие близкого люди могут согласиться на «диалог» с дипфейком покойного, не осознавая, что их используют.

«Таким людям мошенники предлагают дипфейки, и в процессе разговора мошенники могут манипулировать и управлять людьми, которые зачастую не осознают этого», — объяснила она.

Второй вариант — когда общаются от имени покойного с его знакомыми, которые не в курсе смерти.

Третье направление — использование образа для публикации отзывов, комментариев или установления новых контактов в соцсетях. По словам Панкова, основным каналом для подобных схем остаются мессенджеры.

Мошенники могут присылать голосовые или видеосообщения с просьбами перевести деньги, отправить код из СМС, оформить подписку или перейти по вредоносной ссылке.

«Злоумышленники могут взламывать уже созданных ИИ-ботов, имитирующих умерших людей, для получения личной информации, распространения фишинга или подталкивания к противоправным действиям», — говорит Панков.

В странах вроде США сформировалась индустрия DeathTech — цифровых аватаров, с которыми пользователи могут общаться после смерти близких. Для создания таких образов используются переписки, голосовые сообщения и посты. Если такой ИИ-бот будет взломан, пользователь не сможет проверить его подлинность — ведь «собеседник» уже умер.

Чем опасны мошеннические ИИ-схемы и как защититься

Эксперт Angara Security Яков Филевский предупредил: главные мишени — недавно потерявшие близких, находящиеся в остром горе. Вторичные — друзья и знакомые, попавшие в список рассылки.

«В целом таким атакам подвержены впечатлительные, внушаемые люди с низкой осведомленностью об информационных технологиях», — добавил он.

По словам Панкова, жертвы зачастую не распознают угрозу и выполняют указания: переходят по ссылкам, передают коды или устанавливают вредоносные файлы. В некоторых случаях мошенники могут довести эмоционально нестабильного человека до попыток самоубийства.

Уникальность таких схем — в невозможности проверки: умершему невозможно перезвонить.

«Если человек осознанно взаимодействует с ИИ-двойником, важно сохранять критичность и не идти на поводу у эмоций», — подчеркнула Шмигирилова.

Если же контакт происходит с незнакомцем, использующим образ покойного, помогут базовые правила кибергигиены: не раскрывать личные данные, проверять информацию, не выполнять просьбы без анализа ситуации и не переводить деньги незнакомым.

Еще больше новостей — у Пятого канала в мессенджере MAX

Данные о правообладателе фото и видеоматериалов взяты с сайта «5 канал», подробнее в Условиях использования
Анализ
×
Коньков Сергей
Буторина Татьяна
Панков Евгений
Шмигирилова Александра
Филевский Яков
Gartner, Inc
Организации
27
Google
Сфера деятельности:Образование и наука
219