Эксклюзив
Фото: Mihail-Anton Ghiga / Unsplash - Источник
Петербургские депутаты предложили ввести обязательную маркировку ИИ-контента. Речь идет о фото-, видео-, а также аудиофайлах, созданных с помощью нейросетей. Эксперты неоднозначно относятся и инициативе, допуская, что результат может не оправдать усилий.
По словам автора инициативы Павла Крупника, интернет наводнен фейковыми выпусками новостей, интервью, документальными роликами и снимками, которые искажают реальность. При этом созданные искусственным интеллектом технологичные подделки нередко используются в преступных схемах. В прошлом году, например, мошенники пытались обмануть Льва Лурье. С ним связались по видеосвязи от лица Александра Беглова. По словам историка, лицо и голос губернатора были максимально похожи, но отличалась манера речи, что и позволило распознать «двойника». До этого, к слову, Лжебеглов успел обмануть одного из научных сотрудников Федерального исследовательского центра Российской академии наук. После звонка якобы из администрации города он потерял почти 2,5 миллиона рублей. Чуть позже по аналогичной схеме лишился 1,5 миллиона рублей ведущий агроном Ботанического сада. И подобных случаев в разных регионах предостаточно. Другое дело, что от этого вряд ли спасет маркировка, замечает технический директор компании «АйТи Бастион» Дмитрий Михеев:

Я сомневаюсь, что это какое-то разумное предложение. Обозначай или не обозначай, этих фейков будет становиться больше. Как с этим можно бороться? Думаю, сохранять спокойствие, молиться, поститься и слушать радио «Радонеж». Не убережешься от этого. Мы постоянно оставляем свой цифровой след при каждом действии в сети и не только. Особенно при попытке что-то сделать с деньгами. Заходишь в подъезд, и тебя немедленно сняла камера. Хочешь, не хочешь, это произойдет. Будем надеяться, что нам хватит денег, чтобы хорошо выглядеть на этих дипфейках.
Стоит напомнить, что депутаты Госдумы еще в прошлом году внесли законопроект, направленный на борьбу с дипфейками. Он предполагает корректировку нескольких статей Уголовного кодекса и охватывает как использование изображений, так и использование голоса без согласия владельца. За мошенничество с помощью ИИ власти хотят наказывать штрафом в размере до 400 000 рублей или лишением свободы на срок до шести лет. Кроме того, депутат парламента Сергей Бурлаков недавно посоветовал российским семьям придумать кодовое слово для борьбы со злоумышленниками, подделывающими голосовые и видеосообщения. Комментирует генеральный директор агентства Telecom Daily Денис Кусков:

Уже не первый год говорят о том, что необходимо законодательно закрепить какие-то инициативы. Тут моменты такие, что если брать код свой-чужой, то он проходит тогда, когда есть какая-то узкая направленность. Здесь, на мой взгляд, два могут быть пути. Первый — это технологический, то есть разрабатывать такие методы обнаружения дипфейков, используя искусственный интеллект. Второй момент — это законодательно обеспечить необходимость стримингов, других ресурсов маркировать подобные вещи для того, чтобы не вводить в заблуждение граждан. Понятно, что это будет касаться исключительно только законопослушных ресурсов, поэтому техническое решение стоит на первом месте.
К слову, как пишет Forbes, российские операторы связи ранее предложили правительству заблокировать голосовые вызовы в зарубежных мессенджерах. Это, по их мнению, позволит решить проблему кибермошенничества, так как большая часть случаев обмана пользователей происходит через WhatsApp и Telegram. Впрочем, как отмечают эксперты, возращение к обычной голосовой связи, что подразумевает инициатива, позитивно скажется также на экономике и, самое главное, прибыли «большой четверки».