Владивосток, 3 сентября, 2025, 21:45 — ИА Регнум. На Восточном экономическом форуме во Владивостоке прошла дискуссия о социальном воздействии искусственного интеллекта (ИИ) на человека, где эксперты обсудили необходимость ответственного регулирования этой технологии. Участники выделили ключевые риски, включая предвзятость алгоритмов, распространение фейков и проблемы кибербезопасности, подчеркнув важность прозрачности и контроля.
ИЗВЕСТИЯ/Сергей Виноградов
Тема сессии: «Измерение социального воздействия ИИ: прогресс, риски, пути развития». Первый заместитель председателя комиссии Общественной палаты Москвы по развитию гражданского общества и общественному контролю Александр Асафов указал на недостаточное понимание рисков использования бесплатных иностранных платформ. Он отметил, что пользователи фактически становятся сырьем для обучения алгоритмов, развивая их своими запросами и цифровой активностью, пытаясь самостоятельно улучшить результаты.
«Мы считаем, что искусственный интеллект — это какая-то дружелюбная, правильная разработка от коммерческих компаний, удобная для человечества. Это, мягко говоря, не так. Дело в том, что OpenAI, наиболее известная своим чат-ботом ChatGPT, автоматически и инициативно передает все данные запросов на русском языке, в том числе и с полным отпечатком аккаунта: кто спрашивает, что спрашивает и почему. Без запросов с той стороны, без запросов ФБР, просто автоматически», — рассказал Асафов.
Эксперт сообщил, что ведущие директора американских IT-гигантов, занимающиеся развитием ИИ, уже получили офицерские звания в армии США, они уже официально работают на Пентагон. Асафов призвал пользователей сделать гражданский шаг и выбрать суверенные платформы, чтобы не обучать инструменты войны будущего чужих государств.
Директор фонда «Региональная политика» Евгений Забродин привел в пример работы YouTube, где искусственный интеллект формирует лист предлагаемых видео, создавая информационные пузыри. В результате пользователи начинают слышать отражение одних и тех же фраз и ошибочно принимать это за истину.
«Нам нужно обеспечить контроль как со стороны государства, так и со стороны общества. Но действовать не через запреты, а, возможно, через формирование технического задания. Если они будут ориентироваться на спрос, то ни к чему хорошему, на мой взгляд, это не приведет», — призвал Забродин.
Гендиректор АНО «Платформа для работы с обращениями предпринимателей», член Совета при президенте РФ по развитию гражданского общества и правам человека Элина Сидоренко поддержала необходимость контроля над иностранными IT-гигантами, указав на тренд криминализации интернет-среды. Она отметила, что квартирные кражи и уличные грабежи уступили место телефонному мошенничеству и другим цифровым преступлениям.
«Например, дипфейки. Сегодня это не только глобальный технологический тренд, но и глобальная криминальная проблема. Из всех криминальных дипфейков примерно 2% — это политические дипфейки, а 96% — сексуализированный контент. Это и сексуальный шантаж, это и цифровая педофилия, и многое другое», — заявила Сидоренко.
Эксперты единодушно призвали к развитию суверенных платформ и усилению контроля для минимизации рисков, связанных с искусственным интеллектом.
Ранее компания xAI, принадлежащая американскому миллиардеру Илону Маску, слила в поисковую систему Google расшифровки множества чатов пользователей с ботом Grok без предупреждения пользователей. Выявлены 370 тыс. таких переписок. Член комитета Госдумы по информационной политике, информационным технологиям и связи Антон Немкин, комментируя эту новость, отметил, что она наглядно показывает, почему ИИ и другие технологии должны быть суверенными.
В августе пользователи YouTube уличили платформу в том, что она без спроса исправляет загруженные видео с помощью ИИ. В результате ролики получаются неестественными, и зрителям кажется, что они полностью сгенерированы нейросетью.