ИИ-помощники искажают новостной контент почти в половине запросов пользователей
В 45% всех ответов искусственного интеллекта содержится «как минимум одна значимая ошибка», говорится в исследовании Европейского вещательного союза и вещательной корпорации.
Авторы исследования, проведенного Европейским вещательным союзом (EBU) при содействии вещательной корпорации Би-би-си выявили, что ИИ-помощники дают искаженные ответы на запросы пользователей почти в половине случаев.
Согласно заявлению союза, профессиональные журналисты из 22 организаций общественных СМИ 18 стран, работающие на 14 языках, оценили более 3 тыс. ответов чат-ботов ChatGPT, Copilot, Gemini и Perplexity на точность, выбор источника информации, способность отделять мнение от фактов и предоставление контекста. Эксперты пришли к выводу о том, что «ИИ-помощники, которые уже являются ежедневным информационным порталом для миллионов людей, регулярно искажают новостной контент независимо от языка, региона или платформы ИИ, на которой проводится тестирование».
В 45% всех ответов ИИ, по их данным, содержится «как минимум одна значимая ошибка». В 31% ответов выявлены «серьезные проблемы с поиском источника: отсутствующие, вводящие в заблуждение или неверные атрибуции».
Пятая часть всех ответов имеет серьезные проблемы с точностью, включая неверные детали и устаревшую информацию.
«Ошибки ИИ-инструментов — не технологическая случайность, а результат отсутствия прозрачных стандартов данных и системной валидации. Для снижения риска требуется доверенная инфраструктура, национальные модели и аудит качества — именно вокруг этого строится стратегический курс развития ИИ в «Группе Астра», — говорит Станислав Ежов, директор по ИИ «Группы Астра».