Почти в половине случаев ответы ИИ-ассистентов на запросы пользователей содержат искаженную информацию. К такому выводу пришли авторы исследования, проведенного Европейским вещательным союзом (EBU) совместно с британской вещательной корпорацией «Би-би-си», сообщает ТАСС.
Согласно заявлению EBU, журналисты-профессионалы из 22 общественных медиаорганизаций из 18 стран мира, работающие на 14 языках, проанализировали свыше 3 тысяч ответов, сгенерированных чат-ботами ChatGPT, Copilot, Gemini и Perplexity. Оценка проводилась по таким критериям, как точность, выбор источников, разграничение мнений и фактов, а также предоставление контекста. Эксперты констатировали, что «ИИ-помощники, ставшие для миллионов людей ежедневным источником информации, систематически искажают новостную информацию, вне зависимости от языка, географического региона или используемой ИИ-платформы».
По их данным, 45% всех ответов, созданных ИИ, содержали «по крайней мере одну существенную ошибку». В 31% ответов были выявлены «серьезные проблемы с указанием источника: отсутствие, вводящая в заблуждение или некорректная атрибуция». Пятая часть всех ответов демонстрировала серьезные недостатки в точности, включая неверные детали и устаревшие данные. Наиболее слабые результаты показал Gemini, который допустил серьезные ошибки в 76% ответов, что более чем в два раза превышает показатели других помощников. Эти ошибки, в основном, связаны с недостаточной эффективностью поиска источников.
В докладе отмечается, что ИИ-ассистенты все чаще заменяют поисковые системы для многочисленных пользователей. Согласно отчету Института Reuters о цифровых новостях за 2025 год, 7% всех потребителей новостей в интернете используют ИИ-помощников для получения информации, а среди пользователей моложе 25 лет этот показатель достигает 15%.
«Данное исследование убедительно показывает, что эти недостатки — не единичные случаи
, — заявил медиадиректор и заместитель генерального директора EBU Жан Филип де Тендер. —
Они носят системный, трансграничный и многоязычный характер, и мы считаем, что это подрывает общественное доверие. Когда люди не знают, чему доверять, они в конечном итоге теряют доверие ко всему, что может препятствовать демократическому участию».