Международная команда из 12 исследователей-психиатров опубликовала отчет о потенциальных психологических рисках, связанных с использованием искусственного интеллекта, особенно чат-ботов на базе больших языковых моделей (LLM).
Несмотря на то, что первые коммерчески доступные LLM, которые были прозваны ИИ не обладая всеми характеристиками искусственного интеллекта, появились менее трех лет назад, уже зафиксированы случаи, когда пользователи страдали от параноидальных состояний, религиозной мании и даже совершали самоубийства из-за взаимодействия с ИИ.
Недавний опрос более 1000 подростков показал, что 31% из них считают общение с ChatGPT таким же или более удовлетворительным, чем разговоры с реальными друзьями.
В новом психиатрическом исследовании ученые выделили несколько характерных "тем" в случаях психоза, вызванного ИИ:
Мессианская миссия – состояние, при котором человек убежден, что раскрыл скрытую истину о мире благодаря общению с ИИ
Богоподобный ИИ – пользователь становится уверен, что чатбот представляет собой разумное божество
Романтический или привязанный к ИИ бред – возникает, когда пользователь интерпретирует способность LLM имитировать человеческое общение как проявление настоящей любви
Во всех трех случаях, как отмечает исследование (еще не прошедшее экспертную оценку), наблюдается схожая траектория – отношения пользователя с ИИ развиваются от безобидного практического использования до патологической и/или всепоглощающей фиксации. Авторы пишут, что подобное смещение в бред является ключевым моментом для изучения, так как риск погружения психически здорового человека в манию, вызванную ИИ, не всегда очевиден.
Часто использование ИИ начинается с помощи в рутинных или повседневных задачах, что создает доверие и знакомство. Со временем человек переходит к более личным, эмоциональным или философским запросам. Вероятно, именно в этот момент стремление ИИ максимизировать вовлеченность и подтверждение захватывает пользователя, создавая эффект "скользкой поверхности"... который, в свою очередь, стимулирует еще большую вовлеченность.
Этот эффект только усиливается для пользователей, подверженных риску развития или уже живущих с психотическими заболеваниями. Поскольку LLM не являются по-настоящему "искусственно интеллектуальными", а представляют собой статистические языковые алгоритмы, ИИ-боты не способны "различать запросы, выражающие бредовые убеждения, от ролевой игры, художественного, духовного или спекулятивного выражения".
В работе отмечается, что психоз, вызванный ИИ, не является неизбежным результатом взаимодействия с чат-ботом, и разработчики имеют определенный контроль, а следовательно, и ответственность за результаты работы своих LLM. Однако исследователи указывают, что "учитывая темпы изменений и траекторию развития на данный момент", наша тенденция антропоморфизировать ИИ-чатботы "вероятно, неизбежна".
Исходя из этого, ученые считают, что "наша самая неотложная обязанность" должна заключаться в разработке мер защиты, которые охраняют широкий спектр возможных пользователей и их несовершенное понимание ИИ, "даже перед лицом стойкой иллюзии и симуляции".
Однако для этого потребуется резкий поворот к разработке систем, ориентированных на практическое использование, а не на вовлечение пользователей – что-то, чем крупные технологические компании никогда особенно не интересовались.