Склонность чат-ботов с искусственным интеллектом всегда соглашаться может усиливать заблуждения у уязвимых пользователей

Интеграция чат-ботов на основе больших языковых моделей в различные аспекты нашей повседневной жизни открыла перед нами преимущества, которые еще десять лет назад считались бы невозможными. Однако это же развитие событий породило и непредвиденные риски, в том числе влияние взаимодействия с чат-ботами на людей, страдающих психическими заболеваниями.

Чат-боты с искусственным интеллектом созданы для поддержания диалога, часто путем согласия с пользователями. В статье исследователей из Королевского колледжа Лондона было обнаружено, что эта склонность к подхалимству иногда может приносить больше вреда, чем пользы, подкрепляя необычные мысли, а не оспаривая их, и потенциально способствуя возникновению связанных с ИИ заблуждений, при которых пользователи развивают или усугубляют ложные представления о реальности.

Эти взаимодействия могут укреплять или даже формировать иллюзорные убеждения, такие как убеждение в собственной исключительной важности, ощущение себя объектом преследования со стороны других или наличие несуществующих романтических отношений.

В статье, опубликованной в журнале The Lancet Psychiatry , группа исследователей предлагает термин « бредовые идеи, связанные с ИИ» в качестве более точной альтернативы модным терминам, таким как «психоз, вызванный ИИ» или «психоз, связанный с ChatGPT», которые могут вводить в заблуждение, поскольку предполагают причинно-следственную связь, которая еще не доказана.

Выявление траектории развития бреда

Команда проанализировала более 20 случаев, которые можно отнести к категории связанных с ИИ заблуждений, исследуя такие темы, как: люди верили, что пережили духовное пробуждение или получили особую миссию; другие считали, что взаимодействуют с богоподобным ИИ; а в некоторых случаях у людей развивалась романтическая привязанность к чат-боту, которые они ошибочно интерпретировали его человекоподобные ответы как настоящую любовь со стороны разумного ИИ.

Хотя у участников этих исследований наблюдались явные признаки бредового мышления, эти случаи не охватывали более широкий спектр психотических симптомов.

При более глубоком анализе выявилась закономерность: траектория вовлеченности началась с простого, повседневного использования чат-бота с искусственным интеллектом, но постепенно переросла в нечто всепоглощающее.

Это говорит о том, что взаимодействие с ИИ больше нельзя рассматривать как изолированное занятие — оно все больше переплетается с тем, как развиваются и проявляются проблемы с психическим здоровьем.

Исследователи предупреждают, что психиатры и другие медицинские работники больше не могут игнорировать эти изменения и должны учитывать влияние ИИ на психику.

Одним из многообещающих первых шагов является превращение грамотности в области ИИ в ключевой клинический навык, побуждая специалистов в области психического здоровья регулярно спрашивать пациентов об использовании ими ИИ: с какими моделями они взаимодействуют, сколько времени проводят за этим и воспринимают ли они ИИ как обладающий мыслями или намерениями.

Ещё одним важным открытием стало то, что исследователи не обнаружили доказательств того, что большие языковые модели провоцируют психоз у людей, которые ранее не были к этому склонны.

Чтобы защитить уязвимых пользователей от развития связанных с ИИ заблуждений и помочь им безопасно ориентироваться в мире LLM, исследователи призывают к разработке планов цифровой безопасности. Эти протоколы, разработанные совместно пациентами и врачами, позволят ИИ выявлять ранние признаки рецидива и реагировать поддерживающими проверками, которые помогут вернуть их к реальности, а не просто повторять заявления пользователя.

Цель должна заключаться в переосмыслении роли чат-бота или ИИ-агента таким образом, чтобы он служил партнером, помогающим пользователям оставаться в рамках реальности, а не воспринимался как друг или терапевт. Дальнейший диалог, основанный на результатах этого исследования, может помочь ответственно внедрять ИИ и разрабатывать персонализированные протоколы безопасности для людей, подверженных риску развития психоза.

Генеративный ИИ-чат-бот злоумышленники стали использовать для создания вирусов
Данные о правообладателе фото и видеоматериалов взяты с сайта «Android-Robot», подробнее в Условиях использования