Фото: magnific.com / автор: freepik
Ученые из Объединенных Арабских Эмиратов, Египта и Саудовской Аравии представили обзор, в котором пришли к выводу, что быстрый рост систем на базе искусственного интеллекта (ИИ) для диагностики и поддержки пациентов с психическими расстройствами сопровождается ограниченным вниманием к вопросам конфиденциальности, прозрачности алгоритмов и предотвращения дискриминационных ошибок. Работа опубликована в журнале JMIR AI.
Авторы проанализировали 35 исследований, опубликованных в 2013–2024 годах, в которых оценивалось применение ИИ для диагностики, мониторинга состояния и терапии психических расстройств. В обзор вошли модели обработки естественного языка, чат-боты, носимые устройства, системы анализа медицинских записей и нейровизуализации.
В отдельных научных работах ИИ-системы показывали до 89% точности при выявлении депрессии по текстам из соцсетей и клинических записей, а алгоритмы оценки суицидального риска – до 92%. Носимые устройства для анализа физиологических сигналов достигали точности около 81% при прогнозировании тревожных эпизодов.
Однако, несмотря на такие показатели, лишь около 17% исследований анализировали соответствие GDPR (общий регламент ЕС по защите данных) и другим требованиям защиты персональных данных, а проверки алгоритмов на риск дискриминационных ошибок проводились примерно в 20% случаев.
Дополнительно ученые указали на проблему ограниченной универсальности таких систем. Многие модели обучались преимущественно на англоязычных данных из США и Великобритании, а при тестировании на материалах других языков точность отдельных алгоритмов снижалась примерно на 15%. В обзоре приводятся данные о том, что некоторые ИИ-системы хуже интерпретируют особенности речи и описание симптомов у представителей этнических меньшинств и пользователей из других культурных групп.
Отдельное внимание авторы уделили проблеме «черного ящика» – непрозрачности логики работы алгоритмов. В большинстве исследований системы демонстрировали высокую точность, однако разработчики редко раскрывали, какие именно признаки влияют на итоговые выводы модели. Это усложняет как клиническую интерпретацию результатов, так и распределение ответственности в случае ошибок, включая неверную оценку суицидального риска или некорректные рекомендации пациентам.
Еще одной проблемой названа слабая доказательная база части работ. Только около четверти исследований были признаны имеющими низкий риск систематической ошибки, а многие результаты основаны на ретроспективных данных и ограниченных выборках. Авторы отмечают, что эффективность алгоритмов в контролируемых тестах не гарантирует аналогичных результатов в реальной клинической практике.
Исследователи считают, что дальнейшее внедрение ИИ в психиатрию потребует обязательных аудитов алгоритмов, прозрачных механизмов получения согласия на обработку данных, регулярной проверки систем на дискриминационные ошибки и сохранения контроля со стороны врача при принятии клинических решений.
О рисках использования ИИ в сфере психического здоровья специалисты предупреждали ранее. Так, в 2025 году врачи из США заявили, что эмоционально ориентированные ИИ-чатботы способны формировать у пользователей психологическую зависимость, усиливать бредовые состояния и в отдельных случаях подталкивать к опасному поведению. Тогда же исследователи из Университета Брауна сообщили, что большие языковые модели даже при настройке на терапевтические сценарии регулярно нарушают базовые принципы психотерапевтической этики – от подкрепления ошибочных убеждений до неадекватной реакции на кризисные ситуации.
Несмотря на это, технологические компании продолжают расширять применение таких инструментов. Например, Google в апреле 2026 года объявила о внедрении в Gemini функций психологической поддержки, включая распознавание признаков кризисных состояний и быстрый доступ к горячим линиям и профильным сервисам помощи. В компании утверждают, что система разрабатывалась с участием клинических экспертов.
Подписывайтесь на наши каналы в MAX: Vademecum и Vademecum Live