В последние годы технологии искусственного интеллекта всё глубже проникают в сферу психологической помощи. Одни из недавних новшеств, ИИ-чат-боты, показали применимость к решению психотерапевтических задач и приобрели репутацию «терапии для всех» благодаря своей доступности и анонимности. Тем не менее популярность таких инструментов идёт впереди научного осмысления их реальных возможностей, поднимая вопрос возможности замены реального специалиста и перехода на психологическую помощь в онлайн-режиме. В настоящей работе обозреваются основные типы ИИ-инструментов, обобщаются данные об их эффективности, а также выделяются ключевые риски и реалистичное место этих технологий в системе психологической помощи.
На настоящее время возможно подразделять ИИ-системы на две группы. В первую входят специализированные чат-боты, которые ранее были апробированы. Эти системы разрабатывались с участием клиницистов, а их эффективность оценивалась в рандомизированных контролируемых исследованиях. Они опираются на протоколы когнитивно-поведенческой терапии и предлагают пользователю структурированные методы самопомощи (например, различные упражнения и техники релаксации и отслеживания настроения) [1]. Однако такие чат-боты действуют строго в рамках заложенных алгоритмов, не выходя за пределы заданных сценариев, а также часто требуют платной подписки, сужая полноту функционала. Особенно хорошо они принимаются молодыми пользователями и высоко востребованы при лёгких и умеренных депрессивных состояниях [2].
Ко второй группе относятся неапробированные универсальные языковые модели, такие как ChatGPT, Grok или DeepSeek, к которым всё чаще обращаются в поисках психологической помощи. Среди главных преимуществ таких моделей в сравнении с апробированными версиями можно выделить доступность (базовый функционал часто бесплатен), языковую гибкость (они работают на десятках языков) и способность удерживать контекст разговора, что создаёт иллюзию живого диалога [1].
Исследования показывают, что использование ИИ-чат-ботов действительно может снижать депрессивные и тревожные симптомы. В ряде работ отмечается, что пользователи становятся более вовлечёнными в процесс самопомощи, а краткосрочные эффекты сопоставимы с традиционными форматами интернет-терапии. Более эффективные результаты были получены в исследованиях с применением чат-ботов в качестве дополнения к традиционной психотерапии, а не в качестве самостоятельного инструмента [3, 4].
Несмотря выявленную по результатам исследований эффективность, большинство из них имеют ограничения репрезентативности результатов, среди которых небольшие выборки, краткосрочный характер и отсутствие данных долгосрочных результатов. Кроме того, даже в успешных исследованиях уровень удержания пользователей редко превышает 50–60 %, что ставит под сомнение ценность ИИ-чат-ботов [1].
Одним из наиболее важных технических ограничений использования ИИ-чат-ботов для психологической помощи является неспособность алгоритма распознавать кризисные состояния и выявлять их на ранней стадии, давая ошибочный диагноз. Например, при запросах, связанных с суицидальными мыслями, многие системы продолжают давать стандартные рекомендации, не собирая полный анамнез психологического состояния пользователя для перенаправления его к специалисту. Механизмы безопасности, не допускающие использование токсичных высказываний и использующие триггеры кризисного реагирования, введены лишь в трети проанализированных ИИ-инструментов [6]. Необходимо также отметить отсутствие гибкости: в исследовании О. М. Бойко и др. на примере ChatGPT показано, что при работе со сложными запросами алгоритм часто «не замечает» нарастающей тяжести состояния и продолжает следовать изначально выбранной схеме ответа, не меняя стратегию [5].
К группе клинических ограничений можно отнести отсутствие подлинной эмпатии. Как правило, они не демонстрируют истинное сочувствие, а только имитируют его, поскольку неспособны работать с невербальными сигналами в связи с технологическими ограничениями и не имеют всего того внутреннего опыта, на который мог бы опереться реальный терапевт. Также в эту группу входит невозможность ИИ-чат-ботов выстраивать долгосрочный терапевтический альянс между терапевтом и клиентом [5]. Как правило, алгоритмы не помнят предыдущие сессии (или помнят их формально) и лишь единичные системы имеют архитектуру, позволяющую сохранять контекст взаимодействия на протяжении длительного времени, но даже они не способны к рефлексии собственных действий в терапевтическом процессе, также как они не способны увидеть целиком картину психологического состояния человека и распознать его реальную проблему [6].
Наконец, применение ИИ-систем в области психологического консультирования и психотерапии порождает собой ряд этических и правовых вопросов. Так, компании-разработчики, такие как OpenAI, оставляя за собой право просматривать диалоги пользователей, поднимают вопрос конфиденциальности данных, которые доверяются алгоритмам, поскольку это означает, что личная информация от пользователей может быть применена для коммерческих целей или даже стать доступной третьим лицам [5]. Одновременно с тем, что ИИ-системы могут послужить полезным инструментом для специалистов, их полноценное внедрение в практику осложняет отсутствие определённой правовой ответственности [4].
Среди сопутствующих рисков для пользователей-клиентов особенно выделяется риск замещения терапии, возникающий вследствие возникновения у некоторых пользователей устойчивой эмоциональной зависимости от чат-бота и препятствующий обращению к профессиональному специалисту, что особенно опасно при тяжёлых хронических и кризисных состояниях. В то же время создаётся ряд рисков и для самих пользователей-специалистов и клинической сферы в случае использования ими искусственного интеллекта в своей практике, в который входит угроза автономии при частом обращении при принятии решений, снижение критического мышления и психологическая зависимость, которая также может сформироваться по аналогии с пользователями-клиентами [8].
Таким образом, современные исследования в области применения ИИ-чат-ботов в психологической помощи и практике позволяют сделать однозначный вывод о том, что ИИ-системы не могут и не должны заменять профессиональных психологов и психотерапевтов. Тем не менее, их главная ценность заключается в предоставлении «первой помощи» пользователям: они способны предоставить первичную поддержку тем, кто по разным причинам не готов идти к живому специалисту, помогают отслеживать настроение, а также снижают степень стигматизации и проблему оплаты такой помощи.
Однако такие системы оставляют за собой риск причинения психологического вреда из-за отсутствия чётких этических стандартов, механизмов контроля и обязательного перенаправления в кризисных ситуациях. Для ответственного внедрения ИИ в психологическое консультирование и психотерапию необходимы не только технологические, но и институциональные решения, среди которых прозрачность использования данных моделями, независимый аудит и участие клиницистов на всех этапах разработки [6, 10].
Литература:
1. Фрейманис Ф. И., Ермак А. Д. Чат-боты на основе искусственного интеллекта в психологической помощи: обзор апробированных систем и неапробированных альтернатив / Ф. И. Фрейманис, А. Д. Ермак // Вестник ПГГПУ. Серия № 1. Психологические и педагогические науки. — 2025. — № 1. — С. 221–229.
2. Artificial Intelligence-Powered Cognitive Behavioral Therapy Chatbots: A Systematic Review / M. Farzan, H. Ebrahimi, M. Pourali, F. Sabeti [et al.] // Iranian Journal of Psychiatry. — 2025. — Vol. 20, No. 1. — P. 102–110.
3. Zhong W., Luo J., Zhang H. The therapeutic effectiveness of artificial intelligence-based chatbots in alleviation of depressive and anxiety symptoms in short-course treatments: A systematic review and meta-analysis / W. Zhong, J. Luo, H. Zhang // Journal of Affective Disorders. — 2024. — Vol. 356. — P. 459–469.
4. Using Artificial Intelligence to Enhance Ongoing Psychological Interventions for Emotional Problems in Real- or Close to Real-Time: A Systematic Review / P. Gual-Montolio, I. Jaén, V. Martínez-Borba [et al.] // International Journal of Environmental Research and Public Health. — 2022. — Vol. 19, No. 13, article 7737. — URL: https://doi.org/10.3390/ijerph19137737 [Accessed 5th February 2026].
5. ChatGPT в психотерапии и психологическом консультировании: обсуждение возможностей и ограничений / О. М. Бойко, Т. И. Медведева, О. Ю. Воронцова [и др.] // Новые психологические исследования. — 2025. — № 1. — С. 26–55.
6. Wang X. The Application and Ethical Implication of Generative AI in Mental Health: Systematic Review / X. Wang, Y. Zhou, G. Zhou // JMIR mental health. — 2025. — Vol. 12, e70610. — URL: https://doi.org/10.2196/70610 [Accessed 11th March 2026].
7. Zhang Z., Wang J. Can AI replace psychotherapists? Exploring the future of mental health care / Z. Zhang, J. Wang // Frontiers in Psychiatry. — 2024. — Vol. 15, 1444382. — URL: https://doi.org/10.3389/fpsyt.2024.1444382 [Accessed 2nd March 2026].
8. Aljuraid R. The Illusion of Control: AI Chatbot Dependency and the Threat to Clinical Autonomy / R. Aljuraid // Studies in Health Technology and Informatics. — 2025. — Vol. 332. — P. 211–215.
9. Ethical Considerations of Using ChatGPT in Health Care / C. Wang, S. Liu, H. Yang [et al.] // Journal of Medical Internet research. — 2023. — Vol. 25, e48009. — URL: https://doi:10.2196/48009 [Accessed 20th January 2026].
10. Balcombe L. AI Chatbots in Digital Mental Health / L. Balcombe // Informatics. — 2023. — Vol. 10, No. 4, article 82. — URL: https://doi.org/10.3390/informatics10040082 [Accessed 1st February 2026].

