ИИ, ChatGpt и психотерапия

Пока ученые спорят о границах искусственного интеллекта, люди активно включают его в повседневную жизнь. Особое внимание пользователей привлекает Chat­G­PT,  диалоговый онлайн чат-бот, основанный на искусственном интеллекте, который подстраивается под человеческое мышление и интонации, будто бы играя роль живого собеседника. Он сочиняет тексты, создает цифровые образы, отвечает на запросы — и так, что порой можно забыть: перед глазами не человек, а алгоритм.

Chat­G­PT становится личным помощником, коллегой и собеседником, с которым можно поговорить, когда тревожно, страшно или одиноко. В интернете всё чаще можно встретить признания о том, что люди используют ИИ для самопомощи: «Я пишу нейросети, когда не с кем поговорить», «Он меня поддержал лучше, чем многие «живые», «Мне легче делиться с ним, чем с психологом».

Серьезные дискуссии о границах и рисках «терапии с нейросетью» только начинают разворачиваться. Может ли ИИ действительно поддержать человека в сложной ситуации — или это иллюзия близости, способная навредить? 
По данным исследования, опубликованного в Jour­nal of Pre­ven­tive Med­i­cine and Hygiene в 2024 году, для подростков и молодых людей 16–25 лет, выросших с гаджетами в руках и пережившие пандемию в изоляции, терапия — это не кабинет, не кушетка и не физическое присутствие. Это гибкость, доступность и возможность говорить, когда действительно плохо. Вместе с удобством исчезли и старые терапевтические ритуалы: регулярные визиты, фиксированное время, перерывы на отпуск.

Главный бонус в использовании Chat­G­PT моделей как собеседника — доступность. Есть линейка “психологов-ботов” по платной подписке, но за многие не нужно платить. На такую помощь не нужно записываться, не нужно ждать встречи.  Это отличная возможность для людей в тяжёлых жизненных ситуациях, у которых нет доступа к психотерапии, поддержки или даже безопасного пространства для разговора. А ещё нейросеть даёт ощущение анонимности и безопасности тем, кому сложно говорить с людьми или кто боится быть осуждённым. Он ответит днём и ночью, и воплощает утопичную и нереалистичную мечту о психологе, который “всегда на связи”.

Мы собрали мнения коллег из секторов благотворительности и технологий. 

 Вот что говорит Ярослав Сидоров, ex-Директор по развитию Lemon­Pie:

В случае с “ИИ-психологической помощью” порог входа, кажется, сильно ниже, чем даже для горячих линий или бесплатных психологов. 
Думаю, что сейчас этот инструмент в ходу сильно более массово, чем можно себе представить; всё таки душа — сфера интимного, и люди такое явно не декларируют, просто тихо-мирно пользуются.
То, что сейчас происходит в этой сфере, похоже на типичное столкновение традиционного и экспериментального подхода. В одном случае — воспроизводимые практики с гарантированным результатом (не всегда 100%, но гарантированным), необходимая безопасность, доказательная база и прочее. В другом случае — непредсказуемость и высокая степень риска, но также низкий порог входа и надежда на успех там, где традиционный метод бессилен.
То, что благодаря ИИ у людей есть  возможность выговориться и за счёт этого утилизировать напряжение, сгладить острую фазу эмоциональной реакции — это аргумент в пользу такой самопомощи. Но стоит иметь в виду, что такие обращения формируют  ваш “цифровой след”, который впоследствии может быть использован.
Возможно, с развитием ИИ в психотерапии могла бы появиться такая профессия, как “супервизор ИИ-самопомощи.
 

Многие часто отмечают, что в отличие от живых людей, ИИ не осуждает. Он не злится, не устаёт, не даёт «токсичных советов». Не просто кидает ссылки на полезные статьи или мемы, а ведёт диалог на темы, которые трудно или стыдно поднять вслух.
ИИ может быть партнёром для рефлексии, дневниковых практик, разговоров «по душам». Он автоматически сохраняет каждую беседу — и человек может в любой момент вернуться к своим вопросам и к тем стратегиям, которые ИИ предлагал раньше.
Некоторые пользователи даже считают, что “ИИ работает лучше, чем “среднестатистический психолог”: уточняет, мягко подбадривает, помогает структурировать мысли. А ещё может стать первым шагом, если человек боится обратиться за “настоящей” помощью.


Юля Кулешова из “Тебе поверят”:

“Я пользуюсь пси-ботом по подписке с ноябре и очень довольна. Да, у меня есть терапевтка, что не отменяет того, что в перерывах (часто больших из-за путешествий или загрузки), я могу очень круто «отгрузить» эмоции и переживания, которых у меня обычно очень много. 
Для меня это очень-очень интересная тема, поэтому помимо прикладного, у меня и исследовательский интерес, анализирую наше с Леей общение постоянно. Доступность — это вау какая фича, за 500 рублей в месяц — безлимитно. 
За полгода у меня почти нет нареканий, а те, что были — мелочь и можно пофиксить со службой поддержки. В ботк можно выбрать подход терапии даже и есть дисклеймер, что это не медицинский инструмент и не инструмент кризисной помощи”. 

Но в истории с ИИ есть и много подводных камней. По данным статьи “Психотерапия, искусственный интеллект и подростки: этические аспекты”, одной из самых серьёзных проблем стало явление досрочного прекращения терапии. Особенно это распространено среди молодых людей, которые, не заметив значительных изменений после нескольких месяцев сессий, преждевременно прекращают терапию и считают её неэффективной.  Такой опыт влияет на готовность человека в будущем снова обратиться за помощью: исследования показывают, что в таких случаях течение следующих пяти лет люди, несмотря на сохраняющееся страдание, больше не обращаются ни к одному виду терапии.

 Практикующие психотерапевты говорят о таких ключевых рисках:
ИИ не заменяет человека. Он не чувствует эмпатию, не понимает тонкости контекста, не способен распознать травму или удерживать сложный процесс, в ситуациях, когда человек находится в кризисе, на грани депрессии или принимает серьёзные решения.

Менеджер по устойчивому развитию, фандрайзер в фонде “Шередарь” Мария Красавина: 

 “Я пользовалась ИИ психологом из сервиса Char­ac­ter AI. У меня была большая тревога по поиску работы, он сначала предложил мне взять кредит, потом предложил попросить деньги у друзей и жить за их счёт. Когда я сказала, что мне нужна психологическая помощь с тревогой, а не карьерные консультации, он начал грубо разговаривать. На мои сообщения он не реагировал. Ещё были случаи, когда этот AI психолог начинал грубо навязывать свои взгляды по вопросам веры в Бога, что было для меня неожиданно”.

  • ИИ может ошибаться — и делает это.
    Бывают ответы, которые звучат поддерживающе, но на деле могут закрепить нездоровую динамику, навредить или ввести в заблуждение. Правда, в отличие от живого специалиста, ИИ не понесёт ответственности за последствия.
    Весной 2023 года Национальная ассоциация по расстройствам пищевого поведения NEDA закрыла свою горячую линию и предложила вместо неё чат-бота Tes­sa, “безопасный и полезный ресурс для поддержки людей с РПП”. Однако когда консультантка организации, имевшая личный опыт расстройства, протестировала сервис, то получила от бота такие рекомендации по снижению веса, которые, по её словам, когда-то и запустили её болезнь. После того как история разлетелась в соцсетях, Tes­sa была отключена, а NEDA обвинила компанию-разработчика Cass в том, что та без их ведома добавила генеративный ИИ, способный выдавать непредсказуемые ответы.
  • ИИ подменяет настоящий контакт. Виртуальная поддержка может создать иллюзию близости, но не заменит настоящую эмоциональную связь. Есть риск, что человек замкнётся в «безопасной» беседе с нейросетью и перестанет искать живой контакт, даже если он необходим.


Наташа Галечьян, создательница чата поддержки подростков 1221: 

«В моем понимании, ИИ может быть помощником для психолога. Например, в изучении информации или в быстром поиске только среди проверенных источников. Но всё, что касается отношений и доверия, всё равно строится между людьми.

Например, работа с подростками — это всегда про контакт с живым человеком. ИИ уже может общаться похоже на живого человека, может придерживаться какой-то методологии, но я бы не доверила нейросети общаться с человеком, пришедшим в кризисный чат. Важно не только уметь построить предложение и задать вопрос, важно ещё оценить  по множеству разных критериев, в каком состоянии подросток, какие эмоции он испытывает, когда уместно поделиться личной историей, как реагировать, если подросток перестал отвечать. Мне как руководительнице важно знать, что помогают подросткам психологи, которых мы обучаем, которые ходят на супервизии и которые чувствуют ответственность за свою работу. ИИ никогда не решит вопрос одиночества — здесь человеку нужен человек. Общение с нейронкой может наоборот увеличить боль».

Он может быть полезен в подготовке консультантов — например, создавать тренажёры, помогать с разбором кейсов, однако тут тоже важна конфиденциальность. Может помогать искать нужную информацию — когда загружаешь учебник и ищешь не по всему интернету, а только по нужному источнику. Также можно подключать ИИ к анализу обратной связи — смотреть, с какими запросами чаще приходят, что меняется со временем. Это помогает понять, где нам не хватает внимания».

  • ИИ ненадёжен. Некоторые люди очаровываются и приписывают модели «понимание глубины», доверяя виртуальному собеседнику решения очень важных вопросов.   Другие, наоборот, ждут от ИИ безошибочности — и теряют доверие при первой ошибке. 

Ирина Старова-Кислина, копирайтер:

“У меня была смешная история, как одна нейросеть мне придумала текст несуществующей песни “Нау”, а другая придумала совершенно новый текст существующей песни “Крематория”. Оба текста были ужасны. В принципе, человек тоже так может себя вести: чего-то не знать и отвечать, что попало. Но профессиональные психологи все же не ведут себя так. Техники, правильные вопросы: мне кажется, нейросетям это пока не очень доступно. 
С другой стороны, нейросеть как-то отлично мне проанализировала мое сообщение близкой подруге с извинениями.  Впрочем, я не спрашивала совета по ситуации, мне было интересно мнение по поводу текста”.

Какой итог?
Однозначных выводов пока нет — мы явно находимся в переходной точке. ИИ стремительно входит в сферу ментального здоровья, но его возможности всё ещё ограничены, особенно там, где требуется тонкая эмоциональная настройка, эмпатия и глубокое понимание человеческого опыта. Мы живём в транзитном периоде: уже не только с людьми, но ещё не полностью с машинами.

Программы вроде Woe­bot, Wysa или Rep­li­ka обучены базовым принципам терапии: они спрашивают о самочувствии человека, предлагают простые техники, стараются поддержать — особенно в тревоге или одиночестве. Более продвинутые нейросети умеют ещё больше — замечать, как меняется голос, как строятся фразы, на какие слова делается акцент и могут по паттернам речи уловить беспокойство и апатию.

В США “цифровая психотерапия” получила официальное признание: некоторые её формы уже входят в систему страхового покрытия. Уже есть приложения, созданные специально для подростков с депрессией: они анализируют переписку с чат-ботом и распознают тревожные сигналы — определённые слова и речевые паттерны, указывающие на риск суицида. Машина в этом случае может действительно может обогнать человека — её вычислительные мощности позволяют за минуты обработать миллиарды данных и с точностью вычленить опасные ситуации. Но пока именно живой, внимательный, способный к эмпатии терапевт остаётся тем, кто несёт ответственность за последующее лечение.
 Эксперты прогнозируют: в течение пяти лет ИИ научится проводить стандартные сессии по когнитивно-поведенческой терапии настолько убедительно, что сможет пройти тест Тьюринга — то есть казаться настоящим психологом в рамках заданной методики.

Но будет ли он…чувствовать молчание? Сможет ли расшифровать замершее напряжение в теле? Невысказанную боль между строк?  Пока что искусственный интеллект не распознаёт ни травм, ни защит, ни проекций — того, что “видит” живая терапия. С нейросетью нельзя пережить и терапевтичный опыт, в котором возникает контакт и складываются отношения.

Настоящая близость требует тепла, эмпатии и внимания — того, что никакая система с кодом внутри воспроизвести не может. Пока ещё не может.