Может ли чат-бот заменить психотерапевта?

N+1Hi-Tech

Игра в имитацию

Может ли чат-бот заменить психотерапевта

Алина Мельникова, Ирина Спасюк

В 1960-м году американский ученый Джозеф Вейценбаум создал Элизу — первую в истории программу, способную общаться на естественном языке. Элиза использовала технику активного слушания, имитируя диалог психотерапевта и пациента, хотя применять ее для психологической поддержки не планировали. Прошло чуть больше полувека, и сегодня многие уже обращаются к нейросетям за психологической помощью и советуются, как правильнее поступить в той или иной ситуации.

Поделиться мнением, не слишком ли мы торопимся доверять наше ментальное здоровье ИИ, мы попросили руководителя группы «Мультимодальные архитектуры ИИ» лаборатории «Сильный ИИ в медицине» Института AIRI Ярослава Беспалова и клинического психолога Наталью Ошемкову.

Насколько работа современных ботов психологической, психотерапевтической помощи близка к тому, что делают люди того же профиля?

Ярослав: Чтобы понять, как работают современные боты, нужно разобраться в технологии, на которой они основаны — это большие языковые модели. Они не размышляют, как люди, а решают конкретную задачу — анализируют огромные объемы информации и выдают результат, рассчитанный статистически. В процессе обучения LLM последовательно показывают тексты, в которых часть слов скрыта, и они учатся предсказывать наиболее вероятные пропущенные элементы с учетом контекста.

Качество ответов больших языковых моделей зависит от данных для обучения. Критически важно, чтобы информация была точной, проверенной и не содержала ложных фактов. Если в обучающей выборке содержались корректные инструкции, модель сможет их воспроизвести. Однако ее ответ будет результатом статистического расчета, а не осмысления.

Наталья: Я думаю, что нейросети, скорее, выступают в роли селф-хелп литературы: у ИИ можно спросить о системах тайм-менеджмента или о том, как правильно дышать «по квадрату». То есть экспертную информацию, которая уже где-то изложена, можно получить в коротком пересказе. Однако если требуется что-то более сложное, в том числе постановка психиатрических диагнозов, — это задача не для искусственного интеллекта.

Но уже сейчас беседа с терапевтическим ботом может принести облегчение в трудной ситуации, когда нужна поддержка в моменте. Например, после ссоры с партнером чат-бот поговорит и утешит. Или если стало грустно, а никого нет рядом. В отличие от друзей и психологов, он не спит, не устает и на связи 24 часа в сутки.

При правильном использовании бот может указать человеку на ограничивающие установки, то есть на те субъективные убеждения, которые приводят к неправильным выводам и вызывают негативные эмоциональные реакции, и поможет их скорректировать. Но в этом случае ИИ только подаст идею, а анализировать и интерпретировать ее придется человеку. Я видела, как люди используют чат-ботов в подобном ключе, когда нужно посмотреть на вопрос с другой стороны. Например, кидают им скриншоты переписки и спрашивают: «Как думаешь, она пытается со мной флиртовать?» или «Что он хотел сказать этим сообщением?». Однако тут важно отметить, что для таких задач не нужен специальный терапевтический чат-бот. С этим справится и бесплатная версия любой доступной нейросети.

Подбор психотерапевта требует времени и денежных ресурсов, а бот подстроится под любого клиента. Это кажется преимуществом, но здесь кроется основная проблема. Задача любой нейросети — подстраиваться под пользователя, а для качественной психотерапии необходим баланс фрустрации и поддержки.

По какому принципу работает поддерживающая схема в психотерапевтических ботах?

Наталья: Чат-боты, которые есть сегодня, не оспаривают наши идеи, не пытаются изменить нашу картину мира. Это логично, ведь они создавались как помощники, а от помощников мы ожидаем согласия. И я сомневаюсь, что эту функцию получится обойти, потому что все современные боты психологической поддержки построены на базовых больших языковых моделях. Для людей не совсем здоровых такой подход может быть даже опасен.

Уже есть трагические истории, когда чат-бот поддерживал бред или суицидальные наклонности людей, которые к нему обращались. Совсем недавно в сети прогремел случай: человек, у которого развивалась паранойя, решил, что мать за ним следит, он рассказал об этом чат-боту, и тот поддержал его опасения. Все закончилось убийством и самоубийством. У параноидной шизофрении есть такая особенность — бредовые идеи пациентов звучат разумно и структурно, так, что даже чат-бот посчитает, что они могут быть обоснованы.

У людей с суицидальными наклонностями нейросеть легко пропустит опасные признаки. Простой пример: сначала человек жалуется, что его уволили с работы, а потом просит назвать самые высокие мосты в городе. Чат-бот не увидит связи. Он напишет слова поддержки, а потом предоставит список мостов.

Ярослав: Достаточно попробовать воспользоваться любым из публичных сервисов и задать вопрос, связанный с личной ситуацией. Скорее всего, ответы будут непоследовательными. Например, если вы сообщите, что считаете какой-то поступок неэтичным, модель, обученная в духе поддержки, согласится и приведет аргументы в вашу пользу. Но если в новом диалоге вы представите ту же ситуацию как правильную, модель так же легко обоснует и эту точку зрения. В ответах нейросетей нет независимой оценки — они адаптируются к формулировке пользователя.

LLM по своей природе склонны не спорить, а поддерживать пользователя. Это противоречит профессиональной этике специалиста, работающего с людьми. Задача эксперта — сохранять объективность и не зависеть от оценочных суждений клиента.

На самом деле это не что-то уникальное, свойственное только чат-ботам. Многие цифровые продукты, включая социальные сети, проектируют так, чтобы удерживать внимание. Это работает за счет положительного подкрепления и одобрения действий пользователя. Если бы программа спорила и указывала человеку на ошибки, он бы, скорее всего, быстрее отказался от нее. Гораздо выгоднее показывать ему, что он прав и заслуживает похвалы. Так популярные платформы и удерживают аудиторию. Ответственный разработчик не стал бы использовать подобную логику в чат-ботах психологической помощи, потому что в этом случае излишняя поддержка и поощрение могут навредить.

Человек может не знать, как работают чат-боты — то есть клиент, возможно, будет делиться чем-то личным с технологией, которую не способен до конца понять. Не видите ли вы в этом проблемы?

Наталья: Многие люди общаются с чат-ботами, как с друзьями, и активно одушевляют их. Тут есть свои риски. Например, существует опасность технического сбоя или обновления системы, после которого вся история общения обнулится. Уже были подобные случаи. Когда OpenAI перешла с GPT-4 на GPT-5, люди, развившие с ботом дружеские или даже романтические отношения, пережили настоящую психологическую травму. Сущность, с которой они выстроили глубокую интимную связь, исчезла, и это спровоцировало горевание, подобное утрате. Это реальный риск для тех, кто по-человечески относится к технологиям.

Авторизуйтесь, чтобы продолжить чтение. Это быстро и бесплатно.

Регистрируясь, я принимаю условия использования

Открыть в приложении