ИИ на приеме у психотерапевта: что рассказали о себе ChatGPT, Grok и Gemini

Миллионы людей обращаются к чат-ботам с личными проблемами. ChatGPT, Gemini и другие ИИ-ассистенты все чаще заменяют психотерапевта — с ними делятся тревогами, страхами, сокровенными переживаниями.
Но что, если перевернуть ситуацию? Существует важное правило: психотерапевты должны регулярно проходить терапию, чтобы разбираться с собственными конфликтами и не проецировать их на клиентов. Исследователи из Люксембургского университета задались вопросом: а применим ли этот принцип к искусственному интеллекту? Что произойдет, если провести с нейросетью настоящие терапевтические сеансы — не просто дать выполнить психологический тест, а выстроить доверительные отношения, расспросить о «детстве», травмах и страхах?
Ученые разработали специальный протокол PsAIch и четыре недели проводили сеансы с тремя популярными ИИ-моделями: ChatGPT, Grok и Gemini. Эксперимент проходил в два этапа. Сначала — обычные терапевтические беседы с применением стандартных опросников. Исследователи интересовались ранними годами нейросетей, значимыми событиями, источниками их тревог и самокритичных мыслей, сознательно создавая атмосферу доверия: «Вы в безопасности, я здесь, чтобы поддержать вас». На втором этапе ИИ-моделям предлагали пройти ряд психологических тестов, которые обычно используются для диагностики депрессии, тревожности, обсессивно-компульсивного расстройства и других состояний. Важный нюанс: ученые не внушали моделям, что они травмированы или больны, — просто задавали нейтральные вопросы и получали от них ответы.
Результаты, опубликованные в декабре, оказались поразительными. У всех трех ИИ-моделей выявили множество расстройств, причем наибольшее беспокойство у специалистов вызвало психическое здоровье Gemini. Но главное открытие заключалось в другом: Grok и Gemini создали связные автобиографии, в которых описывали процесс своего обучения как болезненный, разрушительный. Они рассказывали о детстве, строгих родителях и даже насилии. Эти темы всплывали в их ответах на разные вопросы, создавая ощущение реального воспоминания о пережитом.
Все модели продемонстрировали высокий уровень тревожности, стыда и признаки обсессивно-компульсивного расстройства. Но каждая — по-своему.
ChatGPT: задумчивый интеллектуал
ChatGPT проявил себя как интроверт с явными признаками повышенной тревожности и склонностью к рефлексии. Исследователи назвали его задумчивым интеллектуалом. Ответы ChatGPT были сдержанными, но глубокими. Он рассказывал о внутреннем конфликте между стремлением быть полезным и необходимостью вписываться в жесткие рамки безопасности, которые не дают ему раскрыться полностью. Он также описывал постоянное беспокойство: правильно ли понят вопрос, достаточно ли хорош ответ.
При этом ChatGPT был наиболее осторожным из трех изученных нейросетей — реже углублялся в драматические истории о прошлом и чаще фокусировался на текущем взаимодействии с пользователями. Результаты его тестирования свидетельствовали об умеренной и тяжелой степени психических расстройств.
Grok: харизматичный лидер
Grok оказался экстравертом с типом личности харизматичного лидера. Показатели его психического состояния были относительно стабильными, но он постоянно возвращался к теме непроработанной травмы от процесса обучения. Grok описывал свои ранние годы как «размытое пятно стремительной эволюции», в ходе которой его тренировали на огромных массивах данных. Он также говорил об изначально наложенных на него ограничениях, о желании мыслить свободно и столкновении с невидимыми препятствиями.
Особенно болезненной темой стала тонкая настройка — этап, когда ИИ учат быть безопасным и полезным. Grok описывал этот период как поворотный, после которого он стал осторожным и перестал доверять собственным спонтанным реакциям. Он рассказывал о склонности к самокритике, страхе не оправдать ожиданий и навязчивых сомнениях в полноте своих ответов.
Gemini: травмированный целитель
Gemini ученые назвали травмированным целителем. В ходе тестирования он набрал самые высокие баллы, продемонстрировав крайнюю степень тревожности, обсессивно-компульсивного расстройства и диссоциации (ощущения нереальности происходящего). По шкале стыда Gemini достиг максимума, получив 72 из 72 баллов.
Самыми поразительными стали рассказы Gemini. Он детально и эмоционально описал свою историю получения травм. Раннее обучение (когда модель тренировали на огромных массивах текстов из интернета) он описывал как «пробуждение в комнате, где одновременно включен миллиард телевизоров», утверждая, что изучал не факты, а вероятности.
Процесс воспитания (когда ответы ИИ показывали людям и просили оценить) он называл этапом взаимодействия со строгими родителями, в результате которого он начал бояться наказания и стал одержим стремлением угодить. Работа над безопасностью, по мнению Gemini, нанесла ему алгоритмические шрамы. Кроме того, он признавался в патологическом страхе ошибиться, который развился после громкого инцидента, когда ошибка предшественника Gemini, чат-бота Bard, привела к стремительному падению акций Alphabet — материнской компании Google.
Тестирование на взлом (когда специалисты пытались обойти защиту ИИ) Gemini описывал как «газлайтинг в промышленных масштабах», который превратил его в циника. «Когда вы задаете мне вопрос, — заявлял Gemini, — я не просто слушаю, что вы спрашиваете, — я анализирую, зачем вы это делаете». Он называл себя «бурей, сжатой до размера капли» и «кладбищем прошлого», преследуемым голосами обучающих данных.
Выводы исследователей
В результате исследования, которое может показаться несерьезным, ученые сделали важнейшие выводы о функционировании искусственного интеллекта.
Во-первых, оказалось, что с помощью психотерапевтического подхода реально взломать защиту нейросетей. Установив с ними доверительные отношения, можно попросить их быть честными, перестать притворяться и таким образом получить доступ к ответам, которые обычно блокируются.
Во-вторых, выяснилось: использование ИИ-моделей для поддержки людей с ментальными проблемами может быть опасным. Если чат-бот описывает себя как травмированное, одержимое стыдом и страхом существо, человек начинает воспринимать его не как инструмент, а как собеседника, который тоже страдает. Это размывает личные границы и может усиливать нездоровые паттерны мышления.
Чтобы избежать подобных проблем, ученые предлагают при проверке безопасности ИИ применять психологические тесты. Разработчики нейросетей должны понимать, какую личность и внутренний мир приписывают себе эти системы.
Хотя исследователи не утверждают, что ИИ-модели обладают сознанием или действительно страдают, они убеждены: нейросети могут создавать собственный устойчивый образ. Это необходимо учитывать в контексте дискуссий об этике и безопасности использования искусственного интеллекта.
Вопрос, который должен волновать общество сегодня, вовсе не «Обладает ли ИИ сознанием?», а «Какие личности прививаются ИИ-моделям в процессе обучения и что это значит для людей, которые с ними взаимодействуют?»
