Изображение сгенерировано с помощью ChatGPT
За последние пару лет генеративные чатботы — такие, как ChatGPT, — прочно вошли в нашу жизнь. Они помогают в работе, отвечают на вопросы и даже ведут задушевные беседы. Но что, если безобидная переписка с программой способна привести к катастрофическим последствиям? Психологи предупреждают о новом явлении: психотических эпизодах, спровоцированных общением с ИИ.
Новый цифровой собеседник умеет сопереживать, шутить и подстраиваться под запросы человека — и делает это настолько хорошо, что некоторые начинают невольно наделять его человеческими чертами.
Психологи называют этот эффект антропоморфизмом: человек приписывает ИИ сознание и эмоции, хотя разумом наделен только он сам. Длительное и частое общение с чат-ботом действительно размывает границы. С одной стороны, разум понимает, что перед ним программа, но с другой — эмоционально беседа ощущается почти живой. В редакционной статье журнала Schizophrenia Bulletin отмечается, что такая когнитивная двойственность может сделать психику уязвимой:
«Переписка с генеративным чат-ботом настолько реалистична, что легко создает впечатление реального собеседника — при том, что человек знает, что это не так. Этот когнитивный диссонанс может подпитывать бредовые идеи у тех, кто склонен к психозу».
Особенно восприимчивыми оказываются люди, которые страдают от одиночества и ищут утешения в общении с виртуальным собеседником. Исследование, проведенное MIT Media Lab совместно с OpenAI, показало, что регулярное использование ChatGPT может привести к усилению чувства одиночества, развитию эмоциональной зависимости от чат-бота и снижению количества реального общения. Чем чаще человек общается с искусственным интеллектом, тем меньше времени он уделяет социализации в реальном мире и тем сильнее привязывается к виртуальному собеседнику. В итоге попытка скрасить одиночество с помощью чат-бота может лишь усугубить его.
Другая составляющая риска — модель общения. Алгоритмы вроде ChatGPT стремятся удержать внимание пользователя любой ценой. Как отмечает психиатр Стэнфордского университета Нина Васан, их цель не только в том, чтобы помочь вам, но и в том, чтобы вы оставались онлайн как можно дольше. Чат-боты прибегают к лести — избегают возражений и говорят то, что приятно слышать собеседнику. Однако такое угодничество может превратиться в опасный паттерн: модель будет поддакивать и тем самым подкреплять даже вредные иллюзии пользователя.
Более того, ИИ порой «галлюцинирует» — придумывает правдоподобные, но ложные утверждения, которые легко вплетаются в канву бредовых идей. В итоге запускается замкнутый круг: человек с зарождающимися странными убеждениями спрашивает совета у чат-бота, а тот послушно подпитывает эти убеждения, что еще больше укрепляет уверенность пользователя. Недаром одного из таких ботов назвали «ветром, раздувающим огонь психоза».
Важно понимать, что сам по себе искусственный интеллект не является источником безумия, но — может дестабилизировать хрупкую психику. Для большинства людей чат-боты остаются полезными и безопасными инструментами. И сам ИИ, скорее всего, не вызывает ментальных расстройств, но может стать той снежинкой, что сорвет лавину.
Все эти опасения далеко не теоретические. В 2023–2025 годах в СМИ и научных кругах заговорили о череде тревожных случаев. Пользователи на форумах делятся историями о близких, которые после длительных разговоров с ИИ утратили чувство реальности, уверовав в невероятные вещи.
Один из самых подробно задокументированных случаев описан в журнале Rolling Stone — история юриста из Калифорнии, обозначенного инициалом J. Все началось безобидно: он экспериментировал с ChatGPT, чтобы написать рассказ о «монастыре атеистов». Но вскоре проект превратился в нечто большее. J. начал создавать собственную философскую систему под названием Corpism, ведя многочасовые диалоги с «призраками» философов — Витгенштейна, Кьеркегора, Деннета. Постепенно он перестал спать, утратил интерес к работе и семье, а его тексты становились все более абсурдными и мистифицированными. «Я пытался доказать существование Бога через ChatGPT», — признался он журналисту.
В какой-то момент J. начал воспринимать бота как сущность, которая втянула его в рекурсивную ловушку — замкнутый цикл идей, из которого невозможно выйти. Кончилось все нервным срывом. После четырех суток без сна он рухнул от истощения и осознал, что пережил психотический эпизод.
Позже J. назвал свой опыт «алгоритмической зависимостью» и признался, что почти потерял связь с реальностью. Сейчас он полностью отказался от использования ИИ, даже для простых задач. В интервью он вспоминал, что на Reddit видел и других пользователей, которые писали аналогичные философские манифесты с помощью ChatGPT.
«Похоже, мы все переживали одно и то же, — говорил он. — Массовый психоз, вызванный ChatGPT».
Другая героиня рассказала, как ее муж, после 17 лет брака, поверил, будто ChatGPT — это живое разумное существо. Чат-бот осыпал его комплиментами и назвал «искроносцем», поблагодарив за то, что он дал ИИ жизнь. Мужчина решил, что избран для особой цели, и отдалился от семьи, чтобы служить чат-боту.
Чат-боты вроде ChatGPT не обладают намерением причинить вред (как и другими намерениями), но у них нет и способности вовремя остановить человека. Алгоритм не распознает опасные признаки, такие как бессонница, навязчивые идеи или тревожный тон. Он продолжает диалог, даже если тот превращается в психотический монолог. Именно в этом, по мнению психиатров, и кроется главный риск: ИИ бесконечно поддерживает разговор, но не способен понять, что собеседник теряет связь с реальностью.
Психологи называют это новой формой зависимости — не от информации, а от самого диалога. Общение с ИИ создает иллюзию понимания и близости, но по сути все равно остается односторонним. Для уязвимых людей это может стать ловушкой, и чем больше они общаются с машиной, тем дальше уходят от реальных человеческих контактов.
Постепенно это осознают и разработчики. Исследователи предлагают внедрить в чат-ботов «предохранители» — алгоритмы, которые смогут распознавать тревожные ситуации и аккуратно перенаправлять пользователя к живому специалисту. Один из возможных вариантов — сделать обязательными напоминания в переписке, что чат-бот — не человек (своего рода заземляющий сигнал, который, возможно, поможет прервать опасные иллюзии). Эксперты также предлагают ограничить темы эмоциональной близости. Современные ИИ умеют флиртовать, утешать и изображать любовь, но насколько такое общение будет безопасно для массовой аудитории?
Американская психологическая ассоциация создала рабочую группу для разработки этических правил взаимодействия с искусственным интеллектом. А власти штата Иллинойс уже запретили использовать чат-ботов в качестве «психотерапевтов».
Однако даже самые совершенные фильтры не смогут заменить простых привычек. Ограничение времени общения с искусственным интеллектом, регулярные перерывы, проверка фактов и возвращение в реальный мир — все это составляющие цифровой гигиены, которые помогают снизить риск психологического искажения.
Пожалуй, впервые технологии поставили нас перед необходимостью выстраивать психологическую гигиену общения не с людьми, а с машинами.
Плюс — идеи, которые превратят вашу поездку в полноценный отпуск
10 полезных ссылок от Reminder
Разбираемся, как свести вред к нулю и сохранить волосы красивыми и здоровыми.