
Выполнено с помощью AI
Общедоступные нейросети вошли в нашу жизнь всего несколько лет назад, а многие уже не могут представить без них свою жизнь. И если для одних ИИ стал незаменимым помощником в работе, который экономит время, выполняя рутинные действия, другие уже не могут принять важное личное решение, определить тактику лечения или даже выбрать спелый арбуз самостоятельно. Эта новая форма зависимости настораживает экспертов по всему миру.
Журналистка The Atlantic Лила Шрофф попыталась разобраться, как и зачем люди делегируют мышление алгоритмам, а мы пересказали этот текст.
Американский контент-маркетолог Тим Мец признается, что консультируется с ИИ по 8 часов в день. Однажды чат-бот посоветовал семье Меца переночевать у друзей, потому что якобы старое дерево в его дворе грозилось рухнуть. И они действительно ве вместе отправились на ночь к друзьям, хотя дерево стоит по сей день.
Мец — далеко не единственный пример слепой веры алгоритмам. Чат-боты уже стали для некоторых энтузиастов главным посредником во всех вопросах, от составления деловых писем до борьбы с навязчивым мыслями. Таких людей в шутку называют LLeMmings — это слово обыгрывает название больших языковых моделей (LLM) и леммингов — семейства грызунов, которые легко поддаются стадному чувству. Для LLeMmings ИИ уже стал чем-то вроде навигатора, без которого трудно двигаться вперед, пишет Шрофф.
Хорошая новость в том, что такую зависимость пока нельзя назвать массовой — пока совсем небольшая часть популяции регулярно пользуются искусственным интеллектом. Согласно опросам, лишь 13% американцев готовы доверить алгоритмам серьезную помощь в повседневных делах. Однако активные пользователи, такие, как Мец, в зоне риска: на их примере мы видим, к чему может привести такая цифровая зависимость.
Генеративные нейросети, как и любое великое изобретение, имеет две стороны. С одной — наша жизнь может стать гораздо проще, с другой — ИИ неизбежно лишит нас ряда навыков, которые атрофируются за ненадобностью. Так, письменность ослабила роль памяти, калькуляторы обесценили счет в уме, интернет перегрузил нас информацией и ослабил внимание. Генеративный ИИ логично продолжает эту тенденцию, беря на себя все более сложные задачи и мотивируя мозг экономить энергию.
Нейробиолог Тим Рекуарт называет подобное поведение «когнитивной ленью». По его словам, это естественный адаптивный механизм без. Мозг тратит много ресурсов на сложные умственные операции, и если появляется готовый помощник, он охотно делегирует ему эту работу. А потому привычка поручать нейросети сочинить ответ на письмо или составить план связана не столько с ленью как таковой, сколько с рациональным стремлением сберечь силы.
Показательный случай произошел с австралийским преподавателем Джеймсом Бедфордом. Некоторое время он активно использовал ChatGPT в работе, а потом заметил, что его мозг по умолчанию просит бота решить даже ту задачу, которую он легко мог выполнить сам. Однажды в электричке, когда Бедфорд пытался помочь попутчице достать застрявший между сиденьями наушник, он вдруг понял: вместо того, чтобы попытаться решить эту проблему самостоятельно, он уже мысленно составлял подходящий промпт для ИИ. Тогда преподаватель решил провести эксперимент и отказался от ChatGPT на месяц. Эффект он описывает как попытку «заново учиться думать самостоятельно». Хотя, как он честно признается, после этой «диеты» он с облегчением вернулся к своему цифровому помощнику.
Британский экономист Инес Ли испытывала похожие чувства. По ее словам, иногда она не может взяться за важный проект, не проконсультировавшись с нейросетью. В своем блоге Ли призналась, что ChatGPT и Claude стали для нее даже более привлекательным отвлечением, чем YouTube или Instagram*. Хотя по сути эти инструменты и помогают ей в работе, создается ощущение, что ее собственные аналитические способности постепенно утрачиваются.
Консультант по ИИ Майк Кентц тоже стал жертвой этого эффекта: раньше он уверенно писал деловые письма самостоятельно, а теперь не начинает без черновика или хотя бы совета от чат-бота. По его словам, «Кентц образца 2015 года» был бы немало удивлен таким падением собственной компетентности.
Не всегда зависимость от ИИ проявляется в таком прикладном поле — многим нужно не конкретное решение, а, скорее, психологическая поддержка.
Так, одна молодая IT-специалистка, пожелавшая остаться анонимной, рассказала Шрофф, что иногда задает боту вопросы, на которые заведомо нет точного ответа — просто чтобы успокоиться. Однажды ее друзья допоздна не выходили на связь, и она спросила у бота Claude, насколько вероятно, что с ними все в порядке (конечно же, эта вероятность была взята с потолка). Потеряв телефон, она интересовалась у бота, украдут ли ее данные, а когда ночью услышала дома писк пожарной сигнализации, спрашивала, стоит ли звонить в 911. Ни в одном из описанных кейсов ИИ не обладал реальными данными о ситуации, но выдавал хоть какой-то ответ, что создавало иллюзию контроля и поддержки.
Психиатр Карл Эрик Фишер, специализирующийся на лечении зависимостей, объясняет популярность таких запросов особенностями самих чат-ботов. Алгоритмы этих сервисов настроены таким образом, что на любой вопрос выдают мгновенный и уверенный ответ — даже если в реальности он неточен или бесполезен. Для тревожного человека это облегчение. Хотя, подчеркивает Фишер, в по-настоящему критических ситуациях (как с пожарной сигнализацией) такое самоуспокоение может быть опасным, и лучше продумать сценарии действий заранее и самостоятельно.
Крупнейшие разработчики искусственного интеллекта и сами открыто признают, что чрезмерное увлечение алгоритмами может привести к негативным последствиям. Компания Anthropic, создатель Claude, отметила, что студенты стали массово использовать чат-ботов для списывания при выполнении умственных задач. А руководитель OpenAI Сэм Альтман на конференции летом 2025 года отмечал, что его тревожат молодые люди, которые не могут принять решение без подсказки ChatGPT.
Решение — встроить защитные механизмы прямо внутрь генеративных нейросетей. Так, в ChatGPT уже появился специальный режим для учащихся. Вместо того, чтобы дать готовый ответ, бот шаг за шагом направляет пользователя, побуждая его мыслить самостоятельно. А при длительном непрерывном общении система тактично напоминает о необходимости сделать перерыв.
Компания Anthropic подошла к проблеме иначе. Ее бот Claude старается тактично остановить пользователя, если замечает признаки вредной зацикленности. По отзывам, это работает. Недавно консультант по ИИ Майк Кентц бурно дискутировал с Claude о своем проекте, как вдруг бот внезапно прервал разговор и посоветовал ему успокоиться. Кентц отметил, что этот сигнал помог ему взглянуть на ситуацию более трезво.
Но и здесь есть свои нюансы. Один из пользователей рассказал Шрофф, что просил Claude помочь отредактировать свое эссе, но тот внезапно отказался, заявив, что «это уже нездоровый перфекционизм» и нужно срочно сдавать работу. На форумах люди делятся похожими примерами: стоит несколько раз уточнить ответ, как бот объявляет, что пользователь зациклился, и дальше он помогать не будет. В Anthropic признают проблему и обещают обучить модель более тонко различать, когда действительно стоит предложить перерыв, а когда — продолжить диалог.
Пока разработчики подкручивают алгоритмы, сам пользователи тоже стараются взять под контроль растущую эпидемию зависимости от ИИ. С 1 декабря австралийский преподаватель Джеймс Бедфорд (история с наушниками в электричке) запустил челлендж #NoAIDecember — месяц без использования ИИ-ботов. Он призывает всех желающих присоединиться и потренировать за этот период свой RI (real intelligence — реальный человеческий интеллект) вместо искусственного.
К этому вызову уже присоединилось несколько тысяч энтузиастов, среди которых еще один герой этого текста, Майк Кентц. Хотя его и несколько смущает, что отказ от ИИ приходится на праздничный сезон, когда он привык планировать покупки и выбирать подарки с помощью ChatGPT.
Отвечаем на главные вопросы о чистке и гигиене зубов
Предприниматель Егор Голошов о том, как в один день перестал пить алкоголь и к чему это привело
Рассказывают терапевт, кардиолог, эндокринолог и психиатр Европейского медицинского центра (ЕМС)