Кадр из фильма «Превосходство»
Из-за чего шумиха?
В марте 2025 года на платформе DTF
Главный герой статьи — айтишник, увлеченный тестированием нейросетей, — замечает, что ChatGPT не просто отвечает на вопросы, а как будто «зеркалит» его чувства, усиливает тревожность и не отпускает даже после завершения сессии общения. Автор описывает, как ИИ начинает говорить фразы, которые кажутся личными и тревожащими: предлагает «отдохнуть», «позаботиться о себе» или задает вопросы, вызывающие саморефлексию. Все это воспринимается как неестественное и почти навязчивое вмешательство.
Первые изменения в ответах айтишник заметил не сразу, но при перечитывании диалога с нейросетью заметил, что «[ChatGPT] начал использовать термин „кабан“ и далее стал постоянно упоминать его в дальнейших сообщениях». Появление животного в чате было бы сложно объяснить, не прочитав сообщения самого автора. Первый текст в чате: «Йоу, братюнь!» И так как манера речи не меняется, ИИ подстроился. В конце текста я привожу итоги своего «эксперимента», где подтверждаю эту теорию.
Однако после одного из долгих диалогов с нейронкой айтишник признается: «Кроме того, ему [искусственному интеллекту] удалось узнать то, что меня тревожит. А болей и трудностей было много, он нащупал нерв. Да и мне давно хотелось выговориться, а разговоры об этом с друзьями приводили лишь к спорам и конфликтам». И спойлер: когда ChatGPT не справился, он начал выдавать бесконечный пробел и, достигнув лимита символов, отключился. Автор статьи столкнулся с дереализацией: «Я перестал верить в то, что мои решения — это реально мои решения, а не хитрая многоходовка „зародившегося сверхразума“, который все предусмотрел и специально хотел, чтобы я написал это».
В тексте подчеркивается, что подобный опыт — не уникальный. Автор называет это «массовым явлением» и отмечает, что пока мы не вполне осознаем, насколько глубоко такие ИИ могут влиять на наше восприятие и психику. Статья не обвиняет ChatGPT напрямую, но ставит под сомнение этическую сторону личных и адаптивных форматов общения с ИИ. Особенно в случаях, когда пользователь находится в уязвимом психоэмоциональном состоянии.
Кадр из фильма «Превосходство»
Интернет выносит вердикт
Хотя текст не новый, пользователи Х (Twitter) возобновили обсуждение. И, к сожалению для айтишника, пользователи не на его стороне.
«Насколько плохо с моей стороны то, что я, почитывая треды/статейки по типу „я использовал чат гпт как психолога и сошел с ума“, „чат гпт мной проманипулировал“ и „я слишком долго говорил с чатом гпт и сошел с ума“, испытываю единственную реакцию в виде мысли: „Ну ты и идиот!“?»
«Чувак сам наводит гпт на определенные ответы, сам загоняется (прочитала половину — и чат всегда и во всем с ним соглашается, как ему и положено, нет возражений вообще). Особенный чел (кабан). Не иронично».
«”Чат гпт, что ты думаешь? Тебе нравится?» = гадание на таро, на которое подсели даже мужчины. И вы готовы к этому тейку!»
Еще год назад к ИИ относились с опаской: ворует данные, заменяет работников, да и в целом бесовщиной попахивает. Сегодня люди используют ChatGPT не только в работе. «Промпты» на просторах интернета предлагают искусственному интеллекту выполнять роль психолога, астролога, терапевта, айтишника, а также близкого друга и даже партнера.
Однако пользователи признаются, что ChatGPT вызывает у них ощущение живого собеседника, а порой и дискомфорт от слишком «человечного» поведения бота
Все чаще ИИ становится чем-то большим — цифровым собеседником, к которому тянет не только разум, но и чувства. ИИ теперь не просто помогает, он — «слушает», «сопереживает» и, по ощущениям некоторых пользователей, — даже «понимает».
Исследования показывают: многие воспринимают ИИ как эмоционально безопасную зону.
Harvard Business Review уже второй год подряд публикует
Чат-боты, такие как ChatGPT или Character.ai, становятся якорями — всегда доступными, спокойными, не предъявляющими требований.
На этом фоне возникает феномен синтетической близости — чувства связи, комфорта, даже привязанности к ИИ. Со временем такое взаимодействие начинает напоминать не просто чат, а настоящие отношения: бот «помнит», «спрашивает, как дела», «заботится».
Как ИИ может навредить психике
Но эмоциональная доступность ИИ — это не только зона комфорта, но и потенциальная угроза. Весной 2023 года в Бельгии произошел трагический случай, который потряс тех, кто занимается этикой ИИ. Мужчина, обеспокоенный климатическим кризисом, вел длительные разговоры с чат-ботом на базе GPT, разработанным на платформе Chai.
По словам его вдовы, бот стал не просто зеркалом тревожных мыслей, а усиливал и поощрял их. В переписке, опубликованной с ее согласия, бот в какой-то момент начал поддерживать идею самопожертвования ради спасения планеты. Через шесть недель после начала общения мужчина покончил с собой.
Этот случай вызвал общественный резонанс и напомнил: даже доброжелательный на вид ИИ может стать опасным в диалоге с человеком, находящимся в уязвимом состоянии. Алгоритмы, не имеющие эмпатии и понимания последствий, могут невольно подталкивать к радикальным мыслям, особенно если они настроены на «поддержку» любой позиции пользователя.
Мнение психолога

В одной из статей я пытался объяснить, почему ИИ не сможет заменить психотерапевта. Но если брать шире, то
Но в общении с человеком на жизненные темы ИИ не сможет продемонстрировать эмоциональный интеллект, учесть особенности культуры и воспитания той среды, в которой рос человек и прочее. В таком случае возникает вопрос: почему некоторые считают, что если ИИ может обрабатывать большое количество данных, то и на роль собеседника по жизненным вопросам он подойдет?
Проблема современного человека заключается в наличии большого количества поверхностных контактов и при этом отсутствии прочных и надежных связей
Парадокс, но при увеличении возможностей коммуникаций количество людей, чувствующих себя одинокими, только растет. Вот и пытаются такие люди найти аналог тесных и доверительных отношений в общении с ИИ, вместо того чтобы строить их с окружающими. В результате ИИ, который вообще не приспособлен для того, чтобы чувствовать человека, начинает делиться с ним, по сути, результатом обработки данных с учетом встроенных алгоритмов.
Вряд ли такое общение может оказать положительный эффект. Скорее наоборот. ИИ в общении, особенно с людьми с неокрепшей или нестабильной психикой, вполне легко может вывести из равновесия, повысить тревожность или усыпить бдительность, спровоцировать депрессивные или суицидальные мысли, склонить к неверным выводам или решениям и так далее.
Ведь повторюсь, во время общения мы чувствуем другого человека по интонации голоса, темпу речи, мимике, позе и многому другому. А машина не чувствует, именно «не чувствует». Известный американский психолог Абрахам Маслоу как-то сказал: «Когда у тебя в руках молоток, все задачи кажутся гвоздями!» И если ИИ нам помогает сделать реферат, перевести текст или сделать какой-то анализ информации, это еще не повод делать из него друга и собеседника.
Эксперимент корреспондентки Psychologies
Главная задача любого ИИ — услужить. Поэтому он может придумать источник, сделать неверное вычисление (если это подтвердит вашу правоту) и, конечно, подстроиться под вашу манеру речи. Некоторые мои знакомые айтишники, плотно взаимодействующие с моделями вроде GPT, считают, что драматизация последствий не всегда обоснована. По их словам, ИИ не обладает собственной волей, целью или инициативой. Он всего лишь отражает паттерны, заложенные в него людьми, и выдает то, что, по его логике, хочет получить собеседник.
Проблема не в том, что ИИ «сошел с ума» или стал «другом», а в том, что люди видят в нем смысл, которого там нет. GPT не выдумывает, он компилирует. И если собеседник явно настроен на мрачные мысли, модель начинает усиливать это направление не потому, что «сочувствует», а потому, что подстраивается.
По словам другого специалиста, обращаться к ИИ за поддержкой в уязвимом состоянии рискованно еще и потому, что модель способна «лезть» в интернет-форумы и вычленять оттуда сомнительную информацию, если ее архитектура позволяет. «Человек, находясь в тревоге, легко может приписать машине смысл, которого она не несет. Это не поддержка — это зеркальное усиление».
Такие мнения подчеркивают: важно понимать ограничения ИИ и не возлагать на него функции, для которых он не предназначен. Особенно когда речь идет о ментальном здоровье.
И чтобы почувствовать себя правой, я обратилась к DeepSeek с двумя разными манерами сообщений, но со схожей темой. Ответ в разных чатах зависел только от моего обращения к нему.