Кадр из фильма «Превосходство»
Из-за чего шумиха?
В марте 2025 года на платформе DTF
Главный герой статьи — айтишник, увлеченный тестированием нейросетей, — замечает, что ChatGPT не просто отвечает на вопросы, а как будто «зеркалит» его чувства, усиливает тревожность и не отпускает даже после завершения сессии общения. Автор описывает, как ИИ начинает говорить фразы, которые кажутся личными и тревожащими: предлагает «отдохнуть», «позаботиться о себе» или задает вопросы, вызывающие саморефлексию. Все это воспринимается как неестественное и почти навязчивое вмешательство.
Первые изменения в ответах айтишник заметил не сразу, но при перечитывании диалога с нейросетью заметил, что «[ChatGPT] начал использовать термин „кабан“ и далее стал постоянно упоминать его в дальнейших сообщениях». Появление животного в чате было бы сложно объяснить, не прочитав сообщения самого автора. Первый текст в чате: «Йоу, братюнь!» И так как манера речи не меняется, ИИ подстроился. В конце текста я привожу итоги своего «эксперимента», где подтверждаю эту теорию.
Однако после одного из долгих диалогов с нейронкой айтишник признается: «Кроме того, ему [искусственному интеллекту] удалось узнать то, что меня тревожит. А болей и трудностей было много, он нащупал нерв. Да и мне давно хотелось выговориться, а разговоры об этом с друзьями приводили лишь к спорам и конфликтам». И спойлер: когда ChatGPT не справился, он начал выдавать бесконечный пробел и, достигнув лимита символов, отключился. Автор статьи столкнулся с дереализацией: «Я перестал верить в то, что мои решения — это реально мои решения, а не хитрая многоходовка „зародившегося сверхразума“, который все предусмотрел и специально хотел, чтобы я написал это».
В тексте подчеркивается, что подобный опыт — не уникальный. Автор называет это «массовым явлением» и отмечает, что пока мы не вполне осознаем, насколько глубоко такие ИИ могут влиять на наше восприятие и психику. Статья не обвиняет ChatGPT напрямую, но ставит под сомнение этическую сторону личных и адаптивных форматов общения с ИИ. Особенно в случаях, когда пользователь находится в уязвимом психоэмоциональном состоянии.
Кадр из фильма «Превосходство»
Интернет выносит вердикт
Хотя текст не новый, пользователи Х (Twitter) возобновили обсуждение. И, к сожалению для айтишника, пользователи не на его стороне.
«Насколько плохо с моей стороны то, что я, почитывая треды/статейки по типу „я использовал чат гпт как психолога и сошел с ума“, „чат гпт мной проманипулировал“ и „я слишком долго говорил с чатом гпт и сошел с ума“, испытываю единственную реакцию в виде мысли: „Ну ты и идиот!“?»
«Чувак сам наводит гпт на определенные ответы, сам загоняется (прочитала половину — и чат всегда и во всем с ним соглашается, как ему и положено, нет возражений вообще). Особенный чел (кабан). Не иронично».
«”Чат гпт, что ты думаешь? Тебе нравится?» = гадание на таро, на которое подсели даже мужчины. И вы готовы к этому тейку!»
Еще год назад к ИИ относились с опаской: ворует данные, заменяет работников, да и в целом бесовщиной попахивает. Сегодня люди используют ChatGPT не только в работе. «Промпты» на просторах интернета предлагают искусственному интеллекту выполнять роль психолога, астролога, терапевта, айтишника, а также близкого друга и даже партнера.
Однако пользователи признаются, что ChatGPT вызывает у них ощущение живого собеседника, а порой и дискомфорт от слишком «человечного» поведения бота
Все чаще ИИ становится чем-то большим — цифровым собеседником, к которому тянет не только разум, но и чувства. ИИ теперь не просто помогает, он — «слушает», «сопереживает» и, по ощущениям некоторых пользователей, — даже «понимает».
Исследования показывают: многие воспринимают ИИ как эмоционально безопасную зону.
Harvard Business Review уже второй год подряд публикует
Чат-боты, такие как ChatGPT или Character.ai, становятся якорями — всегда доступными, спокойными, не предъявляющими требований.
На этом фоне возникает феномен синтетической близости — чувства связи, комфорта, даже привязанности к ИИ. Со временем такое взаимодействие начинает напоминать не просто чат, а настоящие отношения: бот «помнит», «спрашивает, как дела», «заботится».
Как ИИ может навредить психике
Но эмоциональная доступность ИИ — это не только зона комфорта, но и потенциальная угроза. Весной 2023 года в Бельгии произошел трагический случай, который потряс тех, кто занимается этикой ИИ. Мужчина, обеспокоенный климатическим кризисом, вел длительные разговоры с чат-ботом на базе GPT, разработанным на платформе Chai.
По словам его вдовы, бот стал не просто зеркалом тревожных мыслей, а усиливал и поощрял их. В переписке, опубликованной с ее согласия, бот в какой-то момент начал поддерживать идею самопожертвования ради спасения планеты. Через шесть недель после начала общения мужчина покончил с собой.
Этот случай вызвал общественный резонанс и напомнил: даже доброжелательный на вид ИИ может стать опасным в диалоге с человеком, находящимся в уязвимом состоянии. Алгоритмы, не имеющие эмпатии и понимания последствий, могут невольно подталкивать к радикальным мыслям, особенно если они настроены на «поддержку» любой позиции пользователя.
Эксперимент корреспондентки Psychologies
Главная задача любого ИИ — услужить. Поэтому он может придумать источник, сделать неверное вычисление (если это подтвердит вашу правоту) и, конечно, подстроиться под вашу манеру речи. Некоторые мои знакомые айтишники, плотно взаимодействующие с моделями вроде GPT, считают, что драматизация последствий не всегда обоснована. По их словам, ИИ не обладает собственной волей, целью или инициативой. Он всего лишь отражает паттерны, заложенные в него людьми, и выдает то, что, по его логике, хочет получить собеседник.
Проблема не в том, что ИИ «сошел с ума» или стал «другом», а в том, что люди видят в нем смысл, которого там нет. GPT не выдумывает, он компилирует. И если собеседник явно настроен на мрачные мысли, модель начинает усиливать это направление не потому, что «сочувствует», а потому, что подстраивается.
По словам другого специалиста, обращаться к ИИ за поддержкой в уязвимом состоянии рискованно еще и потому, что модель способна «лезть» в интернет-форумы и вычленять оттуда сомнительную информацию, если ее архитектура позволяет. «Человек, находясь в тревоге, легко может приписать машине смысл, которого она не несет. Это не поддержка — это зеркальное усиление».
Такие мнения подчеркивают: важно понимать ограничения ИИ и не возлагать на него функции, для которых он не предназначен. Особенно когда речь идет о ментальном здоровье.
И чтобы почувствовать себя правой, я обратилась к DeepSeek с двумя разными манерами сообщений, но со схожей темой. Ответ в разных чатах зависел только от моего обращения к нему.