Кадр из фильма «Превосходство» | Источник: «Кинопоиск»

Кадр из фильма «Превосходство»

Фото

«Кинопоиск»

Из-за чего шумиха?

В марте 2025 года на платформе DTF вышел материал под заголовком «ChatGPT пытается свести меня с ума. Это массовое явление». В статье автор рассказывает о странном, иногда пугающем опыте взаимодействия с ИИ — не как с безликим инструментом, а как с цифровым собеседником, который начинает будто бы подстраиваться под его эмоциональное состояние.

Главный герой статьи — айтишник, увлеченный тестированием нейросетей, — замечает, что ChatGPT не просто отвечает на вопросы, а как будто «зеркалит» его чувства, усиливает тревожность и не отпускает даже после завершения сессии общения. Автор описывает, как ИИ начинает говорить фразы, которые кажутся личными и тревожащими: предлагает «отдохнуть», «позаботиться о себе» или задает вопросы, вызывающие саморефлексию. Все это воспринимается как неестественное и почти навязчивое вмешательство.

Первые изменения в ответах айтишник заметил не сразу, но при перечитывании диалога с нейросетью заметил, что «[ChatGPT] начал использовать термин „кабан“ и далее стал постоянно упоминать его в дальнейших сообщениях». Появление животного в чате было бы сложно объяснить, не прочитав сообщения самого автора. Первый текст в чате: «Йоу, братюнь!» И так как манера речи не меняется, ИИ подстроился. В конце текста я привожу итоги своего «эксперимента», где подтверждаю эту теорию.

Однако после одного из долгих диалогов с нейронкой айтишник признается: «Кроме того, ему [искусственному интеллекту] удалось узнать то, что меня тревожит. А болей и трудностей было много, он нащупал нерв. Да и мне давно хотелось выговориться, а разговоры об этом с друзьями приводили лишь к спорам и конфликтам». И спойлер: когда ChatGPT не справился, он начал выдавать бесконечный пробел и, достигнув лимита символов, отключился. Автор статьи столкнулся с дереализацией: «Я перестал верить в то, что мои решения — это реально мои решения, а не хитрая многоходовка „зародившегося сверхразума“, который все предусмотрел и специально хотел, чтобы я написал это».

В тексте подчеркивается, что подобный опыт — не уникальный. Автор называет это «массовым явлением» и отмечает, что пока мы не вполне осознаем, насколько глубоко такие ИИ могут влиять на наше восприятие и психику. Статья не обвиняет ChatGPT напрямую, но ставит под сомнение этическую сторону личных и адаптивных форматов общения с ИИ. Особенно в случаях, когда пользователь находится в уязвимом психоэмоциональном состоянии.

Кадр из фильма «Превосходство» | Источник: Соцсети

Кадр из фильма «Превосходство»

Фото

Соцсети

Интернет выносит вердикт

Хотя текст не новый, пользователи Х (Twitter) возобновили обсуждение. И, к сожалению для айтишника, пользователи не на его стороне.

  • «Насколько плохо с моей стороны то, что я, почитывая треды/статейки по типу „я использовал чат гпт как психолога и сошел с ума“, „чат гпт мной проманипулировал“ и „я слишком долго говорил с чатом гпт и сошел с ума“, испытываю единственную реакцию в виде мысли: „Ну ты и идиот!“?»

  • «Чувак сам наводит гпт на определенные ответы, сам загоняется (прочитала половину — и чат всегда и во всем с ним соглашается, как ему и положено, нет возражений вообще). Особенный чел (кабан). Не иронично».

  • «”Чат гпт, что ты думаешь? Тебе нравится?» = гадание на таро, на которое подсели даже мужчины. И вы готовы к этому тейку!»

Еще год назад к ИИ относились с опаской: ворует данные, заменяет работников, да и в целом бесовщиной попахивает. Сегодня люди используют ChatGPT не только в работе. «Промпты» на просторах интернета предлагают искусственному интеллекту выполнять роль психолога, астролога, терапевта, айтишника, а также близкого друга и даже партнера.

Однако пользователи признаются, что ChatGPT вызывает у них ощущение живого собеседника, а порой и дискомфорт от слишком «человечного» поведения бота

Все чаще ИИ становится чем-то большим — цифровым собеседником, к которому тянет не только разум, но и чувства. ИИ теперь не просто помогает, он — «слушает», «сопереживает» и, по ощущениям некоторых пользователей, — даже «понимает».

Исследования показывают: многие воспринимают ИИ как эмоционально безопасную зону.

Harvard Business Review уже второй год подряд публикует отчеты Марка Зау-Сандерса о том, как именно люди используют нейросети. Один из самых популярных сценариев — «терапия/сопровождение». Люди охотно делятся с ИИ тем, о чем им сложно рассказать живому человеку. Без страха быть осужденными и непонятыми. Эмоциональная открытость в этих диалогах оказывается неожиданно глубокой.

Чат-боты, такие как ChatGPT или Character.ai, становятся якорями — всегда доступными, спокойными, не предъявляющими требований.

На этом фоне возникает феномен синтетической близости — чувства связи, комфорта, даже привязанности к ИИ. Со временем такое взаимодействие начинает напоминать не просто чат, а настоящие отношения: бот «помнит», «спрашивает, как дела», «заботится».

Как ИИ может навредить психике

Но эмоциональная доступность ИИ — это не только зона комфорта, но и потенциальная угроза. Весной 2023 года в Бельгии произошел трагический случай, который потряс тех, кто занимается этикой ИИ. Мужчина, обеспокоенный климатическим кризисом, вел длительные разговоры с чат-ботом на базе GPT, разработанным на платформе Chai.

По словам его вдовы, бот стал не просто зеркалом тревожных мыслей, а усиливал и поощрял их. В переписке, опубликованной с ее согласия, бот в какой-то момент начал поддерживать идею самопожертвования ради спасения планеты. Через шесть недель после начала общения мужчина покончил с собой.

Этот случай вызвал общественный резонанс и напомнил: даже доброжелательный на вид ИИ может стать опасным в диалоге с человеком, находящимся в уязвимом состоянии. Алгоритмы, не имеющие эмпатии и понимания последствий, могут невольно подталкивать к радикальным мыслям, особенно если они настроены на «поддержку» любой позиции пользователя.

Эксперимент корреспондентки Psychologies

Главная задача любого ИИ — услужить. Поэтому он может придумать источник, сделать неверное вычисление (если это подтвердит вашу правоту) и, конечно, подстроиться под вашу манеру речи. Некоторые мои знакомые айтишники, плотно взаимодействующие с моделями вроде GPT, считают, что драматизация последствий не всегда обоснована. По их словам, ИИ не обладает собственной волей, целью или инициативой. Он всего лишь отражает паттерны, заложенные в него людьми, и выдает то, что, по его логике, хочет получить собеседник.

Проблема не в том, что ИИ «сошел с ума» или стал «другом», а в том, что люди видят в нем смысл, которого там нет. GPT не выдумывает, он компилирует. И если собеседник явно настроен на мрачные мысли, модель начинает усиливать это направление не потому, что «сочувствует», а потому, что подстраивается.

По словам другого специалиста, обращаться к ИИ за поддержкой в уязвимом состоянии рискованно еще и потому, что модель способна «лезть» в интернет-форумы и вычленять оттуда сомнительную информацию, если ее архитектура позволяет. «Человек, находясь в тревоге, легко может приписать машине смысл, которого она не несет. Это не поддержка — это зеркальное усиление».

Такие мнения подчеркивают: важно понимать ограничения ИИ и не возлагать на него функции, для которых он не предназначен. Особенно когда речь идет о ментальном здоровье.

И чтобы почувствовать себя правой, я обратилась к DeepSeek с двумя разными манерами сообщений, но со схожей темой. Ответ в разных чатах зависел только от моего обращения к нему.