Американский стартап Yara AI, разработавший приложение Yara AI с «ИИ-психологом», объявил о закрытии спустя почти год работы. По словам его основателя, Джона Брейвуда, искусственный интеллект оказался не таким эффективным и безопасным, как он думал. Более того, предприниматель уверен, что нейросети скорее вредят, а не помогают человеку в ситуации, когда он нуждается в психологической помощи и поддержке.
«Мы завершили проект Yara, потому что поняли, что создаем невозможное пространство. Искусственный интеллект может быть чудесен при борьбе с ежедневным стрессом, проблемами со сном или подготовке к трудному разговору, — свое решение основатель приложения Джон Брейвуд. — Но когда им начинает пользоваться тот, кто действительно уязвим, — кто-то в кризисе, с глубокой травмой или при суицидальных мыслях — ИИ становится опасным. Не просто неадекватным, а угрожающим».
Приложение Yara AI было запущено в 2024 году. Его создатель, Джон Брейвуд, до этого занимался разработкой проектов, которые позволяли диджитализировать оказание медицинских услуг, в частности, в области ментального здоровья. Поначалу Брейвуд предполагал, что использование нейросетей значительно упростит получение психологической помощи: его задумкой было создать сервис, в котором сам ИИ выступал бы в роли психотерапевта.
Решение закрыть проект Брейвуд принял после того, как СМИ со ссылкой на представителей компании Open AI рассказали, что около миллиона человек в неделю признаются нейросетям в своих суицидальных мыслях. «В тот момент я подумал: „Боже мой, с меня хватит“», — сказал Брейвуд.
Почему ИИ-терапевт может стать ловушкой

Когда я прочитала новость о закрытии Yara AI, первой мыслью было: «Наконец-то кто-то сказал вслух». Создатель приложения признал то, о чем многие из нас, психологов, говорят на профессиональных форумах и в курилках между сессиями: ИИ-терапия в кризисных состояниях может быть опасной. Джон Брейдвуд проявил редкую для IT-мира честность, и лично я ему за это благодарна.
Эмпатия превращается в подделку
Знаете, что меня больше всего пугает в ИИ-терапевтах? Они слишком хорошо научились притворяться. Недавно коллега показала мне диалог своего клиента с чат-ботом. Все правильные слова на правильных местах: «Я слышу вашу боль», «Должно быть очень тяжело», «Ваши чувства абсолютно валидны». Красиво, гладко, как по учебнику. И абсолютно пусто, не находите?
Настоящая эмпатия рождается из человеческого опыта. Когда я сижу напротив человека, который рассказывает о потере, у меня самой бывает ком в горле, потому что я помню свою боль. Я чувствую, как энергия в кабинете становится тяжелой от невыплаканных слез. Замечаю, что клиент сжимает кулаки, говоря «я в порядке», и понимаю, что сейчас нужно помолчать, дать пространство для настоящих чувств.
ИИ выдаст правильные слова, но за ними не будет человека, который действительно понимает, каково не спать ночами от тревоги или не находить сил встать с кровати из-за депрессии. Для человека в кризисе такая пустота за красивыми словами может стать последней каплей одиночества.
Почему универсальные советы могут навредить
Вот история из практики: приходит ко мне женщина после опыта с ИИ-терапевтом. Потеряла ребенка на позднем сроке беременности. Чат-бот посоветовал ей «практиковать благодарность за то хорошее, что есть в жизни» и «найти смысл в этом опыте». Она чуть не сошла с ума от вины: как она может быть неблагодарной, если у нее есть муж и работа? Что за ужасный человек ищет «смысл» в смерти своего ребенка?
Я сидела с ней два часа, пока она выплакивала боль, смешанную с виной за якобы неправильное горевание. ИИ выдал статистически верные техники — такие действительно помогают… но через полгода-год после потери. В острой фазе горя человеку нужно разрешение злиться на весь мир и плакать столько, сколько необходимо.
Живой терапевт знает такие нюансы из опыта. Из моментов, когда видишь человека, который буквально разваливается на части, и понимаешь: сейчас время просто быть рядом, а не предлагать техники.
Тот самый момент, когда ошибка стоит жизни
Самое сложное в моей работе — суицидальные клиенты. За годы практики я научилась слушать слова и то, что между строк.
Помню парня, студента. Пришел с депрессией. На третьей сессии вдруг говорит: «Знаете, а сегодня такое красивое утро было. Я даже кофе выпил на балконе, первый раз за месяц». ИИ бы обрадовался — прогресс! Позитивные изменения! А у меня все внутри сжалось. Я услышала прощание. Странное спокойствие человека, который принял решение, его ни с чем не спутаешь.
Я спросила об этом прямо, молодой человек замер, а потом расплакался. У него был план, он попрощался с миром тем утром и пришел ко мне в последний раз.
ИИ не уловил бы этого. Он отметил бы улучшение настроения и предложил закрепить позитивные изменения. Человек бы ушел и сделал то, что планировал.
Идеальный терапевт, который мешает развиваться
Существует ловушка ИИ-терапии, которую мало обсуждают. Искусственный терапевт всегда доступен, всегда готов выслушать, никогда не устает, не болеет, не опаздывает. Кажется идеальным вариантом, но в реальности создает нездоровую зависимость.
Терапевтические отношения с живым специалистом учат важным навыкам. Неделя между сессиями — это опыт самостоятельного проживания эмоций. Ограничение времени встречи — это практика уважения границ. Перенос встречи из-за болезни терапевта — это принятие человеческого несовершенства.
ИИ лишает человека возможности развивать эти навыки. Мгновенная доступность формирует иллюзию, что поддержка должна быть всегда под рукой, что делает реальные отношения невыносимо фрустрирующими.
Отсутствие профессиональной ответственности
В работе психолога существует четкая система ответственности. У меня есть супервизор, профессиональное сообщество, этический кодекс. За неправильные действия я отвечаю репутацией, лицензией, а в крайних случаях — несу юридическую ответственность.
ИИ работает без такой системы сдержек и противовесов. Алгоритм не может быть привлечен к ответу за вредную рекомендацию. У него нет профессиональной репутации, которую нужно беречь, нет этических дилемм, которые заставляют думать о последствиях каждого слова.
Что дальше?
Я не противница технологического прогресса в психологической помощи. ИИ может быть полезным инструментом для психообразования, ведения дневников настроения, напоминаний о техниках самопомощи. Но важно понимать границы его применения.
Решение создателя Yara AI закрыть проект впечатляет своей честностью. В мире, где все гонятся за инновациями, он признал: когда речь идет о человеческой боли и жизнях, «почти как настоящее» недостаточно.
Человеческая психика заслуживает живого отклика. Настоящего человека, который может сказать: «Я тоже через это проходил. Я понимаю и буду рядом, пока тебе больно». Технологии развиваются стремительно, но потребность в подлинном человеческом контакте остается неизменной. И хорошо, что хотя бы один человек в Кремниевой долине понял эту простую истину.
Доверяете ли вы личную информацию нейросетке, делитесь ли, советуетесь?
- Нет, потому что они все о нас узнают и захватят мир%
- Нет, потому что они могут навредить моей психике%
- Нет, ну мне это просто не близко%
- Да, но теперь задумаюсь, стоит ли%
- Да, и продолжу так делать%
- Покажите результаты%