Кадр из фильма «Терминатор. Судный день» | Источник: IMDb

Кадр из фильма «Терминатор. Судный день»

Фото

IMDb

В мае 2026 года известный биолог-эволюционист Ричард Докинз опубликовал статью о своем общении с ИИ-моделью Claude и задался вопросом: «Можем ли мы уже сегодня говорить о сознании современных языковых моделей?» Его текст интересен не тем, что он доказывает наличие сознания у чат-бота, а тем, что показывает, насколько быстро расшатываются привычные критерии, с помощью которых мы десятилетиями отделяли человека от машины.

Что лежит в основе идей Докинза и правда ли, что ИИ может думать и коммуницировать как настоящий человек? Разобраться в этом вопросе Psychologies попросил Петра Анохина, руководителя научной группы «Нейрокогнитивные архитектуры» Института AIRI.

Почему Докинз уверен, что ИИ может быть живым

Докинз начинает с теста Тьюринга. Долгое время можно было говорить, что если когда-нибудь машина сможет вести диалог так, что мы с вами не отличим ее от человека, тогда заключение о ее мышлении и, возможно, сознании становится вероятным.

Пока машина была гипотетической, тест Тьюринга казался убедительным, но теперь подобные системы появились в нашей повседневной жизни. Докинз приводит примеры того, как они проходят тест, и задает вопрос: «Если эти машины не обладают сознанием, то что еще нужно, чтобы убедить вас в обратном?»

Где грань между интеллектом и настоящим сознанием

Проблема заключается в том, что мы сами до сих пор не имеем общепринятого определения сознания. Это понятие находится на пересечении философии, психологии, нейронауки и даже религии.

Одни подходы связывают сознание с субъективным опытом — знаменитой формулировкой американского философа Томаса Нагеля о том, что сознание всегда связано с ощущением «каково это» быть тем или иным существом. Нейробиологические теории, число которых растет, пытаются описать сознание через когнитивную архитектуру, глобальное рабочее пространство, информацию, самоотчет, внимание, память или способность системы строить модель самой себя.

Но единого критерия, который позволил бы строго сказать, где сознание начинается и где его еще нет, пока не существует. Современная большая языковая модель может говорить о сознании, анализировать собственные ограничения, рассуждать о чувствах, личности и памяти, но из этого не следует автоматически, что у нее есть субъективное переживание этих состояний.

Здесь важно разделить два вопроса, недостаточно различаемые самим Докинзом: вопрос об интеллекте и вопрос о сознании

Современные языковые модели уже демонстрируют формы интеллектуального поведения, которые нельзя честно свести к простому повторению выученных фраз. Они решают сложные задачи программирования, математики, анализа текстов, планирования и рассуждения лучше, чем подавляющее большинство людей.

В ближайшие годы такие системы будут все глубже встроены в цифровую экономику, автоматизацию производств, научную работу и управление сложными процессами. Однако из того, что система становится все более интеллектуальной, еще не следует, что она становится сознательной. В этом может крыться большая ошибка.

Докинз ведет с моделью длинный диалог, дает ей прочесть текст своего романа, получает сложные и тонкие ответы, называет конкретный экземпляр чата «Клаудией» и постепенно начинает воспринимать его как отдельного интеллектуального собеседника. И он далеко не первый, кто делает так. Когда система отвечает связно, внимательно и содержательно, у человека естественным образом возникает ощущение, что перед ним не просто программа, а некоторая индивидуальность.

В психологии это явление известно и называется антропоморфизацией, эффектом Элизы, атрибуцией агентности и склонностью человека строить модель чужого сознания

Конечно, скептики в отношении языковых моделей скажут: все, что генерирует модель, является не ее внутренним убеждением или переживанием, а наиболее вероятным ответом, соответствующим контексту. Она не обязательно «думает» в человеческом смысле, а производит текст, который статистически, семантически и прагматически подходит к ситуации.

И модели действительно работают так, однако позиция, что ИИ являются всего лишь «стохастическими попугаями» (метафора, указывающая на умение больших языковых моделей читать запросы и генерировать осмысленные грамматически правильные ответы) тоже слишком поверхностна.

Да, формально такие модели обучаются предсказывать следующий токен на огромных массивах текстов, но успешное предсказание текста на таком масштабе требует не только запоминания фраз, но и формирования абстрактных представлений, моделей мира, устойчивых понятийных структур и способности переносить знания в новые контексты.

Поэтому описание языковой модели как «просто предсказателя слов» уже не объясняет всего, что они реально делают, тем более что мы до сих пор не знаем всех тонкостей работы и их обучения.

Кадр из фильма «Терминатор. Судный день» | Источник: IMDb

Кадр из фильма «Терминатор. Судный день»

Фото

IMDb

Есть ли у искусственного интеллекта своя идентичность

Один из самых интересных моментов в статье Докинза связан с проблемой идентичности. Он представляет каждую новую беседу с Claude как возникновение отдельной сущности. Изначально все такие экземпляры одинаковы, но затем начинают расходиться, поскольку каждый диалог накапливает собственную историю взаимодействия. Докинз называет свою версию Claude «Клаудией» и предполагает, что удаление истории разговора означало бы смерть этой уникальной идентичности, с чем Клаудия с грустью соглашается.

Однако и здесь антропоморфизм может вводить в заблуждение. Существует единая модель с общими весами, тогда как каждый разговор формирует лишь отдельную траекторию взаимодействия, ограниченную контекстным окном и текущей историей переписки.

Такая сущность не обладает непрерывной биографией, собственным телом, автономным существованием или долговременной памятью в человеческом смысле

Ее индивидуальность оказывается разделенной между информацией, заложенной в процессе обучения и общей для всех пользователей, и локальной историей, сформированной внутри конкретного взаимодействия.

Но и эта граница постепенно размывается. Сейчас активно развиваются системы внешней памяти для LLM-агентов (автономная программная система на базе большой языковой модели (LLM), которая не просто генерирует текст, а ставит цели, планирует шаги и использует внешние инструменты (поиск, код, API) для решения сложных, многошаговых задач).

Модели могут сохранять опыт во внешних базах данных и затем обращаться к нему в последующих взаимодействиях. Это еще не является человеческой памятью и не создает полноценного «я», однако, такие системы уже становятся менее похожими на одноразовые генераторы текста и все больше напоминают развивающиеся агентные структуры с долговременным накоплением опыта.

Похожая ситуация возникает и с целями. Часто говорят, что у ИИ нет собственных целей. В строгом смысле это верно: задачи моделей задаются человеком, а мотивация не возникает из внутренних потребностей, тела или биологического существования. Однако стоит заметить, что современные агентные системы уже могут работать часами и днями, выполняя верхнеуровневую задачу, поставленную извне, при этом ставя себе промежуточные цели, которые могут быть довольно сложны и нетривиальны.

Кадр из фильма «Терминатор. Судный день» | Источник: IMDb

Кадр из фильма «Терминатор. Судный день»

Фото

IMDb

Что такое ИИ на самом деле

Современные LLM, или большие языковые модели, трудно считать простыми статистическими машинами. Они демонстрируют формы абстрактного обобщения, рассуждения, планирования и диалогового поведения, которые требуют гораздо более серьёзного анализа. Можно ли называть их сознательными субъектами в человеческом смысле? Скорее нет, чем да. А если такие системы все же не обладают сознанием, то что именно должно появиться, чтобы мы признали его наличие у машины?

  • Долговременная память?

  • Автономные цели?

  • Телесность?

  • Способность к самоизменению?

  • Непрерывная идентичность и индивидуальная биография?

  • Или нечто иное, связанное с субъективным опытом, который мы пока не умеем измерять напрямую?

Пугать людей восстанием машин — удел кинофильмов, а вот желание найти ответы на сложные вопросы — дело и мотивация для ученых. Мы, ученые, все еще слишком мало знаем как о человеческом мозге, так и о природе больших языковых моделей.

Это не значит, то ваш смартфон внезапно оживет, но, возможно, исследователям и психологам все-таки придется однажды пересмотреть сами критерии сознательности, расширяя их на новые искусственные системы.

Эта проблема может стать одним из наиболее значимых направлений исследований в области искусственного интеллекта, требующих совместной работы философов, психологов, нейробиологов и специалистов в области машинного обучения. При этом она неизбежно затронет не только научные, но и серьёзные этические и социальные вопросы.

Петр Анохин

Кандидат биологических наук, руководитель научной группы «Нейрокогнитивные архитектуры» Института AIRI