Эксперты Кембриджа назвали слово 2023 года: что оно значит и как влияет на нашу жизнь
Фото
Shutterstock/Fotodom.ru

Будущее рядом

Исследователи из Кембриджского университета назвали главное слово 2023 года. Им стал глагол «галлюцинировать» — он связан с индустрией искусственного интеллекта, которая все активнее проникает в нашу повседневную жизнь. Эксперты определяют значение этого слова как производство ИИ-информации, которая может не соответствовать окружающей действительности.

Такой выбор, как объясняют ученые, обусловлен всплеском интереса к ИИ в 2023 году. Среди примеров — открытые для всех сервисы ChatGPT, Bard, DALL-E и BingAI, которые зависят от больших языковых моделей — «сложных математических представлений языка, основанных на очень больших объемах данных и позволяющих компьютерам создавать язык, внешне похожий на человеческий».

Если Кембриджский словарь выбрал словом года «галлюцинировать», то другой ресурс — Британский словарь, или Collins Dictionary, — еще 1 ноября определил главным словом уходящего года «искусственный интеллект», обозначенное как моделирование компьютерными системами человеческих возможностей.

Стоит отметить, что ИИ способны создавать не только текст, но изображения: например, в начале 2023 года в соцсетях начали появляться фотографии якобы задержания полицейскими бывшего президента США Дональда Трампа. Оказалось, что эти и другие «снимки» с политическими лидерами были созданы нейросетями.

Как жить в мире нейросетей?

Мария Демина, продуктовый директор направления вовлечения команды Shkulev Tech

Чем опасен контент, созданный искусственным интеллектом?

Контент, который создает искусственный интеллект, может содержать в себе ложную неправдивую информацию, что может привести людей к панике. Например, можно сгенерировать фото- или видеоконтент, благодаря которому станет возможным выдавать желаемое за действительное в своих целях для дезинформации общества.

Также ИИ может создать контент, который будет поддерживать ненависть людей к друг другу на основе религии, расы, пола и не только, что может привести к насилию в обществе. Подобные материалы может создавать и человек, но с помощью искусственного интеллекта, который доступен даже в мессенджере, это может стать проще, а значит, количество такого контента значительно вырастет.

Как отличить контент нейросетей от контента, созданного реальным человеком?

Если говорить про текст, то необходимо обратить внимание на стиль написания. У искусственного интеллекта стиль более формальный и официальный, нежели у человека. Ошибки в грамматике, орфографии и пунктуации тоже могут говорить о том, что это писал ИИ.

Также важно обратить внимание на контекст. У человека контент будет более креативный и иметь широкий контекст, в то время, когда ИИ создает контент для решения конкретных задач. Ну и стоит проверить авторство: зачастую для контента, созданного с помощью нейросетей, это будет указано.

Если говорить про фото, то здесь стоит обратить внимание на детали. На изображениях, сгенерированных с помощью ИИ, могут содержаться мелкие дефекты, которых нет на фотографиях, сделанных людьми. Также необходимо проверить освещение и цвета на фото. У картинок, сгенерированных ИИ, может быть несоответствие свето-теневого рисунка и цветов. Еще на них можно встретить подписи или водяные знаки, которые указывают на то, что для генерации использовался искусственный интеллект.

Еще однин элемент, на который стоит обратить внимание — это композиция.

На реальных фотографиях, сделанных людьми, чаще всего композиция более сложная и включает больше элементов.

Важно отметить, что не всегда легко отличить контент, созданный ИИ, от человеческого, особенно если нейросеть обучена создавать грамотные тексты и реалистичные фотографии. Поэтому, если вы  заметили признаки, указывающие на то, что контент мог быть сгенерирован ИИ, то стоит перепроверить достоверность с помощью различных инструментов, которые используют алгоритмы машинного обучения для анализа определения их происхождения.

Мария Демина
Мария Демина

Продуктовый директор направления вовлечения команды Shkulev Tech