Как играют умершие актеры: что такое дипфейк
Дипфейк Владислава Галкина
Фото
Кадр из сериала «Диверсант» 2022 г.

Как работает технология deepfake

Технология deepfake при помощи нейронных сетей анализирует большие массивы данных, чтобы имитировать выражение лица, манеры, голос и интонации человека. Процесс включает в себя передачу отснятого материала двух людей в алгоритм глубокого обучения, чтобы научить его менять лица местами.

При выполнении данной технологии компьютерное программное обеспечение выполняет бесшовное наложение какого-либо человеческого лица на убедительное виртуальное факсимиле. Таким образом создаются аудиовизуальные мистификации, бросающие вызов достоверности информации. 

Технологические прорывы в области машинного обучения позволили создавать аудиовизуальные подделки с большой реалистичностью и масштабом. В частности, эти прорывы стали возможными благодаря двум достижениям: появлению больших наборов данных и разработке Генеративных состязательных сетей (GAN) — категории моделей машинного обучения, где нейронные сети конкурируют друг с другом без присмотра.

Опасность дипфейков возросла из-за способности GAN создавать очень реалистичные, поддельные медиапродукты в масштабе, используя большие наборы данных. Обученный GAN может делать сотни фотографий в секунду с различной детализацией, включая выражения мимики и разнообразие ракурсов для одного и того же сгенерированного лица.

Технология сама по себе не является злом. Она может приносить пользу, например, при создании видеоигр и улучшении астрономических изображений, на которых часто встречается шум от фона неба.

Чем нам угрожают дипфейки

Манипулятивные процессы, лежащие в основе дипфейков, все чаще вызывают этические вопросы, касающиеся производства  медиаконтента. На данный момент дипфейки не способны полностью обмануть глаз, но, как и у любой технологии глубокого обучения, у данной технологии вполне могут возникнуть большие успехи в ближайшем будущем, когда медиаподделки станут неотличимы от настоящих. 

Так, продукты технологии deepfake впервые появились на популярной интернет-платформе reddit.com, когда пользователь под ником «deepfakes» опубликовал порнографические видеоролики с лицами известных голливудских актрис, которые наложили поверх лиц оригинальных звезд фильмов для взрослых. Такие случаи прямо нарушают право человека на частную жизнь и могут повлечь за собой разрушение карьеры и семейных отношений людей, ставших объектами дипфейков. 

Как играют умершие актеры: что такое дипфейк
Образец набора данных для обучения ИИ
Фото
Источник: Yasrab, R., Jiang, W., & Riaz, A. (2021). Fighting Deepfakes Using Body Language Analysis. Forecasting, 3(2), 303–321

Проблемы кибербезопасности представляют собой еще одну угрозу, создаваемую дипфейками. Эта технология может быть использована для манипулирования рынком и акциями, например, в роликах, в которых показано, как влиятельное лицо произносит расистские или женоненавистнические оскорбления, объявляет о поддельном слиянии, делает ложные заявления о финансовых потерях или банкротстве.

Кроме того, технология deepfake позволяет в режиме реального времени выдавать себя за руководителя в цифровом виде, который может попросить сотрудника выполнить срочный денежный перевод или предоставить конфиденциальную информацию.

Есть ли польза от дипфейков

Многие примеры дипфейков на таких платформах, как YouTube и TikTok, менее неэтичны и предназначены для развлечения, а не для того, чтобы обмануть зрителя. Использование в подобных видеороликах дипфейков предназначено для того, чтобы создавать своего рода юмористическое зрелище, поражающее зрителя своим технологическим мастерством и функционирующее как форма легкого развлечения.

Кроме того, современные видеохудожники часто рассматривают технологию deepfake как новую форму онлайн-юмора, а любительский труд по созданию дипфейков может функционировать и как своего рода портфолио.

Пример такого совмещения хобби и рабочей деятельности можно найти в видеороликах пользователя YouTube с никнеймом Shamook. Многие работы на странице этого пользователя состоят из довольно качественных с технологической точки зрения дипфейков. В видео используется не только полная замена лиц, но и технологии искусственного улучшения и омолаживания облика героев.

Степень, в которой эти дипфейки действительно являются улучшенными версиями оригиналов, довольно спорна. Но, тем не менее, это пример, когда технология deepfake используется не в злонамеренных целях, а в качестве технологического курьеза и профессиональной визитной карточки.

Почему нам не нравится, когда наше лицо используют без спроса

Дипфейки нарушают права собственности субъектов. То есть, независимо от репутационного вреда, использование и распространение изображения или видео человека без разрешения наносит ему дополнительный вред.

Чтобы разобраться в этом вреде, исследователи вводят понятие «плагиата личности». Смысл этой идеи заключается в том, что в то время как автор оригинала не обвиняется в плагиате, контекстные особенности поведения ложно приписываются субъекту, изображенному в дипфейк-видео, а не его создателю.

Наиболее отличительная черта дипфейков в нормативном смысле: они используют украденные цифровые данные, чтобы искусственно приписать человеку определенные действия и слова

Это порождает этическую сложность, при которой фигурирующий на видео человек возражает против того, каким образом он представлен в дипфейк-видео.

Так существование вредоносных дипфейков определяет важность права на цифровое самопредставление, которое становится все более значимым по мере того, как технологии цифрового плагиата становятся все изощреннее.

Основа права на цифровое самопредставление лежит в кантовском понимании важности уважения к людям как к самоцели. Причина, по которой к людям не следует относиться как к простым объектам, заключается в том, что люди способны размышлять о своем существовании, формировать идеи о том, что, по их мнению, является правильным для них, и имеют определенную свободу распоряжаться своими действиями.

Когда мы используем других людей как простое средство для реализации наших собственных целей и желаний, мы тем самым подрываем их внутреннюю ценность как личностей, лишая их шанса преследовать свои собственные цели.

Как в мире решается проблема регулирования технологии deepfake

Относительно правовой стороны вопроса, до сих пор не существует общепринятых тенденций в сфере цифрового законодательства в разных странах. Например, правительство Соединенных Штатов Америки по-настоящему обеспокоилось возможностью изменения политических предпочтений избирателей из-за распространения видеоматериалов с использованием deepfake во время предвыборной кампании 2020 года.

В России законодательная база по регулированию использования технологии deepfake только начинает формироваться. В частности, в 2020 году статья 128.1 Уголовного кодекса Российской Федерации приобрела некоторые изменения: в часть 2 было добавлено важное уточнение о распространении ложной информации в Сети.

Как играют умершие актеры: что такое дипфейк
Иллюстрация процесса обнаружения дипфейков: извлекаются видеокадры, и на них обучается алгоритм машинного обучения. Позже система вывода классифицирует данное видео как дипфейк или нет.
Фото
Yasrab, R., Jiang, W., & Riaz, A. (2021). Fighting Deepfakes Using Body Language Analysis. Forecasting, 3(2), 303–321.

Реакцией на необходимость регулирования подобной деятельности также можно считать возникновение в мире негосударственных организаций, разрабатывающих программное обеспечение по предотвращению информационных угроз, возникающих из-за вирусной природы дипфейк-видео.

Одним из примеров является объединение Facebook (запрещенная в России экстремистская организация) и Microsoft с университетами в 2019 году для запуска программы Deepfake Detection Challenge. Также заметна работа Агентства перспективных исследовательских проектов в области обороны (DARPA) по борьбе с дипфейками с помощью семантической криминалистики, которая ищет алгоритмические ошибки, например, несоответствующие предметы гардероба, которые носит человек в фальшивых видео. 

Что можем сделать мы, чтобы случайно не поверить вредоносному дипфейку? В первую очередь следует проверять источники и тщательно изучать всю информацию на видео, в том числе и визуальную — совпадает ли цвет кожи на границе между лицом и шеей, оказывается ли правильным ракурс при движении, моргают ли на лице глаза. Кроме того, обращать внимание следует на голос человека на видео и на адекватность ситуации в целом, ведь за сомнения денег не берут. Безопасность куда дороже.

+2

Текст: Мария Горшкова