Дипфейк: общие сведения
Deepfake — способ создания голоса или изображения с помощью искусственного интеллекта. На экране это выглядит, как обычная видеозапись.
То есть дипфейком называется имитация знаменитости или персонажа, который был разработан специально для съемки.
Технология создания
Deepfake разрабатывается на основе алгоритмов ИИ, в частности генеративных состязательных сетей — GAN. Фактически это два искусственных интеллекта, которые объединяются в одно целое:
- Генератор. Эта нейронная сеть необходима для создания изображения.
- Дискриминатор. Двоичный классификатор для оценки реалистичности изображений, которые создал генератор.
На практике это работает следующим образом. Сначала изображение человека загружается в генератор для изучения распределения пикселей, затем на основе этих данных создается его копия.
Далее начинается работа дискриминатора. Нейронная сеть сравнивает оригинал с полученным изображением и оценивает возможность того, что копия не является таковой. Чем выше вероятность, тем больше у них общего. Разность между оригиналом и копией — это потери дискриминатора.
На первом этапе генератор не способен оценить степень схожести изображений. В него требуется загрузить потери дискриминатора для учета при дальнейшей работе.
После нескольких итераций генератор начинает создавать более похожие изображения. Дискриминатор, наоборот, делает ошибки и принимает копии за оригиналы.
Со временем генератор обучается и производит изображения, которые невозможно отличить от подлинников. Дискриминатор оценивает их как правильные и уже не отличает фейки от оригиналов.
Особенности распространения
Технология Deepfake появилась недавно, но развивается стремительно. Если несколько лет назад дипфейки были известны немногим, то сегодня с ними можно столкнуться практически на каждом шагу.
Особой популярностью технология пользуется у маркетологов. Теперь они могут создавать видео и фото без участия знаменитостей. Например, руководство KFC уже отказалось от реального актера, который сыграл роль полковника Сандерса. Сейчас эту функцию выполняет сгенерированный персонаж — результат работы нейросети.
Еще один яркий пример использования дипфейка — перенос героя из прошлого в настоящее время. Таким образом «Сбер» переместил Жоржа Милославского из советской комедии, чтобы познакомить с предложениями банка и заставить зрителей немного поностальгировать.
«Пятерочка» в своей рекламе использует образ актрисы Ольги Медынич. Авторы ролика купили лицензию на работу с ее изображением, что привело к существенному снижению затрат на создание видео.
В ближайшее время благодаря deepfake актеры начнут получать дополнительные деньги. Они будут просто продавать лицензии на использование своих образов. Это приведет к снижению расходов рекламных агентств на создание видеороликов. Ведь лицензия на изображение знаменитости стоит дешевле ее личного присутствия на съемочной площадке.
Вред дипфейков
Однако технология приносит не только пользу, но и проблемы. Большинство из них заключается в незаконном использовании чужих изображений с разными целями. Например:
- Мошенничество. В этом случае преступники используют deepfake вместо конкретного человека. Одна английская компания потеряла $250.000 после их перевода на подставной счет. Это произошло потому, что сотрудникам финансового отдела позвонил по видеосвязи «владелец» фирмы. Он-то и приказал перевести деньги. Иногда мошенники снимают рекламный ролик с известным человеком, который рекомендует скам-инвестиции и рассказывает о своих успехах. В действительности это deepfake знаменитости.
- Шантаж. Для этого чаще используются порнографические ролики. Вымогатели заменяют лица моделей изображениями нужных людей. Затем шантажируют — вымогают деньги и угрожают выложить видео в интернет. Или размещают ролики в сети, чтобы испортить репутацию жертв.
- Незаконное использование лиц. Deepfake создается на основе изображения знаменитости. Затем он используется в рекламе или фильме, что нарушает авторское право человека.
Тем не менее, положительные стороны применения технологии перекрывают все ее недостатки.
Преимущества deepfake
К очевидным плюсам технологии можно отнести:
- Низкую стоимость. Видео записывается без участия актеров или моделей. Достаточно купить лицензию на использование образа, что обойдется гораздо дешевле.
- Омниканальность. Для каждой платформы нужен свой контент. Но теперь нет необходимости в изготовлении отдельного видео для каждого канала. Процесс создания дипфейка не требует присутствия человека на съемке. Наличие лицензии на изображение позволяет оперативно выпускать ролики под ту или иную платформу.
- Скорость внесения правок. Если требуется изменить рекламный ролик, deepfake делает это с минимумом временных затрат.
- Персонализация. Deepfake позволяет создавать на базе одной модели ролики на любом языке, с разными оттенками кожи и вариантами внешности. Благодаря этому можно легко подобрать видео под свою аудиторию.
В целом дипфейки снижают затраты на медийную рекламу, и ближайшее время это станет стандартом отрасли.
Применение
Технология популярна не только у компаний и обычных пользователей, но и в научной среде. Варианты применения deepfake:
- Реклама. Теперь можно не приглашать актеров не съемки. Покупка лицензии на изображение обходится дешевле.
- Приложения для создания сторис. Благодаря им пользователи накладывают свои лица на готовые изображения.
- Анимация. Технология позволяет создавать простые ролики.
- Астрофизика. Пользователи улучшают фотографии дальних объектов в космосе.
- Кино. Это не только экономия на актерах, но и возможность использования в новых фильмах людей, которые уже умерли. Например, сериал «Книга Бобы Фетта» вышел в 2022 году. Но в нем появился Люк Скайуокер из классической трилогии «Звездные Войны».
Несомненно, технология приносит больше пользы, чем вреда от применения в мошеннических схемах.
Подпишитесь на нас в Telegram
Получайте свежие статьи об интернет-маркетинге и актуальные новости о наших готовых решениях
Способы распознавания
Технология пока еще далека от совершенства, поэтому при внимательном просмотре видео человек легко заметит признаки deepfake. Тем не менее, без результатов специальной экспертизы нельзя быть уверенным, что перед вами фейковый ролик.
Распознать имитацию можно по следующим признакам:
- Необычная мимика. Движения губ не совпадают с речью, которую произносит человек. То же относится к глазам — персонаж странно моргает или его веки вообще не двигаются.
- Дрожание объекта. При просмотре ролика кажется, что человек делает резкие движения. Причина заключается в сбоях в процессе генерации.
- Глаза разного оттенка. Это результат ошибок в обучении дискриминатора и генератора.
- Отсутствие бликов на зубах и отблеска в глазах. Эффект возникает при имитации съемки в павильоне. Осветительные приборы бликуют на глазах и зубах обычного человека. У deepfake такого нет.
Генерация с помощью слабого оборудования дает тени на лице в неожиданных местах или даже размазывает изображение.
Законность использования
Применение deepfake регулирует закон об авторских правах. В некоторых ситуациях использование технологии затрагивает статьи Гражданского кодекса.
Например, история с Roistat. Их мероприятие рекламировал ролик с фейковым изображением Киану Ривза. Маркетологи были убеждены, видео, которое сгенерировала нейросеть, не защищается авторским правом. Но у создателя оригинала — компании Agenda Media Group — было свое мнение. Ее руководство обратилось в суд. Последний постановил: ролик является произведением режиссера и инженера, который настраивает ИИ. Следовательно, авторские права на него принадлежат и компании. Roistat выплатила 500 000 рублей компенсации.
Однако здесь есть и другой момент: у AMG нет лицензии на изображение Киану Ривза. Поэтому представители актера вправе подать к ним иск за незаконное использование образа.
В России применение deepfake никак не регулируется. Обычно все зависит от ситуации. В одних случаях использования технологии применяется статья об охране изображения человека, в других, если речь идет о буллинге — закон о клевете.
Вывод
Дипфейк — новая технология для создания видеороликов и фото с лицом человека, которая не требует его участия в съемке. Она позволяет экономить на производстве рекламы, но часто применяется в мошеннических схемах.
Помните: чтобы использовать изображение человека, следует получить разрешение. Это особенно важно в контексте защиты личных данных и авторских прав. Этические и юридические аспекты применения дипфейков требуют особого внимания, поскольку неправомерное использование изображений других людей может привести к серьезным последствиям, в том числе к судебным разбирательствам и ущербу репутации.