В статье рассматривается способ создания и применение технологии Дипфейк. Особое внимание уделяется использованию дипфейков в современном кинематографе.
Ключевые слова: дипфейк, искусственный интеллект, GAN, машинное обучение, современный кинематограф, нейросеть.
В настоящее время все более широкое распространение получили технологии изготовления поддельных видеороликов. Для их создания используют методику компьютерного синтеза изображений, основанную на искусственном интеллекте, перенося черты лица с изображения реального человека на целевого для получения видеоматериала с высокой степенью схожести. Несмотря на то, что эти видео не подлинные, они могут быть выложены в Интернет в качестве якобы реальных. Речь идет о технологии, получившей название Дипфейк.
Дипфейк — это технология синтеза изображений, основанная на машинном обучении и искусственном интеллекте. Она стирает границы между реальностью и вымыслом, затрудняя различения реального и сфабрикованного [1].
Для создания дипфейка используются алгоритмы машинного обучения — генеративные состязательные сети (GAN). Это один из самых популярных методов создания дипфейков. GAN состоит из двух нейронных сетей — генератора и дискриминатора, каждый из которых выполняет свою уникальную роль в процессе генерации данных [2]. Генератор формирует поддельные изображения, а дискриминатор пытается отличить их от подлинных. В процессе обучения обе сети улучшают свои способности, что приводит к появлению новых видеороликов, где персонаж с лицом реального человека говорит и действует так, как нужно автору контента. Лица, сгенерированные GAN, практически невозможно отличить от настоящих.
Технология Дипфейк изучает все до мельчайших деталей, включая выражения лица, язык тела, тон голоса и даже малейшие перепады настроения. С небольшим воображением, креативностью и инструментами искусственного интеллекта можно создавать видеоролики, которые создают впечатление, что человек из оригинального видео делает то, чего на самом деле не делал.
Создание дипфейка включает три формальных этапа:
1. Все начинается со сбора данных о человеке, которого необходимо изменить с помощью технологии искусственного интеллекта дипфейк. Чем точнее и подробнее данные, тем реалистичнее будет результат.
2. Далее происходит обучение нейросети. Все собранные данные отправляются в нейронную сеть, которая учится сама подражать человеку, являющегося целью, подобно тому, как ученик учится и копирует опытного учителя.
3. Заключительный этап включает генерирование и постобработку для достижения наиболее правдоподобного результата.
В настоящее время технология дипфейк все больше набирает обороты в сфере кино, как для изменения внешности актёра, так и с целью его замены.
В мае 2022 года на «Первом канале» вышел четвертый сезон сериала «Диверсант», где появляется капитан Калтыгин, герой Владислава Галкина, скончавшегося в 2010 году. Для формирования его цифровой модели были взяты видеоматериалы из первых двух сезонов кинокартины. На производство восьмиминутного отрывка с цифровой моделью Галкина разработчикам понадобилось четыре месяца.
Съёмки седьмого фильма «Форсаж» начались в сентябре 2013 года. Было отснято достаточно много материала, когда 30 ноября в автокатастрофе трагически погиб Пол Уокер. После внезапной гибели актера создатели кинофраншизы приняли решение с помощью искусственного интеллекта воссоздать его персонажа Брайана О'Коннора. Так седьмая часть стала возможностью для поклонников попрощаться с любимым героем. Цифровой образ разрабатывала компания Weta Digital при участии двух братьев Уокера, Калеба и Коуди, и технологии захвата мимики CGI.
В 2021 году на экраны вышел новый сезон российского сериала «Контакт». В одной из серий актер Павел Майков предстает перед зрителями молодым. Данный эффект был получен благодаря технологии дипфейка, а не грима. Обучение нейросети, которая автоматически воссоздавало измененное лицо Майкова, заняло 15 дней. Далее специалисты обрабатывали изображение, чтобы довести до ума.
Александра Шангина (Head of Production компании Deepcake, работала над сериалом «Контакт») рассказала, как создаются дипфейки в кино: “Сначала мы собираем весь доступный массив данных с человеком, к которому будем применять технологию. Потом весь этот материал показываем нейросети, и она в течение продолжительного времени изучает, как выглядит этот человек в разных ситуациях. И после этого нейросеть смотрит на новый материал, который мы сняли с дублером или, как в случае с «Контактом», с тем же актером, Павлом Майковым. Дальше нейросеть сопоставляет новое видео с исходными данными и предлагает вариант изображения, как бы выглядел Павел Майков 20 лет назад” [3].
Для дипфейка снимают дублера, чье лицо в дальнейшем заменят на лицо целевого человека. Результат напрямую зависит от сходства дублера с этим человеком. Дублер должен быть похож по форме лица, линии роста волос. На результат также влияют комплекция, осанка, манера поведения, жестикуляция и мимика. Если мимика, которую демонстрирует дублер, совершенно нехарактерная для воссоздаваемого человека, то нейросеть сгенерирует мало реалистичный вариант изображения.
Кроме воссоздания знаменитых людей на экранах дипфейк применялся для того, чтобы скрывать лица. Так в документальном фильме «Добро пожаловать в Чечню» были изменены лица фигурантов истории, которым, в случае раскрытия их личностей, угрожала опасность. Так что дипфейк может работать и в обратную сторону.
Мнения о применении дипфейков в современном кинематографе различны: некоторые убеждены тем, что появление дипфейков на мировых экранах — это прорыв в сфере кино и вскоре необходимость в актерах вовсе пропадет, а на их место встанут виртуальные герои и посещение театров с реальными артистами станет диковиной. Но есть и противники, которые обеспокоены быстрым развитием информационных технологий, все больше и больше проникающих в нашу жизнь.
Так, например, знаменитый российский режиссер, глава Союза кинематографистов РФ Никита Михалков высказался издательству ТАСС. «Я считаю это преступлением, — сказал Михалков в ответ на вопрос, этично ли использование дипфейков в кинематографе. — Это значит, что, допустим, абсолютно бездарный человек, к которому Сергей Бондарчук или Михаил Ульянов, или Нонна Мордюкова никогда бы не пошли сниматься, при помощи искусственного интеллекта может создать их внешние образы. И будучи в абсолютной безопасности от возможности получить от них в глаз, (станет) использовать их в интересах своей бездарности, а, следовательно, через какое-то время для современного зрителя эти великие в прошлом артисты станут теми, кого из них сделают те, кто даже права не имеет произносить их имена» [4].
Михалков также отметил, что дипфейки могут привести к исчезновению актерской профессии. «Я уже не говорю об уважении к их творчеству, памяти, к их родственникам, детям, внукам, — добавил режиссер. — Более того, это вообще в результате может привести к исчезновению актерской профессии» [4].
Литература:
1. DeepFake: как распознать и как защититься. — Текст: электронный //Сбербанк для физических лиц: [сайт]. — URL: https://www.sberbank.ru/ru/person/kibrary/articles/deepfake-kak-raspoznat-i-kak-zashchititsya (дата обращения: 09.01.2025).
2. Применение генеративных адверсариальных сетей (GANs) для синтеза данных. — Текст: электронный //Хабр: [сайт]. — URL: https://habr.com/ru/companies/otus/articles/754978/ (дата обращения: 08.01.2025).
3. Кузнецова, Е. В. Как используют дипфейки в российском кино /Е. В. Кузнецова. — Текст: электронный // Кинопоиск: [сайт]. — URL: https://www.kinopoisk.ru/media/news/4006224/ (дата обращения: 06.01.2025).
4. Михалков назвал преступлением использование дипфейков в кино. — Текст: электронный // ТАСС: [сайт]. — URL: https://tass.ru/kultura/22763413 (дата обращения: 09.01.2025).