Deepfake: у зеркала множество лиц

С помощью технологии deepfake можно создать двойника, оживить умерших и... испортить репутацию.

©evrimagaci.org

Технология deepfake создает неограниченные возможности в искусстве, например, в киноиндустрии, однако, таит в себе ряд опасностей - от нарушения авторских прав до испорченной репутации и даже возможных политических потрясений. Рассказываем вкратце, что такое дипфейки и что они могут.

Технологию создания и замены элементов на существующих видео при помощи искусственного интеллекта и нейронных сетей, позволяющую подменить изображения одного человека лицом другого, разработал еще в 2014 году студент Стэндфордского университета Иэн Гудфэллоу. В 2017 году она стала широко известной благодаря пользователю Reddit с ником Deepfake, который с её помощью стал заменять лица порноактрис лицами знаменитостей. Жертвами его роликов стали такие звезды как Скарлет Йохансон, Эмма Уотсон и другие.

Как это работает

В основе технологии лежит метод перемещения лица с помощью двух »искусственных интеллектов”: кодировщика и декодировщика. Лицо на видео размечается по точкам и »раскладывается” на отдельные кадры, такой обработке подвергаются оба лица - изначальное и желаемое. Кодировщик превращает изображение в последовательность чисел, которое потом восстанавливается и снова превращается в картинку с помощью декодировщика уже в нужном видео. Обе нейросети должны пройти обучение, чтобы проводить эту в общем-то нехитрую процедуру.

Одними из первых проекты с дипфейками стали Face2Face и Synthesizing Obama. Face2Face - создает анимацию в режиме реального времени, заменяя область рта человека на видео частью лица актера. Synthesizing Obama —делает всё тоже самое, только с улучшенной анимацией, текстурами и мимикой. Появилась возможность сопоставлять видео и аудио.

К 2020 году технология замены лиц стала трендом: роликов с технологией deepfake вышло уже более 15 тысяч. 96% из них использовались в порнографии.

Благодаря технологии deepfake архитекторы быстрее собирают проекты зданий по чертежам, а журналисты-расследователи изменяют внешний вид спикеров, которые хотят остаться анонимными.

Дипфейки в кино

Больше всего технологию Deepfake используют в индустрии развлечений, в частности, в кино. Студии теперь могут заставить пожилых актеров выглядеть значительно моложе. Так например, в фильме Мартина Скорсезе «Ирландец» 2019 года Роберт Де Ниро цифровым способом изменен так, что он »помолодел” лет на 30.

У продюсеров также появилась возможность «воскрешать» покинувших наш мир актеров, чьим экранным персонажам еще нужно пожить - их истории не пришли к своему логическому финалу. В фильме 2019 года «Звездные войны: Скайуокер» появляется принцесса Лея в исполнении актрисы Кэрри Фишер, которая скончалась в декабре 2016 года перед началом съемок.

Ещё одним примером экранного воскрешения было возвращение погибшего в автокатастрофе в 2013 году Пола Уокера во франшизе «Форсаж». В 7-й части фильма его персонажа сыграл брат Пола, чьё лицо потом изменили.

Deepfake может использоваться не только в искусстве, но также создать материал для шантажа и манипуляций. В нашумевшем короткометражном фильме «In Event of Moon Disaster» президент США Ричард Никсон зачитывает срочное обращение к народу. Он выглядит и звучит точь-в-точь, как реальный президент, но на самом деле это актер, чей голос и внешность заменили с помощью данной технологии. 

Есть прецеденты использования образа известных актеров без согласования с ними, что несомненно наносит ущерб их имиджу и бюджету. Рекламщики из Agenda Media Group даже сняли веб-сериал с цифровыми двойниками Джейсона Стейтема, Марго Робби и Киану Ривза. Никаких контрактов с ними заключено конечно же не было.

  • Роберт Де Ниро помолодел на 30 лет с помощью технологии deepfake

Американская гильдия киноактеров пытается обновить формат заключения контрактов, чтобы защитить права актеров и актрис. Уже вовсю звучат предостережения о том, что deepfake может затронуть различные уровни общественной и политической жизни, создавая репутационные риски для публичных личностей и даже угрожая привести к проблемам национальной безопасности при недобросовестном использовании их в политических технологиях. По сути, без профессиональной экспертизы больше ни одно видео не может считаться доказательством чего бы то ни было. В то же время есть уже и разработки по использованию дипфейков в оперативно-розыскной деятельности, например, для дезинформирования преступников, то есть возможна и практическая польза от этой технологии.

Впрочем, вопрос о правовых и этических рамках использования этой технологии пока далек от решения, да и сама технология deepfake ещё лишь начинает развиваться. Пока масштабы »бедствия” трудно осознать, так что всю прелесть и опасность этой технологии нам еще предстоит узнать.

Нашли ошибку в тексте? Выделите ее мышкой и нажмите Ctrl+Enter