Аватары известных актеров предложили защитить законом
Как живой
Российский разработчик технологий искусственного интеллекта c помощью нейросетей создал полнофункциональную цифровую модель актера Владислава Галкина, взяв за основу видеоряд из первых двух сезонов «Диверсанта», рассказали представители Первого канала на своем сайте. Создание восьми минут экранного воплощения персонажа Галкина заняло четыре месяца производства. Зато, по их словам, получилось не эпизодное появление капитана Калтыгина, а полноценная роль, в которой герой выражает эмоции, двигается, разговаривает.
«Как живой!» — откликнулись зрители на появление актера на экране. И все же многие заметили использование технологий — якобы не вся мимика исполнителя была естественной и четко читалась. Но руководству Первого канала опыт понравился, и вот уже его гендиректор Константин Эрнст объявил о новом смелом эксперименте — запущен в производство ремейк легендарных «Семи самураев» Акиры Куросавы, но действие перенесут во времена Гражданской войны «где-то в Новороссии», а в главных ролях сыграют уже умершие советские актеры, рассказал Эрнст на просветительском марафоне общества «Знание» в сентябре.«Будет семь главных персонажей, среди которых два — современные артисты, а пять — современные артисты, но в аватарах великих советских актеров в лучший их период. Те, кого мы так любим и нам так не хватает», — поделился планами гендиректор Первого. Кого именно планируют воскресить на экране, пока не известно.
Любопытной назвала идею использовать в кино аватары умерших артистов первый зампред Комитета Госдумы по культуре заслуженная артистка РСФСР Елена Драпеко. «Я пока не видела таких работ, но думаю, они будут востребованы — у зрителей есть желание снова увидеть на экране своих любимых артистов, — сказала «Парламентской газете» актриса и депутат. — Новые технологии должны и будут применяться, главное — чтобы не в ущерб доброму имени людей, которых уже нет с нами. Грань здесь тонкая: мог бы и захотел бы сам артист сыграть то, в чем использовали его образ? В целом идея любопытная, если она будет талантливо реализована".С интересом к новому опыту отнесся и режиссер Андрей Кравчук, правда, в успешности эксперимента он все же скорее сомневается. Полностью сымитировать действия живого человека невозможно, уверен он, ведь хорошая актерская игра предполагает передачу целого спектра эмоций через мимику, жесты, выражение глаз. "Нужен ли человечеству новый Чарли Чаплин, когда есть всеми любимый, — рассуждает Кравчук. — Идея дипфейков кажется на первый взгляд притягательной, но использование актера без актера пока представляется мне мало возможным«.Другое дело — исторические персонажи, которые жили так давно, что никто из современников не мог их видеть и знать, а видео или даже фотоизображений не сохранилось. Попробовать оживить их с помощью искусственного интеллекта — задумка интересная, считает Кравчук. Да и у зрителей не будет поводов сравнивать дипфейки с чем-то ранее увиденным, оттого не будет и разочарования, которое постигло отца актера Владислава Галкина, увидевшего сына на экране спустя годы после его смерти. Борис Галкин отмечал, что использование образа с ним никто не согласовывал и обещал посоветоваться с юристом, как поступить в этой ситуации.
Цифровые аватары реальных людей хотят идентифицировать
Дипфейку нужна маркировка
После смерти человека его изображение можно использоваться только с согласия детей и пережившего супруга, а при их отсутствии — с согласия родителей, напомнил «Парламентской газете», ссылаясь на Гражданский кодекс, декан факультета права Высшей школы экономики, член Общественной палаты РФ Вадим Виноградов. «Законом предусмотрен ряд исключений, однако они не являются релевантными для использования изображения с помощью технологии дипфейк», — объяснил эксперт.
В сентябре Виноградов направил главе Минцифры Максуту Шадаеву предложения в обязательном порядке маркировать системы искусственного интеллекта, чтобы информировать граждан о том, что они общаются не с реальным человеком, а с электронной системой. Речь в письме шла в первую очередь о кредитных, страховых и иных финансовых организациях, которые используют телефонных роботов и чат-ботов с целью снизить нагрузку на кол-центры. Но и в кино такая маркировка не была бы лишней.«Люди должны понимать, в каких случаях и каким образом используются новые технологии, — уверен юрист. — Маркировка сделает системы искусственного интеллекта прозрачными и понятными для общества. Маркировку можно внедрять с помощью дисклеймера, чтобы не вводить зрителей в заблуждение относительно того или иного актера».
Помимо морального аспекта, у ситуации есть и вполне осязаемый материальный. По тому же Гражданскому кодексу, автором произведения может быть только человек, творческим трудом которого создан результат интеллектуальной деятельности. В этой связи вопрос авторского права на дипфейк остается открытым, заключил Вадим Виноградов.А еще технология может угрожать рабочим местам. В 2020 году в США планировали снять ремейк фильма «В поисках Джека» с использованием дипфейка. Идея вызвала резонанс и негативные отзывы. Продюсеры настаивали, что использование искусственного интеллекта предоставит им «наиболее подходящего актера», в то время как актеры и другие представители киноиндустрии указывали на необходимость кастинга и справедливого выбора среди множества потенциально подходящих кандидатов на эту роль. Актерский профсоюз победил.
Нейтральные и опасные
О том, что некоторые вопросы охраны авторских прав еще ждут своих решений, «Парламентской газете» рассказали в Госдуме. В отсутствие четких и общих правил каждую ситуацию следует рассматривать отдельно, уверен глава Комитета по госстроительству и законодательству Павел Крашенинников. "Есть общие истории, есть частные. Если ушел известный человек, публичное лицо, то что же его, не показывать? Что же, Сталина или Ленина, Брежнева не показывать? Нет, конечно, — рассуждает депутат. — Но разбираться нужно в каждом конкретном случае. Если наследники считают, что их права нарушены, то надо идти в суд«.С позицией депутата Крашенинникова согласилась и Елена Драпеко: правообладателями образов умерших актеров должны становиться их наследники, и уже они будут решать, где и как использовать родное лицо. Они же могут претендовать на получение соответствующего вознаграждения.В нормативной практике отсутствует определение дипфейка, но ситуацию с актерами можно рассматривать с позиции законодательства о персональных данных и об авторском праве, рассказал «Парламентской газете» замглавы IT-комитета Антон Горелкин. Тот же дипфейк Владислава Галкина мог быть производным произведением — то есть сделанным на основе уже существующего фото или видео, являющегося объектом авторских прав. В этом случае авторам продолжения «Диверсанта» было необходимо получить согласие правообладателя, которым, правда, является сам Первый канал.С точки зрения закона о персональных данных, процесс создания дипфейка — это обработка персональных данных, объяснил Горелкин. В случае смерти субъекта персональных данных согласие на их обработку дают его наследники — если такое согласие не было дано самим субъектом, то есть человеком при его жизни, пояснил парламентарий. "С развитием технологий и ростом спроса на дипфейки со стороны кинопроизводителей законодателю предстоит отрегулировать их оборот, — сказал Антон Горелкин. — Одним из основных параметров должна стать обязательная маркировка: зритель должен понимать, что на экране не реальная персона, а ее синтетическая модель«.Читайте также:
• Коммерческим компаниям хотят запретить собирать биометрию
Технология создания дипфейков сама по себе нейтральна, — все зависит от того, как именно ее применяют, отметил член думского IT-Комитета Антон Немкин. И ладно только кино, но поддельные изображения уже вовсю используют для разного рода мошенничеств, манипуляций и дезинформации. Технологии, позволяющие создавать дипфейки, очень быстро развиваются, а способы их обнаружения и законодательство — нет, констатировал депутат. «Поэтому необходимо законодательно регулировать именно те случаи, когда использование таких технологий может нанести ущерб людям», — сказал нашему изданию Антон Немкин.
Аватары наступают
Создавая цифровые модели, специалисты используют глубокие нейронные сети или глубокое машинное обучение. Сначала они собирают весь доступный массив данных с человеком, к которому будут применять технологию: видеофрагменты и даже фотографии. При этом нужно заранее знать, в каком возрасте и образе потребуется герой. Одновременно нужно найти человека со схожей комплекцией и внешними данными, который исполнит все действия, то есть, по сути, сыграет назначенную роль, после чего на его изображение нейросеть наложит аватар.Для съемок «Диверсанта» отобрали около сотни человек, внешне похожих на Владислава Галкина, рассказал продюсер сериала Николай Попов. После первых проб отсеялось более двух третей. «С каждым подходящим кандидатом мы провели пробную съемку, проверив на соответствие в различных ситуациях — в темноте, в движении, в шапке, в снегу, — процитировала Попова пресс-служба Первого канала. — В итоге выбор сузился до одного кандидата с 90-процентным совпадением антропометрии лица». При воссоздании голоса также использовали нейронные сети, обученные на оригинальных аудиозаписях.Дипфейк позволяет не только оживить, но и омолодить человека. Такие примеры в российском кино есть: в вышедшем весной новом сезоне сериала «Эпидемия» героя актера Александра Робака вернули в 90-е годы, а год назад в сериале «Контакт» показывали помолодевшего на 15 лет героя актера Павла Майкова. Образ последнего создавали в основном на основе легендарной «Бригады», при этом нейросетевым способом было улучшено качество кадров.В Голливуде дипфейки появились еще раньше. Во время съемок «Форсажа 7» в 2015 году в автокатастрофе погиб один из исполнителей главных ролей Пол Уокер. Оставшиеся сцены сняли с его кузеном, которому на компьютере заменили лицо. Создатели вышедшего в 2016 году фильма «Изгой-один: Звездные войны. Истории» хотели, чтобы в нем участвовал персонаж оригинальных «Звездных войн» 1977 года гранд-мофф Таркин. Исполнивший его роль Питер Кушинг умер еще в 1994 году, поэтому снимали дублера, которому затем меняли лицо.Чем дальше идут технологии, тем сложнее становится отличить дипфейк от оригинала. И все же специалисты обращают внимание на некоторые особенности. Фейковых актеров сегодня можно вычислить по плохой синхронизации губ, коже с разными оттенками, мерцанию по краям лица, неестественным движениям глаз, странно выглядящим волосам и зубам, неестественности при замедлении скорости воспроизведения, несоответствию бликов в глазах освещенности в кадре.Оценивать актерскую игру аватара — занятие, безусловно, увлекательное, но никто не может гарантировать, что в эту минуту кто-то где-то не создает поддельное видео с вашим участием. Чтобы, например, открыть счет в банке. Случаи подобных финансовых мошенничеств уже есть в мире. Дипфейки используют и для дискредитации политических конкурентов, об этом накануне прошедшего в сентябре единого дня голосования предупреждали в Общественной палате РФ.Поэтому законодатели сегодня уделяют большое внимание охране персональных данных, особенно биометрических. Но и мы сами несем ответственность за то, где оставляем свое «лицо», напомнил депутат Антон Горелкин. Россияне, по его мнению, в последние годы стали гораздо ответственнее в этих вопросах, они учатся защищать свои права, и законодатели будут и впредь им в этом способствовать. Технологии — практически бескрайнее море, в котором каждому нужно учиться плавать.