Вы видели, как Владимир Путин объявляет о мире в «Твиттере» или как Марк Цукерберг заявляет, что получил «полный контроль над миллиардами украденных данных»? А может, вы были свидетелем извинений Джона Сноу в конце сериала «Игра престолов»? Если вы хотя бы раз ответили «да», значит, на глаза вам попался продукт под названием «дипфейк».
Привет, я Ана Сырбу, и сегодня в подкасте cuMINTE мы говорим о технологиях XXI века, которые перевернули всеобщее представление о том, как можно манипулировать медиаконтентом, а именно, о феномене дипфейков.
Для создания дипфейка (от англ. deepfake) используется технология «глубинного обучения» (от англ. deep learning) – форма искусственного интеллекта (ИИ), алгоритмы которой используются для изменения изображений лиц людей, полученных из цифрового контента, и создания реалистично выглядящей подделки. Если человек хочет вложить определенные слова в уста политика или даже сыграть главную роль в фильме «Властелин колец», это стало возможным благодаря созданию дипфейка.
Эксперты в данной области считают, что дипфейк намного опаснее и оказывает гораздо более сильное воздействие, чем фейковые новости, к которым мы привыкли в последние годы. Это связано с тем, что явление включает в себя все элементы комплексного медиапродукта: текст + фото + видео + аудио. Сочетание искусственного интеллекта (deep learning) и фейка (fake) основано на концепции под названием «генеративно-состязательные нейросети» (Generative Adversarial Network), которые можно использовать для воспроизведения видеоизображений и поверхностного звука, воспринимаемых человеком как реальные.
Дипфейки зародились в 2017 году, когда пользователь платформы Reddit опубликовал сфальсифицированные видеоролики для взрослых. В этих роликах лица таких знаменитостей, как Галь Гадот, Тейлор Свифт, Скарлетт Йоханссон и др., были вставлены вместо лиц актрис порнографических фильмов.
При создании дипфейкового видео программы искусственного интеллекта настраивают на изучение видеороликов, чтобы понять, как выглядит человек с разных ракурсов и в разных условиях окружающей среды, и затем создать картографию этого человека, то есть скопировать/воспроизвести его внешний облик на основе исходного видео, находя общие черты.
«Искусственный интеллект, или ИИ, теперь позволяет массово создавать то, что стало известно как дипфейк – синтетические видео, очень похожие на настоящие. Они, как правило, изображают людей, говорящих и делающих то, чего они на самом деле никогда не говорили и не делали. Вероятно, самым недавним примером в этом смысле можно считать дипфейки с изображениями президентов Зеленского и Путина, распространенные в Интернете вскоре после начала войны в Украине. В одном из дипфейковых видеороликов, изначально размещенных в Твиттере и затем неоднократно публиковавшихся в Интернете повторно, президент России Владимир Путин якобы объявляет о мире. Вскоре после этого появилось видеообращение Владимира Зеленского, где он с трибуны просит украинцев сложить оружие. Очевидно, это тоже дипфейковый видеоролик. Его голова выглядит неестественно большой, заметны пиксели, а голос звучит ниже, чем в действительности. Неубедительное обращение Зеленского многие высмеяли, а видео с Путиным сочли сатирой».
Но только ли видеоролики могут быть дипфейками?
Нет. Технология Deepfake может создавать убедительные, но не имеющие ни малейшего отношения к действительности фотографии. «Несуществующая журналистка издания Bloomberg Мейзи Кинсли, у которой был профиль в LinkedIn и Twitter, вероятно, была дипфейком. Другая фейковая личность из LinkedIn, Кэти Джонс, утверждала, что работает в Центре стратегических и международных исследований, однако считается, что это дипфейк, созданный для иностранной шпионской операции. Аудиозапись также может быть сфальсифицирована для создания голосовых подделок или клонов голосов общественных деятелей».
Другой пример: в марте прошлого года глава британского филиала немецкой энергетической компании перевел почти 200 000 фунтов стерлингов на банковский счет в Венгрии после того, как ему позвонил мошенник, сымитировавший голос директора из Германии. Страховщики компании считают, что голос был дипфейком, хотя достоверных доказательств пока нет.
«Что касается Молдовы, команда ProFact Moldova обнаружила несколько попыток со стороны медиаучреждения Sputnik Moldova выдать определенные фотографии за то, чем они не являются, объединив несколько изображений и представив их как необработанные», — напомнила Виорика Буду.
В настоящее время программные приложения, такие как FakeApp или FaceSwap, Snapchat или Facebook Messenger, используют эту технологию, с помощью которой реальное лицо человека накладывается на лицо другого человека или анимацию. Несмотря на то, что большинство фейковых видео относительно легко определить, по мнению экспертов, эта технология совершенствуется с каждым днем. Вскоре нам будет трудно определить, является ли то или иное видео фальшивкой.
С другой стороны, хотя дипфейки могут показаться безобидными, на самом деле они могут иметь долгосрочные негативные последствия. Они позволяют искажать высказывания политических лидеров, манипулировать избирателями перед выборами, подрывать доверие к определенным учреждениям, ставить под угрозу общественную и национальную безопасность, наносить ущерб репутации людей и т. д.
Илие Киртоакэ говорит, что еще один из способов, которым можно повлиять на демократию, связан с разжиганием ненависти: «Технологии дипфейков также могут быть использованы для обострения обстановки, для нагнетания межнациональной вражды посредством определенных заявлений лиц, формирующих общественное мнение, которых не звучало в действительности. Эти технологии могут нанести ущерб достоинству, репутации человека – ведь посредством дипфейк-контента можно тиражировать видео или аудио, в которых изображение определенного человека появится в фильме для взрослых, как уже случалось неоднократно, и то, что это видео – фейк, уже другое дело. А последствия, которые такое видео может иметь для родственников человека, для родителей, огромны».
Юрист утверждает, что это кража идентичности, «которая влечет за собой уголовное наказание, и на данный момент технология дипфейка не регламентируется ни в Республике Молдова, ни в регионе… Мы должны отнестись к ее регламентированию серьезно, потому что упрощенное регулирование само по себе может ограничить свободу выражения мнений и повлечь негативные последствия. Мы можем наблюдать это в России, где за любой контент, признанный властями недостоверным, человек может получить наказание до 15 лет лишения свободы».
Как создаются дипфейки? Исследователи, особенно студии, создающие спецэффекты, уже давно вышли за пределы возможного при работе с видео и изображениями.
Виорика Буду: «На обычном компьютере изготовить хороший дипфейк очень сложно. В большинстве случаев они создаются на современных мониторах с мощными графическими картами или, еще лучше, с вычислительной мощностью в облаке. Это сокращает время обработки от недель до дней и даже часов. Также необходимы эксперты, в частности, для ретуширования готовых видео, устранения так называемого мерцания и других визуальных дефектов. При этом сейчас доступно множество инструментов, помогающих изготавливать дипфейки, несколько компаний разрабатывают их для обычного потребителя с операционной системой в облаке. В качестве примера можно привести бесплатное мобильное приложение Zao, которое предлагает пользователям соединять свои лица с фигурами персонажей из телевизионных программ и фильмов, на которых обучалась система. Другим примером является платформа, которая дает возможность пользователям создавать собственные видеоролики по принципу дипфейка. Эта компания называет свой продукт „ответственной технологией дипфейка”, отмечая, что каждый дефект, сгенерированный их приложением, содержит четко видимый водяной знак, свидетельствующий о том, что видео является дипфейком. В видеоданных также размещены явные следы манипуляций, чтобы их можно было легко идентифицировать как подделку. Владельцы платформы считают, что технологии дипфейков должны быть четко обозначены».
Несмотря на то, что дипфейк-видео низкого качества можно легко идентифицировать, определить, являются ли подделками некоторые видео, может оказаться непросто. Сможет ли это сделать обычный человек? Знайте, что существуют подсказки, которые помогут вам выявлять дипфейки самостоятельно и с помощью ИИ.
- Неестественное движение глаз. Движения глаз, которые выглядят неестественно, или отсутствие движений глаз, например, немигающий взгляд, – признаки того, что перед вами, вероятно, дипфейк. Воспроизвести моргание так, чтобы оно казалось естественным, – непростая задача. Также трудно воспроизвести движения глаз реального человека, потому что глаза человека обычно следят за собеседником.
- Неестественная мимика. Когда выражение лица выглядит сомнительно, это может указывать на изменение лица. Так происходит, когда одно изображение накладывают на другое.
- Странное расположение черт лица. Если лицо повернуто в одну сторону, а глаза смотрят в другую, это должно насторожить вас.
- Неестественные движения тела. Если человек выглядит искаженно, когда поворачивается в сторону или двигает головой, или если его движения кажутся прерывистыми и бессвязными, меняясь от одного кадра к другому, можно заподозрить, что видео является подделкой.
- Неестественные цвета. Вызывающий сомнения оттенок кожи, отсутствие естественных цветов, странное освещение и смещенные тени – все это признаки того, что, скорее всего, вы видите фейк.
- Волосы выглядят ненастоящими. Вы не увидите в дипфейке вьющихся волос или локонов. Почему? В фейковых изображениях эти индивидуальные характеристики воспроизвести невозможно.
- Зубы выглядят ненастоящими. Алгоритмы не всегда в состоянии генерировать отдельные зубы, поэтому отсутствие отдельных контуров зубов может быть признаком подделки.
- Размытость или смещение. Если края изображений нечеткие или изображения смещены, например, там, где лицо и шея соприкасаются с телом, вы поймете, что что-то не так.
Виорика Буду: «Технологические компании сейчас работают над системами обнаружения, цель которых – сигнализировать о фейках при каждом их появлении. Но у многих существующих систем обнаружения есть серьезный недостаток: лучше всего они работают со знаменитостями, потому что они могут часами тренироваться на бесплатных доступных видеороликах. Издание The Guardian перечисляет несколько элементов, которые помогают обнаруживать эти типы дипфейков, а именно, тот факт, что американские исследователи обнаружили, что лица в дипфейках больше мерцают. Но, как только исследование было опубликовано, создатели дипфейков исправили эту проблему и уменьшили мерцание. Примерно в этом и состоит суть игры – как только недочет обнаружился, его исправляют. Кроме того, дипфейки плохого качества легче заметить: их выдают недостаточная синхронизация движений губ или неровность кожи, мерцание наложенных лиц, мелкие детали, такие как волосы, особенно там, где видны пряди, плохо прорисованные украшения, зубы. Могут присутствовать и странные световые эффекты, такие как непоследовательное освещение и блики на радужке. Но, как и в других областях мира, в которых наука развита в меньшей степени, журналисты и правозащитники используют эти инструменты для обнаружения или опровержения дипфейков».
Крупные социальные сети, такие как Facebook и Instagram, создали специальный отдел для выявления и информирования пользователей Интернета о фейках, распространяемых в социальных сетях. Deepfake Detection Challenge был разработан компанией Meta, владеющей двумя платформами, для измерения прогресса в технологии обнаружения дипфейков. В частности, это наблюдалось в начале войны в Украине, когда посты знаменитостей или общественных деятелей из Москвы содержали недостоверную или ошибочную информацию о том, что происходит в соседней стране. Meta блокировала пост и сообщала интернет-пользователям, что эта информация ложная и проверена их командой. Meta сотрудничает с несколькими организациями, которые борются с фейками.
Даже если кажется, что феномен дипфейков сопряжен только с негативными последствиями, исследователь Виорика Буду утверждает, что в нем есть и хорошая сторона. «Дипфейки часто используются в творческих индустриях, многие из них развлекательные, а некоторые даже полезные. Так, дипфейковое клонирование голоса может восстановить голоса людей, потерявших их из-за болезни, дипфейк-видео может оживить галереи и музеи. Например, во Флориде в музее Дали есть дипфейк художника-сюрреалиста, который представляет свое искусство и делает селфи с посетителями».
И, чтобы закончить на положительной ноте, я могу только выразить надежду, что вы, дорогой слушатель этого подкаста, не попадете в ловушку дипфейков, в том числе и благодаря тому, что слушаете нас каждый месяц. Фильтруйте информацию здраво! Подпишитесь на нас в Google Podcasts, Apple Podcasts и SoundCloud. Всех благ!
Слушайте подкаст
-
- Share :