«Двойники» кремлевского лидера? Искаженные изображения с Владимиром Путиным, подпитывающие эти слухи, массово распространяются в соцсетях

Многочисленные искаженные изображения президента Российской Федерации Владимира Путина во время его визита в Мариуполь или на встрече с председателем КНР Си Цзиньпином недавно подогрели слухи о якобы существующих «двойниках» кремлевского лидера. Анализ, опубликованный на портале France 24, развенчивает эти мифы.

Прислал ли Владимир Путин своего «дублера», чтобы тот вместо него совершил официальный визит в оккупированный украинский город Мариуполь? В поддержку этой теории с 20 марта во многих изданиях публиковался фотоколлаж, изображающий Владимира Путина в разные годы и якобы демонстрирующий то, что на лице кремлевского лидера заметны физические различия. На этих изображениях подчеркивается разница в чертах лица Путина – таким образом, авторы стремятся доказать, что в Мариуполь приезжал не настоящий Владимир Путин.

Этот монтаж также опубликовал в Twitter советник министра внутренних дел Украины Антон Геращенко – его публикацию перепостили почти 6000 раз. «Как вы думаете, какой из них настоящий?» – спрашивает чиновник по-английски.

Согласно анализу, опубликованному на портале France 24, даты и места, указанные на этих изображениях, не соответствуют действительности. «Если различия и заметны, то причина заключается в том, что эти снимки сделаны с разницей в несколько лет, и на них запечатлены разные выражения лица президента России», – уточняется в источнике. Первое фото сделано в 2020 г., а не в 2023 г. Журналисты France 24 перевернули изображение и обнаружили его в статье, опубликованной 23 февраля 2020 г. российским информационным агентством ТАСС.

Второе фото представляет собой снимок, сделанный в Мариуполе, а не в Севастополе. Оно заимствовано из репортажа, опубликованного 19 марта 2023 г. таким учреждением, как «Известия» – к такому выводу пришли сотрудники итальянского портала, посвященного проверке информации, Open.online. Третье фото взято из репортажа, снятого в Мариуполе. Таким образом, оно сделано там же и в то же время, что и второе изображение – но в недавних публикациях указываются другие места и даты.

Еще одно недавно распространившееся в Twitter фейковое изображение относится к встрече председателя КНР Си Цзиньпина с российским коллегой в Москве. По сведениям итальянской группы проверки фактов портала Open.online, на которую ссылается France 24, это изображение создано с помощью искусственного интеллекта и циркулировало исключительно в социальных сетях.

ДИПФЕЙК – ТЕХНОЛОГИЯ, РАСПОЗНАТЬ КОТОРУЮ ПОМОЖЕТ ВНИМАТЕЛЬНОСТЬ

В этом контексте упомянем о набирающем все большую популярность в XXI веке явлении –  дипфейке: это технология, позволяющая создавать искусственные видео или фото, которые кажутся подлинными и на которых изображаются реальные события или люди. Дипфейки создаются с помощью автоматически обучающегося искусственного интеллекта, позволяющего легко изменять или искажать фотографии, видео- или аудиозаписи.

Эксперты в этой сфере считают, что дипфейк гораздо опаснее и оказывает гораздо более серьезное влияние на общественность, чем фейковые новости, к которым мы уже привыкли за последние годы. Это связано с тем, что указанное явление включает в себя все элементы комплексного медиапродукта: текст + фото + видео + аудио. Комбинация самообучающегося искусственного интеллекта (deep learning) и фейка (fake) основана на концепции под названием Generative Adversarial Network (генеративно-состязательная сеть), которую можно применять для воспроизведения видеоизображений и поверхностного звука, которые кажутся реальными человеческому восприятию. Mediacritica затрагивала эту тему в одно из предыдущих выпусков подкаста #cuMINTE.

Вот некоторые подсказки, которые могут помочь нам выявлять дипфейки – как самостоятельно, так и с помощью ИИ.

  1. Неестественное движение глаз. Движения глаз, которые кажутся ненатуральными, или отсутствие движений глаз, например, немигающий взгляд, могут указывать на то, что перед нами, возможно, дипфейк. Воспроизвести моргание так, чтобы это выглядело естественно, – задача непростая. Трудно и воспроизвести движения глаз реального человека, поскольку взгляд обычно направлен на собеседника.
  2. Выражение лица недостаточно естественное. Если у вас сложилось впечатление, что лицо выглядит как-то подозрительно, это может свидетельствовать о том, что изображение подверглось изменениям. Такой эффект нередко возникает в случаях, когда одно изображение накладывается на другое.
  3. «Неудобное» положение элементов лица. Если лицо на изображении повернуто в одну сторону, а глаза смотрят в другую, это вызывает вполне определенные вопросы.
  4. Неестественные движения тела. Если фигура выглядит искаженной, когда человек поворачивается в сторону, наклоняет голову, или же движения отрывочны и бессвязны, видео может быть фейковым.
  5. Неестественный цвет. Странный оттенок кожи, кадры, выглядящие «обесцвеченными», непонятное освещение и тени, находящиеся не там, где они должны были бы быть, – все это признаки того, что вы, вероятно, столкнулись с фейком.
  6. Волосы выглядят ненастоящими. Кудрявых или волнистых волос в дипфейке не встретишь. Почему? Приложения, использующиеся для создания дипфейков, пока не научились генерировать эти индивидуальные характеристики.
  7. Зубы тоже выглядят странно. Алгоритмы не всегда в состоянии генерировать отдельные зубы, и поэтому подсказкой  может послужить отсутствие контуров отдельных зубов.
  8. Туманные или несовпадающие контуры. Если края изображений размыты или кажутся смещенными, например, там, где лицо и шея соприкасаются с телом, можно предположить, что с изображением что-то не так.