Deepfakes или новый уровень фейков

Deepfakes або новий рівень фейків

При современном развитии технологий глубинного обучения, мы уже не можем доверять фото и даже видео, насколько бы реалистичными они не казались.

В условиях продолжающейся информационной войны с Россией, нам не привыкать к фейковых новостей, но стоит знать, что сегодня появляется все больше возможностей для подделки фотографий, аудио — и видеоматериалов таким образом, что распознать подделку становится практически невозможным. Обычно, для создания «продвинутых» фейковых материалов используют алгоритмы глубинного обучения (deep learning), и, соответственно, на Западе такие фейки называют deepfakes.

Недавно в США было зафиксировано несколько интересных случаев использования и распространения в соцсетях отредактированных видеороликов. В первом случае, видео с выступления спикера Палаты представителей Нэнси Пелоси было немного замедленно, в результате чего при просмотре отредактированного видео складывается впечатление, что спикер пьяная и еле выговаривает слова. За сутки видео просмотрели более 2 млн раз, распространили 45 тысяч раз и оставили более 23 тысяч комментариев типа «совсем пьяная» и «беспорядочная болтовня». Даже Рудольф Джулиани, личный адвокат Трампа, что с недавних пор известен и в Украине, написал в своем Twitter “Что случилось с Нэнси Пелоси? Ее речь какая-то странная” и прикрепил ссылку на отредактированное видео. Правда, вскоре эта запись была убрана. Ходило много дискуссий относительно того, должен ли Facebook удалить с платформы замедленный видеозапись с Нэнси Пелоси. В результате, видео все же оставили, но сделали пометку о том, что видеозапись была отредактирована.

И вот, буквально за несколько недель в Instagram появляется фейковый видеозапись уже с Марком Цукербергом в главной роли. В клипе Марк говорит о том, как «один человек владеет ворованными данными о миллиардах людей, все их тайны, их жизнь и будущее». На этот раз были использованы более сложные технологии редактирования видео, что позволяет говорить о deepfake. Менее с тем, в Facebook пообещали не удалять и это видео также.

Кроме того, оказалось, что фото, полностью синтезированные с помощью нейросетей, использующих в своих профайлах шпионы для установления связи с лицами, представляющими для них интерес. Так, на платформе LinkedIn было обнаружено профайл Кэти Джонс, которая успела установить контакт с несколькими влиятельными политиками и экономистами прежде чем было обнаружено, что лица на фото просто не существует, а снимок сгенерировано алгоритмом.

Deepfakes або новий рівень фейків

 

Deepfakes або новий рівень фейків

Новости о том, с какой скоростью и легкостью практически любой может создать и распространить ложное видео или фото, существенно повлияв при этом на мнение общества, всколыхнули американский медиапространство, особенно в свете президентских выборов, которые должны состояться там в следующем году. Так, Палата представителей провела первые слушания на тему deepfake, а представительница Иветт Кларк подготовила законопроект, призванный установить необходимый контроль в этой сфере.

Законопроект несколько месяцев обсуждался среди компьютерных специалистов, экспертов по дезинформации и правозащитников, и сейчас он включает три основные положения. Во-первых, компании и исследователи, которые разрабатывают инструменты, которые могут быть использованы для создания deepfakes, должны обеспечить автоматическое добавление соответствующих водяных знаков в поддельных материалов.

Во-вторых, социальные сети должны улучшить свой инструментарий для выявления подделок уже непосредственно на своей платформе. Общественные организации предлагают также заставить социальные сети маркировать все фото — и видеоматериалы, которые были отредактированы таким образом, что это трудно обнаружить человеку без дополнительных инструментов. Причем такое маркировка должна быть видимый непосредственно в ленте новостей. А Google, например, должен обеспечить легкий поиск начального видеоматериала чтобы помочь журналистам и другим пользователям быстрее обнаруживать оригинальный видеозапись.

И наконец, третье ключевое положение предлагаемого законопроекта касается наказаний, в том числе в виде штрафов и тюремного заключения для тех лиц, которые создали deepfakes, которые нанесли вред отдельным индивидуумам или поставили под угрозу национальную безопасность.

По стечению обстоятельств, неприбыльная организация по защите прав человека Witness выпустила свой отчет относительно теперешнего состояния технологий deepfakes на той же неделе, что и был зарегистрирован законопроект по этому поводу. Так вот, согласно этого отчета, deepfakes пока не являются широко распространенными ведь все еще требуют специальных навыков для создания. К тому же, поддельные видеозаписи часто имеют определенные артефакты, которые делают подделку очевидной. Менее с тем, технологии глубинного обучения развиваются очень быстро, а объемы данных, необходимых для создания поддельных видео, становятся все меньшими. Так, недавно компания Samsung продемонстрировала, как можно создать целое видео только с одного фото, «ожививши» Мону Лизу. А другая группа ученых неделей позже представила инструмент, который позволяет пользователям редактировать чьи-то реплики, просто введя слова, которые они хотят услышать от определенного субъекта. Итак, это лишь вопрос времени когда deepfakes получат широкое распространение.

Share