
Не верь своим глазам
Содержание
Фильм выглядит очень показательно. Бывший президент Барак Обама говорит прямо в камеру и вульгарно бросает вызов нынешнему президенту Трампу. Если бы не было известно, что это видео — работа Джордана Пила и BuzzFeed (1), предназначенная для предупреждения людей о появляющейся технике дипфейков, на нее можно было бы легко попасться.
С другой стороны, нас очаровала цифровая имитация юной Кэрри Фишер — принцессы Леи, появившаяся в конце «Изгоя 1», как часть саги «». Нам менее известен случай размещения лица Николаса Кейджа во фрагментах фильмов, в которых он не появлялся, в том числе в «В поисках утраченного ковчега» (2).
2. Лицо Николаса Кейджа, наложенное на персонажа, сыгранного Харрисоном Фордом в «В поисках утраченного ковчега».
В последнем случае речь шла о каких-то невинных розыгрышах в Интернете. Несмотря на положительные или нейтральные примеры, техника дипфейков вызывает серьезные опасения, доходя даже до служб, заботящихся о безопасности целых стран и народов.
Опасное доверие к видеоизображениям
Специализированная группа в Министерстве обороны США, связанная с правительственным оборонным агентством DARPA, инвестирует десятки миллионов долларов в разработку методов, которые конкурируют с дипфейками — теми, которые автоматически обнаружит это фальсифицированные фильмы и фотографии, которые могут даже представлять угрозу национальной безопасности. Программа DARPA (MediFor) на сегодняшний день поглотила около 68 миллионов долларов США.
Руководитель проекта Мэтт Турек недавно заявил канадскому каналу CBC, что «манипулирование теперь легче спровоцировать, чем обнаружить». Он добавил, что «современные средства открывают новые возможности для действий противников правительства США», как «мелкоресурсных группировок», так и «более крупных и лучше организованных формирований и представителей других стран». Он также отметил, что «некоторые страны хорошо известны тем, что манипулируют СМИ».
Хани Фарид, профессор компьютерных наук Дартмутского колледжа в Нью-Гэмпшире, также говорил с CBC по этому поводу. Он выразил серьезную озабоченность тем, что технология, позволяющая манипулировать видеоизображениями, может быть использована не по назначению.
— он сказал.
В офисе DARPA в Арлингтоне Мэтт Турек продемонстрировал несколько примеров сфальсифицированных видео, которые можно идентифицировать как мошеннические благодаря технологии обнаружения агентства. На одном из них изображены два сидящих рядом человека, которые на самом деле никогда не встречались. Технология ловила нестыковки освещения в кадре.
Другим примером было видео с видеонаблюдения, где анализировался трафик, автоматически обнаруживая недостающую часть видео.
— пояснил турок.
Программа также предназначена для помощи американским военным. В настоящее время именно аналитики должны проверять фильмы и изображения, что является «ручным» процессом. Media Forensics значительно автоматизировала бы этот процесс, предоставив специалистам инструменты, облегчающие их работу.
— отметил Турек в эфире CBC. -.
Независимо от успеха методов обнаружения DARPA, который продлится еще почти два года, необходимо ясно дать понять, что мошенники по своей природе на шаг впереди, чем реакция на их действия.
Об этом также написали трое членов американского Конгресса — Адам Шифф, Стефани Мерфи и Карлос Курбело — в тревожном письме, направленном в сентябре прошлого года директору разведки США Дэниелу Коутсу.
«Гиперреалистичные цифровые подделки, как их обычно называют, основаны на сложных методах машинного обучения для создания убедительных изображений людей, которые, кажется, делают или говорят то, чего на самом деле никогда не говорили и не делали — совершенно без их согласия или ведома», — говорится в письме. . «Стирая грань между фактом и вымыслом, технологии могут подорвать общественное доверие к записанным изображениям и фильмам как к объективным изображениям реальности».
Шифф, Мерфи и Курбело попросили начальника разведки подготовить отчет, в котором указывалось бы Конгрессу, какие шаги он запланировал для борьбы с распространением фальшивых клипов.
«Поддельные видео, изображения или звук могут быть использованы для шантажа или других злонамеренных целей», — написали они. «Они также могут использоваться иностранными или отечественными организациями для распространения ложной информации».
Количество фейковых аккаунтов не уменьшается
В киберпространстве приемы глубокой подделки являются своего рода продолжением проблемы существования, известной годами. поддельные профили общественных деятелей в социальных сетях. , Instagram и миллионы левых аккаунтов известных актеров, музыкантов и политиков. Проблема нарастает в последнее время, так как фейки все чаще распространяют дезинформацию, либо их используют для вымогательства денег и причинения вреда людям.
В прошлом году Опра Уинфри предупредила своих поклонников в Твиттере, что кто-то пытается их обмануть, используя ее имя и аватар в социальных сетях для вымогательства денег (3). Гарриет Сейтлер, директор по маркетингу Oprah Winfrey Network, добавила, что мошенники создают поддельные профили знаменитостей, пытаются продавать билеты на мероприятия или требуют пожертвований.
3. Предупреждение о фальшивом аккаунте Опры Уинфри
Чтобы оценить масштаб проблемы, The New York Times заказала анализ количества профилей в социальных сетях, выдающих себя за десять самых популярных людей в Instagram.
Опрос, проведенный Social Impostor, выявил почти 9 человек. Аккаунты в Facebook, Instagram и Twitter, притворяющиеся, что ими управляют эти известные люди или по соглашению с ними. Больше всех было у бразильского футболиста Неймара — 1676. На втором месте оказалась поп-звезда Селена Гомес с результатом 1389. Бейонсе сыграла 714 читов, а Тейлор Свифт — 233, наименьшее из проверенной группы.
В этом также виноваты Twitter, Instagram и Facebook, поскольку эти платформы демонстрируют довольно снисходительное отношение к собственным правилам, запрещающим выдавать себя за других людей. Facebook и его подразделение в Instagram, разумеется, заявили, что расправляются с фейковыми аккаунтами.
Например, недавно они добавили программное обеспечение, автоматически обнаруживающее мошенничество, что позволило им удалить более миллиона учетных записей, появившихся с марта 2018 года. Тем временем, однако, они увеличили количество потенциально фальшивых учетных записей, присутствующих на их портале (включая дубликаты, поэтому не обязательно в злонамеренных целях) примерно до 80 миллионов, или около 4% от общего количества профилей.
Как распознать дипфейки?
1. Лица
Многие лица выглядят странно. Также не всегда совпадают переходы между лицом и шеей, либо волосы неправильно подобраны к лицу.
2. Отношения лицом к телу
Большинство дипфейков — это в первую очередь заменители лица — изменения в поведении остального тела гораздо сложнее и труднее отобразить.
3. Длина зажима
Хотя доступная техника уже проста в использовании, процессы машинного обучения для получения по-прежнему трудоемки. Поэтому большинство мошеннических видео в Интернете длятся всего несколько секунд. если не
есть очевидная причина, почему запись очень короткая, мы можем принять это как указание на то, что мы имеем дело с подделкой.
4. Источник записи
Анализ источника может быть первым шагом к дальнейшей критической оценке наблюдаемого эффекта.
5. Звук
Часто программное обеспечение позволяет вам только манипулировать изображением. Поэтому, если звука нет или он не соответствует изображению (например, нет синхронизации губ), мы можем заподозрить, что это подделка.
6. Воспроизведение на половинной скорости
Манипуляции с изображением и несовместимость основного изображения с фоном лучше видны при замедленном воспроизведении фильма.
7. Размытые внутренности рта
Программное обеспечение для создания дипфейков уже способно довольно эффективно передавать лица, но все еще с трудом воспроизводит такие детали, как внешний вид зубов, языка и рта.
8. Мругание
Здоровые взрослые люди моргают каждые 2-8 секунд, при этом одно моргание длится от 1/10 до 1/4 секунды. Программное обеспечение пока не может воспроизвести естественные шаблоны моргания.
Технология от Google
Термин «дипфейк» представляет собой англоязычное соединение, полученное из терминов («глубокое обучение») и фейк («подделка»). Искусственный интеллект, включая технику машинного обучения, известную как «генеративно-состязательная сеть» (GAN), может использоваться как для анализа и синтеза поддельных изображений, так и для их создания.
В 2017 году в Интернете появились поддельные порнографические фильмы с лицами знаменитостей. Они были распространены специально на Reddit. В свою очередь, непорнографические изображения можно легко найти на популярных видеосайтах, таких как YouTube или Vimeo. Например, лицо президента Аргентины Маурисио Макри заменено на лицо Адольфа Гитлера, а лицо Ангелы Меркель — на лицо Дональда Трампа.
В январе 2018 года десктопное приложение FakeApp было обнародовано. Это позволяет пользователям относительно легко создавать и обмениваться видео со сменой лица. Appka использует искусственную нейронную сеть и мощность графического процессора для генерации таких видеороликов, а также 3-4 гигабайта дискового пространства.
Для получения подробной информации программе необходимо много наглядного материала о человеке, которому предстоит стать «героем». Программное обеспечение использует платформу AI TensorFlow от Google.
Некоторые веб-сайты, такие как Twitter, объявили, что удалят контент и заблокируют его издателей. Ранее чат-платформа Discord заблокировала чат-канал с поддельными порно-видео со знаменитостями. Порносайт Pornhub также планирует последовать этому примеру, но, как сообщается, до сих пор не реализовал свое решение.
Между тем технологии развиваются. Ученые из Университета Карнеги-Меллона (CMU) разработали новый метод, который может генерировать подделки автоматическиполностью без вмешательства человека. Благодаря искусственному интеллекту и машинному обучению система может копировать выражение лица субъекта в одном видео, а затем сопоставлять данные с изображениями в другом.
Так что Барака Обаму можно легко трансформировать в Дональда Трампа, а Ярослава Качиньского — в Дональда Туска. Система также может преобразовывать черно-белые пленки в цветные или манипулировать изображениями, например, цветок гибискуса превращается в нарцисс. Поскольку этот новый инструмент может автоматически преобразовывать большие киноматериалы, он кажется особенно полезным и для этически нейтральных целей, например, для кинематографистов или дизайнеров игр, стремящихся создать детализированную цифровую среду.
— говорится в специальном заявлении аспиранта Ааюша Бансала из Института робототехники КМУ.
Однако команда, к которой принадлежит ученый из КМУ, прекрасно понимает, что созданная технология может быть использована и в случае с дипфи. Так Бансал и его коллеги представили один из своих методов на Европейской конференции по компьютерному зрению в Мюнхене.
Раскрывая детали своей концепции другим разработчикам и исследователям, они надеются помочь выявить глубокое злонамеренное вмешательство и, таким образом, помочь в борьбе с ним.
В том же университете Карнеги-Меллона проф. Алан Блэк специализируется на синтез речи. Недавно он показал на KDKA-TV, как это работает. После того, как ведущий прочитал перед камерой несколько строк с разным временем суток, у Блэка уже был образец голоса, который он ввел в синтезатор. Последний вскоре сгенерировал голос ведущего, объявляющий то, чего он никогда не говорил. Блэк называет это «Фотошопом для голоса».
4. Демонстрация возможностей технологии Synthesia
Недавно другая система, имитирующая голос, а она есть на многих языках, была продемонстрирована в видеоролике, опубликованном на YouTube британской компанией Synthesia.
— заявляет улыбающаяся женщина (4). Затем мы видим, как она произносит ту же фразу на французском, китайском и португальском языках.
Об этом заявил эксперт по данным Джон Гибсон на недавней конференции Mindshare Huddle. По его словам, эти технологии будут развиваться быстрее, чем кто-либо думает.
—
По словам Гибсона, в ближайшие несколько лет использование средств обнаружения фальшивых фильмов может стать повседневной частью профессиональной жизни журналиста.
Наверное, не только журналист.

