Распространение дипфейков что это такое

Дипфейки: что это за технология и почему она опасна

Распространение дипфейков что это такое. Смотреть фото Распространение дипфейков что это такое. Смотреть картинку Распространение дипфейков что это такое. Картинка про Распространение дипфейков что это такое. Фото Распространение дипфейков что это такое

Слово deepfake появилось несколько лет назад. Оно объединяет в себе два понятия: глубокое обучение (deep learning), то есть обучение нейросетей, и подделку (fake). Технология дипфейков заключается в синтезе ИИ человеческих изображений: алгоритм объединяет несколько фото, на которых человек изображен с разным выражением лица, и делает из них видео. При этом ИИ анализирует большое количество снимков и учится тому, как может выглядеть и двигаться конкретный человек. Об этом пишет американское издание Forbes.

С распространением дипфейков появились случаи «дискредитации» публичных личностей, чьих изображений много в открытом доступе. Например, весной 2019 года в Сети было опубликовано дипфейк-видео со спикером палаты представителей конгресса США Нэнси Пелоси. Автор ролика с помощью ИИ изменил речь Пелоси так, что она плохо выговаривала слова, и пользователи, посмотревшие видео, посчитали, что политик пьяна. Ситуация вылилась в громкий скандал, и лишь спустя некоторое время было доказано, что речь Пелоси была сгенерирована ИИ.

Этот дипфейк был сделан достаточно просто. Но есть и сложные алгоритмы. Они не просто меняют тембр голоса или замедляют речь, а генерируют такие видео, на которых человек делает то, чего никогда не совершал, или говорит то, чего никогда не говорил. Со временем дипфейки будут становиться все более реалистичными, пишет американское издание Forbes. Уже сейчас технология претендует на то, чтобы влиять на политику, а в дальнейшем такие видео и вовсе смогут стать угрозой национальной безопасности.

Источник

Как защититься от дипфейков

Дипфейк-видео становятся все убедительнее и появляются все чаще. Как защитить свой бизнес от возможной атаки?

Распространение дипфейков что это такое. Смотреть фото Распространение дипфейков что это такое. Смотреть картинку Распространение дипфейков что это такое. Картинка про Распространение дипфейков что это такое. Фото Распространение дипфейков что это такое

Распространение дипфейков что это такое. Смотреть фото Распространение дипфейков что это такое. Смотреть картинку Распространение дипфейков что это такое. Картинка про Распространение дипфейков что это такое. Фото Распространение дипфейков что это такое

Дипфейки — нежелательное следствие достижений в сфере искусственного интеллекта. Популярность поддельного медиаконтента, сгенерированного алгоритмами машинного обучения, в последние годы сильно выросла. В докладе Losing our reality («Мы теряем реальность») Алиссы Миллер (Alyssa Miller) на конференции RSA 2020 приведены размышления, почему дипфейки пора рассматривать как угрозу бизнесу и как компаниям минимизировать ущерб от информационных атак с использованием этой технологии.

Как создают дипфейки

Для начала разберемся, как делают подобные видео. Чаще всего для создания дипфейков используют так называемые генеративно-состязательные сети (generative adversarial network, или GAN). Алгоритм GAN состоит из двух нейронных сетей, соревнующихся друг с другом. На этапе подготовки обе сети обучаются на реальных изображениях. После этого начинается состязательная часть: одна сеть генерирует картинки (она называется генеративной), а другая пытается определить, подлинные они или нет (эта сеть называется дискриминативной).

После этого обе сети учатся на полученных результатах и с каждым циклом все лучше справляются со своими задачами.

Спустя, скажем, миллион повторов генеративная сеть сможет создавать такие фейковые изображения, которые другая нейронная сеть с тем же уровнем развития будет не способна отличить от подлинных.

Вообще говоря, у этого метода много по-настоящему полезных применений. В зависимости от того, какие данные используются на этапе подготовки, генеративная сеть учится создавать определенные виды изображений.

В случае дипфейков алгоритм обучается на фотографиях настоящих людей. В результате создается сеть, способная генерировать неограниченное количество поддельных, но очень убедительно выглядящих изображений того или иного человека. Остается лишь склеить эти отдельные кадры в видео — и дипфейк готов. Аналогичные методы позволяют создавать фейковое аудио — судя по всему, этот способ обмана уже используют онлайн-мошенники.

Насколько убедительными стали дипфейки

Поначалу большинство видеороликов с дипфейками выглядели просто смехотворно. Но за несколько лет технология развилась настолько, что они стали пугающе убедительными. Один из ярких примеров из 2018 года — поддельное видео с Бараком Обамой, в котором он рассказал собственно о дипфейках и заодно бросил пару оскорблений в адрес действующего президента США. В середине 2019 года появилось короткое видео с лже-Марком Цукербергом, который на удивление откровенно обрисовал текущее состояние дел с личными данными людей.

Ролик ниже демонстрирует, насколько совершенной стала технология. Его создали пародист Джим Мескимен (Jim Meskimen) и автор дипфейков под ником Sham00k. Первый занимался озвучкой, а второй использовал GAN, чтобы встроить в видео лица 20 знаменитостей, которые постоянно сменяют друг друга по ходу видео. Результат поражает.

Как сам Sham00k упомянул в описании к другому ролику, где рассказал о создании упомянутого выше дипфейк-видео, «на его производство ушло более 250 часов, при этом было использовано 1200 часов отснятого материала и 300 тысяч изображений, а также создано около терабайта данных». Иными словами, такой контент — результат долгой и кропотливой работы. Однако если представить эффект, который столь убедительная дезинформация может оказать на рынки или на выборы, — оно того стоит.

По этой причине практически одновременно с публикацией приведенного выше видео на YouTube-канале Sham00k в Калифорнии законодательно запретили распространение дипфейк-видео во время предвыборной кампании. Но с этим запретом связана пара проблем. Во-первых, дипфейк-видео — это форма самовыражения (наряду с политической сатирой, например), поэтому калифорнийское вето можно рассматривать как посягательство на свободу слова.

Во-вторых, даже если отвлечься от юридической стороны вопроса, есть еще одна проблема технического характера: как отличить дипфейк-видео от подлинного?

Как можно выявлять дипфейки

Ученые по всему миру сейчас увлечены технологиями машинного обучения, а проблема дипфейков выглядит достаточно сложной и интересной, чтобы заинтересовать многих из них. Поэтому выявлению дипфейков с помощью анализа изображений посвящено изрядное количество исследовательских проектов.

Например, в статье, опубликованной в июне 2018 года, рассказывается, как анализ частоты морганий может помочь выявлять поддельные видео. Идея в том, что в большинстве случаев в открытом доступе есть не так уж много фотографий человека в момент моргания, так что нейронной сети просто не на чем учиться генерировать подобные кадры. Отметим, что люди в дипфейк-видео, доступных на момент публикации статьи, действительно моргали неправдоподобно редко. И даже если это не слишком бросалось в глаза при обычном просмотре, компьютерный анализ выявлял подделку.

Авторы двух других работ, опубликованных в ноябре 2018 года, порекомендовали искать артефакты искажения лица и несоответствия положений головы. В другой статье, за 2019-й, описана довольно сложная техника анализа выражений лица и мимики, характерных для конкретного человека.

Однако, как заметила Миллер в своем выступлении, эти методы вряд ли окажутся успешными в долгосрочной перспективе. В конечном счете упомянутые исследования подсказывают создателям дипфейков, как улучшать дискриминативные сети, что, в свою очередь, приводит к более тщательному обучению генеративных сетей — и как следствие, повышает качество подделок.

Защита от дипфейков с помощью корпоративных коммуникаций

Пока представляется маловероятным, что проблему дипфейков решат чисто технологическими методами. Скорее всего, все сведется к гонке вооружений: интернет-компании будут создавать более совершенные алгоритмы для выявлений поддельных видео, а авторы дипфейков, в свою очередь, будут улучшать свои творения, чтобы обманывать эти алгоритмы. И так по кругу.

Однако можно использовать другой подход — в частности, снижать ущерб от информационной атаки на компании с помощью эффективных корпоративных коммуникаций. Для этого потребуется тщательно отслеживать публикуемые в Сети сведения, касающиеся вашей компании, и быть готовым контролировать ситуацию в случае дезинформации.

Ниже приведены предложения Алиссы Миллер, как подготовить компанию к тому, чтобы противостоять атаке с помощью дипфейков. Кстати, многие из этих предложений будут полезны и в случае других PR-катастроф:

Источник

Дипфейки: дезинформация или шаг в будущее?

Распространение дипфейков что это такое. Смотреть фото Распространение дипфейков что это такое. Смотреть картинку Распространение дипфейков что это такое. Картинка про Распространение дипфейков что это такое. Фото Распространение дипфейков что это такое

Фейки на выборах и «воскрешение» из мертвых

Совсем недавно, на рубеже XX и XXI веков, сверхпопулярной была программа Photoshop. Теперь на смену ей пришли нейросети, а именно дипфейки (Deepfake). Эта технология куда опаснее, но также перспективнее прежней возможности грубо вырезать лица людей с фотографий и приклеивать их на другие снимки.

Другая история произошла в 2020 году на выборах в Индии. В Дели лидер одной из оппозиционных партий Маноджа Тивари сделал заявление на хинди и на диалекте хариани. При этом говорить на этом языке он не умел. Пойти на обман Маноджа Тивари решился скорее всего из-за желания завоевать голоса рабочих-мигрантов в Дели. Они как раз говорят на диалекте хариани.

И подобных случаев уже много. В истории с лидером индийской оппозиции интересно то, что он так и не признался в использовании технологии: доказать это довольно сложно, вот и признаваться необязательно.

Еще один пример — фильм «Би-би-си» «Добро пожаловать в Чечню» про активистов, критикующих власть. Создатели картины не стали «замазывать» лица оппозиционеров, а наложили на них дипфейки активистов, живущих в Нью-Йорке.

Можно ли вычислить дипфейки

Сложность в борьбе с нечестным использованием технологии заключается в том, что подделки будут становиться только качественнее.

Распространение дипфейков что это такое. Смотреть фото Распространение дипфейков что это такое. Смотреть картинку Распространение дипфейков что это такое. Картинка про Распространение дипфейков что это такое. Фото Распространение дипфейков что это такое

Дипфейк — это генеративно-состязательная сеть. В ней есть генератор и дискриминатор. Генератор создает подделку, а дискриминатор критикует и указывает на ее недостатки. После этих замечаний генератор снова приступает к работе. В итоге появляется очень точный фейк.

Некоторые страны приняли решение регулировать дипфейки законом.

Распространение дипфейков что это такое. Смотреть фото Распространение дипфейков что это такое. Смотреть картинку Распространение дипфейков что это такое. Картинка про Распространение дипфейков что это такое. Фото Распространение дипфейков что это такое

В 2020 году Калифорнийский и Стэндфордский университеты смогли повысить точность выявления дипфейков до 97%. Ученые исследовали виземы и фонемы.

Виземы — визуальное выражение того, как произносится тот или иной звук. Условно — мы говорим что-то и наш рот как-то движется. Филологи пытаются сравнить виземы в дипфейках и в оригинальных видео. Действительно, виземы в дипфейках выглядят немного иначе. Если обучить алгоритмы на таком поле данных, точность распознавания подделки будет достаточно высокая.

Другой способ вычисления обмана — изучение того, как шумит реальное и поддельное видео. Шум в дипфейках немного другой, и часто это удается услышать.

Другая сторона дипфейков

С помощью генеративных нейронных сетей можно создавать контент, используя минимальное количество данных. С этой точки зрения технология связана совсем не с «пересадкой» лиц для веселья, а с практической целью. Сейчас по одной фотографии и тексту возможно генерировать видео. Текст синтезируется в аудио, по аудио анимируются фотографии — в итоге мы получаем говорящего спикера. С помощью этого комплекса алгоритмов можно очень быстро создавать видеоконтент.

Дипфейки могут «воскрешать» любимых актеров. Например, Филип Сеймур Хоффман и Пол Уокер, умершие во время съемок фильмов с их участием («Голодные игры: Сойка-пересмешница» и «Форсаж 7» соответственно), были воссозданы в цифровом виде. А Кэрри Фишер «воскресили» для съемок в девятом эпизоде «Звездных войн».

Распространение дипфейков что это такое. Смотреть фото Распространение дипфейков что это такое. Смотреть картинку Распространение дипфейков что это такое. Картинка про Распространение дипфейков что это такое. Фото Распространение дипфейков что это такое

Мария Чмир, гендиректор Deepcake.io, утверждает, что скоро появится инструмент, который полностью изменит интерактивность. Сегодня все, что дают зрителям, — это выбрать концовку сериала. В будущем с помощью дипфейков мы сможем оказаться внутри киновселенной вместе со своими друзьями. Будет возможность и менять надоевших актеров. Ведь генеративные нейросети позволяют существенным образом редактировать, видоизменять и трансформировать контент.

Именно поэтому дипфейки — это не только манипуляция и дезинформация. С помощью них можно будет снимать фильмы со спецэффектами, оживлять персонажей и в целом добавить новый опыт потребления контента.

Источник

Дипфейки и другие поддельные видео – как защитить себя?

Распространение дипфейков что это такое. Смотреть фото Распространение дипфейков что это такое. Смотреть картинку Распространение дипфейков что это такое. Картинка про Распространение дипфейков что это такое. Фото Распространение дипфейков что это такое

Дипфейки: новые технологии обмана

Слово дипфейк (Deepfake) является составным и происходит от deep learning (глубинное обучение) и fake (фейк, подделка). Глубинное обучение – это сложный метод на базе искусственного интеллекта, который использует многоуровневые алгоритмы машинного обучения для извлечения все более сложных характеристик из необработанных входных данных. При этом ИИ способен обучаться на неструктурированных данных – таких как изображения лиц. Например, ИИ может собрать данные о движениях вашего тела.

Затем эти данные могут быть обработаны для создания дипфейк-видео при помощи так называемой генеративно-состязательной сети (Generative Adversarial Network, или GAN). Это еще одна специализированная система машинного обучения. В ней задействовано две нейросети, которые состязаются друг с другом, изучая характеристики учебных наборов данных (например, фотографий лиц) и создавая новые данные на базе этих характеристик (то есть новые «фотографии»).

Поскольку такая сеть постоянно сверяет создаваемые образцы с исходным учебным набором, поддельные изображения выглядят все более и более правдоподобно. Именно поэтому угроза, которую представляют дипфейки, постоянно растет. Кроме того, сети GAN могут создавать и другие поддельные данные помимо фотографий и видео. Например, дипфейк-технологии могут использоваться для имитации голоса.

Примеры дипфейков

Качественные дипфейки с участием знаменитостей найти несложно. Один из примеров – фейковое видео, выложенное актером Джорданом Пилом. Он записал небольшую речь голосом Барака Обамы, которая затем была совмещена с видеосъемкой реального выступления этого политика. Затем Пил продемонстрировал, как выглядят обе составляющие этого видео, и призвал своих зрителей критически относиться ко всему, что они видят.

Видео с руководителем Facebook Марком Цукербергом, в котором тот якобы говорит о том, как Facebook «управляет будущим» с помощью украденных данных пользователей, появилось в Instagram. На оригинальном видео запечатлена его речь в связи со скандалом о «русском следе» в выборах президента США – для создания фейка оказалось достаточно фрагмента длиной всего в 21 секунду. Однако голос Цукерберга был сымитирован не так хорошо, как в пародии Джордана Пила на Обаму, и фальшивку было легко распознать.

Впрочем, даже менее качественные подделки могут вызвать живой отклик. Видео с «пьяной» Нэнси Пелоси, спикером Палаты представителей США, набрало миллионы просмотров на YouTube – а это был всего лишь фейк, сделанный с помощью замедления реального видео, чтобы создать видимость невнятной речи. Кроме того, немало известных женщин внезапно обнаружили себя в роли порнозвезд – их лица были вмонтированы в порнографические ролики и изображения.

Мошенничество и шантаж с использованием дипфейков

Дипфейк-видео неоднократно использовались в политических целях, а также как способ мести. Однако сейчас к этим технологиям все чаще стали прибегать для шантажа и проворачивания крупных афер.

У генерального директора британской энергетической компании мошенники смогли выманить 220 000 евро с помощью дипфейковой имитации голоса руководителя головной компании, якобы запросившего срочно перевести указанную сумму. Подмена была настолько натуралистичной, что обманутый директор не стал перепроверять информацию, хотя средства переводились не в головной офис, а на сторонний счет. Только когда «босс» запросил еще один трансфер, его собеседник заподозрил неладное, но переведенные деньги уже бесследно исчезли.

Во Франции недавно прогремела афера, в которой, правда, технология дипфейков не использовалась, – мошенник по имени Жильбер Шикли выдавал себя за министра иностранных дел Франции Жана-Ива Ле Дриана, с большой точностью воссоздав не только его внешность, но и обстановку рабочего кабинета. Аферист от имени министра обращался к состоятельным частным лицам и руководителям компаний с просьбой выделить средства на выкуп французских граждан, оказавшихся в заложниках террористов в Сирии. Таким образом ему удалось выманить несколько миллионов евро. Сейчас это дело рассматривается в суде.

Распространение дипфейков что это такое. Смотреть фото Распространение дипфейков что это такое. Смотреть картинку Распространение дипфейков что это такое. Картинка про Распространение дипфейков что это такое. Фото Распространение дипфейков что это такое

Авторы дипфейков могут шантажировать руководителей крупных компаний, угрожая опубликовать фейковое видео, способное подорвать их репутацию, если те не заплатят отступные. Также мошенники могут, например, проникнуть в вашу сеть, сымитировав звонок от IT-директора и обманом заставив сотрудников предоставить пароли и привилегии доступа, после чего ваши конфиденциальные данные окажутся в полном распоряжении хакеров.

Фейковые порноролики уже использовались с целью шантажа женщин-репортеров и журналисток, как, например, произошло в Индии с Раной Айюб, которая занималась разоблачением злоупотреблений властью. Технологии производства дипфейков дешевеют, так что можно прогнозировать рост их использования в целях шантажа и мошенничества.

h2>Как защититься от дипфейков?

Проблему дипфейков уже пытаются начать решать на законодательном уровне. Так, в штате Калифорния в прошлом году было принято два закона, ограничивающих использование дипфейков: законопроект AB-602 запретил использование технологий синтеза изображений человека для изготовления порнографического контента без согласия изображаемых, а AB-730 – подделку изображений кандидатов на государственные посты в течение 60 дней перед выборами.

Но окажутся ли эти меры достаточными? К счастью, компании в сфере безопасности постоянно разрабатывают все более совершенные алгоритмы распознавания. Они анализируют видеоизображения и замечают незначительные искажения, возникающие в процессе создания фальшивки. Например, современные генераторы дипфейков моделируют двумерное лицо, а затем искажают его для встраивания в трехмерную перспективу видеоролика. По тому, куда направлен нос, легко распознать подделку.

Пока что технологии создания дипфейков еще недостаточно совершенны, и признаки подделки зачастую видны невооруженным глазом. Обращайте внимание на следующие характерные признаки:

Однако по мере совершенствования технологий ваши глаза все реже будут распознавать обман – а вот хорошее защитное решение обмануть будет куда сложнее.

Уникальные антифейковые технологии

Некоторые развивающиеся технологии уже помогают создателям видеоконтента защищать его аутентичность. С помощью специального шифровального алгоритма в видеопоток с определенными интервалами встраиваются хеши; если видео будет изменено, хеши также изменятся. Создавать цифровые сигнатуры для видео также можно, используя ИИ и блокчейн. Это похоже на защиту документов водяными знаками; в случае с видео, правда, трудности заключаются в том, что хеши должны оставаться неизменными при сжатии видеопотока различными кодеками.

Еще один способ борьбы с дипфейками – использовать программу, вставляющую в видеоконтент специальные цифровые артефакты, маскирующие группы пикселей, по которым ориентируются программы для распознавания лиц. Этот прием замедляет работу дипфейк-алгоритмов, и в результате качество подделки будет более низким, что, в свою очередь, снизит вероятность успешного использования дипфейка.

Лучшая защита – соблюдение правил безопасности

Технологии – не единственный способ защититься от дипфейк-видео. В борьбе с ними весьма эффективны даже базовые правила безопасности.

Так, например, встраивание автоматических проверок во все процессы, связанные с перечислением денежных средств, позволило бы предотвратить множество мошеннических действий, в том числе и с использованием дипфейков. Также вы можете:

Помните, что, если хакеры начнут активно использовать дипфейки для проникновения в домашние и корпоративные сети, соблюдение базовых правил кибербезопасности станет важнейшим фактором в минимизации рисков:

Как будут развиваться дипфейки?

Дипфейки эволюционируют угрожающими темпами. Еще два года назад подделки легко было отличить по низкому качеству передачи движения; кроме того, люди в таких видео практически никогда не моргали. Однако технологии не стоят на месте, и дипфейки последнего поколения выполнены заметно более качественно.

По приблизительным оценкам, сейчас по Сети гуляет более 15 000 дипфейк-видео. Некоторые из них шуточные, но есть и такие, которые создавались для манипуляций общественным сознанием. Сейчас изготовление нового дипфейка занимает от силы пару дней, так что вскоре их может стать намного больше.

Источник

Deepfake: краткая история появления и нюансы работы технологии

Немного истории

Технологии синтезирования видео и аудио нельзя назвать новыми. Они разрабатываются с конца 90-х годов XX века. Конечно, разные попытки делались и до этого, но мы говорим о тех технологиях, которые получили продолжение. Так, в 1997 году компания Video Rewrite представила технологию, которая позволяла сформировать видео, где артикуляция лица совпадала с синтезированной аудиодорожкой. Т.е. моделировалась артикуляционная мимика лица, которая полностью соответствовала синтезированной компьютером аудиодорожкой.

Но это были лишь первые попытки, которые активно развивались в течение двух десятков лет. Сейчас нам доступны технологии обработки голоса, объединения компьютерной графики с реальными видео и многое другое. Не везде применяется ИИ, но все же самые реалистичные системы сформированы на базе машинного обучения.

Появление «настоящих» дипфейков

Технология Deepfake упрощает процесс синтезирования изображения и создания звуковых дорожек с заданными параметрами за счет использования нейронных сетей. Они обучаются на сотнях или даже тысячах примеров лиц и голосов, с ними связанными. После этого ИИ показывает весьма впечатляющие результаты.

Нет сомнения, что с течением времени будут появляться все более реалистичные дипфейки. Уже сейчас они никого не удивляют, а в ближайшем будущем и вовсе станут привычным делом. Но кто отвечает за развитие технологий, где они используются, как работают и чего нам ожидать в будущем?

Современные игроки

Распространение дипфейков что это такое. Смотреть фото Распространение дипфейков что это такое. Смотреть картинку Распространение дипфейков что это такое. Картинка про Распространение дипфейков что это такое. Фото Распространение дипфейков что это такое

Большинство крупнейших технологических игроков и развлекательных компаний активно исследуют отрасль «синтетических медиа». Amazon стремится сделать голос Алексы более реалистичным, Disney изучает, как использовать технологию смены лица в фильмах, а производители оборудования, такие как Nvidia, расширяют границы синтетических аватаров, а также услуг для кинопроизводства и телевидения.

Но есть и организации, которые создают технологии, позволяющие отличить подделку от реальности. В их число входят, например, Microsoft и DARPA.

К слову, у большинства ПО по созданию дипфейков открытый исходный код, что дает возможность работать с дипфейками даже небольшим компаниям. Проектов достаточно много. Это, например, Wombo, Аvatarify, FaceApp, Reface, MyHeritage и многие другие.

Распространение дипфейков что это такое. Смотреть фото Распространение дипфейков что это такое. Смотреть картинку Распространение дипфейков что это такое. Картинка про Распространение дипфейков что это такое. Фото Распространение дипфейков что это такое

Как создаются дипфейки

Распространение дипфейков что это такое. Смотреть фото Распространение дипфейков что это такое. Смотреть картинку Распространение дипфейков что это такое. Картинка про Распространение дипфейков что это такое. Фото Распространение дипфейков что это такое

Классическая компьютерная обработка изображений использует сложные алгоритмы, созданные при помощи традиционного программного обеспечения. Эти алгоритмы чрезвычайно сложны. Как говорилось выше, совсем недавно дипфейки представляли собой контролируемую модель, которой управляют разработчики. Подавляющее большинство элементом артикуляционной мимики жестко прописывалось в алгоритмах.

Правда, для того, чтобы создать убедительный дипфейк, требуются большие объемы видео, статические изображения, голосовые записи, а иногда даже сканирование головы реального актера с последующим анализом в качестве обучающих вводных данных. Например, клиенты Synthesia в течение примерно 40 минут снимают на видео, как они зачитывают заранее подготовленную речь, чтобы потом этот контент использовался для обучения нейронными сетями.

Несмотря на весьма впечатляющие результаты, дипфейки, создаваемые ИИ, не являются идеальными. У дипфейков есть ряд хорошо заметных (не для человека, для специализированного ПО) признаков, которые пока еще позволяют отличить реальность от вымысла. Это, например, нюансы освещения и теней, мигание, артикуляция, выражение и тон голоса. Для создания убедительного дипфейка все это нужно правильно комбинировать.

Изображения и видео

Распространение дипфейков что это такое. Смотреть фото Распространение дипфейков что это такое. Смотреть картинку Распространение дипфейков что это такое. Картинка про Распространение дипфейков что это такое. Фото Распространение дипфейков что это такое

Достаточно часть в этом направлении используется Variational Autoencoder – VAE. Это генеративная модель, которая находит применение во многих областях исследований: от генерации новых человеческих лиц до создания полностью искусственной музыки. Что касается видео, то VAE позволяет достаточно быстро перенести особенности мимики и артикуляции определенного человека на сформированную объемную модель. VAE используется достаточно давно, но дипфейк, созданный при помощи этой технологии, несложно выявить.

А вот с 2017 года развиваются генеративные состязательные сети (GAN). Здесь в единое целое объединены, по сути, две нейронные сети. Одна, «дискриминатор», определяет реалистичность модели, созданной другой нейросетью. На выходе получается модель, которая была «одобрена» и является наиболее реалистичной.

Распространение дипфейков что это такое. Смотреть фото Распространение дипфейков что это такое. Смотреть картинку Распространение дипфейков что это такое. Картинка про Распространение дипфейков что это такое. Фото Распространение дипфейков что это такое

Что дальше?

Распространение дипфейков что это такое. Смотреть фото Распространение дипфейков что это такое. Смотреть картинку Распространение дипфейков что это такое. Картинка про Распространение дипфейков что это такое. Фото Распространение дипфейков что это такое

Дипфейки также поднимают множество вопросов о том, кому какой контент принадлежит, что делать с лицензиями и как наказывать нарушителей. Так, уже сейчас актеры заключают контракты с компаниями, разрешая использовать их образ и голос в рекламе или фильмах. Но, вероятно, некоторые компании будут использовать дипфейки знаменитостей в своих целях без всяких разрешений.

Источник

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *