Deepfake-войны: как защититься от цифровых двойников и дезинформации -
Deepfake-войны: как защититься от цифровых двойников и дезинформации

Deepfake-войны: как защититься от цифровых двойников и дезинформации

написал Ethan Oakes

Эпоха, когда мы могли верить своим глазам и ушам, стремительно уходит в прошлое. Виной тому – дипфейки, то есть гиперреалистичные подделки видео и аудио, созданные с помощью искусственного интеллекта.

Эпоха, когда мы могли верить своим глазам и ушам, стремительно уходит в прошлое. Виной тому – дипфейки, то есть гиперреалистичные подделки видео и аудио, созданные с помощью искусственного интеллекта.

Они могут использоваться для самых разных целей от безобидных развлечений до масштабных информационных атак и международного мошенничества. В этой статье рассказываем, как распознать сие нейросетевое зло, насколько серьезна угроза и какие технологии использовать, чтобы вычислить подлецов!

Что такое дипфейк и зачем он нужен 

Но для начала немного теории и объяснений для тех, кто не знает. Дипфейк – это технология создания поддельных видео и аудиозаписей, в которых лицо или голос одного человека заменяются на лицо или голос другого. В основе дипфейков лежат нейронные сети, которые обучаются на большом количестве данных (фотографиях, видео, аудиозаписях) и потому способны генерировать очень убедительные подделки. То есть, искусственный интеллект анализирует особенности лица, мимики, голоса и движений исходного человека, а затем переносит эти характеристики на другое лицо или голос.

Раньше дипфейки были уделом продвинутых специалистов и требовали огромных вычислительных мощностей. Сегодня же существуют относительно простые в использовании программы и онлайн-сервисы, позволяющие создать дипфейк практически любому пользователю. Это стало возможным благодаря развитию open-source проектов и улучшению алгоритмов машинного обучения. Логично, что вместе с доступностью технологии выросли и случаи злоупотребления ими.

Так, кроме развлечения (ради которого дипфейки и были созданы изначально, вроде шутки “примерь на себя образ любимой знаменитости), дикфейки могут использоваться для следующих малоприятных и опасных целей:

  • Политическая дезинформация. Дипфейки могут использоваться для распространения ложных новостей, компрометации политических деятелей, создания фейковых заявлений. Это может повлиять на общественное мнение и даже на результаты выборов. Самый яркий пример - видеозапись от 2018 года, на которой бывший президент США Барак Обама якобы произносит оскорбительные слова в адрес Дональда Трампа. А это ведь было семь лет назад! Но уже тогда видео мало кто отличил от реального. Представьте, на что способен ИИ сегодня!

  • Финансовое мошенничество. Дипфейки могут использоваться для подделки видеоконференций и голосовых сообщений для обмана инвесторов. Также нередки случаи вымогательства денег, когда в видео о денежной помощи просит вовсе не родственник жертвы, а другой человек с его лицом. Так,  в 2019 году в Великобритании мошенники использовали дипфейк для подделки голоса генерального директора энергетической компании и убедили сотрудника перевести на их счет 243 000 долларов. 

  • Порнография. Дипфейк-видео с участием известных личностей (или обычных людей) без их согласия – это серьезное нарушение приватности и прав человека. В 2020 году было несколько подобных прецедентов, когда распространялось дипфейк-порно якобы с участием актрисы Эммы Уотсон. 

  • Кибербуллинг. Ничего не мешает опытным юзерам нейросети создать какое-нибудь компрометирующее фото с “недоброжелателем” и распространить его в соцсетях с целью травли, что в свою очередь может нанести жертву психологическую травму и даже привести к суициду.

Закулисье цифровых иллюзий: как создаются дипфейки


Процесс создания дипфейка включает несколько этапов, требующих определенного уровня технических знаний и вычислительных ресурсов. В основе этого процесса лежит использование искусственного интеллекта, в частности, нейронных сетей. Выглядит все, если поэтапно, так:

  1. Сбор данных: Первый и, возможно, самый важный этап – это сбор данных. Необходимо собрать как можно больше фотографий и видеозаписей человека, чье лицо будет использоваться в дипфейке (так называемого “целевого” лица). Эти данные нужны для обучения нейронной сети. Чем больше данных, тем более реалистичным получится результат. При этом все законы приватности, как правило, уже нарушаются, поэтому большинство дипфейков можно считать нелегальными.

  2. Обучение нейронной сети. Нейронная сеть, обычно представляющая собой сложную структуру из множества слоев, анализирует черты лица, мимику, движения головы и другие особенности целевого лица. Параллельно нейросеть обучается на данных лица, которое будет заменено (лица “донора”). В процессе обучения сеть выявляет закономерности и учится воссоздавать лицо целевого человека на основе данных лица донора. Этот процесс может занять часы или даже дни, особенно если количество данных велико и требуется высокое качество результата.

  3. Замена лица. После обучения нейронная сеть приступает к непосредственной замене лица донора на лицо целевого человека в видеозаписи. Она анализирует каждый кадр видео и генерирует новое изображение, в котором лицо донора меняется на целевое, сохраняя при этом освещение, угол обзора и другие параметры. Этот процесс требует больших вычислительных ресурсов, и для его ускорения часто используются графические процессоры (GPU).

  4. Постобработка. На заключительном этапе дипфейк проходит постобработку, чтобы улучшить качество изображения, сгладить артефакты (так называют ошибки, возникшие в процессе галлюцинации, типа шести пальцев на руке вместо пяти) и сделать подделку еще более реалистичной. В постобработку могут входить методы улучшения цвета, резкости, удаления шумов и корректировки освещения. Цель данного этапа – сделать дипфейк неотличимым от реального видео.  

Для создания сложных и качественных дипфейков часто используют генеративно-состязательные сети, а именно GAN (Generative Adversarial Networks). GAN состоят из двух нейронных сетей: генератора и дискриминатора. Генератор создает фейковые изображения, а дискриминатор пытается отличить их от настоящих. Генератор постоянно совершенствуется, чтобы обмануть дискриминатор, а дискриминатор – чтобы разоблачить генератор. В результате этой “игры” GAN научается генерировать очень реалистичные дипфейки. Исследования в области GAN активно ведутся в научных центрах по всему миру, что приводит к постоянному улучшению качества дипфейков.

Игра в детектива: как распознать дипфейк


Но, несмотря на это и все совершенство современных ИИ, распознать их продукт все еще возможно, хотя и сложно. В первую очередь вам потребуется ваша внимательность и критический взгляд, чтобы оценить:

  • Неестественные движения лица. Обратите внимание на мимику, моргание, движения губ. В дипфейках они часто выглядят неестественно, дергано или наоборот слишком плавно, а еще движения рта не совпадает со словами. Также движения глаз могут быть несинхронизированы с движениями головы, а мимические мышцы могут работать некорректно. Особенно внимательно следует следить за эмоциями изображенного человека и за тем, как они проявляются. Например, почти невозможно сильно хмуриться и улыбаться одновременно.

  • Размытость или артефакты. В области лица могут быть заметны размытость, искажения, неровности или другие артефакты, особенно вокруг краев лица и волос. Также это касается рук и концов одежды вроде воротника, подола платья, пояса. Артефакты обычно вызваны недостаточным качеством исходных данных или несовершенством алгоритмов обработки.

  • Несоответствие освещения и теней. Обратите внимание на то, как свет падает на лицо и тело. В дипфейках освещение и тени могут не соответствовать друг другу. Например, солнце светит справа, а тень не слева, а тоже справа, и вдобавок неправильной формы.

  • Некачественный звук. Обратите внимание на аудио артефакты, такие как шипение, треск или эхо. 

  • Неестественный тон кожи. Цвет кожи на лице человека может отличаться от того, какой он на руках, или какой у человека обычно.

  • Контекст и источник. И, наконец, обязательно проверьте источник информации, опубликовавшей видео. Если это видео из соцсетей, сразу стоит отнестись к нему с недоверием. Проверьте информацию в крупных СМИ и новостях.

В последнее время, ряд исследовательских групп достигли значительных успехов в разработке технологий, способных обнаруживать дипфейки с высокой точностью. Так, группа исследователей из Университета Карнеги-Меллона разработала систему MISLnet, которая может анализировать все перечисленное вместо вас, разбирая изображение буквально на пиксели и прослеживает взаимосвязь между ними. Этот продвинутый алгоритм позволяет распознавать дипфейки с точностью до 98%. 

Вы также можете воспользоваться следующими сервисами для проверки файла на достоверность:

  • Deepware Scanner. Сервис, разработанный компанией Sensity AI, анализирует видео и изображения, используя методы машинного обучения, для выявления признаков подделки. 

  • InVID & WeVerify. Инструменты, разработанные для журналистов и фактчекеров, позволяют анализировать видео, выявлять подозрительные элементы и проверять его происхождение. 

  • Microsoft Video Authenticator: Инструмент, разработанный Microsoft, анализирует видео для выявления признаков подделки, таких как несоответствия в освещении и мимике.

  • FotoForensics: Онлайн-сервис, использующий различные методы анализа изображений для выявления признаков редактирования и манипуляций. 

Угроза дипфейков постоянно растет, требуя от нас все большей бдительности.

По данным отчета компании Sensity AI за 2023 год, количество дипфейк-видео, обнаруженных в сети, выросло на 123% по сравнению с предыдущим годом, что свидетельствует о растущей потребности в новых методов защиты. Причем, согласно данным исследования Университета Южной Калифорнии, лишь 48% участников не смогли отличить сгенерированное искусственным интеллектом лицо от настоящего. Другими словами, почти половина людей не смогла правильно определить, какое лицо настоящее, а какое - дипфейк, а значит всех этих людей легко ввести в заблуждение.

Компании, чтобы защититься от использования их материалов во вредоносных целях, используют водяные знаки и криптографическую защиту, подтверждающую подлинность. Например, Adobe разрабатывает систему Content Authenticity Initiative, которая позволяет буквально за несколько кликов добавить криптографические подписи к цифровым материалам. На помощь в борьбе против фейков приходят и 

блокчейн-технологии, а также технологии, считывающие физиологические сигналы с изображенных на видео, такие как, например, частота дыхания (есть ли вообще это дыхание на видео, естественное ли оно и т.д.).

Дипфейки – серьезная угроза для общества, которая может использоваться для дезинформации, мошенничества и манипуляций. Однако, благодаря развитию технологий и повышению осведомленности пользователей, мы можем эффективно бороться с этой угрозой. Важно помнить, что критическое мышление, осторожность и использование инструментов для проверки подлинности информации – наши главные союзники в этой войне. Битва за правду в цифровую эпоху только начинается, и не стоит уповать на одни лишь технологии и ждать, когда ученые наконец-то изобретут “лекарство”, потому что этого, скорее всего, не будет, ведь ИИ развиваются семимильными шагами и легко перегоняют любые анти-средства. Так что не забывайте о своем главном оружии - внимательности и остром аналитическом уме!

Поделитесь этим с друзьями!

Ethan Oakes

Ethan Oakes

Постоянный автор HiTecher с 2017 года, журналист, имеет степень магистра по экономической безопасности. В сфере его интересов: программирование, робототехника, компьютерные игры, финансовые рынки.

Все посты Ethan Oakes

Будьте первым, кто оставит комментарий