Как мошенники используют дипфейки и почему не стоит выкладывать в интернет свои фотографии
В эпоху стремительного развития технологий создания и распространения видеоконтента, который сегодня является одним из основных инструментов передачи информации, на повестке дня часто возникает проблема отличия подлинных видео от дипфейков. Дипфейк (от англ. deep learning — глубинное обучение, fake — подделка) — это метод синтеза контента, вырабатываемый посредством машинного обучения и искусственного интеллекта. Для его создания не требуется много информации, достаточно лишь фотографии, видео или записи голоса человека, далее — дело за нейросетью. Как злоумышленники используют технологию в своих целях и можно ли обезопасить себя от них, разобралась для Inc. руководитель российского агентства видеоновостей Ruptly Индира Жарова.
Количество фейковых видео, порождающих ложные инфоповоды, стремительно растет, они становятся все более правдоподобными и труднодоступными для выявления. Если ранее эта технология использовалась для развлечения публики интригующим контентом о селебрити, то в текущей мировой обстановке она задействуется с целью влияния на политику, совершения манипулятивных действий и дезинформирования общественности.
С их распространением возникает все больше случаев „дискредитации” влиятельных личностей. Если не предавать эту проблему активному освещению в информационных источниках и не продумывать эффективные схемы противодействия, в дальнейшем такие видео и вовсе смогут стать угрозой национальной и международной безопасности.
С чего все началось?
Главным виновником появления подобных видео стал искусственный интеллект и его быстро развивающиеся возможности. В числе первых ИИ-моделей, посредством которых создавались первые дипфейки, стала уже всем известная GAN — генеративно-состязательная нейросеть, разработанная в 2014 году американским айтишником Яном Гудфеллоу и его командой. Производительность этой модели поддерживается двумя конкурирующими нейронными сетями — «генератором» случайных реалистичных изображений и «дискриминатором», который отделяет фейковые материалы от подлинных.
Создание дипфейка включает в себя несколько этапов: сбор данных, обучение модели и итоговую реализацию. Для начала требуется большое количество изображений и/или видео человека, который будет заменен на подделке. Затем генератор и дискриминатор обучаются на этих данных, чтобы лучше воспроизводить лицо или голос человека. После обучения модель способна заменять лицо одного человека лицом другого в видео или аудио с высокой степенью реализма.
Первые сгенерированные с помощью ИИ дипфейки появились в 2017 году. Тогда резонансный кейс с применением усовершенствованной технологии связывали с пользователем, который опубликовал на Reddit несколько интимных роликов с участием фальшивых обнаженных звезд, в числе которых — Скарлетт Йоханссон, Эмма Уотсон и другие. Год спустя в сети появилось поддельное видео с Бараком Обамой, произносящим речь, в которой он назвал занимавшего на тот момент должность президента Дональда Трампа «полным идиотом». Этот ролик, созданный с использованием дипфейк-технологии, показывает, насколько реалистичными могут быть подделки и как их можно использовать для манипуляции общественным мнением. Видео было создано американским актером Джорданом Пилом и медиакомпанией BuzzFeed с целью показать опасность дипфейков.
В 2019 году дипфейк-манипуляции оказался подвержен соучредитель и главный исполнительный директор Meta* [признана экстремистской организацией на территории России] Марк Цукерберг. В фейковом видео он «заявил» о том, как контролирует украденные данные миллионов пользователей.
Сегодня, благодаря автоматизации и доступности инструментов, процесс создания компрометирующего контента стал значительно проще для широкой аудитории. Существует множество приложений, позволяющих синтезировать дипфейки с минимальными техническими знаниями, например, DeepFaceLab, FaceSwap, Reface и многие другие. На Youtube можно легко найти туториалы, в которых доходчиво объясняется, как пользоваться подобными программами. То есть при желании сделать дипфейк может любой пользователь интернета. Но качество и убедительность будет зависеть от того, сколько пользователь будет обучаться работе с ИИ и от количества контента с лицом человека, который он «скормит» нейросети.
Так, дипфейк по простому гайду с Youtube вряд ли будет выглядеть достоверно. Но при должном усердии, изучении более продвинутых функций на форумах и обработке большого количества контента может получиться то, что некоторым пользователям будет довольно сложно отличить от реальности. Такие работы, уже можно сказать профессионалов, естественно, распознать сложнее.