Несобственной персоной
Миллионы лет эволюции приучили людей доверять зрению, и восклицание «глазам своим не верю!» еще недавно воспринималось как ироническое. Однако дипфейки учат нас критически относиться к увиденному. И по темпам обучения человечеству стоит постараться обогнать нейросети
Слово дипфейк (deepfake) сложилось из терминов deep learning (глубокое обучение) и fake (подделка). Это явление считается порождением новейших технологий машинного обучения, однако само явление «подмены визуальной реальности» куда старше. Первые опыты в «теплых аналоговых дипфейках» были ровесниками фотографии и делались методами двойного экспонирования и ретуши. Так на изображениях появлялось то, чего не было в объективе камеры: это было еще не deep, но уже fake. Затем пришел кинематограф с комбинированными съемками и макетами, замахали нарисованными световыми мечами джедаи на картонных звездолетах, а чуть позже компьютеры доросли до неотличимой от реальности графики. Чем дальше, тем более убедительной становилась картинка.
Даже примитивные технологии фотомонтажа регулярно использовались для производства подделок. И не только в целях создания относительно безобидных сенсаций вроде лохнесского чудовища или НЛО, но и для шантажа, политических провокаций, репутационных скандалов, влияния на общественное мнение и так далее. Разумеется, дипфейки, давшие возможность простого, а главное, массового доступа к технологии подмены изображений, получили в первую очередь негативную коннотацию, хотя могли бы использоваться (и используются) не только в дурных целях.
Глубины возможностей
Дипфейки создаются путем обучения генеративно-состязательной нейронной сети (Generative Adversarial Network, или GAN). Одна нейронная сеть, генератор, создает изображения, а другая, дискриминатор, оценивает их. Этот процесс носит итерационный характер: генератор постоянно совершенствует выходной сигнал, создавая все более убедительные подделки, пока дискриминатор не перестанет отличать настоящие изображения от фейков. Как правило, в этот момент их перестают различать и люди.
Это открывает окно возможностей для манипуляций в области социальной инженерии, причем с очень низким «порогом вхождения», что кардинально отличает дипфейки от технологий подмены прошлых поколений. Чтобы создать убедительное поддельное фото, не говоря уже о видео, средствами аналоговой передачи изображения, требовались высокая квалификация исполнителя, много труда, а результат все равно не мог обмануть эксперта. Сейчас генеративные сети доступны каждому, что порождает количественный скачок, глубоко влияющий на медиасферу. И это в тот момент, когда сама медиасфера занимает все больше места в нашей жизни. Только за 2020 год и только в США было совершено более миллиона махинаций с использованием технологии deepfake.
Неужели дипфейки настолько хороши, что их невозможно распознать? Увы, да. И не в последнюю очередь потому, что люди слишком уверены в себе. Опросы показали, что 57 % потребителей контента во всем мире считают, что они могут успешно обнаружить подделку, хотя на практике смогли их распознать всего 24 % респондентов.