Как ИИ копирует голоса и помогает мошенникам вымогать деньги
Быстрое развитие искусственного интеллекта — монета о двух сторонах, оно несет человечеству как преимущества, так и новые угрозы. Так, уникальную способность нейросетей к воспроизведению голосов активно используют мошенники. За несколько секунд злоумышленники могут подделать голосовое сообщение и заставить людей думать, что другу или члену семьи срочно нужны деньги.
Новостные агентства, включая CNN, предупреждают, что такие аферы могут затронуть миллионы людей. Поскольку технологии облегчают преступникам вторжение в личное пространство, становится как никогда важно соблюдать осторожность.
Многие уже слышали о дипфейках, когда искусственный интеллект используют для создания поддельных изображений, видео и даже аудио, часто с участием знаменитостей или политиков. Клонирование голоса — это разновидность технологии дипфейка, которая позволяет создать цифровую копию голоса человека, считывая его речевые особенности, акцент и дыхание из коротких аудиофрагментов.
После захвата речевого образца генератор голоса на базе ИИ может преобразовать текстовый ввод в высокореалистичную речь, напоминающую голос выбранного человека. Благодаря развитию технологий клонирование голоса можно осуществить даже на основе всего лишь трехсекундного аудиофрагмента.
В то время как простая сказанная фраза может привести к мошенничеству с клонированием голоса, более продолжительный разговор помогает мошенникам зафиксировать больше вокальных деталей. Поэтому если человек не уверен, с кем разговаривает, лучше ограничиваться короткой беседой.
Клонирование голоса имеет ценное применение в сфере развлечений и здравоохранения, позволяя артистам удаленно работать с голосом (даже посмертно) и помогая людям с нарушениями речи. Однако эта технология вызывает серьезные опасения относительно конфиденциальности и безопасности, что подчеркивает необходимость принятия мер.