Говорит Скарлетт Йоханссон: как ИИ «крадет» человеческие голоса и почему это опасно
Сегодня искусственный интеллект может воспроизводить индивидуальные особенности речи с поразительной точностью. Подобный случай произошел со Скарлетт Йоханссон — актриса раскритиковала OpenAI из-за «устрашающе похожего» на ее голос чат-бота ChatGPT, и в мае 2024 года компания временно отключила этот вариант озвучки. Адвокат коллегии адвокатов Delcredere Диана Анисимова рассказала в своей колонке для Forbes Life, кто несет ответственность за такие действия ИИ и как от этого защититься.
Стремительное развитие технологий позволило любому желающему заимствовать и синтезировать чужие голоса. Так, современные мессенджеры дают пользователям возможность отправлять голосовые сообщения, которые значительно упрощают коммуникацию. И всего одного голосового сообщения может быть достаточно, чтобы клонировать голос человека. В первую очередь это опасно потерей дохода для дикторов и актеров, чьи голоса могут несанкционированно использоваться в рекламе или бизнес-продуктах. Также простота использования нейросетей развязывает руки мошенникам, которые могут использовать голос в своих целях, например для звонков от вашего имени в банк или для обмана ваших родственников.
Кто пострадал от кражи голоса?
Первыми жертвами кражи голоса стали голливудские звезды и актеры озвучки. Резонансным случаем возможной кражи голоса стало создание голоса Sky, который использовался в генеративном искусственном интеллекте GPT-4o. Его звучание оказалось крайне похожим на голос персонажа Скарлетт Йоханссон — Саманты из фильма «Она». Актриса потребовала от OpenAI раскрыть, кому принадлежит голос, но получила отказ. Тем не менее в мае 2024 года компания приостановила использование голоса Sky «из уважения к миссис Йоханссон». Пока не известно, будет ли актриса предъявлять иск к OpenAI. У Йохансон остается возможность взыскать компенсацию, если в рамках судебного разбирательства будет установлено, что компания действительно использовала ее голос.
Несмотря на то что вопрос аудио дипфейков пока что законодательно не урегулирован в США, их правовая система позволяет использовать аналогию закона и прецеденты по отношению к ситуациям, которые еще не были предметом судебного разбирательства.
Другой случай кражи голоса произошел в 2021 году. Канадская актриса озвучки Бев Стэндинг подала иск о защите авторских прав к ByteDance — компании, владеющей ТikTok. Она заявила, что text-to-speech сервис приложения незаконно использует ее голос. Бев требовала прекратить незаконное использование и выплатить ей компенсацию. Спустя две недели после подачи иска компания заменила голос сервиса и заключила с актрисой мировое соглашение. После случая с Бев Министерство инноваций, науки и промышленности Канады внесло законопроект, который должен обеспечить защиту персональных данных от их использования искусственным интеллектом. На данный момент он ещё не принят.
Аналогичный случай произошёл в России. Актриса озвучки Алена Андронова рассказала, что сотрудничала с АО «Тинькофф Банк» — ее голос был записан для внутренних задач компании, в том числе обучения голосового помощника Олега. Через несколько лет девушка обнаружила, что голос без ее согласия используется на сайте Тинькофф для перевода текста в голосовой формат. Кроме того, голос Алены был выложен в открытом доступе для синтезирования аудио дипфейков при помощи ИИ. Одна из таких записей была использована в рекламе порно. Актриса обратилась с иском к АО «Тинькофф Банк» для защиты своих прав на голос. Она потребовала обязать компанию опубликовать на своем сайте информацию о том, что «Тинькофф» создал на основе ее голоса технологию аудиосинтеза, предпринять меры по удалению синтезированного голоса, прекратить использование голоса для сервисов, доступных для третьих лиц. Также девушка потребовала компенсацию убытков и морального вреда в размере практически 6 млн рублей. Спор еще рассматривается в Савёловском районном суде г. Москвы, решение по нему пока не вынесено.
Также тревогу бьет Союз дикторов России, который в январе 2023 года направил письмо Александру Хинштейну, главе комитета Государственной Думы РФ по информационной политике. Организация просила разработать законодательное регулирование технологий синтеза голоса с использованием искусственного интеллекта.