Искусство против ИИ: как технологии помогают художникам защищать свои картины от обучения нейросетей без их согласия
В последний год для художников проблема защиты своих работ от использования для обучения моделей ИИ без их согласия стала одной из первостепенных. Большинство из них рассчитывает получать заказы и другие возможности для заработка в социальных сетях и на собственных сайтах, так что отгородиться от внешнего мира им не представляется возможным. Команда ученых Чикагского университета (США) разработала инструмент, получивший название Nightshade, который «отравляет» данные изображений, делая их непригодными для обучения нейросетей. Рассказали подробнее о проекте и проблемах художников.
Для художников защита работ от использования их для обучения моделей искусственного интеллекта без согласия — задача не из простых. Запросы на отказ от использования предполагают, что компании, занимающиеся разработкой ИИ, будут действовать добросовестно, но те, для кого выгода важнее конфиденциальности, могут легко пренебречь такими мерами. Для большинства живописцев, которые рассчитывают получить комиссионные и другие возможности для работы в социальных сетях, отгородиться от внешнего мира не представляется возможным.
Как острый соус
Руководитель проекта Nightshade, профессор информатики Чикагского университета Бен Чжао сравнил разработку с острым соусом, который офисные сотрудники добавляют в обед, чтобы коллеги не украли его с общего холодильника. Он отметил, что инструмент демонстрирует тот факт, что генеративные модели в целом — всего лишь модели, а сам по себе Nightshade не задумывался как чрезвычайно мощное оружие против компаний, обучающих ИИ.
Бен Чжао
профессор информатики Чикагского университета
«Биткоин — это прямой активизм против не поддающейся проверке и ограничительной по своему характеру финансовой системы, которая негативно влияет на большую часть нашего общества. Важно как минимум признать, что с этим связаны социальные проблемы, с которыми ежедневно сталкиваются ваши клиенты».
При этом Чжао и его команда не преследуют цели уничтожить ИИ. Суть проекта — заставить технологических гигантов платить за труд художников, вместо того, чтобы обучать модели ИИ на, по сути, украденных изображениях. «Реальная проблема здесь заключается в согласии художников. Мы просто даем создателям контента возможность противостоять несанкционированному использованию», — отметил он.
Nightshade нацелен на ассоциации между текстовыми подсказками, изменяя пиксели на изображениях, чтобы обмануть модели искусственного интеллекта и заставить их создавать изображения, совершенно отличные от того, что ожидает увидеть человек. ИИ будет неправильно классифицировать признаки таких изображений, и если они будут обучены на достаточном количестве «отравленных» данных, они начнут генерировать изображения, совершенно не связанные с соответствующими запросами. Исследователи в технической статье отметили, что для этого потребуется не менее 100 «испорченных» образцов.