Зачем TikTok база изображений сексуализированного насилия над несовершеннолетними
Бывшие подрядчики TikTok заявляют, что справочным материалом для сторонних модераторов контента соцсети служит множество изображений с детьми, подвергшимися сексуализированному насилию, ― и все это находится в почти неограниченном корпоративном доступе
Бывший сотрудник TikTok Нассер (фамилии этого и некоторых других собеседников не называются из соображений конфиденциальности) знал, что в процессе обучения на должность модератора контента TikTok ему придется иметь дело с неприятными материалами. Но когда ему и другим новичкам на обучении показали изображения сексуального характера без цензуры с участием детей, для него это стало настоящим шоком.
Нассер работал в сторонней компании Teleperformance, которая модерирует контент социальной сети. Нового сотрудника взяли на специальный проект, в рамках которого планировалось научить искусственный интеллект (ИИ) TikTok выявлять на платформе худшее из худшего. Спустя всего несколько дней после начала работы Нассеру и его коллегам показали натуралистические изображения и видео, где дети подвергаются действиям сексуального характера, ― все ролики и фотографии, удаленные из TikTok.
«У меня самого есть дочь, и мне кажется, что неправильно, когда это смотрит толпа незнакомых людей, ― рассказал Forbes Нассер (из Teleperformance он ушел в 2020 году). ― Думаю, что такое для обучения использовать нельзя».
Уитни Тернер, работавшая в Teleperformance по этой же программе TikTok в Эль-Пасо на протяжении чуть больше года и уволившаяся в 2021-м, тоже вспоминает, как на обучении ей показывали визуальные материалы с сексуализированным насилием над детьми. Сотруднице дали доступ к общей таблице. Сама Уитни и ее бывшие коллеги утверждают, что в файле полно материалов, нарушающих правила сообщества TikTok, в том числе сотни изображений с детьми, которых заставляют раздеваться или насилуют. Бывшие модераторы заявляют, что документ под названием DRR (англ. Daily Required Reading, «обязательная ежедневная вычитка») находился в широком доступе для сотрудников Teleperformance и TikTok еще этим летом. Несмотря на то что некоторым модераторам, задействованным по другим направлениям, просмотр этого документа был запрещен, многие источники рассказали Forbes о том, что свободный доступ к файлу имели сотни работников из обеих компаний. DRR и другие справочные материалы хранились в программе Lark, корпоративной системе китайского гиганта ByteDance, владельца социальной сети.
Уитни была настолько ошеломлена небрежным обращением с материалами, что сообщила об этом в ФБР и впоследствии, в июне, встречалась по этому поводу с агентом. В ФБР на вопросы о том, предвидится ли какое-то расследование, не ответили.
«Я модерировала контент и думала: это же чей-то сын, чья-то дочь. И их родители даже не знают, что у нас сохранены эти фотографии, эти видео, этот ужас, настоящее преступление, ― поделилась Уитни. ― Будь родители в курсе, я уверена, они бы сожгли TikTok дотла».
Президент глобального подразделения по доверию и безопасности Teleperformance Акаш Пугалия заявил Forbes, что ролики откровенного содержания с участием детей компания в целях обучения не применяет. Кроме того, он добавил, что фирма не хранит подобный контент в своих «инструментах калибровки», хотя, что это за инструменты и для чего используются, он не пояснил. Отвечать на другие вопросы из обширного списка о том, сколько людей имеют через DRR доступ к материалам с насилием в отношении детей и как Teleperformance охраняет визуальный данные, управленец тоже отказался.
TikTok ― далеко не единственная платформа, которая борется с материалами сексуального насилия над несовершеннолетними. Крупнейшие социальные сети мира давно прибегают к машинному обучению и помощи сторонних проверяющих, чтобы находить и удалять подобные записи до того, как они разлетятся по интернету. Многие фирмы сотрудничают с Национальным центром по поиску пропавших и подвергшихся насилию детей (National Center for Missing & Exploited Children), чтобы сообщать о подобных постах в своем приложении органам правопорядка.
Однако уникально то, как TikTok и его сторонние консультанты обращаются с таким контентом. Эксперты называют сложившийся подход в лучшем случае небрежным и халатным, а в худшем ― опасным и травмирующим снова и снова. Специалисты подчеркивают, что изображения сексуального характера с детьми при обучении модерации контента ― не важно, с цензурой или без, ― лишь унижает жертв каждый раз заново. Кроме того, хранение записей в документе с общим доступом безответственно и излишне.
Пресс-секретарь TikTok Джейми Фавацца заявила, что «материалы для обучения в компании имеют строгий контроль доступа и не включают в себя наглядные примеры материалов сексуального насилия над детьми», но признала, что бизнес работает со сторонними фирмами, у которых внутренние процессы могут отличаться. Отвечать на вопросы о том, сколько сотрудников имеют доступ к файлу DRR и где документ хранится, в TikTok отказались. Родительская компания ByteDance, разработчик платформы Lark, многочисленные запросы прокомментировать эту информацию оставила без внимания.
«Свободный и неограниченный оборот здесь не пройдет»
Изображения насилия над детьми и их эксплуатации противозаконны, и существуют строгие правила по обращению с такими данными в случае обнаружения. Материал подлежит незамедлительной блокировке, и о нем необходимо сообщать в систему CyberTipline Национального центра по поиску пропавших и подвергшихся насилию детей. Там персонал анализирует файлы и ищет их первоисточник, чтобы уведомить соответствующие правоохранительные органы. Как только компания сообщает о материале в профильный центр, ей официально разрешается хранить контент в течение 90 дней для помощи следствию. Но федеральный закон США четко требует от предприятий «минимизировать число сотрудников, которым дается доступ» к незаконному контенту, «хранить материалы в безопасном месте» и «обеспечивать полное уничтожение любого визуального изображения по запросу от органов правопорядка».