Боты против уток. Сможет ли искусственный интеллект избавить соцсети от Fake News
Мы считаем, что интернет создан ради нас, но на самом деле основные его пользователи — уже давно боты. Так, согласно исследованию компании Imperva, занимающейся вопросами кибербезопасности, еще в 2016 году число посещений сайтов программами, созданными для различных целей, превысило количество их просмотров людьми. В чем похожи и те и другие, так это в своей неразборчивости к распространяемой информации.
Люди то и дело перепощивают в соцсетях сообщения, которые считают правдой, потому что они их пугают или, наоборот, радуют. Примерно то же самое, но в целях пропаганды, делают боты — например для выведения недостоверных публикаций в топ новостей. Положить этому конец обещают разработчики платформ, способных в полуавтоматическом режиме отслеживать лживый и оскорбительный контент. Впрочем, деятельность этих платформ сама по себе поднимает моральную проблему — где разница между правдой и пропагандой?
В поисках истины
Трудно поверить, но одни из главных потенциальных клиентов платформ автоматического фактчекинга — рекламщики. «Исследования показывают, что 80% пользователей избегают покупок у брендов, присутствующих рядом с радикальным или опасным контентом», — отметил в комментарии РБК основатель и CEO нидерландского стартапа Adverif.ai Ор Леви. Компания разработала алгоритм FakeRank, позволяющий выявлять фальшивые новости. А это, в свою очередь, дает брендам возможность не размещать свою рекламу рядом с такими сообщениями в соцсетях.
Пример фальшивой новости, рядом с которой серьезному рекламодателю вряд ли захочется увидеть свои объявления, — сообщение о том, что покончившего с собой в американской тюрьме (согласно официальной версии) финансиста Джеффри Эпштейна видели живым после его смерти. FakeRank поставит такой новости высокий индекс недостоверности и не допустит размещения рядом с ней рекламных сообщений, утверждают в компании.
По словам Ора Леви, наиболее эффективный способ определения фальшивых новостей — это имитация процесса человеческих умозаключений. «Невозможно вручную проверять каждый фрагмент контента соцсетей, — говорит он. — Однако некоторые задачи, которые выполняют журналисты и люди, профессионально занимающиеся проверкой фактов, могут быть автоматизированы, что поможет увеличить масштабы этой работы».
Если ложные сообщения, которые намеренно распространяют боты, легко отловить обычным поиском (ведь тексты дословно повторяют друг друга), то фейковые новости, которые разносят люди, могут циркулировать в отличных друг от друга вариациях. Поэтому алгоритм FakeRank использует обработку естественного языка. Вердикт о ложности информации он выносит, сравнивая тексты в соцсетях и форумах с утверждениями из достоверных источников, например ведущих СМИ. Adverif.ai продает доступ к FakeRank рекламодателям, рекламным сетям и СМИ.
По схожей модели работает и лондонская компания Factmata. Как рассказал в комментарии РБК ее основатель и CEO Друв Галати, в основе технологии, которую они используют, лежит классификация текстов по различным категориям риска — оскорбления, угрозы, расистские заявления и так далее. Обнаружив в какой-либо публикации фрагменты, содержащие опасный контент, алгоритм отслеживает их перепосты и цитирование другими пользователями. Чтобы улучшить работу алгоритмов, компания сотрудничает с журналистами, исследователями и общественными организациями.