Как охотники за багами и хакеры будут бороться с дискриминацией на рынке труда
Связанные с рынком трудоустройства алгоритмы берут под контроль. Городской совет Нью-Йорка одобрил законопроект, согласно которому разработчики автоматизированных HR-инструментов для отбора кандидатов должны ежегодно проверять свои алгоритмы искусственного интеллекта — только после этого он сможет принимать решения о найме людей на работу или их увольнении
Могут ли программы на основе технологий искусственного интеллекта помешать получить работу мечты? Городской совет Нью-Йорка планирует сделать все возможное, чтобы жители мегаполиса не столкнулись с подобной проблемой при поиске работы. Недавно члены совета одобрили законопроект, согласно которому разработчики автоматизированных HR-инструментов для отбора кандидатов должны ежегодно проверять свои алгоритмы искусственного интеллекта и делиться результатами с компаниями, входящими в число их клиентов.
В случае принятия соответствующего закона речь пойдет об одной из первых в США и важных с юридической точки зрения мер по борьбе с дискриминацией со стороны технологий искусственного интеллекта. Цель законопроекта — проверить автоматизированные HR-инструменты на наличие сбоев, из-за которых соискатели подвергаются дискриминации по расовым, этническим или другим признакам. Если подобные меры начнут принимать повсеместно, в Америке резко повысится спрос на так называемых «цифровых охотников за багами».
Сегодня многие компании предлагают крупное вознаграждение за выявление ошибок в области кибербезопасности, не обнаруженных ранее. Размер такого вознаграждения иногда может достигать сотен тысяч долларов. На фоне популярности этой практики появились стартапы вроде Bugcrowd и HackerOne, которые помогают IT-директорам и другим топ-менеджерам запускать специальные программы вознаграждения и нанимать хакеров.
Вознаграждение от Twitter
Представители Bugcrowd и HackerOne заявляют, что на рынке наблюдается рост интереса к программам вознаграждения для охотников за багами и хакеров, которые помогают в выявлении непредусмотренных ошибок в различных алгоритмах искусственного интеллекта. И речь идет не только о предвзятом отношении при поиске работы. Наличие подобных ошибок в алгоритме может повлиять на многие сферы жизни, начиная с рассмотрения заявок на кредиты и заканчивая стратегиями в области охраны общественного порядка и противодействия преступности. Сами разработчики автоматизированных алгоритмов могут специально или же совершенно случайно допустить их появление в программном обеспечении. Кроме того, наличие ошибок зависит от наборов данных, с помощью которых обучаются алгоритмы.
На сегодняшний день почти все программы вознаграждения для охотников за багами носят закрытый характер. К работе над выявлением ошибок приглашают лишь небольшие группы хакеров, чтобы компании могли получить начальное представление о том, чего можно достичь благодаря подобным инициативам.