Цифровой сценарист: как ИИ создает иллюзию свободы выбора

Согласно данным исследования американского психолога Эллен Лангер, которая впервые описала феномен иллюзии контроля, люди часто переоценивают степень собственного контроля и уверены, что принимают решения самостоятельно. На самом деле нашим выбором все чаще управляют алгоритмы рекомендаций, таргетированная реклама и персонализированный контент из рассылок, созданные искусственным интеллектом. О том, можно ли защитить личную свободу выбора и как научиться распознавать технологические манипуляции, в колонке для Forbes рассуждает эксперт в области машинного обучения и ИИ Иван Серов.
Как алгоритмы формируют ложные ориентиры
Человек быстро привыкает к технологиям, воспринимает их как должное и начинает им чрезмерно доверять. При этом когнитивные способности людей, постоянно использующих вспомогательную технологию, ухудшаются. Наглядный пример — использование GPS. Навигаторы часто обманывают водителей, а те слепо следуют указаниям программы, не обращая внимания на реальную обстановку на дороге. Если водитель всегда слушается систему навигации, он теряет способность ориентироваться на местности и быстро принимать правильные решения в опасных ситуациях за рулем. Так привычка полагаться на технологии снижает критичность восприятия.
Аналогичный эффект оказывают алгоритмы ИИ, управляющие соцсетями. Согласно исследованию Pew Research Center, они направляют огромное количество людей к контенту, который вовлекает их просто потому, что вызывает злость и разжигает эмоции. Так людей подталкивают к мыслям и решениям, которые они могли бы не совершать, наблюдая другой контекст.
Вижу то, что нравится
Алгоритмы формируют информационный пузырь вокруг каждого из нас. Иногда контраст между реальностями, в которых живут члены одной семьи, поражает. Многие не видят, насколько досконально и незаметно алгоритмы изучают их поведение, эмоции и предпочтения. Человек полагает, что самостоятельно выбирает контент в Instagram (принадлежит Meta, которая признана в России экстремистской и запрещена), хотя на самом деле его предлагает рекомендация, построенная ИИ после детального изучения вкусов. И когда алгоритм подсовывает пользователям то, что выгодно кому-то, но прячет альтернативную информацию, которая могла бы пробудить осознанность, человек видит мир через фильтр своих предыдущих предпочтений. А это ограничивает возможность свободного выбора и выхода за рамки привычного. Так алгоритмы контролируют нас, препятствуют росту осознанности и расширению мировоззрения. Причем это окружает нас повсюду: