Самоуверенный алгоритм: какие риски внедрения ИИ пока недооцениваются
Главную проблему алгоритмов ИИ можно сформулировать как парадокс: они обладают мощной предсказательной способностью, но при этом не в состоянии заглянуть хотя бы на шаг вперед. Чтобы не стать жертвой ошибочных решений, которые предлагает ИИ, в его разработке должны участвовать не только математики, но и менеджеры, социологи и экономисты, считает профессор РЭШ Иван Стельмах.
За громкими спорами о достижении «точки сингулярности» искусственного интеллекта (ИИ) и необходимости запрета дальнейшего развития технологии теряются менее хайповые, но более важные риски. Если разобраться в том, как работает ИИ, часть опасений сойдет на нет: и по поводу восстания машин, и по поводу того, что нейросети уже завтра заменят всех в офисе. Однако мы обнаружим другие риски, которые могут оказать влияние на нашу жизнь уже сейчас. Поговорим об актуальных рисках ИИ и о том, как ученые, бизнес и общество могут совместно работать над безопасной социальной адаптацией искусственного интеллекта.
Реакция системы
За последние годы ИИ как продукт сделал огромный скачок — при общении с ChatGPT сложно поверить, что алгоритм по ту сторону экрана основывается исключительно на статистических закономерностях. При этом основная парадигма остается неизменной: большинство алгоритмов работают по принципу, который состоит из двух шагов:
- Шаг 1. Нахождение статистических паттернов в исторических данных
- Шаг 2. Применение найденных паттернов на новых данных
Рассмотрим простой пример — платформу видео-хостинга. Алгоритмы могут проанализировать историю просмотров всех пользователей (Шаг 1) и сделать персонализированные предсказания о том, какое видео понравится каждому пользователю (Шаг 2).