Когда модель превзойдет алгоритмы
О том, как модели искусственного интеллекта «выходят за флажки» написанных для них инструкций, «Моноклю» рассказал генеральный директор корпорации СОРМ Сергей Большаков
Сергей, что представляют собой самые прогрессивные на сегодня модели искусственного интеллекта, из чего они состоят?
— Начнем с того, что любая модель искусственного интеллекта — это алгоритмы, способные самообучаться. Все они, даже самые прогрессивные на сегодня, представляют собой пока еще очень примитивный аналог человеческого мозга, их работа завязана на определенные математические инструкции, которые выполняет техника. В процессе эксплуатации алгоритмы могут корректироваться или дополняться новыми инструкциями, что происходит не само по себе, а с участием людей — разработчиков, аналитиков данных, — которые профессионально занимаются выявлением несовершенств в моделях искусственного интеллекта. На каждом этапе пересмотра модели выбираются те математические методы, которые дают наименьшие погрешности. Обычно точность алгоритмов для решения конкретных задач составляет более 50 процентов, эффективными считаются те из них, точность которых составляет более 95 процентов. Если удается создать алгоритм с 99-процентной точностью, разумеется, его сразу же интегрируют в модель. Это непрерывная работа, и чем больше умных людей в нее вовлечено, тем лучше будут результаты.
— Опасения и страхи общества, в том числе профессионального сообщества из сферы IT, связаны с гипотетическим выходом ИИ из-под контроля. На каком этапе разработчики, аналитики данных теряют возможность контролировать свою модель искусственного интеллекта?
— Скорее всего, это может произойти на любом этапе. Вот, например, поиск «Яндекса» построен на алгоритмах искусственного интеллекта. В них заложены некие метрики, на основе которых выстраивается система ранжирования в поисковых запросах. Были известны случаи, когда на претензии в необоснованном занижении ссылок профильные специалисты компании отвечали, что сами не понимают, почему это так сработало. То есть это сейчас уже реально, что сами разработчики могут не знать, почему система искусственного интеллекта приняла определенное решение, когда по написанной для нее математической инструкции она должна была действовать иначе.
Конечно, это может быть и ошибка исходного алгоритма, которую нужно исправлять, а может, модель уже сама начала думать как человек — порой интуитивно и субъективно. Хотя, на мой взгляд, до этого еще далеко, пройдет еще несколько десятков лет, прежде чем алгоритмы будут усложнены настолько, что смогут имитировать работу человеческого мозга, то есть принимать решения, опираясь на свой предыдущий опыт и построенную на его основе проекцию на будущее.