О трудностях обучения роботов

VC.RUHi-Tech

Бить за чизбургер — плохо, бить чизбургером — приемлемо: как учёные обучают искусственный интеллект этическим нормам

Учёные обучили ИИ-бота нормам морали, составив для него учебник на основе философских сабреддитов. Теперь робот знает, что нельзя убивать медведя, чтобы порадовать ребёнка, и не стоит включать блендер в три часа ночи. О проекте и трудностях обучения — в пересказе IEEE Spectrum.

Полина Лааксо

1280
Bold Expert

Технологии искусственного интеллекта всё чаще используют для принятия важных решений, пишет IEEE Spectrum: например, когда нужно определить, какой срок лишения свободы назначить преступнику или кто в первую очередь должен получить социальную помощь.

В этих и многих других вопросах, считают учёные, ИИ должен отталкиваться от нравственных и моральных норм. И базовые принципы, которым нужно обучать роботов, сформулировал ещё в 1942 году писатель и биохимик Айзек Азимов в научно-фантастическом рассказе «Хоровод»:

  1. Робот не может причинить вред человеку или своим бездействием допустить, чтобы это сделал кто-то другой.
  2. Он обязан выполнять приказы человека, если только те не противоречат первому пункту.
  3. И должен защищать себя до тех пор, пока это не идёт вразрез с первым и вторым положениями.

Общеизвестные заповеди вроде «не убей» кажутся очевидными и легко применимыми в теории, но в некоторых ситуациях человек может ими пренебречь — например, при самообороне.

Поэтому разработчики ИИ-бота Delphi, который должен принимать более осознанные с точки зрения морали выводы, решили отойти от теоретических аксиом, согласно которым «убивать — всегда плохо», а значит делать это ни при каких условиях нельзя.

Вместо этого мы обратились к дескриптивной этике — той, что изучает реально практикуемые в повседневных ситуациях нормы. Ронан Ле Бра, соавтор исследования

Авторизуйтесь, чтобы продолжить чтение. Это быстро и бесплатно.

Регистрируясь, я принимаю условия использования

Открыть в приложении