Моральный кодекс робота: можно ли привить машине ценности через книги
Люди впитывают систему моральных ценностей через социальное взаимодействие. Чтение книг помогает скорректировать собственную призму “хорошего” и “плохого”. Ученые выясняли, содержат ли тексты, написанные человеком, однозначную трактовку правильных и неправильных поступков, и смогут ли роботы понять этические нормы, просто читая книги, новости и религиозные брошюры.
Искусственный интеллект постепенно проникает во многие сферы жизни. Пока люди разговаривают от скуки с голосовыми помощниками на смартфонах, роботы учатся управлять автомобилем, делать хирургические операции и работать в открытом космосе. “Разумные” машины призваны не только упрощать повседневные задачи, но будут сопровождать человека при выполнении важных и опасных миссий.
Закономерно всплывает вопрос о сложном моральном выборе, который, как аромат духов за светской леди, шлейфом тащится по пятам ответственности. Смогут ли роботы развить когда-нибудь собственный моральный кодекс? Что решит искусственный интеллект, не обделенный нравственными чертами, когда нужно будет ампутировать человеку руку, чтобы сохранить ему жизнь? Причинит ли боль во имя спасения?
Электронный или квантовый “мозг” обгоняет белковый в скорости обучения и способности “запоминать” факты, но сильно уступает в количестве примеров из жизни, которые мы ежедновно обрабатываем подспудно. Обсудить все возможные случаи возникновения морального выбора с каждым конкретным роботом - занятие довольно долгое. Нужен некий алгоритм распознавания правильных и неправильных, с точки зрения этики, поступков, подкрепленный внушительной базой данных примеров. Ученые из Дармштадтского технологического университета предположили, что подобной “базой данных” могут служить тексты.