Лариса Малькова: «Искусственный интеллект можно сравнить с энергией атома»

Индивидуальные цифровые помощники, нейросети вместо сотрудников, авторские права на шедевры, сгенерированные машиной… О том, где еще заявит о себе искусственный интеллект, как он повлияет на рынок труда, технологии и культуру, а также какие угрозы он может нести человеку, «РБК Трендам» рассказала управляющий директор компании Axenix Лариса Малькова.
Искусственный интеллект в реальной жизни
РБК Какие изменения нас ждут в области искусственного интеллекта через 30–50 лет? Какие новые возможности он предоставит?
Л. М. Влияние ИИ будет не менее масштабным, чем влияние интернета и цифровой трансформации за последние 30 лет. Кроме того, через 30 лет к управлению политикой, экономикой, бизнесом, социальной сферой придет цифровое поколение, которое привыкло получать информацию из цифровых каналов.
Если человечеству удастся выработать до приемлемого уровня правила игры, которые бы минимизировали риски, связанные с искусственным интеллектом, то у каждого из нас может появиться цифровой индивидуальный помощник, без которого — как сейчас без телефона — мы не сможем обойтись.
РБК Каким будет этот индивидуальный помощник?
Л. М. Он будет взаимодействовать с пользователем через различные устройства и каналы, полностью сохраняя контекст и всю историю ваших «взаимоотношений». При этом будет знать и учитывать ваш характер, особенности и интересы.
РБК Кому и что нужно сделать, чтобы ИИ стал повсеместным?
Л. М. Всем — экспертному сообществу, государству, образовательной системе, регулирующим органам — нужно принять меры, чтобы подготовить общество к использованию искусственного интеллекта. Экспертное сообщество и бизнес должны придумать прикладную схему, как внедрить технологии в обычную жизнь. Философам нужно осмыслить совместное существование человека и ИИ. Система образования должна перестроиться так, чтобы учить детей востребованным знаниям и навыкам, а также чтобы дать человеку возможность учиться всю жизнь. Государство должно заняться обеспечением безопасности и защитой населения от рисков, связанных с ИИ.
Другой элемент адаптации — общественная дискуссия возможностей и последствий использования искусственного интеллекта. Важно вести живой диалог. С этого, я думаю, все и начнется. Причем не только в профессиональных сообществах, но и в широких массах. Наверное, будут сферы, где технологии ИИ будут запрещены или использоваться по минимуму. Но основную часть общества можно будет подготовить.
Риски ИИ
РБК Какие риски сопровождают искусственный интеллект?
Л. М. Искусственный интеллект можно сравнить с энергией атома. И то и другое можно применять и в мирных целях, и в военных. Все понимают, что ядерная бомба — разрушительная вещь. Искусственный интеллект может быть тоже разрушительным. Во-первых, генеративный ИИ может создавать различные дипфейки и другой контент, где практически невозможно отличить правду от лжи.
Во-вторых, ИИ может негативно повлиять на систему образования — сделать ее поверхностной, если будет сразу предлагать готовые ответы. Сейчас в каких-то школах запрещено приносить калькуляторы на уроки, чтобы дети научились самостоятельно выполнять математические действия. И это правильно. Важно учить фундаментальные основы для понимания того, как устроены различные вещи. Если чтото выйдет из строя, например тот же калькулятор, мы должны суметь сами справиться с задачей.
В-третьих, искусственный интеллект может генерировать данные с ошибками, а человек — принимать эту информацию за истину. Конечно, это проблема не самого ИИ, а данных, на которых его обучают. Если они изначально содержат какие-либо заблуждения, то и программа будет генерировать контент с различными искажениями. Чтобы решить эту проблему, стоит помечать данные, созданные искусственным интеллектом.