Ограничение ИИ: «Тот, кто будет препятствовать бездумному внедрению, — настоящий патриот»

На сайте Кремля опубликован список поручений Администрации президента и правительству по внедрению в России искусственного интеллекта. Работа в этом направлении идет полным ходом: уже создан национальный штаб ИИ, который возглавили замглавы АП Максим Орешкин и вице-премьер Дмитрий Григоренко. «ФедералПресс» поговорил с ИТ-предпринимателем Игорем Ашмановым о возможных стратегических задачах ИИ, проблемах его внедрения и о том, почему генеративный интеллект надо не только развивать, но и ограничивать.
Владимир Путин утвердил ряд поручений по внедрению искусственного интеллекта для Администрации президента РФ и правительства. Как вы считаете, нужно ли государственное управление в этой области? Зачем?
Регулирование, конечно, нужно. В первую очередь ИИ — это военные технологии.
Новый министр войны США Хегсет выступал у Илона Маска и опубликовал меморандум для Пентагона об искусственном интеллекте. Они считают, что это военная технология и заниматься ею должно государство. Они собрали для армии технических директоров ведущих компаний-разработчиков и формируют с ними военные советы. У них нет никаких сомнений в том, что технологии ИИ должны работать на войну.
Нам тоже надо строить свой доверенный искусственный интеллект, разработанный под свои нужды. Это задача государства — в первую очередь потому, что у нас гораздо меньше ресурсов, и нельзя ожидать, что частный бизнес сначала сам все сделает, а потом это можно будет поставить на службу государству. У нас бизнес вообще старается не касаться военных разработок.
Кроме военных технологий, где нужно применение ИИ?
Давайте поговорим о том, где не нужно. Жестко нужно регулировать внедрение искусственного интеллекта в социальной сфере и государственном управлении. У нас нет никаких законов на этот счет, граждане применяют западный генеративный искусственный интеллект, который мало того что дает неверные сведения, так еще и служит каналом утечки персональных данных.
Наш средний чиновник все равно хочет работать с чем-то фирменным: его не устраивает чат с «Алисой», он загружает рабочие документы в GPT. Поскольку это облачные сервисы, все это сразу утекает на Запад, в основном американцам.
Какие еще опасности есть при повсеместном внедрении ИИ?
Кроме рисков утечки персональных данных и конфиденциальной информации, есть еще и риски дискредитации контента. Например, если законодатель пишет законы с помощью ИИ, а я видел такие примеры. На стороне ИИ тоже люди не глупые, они могут таким образом влиять на законопроекты, анализируя то, что мы в ИИ загружаем.
