Какие риски несет использование искусственного интеллекта в бизнесе
ИИ — это серьезный инструмент для улучшения возможностей человека во многих сферах деятельности. Но сможем ли мы им пользоваться, не создавая новых серьезных проблем?
Появление ChatGPT, разработанного компанией OpenAI, моментально превратило искусственный интеллект (ИИ), относившийся к категории тем, доступных лишь узкому кругу специалистов, в практический инструмент, получающий все более широкое распространение. Инструмент, используемый в самых разных приложениях — от написания музыки и стихов до разработки новых молекулярных соединений и расшифровки древних рукописей. В последние месяцы тема ИИ стала настоящим драйвером американского фондового рынка. Но не утихают дискуссии относительно основополагающей проблемы, связанной с использованием ИИ, — непрозрачности механизма его действия.
Сейчас многие компании начали широко применять искусственный интеллект для повышения эффективности своего бизнеса. Причем ИИ используется для решения самых разных задач. Перечислим основные их них:
— прогнозирование спроса и управление запасами;
— разработка стратегий маркетинга и продаж;
— разработка маркетинговой коммуникации;
— проведение исследований потребителей;
— разработка персонализированных продуктов и услуг;
— управление цепочками поставок;
— оптимизация бизнес- и технологических процессов;
— разработка инновационных продуктов;
— оценка ROI (Return on Investment, окупаемость инвестиций) запуска новых продуктов и коммуникаций;
— контроль качества продукции;
— прогнозирование отказов в работе оборудования.
Эффективность решения этих задач, помимо собственно совершенства используемых моделей ИИ, в значительной степени обусловлена качеством используемых больших данных. Как исторических, так и данных, получаемых в режиме реального времени. Поскольку использование ИИ потенциально сулит значительные конкурентные преимущества, многие компании, как правило, не стремятся афишировать свои достижения как в области построения моделей ИИ, так и в области сбора и обработки данных.
Значимые риски
Попробуем разобраться с рисками использования ИИ. Перечислим те, которые нам представляются наиболее значимыми:
1) риск из-за непрозрачности работы моделей ИИ;
2) риск утечки данных;
3) риск нарушения прав интеллектуальной собственности;
4) риск из-за сокращения рабочих мест;
5) риск использования некачественных данных;
6) риск дипфейков и мошенничества;
7) риск зависимости от ИИ.
Сегодня работа моделей ИИ непрозрачна, то есть это «черные ящики», которые выдают вам результат. При этом отсутствует понимание, как ИИ приходит к этим результатам, проверить их можно только эмпирическим путем. Мы оцениваем этот риск как потенциально один из наиболее опасных, поскольку эффективность решений, предлагаемых ИИ, может быть оценена только постфактум. И его возможные ошибки в области прогнозирования спроса, стратегии продаж, оптимизации технологических процессов и т. п. могут привести к большим финансовым потерям.
Следующим риском по уровню потенциальных потерь является риск утечки данных. Работа моделей ИИ основана на анализе больших данных из разных источников, включающих информацию о клиентах, конкурентах, продуктах, объемах продаж, патентах и т. д. Утечка этих данных может стать причиной огромных штрафов, потери репутации компании. Причины утечки могут быть самыми разными — например, противоправные действия внешних лиц, сбои в работе оборудования, недобросовестность сотрудников самой компании. Как показывает опыт последних лет, обеспечение конфиденциальности и безопасности данных становится все более сложной задачей.