Организация искусственного интеллекта: ждет ли ИИ система глобального регулирования
Генеральный секретарь ООН Антониу Гутерриш объявил о создании Консультативного органа высокого уровня по искусственному интеллекту, который будет руководить глобальным управлением ИИ. Фактически генсек ООН поддержал создателя ChatGPT Сэма Альтмана, предложившего приравнять ИИ к атомной энергии, применение которой регулируется на международном уровне. О том, как различные модели регулирования могут способствовать безопасному для общества развитию технологий, рассказывают аналитики Национального центра по развитию искусственного интеллекта НИУ ВШЭ Антон Тамарович и Мария Лесина.
В 2017 году генеральный директор Intel Брайан Кржанич заявил, что искусственный интеллект находится «в зачаточном состоянии» и слишком рано говорить о его регулировании. Всего через пять лет участие в разработке национальных и международных стандартов ИИ было объявлено одним из ключевых приоритетов компании. Это яркая иллюстрация того, насколько быстро растет роль ИИ в жизни общества и насколько важными для индустрии становятся вопросы контроля в этой сфере.
Рост популярности сервисов вроде ChatGPT или Stable Diffusion, способных генерировать все более качественные тексты и изображения, также добавил актуальности дискуссии, одновременно вызвав множество опасений. Риски не ограничиваются появлением нового инструмента для дезинформации, а выходят за рамки сферы ИИ, распространяясь чуть ли не на все области деятельности человека.
Все это порождает вопросы как среди обычных граждан, так и у самих разработчиков. В 2023 году Илон Маск инициировал петицию за остановку развития ИИ, объясняя это опасностями «непредсказуемых моделей черного ящика». А первопроходец в области искусственного интеллекта Джеффри Хинтон ушел с поста одного из ведущих исследователей по ИИ в компании Google и написал статью, предупреждающую об опасностях технологии, которую он помог создать.
Этика ИИ
Одним из способов нивелирования подобных опасений является разработка этики искусственного интеллекта — совокупности принципов ответственного ИИ, обозначающих подходы к разработке новых моделей и правила их функционирования. Эти принципы часто основаны на доктринах безопасности, прозрачности и управляемости. Сюда входит целый комплекс вопросов, к примеру: может ли ИИ иметь авторские права, как ограничить появление дипфейков и не остановить при этом развитие технологии, как обеспечить прозрачность разработки и использования ИИ-инструментов и, в глобальном масштабе, как укрепить доверие общества к ИИ-технологиям?