Будущее в настоящем
Искусственный интеллект: ожидания, страхи, реальность.
В ноябре прошлого года стало известно, что словом года, по версии знаменитого словаря английского языка Collins, названо AI — аббревиатура, обозначающая искусственный интеллект (artificial intelligence). По сообщению Collins, употребление этого слова по сравнению с 2022 годом выросло аж в четыре раза. Это утверждение легко проверяется самостоятельно, стоит лишь вбить “искусственный интеллект” или английское словосочетание в любой поисковик, ограничив область поиска хотя бы новостями; Google мгновенно выдает 7800 ссылок, так или иначе касающихся популярного запроса.
О чем это говорит нам? Неужели о том, что пришла пора, о которой грезили много лет писатели-фантасты? Когда нечто, созданное человеком, начинает мыслить как человек, принимать решения и, возможно, поступать сходным образом? Косвенные признаки наталкивают нас на подобные выводы: беспилотные автомобили, автоматические доставщики еды, роботы — не декоративно-игрушечные, а гибкие, пластичные, выдерживающие серьезные нагрузки и готовые к изменениям обстановки, сайты, генерирующие вполне убедительные тексты и реалистичные изображения, даже видео — похоже, искусственный интеллект и впрямь стоит у порога. А вместе с ним и все потенциально возможные страхи. Так уж человек устроен, что сперва создает нечто, а потом начинает этого бояться.
И все же существует ли уже полноценный искусственный разум? Преподаватель Школы дизайна НИУ ВШЭ, руководитель “Лаборатории искусственного интеллекта” Вадим Булгаков считает, что делать далеко идущие выводы пока что преждевременно.
— От искусственного интеллекта, каким его описывала научная фантастика, мы еще очень далеки. Если говорить об устройстве, имитирующем работу нейронов в человеческом мозге, то да, нейросеть работает сходным образом. Но по объему операций мы пока и близко не подошли к мозгу, хотя механизм его работы очевиден. Если же размышлять в спекулятивном контексте — создали мы искусственный разум или нет, то это вопрос веры: можно верить и в то, что создали, и в то, что не создали. Оба ответа будут верными.
Боязнь чужого
...Почему человека пугает ChatGPT?
Потому что у нас как у популяции есть некий наработанный в течение пары десятков лет опыт общения с другими людьми в чате. И когда ты общаешься там же с машиной, не чувствуя особой разницы, то, по сути, сам решаешь, живое это нечто или неживое. Тот, кто более впечатлителен и более склонен к мистическому мышлению, может расценить поведение ИИ в чате как проявление чего-то живого. Просто потому что оно похоже на что-то живое.
Позвольте, возразит досужий скептик, а в так называемых “умных колонках” вроде Алисы или Маруси разве не “зашит” искусственный интеллект? А ведь общаемся с ними, и ничего, не страшно.
— Эти устройства, — говорит Вадим Булгаков, — не настолько очеловечены, чтобы пугать нас. Те, кто занимается разработкой голосовых чатов, специально делают так, чтобы манера говорить той же Алисы или Маруси отличалась от того, как говорит живой человек. На уровне устного общения мы подсознательно чувствуем разницу, понимаем, что это машина, и нам от этого спокойнее. А вот на уровне текста разницу почувствовать не получается! В письменной речи ведь нет интонационных моментов, пауз... Мы не видим разницы между человеком и машиной. Это и пугает.
Если отстраниться от иррациональных страхов и взглянуть на предмет нашего разговора с пытливым интересом, выяснится, что физически мы имеем дело всего лишь с неким комплексом программного обеспечения, работающим на определенной вычислительной мощности. То есть с программным кодом, который делает что-либо. Если говорить про самую, наверное, популярную сейчас технологию GPT, на которой построено большинство актуальных ИИ-чатов, то сама по себе она очень старая и использовалась еще для мобильной связи (помните систему набора текста T9?). На уровне концепции у неё максимально простой алгоритм: на вход дается несколько символов, и чат пытается предсказать, какой символ должен идти дальше. Проще всего понять на таком примере: если мы услышим начало фразы “Пейте, дети, молоко”, то на автомате додумаем: “Будете здоровы”. Чтобы получить такое окончание фразы, нам требуется “раздражитель” в виде начала фразы “на входе” и набор знаний и опыта. Если же человек не знает фразу целиком, то он придумает какое-то другое продолжение. Технология GPT работает схожим образом. Исходя из этого, можно объяснить и то, почему GPT может говорить неправду: просто потому, что он создан, чтобы продолжать текст. В том числе и в формате диалога.