Искусственный интеллект понимать не может
Можно ли превратить вычисления в понимание? Нет. Искусственный интеллект не обладает способностью генерировать внутри себя высокие абстракции и не может достигнуть уровня сложности, на котором из чисел возникали бы смыслы
В одном из мартовских номеров журнала «Эксперт» вышла статья под названием «Хакнуть человечество» — разговор с Сергеем Кареловым, экс-топ-менеджером международных ИT-компаний IBM, CGI, Cray, об искусственном интеллекте.
Интервью привлекло внимание громким и провокационным заголовком, заинтриговало перечислением невероятных возможностей и всевозможных опасностей «нового витка технологического прогресса», запутало нечеткостью основных терминов и формулировок, развлекло историями, находящимися на грани реальности и фантастики, приоткрыло секреты новой парадигмы противостояния мировых держав, и наконец, основательно измотав интервьюера и интервьюируемого, отпустило не просто озадаченного, а уже порядком напуганного читателя самостоятельно искать ответ на вопрос, победили нас уже роботы или все-таки еще нет.
Не соглашаясь с тезисом, что «человечество просто бредит прорывом в будущее, которое сулят технологии, скрывающиеся под единым брендом “искусственный интеллект”», но признавая актуальность темы, заметим, что человечество, скорее, поставлено перед фактом неизбежности такого прорыва. Оно замерло в ожидании, и мыслящая его часть пытается разобраться в том, что же, собственно, такое искусственный интеллект, что это за новая реальность, к которой нас так агрессивно принуждают стремиться, какие она открывает перспективы, каковы связанные с ней угрозы и ради какой высшей цели предлагается приветствовать столь кардинальные перемены в привычном нам мире.
Ключевой историей, на которой, собственно, и базировались предложенные читателю выводы о перспективах ИИ, стал рассказ о Debater — проекте IBM, целью которого было доказать, что понимание можно превратить в вычисления.
Человек и компьютер соревновались в дебатах на тему, которая заранее была им неизвестна. После пятнадцатиминутной подготовки каждый из них произнес свою речь. Затем было дано дополнительное время, и оппоненты выступили еще раз, опровергая аргументы противника и отстаивая собственные. Телевизионная аудитория выслушала эти выступления и проголосовала. Машина произнесла блестящую речь, составленную на основе анализа четырех миллиардов документов и подкрепленную цифрами и графиками. Но наибольшее число голосов получил человек — чемпион мира по дебатам: он опередил компьютер на семнадцать процентов голосов.
По словам Сергея Карелова, «то, что сделал Debater, — очень серьезный прорыв», потому что «у машины не было алгоритма понимания, но она поняла вопрос». Абсолютно корректно разделяя такие понятия, как «интеллект» (просто вычисления), «разум», «сознание», Карелов достаточно вольно, по нашему мнению, обращается со словом «понимание».
Вот этому ключевому моменту и будет посвящен наш разговор. Мы попробуем определить, справедливы ли громкие утверждения о том, что машина «поняла вопрос», «поняла аргументы человека» и что создателям Debater «удалось превратить понимание в вычисления».
Понимание и вычисления
Поставленная задача — разобраться в способности искусственного интеллекта понимать — требует, чтобы мы имели представление о том, что такое понимание и что такое искусственный интеллект. В психолингвистике понимание трактуется преимущественно как результат смыслового восприятия сообщения. Смыслового восприятия.
Что касается искусственного интеллекта, то, поскольку выбрать из множества его официальных определений единственно правильное не представляется возможным, последуем примеру Сергея Карелова и остановимся на определении, которое следует из самой первой задачи, поставленной перед разработчиками ИИ: «программа, которая по своим интеллектуальным способностям подобна человеку». (Ведь, откровенно говоря, в большей степени нас беспокоит именно это — возможность создания искусственного человека и «вытеснение» им в перспективе из этого мира человека обычного. Среди апокалиптических сценариев порабощение человека роботами занимает далеко не последнее место.)
Соответственно, можно просто и понятно сформулировать основной вопрос, связанный с ИИ: возможно ли создание компьютера, эквивалентного человеческому мозгу? И если мы вспомним, что компьютер — это вычислительная машина, предназначение которой заключается в выполнении арифметических действий: складывании и умножении целых чисел — и что именно эти действия являются самыми главными из всех реализуемых в нем процессов, тогда мы можем переформулировать основной вопрос следующим образом: возможно ли имитировать все процессы, происходящие в человеческом мозге, путем осуществления различных операций с целыми числами? Возможно ли сведение мышления вообще и понимания в частности к вычислительной задаче? То есть возможно ли осуществить «смысловое восприятие сообщения» посредством вычислений?
Интеллектуальные функции роботов моделируются на основе формальных математических моделей. В настоящее время «рассуждения» робота моделируются одной из разновидностей формальной логики, а система восприятия — нейронной сетью.
Система управления роботом, как бы сложно ни была она организована, с теоретической точки зрения — всего лишь некий алгоритм. Исходя из самых общих свойств формальных систем и алгоритмов, можно очертить границы (пределы), которых может достичь робот. Логические системы, используемые роботами, состоят из формального языка, правил вывода и аксиом. Границы возможностей логических формальных систем сформулированы в теореме Геделя, суть которой заключается в том, что невозможно исчерпывающе и конструктивно описать с помощью аксиом сколько-нибудь богатую модель мира. Это значит, что в мире, который даже теоретически не поддается конструктивному описанию, даже теоретически невозможно принятие решений на основе логического вывода.
У человека есть механизмы мышления, принципиально отличающиеся от детерминированного комбинаторнологического мышления. В мышлении человек свободен в своем выборе, и это не просто «случайный» выбор, а «непонимаемый» сегодняшней наукой человеческий — нелогический — выбор.
Пока сделаны только первые шаги к пониманию нелогического мышления человека. Один из оригинальных подходов — «образные схемы» Джонсона. Марк Джонсон сформулировал гипотезу, что базовые конструкции естественного языка отражают сенсорно-моторный опыт и понимаются через этот опыт. По его мнению, существует универсальный (для всех языков мира) пространственно-временной фрейм, который лежит в основе понимания каждого текста. Он ввел понятие образной схемы и предложил 27 образных схем. Джонсон считает, что весь наш жизненный опыт и понимание абстрактных построений соотносятся с образными схемами, а понимание речи и текста на них опирается. Они понимаются человеком непосредственно, в них воплощено наше ощущение тела и мира. Они не требуют понятийных объяснений.
Впечатляющий на первый взгляд рассказ о проекте Debater напоминает историю о роботизированном автомобиле «Стэнли», рассказанную в книге Дугласа Хофштадтера «Я — странная петля». Профессор Индианского университета, руководитель Центра по изучению творческих возможностей человеческого мозга, Хофштадтер — автор книг «Гедель, Эшер, Бах: эта бесконечная гирлянда» и «Глаз разума» (в соавторстве с Деном Деннетом) — один из самых разумных людей, занимающихся проблемами мышления и сознания. Человек, который не просто играет словами, а вкладывает в них смысл. «Стэнли», разработанный в начале 2000-х в лаборатории искусственного интеллекта в Стэнфорде, самостоятельно пересек пустыню Невада, полагаясь только на свои лазерные дальномеры, телевизионную камеру и GPS-навигатор. В интервью, которое состоялось после триумфального пересечения пустыни, один восторженный предприниматель, глава отдела исследований и разработок Intel (компания разработала программное обеспечение для бортового компьютера «Стэнли»), недвусмысленно заявил: «Deep Blue (шахматная машина компании IBM, которая выиграла у Гарри Каспарова в 1997 году. — Авт.) представляла собой всего лишь обрабатывающую мощность. Она не умела думать. А “Стэнли” умеет!»
Хофштадтер называет это утверждение неприкрытым и безыскусным обманом. Несмотря на то что умение «Стэнли» без аварий путешествовать по пустыне в самом деле поразительно, он сравнивает движение этого автомобиля с безошибочным движением муравья по следу из феромонов. Подобная самостоятельность роботизированного автомобиля — качество, очень далекое от мышления.
В музее «Эксплораториум» в СанФранциско в свое время была отгороженная площадка, где посетители могли наблюдать за красным световым пятном, танцующим на полу и на стенах. Когда кто-либо пытался дотронуться до этого пятна, оно отскакивало и уносилось прочь. Красное пятнышко танцевало так, что, казалось, дразнило гоняющихся за ним людей: иногда совсем останавливалось, будто насмехаясь, позволяя к себе приблизиться, но затем в самый последний момент ускользало. Световым пятном никто не управлял, там действовал самый простой механизм обратной связи. Но очень многим казалось, что это пятнышко — личность, которая своими действиями реализует и злое желание дразнить, и даже чувство юмора!
Наличие у системы обратной связи, даже самой простой, оказывает на людей сильное воздействие и вынуждает перепрыгивать с одного уровня описания этой системы на другой: с уровня, которому не присущи цели (там предметы двигаются под воздействием внешних физических «сил»), на целеориентированный уровень, на котором движущей силой является «желание». Эффективность же системы, которая обладает сложной и скрытой обратной связью, производит на нас такое впечатление, что мы начинаем говорить и даже мыслить с позиции антропоморфизма: «машина поняла вопрос».
Если провести аналогию между вычислительной мощностью Debater и мозгом человека (что, собственно, вынуждает нас сделать сама проблема, которую мы обсуждаем), то мы увидим, что основная (но скрытая) деятельность машины, заключающаяся в бесконечных арифметических действиях с числами, равноценна скрытой мыслительной активности мозга низкого уровня (термин из книги «Я — странная петля»), при которой неисчислимые нейротрансмиттеры как сумасшедшие прыгают через синаптические щели.
Но деятельность нашего разума этим не ограничивается, интуитивно мы это понимаем. И пока специалисты в области ИT утверждают, что «вычисления, производимые нейронной сетью, не имеют алгоритма», Хофштадтер предлагает остроумную модель функционирования нашего сознания. Эта модель не идеальна, она не дает ответов на все вопросы, связанные с разумом и мышлением, но сегодня это, пожалуй, лучшее, что есть.
Многоуровневый мозг
Согласно Хофштадтеру, мозг следует рассматривать как многоуровневую систему: самый нижний уровень — микроскопический уровень физических компонентов мозга (аминокислоты, нейротрансмиттеры, синапсы, дендриты, нейроны и т. д.), самый высокий — уровень неуловимых ментальных свойств, то есть уровень абстрактных макроскопических феноменов (концепции, идеи, стереотипы, аналогии, воспоминания, заблуждения, сравнения, симпатия, сопереживание).
Человек воспринимает все, что происходит вокруг него и с ним, не на уровне элементарных частиц, а на уровне абстрактных высокоуровневых концепций. Мы оставляем процессы микроуровня за пределами нашего внимания, несмотря на то что на самом деле именно они являются двигателями реальной жизни, взаимодействие физических компонентов мозга становится для нас просто размытым фоном, и мы фокусируемся на абсолютно невидимых абстрактных высокоуровневых объектах — абстрактных паттернах (в книге Хофштадтера — «символах»), которые представляют собой символическую интерпретацию всех входящих сигналов, получаемых из окружающего мира нашей нервной системой.
Как это работает? Рассмотрим такой пример: мириады микроскопических обонятельных реакций в ноздрях прибывшего в зал ожидания аэропорта путешественника могут привести (в зависимости от его прошлого опыта, а также от того, голоден он или нет) к активированию двух приятных паттернов, закрепленных в его мозге, «сладкий» и «запах», или паттернов «Шоколадница» и «лишний вес», паттернов «реклама», «подсознательный», «хитрый» и «трюк», или возможен запуск всех упомянутых паттернов в той или иной последовательности. Каждый из этих примеров активирующихся паттернов иллюстрирует акт восприятия в противоположность простому приему гигантского числа микроскопических сигналов, поступающих из некоторого источника.
Это упрощенный механизм восприятия, в реальности процесс происходит одновременно по двум направлениям. Сигналы не распространяются исключительно в одну сторону — из внешней среды к внутренним паттернам, на самом деле определенные внутренние паттерны, осуществляя прием внешних данных, одновременно генерируют собственные внутренние сигналы. То есть имеет место взаимодействие между сигналами, принятыми из внешней среды, и сигналами, генерированными внутри системы, а результатом этого взаимодействия является замыкание цепи, соединяющей входящие сигналы с их символической интерпретацией. Наличие нескольких способов поступления сигналов в мозг делает восприятие по-настоящему комплексным явлением. Таким образом, мы можем сказать: процесс восприятия заключается в том, что стремительный поток сигналов, обрушивающихся на мозг по двум направлениям, инициирует запуск небольшой части внутренних паттернов, или, другими словами, активирует некоторое количество абстрактных концепций высокого уровня.
Мы игнорируем процессы микроуровня, и именно абстрактные концепции составляют основу нашего мировосприятия. Вот на этом (и только на этом) высоком уровне абстрактных паттернов и появляются смыслы. И именно в этой способности воспринимать (выделять самое главное, интерпретировать и формировать таким образом смыслы), а не просто принимать информацию, и заключается отличие человеческого мозга от любой другой системы, обладающей обратной связью. Для лучшего понимания воспользуемся такой аналогией: когда мы смотрим телевизор, мы видим мириады пикселей, мелькающих в строго синхронизированном порядке. Мы наблюдаем точки, которые «кодируют» те или иные события, происходящие на экране, и мы с легкостью этот код расшифровываем. Точки превращаются для нас в целостное изображение, мы интерпретируем, и изображение приобретает высокоуровневый смысл: Джеймс Бонд побеждает своих врагов. А что «увидит», к примеру, видеокамера (система с обратной связью), если направить ее на телевизионный экран? Пиксели. Только пиксели в сыром виде, без интерпретации, а значит, без значений и смыслов.
Что же нужно для того, чтобы система осуществляла не просто прием информации, а ее восприятие? Системе необходим богатый, постоянно и, главное, самопроизвольно расширяющийся репертуар абстрактных паттернов. А машина, независимо от ее сложности, не обладает способностью беспредельно генерировать и накапливать абстрактные категории (которые служат основой последующей символической интерпретации), в ее вычислительной мощности не развиваются паттерны, и поэтому машина, как верно заметил Сергей Карелов, ничего не воспринимает. Ни одна стадия сложения и умножения целых чисел (ни одна стадия того, чем занят компьютер) не включает процесс генерации паттернов, и, следовательно, способность к «смысловому восприятию сообщения», то есть способность понимать, у Debater отсутствует.
Еще раз. Система обратной связи Debater не считает сказанное его оппонентом верным или неверным, потому что в отсутствие высокоуровневых паттернов машина не может интерпретировать и понимать — и, соответственно, не понимает! Машина вычисляет, а понимает человек, она только перебирает варианты по написанному человеком алгоритму. Без человека она просто калькулятор. Очень мощный, поражающий способностью к имитации, достигнутой благодаря невероятной скорости вычислений, но все же калькулятор, действующий строго в рамках заданной программы.
Карелов допускает еще одну лингвистическую небрежность, утверждая, что машина «шутит, приводит контраргументы и издевается над человеком, показывая, насколько тот далек от истины», то есть приписывая машине способность испытывать желания и в соответствии с ними ставить себе цели, задачи и стремиться к их выполнению.
Целеполагание и вычисления
Следуя той же логике, что и в случае с «пониманием»попробуем теперь разобраться, можно ли свести целеполагание к вычислениям. Мозг человека, как уже было сказано, непрерывно принимает информацию двух типов: сигналы, поступающие из внешней среды, и сигналы, сгенерированные внутри системы. Если с сигналами, которые поступают из внешней среды, все, в общем, понятно (органы чувств человека непрерывно передают мозгу информацию об окружающей обстановке, иначе не выжить), то вопрос о том, что происходит внутри системы, требует более подробного рассмотрения.
Принято разделять «разум» и «эмоции» как независимые и постоянно соперничающие за влияние на человека и его поступки движущие силы. Однако в реальности все устроено иначе. Мозг существует и функционирует не автономно, а в непрерывном взаимодействии со всеми системами нашего организма. Эмоции (радость, грусть, обида, страх, отвращение и т. д.) — это высокоуровневые концепции, которые возникают в нем как реакция на сигналы, посылаемые гормональной системой. С самого первого дня нашей жизни системы нейронов анализируют, запоминают и накапливают информацию о связях событие — эмоция, и при повторении той или иной ситуации они на основе прежнего опыта предсказывают, какую эмоцию вы испытаете — приятную или негативную. В случае негативного прогноза мозг принимает решение избежать такой ситуации, а если есть перспектива повторения положительной эмоции, мозг к ней стремится. То есть эмоция — это посылаемый в мозг сигнал, на основе которого принимается решение о том, что делать дальше.
Таким образом, на уровне взаимодействия мозга и гормональной системы у человека формируются желания, стремления и цели. Вы можете мне возразить, что если с примитивными целями, такими как утоление голода и жажды, в принципе все понятно, то такие стремления как, например, познать истину или творить добро, никак не укладываются в эту физиологичную концепцию. Укладываются. Гормоны регулируют абсолютно все, они посылают в мозг отклик в виде эмоции абсолютно на любую ситуацию; что бы вы ни сделали, вы тут же получаете награду в виде положительной эмоции или наказание в виде отрицательной. Причем положительные эмоции человек испытывает как от достижения самых простых целей, которые находятся в основании пирамиды Маслоу, так и от удовлетворения самых сложных потребностей, расположенных вблизи ее вершины — познавательных, эстетических, а также потребностей в самореализации. Если однажды человек испытал положительные эмоции от того, что добился в чем-то успеха, мозг будет стремиться вновь испытать эти зафиксированные ранее эмоции. Так рождаются желания, так появляются цели.
Очевидно, что ответственные за желания и стремления эмоции (и, разумеется, гормоны) у машины отсутствуют, поэтому ничего захотеть она не может и, соответственно, ее вычислительная мощность поставить ей цель не способна. Точно так же компьютер не может принимать решения (несмотря на то, что об этом много говорит Сергей Карелов). Просто потому, что принятие решения предполагает наличие исходной цели. Он может перебрать возможные варианты и выбрать оптимальный исходя из цели, заложенной в программе, но говорить, что машина приняла решение, означает подменять понятия, машина лишь инструмент, цель ставит человек, а следовательно, и решение принимает человек.
Система обратной связи, локализованная внутри вычислительной машины «Стэнли», провела его по длинной пыльной дороге, усеянной выбоинами и гигантскими кактусами. Понимал ли «Стэнли» свою цель, осознавал ли свои действия, имел ли четко сформированное отношение к другим транспортным средствам? Понимают ли свои задачи другие системы с обратной связью, например термометр или механизм теплового наведения реактивного снаряда? Разумеется нет.
Понимал ли Debater цель своего участия в дискуссии, осознавал ли, что «шутит, приводит контраргументы и издевается над человеком, показывая, насколько тот далек от истины»? Или просто его вычислительные мощности совершали арифметические действия настолько быстро, что имитация мыслительного процесса человека выглядела практически совершенной? Думаем, ответ очевиден.
Итак, чего же недостает на сегодняшний день искусственному интеллекту для того, чтобы он мог по своим возможностям приблизиться к человеческому разуму? Во-первых, он не обладает способностью самопроизвольно и беспредельно генерировать внутри себя высокие абстракции, то есть не может достигнуть уровня сложности, на котором из чисел возникали бы смыслы. Во-вторых, искусственному интеллекту недостает неразрывно связанной с ним живой системы со всеми присущими живым системам химическими и биохимическими процессами, которые обусловливают появление желаний, целей, идей и т. д. — всего того, что делает человека человеком.
Новое знание
Теперь можно поговорить о проблеме «нового знания», то есть о возможности генерирования нового знания искусственным интеллектом. В статье в качестве примера приводится возможность машины быстрее и качественнее человека диагностировать рак. Компьютер за короткое время анализирует огромное количество снимков и выносит верный диагноз. Является ли это «новым знанием»? Да, компьютер, следуя заданному алгоритму, выполнил поставленную человеком задачу и выдал результат — «новое знание». Может ли машина создавать «новое»? Да, без сомнения. Может ли создавать «иное» (выходящее за рамки алгоритма, предоставленного человеком)? Нет, не может. Машина не может поставить себе цель и задачу, не заложенную в нее разработчиком. А если ее запрограммировать на придумывание новой цели? Ей понадобится алгоритм постановки целей, созданный человеком, но тогда ее действия уже не будут относиться к категории «создание иного».
Предстоит пройти еще очень длинный путь, прежде чем мы приблизимся к созданию искусственного аналога человеческого разума. На сегодня у нас есть искусственный интеллект (только часть разума, его низкоуровневый компонент) — вычислительная мощность, инструмент для решения информационных задач. О том, что роботы могут взбунтоваться против человека, можно не беспокоиться: поскольку они не обладают эмоциями (не испытывают обиды, чувства несправедливости, жажды мести или жажды власти), у них не возникнет желания объявить нам войну, они не смогут поставить себе цель победить человечество. Разумеется, ИИ может представлять определенную опасность, но не сам по себе, а как мощное оружие в руках человека. Подводя итоги, человечество могут хакнуть не роботы, человечество могут хакнуть те, кто пишет алгоритмы для роботов, кто задает им цели, задачи, указывает пути и методы реализации.
*Доктор физико-математических наук, профессор, директор Научно-исследовательского физико-технического института (НИФТИ) Нижегородского государственного университета (ННГУ) имени Н. И. Лобачевского.
**Кандидат технических наук, начальник Научно-организационного отдела НИФТИ ННГУ имени Н. И. Лобачевского.
Фото: Игорь Шапошников, Christian Charisius/DPA/TASS
Хочешь стать одним из более 100 000 пользователей, кто регулярно использует kiozk для получения новых знаний?
Не упусти главного с нашим telegram-каналом: https://kiozk.ru/s/voyrl