О чем говорит ChatGPT
ChatGPT не может действовать: он не умеет играть в игру «Покажи и назови»
Чат-бот ChatGPT не понимает того, о чем говорит. С этим утверждением согласны не только пользователи, но и создатели нейросети и, похоже, даже она сама. При общении с ChatGPT вы нередко будете получать ответы, предусмотрительно введенные разработчиками: «Я не понимаю того, о чем говорю», «Я всего лишь машина» или «Я не психолог». Но если на время отложить в сторону биологический шовинизм (представление о том, что только биологические системы могут обладать сознанием, интеллектом, пониманием и т. д.) и веру в собственную уникальность, то возникает вопрос: почему же ChatGPT ничего не понимает? Ведь говорит он столь же убедительно, как и человек.
Я оптимист в отношении искусственного интеллекта и поэтому не рассматриваю возражения наподобие «ИИ не умеет того-то и того-то». Через три, пять, десять лет он научится всему. Каждая публикация о ChatGPT указывает на ошибки в его работе: данные, которые бот предоставляет в ответ на запросы, часто слишком вольно отредактированы или вообще недостоверны, он бездумно обращается с числами и т. п.
Тем не менее Google и Microsoft наперегонки анонсируют внедрение поисковых систем, основанных на больших языковых моделях. Конечно, пока нейросети далеки от совершенства (ИИ Bard, созданный Google, на первый же заданный ему вопрос дал неправильный ответ), но скоро это изменится.
Да и тот факт, что ChatGPT часто выдает недостоверную информацию, еще не означает, что нейросеть не понимает написанного. Люди тоже часто ошибаются, при этом прекрасно осознавая, о чем идет речь. Пользователь относится к чат-боту как к взрослому и серьезному человеку. Человеку, который прочитал все на свете, ведь ИИ обучается на огромных массивах текстовых данных. Но не все разумные существа являются взрослыми, серьезными и всеведущими.
Представьте, например, чат-бот JokeGPT для генерации шуток по запросу. Люди бы в таком случае не считали фактические ошибки проблемой. Тем не менее чувством юмора JokeGPT мы бы тоже не наделили.
Критерии осмысленности речи, предъявляемые к человеку, ниже, чем те, которым уже сегодня удовлетворяет ChatGPT. Мы часто говорим несуразицу — отлично понимая, что говорим. А нейросеть не понимает. Видимо, дело в том, что для нас говорить и понимать свои слова означает гораздо больше, чем просто быть способным давать ответы, которые кажутся спрашивающему подходящими.
Покажи и назови
Люди учатся говорить не так, как ИИ. В самом простом описании обучение ребенка языку начинается с игры «Покажи предмет и назови его». Это не значит, что все обучение сводится к этой игре и что нет других вариантов. Просто такая игра — фундамент наших языковых компетенций. Для людей способность говорить о предмете жестко связана со способностью распознавать его. Два человека могут рассуждать об одной вещи именно потому, что оба в состоянии указать на нее: «Я говорю вот об этой штуке».
Что касается ИИ, то на сегодняшний день функции распознавания объекта и создания текста реализуются совершенно разными программами, обучаемыми на совершенно разном материале. В отношении нейронной сети, созданной для распознавания объектов, еще можно с натяжкой признать, что она называет светофор или автобус способом, отдаленно напоминающим человеческий, однако для ChatGPT это в корне неверно.
Да, люди не всегда говорят о вещах, которые можно показать, но возможность понимать разговор об этих предметах также зависит от способности играть в игру «Покажи и назови». Представьте, что вы столкнулись с человеком из другого времени, культуры, с другой планеты. Вы начинаете беседу на абстрактную тему — например, высказываете свои соображения об инфляции — и вдруг обнаруживаете, что ваш визави совершенно не понимает, о чем речь. И вам приходится с уровня экономической теории спускаться на уровень тыканья пальцем: «Это деньги, это товар. Я тебе — ты мне». ChatGPT похож на такого инопланетянина: не будучи в состоянии показать, где деньги, а где товар, он научился ловко имитировать разговоры на сложные темы.
Тем не менее есть одна вещь, на которую нейросеть могла бы указать: это тексты, на которых ее обучали. Когда человек делает некое утверждение, мы можем его спросить: «Почему ты так считаешь?» Способность объяснить, почему люди думают именно так, а не иначе, — важное условие осмысленного разговора. Ответом может быть: «Я сам это видел». Или, гораздо чаще: «Я прочитал об этом в интернете, послушал подкаст, мне рассказали». Большую часть информации мы сегодня получаем из онлайн-источников, принципиально доступных и ИИ. У ChatGPT тоже можно поинтересоваться: «Почему ты так говоришь?» — и ожидать указания на массив текстов и конкретные цитаты, на которых основан его ответ. Однако устроен этот чат так, чтобы избегать подобных разговоров.
Если бы ChatGPT выдавал на запрос не «авторский» текст, а набор цитат с указанием источников, такой ответ был бы более надежным, но менее впечатляющим, поскольку понижал бы статус бота в глазах пользователей. В нейросети, разговаривающей чужими фразами, легко распознать языковую модель. Ни у кого бы не возникло иллюзии, что машина что-то понимает.
Наконец, говорение, как и письмо, — это действие. Причем не только физическое, предполагающее движение голосовых связок или руки с карандашом, но и интеллектуальное. Представьте себе телеигру, где участник отвечает на вопрос, а ведущий уточняет: «Это ваш ответ?» Произнося «да», игрок не просто издает звуки — он подтверждает сказанное, берет на себя ответственность, принимает правила игры. Точно так же, слушая или читая что-либо, мы считаем автора текста ответственным за предоставляемую информацию — в противном случае это пустая болтовня. ChatGPT создавался не для болтовни. Это мощный и полезный инструмент для обработки текстовой информации, но всего лишь инструмент. Если и можно в данном случае говорить об ответственности, то это ответственность человека за использование вещи.
Когда я говорю, я действую, наделяя свои слова определенным значением. Например, заведу разговор о дворниках, а на вопрос, каких дворников имею в виду — тех, которые убирают улицы, или те, которые чистят стекла автомобиля, — отвечу, что подразумевал вторые. Далее я могу выдвигать любые утверждения, в том числе абсурдные, — скажем, заявить, что дворники-стеклоочистители убирают улицы. Да, это звучит странно, но ведь смысл моей речи зависит только от меня, от того, что я вкладываю в сказанное. ChatGPT не может придать своим словам никакого значения: за его комментарием не стоят никакие понятия. Для ИИ важны только знаки, буквы, слова и то, в каком окружении они появляются.
Подведем итог. ChatGPT не может действовать: он не способен играть в игру «Покажи и назови», которая предполагает действие; не несет ответственности за то, что говорит; не соотносит свои слова и понятия.
Научиться действовать
Но разве ИИ в принципе способен действовать? Я полагаю, что да. Правда, научиться этому сложнее, чем освоить игру в го, составлять тексты на абстрактные темы и распознавать светофоры. Представьте себе разнообразие действий человека: проявлять знаки внимания, игнорировать сообщения в мессенджере, замереть в одной позе для фотографии, пытаться повторить трюк… Требовать всего этого от нейросети неразумно, но можно представить себе более простые варианты — например, у животных. Звери делают что-то, потому что им нужно обеспечивать свое существование в этом мире: добывать пропитание, размножаться, оберегать потомство.
Сравнение с животными дает намек на то, каким будет способный к действию ИИ. Это может быть так называемый воплощенный ИИ, локализованный в рамках какого-то аппарата, которому требуется взаимодействовать со средой для обеспечения своего существования, то есть имеющий цели, достигаемые при помощи действий.
Такому примитивному описанию может удовлетворить и робот-пылесос, однако он в очень слабой степени взаимодействует со средой. У него есть «представление» о движениях, которые нужно совершить, чтобы объехать помещение, и о местоположении зарядного устройства. Это уровень очень простых организмов, без способности к пониманию и действию. Более сложные нейросети будут соответствовать более сложным организмам.
ИИ для дружбы и любви
Но почему я все время сравниваю искусственный интеллект с человеком? Не может ли ИИ пойти по совершенно другому пути развития и получить способности другого типа?
Во-первых, мы склонны мерить все человеческой меркой, а потому не можем не видеть в боте существо, схожее с нами. Сравнивать нейросеть с людьми полезно уже для того, чтобы не впадать в эту ошибку. Неопытные пользователи порой пишут в строке поисковика — гораздо более простой машины, чем ChatGPT, — запросы типа «Дорогой Яндекс! Скажи, пожалуйста, могут ли страусы летать?» Таким пользователям важно понять, почему с поисковиком не нужно общаться как с человеком.
Это же нужно усвоить и относительно ChatGPT. Отношение к нему как к взрослому, умному, понимающему человеку напрашивается само собой. Неслучайно люди обращаются к нейросети за психологической поддержкой или за советом, что подарить другу на день рождения, — это глубоко личные вопросы, которые часто сопряжены с доверием, привязанностью к собеседнику. Однако следует избегать антропоморфизации ИИ. Видеть в боте разумного психолога или советчика ничуть не лучше, чем считать подсказчиком поисковый сервис.
Во-вторых, мы сами создаем нейросети и можем захотеть, чтобы они обладали человеческими чертами. Одно из направлений развития ИИ — разработка помощников и компаньонов, причем не только для сугубо практических целей. Почему мы не можем создать такой искусственный интеллект, с которым можно было бы подружиться или который хотелось бы полюбить? Для этих целей знание о том, чего не хватает ИИ по сравнению с человеком, будет очень полезным.
Пять вопросов к пользователю ChatGPT
Но я слишком засмотрелся в будущее. Вернемся к ChatGPT. Это, безусловно, очень полезный инструмент, хотя еще не вполне понятный. Создатели не снабдили его инструкцией по технике безопасности, и такую работу, похоже, придется проделать нам самим. Что должен знать и понимать тот, кто намеревается использовать чат-бот для серьезных целей? Авторы статьи о ChatGPT в журнале Nature предложили список вопросов, на которые, по их мнению, следует ответить каждому ученому, взаимодействующему с данной нейросетью.
Оригинальные вопросы касаются только научной работы, но их можно адаптировать и для более общих целей. Если вы хотите прибегать к помощи ChatGPT или подобных нейросетей, спросите себя:
— какие компетенции в вашей сфере могут и не могут быть реализованы ChatGPT?
— какие задачи могут быть возложены на ChatGPT?
— какие юридические и этические последствия может повлечь за собой использование ChatGPT?
— каким стандартам должен отвечать ChatGPT?
— как можно верифицировать результаты работы ChatGPT?
Последние два вопроса кажутся мне наиболее важными. Новый чат-бот во многих отношениях несовершенен, и его результаты часто не соответствуют стандартам, принятым в определенных областях. Например, ему нельзя доверить обзор научной литературы, поскольку он искажает результаты. В то же время для составления гороскопов такая нейросеть будет весьма удобной.
Тексты, выдаваемые ChatGPT, требуют перепроверки. Прежде чем использовать бот в работе, нужно понять, какие методы верификации результатов вам доступны и не потребует ли эта перепроверка больше средств и времени, чем удастся сэкономить при использовании ИИ.
*Кандидат философских наук, доцент философского факультета МГУ, научный сотрудник Московского центра исследования сознания, автор канала @phil_besedin
ZUMA\TASS
Хочешь стать одним из более 100 000 пользователей, кто регулярно использует kiozk для получения новых знаний?
Не упусти главного с нашим telegram-каналом: https://kiozk.ru/s/voyrl