ChatGPT не может действовать: он не умеет играть в игру «Покажи и назови»

ЭкспертHi-Tech

О чем говорит ChatGPT

ChatGPT не может действовать: он не умеет играть в игру «Покажи и назови»

Артем Беседин*

Чат-бот ChatGPT не понимает того, о чем говорит. С этим утверждением согласны не только пользователи, но и создатели нейросети и, похоже, даже она сама. При общении с ChatGPT вы нередко будете получать ответы, предусмотрительно введенные разработчиками: «Я не понимаю того, о чем говорю», «Я всего лишь машина» или «Я не психолог». Но если на время отложить в сторону биологический шовинизм (представление о том, что только биологические системы могут обладать сознанием, интеллектом, пониманием и т. д.) и веру в собственную уникальность, то возникает вопрос: почему же ChatGPT ничего не понимает? Ведь говорит он столь же убедительно, как и человек.

Я оптимист в отношении искусственного интеллекта и поэтому не рассматриваю возражения наподобие «ИИ не умеет того-то и того-то». Через три, пять, десять лет он научится всему. Каждая публикация о ChatGPT указывает на ошибки в его работе: данные, которые бот предоставляет в ответ на запросы, часто слишком вольно отредактированы или вообще недостоверны, он бездумно обращается с числами и т. п.

Тем не менее Google и Microsoft наперегонки анонсируют внедрение поисковых систем, основанных на больших языковых моделях. Конечно, пока нейросети далеки от совершенства (ИИ Bard, созданный Google, на первый же заданный ему вопрос дал неправильный ответ), но скоро это изменится.

Да и тот факт, что ChatGPT часто выдает недостоверную информацию, еще не означает, что нейросеть не понимает написанного. Люди тоже часто ошибаются, при этом прекрасно осознавая, о чем идет речь. Пользователь относится к чат-боту как к взрослому и серьезному человеку. Человеку, который прочитал все на свете, ведь ИИ обучается на огромных массивах текстовых данных. Но не все разумные существа являются взрослыми, серьезными и всеведущими.

Представьте, например, чат-бот JokeGPT для генерации шуток по запросу. Люди бы в таком случае не считали фактические ошибки проблемой. Тем не менее чувством юмора JokeGPT мы бы тоже не наделили.

Критерии осмысленности речи, предъявляемые к человеку, ниже, чем те, которым уже сегодня удовлетворяет ChatGPT. Мы часто говорим несуразицу — отлично понимая, что говорим. А нейросеть не понимает. Видимо, дело в том, что для нас говорить и понимать свои слова означает гораздо больше, чем просто быть способным давать ответы, которые кажутся спрашивающему подходящими.

Покажи и назови

Люди учатся говорить не так, как ИИ. В самом простом описании обучение ребенка языку начинается с игры «Покажи предмет и назови его». Это не значит, что все обучение сводится к этой игре и что нет других вариантов. Просто такая игра — фундамент наших языковых компетенций. Для людей способность говорить о предмете жестко связана со способностью распознавать его. Два человека могут рассуждать об одной вещи именно потому, что оба в состоянии указать на нее: «Я говорю вот об этой штуке».

Что касается ИИ, то на сегодняшний день функции распознавания объекта и создания текста реализуются совершенно разными программами, обучаемыми на совершенно разном материале. В отношении нейронной сети, созданной для распознавания объектов, еще можно с натяжкой признать, что она называет светофор или автобус способом, отдаленно напоминающим человеческий, однако для ChatGPT это в корне неверно.

Да, люди не всегда говорят о вещах, которые можно показать, но возможность понимать разговор об этих предметах также зависит от способности играть в игру «Покажи и назови». Представьте, что вы столкнулись с человеком из другого времени, культуры, с другой планеты. Вы начинаете беседу на абстрактную тему — например, высказываете свои соображения об инфляции — и вдруг обнаруживаете, что ваш визави совершенно не понимает, о чем речь. И вам приходится с уровня экономической теории спускаться на уровень тыканья пальцем: «Это деньги, это товар. Я тебе — ты мне». ChatGPT похож на такого инопланетянина: не будучи в состоянии показать, где деньги, а где товар, он научился ловко имитировать разговоры на сложные темы.

Тем не менее есть одна вещь, на которую нейросеть могла бы указать: это тексты, на которых ее обучали. Когда человек делает некое утверждение, мы можем его спросить: «Почему ты так считаешь?» Способность объяснить, почему люди думают именно так, а не иначе, — важное условие осмысленного разговора. Ответом может быть: «Я сам это видел». Или, гораздо чаще: «Я прочитал об этом в интернете, послушал подкаст, мне рассказали». Большую часть информации мы сегодня получаем из онлайн-источников, принципиально доступных и ИИ. У ChatGPT тоже можно поинтересоваться: «Почему ты так говоришь?» — и ожидать указания на массив текстов и конкретные цитаты, на которых основан его ответ. Однако устроен этот чат так, чтобы избегать подобных разговоров.

Если бы ChatGPT выдавал на запрос не «авторский» текст, а набор цитат с указанием источников, такой ответ был бы более надежным, но менее впечатляющим, поскольку понижал бы статус бота в глазах пользователей. В нейросети, разговаривающей чужими фразами, легко распознать языковую модель. Ни у кого бы не возникло иллюзии, что машина что-то понимает.

Наконец, говорение, как и письмо, — это действие. Причем не только физическое, предполагающее движение голосовых связок или руки с карандашом, но и интеллектуальное. Представьте себе телеигру, где участник отвечает на вопрос, а ведущий уточняет: «Это ваш ответ?» Произнося «да», игрок не просто издает звуки — он подтверждает сказанное, берет на себя ответственность, принимает правила игры. Точно так же, слушая или читая что-либо, мы считаем автора текста ответственным за предоставляемую информацию — в противном случае это пустая болтовня. ChatGPT создавался не для болтовни. Это мощный и полезный инструмент для обработки текстовой информации, но всего лишь инструмент. Если и можно в данном случае говорить об ответственности, то это ответственность человека за использование вещи.

Когда я говорю, я действую, наделяя свои слова определенным значением. Например, заведу разговор о дворниках, а на вопрос, каких дворников имею в виду — тех, которые убирают улицы, или те, которые чистят стекла автомобиля, — отвечу, что подразумевал вторые. Далее я могу выдвигать любые утверждения, в том числе абсурдные, — скажем, заявить, что дворники-стеклоочистители убирают улицы. Да, это звучит странно, но ведь смысл моей речи зависит только от меня, от того, что я вкладываю в сказанное. ChatGPT не может придать своим словам никакого значения: за его комментарием не стоят никакие понятия. Для ИИ важны только знаки, буквы, слова и то, в каком окружении они появляются.

Подведем итог. ChatGPT не может действовать: он не способен играть в игру «Покажи и назови», которая предполагает действие; не несет ответственности за то, что говорит; не соотносит свои слова и понятия.

Научиться действовать

Но разве ИИ в принципе способен действовать? Я полагаю, что да. Правда, научиться этому сложнее, чем освоить игру в го, составлять тексты на абстрактные темы и распознавать светофоры. Представьте себе разнообразие действий человека: проявлять знаки внимания, игнорировать сообщения в мессенджере, замереть в одной позе для фотографии, пытаться повторить трюк… Требовать всего этого от нейросети неразумно, но можно представить себе более простые варианты — например, у животных. Звери делают что-то, потому что им нужно обеспечивать свое существование в этом мире: добывать пропитание, размножаться, оберегать потомство.

Сравнение с животными дает намек на то, каким будет способный к действию ИИ. Это может быть так называемый воплощенный ИИ, локализованный в рамках какого-то аппарата, которому требуется взаимодействовать со средой для обеспечения своего существования, то есть имеющий цели, достигаемые при помощи действий.

Такому примитивному описанию может удовлетворить и робот-пылесос, однако он в очень слабой степени взаимодействует со средой. У него есть «представление» о движениях, которые нужно совершить, чтобы объехать помещение, и о местоположении зарядного устройства. Это уровень очень простых организмов, без способности к пониманию и действию. Более сложные нейросети будут соответствовать более сложным организмам.

ИИ для дружбы и любви

Но почему я все время сравниваю искусственный интеллект с человеком? Не может ли ИИ пойти по совершенно другому пути развития и получить способности другого типа?

Во-первых, мы склонны мерить все человеческой меркой, а потому не можем не видеть в боте существо, схожее с нами. Сравнивать нейросеть с людьми полезно уже для того, чтобы не впадать в эту ошибку. Неопытные пользователи порой пишут в строке поисковика — гораздо более простой машины, чем ChatGPT, — запросы типа «Дорогой Яндекс! Скажи, пожалуйста, могут ли страусы летать?» Таким пользователям важно понять, почему с поисковиком не нужно общаться как с человеком.

Это же нужно усвоить и относительно ChatGPT. Отношение к нему как к взрослому, умному, понимающему человеку напрашивается само собой. Неслучайно люди обращаются к нейросети за психологической поддержкой или за советом, что подарить другу на день рождения, — это глубоко личные вопросы, которые часто сопряжены с доверием, привязанностью к собеседнику. Однако следует избегать антропоморфизации ИИ. Видеть в боте разумного психолога или советчика ничуть не лучше, чем считать подсказчиком поисковый сервис.

Во-вторых, мы сами создаем нейросети и можем захотеть, чтобы они обладали человеческими чертами. Одно из направлений развития ИИ — разработка помощников и компаньонов, причем не только для сугубо практических целей. Почему мы не можем создать такой искусственный интеллект, с которым можно было бы подружиться или который хотелось бы полюбить? Для этих целей знание о том, чего не хватает ИИ по сравнению с человеком, будет очень полезным.

Пять вопросов к пользователю ChatGPT

Но я слишком засмотрелся в будущее. Вернемся к ChatGPT. Это, безусловно, очень полезный инструмент, хотя еще не вполне понятный. Создатели не снабдили его инструкцией по технике безопасности, и такую работу, похоже, придется проделать нам самим. Что должен знать и понимать тот, кто намеревается использовать чат-бот для серьезных целей? Авторы статьи о ChatGPT в журнале Nature предложили список вопросов, на которые, по их мнению, следует ответить каждому ученому, взаимодействующему с данной нейросетью.

Оригинальные вопросы касаются только научной работы, но их можно адаптировать и для более общих целей. Если вы хотите прибегать к помощи ChatGPT или подобных нейросетей, спросите себя:

— какие компетенции в вашей сфере могут и не могут быть реализованы ChatGPT?

— какие задачи могут быть возложены на ChatGPT?

— какие юридические и этические последствия может повлечь за собой использование ChatGPT?

— каким стандартам должен отвечать ChatGPT?

— как можно верифицировать результаты работы ChatGPT?

Последние два вопроса кажутся мне наиболее важными. Новый чат-бот во многих отношениях несовершенен, и его результаты часто не соответствуют стандартам, принятым в определенных областях. Например, ему нельзя доверить обзор научной литературы, поскольку он искажает результаты. В то же время для составления гороскопов такая нейросеть будет весьма удобной.

Тексты, выдаваемые ChatGPT, требуют перепроверки. Прежде чем использовать бот в работе, нужно понять, какие методы верификации результатов вам доступны и не потребует ли эта перепроверка больше средств и времени, чем удастся сэкономить при использовании ИИ.

*Кандидат философских наук, доцент философского факультета МГУ, научный сотрудник Московского центра исследования сознания, автор канала @phil_besedin

ZUMA\TASS

Хочешь стать одним из более 100 000 пользователей, кто регулярно использует kiozk для получения новых знаний?
Не упусти главного с нашим telegram-каналом: https://kiozk.ru/s/voyrl

Авторизуйтесь, чтобы продолжить чтение. Это быстро и бесплатно.

Регистрируясь, я принимаю условия использования

Рекомендуемые статьи

Лучше дефолт, чем жить по средствам Лучше дефолт, чем жить по средствам

США оказались на пороге технического дефолта, но это не страшно

Эксперт
Как лоботомия разрушила жизнь сестры Джона Кеннеди и сделала ее позором семьи Как лоботомия разрушила жизнь сестры Джона Кеннеди и сделала ее позором семьи

Почему сестру Джона Кеннеди скрыли от публики?

VOICE
Убить вождя Убить вождя

Покушение на Ленина полно вопросов

Дилетант
Что делать, если в отношениях устраивает все, кроме секса: 4 шага к решению проблемы Что делать, если в отношениях устраивает все, кроме секса: 4 шага к решению проблемы

Как достичь гармонии в отношениях — как в спальне, так и за ее пределами?

Psychologies
Против агрессивного большинства Против агрессивного большинства

В 1989 году в числе депутатов оказался академик Андрей Сахаров

Дилетант
Перезагрузка iPhone: несколько способов на все случаи жизни Перезагрузка iPhone: несколько способов на все случаи жизни

Что делать, если ваш iPhone намертво завис?

CHIP
Откровенная безвкусица: такую верхнюю одежду на весну не будет носить ни одна модная девушка Откровенная безвкусица: такую верхнюю одежду на весну не будет носить ни одна модная девушка

Проведем фэшн-ревизию и проверим твой шкаф на наличие опасных элементов

VOICE
8 доказанных наукой способов жить вместе долго и счастливо 8 доказанных наукой способов жить вместе долго и счастливо

Как сохранить любовь и радость в браке?

Лиза
Цветотип: как правильно подобрать цвета, а каких стоит избегать Цветотип: как правильно подобрать цвета, а каких стоит избегать

Как создать образ, который максимально подчеркнет особенности внешности?

РБК
Приключения русского дизеля Приключения русского дизеля

Ограничительные меры против российской нефти не приведут к катастрофе

Эксперт
Кто помешал Германии создать атомную бомбу Кто помешал Германии создать атомную бомбу

Отрывок из книги «Отряд отморозков» Сэма Кина

СНОБ
Едем в Геленджик! Едем в Геленджик!

Отправляемся на экскурсию по Геленджику с опытным гидом

Лиза
10 вопросов детскому стоматологу 10 вопросов детскому стоматологу

Частые вопросы про детские зубы, которые волнуют мамочек

Лиза
Весна патриарха Весна патриарха

Как Карл Теодор Дрейер отрекся от датского кино, чтобы стать его главной фигурой

Weekend
5 причин, по которым женщинам не удается достичь оргазма 5 причин, по которым женщинам не удается достичь оргазма

Женский оргазм устроен сложнее мужского — и влияют на него самые разные факторы

Psychologies
Как понять, что у тебя нехватка белка: самые яркие признаки, на которые не все обращают внимание Как понять, что у тебя нехватка белка: самые яркие признаки, на которые не все обращают внимание

Основные признаки, которые помогут заподозрить у себя дефицит белка

VOICE
Как океаны избавляются от миллионов тонн пластикового мусора: планета против человека Как океаны избавляются от миллионов тонн пластикового мусора: планета против человека

Что именно происходит с пластиком, когда он попадает в океан?

ТехИнсайдер
Как упростить процесс сепарации для детей: 3 совета родителям Как упростить процесс сепарации для детей: 3 совета родителям

Почему ребенку так важно обрести самость и что для этого могут сделать родители?

Psychologies
7 самых ожидаемых книжных новинок 2023 года 7 самых ожидаемых книжных новинок 2023 года

Семь отличных книг, на которые стоит обратить внимание в этом году

СНОБ
6 фильмов и сериалов о взаимоотношениях психотерапевтов и их пациентов 6 фильмов и сериалов о взаимоотношениях психотерапевтов и их пациентов

Сериалы и фильмы, которые позволят заглянуть в кабинет психотерапевта

Psychologies
Максим Аверин: «Без театра не могу, но и кино обожаю» Максим Аверин: «Без театра не могу, но и кино обожаю»

Для меня театр — не геолокация, а способ путешествия в этом мире

Коллекция. Караван историй
4 модели брюк, которые противопоказано носить женщинам после 40 4 модели брюк, которые противопоказано носить женщинам после 40

Какие модели брюк стоит обходить стороной женщинам после 40

VOICE
Любовь зла: как не позволить мошенникам разрушить вашу жизнь Любовь зла: как не позволить мошенникам разрушить вашу жизнь

Как онлайн-мошенники обманывают жертв с помощью приемов пикапа

Forbes
Деменция — эпидемия XXI века. Что это за болезнь и возможно ли ее предотвратить Деменция — эпидемия XXI века. Что это за болезнь и возможно ли ее предотвратить

Рассказываем, что удалось выяснить ученым и можно ли остановить деменцию

Правила жизни
Основатель города львов: как джентльмен Томас Раффлз создал Сингапур, но не смог обрести счастье Основатель города львов: как джентльмен Томас Раффлз создал Сингапур, но не смог обрести счастье

Раффлз сумел организовать в Сингапуре особую систему общественного устройства

Вокруг света
Сонный паралич: болезнь, знак ведьмы или вариант нормы Сонный паралич: болезнь, знак ведьмы или вариант нормы

Сонный паралич: страшное, но достаточно безобидное явление

ТехИнсайдер
Алло, алло! История создания и эволюции первого телефона Алло, алло! История создания и эволюции первого телефона

Телефонная связь со времен «голубиной почты» проделала долгий и необычный путь

Цифровой океан
Как выгодно инвестировать в искусство — рассказывает руководитель аукционного дома ARTinvestment.Ru Егор Молчанов Как выгодно инвестировать в искусство — рассказывает руководитель аукционного дома ARTinvestment.Ru Егор Молчанов

Насколько сейчас выгодно инвестировать в арт-активы?

СНОБ
Закат Хаттусы Закат Хаттусы

Почему могущественные хетты покинули свою столицу

N+1
Астрономы наконец узнали, почему два роя астероидов, следующих за Юпитером, так сильно отличаются друг от друга Астрономы наконец узнали, почему два роя астероидов, следующих за Юпитером, так сильно отличаются друг от друга

Юпитер не одинок на своем орбитальном пути вокруг Солнца

ТехИнсайдер
Открыть в приложении