ChatGPT не может действовать: он не умеет играть в игру «Покажи и назови»

ЭкспертHi-Tech

О чем говорит ChatGPT

ChatGPT не может действовать: он не умеет играть в игру «Покажи и назови»

Артем Беседин*

Чат-бот ChatGPT не понимает того, о чем говорит. С этим утверждением согласны не только пользователи, но и создатели нейросети и, похоже, даже она сама. При общении с ChatGPT вы нередко будете получать ответы, предусмотрительно введенные разработчиками: «Я не понимаю того, о чем говорю», «Я всего лишь машина» или «Я не психолог». Но если на время отложить в сторону биологический шовинизм (представление о том, что только биологические системы могут обладать сознанием, интеллектом, пониманием и т. д.) и веру в собственную уникальность, то возникает вопрос: почему же ChatGPT ничего не понимает? Ведь говорит он столь же убедительно, как и человек.

Я оптимист в отношении искусственного интеллекта и поэтому не рассматриваю возражения наподобие «ИИ не умеет того-то и того-то». Через три, пять, десять лет он научится всему. Каждая публикация о ChatGPT указывает на ошибки в его работе: данные, которые бот предоставляет в ответ на запросы, часто слишком вольно отредактированы или вообще недостоверны, он бездумно обращается с числами и т. п.

Тем не менее Google и Microsoft наперегонки анонсируют внедрение поисковых систем, основанных на больших языковых моделях. Конечно, пока нейросети далеки от совершенства (ИИ Bard, созданный Google, на первый же заданный ему вопрос дал неправильный ответ), но скоро это изменится.

Да и тот факт, что ChatGPT часто выдает недостоверную информацию, еще не означает, что нейросеть не понимает написанного. Люди тоже часто ошибаются, при этом прекрасно осознавая, о чем идет речь. Пользователь относится к чат-боту как к взрослому и серьезному человеку. Человеку, который прочитал все на свете, ведь ИИ обучается на огромных массивах текстовых данных. Но не все разумные существа являются взрослыми, серьезными и всеведущими.

Представьте, например, чат-бот JokeGPT для генерации шуток по запросу. Люди бы в таком случае не считали фактические ошибки проблемой. Тем не менее чувством юмора JokeGPT мы бы тоже не наделили.

Критерии осмысленности речи, предъявляемые к человеку, ниже, чем те, которым уже сегодня удовлетворяет ChatGPT. Мы часто говорим несуразицу — отлично понимая, что говорим. А нейросеть не понимает. Видимо, дело в том, что для нас говорить и понимать свои слова означает гораздо больше, чем просто быть способным давать ответы, которые кажутся спрашивающему подходящими.

Покажи и назови

Люди учатся говорить не так, как ИИ. В самом простом описании обучение ребенка языку начинается с игры «Покажи предмет и назови его». Это не значит, что все обучение сводится к этой игре и что нет других вариантов. Просто такая игра — фундамент наших языковых компетенций. Для людей способность говорить о предмете жестко связана со способностью распознавать его. Два человека могут рассуждать об одной вещи именно потому, что оба в состоянии указать на нее: «Я говорю вот об этой штуке».

Что касается ИИ, то на сегодняшний день функции распознавания объекта и создания текста реализуются совершенно разными программами, обучаемыми на совершенно разном материале. В отношении нейронной сети, созданной для распознавания объектов, еще можно с натяжкой признать, что она называет светофор или автобус способом, отдаленно напоминающим человеческий, однако для ChatGPT это в корне неверно.

Да, люди не всегда говорят о вещах, которые можно показать, но возможность понимать разговор об этих предметах также зависит от способности играть в игру «Покажи и назови». Представьте, что вы столкнулись с человеком из другого времени, культуры, с другой планеты. Вы начинаете беседу на абстрактную тему — например, высказываете свои соображения об инфляции — и вдруг обнаруживаете, что ваш визави совершенно не понимает, о чем речь. И вам приходится с уровня экономической теории спускаться на уровень тыканья пальцем: «Это деньги, это товар. Я тебе — ты мне». ChatGPT похож на такого инопланетянина: не будучи в состоянии показать, где деньги, а где товар, он научился ловко имитировать разговоры на сложные темы.

Тем не менее есть одна вещь, на которую нейросеть могла бы указать: это тексты, на которых ее обучали. Когда человек делает некое утверждение, мы можем его спросить: «Почему ты так считаешь?» Способность объяснить, почему люди думают именно так, а не иначе, — важное условие осмысленного разговора. Ответом может быть: «Я сам это видел». Или, гораздо чаще: «Я прочитал об этом в интернете, послушал подкаст, мне рассказали». Большую часть информации мы сегодня получаем из онлайн-источников, принципиально доступных и ИИ. У ChatGPT тоже можно поинтересоваться: «Почему ты так говоришь?» — и ожидать указания на массив текстов и конкретные цитаты, на которых основан его ответ. Однако устроен этот чат так, чтобы избегать подобных разговоров.

Если бы ChatGPT выдавал на запрос не «авторский» текст, а набор цитат с указанием источников, такой ответ был бы более надежным, но менее впечатляющим, поскольку понижал бы статус бота в глазах пользователей. В нейросети, разговаривающей чужими фразами, легко распознать языковую модель. Ни у кого бы не возникло иллюзии, что машина что-то понимает.

Наконец, говорение, как и письмо, — это действие. Причем не только физическое, предполагающее движение голосовых связок или руки с карандашом, но и интеллектуальное. Представьте себе телеигру, где участник отвечает на вопрос, а ведущий уточняет: «Это ваш ответ?» Произнося «да», игрок не просто издает звуки — он подтверждает сказанное, берет на себя ответственность, принимает правила игры. Точно так же, слушая или читая что-либо, мы считаем автора текста ответственным за предоставляемую информацию — в противном случае это пустая болтовня. ChatGPT создавался не для болтовни. Это мощный и полезный инструмент для обработки текстовой информации, но всего лишь инструмент. Если и можно в данном случае говорить об ответственности, то это ответственность человека за использование вещи.

Когда я говорю, я действую, наделяя свои слова определенным значением. Например, заведу разговор о дворниках, а на вопрос, каких дворников имею в виду — тех, которые убирают улицы, или те, которые чистят стекла автомобиля, — отвечу, что подразумевал вторые. Далее я могу выдвигать любые утверждения, в том числе абсурдные, — скажем, заявить, что дворники-стеклоочистители убирают улицы. Да, это звучит странно, но ведь смысл моей речи зависит только от меня, от того, что я вкладываю в сказанное. ChatGPT не может придать своим словам никакого значения: за его комментарием не стоят никакие понятия. Для ИИ важны только знаки, буквы, слова и то, в каком окружении они появляются.

Подведем итог. ChatGPT не может действовать: он не способен играть в игру «Покажи и назови», которая предполагает действие; не несет ответственности за то, что говорит; не соотносит свои слова и понятия.

Научиться действовать

Но разве ИИ в принципе способен действовать? Я полагаю, что да. Правда, научиться этому сложнее, чем освоить игру в го, составлять тексты на абстрактные темы и распознавать светофоры. Представьте себе разнообразие действий человека: проявлять знаки внимания, игнорировать сообщения в мессенджере, замереть в одной позе для фотографии, пытаться повторить трюк… Требовать всего этого от нейросети неразумно, но можно представить себе более простые варианты — например, у животных. Звери делают что-то, потому что им нужно обеспечивать свое существование в этом мире: добывать пропитание, размножаться, оберегать потомство.

Сравнение с животными дает намек на то, каким будет способный к действию ИИ. Это может быть так называемый воплощенный ИИ, локализованный в рамках какого-то аппарата, которому требуется взаимодействовать со средой для обеспечения своего существования, то есть имеющий цели, достигаемые при помощи действий.

Такому примитивному описанию может удовлетворить и робот-пылесос, однако он в очень слабой степени взаимодействует со средой. У него есть «представление» о движениях, которые нужно совершить, чтобы объехать помещение, и о местоположении зарядного устройства. Это уровень очень простых организмов, без способности к пониманию и действию. Более сложные нейросети будут соответствовать более сложным организмам.

ИИ для дружбы и любви

Но почему я все время сравниваю искусственный интеллект с человеком? Не может ли ИИ пойти по совершенно другому пути развития и получить способности другого типа?

Во-первых, мы склонны мерить все человеческой меркой, а потому не можем не видеть в боте существо, схожее с нами. Сравнивать нейросеть с людьми полезно уже для того, чтобы не впадать в эту ошибку. Неопытные пользователи порой пишут в строке поисковика — гораздо более простой машины, чем ChatGPT, — запросы типа «Дорогой Яндекс! Скажи, пожалуйста, могут ли страусы летать?» Таким пользователям важно понять, почему с поисковиком не нужно общаться как с человеком.

Это же нужно усвоить и относительно ChatGPT. Отношение к нему как к взрослому, умному, понимающему человеку напрашивается само собой. Неслучайно люди обращаются к нейросети за психологической поддержкой или за советом, что подарить другу на день рождения, — это глубоко личные вопросы, которые часто сопряжены с доверием, привязанностью к собеседнику. Однако следует избегать антропоморфизации ИИ. Видеть в боте разумного психолога или советчика ничуть не лучше, чем считать подсказчиком поисковый сервис.

Во-вторых, мы сами создаем нейросети и можем захотеть, чтобы они обладали человеческими чертами. Одно из направлений развития ИИ — разработка помощников и компаньонов, причем не только для сугубо практических целей. Почему мы не можем создать такой искусственный интеллект, с которым можно было бы подружиться или который хотелось бы полюбить? Для этих целей знание о том, чего не хватает ИИ по сравнению с человеком, будет очень полезным.

Пять вопросов к пользователю ChatGPT

Но я слишком засмотрелся в будущее. Вернемся к ChatGPT. Это, безусловно, очень полезный инструмент, хотя еще не вполне понятный. Создатели не снабдили его инструкцией по технике безопасности, и такую работу, похоже, придется проделать нам самим. Что должен знать и понимать тот, кто намеревается использовать чат-бот для серьезных целей? Авторы статьи о ChatGPT в журнале Nature предложили список вопросов, на которые, по их мнению, следует ответить каждому ученому, взаимодействующему с данной нейросетью.

Оригинальные вопросы касаются только научной работы, но их можно адаптировать и для более общих целей. Если вы хотите прибегать к помощи ChatGPT или подобных нейросетей, спросите себя:

— какие компетенции в вашей сфере могут и не могут быть реализованы ChatGPT?

— какие задачи могут быть возложены на ChatGPT?

— какие юридические и этические последствия может повлечь за собой использование ChatGPT?

— каким стандартам должен отвечать ChatGPT?

— как можно верифицировать результаты работы ChatGPT?

Последние два вопроса кажутся мне наиболее важными. Новый чат-бот во многих отношениях несовершенен, и его результаты часто не соответствуют стандартам, принятым в определенных областях. Например, ему нельзя доверить обзор научной литературы, поскольку он искажает результаты. В то же время для составления гороскопов такая нейросеть будет весьма удобной.

Тексты, выдаваемые ChatGPT, требуют перепроверки. Прежде чем использовать бот в работе, нужно понять, какие методы верификации результатов вам доступны и не потребует ли эта перепроверка больше средств и времени, чем удастся сэкономить при использовании ИИ.

*Кандидат философских наук, доцент философского факультета МГУ, научный сотрудник Московского центра исследования сознания, автор канала @phil_besedin

ZUMA\TASS

Хочешь стать одним из более 100 000 пользователей, кто регулярно использует kiozk для получения новых знаний?
Не упусти главного с нашим telegram-каналом: https://kiozk.ru/s/voyrl

Авторизуйтесь, чтобы продолжить чтение. Это быстро и бесплатно.

Регистрируясь, я принимаю условия использования

Рекомендуемые статьи

Готовится ли Тайвань к войне? Готовится ли Тайвань к войне?

Китаевед Андрей Дагаев — о том, как устроено тайваньское общество

Эксперт
Этот рэпер убил свою соседку, а потом съел ее легкое. История музыкального каннибала Этот рэпер убил свою соседку, а потом съел ее легкое. История музыкального каннибала

Рэпер с никнеймом Big Lurch мог бы стать одним из самых громких имен в хип-хопе

ТехИнсайдер
Лучше дефолт, чем жить по средствам Лучше дефолт, чем жить по средствам

США оказались на пороге технического дефолта, но это не страшно

Эксперт
Команда Команда

Ушедший год для молодых артистов выдался более чем насыщенным

OK!
Ставки эпохи возрождения Ставки эпохи возрождения

Что ожидает рынки акций после рекордных провалов

Деньги
Почему мы продуктивно работаем в кофейнях: 4 совета работникам на удаленке Почему мы продуктивно работаем в кофейнях: 4 совета работникам на удаленке

Неужели наша работа в кофейнях продуктивна только из-за бодрящего кофе?

Psychologies
Как продлить срок жизни смартфона: подборка неочевидных советов Как продлить срок жизни смартфона: подборка неочевидных советов

Что советую делать эксперты, чтобы твой телефон прослужил как можно дольше

Maxim
4 важных детали в 5 серии «Одни из нас», которые ты, скорее всего, пропустил 4 важных детали в 5 серии «Одни из нас», которые ты, скорее всего, пропустил

Такие мелочи в сериале «Одни из нас» мог заметить только фанат оригинальной игры

Maxim
Соломон Перель — еврей, представившийся немцем, чтобы не умереть. Потом он был на допросе сына Сталина Соломон Перель — еврей, представившийся немцем, чтобы не умереть. Потом он был на допросе сына Сталина

История Соломона Переля: цель оправдывает средства — или нет?

ТехИнсайдер
Огненные горы: посмотрите на 10 самых высоких вулканов в России Огненные горы: посмотрите на 10 самых высоких вулканов в России

Некоторые из этих вулканов России считаются потухшими и спящими

Вокруг света
Место для мечты Место для мечты

Самый ценный подарок, который вы можете себе сделать — взять и осуществить мечту

Men Today
Главный драматург XXI века. Фильмы Мартина Макдоны — от худшего к лучшему Главный драматург XXI века. Фильмы Мартина Макдоны — от худшего к лучшему

Разбираем картины Мартина Макдоны

Правила жизни
Алгоритм создает для НАСА невероятные Алгоритм создает для НАСА невероятные

НАСА создает более легкие и прочные детали для будущих космических кораблей

ТехИнсайдер
В гуще псевдособытий В гуще псевдособытий

Как мокьюментари превращается в мокьюреалити

Weekend
Железные аргументы ISUZU D-Max Железные аргументы ISUZU D-Max

ISUZU D-Max — комфортный пикап, рассчитанный на тяжелые грузы

4x4 Club
35 вопросов, которые помогут вам лучше узнать близкого человека 35 вопросов, которые помогут вам лучше узнать близкого человека

Часто нам кажется, что о самых близких нам людях мы знаем буквально все

Psychologies
«Полимат» «Полимат»

История универсальных людей от Леонардо да Винчи до Сьюзен Сонтаг

N+1
«Налог на яйца»: как в СССР пытались поднять рождаемость и что из этого вышло «Налог на яйца»: как в СССР пытались поднять рождаемость и что из этого вышло

В СССР существовал налог на бездетность

VOICE
Леонид Гайдай Леонид Гайдай

Вспоминаем интересные факты из биографии гениального режиссера

Лиза
«Жёсткий откат на десять лет назад» или «пятилетка за два года»: три истории от айтишников, уехавших работать в Берлин «Жёсткий откат на десять лет назад» или «пятилетка за два года»: три истории от айтишников, уехавших работать в Берлин

О легализации и бюрократии, а также поиске жилья, быте и ИТ-сфере в Германии

VC.RU
Смогут ли собаки выжить в мире без людей Смогут ли собаки выжить в мире без людей

Кажется, что собаки будут совершенно беспомощны в мире без людей

ТехИнсайдер
Как Джарвис Кокер и группа Pulp стали символами брит-попа Как Джарвис Кокер и группа Pulp стали символами брит-попа

Он выпустил лучший брит-поп-альбом по версии Pitchfork

СНОБ
Как запрещено одеваться невысоким девушкам: учимся на ошибках звезд Как запрещено одеваться невысоким девушкам: учимся на ошибках звезд

Подборка трендов, которые не стоит повторять за любимыми звездными дюймовочками!

VOICE
Почему гостинг так ранит и как его пережить: техника самопомощи Почему гостинг так ранит и как его пережить: техника самопомощи

Гостинг — резкое прекращение общения без объяснения причин

Psychologies
Минус миллион. Первый тест-драйв китайской Toyota Camry Минус миллион. Первый тест-драйв китайской Toyota Camry

Тестируем седан Camry из КНР

РБК
«Скинамаринк»: как дешевый хоррор о детских страхах покорил интернет «Скинамаринк»: как дешевый хоррор о детских страхах покорил интернет

«Скинамаринк» — почему мы все так боимся темноты?

Forbes
«Сын», которого не спас Хью Джекман: почему не удалась драма режиссера Зеллера «Сын», которого не спас Хью Джекман: почему не удалась драма режиссера Зеллера

Почему Зеллеру не удалось повторить успех предыдущего фильма

Forbes
Старые новые вызовы городов будущего Старые новые вызовы городов будущего

Тренды, риски и возможности современной урбанизации

Позитивные изменения
Крипта под процент: как и сколько можно заработать на криптолендинге Крипта под процент: как и сколько можно заработать на криптолендинге

Какие сервисы предлагают вложить криптовалюты под процент?

Forbes
Модификация жизни Модификация жизни

Как сохранить здоровье, не обращаясь к врачу

N+1
Открыть в приложении