ChatGPT: а что в сухом остатке?
То, что мы называем сегодня искусственным интеллектом, пока не более чем новый формат поисковой системы в интернете

Восторги по поводу того, как условный GPT (здесь и далее по тексту под GPT понимается любая нейросеть: ChatGPT, YandexGPT, GigaChat, DeepSeek и пр.) за пару секунд дает ответы на вопросы, на поиск которых раньше требовались дни и недели, звучат повсеместно. На волне такого информационного цунами хочется узнать: а как можно это использовать с выгодой для решения приземленных прикладных задач конкретного бизнеса с учетом его специфики? Сколько и каких сотрудников может заменить доступный сегодня компаниям чат-бот на основе GPT и будет ли эффективной подобная ротация?
Примем как данность, что нейронные сети, лежащие в основе любой большой языковой модели, — это математический аппарат, «заточенный» на поиск похожих объектов: картинок, текстов, голосов. В GPT на входе подают определенное количество информации (образно говоря, весь интернет), и на ее основе учат быстро находить ответ на вопрос, который задает пользователь. Получается, что перед нами своеобразная надстройка над поиском а-ля «Яндекс», только вместо поисковой строки у пользователя промпт, а вместо результатов не список страниц, а систематизированные сведения. То есть по большому счету нам облегчили жизнь: не надо тратить время на изучение выданных поисковиком результатов — если правильно сформулировать промпт, нейросеть все сделает сама.
Посмотрим на конкретных примерах, где это может быть полезно и выгодно.
Юридический отдел
Польза пока не выявлена. GPT обучен не на материалах «Консультанта» и «Гаранта», а на статьях в интернете, в том числе написанных очень давно. За это время изменилась законодательная база, да и авторы статей не всегда публиковали достоверную информацию. Даже на четко сформулированный вопрос (скажем, «обязан ли банк предоставлять расчетные документы клиенту?») GPT отвечает, не пытаясь уточнить нюансы, значимые де-юре и де-факто: например, касается поставленный вопрос физических или юридических лиц. При этом нейросеть может ссылаться на нормативные документы, которые на момент запроса уже утратили силу (например, в части банковского законодательства стабильно идут ссылки на недействующее положение Банка России от 24.04.2008 № 318-П о кассовых операциях с наличными). И что же из этого следует? А например, то, что, доверясь чат-боту, можно, как автор книг по стратегическому менеджменту Марк Поллард, застрять в аэропорту, потому что ChatGPT убедительно разъяснил путешественнику, что гражданам Австралии для посещения Чили не требуется виза. А таможенник говорит: «Требуется!»
Хуже того, нейросеть способна выдумывать. В 2023 году в New York Times была опубликована статья о том, как пассажир авиакомпании Avianca Роберто Мата получил при перелете травму тележкой и обратился в Федеральный суд Манхэттена с иском о возмещении вреда, а нанятый им адвокат Стивен Шварц предоставил суду ссылки на несуществующие прецеденты, сообщенные ему GPT. В итоге иск о взыскании вреда вылился в судебное заседание, посвященное санкциям в отношении юриста с 30-летним стажем за «юридическое представление, изобилующее поддельными судебными решениями, поддельными цитатами и поддельными внутренними ссылками».
Разработчики такие проколы GPT называют «галлюцинациями» математических моделей, а люди — «подставой». Но откуда берутся подобные «галлюцинации»? Одно из простых объяснений заключается в том, что цель GPT — дать ответ, похожий на человеческий: таков ее основной алгоритм. Для этого она анализирует последовательность слов в переданном контексте, заданном вопросе (промпте) и, составляя ответ, пытается предсказать следующее слово. Затем цикл повторяется снова и снова, пока не получится законченный текст. Ну а поскольку технология предсказания слов определяется вероятностями, в итоге получается анекдот про динозавра, шанс встретить которого на улице равен 50%: может, встречу, а может, нет.