Почему ИИ-боты выдают так много неточностей?

ТехИнсайдерHi-Tech

Почему нейросети стали ошибаться и отвечать неправильно? Объясняет эксперт

Нейросети склонны ошибаться, как и все мы. Но не будем их сильно осуждать — они ведь только учатся. Александр Кобозев объяснил, почему ИИ-боты выдают так много неточностей.

Юлия Мискевич

0b6e77c70548b8ae6b049992f7376f8e_ce_2000x1333x0x0.jpg
Freepik

Рост количества фейковых ответов чат-ботов во многом связан с изменением принципов их работы и усилением внешнего давления. Об этом рассказал директор направления Data Fusion Лиги Цифровой Экономики Александр Кобозев в беседе с «ТехИнсайдером».

Александр Кобозев

директор направления Data Fusion Лиги Цифровой Экономики

За последний год крупные языковые модели перешли от осторожной тактики «лучше промолчать» к стремлению отвечать на любой запрос.

Еще в 2024 году ИИ часто отказывался от комментариев на острые темы, но уже летом 2025-го, по данным аудита NewsGuard, боты отвечали на все тестовые запросы — и в 35% случаев ошибались. Для сравнения: год назад доля ошибок составляла 18%.

«Проблема обострилась после внедрения автоматического веб-поиска без должной фильтрации ресурсов. Даже если в ответе есть ссылки на источники, это не всегда означает правдивость информации: нейросети могут брать информацию на ненадежных сайтах, не проверяя факты. Помимо этого, некоторые СМИ специально создают материалы, рассчитанные на алгоритмы поиска, чтобы именно их использовали в качестве источника информации», — отметил специалист.

b53d1f3a9a470fd72d8d03bfe3638ae8.jpg

Авторизуйтесь, чтобы продолжить чтение. Это быстро и бесплатно.

Регистрируясь, я принимаю условия использования

Открыть в приложении