С ужасом наблюдаю, как умные люди с каждым днем все больше доверяют нейросетям

Y MagazineHi-Tech

Опасные помощники?

Антон Черкасов-Нисман, яхтенный журналист

Минуло почти три года с тех пор, как я впервые попробовал использовать большие языковые модели (LLM) для выполнения несложной прикладной задачи по яхтенной теме. Сделал я это по просьбе приятеля и помню, что с большим удовлетворением доложил ему о результате: модель с треском провалилась, выдав абсолютно противоречащий реальности ответ. Садясь писать этот текст, я снова задал одному из самых умных ИИ-ассистентов похожий вопрос об интегрированных в композитный корпус фотоэлектрических панелях и получил дивный по красоте завуалированной лжи пассаж.

Нет, я не собираюсь ругать LLM. Сталкиваясь с ними ежедневно, я вижу, что они объективно поумнели, стали полезнее и — не побоюсь сказать — человечнее. Прекрасный инструмент в умелых руках. А в неумелых — опасный.

«Да ладно! — возразит читатель. — Чего там опасного?» Опасна ситуация, когда искусно вплетенные в ткань ответа галлюцинации модели встречаются с отсутствием или недостаточным напряжением критического мышления у пользователя. Я с ужасом наблюдаю, как довольно умные люди из моего окружения с каждым днем все больше доверяют нейросетям, в том числе в вопросах, связанных с выживанием. Например, когда спрашивают их про нюансы погружений в техническом дайвинге. В итоге происходит классическая

Авторизуйтесь, чтобы продолжить чтение. Это быстро и бесплатно.

Регистрируясь, я принимаю условия использования

Открыть в приложении