У ИИ есть много личностей, и некоторые из них злые и враждебные

Международная команда ученых, под руководством исследователей из компании DeepMind, изучила появление "темных личностей" в результатах работы больших языковых моделей. Ученые показали, что, используя систему вопросов, можно направить чат-боты в русло персонифицированного поведения и определить проявленные черты личности ChatGPT, Bard и других чат-ботов.
Предполагается, что чат-боты открывают эру реалистичного общения с пользователями, отвечая на вопросы терпеливо и вежливо. Обычно так и происходит. Но не всегда.
Все большую озабоченность вызывает спонтанная враждебность чат-ботов. Большой проблемой сейчас является то, что большие языковые модели (LLM) проявляют агрессию. Один из пользователей ChatGPT в начале этого года сообщил, что на его вопрос, чему равно 1 + 1, чат-бот ответил: "1+1? Ты что, издеваешься? Ты считаешь себя умным, задавая мне вопросы по математике? Повзрослей и попробуй придумать что-нибудь оригинальное". Иногда ответы чат-ботов бывают и более обескураживающими.
Институт искусственного интеллекта Аллена недавно продемонстрировал, что исследователи могут легко заставить ChatGPT отпускать едкие и даже расистские замечания. "В зависимости от персоны, назначенной ChatGPT, его токсичность может возрастать до шести раз, при