ChatGPT так хорошо пишет научные рефераты, что эксперты не отличают их от написанных человеком. Чем это грозит
Ученые Чикагского университета показали, что чатбот ChatGPT, разработанный компанией OpenAI, способен настолько хорошо генерировать рефераты, посвященные медицинским научным темам, что эксперты не всегда могут отличить его работу от работы человека. При слепом рецензировании каждый третий реферат, написанный ChatGPT, эксперты приписывают человеку.
Если человек не может определить, что перед ним — работа другого человека или ИИ, с этим справится другой ИИ. Пока это работает
Может ли новый и чрезвычайно популярный чат-бот ChatGPT убедительно создавать научные рефераты, которые заставляют экспертов думать, что перед ними реальные исследования ученых?
Ответить на этот вопрос попытались ученые Чикагского университета и Северо-Западного университета.
Оказалось, что ChatGPT действительно может написать реферат, который очень трудно отличить от работы человека. Таковы результаты эксперимента.
Экспертам раздали по 25 рефератов. Их предупредили, что среди рефератов есть работы реальных ученых, а есть сгенерированные ChatGPT. Экспертам предложили поставить оценки рефератам по двух бальной системе: человек или машина.