Может ли ChatGPT обмануть ученых
Инструменты искусственного интеллекта бросают вызов научным инструментам поиска истины
Использование инструментов искусственного интеллекта (ИИ) в науке стало предметом бурной полемики в академической прессе. За последний месяц в Nature были опубликованы статья «Как ChatGPT и другие инструменты искусственного интеллекта могут исказить систему научных публикаций» и собственный экспертный опрос «ИИ и наука: что думают 1600 исследователей».
Наряду с дежурным технооптимизмом в этих публикациях поставлены проблемы, ряд которых уже привели к организационным решениям в сфере научных публикаций. Самые авторитетные научные журналы ввели ограничения против использования инструментов искусственного интеллекта при подготовке статей: Science вообще перестал принимать статьи, написанные с помощью ИИ, а Nature требует от авторов заявлять об его использовании при написании текстов.
«На мой взгляд, основная опасность не в том, что широкое использование инструментов искусственного интеллекта увеличит число статей, представляющих собой наспех приготовленные поделки низкого качества. В конце концов, это неважно: одним графоманом больше, одним меньше… Будет гораздо хуже, если при рецензировании статей и заявок на гранты будут использоваться большие языковые модели. Вот в этом случае будет искоренена всякая оригинальность в науке, будет наказываться любое отклонение от мейнстрима, — считает академик РАН, декан факультета фундаментальной физико-химической инженерии МГУ Алексей Хохлов. — Эта опасность подробно обсуждается в одной из статей в Nature, но предлагаемые меры борьбы с ней как-то не впечатляют. В целом складывается ощущение, что научное сообщество пока еще только нащупывает оптимальные ответы на те вызовы, которые возникают при широком использовании инструментов ИИ в научных исследованиях».
Польза нейросетей
Не следует смешивать две темы, касающиеся использования нейросетей в науке. Первое — это использование инструментов искусственного интеллекта, созданных и обученных специально для решения какой-то научной проблемы. Здесь есть впечатляющие успехи и бурный рост числа публикаций. В части из них сравниваются разные компьютерные модели для решения задач — разной хитрости алгоритмы, разные модели компьютерного обучения и собственно нейронные сети. (Такие машины учатся на больших данных, результаты обучения записывают в форме связей между виртуальными «нейронами» — узлами сети и работают как «черный ящик» — как именно они решают задачи, неизвестно.) Тренд тут очевиден: благодаря прогрессу в вычислительных мощностях и оцифровке данных нейросетевые модели ИИ все чаще выигрывают и у формульных алгоритмов (решающих задачи согласно теории), у статистических методов, а также у других алгоритмов компьютерного обучения.
Самым впечатляющим примером успеха искусственного интеллекта в науке остается результат, достигнутый в 2020 году нейросетевой моделью AlphaFold (потомок DeepMind), которая с потрясающей точностью решает одну из главных проблем молекулярной биологии — предсказывает 3D-структуру белков на основе кодирующих их генов. Программа выложена с открытым кодом, ею уже активно пользуются ученые. Это вещь очень практичная: зная структуру белка, вы можете понимать функции генов и направленно проектировать лекарства, которые имеют мишенью данный белок. Кроме того, с помощью ИИ уже открыто несколько перспективных лекарственных формул, предсказаны неизвестные ранее пути химического синтеза и многое другое.
Но в последнее время обсуждение инструментов искусственного интеллекта все чаще связано с выпуском в общий доступ ChatGPT и других больших генеративных языковых моделей (которые учатся на множестве текстов и сами их генерируют). Чат-бот ChatGPT и другие языковые модели респонденты-ученые в исследовании Nature называли чаще всего, когда их просили указать наиболее полезный пример инструментов ИИ в науке (AlphaFold идет на втором месте).
Стадия громкого успеха и роста ожиданий, связанных с разговорными и картиночными чатами, уже прошла, и даже стало проявляться некоторое разочарование их возможностями. Но при этом большие языковые модели прочно вошли в нашу жизнь, иногда несильно ее меняя (многие используют их просто как более удобный поисковик и для составления черновиков для рефератов), иногда значительно (программисты говорят о большой экономии времени при написании фрагментов кода).
Ученые из опроса Nature (были разосланы анкеты 40 тыс. исследователей, опубликовавших свои работы в последние четыре месяца прошлого года) используют чаты для поиска идей, написания кода, а некоторые пробуют их возможности для дизайна новых белковых структур, улучшения прогнозов погоды и постановки медицинских диагнозов.
Как минимум сейчас уже очевидно, что ChatGPT помогает писать научные статьи на более внятном английском тем, для кого этот язык не родной. «Использование инструментов искусственного интеллекта может сделать сферу науки более справедливой», — говорит Тацуя Амано, эколог японского происхождения из Университета Квинсленда (Брисбен, Австралия). Он опросил более 900 коллег-экологов и показал, что начинающие ученые с неродным английским тратят в два раза больше времени собственно на текст статьи, чем носители языка, что несправедливо. На этом основании он пытался оспорить решение редакции Science о запрете использования инструментов искусственного интеллекта при написании статьей, предложив вместо этого заявлять о его использовании и прикладывать вариант рукописи без машинной редактуры.