Как стартап Writer решает большие проблемы генеративного ИИ
Такие компании, как Accenture, Uber и Hilton, поручают стартапу Writer автоматизацию всех своих монотонных текстовых задач. Почему? Writer обещает клиентам, что их языковые модели не будут фантазировать и выдавать ложную информацию
В 2013 году Мэй Хабиб листала GitHub и наткнулась на работы IТ-менеджера из Дубая Васима Альшиха, который использовал техники машинного обучения (на тот момент едва зарождающиеся), чтобы анализировать большие блоки информации.
Хабиб выросла в маленькой ливанской деревне, а в 1990-х годах переехала в Канаду, спасаясь от гражданской войны. Она немедленно заметила сходство между собой и Альшихом, которому тоже пришлось покинуть свою родину, Сирию, но по другой причине — в юности он взломал сервер Министерства внутренних дел страны.
Десять лет и два стартапа спустя партнеры лидируют среди множества компаний, которые занимаются генеративным искусственным интеллектом (ИИ). Рудиментарные техники, с которыми Альших экспериментировал 10 лет назад, заметно продвинулись благодаря развитию трансформеров и моделей глубокого обучения. Их стартап Writer использует собственные крупные языковые модели под названием «Пальмира» (в честь древнего сирийского города), чтобы компании и их сотрудники могли писать и редактировать такие материалы, как электронные письма, документы, реклама и сводки, в полном соответствии с корпоративным стилем.
В отличие от подавляющего большинства генеративных моделей ИИ, которые галлюцинируют или выдают искаженную информацию (это большая проблема для компаний, которые внедряют эти технологии), говорит генеральный директор стартапа Хабиб, последняя версия их языковой модели ИИ «никогда не создаст что-то, не соответствующее действительности». Это возможно благодаря архитектуре модели, которая ставит точность выше креативности.
Это правдоподобно с технической точки зрения, но лишь до определенной степени. «Архитектура модели совершенно точно влияет на объемы галлюцинаций, — говорит Пранав Редди, инвестор Conviction, который раньше работал в стартапе Neeva, создававшем поисковую систему на основе генеративного ИИ. — Но нет такой модели, которая бы гарантировала, что не будет галлюцинировать». По словам Хабиб, в том редком случае, когда технология компании все же галлюцинирует, Writer отмечает ту часть текста, которая не подкреплена источниками.