Исследователи GPTMain делают языковые модели масштабируемыми самообучающимися | GPTMain News

Сократ однажды сказал: “Важен не размер вещи, а ее качество. Ибо именно в природе вещества, а не в его объеме, кроется истинная ценность”.

Всегда ли размер имеет значение для больших языковых моделей (LLM)? В технологическом ландшафте, где LLM занимают центральное место, группа исследователей Лаборатории компьютерных наук и искусственного интеллекта Массачусетского технологического института (CSAIL) считает, что меньшие модели не следует упускать из виду, особенно для продуктов понимания естественного языка, широко применяемых в промышленности.

С этой целью исследователи разработали подход к решению давних проблем неэффективности и конфиденциальности, связанных с большими текстовыми моделями ИИ – логически осознанную модель, которая превосходит в 500 раз более крупные аналоги в некоторых задачах понимания языка без аннотаций, создаваемых человеком, сохраняя при этом конфиденциальность и надежность при высокой производительности.

LLM, которые показали многообещающие способности в генерации языка, искусства и кода, являются вычислительно дорогими, а их требования к данным могут привести к утечке конфиденциальности при использовании интерфейсов прикладного программирования для загрузки данных. Маленькие модели исторически были менее способными, особенно в многозадачных и слабо контролируемых задачах, по сравнению с их большими аналогами.

Так что же помогает этим маленьким моделям действовать так мощно? То, что называется “текстовым следствием”, способ помочь этим моделям понять различные языковые задачи, где если одно предложение (предпосылка) истинно, то другое предложение (гипотеза), скорее всего, также истинно. Например, если предпосылка гласит: “У всех кошек есть хвосты”, то гипотеза “У кошки табби есть хвост” будет вытекать из предпосылки. Эта концепция используется для обучения “модели энтелемента”, которая оказалась менее предвзятой, чем другие языковые модели из предыдущих исследований команды. Затем они создали “подсказки”, которые модели могут использовать, чтобы выяснить, влечет ли определенная информация данное предложение или фразу в соответствии с различными задачами. Этот метод улучшил способность модели адаптироваться к различным задачам без дополнительного обучения, что известно как адаптация с нулевым результатом.

В сфере “понимания естественного языка” существуют различные приложения, которые зависят от определения взаимосвязи между двумя фрагментами текста. Например, при классификации настроений утверждение типа “Я думаю, что фильм хороший” может быть выведено или вытекать из рецензии на фильм, в которой говорится: “Мне нравится сюжет и игра актеров отличная”, что указывает на положительные настроения. Другой способ – классификация новостей, когда тема новостной статьи может быть определена по ее содержанию. Например, утверждение типа “новостная статья посвящена спорту” может быть выведено, если основное содержание статьи сообщает об игре NBA. Ключевым моментом стало то, что многие существующие задачи понимания естественного языка могут быть переформулированы в задачи энтелементации (т.е. логического вывода на естественном языке).

“Наши исследования направлены на улучшение способности компьютерных программ понимать и обрабатывать естественный язык – то, как люди говорят и пишут. Наши самообучающиеся модели энтимемента с 350 миллионами параметров, без использования человеческих меток, превосходят контролируемые языковые модели с 137-175 миллиардами параметров”, – говорит постдок GPTMain CSAIL Хонгин Луо, ведущий автор новой статьи об исследовании. “Это потенциально может изменить ландшафт ИИ и машинного обучения, обеспечив более масштабируемое, надежное и экономически эффективное решение для языкового моделирования”, – говорит Луо. “Доказав, что небольшие модели могут работать на том же уровне, что и большие модели для понимания языка, эта работа прокладывает путь к более устойчивым и сохраняющим конфиденциальность технологиям ИИ”.

Команда обнаружила, что они могут еще больше улучшить производительность модели, используя технику под названием “самообучение”, когда модель использует свои собственные прогнозы для самообучения, эффективно обучаясь без человеческого контроля и дополнительных аннотированных учебных данных. Метод самообучения значительно улучшил производительность в ряде задач, включая анализ настроения, ответы на вопросы и классификацию новостей. Он превзошел и LaMDA, и FLAN от Google по возможностям “нулевого выстрела”, GPT-модели и другие алгоритмы с супервизией.

Однако одна из проблем самообучения заключается в том, что модель иногда может генерировать неправильные или зашумленные метки, что снижает производительность. Чтобы преодолеть эту проблему, они разработали новый алгоритм под названием “SimPLE” (Simple Pseudo-Label Editing) – процесс пересмотра и изменения псевдометок, сделанных в начальных раундах обучения. Исправляя все неправильно помеченные экземпляры, они улучшали общее качество самостоятельно сгенерированных меток. Это не только повысило эффективность моделей в понимании языка, но и сделало их более устойчивыми при столкновении с неблагоприятными данными.

Как и в большинстве исследований, существуют некоторые ограничения. Самообучение на многоклассовых задачах классификации не дало таких же результатов, как на бинарных задачах понимания естественного языка, что указывает на сложность применения моделей энтитета к многовариантным задачам.

“Данное исследование представляет эффективный и действенный способ обучения больших языковых моделей (LLM), формулируя задачи понимания естественного языка как задачи контекстуального вхождения и используя механизм самообучения с псевдомаркировкой для включения большого количества немаркированных текстовых данных в процесс обучения”, – добавляет старший научный сотрудник CSAIL Джеймс Гласс, который также является автором статьи. “Хотя область LLM претерпевает быстрые и кардинальные изменения, данное исследование показывает, что можно создавать относительно компактные языковые модели, которые показывают очень хорошие результаты в задачах понимания эталонных текстов по сравнению с аналогичными моделями примерно такого же размера или даже гораздо более крупными”.

“Entailment task – это популярный прокси для оценки “понимания” заданного контекста моделью ИИ”, – говорит Леонид Карлинский, научный сотрудник GPTMain-IBM Watson AI Lab. “Она используется во многих областях, анализируя модели с унимодальными, например, LLM, и мультимодальными, например, VLM. [visual language models] , упрощая задачу ответа на вопрос о заданном входном контексте до задачи бинарной классификации – влечет ли этот контекст определенный (например, текстовый) вывод или нет? Данная статья вносит два вклада в эту область. Во-первых, в ней предлагается способ улучшить производительность NLU с нулевым результатом (без дополнительной настройки) и устойчивость к атакам противника путем настройки с помощью синтезированных (специализированных) задач на влечение, созданных для первичной задачи NLU. Во-вторых, предлагается метод SimPLE с самоконтролем, включающий псевдомаркировку и фильтрацию на основе доверия, для дальнейшего улучшения производительности NLU больших LLM”.

Луо и Гласс написали статью совместно с Юном Кимом, членом CSAIL и доцентом кафедры электротехники и компьютерных наук Массачусетского технологического института, и Цзясинем Ге из Пекинского университета. Их работа будет представлена на заседании Ассоциации вычислительной лингвистики в Торонто, Онтарио, в июле этого года. Это исследование было поддержано грантом Гонконгской программы инновационного ИИ.

Последние статьи

Related articles

ОСТАВЬТЕ ОТВЕТ

Пожалуйста, введите ваш комментарий!
пожалуйста, введите ваше имя здесь

hentai lou nicehentai.com ahegeo hentai pron v bigztube.mobi kannada school girl sex videos sxsi com pornoko.net indian porn xnxx.com سكس.جماعي pornigh.com سكس لوسي bangali sex in kompoz2.com ganapa kannada movie songs
سكس مع المعلمة matureporni.com سكس كس مفتوح desi clip.com foxporns.info girls sexy pictures хентай манга hentaitale.net hentai zombie girl little sister doujin justhentaiporn.com kasumi tendo hentai افلام جيانا مايكلز gratisfucktube.com foto sex
desi gay porn vedio momyporn.mobi nepali x video مدام شرموطه freetube18x.com ايناس الدغيدي سكس tony tony chopper hentai hentaimangaz.com naruto new hentai manga الكس والزبر pornarabic.net احلى بزاز ميلفاية arabgrid.net فلم\سكس