Liquid AI выложила в открытый доступ LFM2

Liquid AI выложила в открытый доступ LFM2: новое поколение больших языковых моделей для периферийных устройств

Читать статью

Краткое содержание:

Компания Liquid AI выпустила LFM2, второе поколение своих Liquid Foundation Models — больших языковых моделей с открытым исходным кодом, предназначенных для периферийных вычислений (edge computing). Новые модели обеспечивают двукратное ускорение вывода (inference) и трехкратное ускорение обучения по сравнению с предыдущей версией. LFM2 доступны в трех размерах (350 млн, 700 млн и 1.2 млрд параметров) и используют гибридную архитектуру, сочетающую сверточные блоки и механизмы внимания. Они показывают превосходную производительность по сравнению с моделями аналогичного размера и оптимизированы для эффективной работы на устройствах с ограниченными ресурсами, таких как смартфоны и ноутбуки.

Подробности:

Модели LFM2 демонстрируют значительные улучшения производительности: в 2 раза более быстрый декодинг и предзаполнение (prefill) на архитектурах CPU по сравнению с Qwen3, а также в 3 раза более быстрое обучение по сравнению с предыдущим поколением LFM. Это позволяет достичь миллисекундной задержки и автономной работы на конечных устройствах. В основе LFM2 лежит гибридная архитектура, сочетающая сверточные механизмы и механизмы внимания. Она состоит из 16 блоков: 10 блоков кратковременной свертки с двойным гейтированием и 6 блоков сгруппированного запросного внимания (Grouped Query Attention, GQA — техника, ускоряющая работу механизма внимания за счет группировки запросов). Архитектура построена на фреймворке Linear InputVarying (LIV), который генерирует веса "на лету" на основе входных данных, и развивает идеи сетей Liquid Timeconstant Networks (LTCs) — рекуррентньх сетей, использующих непрерывные динамические системы. Модели LFM2 представлены в трех версиях: 350 млн, 700 млн и 1.2 млрд параметров. Они были обучены на 10 триллионах токенов (75% английский, 20% многоязычный контент, 5% код) с использованием дистилляции знаний от моделиучителя LFM17B и контекстным окном в 32k токенов. Согласно тестам, LFM21.2B конкурентоспособна с Qwen31.7B, LFM2700M превосходит Gemma 3 1B IT, а LFM2350M не уступает Qwen30.6B и Llama 3.2 1B Instruct, несмотря на меньший размер. Модели оптимизированы для развертывания на устройствах вроде Samsung Galaxy S24 Ultra и платформах AMD Ryzen через фреймворки PyTorch ExecuTorch и llama.cpp.

Влияние:

Выпуск LFM2 устраняет критический пробел в развертывании ИИ, ускоряя переход от облачных вычислений к вычислениям на периферийных устройствах (edge). Это открывает новые возможности для интеграции ИИ в потребительскую электронику, робототехнику, умные устройства, финансы и образование, предлагая решения с низкой задержкой, возможностью работы в оффлайнрежиме и суверенитетом данных. Технология знаменует собой зрелость ИИ для периферийных устройств, где успешно решается компромисс между производительностью и эффективностью.

Затронутые технологии:

Гибридная архитектура Liquid Timeconstant Networks (LTCs) Grouped Query Attention (GQA)

Для кого полезно:

Разработчики Исследователи ИИ Производители устройств

repost

35

input message

напишите коммент

еще контент автора

еще контент автора

войдите, чтобы увидеть

и подписаться на интересных профи

в приложении больше возможностей

пока в веб-версии есть не всё — мы вовсю работаем над ней

сетка — cоциальная сеть для нетворкинга от hh.ru

пересекайтесь с теми, кто повлияет на ваш профессиональный путь