🚀 Вышел Transformers v5

Hugging Face представил пятую версию библиотеки Transformers — с упором на простоту, совместимость и производительность.

Версия v5 перепроектирована для лучшей стандартизации: внедрён модульный подход, упрощена структура моделей и токенизаторов. Вместо двух типов токенизаторов (Fast/Slow) теперь используется единый бэкенд tokenizers. Удалена поддержка Flax и TensorFlow — фокус полностью на PyTorch. Добавлен AttentionInterface для унификации механизмов внимания. Также реализована поддержка квантования как первого класса, включая 4-битные модели.

Библиотека установливается более 3 млн раз в день (против 20 тыс. в 2020). В экосистеме — свыше 400 архитектур и 750 тыс. чекпоинтов. Новые API включают transformers serve и поддержку пакетной инференции сpaged attention. Благодаря интеграции с vLLM, SGLang, llama.cpp и MLX, модели легко переносятся между системами.

#transformers #huggingface #pytorch #ml #ai #quantization

🚀 Вышел Transformers v5
Hugging Face представил пятую версию библиотеки Transformers — с упором на простоту, совместимость и производительность | Сетка — социальная сеть от hh.ru