🚀 AMD запустила сервис AI-вывода AIM

AMD представила AMD Inference Microservice (AIM) — готовое решение для промышленного развёртывания ИИ-моделей на GPU Instinct™.

AIM автоматизирует развертывание LLM, мультимодальных и речевых моделей через Kubernetes и KServe. Решение использует vLLM в ROCm-окружении, динамически подбирает профили под GPU (MI300X и др.), кэширует веса и поддерживает OpenAI-совместимые API. Благодаря встроенной оркестрации, обнаружению оборудования и оптимизации под AMD-ускорители, вывод моделей становится стабильным и масштабируемым. Интеграция с OpenTelemetry и KEDA позволяет включить мониторинг через Grafana и автоскейлинг на основе нагрузки.

Сервис уже доступен в открытом доступе и входит в состав AMD Enterprise AI Suite.

#amd #aim #llm_serving #rocm #kserve #gpu_inference

🚀 AMD запустила сервис AI-вывода AIM
AMD представила AMD Inference Microservice (AIM) — готовое решение для промышленного развёртывания ИИ-моделей на GPU Instinct™ | Сетка — социальная сеть от hh.ru