Operium Orchestra
Мы выпустили плагин для VS Code 👩💻, который хотим превратить во что-то большее, чем просто AI-ассистент для кода. Идея простая: разработчик проводит в редакторе большую часть дня. Задачи, заметки, доски, стратегии, формулировка требований - всё это так или иначе связано с кодом.
Что уже работает: Три режима работы - Chat, Plan, Agent
Локальные модели через наш Orchestra Runtime, Ollama и LM Studio. Облачный GigaChat через Operium. Контекст из активного файла или выделения прямо в запрос. Стриминг ответов в боковой панели.
Orchestra Runtime - это Go-сервер на llama.cpp, который мы написали сами 🛠 Поддерживает Metal (Apple Silicon), CUDA (NVIDIA) и CPU.
Reasoning-модели вроде Qwen и DeepSeek работают корректно. Hot-swap моделей без перезапуска. OpenAI-совместимый API - то есть если у вас уже есть Ollama или LM Studio, Runtime просто встаёт рядом и не мешает.
Агентный режим пока в разработке. Сейчас работаем над тем, чтобы Orchestra умел не только отвечать на вопросы, но и действовать - создавать задачи, работать с заметками, помогать формулировать структуру проекта.
Работает на своём железе. Прорабатываем интеграцию с российскими провайдерами 🇷🇺 Устанавливается из маркетплейса VS Code - ищите Operium Orchestra.
Это ранняя версия. Много впереди, но лучший способ двигаться вперёд - это выпускать и слышать тех, кто пользуется 🕊 👉 operium.ru 👉 Operium Orchestra на VS Code Marketplace
· 11.05
В дальнейшем планируется дистрибуция?
ответить
коммент удалён
· вчера
Да. Но хотим, чтобы к моменту активной дистрибуции продукт уже удерживал людей, а не просто привлекал их
ответить
ответ удалён