Operium Orchestra

Мы выпустили плагин для VS Code 👩‍💻, который хотим превратить во что-то большее, чем просто AI-ассистент для кода. Идея простая: разработчик проводит в редакторе большую часть дня. Задачи, заметки, доски, стратегии, формулировка требований - всё это так или иначе связано с кодом.

Что уже работает: Три режима работы - Chat, Plan, Agent

Локальные модели через наш Orchestra Runtime, Ollama и LM Studio. Облачный GigaChat через Operium. Контекст из активного файла или выделения прямо в запрос. Стриминг ответов в боковой панели.

Orchestra Runtime - это Go-сервер на llama.cpp, который мы написали сами 🛠 Поддерживает Metal (Apple Silicon), CUDA (NVIDIA) и CPU.

Reasoning-модели вроде Qwen и DeepSeek работают корректно. Hot-swap моделей без перезапуска. OpenAI-совместимый API - то есть если у вас уже есть Ollama или LM Studio, Runtime просто встаёт рядом и не мешает.

Агентный режим пока в разработке. Сейчас работаем над тем, чтобы Orchestra умел не только отвечать на вопросы, но и действовать - создавать задачи, работать с заметками, помогать формулировать структуру проекта.

Работает на своём железе. Прорабатываем интеграцию с российскими провайдерами 🇷🇺 Устанавливается из маркетплейса VS Code - ищите Operium Orchestra.

Это ранняя версия. Много впереди, но лучший способ двигаться вперёд - это выпускать и слышать тех, кто пользуется 🕊 👉 operium.ru 👉 Operium Orchestra на VS Code Marketplace

#devlog #orchestra #vscode #AI #operium