Локальные AI-агенты сейчас — песчинка в море 🌊

На фоне того, что делают OpenAI, Anthropic, xAI и другие гиганты, это может казаться чем-то маленьким. Они создают великолепные модели. Модели, которые уже экономят людям миллионы часов работы. Модели, которые меняют то, как мы пишем, думаем, проектируем и создаём. Но если посмотреть чуть глубже, за красивый интерфейс и громкие демо, становится видно одну вещь: самая интересная работа только начинается. Потому что модель сама по себе - это ещё не рабочая среда. Она может быть умной. Быстрой. Красиво отвечать. Понимать контекст. Но в реальной работе этого мало. Нужно, чтобы агент умел:

  • разобраться в проекте;
  • найти нужный файл;
  • понять документацию;
  • помнить, что уже проверял;
  • не ходить по кругу;
  • строить план;
  • выбирать инструменты;
  • и доводить задачу до результата.

Именно поэтому мы развиваем Operium Orchestra. Не как “AI-чат внутри VS Code”. И даже не как набор режимов Chat / Plan / Agent. Кажется, это всё промежуточные формы. Мы пытаемся смотреть дальше. Хочется убрать всё лишнее между человеком и созданием чего-то большого. Чтобы разработчик не думал: “сейчас мне нужен чат” “сейчас мне нужен план” “сейчас мне нужен агент” А просто работал.

Как художник, который оставляет мазки на холсте 🎨 И постепенно из хаоса появляется картина.

Как дирижёр, который управляет оркестром 🎼 И из десятков отдельных инструментов рождается цельная композиция.

В идеале помощник должен быть не “режимом”. Он должен быть агентом, который понимает задачу и сам выбирает подход: когда подумать, когда поискать по коду, когда поднять документацию, когда построить план, когда задать вопрос, а когда просто начать действовать.

В новом релизе Orchestra мы сделали шаг именно в эту сторону. Добавили локальный RAG для проекта:

@codebase @folder @docs Теперь агент может искать не только по открытому файлу, а по кодовой базе и документации. Индекс хранится локально в проекте.

Работает с Ollama, LM Studio и OpenAI-compatible embeddings. А если embeddings не настроены - всё равно может работать через text retrieval. Но важнее даже не это. Мы начали усиливать агентную память. Теперь Orchestra может помнить:

  • какие файлы уже читал;
  • какие поиски уже выполнял;
  • какие факты подтвердил;
  • какие вопросы ещё открыты;
  • где он начал повторяться;
  • почему решил остановиться или продолжить.

Это звучит технически, но смысл простой: агент должен не просто отвечать. Он должен держать ход работы. Потому что в инженерии контекст - это половина результата.

И здесь для нас есть ещё один важный слой. Будущее AI не должно быть доступно только тем, у кого есть доступ к дорогой инфраструктуре, облачным API и идеальным условиям. Хочется, чтобы человек из маленького города, деревни или любой другой точки мира мог открыть ноутбук, запустить локального агента и прикоснуться к этому будущему. Не где-то потом. Не через корпорацию. Не только в красивом ролике. А у себя. В своём проекте. На своём железе. Да, сейчас локальные агенты ещё далеки от идеала. Они ошибаются. Теряют контекст. Иногда делают странные вещи. Но именно поэтому это и нужно развивать. Потому что однажды такие инструменты станут для кого-то первым способом понять, насколько огромный мир его окружает. Мы делаем Orchestra не для того, чтобы собрать “ещё один AI-плагин”. Мы делаем его, потому что верим: будущее можно не ждать. Его можно понемногу придвигать. Шаг за шагом. Релиз за релизом.

Иногда ночью, иногда через боль, но всё равно вперёд 🛠

👉 Operium Orchestra 👉 operium.ru

#devlog #orchestra #vscode #AI #agents #localAI #operium