Локальные AI-агенты сейчас — песчинка в море 🌊
На фоне того, что делают OpenAI, Anthropic, xAI и другие гиганты, это может казаться чем-то маленьким. Они создают великолепные модели. Модели, которые уже экономят людям миллионы часов работы. Модели, которые меняют то, как мы пишем, думаем, проектируем и создаём. Но если посмотреть чуть глубже, за красивый интерфейс и громкие демо, становится видно одну вещь: самая интересная работа только начинается. Потому что модель сама по себе - это ещё не рабочая среда. Она может быть умной. Быстрой. Красиво отвечать. Понимать контекст. Но в реальной работе этого мало. Нужно, чтобы агент умел:
- разобраться в проекте;
- найти нужный файл;
- понять документацию;
- помнить, что уже проверял;
- не ходить по кругу;
- строить план;
- выбирать инструменты;
- и доводить задачу до результата.
Именно поэтому мы развиваем Operium Orchestra. Не как “AI-чат внутри VS Code”. И даже не как набор режимов Chat / Plan / Agent. Кажется, это всё промежуточные формы. Мы пытаемся смотреть дальше. Хочется убрать всё лишнее между человеком и созданием чего-то большого. Чтобы разработчик не думал: “сейчас мне нужен чат” “сейчас мне нужен план” “сейчас мне нужен агент” А просто работал.
Как художник, который оставляет мазки на холсте 🎨 И постепенно из хаоса появляется картина.
Как дирижёр, который управляет оркестром 🎼 И из десятков отдельных инструментов рождается цельная композиция.
В идеале помощник должен быть не “режимом”. Он должен быть агентом, который понимает задачу и сам выбирает подход: когда подумать, когда поискать по коду, когда поднять документацию, когда построить план, когда задать вопрос, а когда просто начать действовать.
В новом релизе Orchestra мы сделали шаг именно в эту сторону. Добавили локальный RAG для проекта:
@codebase @folder @docs Теперь агент может искать не только по открытому файлу, а по кодовой базе и документации. Индекс хранится локально в проекте.
Работает с Ollama, LM Studio и OpenAI-compatible embeddings. А если embeddings не настроены - всё равно может работать через text retrieval. Но важнее даже не это. Мы начали усиливать агентную память. Теперь Orchestra может помнить:
- какие файлы уже читал;
- какие поиски уже выполнял;
- какие факты подтвердил;
- какие вопросы ещё открыты;
- где он начал повторяться;
- почему решил остановиться или продолжить.
Это звучит технически, но смысл простой: агент должен не просто отвечать. Он должен держать ход работы. Потому что в инженерии контекст - это половина результата.
И здесь для нас есть ещё один важный слой. Будущее AI не должно быть доступно только тем, у кого есть доступ к дорогой инфраструктуре, облачным API и идеальным условиям. Хочется, чтобы человек из маленького города, деревни или любой другой точки мира мог открыть ноутбук, запустить локального агента и прикоснуться к этому будущему. Не где-то потом. Не через корпорацию. Не только в красивом ролике. А у себя. В своём проекте. На своём железе. Да, сейчас локальные агенты ещё далеки от идеала. Они ошибаются. Теряют контекст. Иногда делают странные вещи. Но именно поэтому это и нужно развивать. Потому что однажды такие инструменты станут для кого-то первым способом понять, насколько огромный мир его окружает. Мы делаем Orchestra не для того, чтобы собрать “ещё один AI-плагин”. Мы делаем его, потому что верим: будущее можно не ждать. Его можно понемногу придвигать. Шаг за шагом. Релиз за релизом.
Иногда ночью, иногда через боль, но всё равно вперёд 🛠