🤖 OpenRouter выкатил Pareto Code Router с контекстом 2 миллиона токенов
В OpenRouter появился интересный зверь для тех, кто любит вайбкодить не по одному файлу, а сразу по половине репозитория.
Модель называется Pareto Code Router ID: openrouter/pareto-code
И самое вкусное - в карточке сейчас указано:
• 2 000 000 токенов контекста • $0 за input • $0 за output • заточено под coding-задачи • маршрутизация по coding-score от Artificial Analysis
⚠️ Но есть нюанс
Это не отдельная “магическая Sonnet-модель”. Это роутер.
Если говорить проще, OpenRouter сам выбирает подходящую coding-модель из шортлиста, а не заставляет вас вручную решать: Claude, GPT, Gemini, DeepSeek или кто там сегодня лучше пишет код.
Внутри логика примерно такая: выбирается модель на границе цена/качество для coding-задач. Можно задавать min_coding_score от 0 до 1 - чем выше планка, тем сильнее модель, но обычно тем дороже маршрут.
💡 Почему это важно
2 миллиона токенов контекста - это уже не “закинул пару файлов и README”.
Это сценарий, где можно работать с большими кусками приложения:
• архитектура проекта • несколько сервисов сразу • legacy-кодовая база • миграции • тесты • документация • CI/CD конфиги • весь контекст задачи без постоянного “а вот еще один файл”
Переход от 200K к 1M уже сильно поменял работу с большими системами. А 2M - это следующий шаг к нормальному AI-assisted development на уровне приложения, а не отдельного класса.
🚫 Но магии тут нет
Большой контекст не означает, что модель всё поймет правильно.
Если в репозитории хаос, устаревшая документация и пять способов сделать одно и то же - 2 миллиона токенов просто позволят модели увидеть весь этот хаос целиком.
Архитектура от этого сама не появится.
Мой практический вывод:
Сейчас это отличный момент потестировать большие coding-сценарии бесплатно, пока аттракцион щедрости не закончился.
Особенно если у вас есть большой проект, где обычные 128K-200K контекста уже не хватает.
Если коротко: 2M context - это не просто “больше текста”. Это переход от работы с файлами к работе с системой.
Telegram: MAX: Setka:
#AI #LLM #OpenRouter #Coding #Architecture #VibeCoding
В этом посте были ссылки, но мы их удалили по правилам Сетки