🧠 ИИ тратит токены на «чрезмерные размышления»
Google выяснил, что ИИ-модели вроде Qwen3 и DeepSeek R1 часто выполняя в 5–20 раз больше шагов рассуждений, чем нужно.
Для анализа команда Google разработала инструмент TRACE, который разбивает вывод модели на отдельные "под-мысли" и строит граф рассуждений. Выявлено два проблемных паттерна: "исследователь" — модель находит правильный ответ, но продолжает искать альтернативы, и "поздняя посадка" — цикл избыточных самопроверок после верного решения. Простые стоп-сигналы (например, остановка при повторе ответа) могут сократить длину вывода на 40–60% без потери точности.
Это снизит расход токенов в API и ускорит ответы, особенно в режимах сложных рассуждений.