🧠 ИИ тратит токены на «чрезмерные размышления»

Google выяснил, что ИИ-модели вроде Qwen3 и DeepSeek R1 часто выполняя в 5–20 раз больше шагов рассуждений, чем нужно.

Для анализа команда Google разработала инструмент TRACE, который разбивает вывод модели на отдельные "под-мысли" и строит граф рассуждений. Выявлено два проблемных паттерна: "исследователь" — модель находит правильный ответ, но продолжает искать альтернативы, и "поздняя посадка" — цикл избыточных самопроверок после верного решения. Простые стоп-сигналы (например, остановка при повторе ответа) могут сократить длину вывода на 40–60% без потери точности.

Это снизит расход токенов в API и ускорит ответы, особенно в режимах сложных рассуждений.

#ai #reasoning #google_research #llm #qwen #deepseek

🧠 ИИ тратит токены на «чрезмерные размышления»
Google выяснил, что ИИ-модели вроде Qwen3 и DeepSeek R1 часто выполняя в 5–20 раз больше шагов рассуждений, чем нужно | Сетка — социальная сеть от hh.ru