🚀 AMD раскрыла методы воспроизведения MLPerf
Команда AMD представила пошаговое руководство по воспроизведению результатов своих заявок в MLPerf Training v5.1.
Документ охватывает дообучение Llama 2 70B с использованием LoRA на наборе данных GovReport и предобучение Llama 3.1 8B на датасете C4. Для воспроизведения используются Docker-образы и заранее настроенные конфигурации под платформы MI300X, MI325X, MI350X и MI355X. Обучающие скрипты автоматически собирают логи в формате MLPerf, а результаты проверяются через RCP Checker для соответствия эталонному сходимости.
На MI355X время обучения Llama 3.1 8B составляет ~99,7 минут, а на MI300X дообучение Llama 2 70B — ~28 минут. Финальный балл рассчитывается как среднее из 8 из 10 запусков с учётом нормализации по результатам RCP.