Проба пера

Сегодня вспоминал как работает библиотека sklearn и метрики. Скачал датасет и потестил на нём пару моделей. Пока не углублялся,  просто вспоминал. Попробовал Ridge и классическую линейную регрессию. Рассчитывал что ридж даст более хороший результат т.к. у пары исходных признаков была высокая корреляция, но нет, получил в итоге  похожие значения метрик и там и там. В очередной раз удивился насколько нейросети поумнели вот такую аналогию от Qwen'a: Представь, что ты забираешься на скалу Обычная линейная регрессия – как спортсмен без страховки: может залезть высоко, но и упасть тоже. Ridge – как спортсмен с легкой страховкой: он не так высоко заберется, зато точно не разобьётся.

А вот по базовым метрикам оценки качества регрессии я прошёлся чуть, лучше. Постараюсь коротко: MSE- среднее значение квадрата ошибок между тем, что модель предсказала, и реальным значением RMSE - корень из значения выше, для приведения к исходным единицам MAE - среднее значение модуля ошибки R2 -коэффициент детерминации (1 - (Ошибка_модели / Ошибка_среднего))

На первый взгляд RMSE и MAE кажется похожими но на практике это не так. MAE одинаково учитывает все ошибки (не чувствительна к выбросам, RMSE сильнее "штрафует" за большие ошибки.

В моём случае r2 получился достаточно плохим - 0.3, простым языком можно сказать что моя модель на 30% лучше чем просто всегда предсказывать среднее значение.

Вот так немного скомкано сегодня, чуть-чуть устал, потратил на всё примерно 4-5 часов. Иду смотреть кинцо и спать, всех с праздником.

Проба пера | Сетка — новая социальная сеть от hh.ru
repost

73

input message

напишите коммент

еще контент автора

еще контент автора

войдите, чтобы увидеть

и подписаться на интересных профи

в приложении больше возможностей

пока в веб-версии есть не всё — мы вовсю работаем над ней

сетка — cоциальная сеть для нетворкинга от hh.ru

пересекайтесь с теми, кто повлияет на ваш профессиональный путь