Некоторые метрики, которые используются для оценки качества классификации с помощью матрицы ошибок:
- Precision. 1 Количество точно предсказанных положительных значений. 1 Показатель отражает количество правильных результатов, которые дала модель, учитывая все правильно предсказанные положительные значения. 1
- Accuracy. 1 Отношение числа правильных предсказаний к их общему количеству. 1 С помощью этого параметра можно понять, насколько точна модель. 1
- Recall. 1 Показывает долю истинно положительных прогнозов, сделанных моделью, среди всех положительных образцов в наборе данных. 1
- F-score (F-мера). 2 Объединяет в одной метрике точность и полноту, изменяется от 0 до 1. 2
- ROC/AUC. 2 ROC-кривая (Receiver/Relative Operator Characteristic) применяется для бинарной классификации, а AUC (Area Under Curve) — численный показатель площади под кривой. 2
- Null error rate. 1 Коэффициент показывает, насколько часто были допущены неточности в условиях, когда всегда предсказывался класс большинства. 1
- Misclassification rate. 1 Отражает частоту ошибок или неверных прогнозов. 1