SHAP (SHapley Additive explanation) объясняет влияние отдельных признаков на предсказания модели машинного обучения с помощью значений SHAP. 14 Эти значения показывают, насколько конкретный признак изменил предсказание по сравнению с базовым значением этого признака. 4
Процесс работы SHAP включает несколько шагов: 1
Для классификации SHAP показывает вклад каждого признака в вероятность предсказанного класса — то есть насколько значение признака отклоняет итоговую вероятность от базовой (средней по выборке). 2 Для регрессии SHAP показывает, насколько каждый признак влияет на отклонение от среднего предсказания модели по обучающей выборке. 2