Разница между методами SHAP и Permutation Feature Importance заключается в их подходах к оценке важности признаков в модели машинного обучения. 25
SHAP (SHapley Additive Explanations) — метод, который помогает понять, как каждая функция влияет на прогнозы. 39 Он присваивает уникальное значение каждой функции, чтобы представить её влияние на выходные данные модели. 3 SHAP не зависит от модели, может быть применён к различным моделям машинного обучения, включая древовидные, линейные и нейронные сети. 3
Permutation Feature Importance — метод, который оценивает важность отдельных признаков путём перестановки их значений и измерения влияния на производительность модели. 25 Если изменение значений признака значительно ухудшает производительность, то признак считается важным. 5 Permutation Feature Importance не требует переобучения модели и может быть применён к любой предсказывающей модели, независимо от её типа. 5
Таким образом, SHAP фокусируется на общем понимании вклада каждой функции в прогнозы, а Permutation Feature Importance — на определении важности признаков через оценку влияния их перестановки на производительность модели.