Значения Шепли считаются важной концепцией в машинном обучении, потому что они обеспечивают принципиальный способ объяснить предсказания нелинейных моделей. 2
Интерпретируя модель, обученную на наборе признаков, как функцию ценности для коалиции игроков, значения Шепли позволяют вычислить, какие признаки вносят вклад в прогноз или вносят вклад в неопределённость прогноза. 2
Кроме того, на основе значений Шепли предложен метод выбора стабильной модели, который помогает стабилизировать показатели точности моделей при искажении предикторов и шумов, а также повышать показатели точности при снижении набора данных. 1
Также SHAP-значения дают возможность заглядывать в «чёрные ящики» моделей машинного обучения, что позволяет получить представление о том, как именно каждый из признаков воздействует на выходные данные моделей. 3