SHAP (SHapley Additive explanation) объясняет влияние отдельных признаков на предсказания модели машинного обучения с помощью значений SHAP. www.geeksforgeeks.org webiomed.ru Эти значения показывают, насколько конкретный признак изменил предсказание по сравнению с базовым значением этого признака. webiomed.ru
Процесс работы SHAP включает несколько шагов: www.geeksforgeeks.org
- Определение базового предсказания. www.geeksforgeeks.org Обычно это среднее предсказание модели по всему набору данных. www.geeksforgeeks.org
- Перестановки объектов. www.geeksforgeeks.org Каждый объект систематически удаляется из модели, и измеряется влияние на прогноз. www.geeksforgeeks.org Этот процесс повторяется для всех возможных комбинаций объектов. www.geeksforgeeks.org
- Расчёт значения SHAP. www.geeksforgeeks.org Путем анализа изменений в прогнозах, полученных в результате перестановок, вычисляются значения SHAP для каждого объекта. www.geeksforgeeks.org
- Объяснение прогноза. www.geeksforgeeks.org Значение SHAP каждого объекта указывает, насколько оно отодвинуло прогноз от базовой линии. www.geeksforgeeks.org Положительные значения означают, что функция увеличила прогноз, а отрицательные — что уменьшила его. www.geeksforgeeks.org
Для классификации SHAP показывает вклад каждого признака в вероятность предсказанного класса — то есть насколько значение признака отклоняет итоговую вероятность от базовой (средней по выборке). smile.actcognitive.org Для регрессии SHAP показывает, насколько каждый признак влияет на отклонение от среднего предсказания модели по обучающей выборке. smile.actcognitive.org