Метод LIME (Local Interpretable Model-agnostic Explanations) позволяет объяснять предсказания модели машинного обучения для отдельных экземпляров данных. 1
Суть подхода — создание упрощённой, легко интерпретируемой модели в окрестности конкретного тестового примера. 14 Для этого LIME манипулирует входными данными, создавая серию искусственных данных, содержащих только часть оригинальных атрибутов. 1
Принцип работы: 3
- Выбор исходной точки. 3 Это может быть любой пример (например, строка данных для табличных данных, изображение, текст и т. д.), для которого было сделано предсказание сложной модели. 3
- Генерация возмущённых примеров. 3 Возмущения создаются путём внесения небольших изменений в исходные данные. 3
- Взвешивание примеров. 3 Каждый возмущённый пример получает вес, основанный на его близости к исходной точке. 3
- Запись предсказаний. 3 Эти предсказания показывают, как модель реагирует на изменения в данных. 3
- Обучение интерпретируемой модели. 3 Результаты предсказаний вместе с соответствующими весами и исходными данными возмущённых примеров используются для обучения интерпретируемой модели. 3
Результаты LIME являются локальными, то есть они объясняют предсказание модели для конкретного примера или наблюдения, а не для всего набора данных. 3