Метод K ближайших соседей (kNN) особенно эффективен в следующих случаях:
- При небольших и средних объёмах данных. 3 Высокая вычислительная сложность метода возрастает с увеличением объёма данных и размерности признакового пространства. 3
- В задачах классификации на большое число классов, когда число представителей каждого класса мало. 1 Метод легко подхватывает основные паттерны в данных, запоминая примеры каждого случая. 1
- В онлайн-обучении, когда данные поступают динамическим потоком и быстро устаревают, например, при автоматической торговле на бирже. 1 Для этого в качестве обучающей выборки нужно учитывать только те объекты, которые недавно пронаблюдали. 1
Однако стоит учитывать, что kNN чувствителен к шуму в наборе данных, пропускам и выбросам, поэтому необходимо провести предварительную подготовку, в частности, заполнить пропуски, удалить выбросы и нормализовать обучающий датасет. 2