Стохастический градиентный бустинг (SGB) отличается от классического градиентного бустинга тем, что в нём на каждой итерации обучения используется случайная выборка обучающих данных для построения очередного дерева решений. 1
В классическом градиентном бустинге для вычисления весов и определения алгоритмов применяется вся обучающая выборка. 2 Однако если выборка очень большая и избыточная, объём вычислений может стать очень большим. 2
Использование случайных выборок в SGB приводит к следующим преимуществам: