Возможно, имелся в виду алгоритм LARS (Layer-wise Adaptive Rate Scaling) в контексте машинного и глубокого обучения. 1
Основная идея LARS заключается в подборе скорости обучения не для каждого нейрона или всей нейросети, а для каждого слоя отдельно. 1
Алгоритм LARS позволяет использовать батчи большого размера для обучения без потери качества. 1 Он обеспечивает лучший контроль за процессом оптимизации и не даёт сети застрять в неоптимальных решениях. 3
Кроме того, LARS контролирует величину обновления с учётом нормы весов, что помогает лучше контролировать скорость обучения. 3