Конвергенция и дивергенция влияют на обработку информации в нейронных сетях следующим образом:
- Конвергенция (сходимость) означает, что после определённого этапа обучения изменения в скорости обучения становятся меньше, а ошибки (разность между предсказанным и реальным значениями) сводятся к минимуму. 1 Конвергенция важна, так как характеризует успешность обучения. 1
- Дивергенция (несходимость) — это ситуация, при которой ошибка не стремится к минимуму при уменьшении скорости обучения. 1 В таком случае говорят, что нейронная сеть не сошлась. 1
Кроме того, конвергенция и дивергенция используются для предварительной обработки входных шаблонов, что позволяет увеличить ёмкость памяти нейронных сетей. 2 При этом такая обработка не приводит к потере информации и сохраняет способность модели исправлять ошибки. 2