Принцип dropout в алгоритмах глубокого обучения заключается в случайном отключении части нейронов на определённом слое во время обучения. 14 Это временно удаляет их из сети и предотвращает совместную адаптацию между скрытыми слоями, которая приводит к переобучению сети. 2
Для учёта отключённых нейронов выходы оставшихся активных нейронов масштабируются на коэффициент, равный вероятности сохранения активности нейрона (например, если отключено 50%, то оставшиеся умножаются на 2). 1
Преимущества dropout: