Dropout в машинном обучении нужен для уменьшения переобучения сети за счёт предотвращения сложных коадаптаций отдельных нейронов на тренировочных данных во время обучения. 1
Суть метода в том, что определённый процент случайных нейронов (находящихся как в скрытых, так и видимых слоях) исключается на разных итерациях (эпохах) во время обучения нейронной сети. 1 В результате более обученные нейроны получают в сети больший вес. 1
Такой приём значительно увеличивает скорость обучения, качество обучения на тренировочных данных, а также повышает качество предсказаний модели на новых тестовых данных. 1
Например, если в данных множество мультикоррелирующих признаков или присутствует шум, наличие dropout позволит избежать обусловливания модели на лишь их подмножество и позволит учитывать их все. 4