Да, увеличение количества слоёв нейронной сети может увеличить частоту ошибок классификации набора тестовых данных из-за переобучения. 1
Это происходит, когда от небольших отклонений в обучающем множестве из-за недостаточного изучения признаков увеличивается дисперсия. 3 Высокая дисперсия ведёт к переобучению, ошибки воспринимаются в качестве надёжной информации. 3
Чтобы избежать переобучения, в простой полносвязной многослойной сети желательно прореживать выходы слоёв (слои dropout). 1
Также причиной большого числа ошибок может быть нерепрезентативность обучающей выборки. 2 Например, если в ней неодинаковое число примеров представителей разных классов классифицируемых объектов, то при тестировании нейронная сеть будет хорошо распознавать примеры класса, для которого в обучающей выборке было много примеров, и относить к этому же классу примеры из другого класса только потому, что для него было мало примеров. 2