Выбор шага дискретизации (интервала между отсчётами) влияет на точность представления непрерывных функций в цифровых системах следующим образом: 5
Оптимальным считается такой интервал, при котором исходная функция с заданной точностью представляется минимальным числом отсчетных значений. 5 В этом случае все отсчёты будут существенными для восстановления исходной функции. 5
При этом шаг дискретизации не должен быть слишком малым, так как в этом случае количество измерений переходной характеристики велико, значения выходной переменной близки по величине, и увеличивается погрешность численных расчётов. 2