Для вычисления погрешности при решении алгебраических уравнений на компьютере можно использовать следующие подходы:
- Рассмотреть систему алгебраических уравнений (СЛАУ) как систему функций нескольких переменных. www.cyberforum.ru Абсолютную погрешность функции можно рассчитать как приращение функции, то есть её дифференциал. www.cyberforum.ru
- Рассчитать абсолютную погрешность каждого из уравнений. www.cyberforum.ru Для этого нужно взять одно из уравнений и обозначить его как f(x1, x2, x3, x4). www.cyberforum.ru Тогда абсолютная погрешность будет равна сумме абсолютных погрешностей всех переменных: Δu = |f'(x1, x2, x3, x4)|Δx1 + |f'(…)|Δx2 + |f'(…)|Δx3 + |f'(…)|Δx4. www.cyberforum.ru
- Вычислить относительную погрешность. www.cyberforum.ru Для этого нужно рассчитать её как отношение абсолютной погрешности к численному значению функции: δu = Δu/|f(x1, x2, x3, x4)|, а в качестве численного значения функции использовать тождество, в которое обратится уравнение при подстановке вектора неизвестных. www.cyberforum.ru
Также для исключения возмущений входных и промежуточных данных, вызванных ошибками округления, можно использовать библиотеку Fractions, которая позволяет представлять данные, в том числе результаты вычислений, в виде числовых алгебраических дробей. habr.com