Как найти погрешность матрицы

1 ЭЛЕМЕНТЫ
ТЕОРИИ ПОГРЕШНОСТЕЙ

Во время решения
инженерных задач, в вычислительных устройствах, расчеты, как правило,
производятся над приближенными исходными данными. Поэтому главное грамотно
организовать вычисления, чтобы обеспечить заданную точность вычислений.

Погрешности вычислений
могут быть разбиты на следующие группы:

а) погрешности
модели –
связанные с физическими допущениями, не контролируемые в
процессе численного решения;

б) погрешности
исходных данных –
при измерениях;

в) погрешность
приближенного метода –
возникает при численном решении задачи, где
точный оператор заменяется приближенным, требующим меньшего количества
операций. (Интеграл заменяют суммой, функцию многочленом и т.д.);

г) вычислительная
погрешность –
в результате вынужденного округления чисел (количество
допустимых разрядов в ЭВМ).

   Погрешности первых
двух видов относятся к неустранимым. Их учитывают при выборе метода решения.

В связи с этим
необходимо:

а) оценивать точность
результата  по известной точности исходных данных;

б) определять точность
исходных данных, обеспечивающих заданную точность результата;

в) согласовывать точность
различных данных, чтобы не тратить время на один набор данных, если второй –
более груб;

г) строить алгоритм
вычислений так, чтобы обеспечить требуемую точность более рациональным путем.

1.1 АБСОЛЮТНАЯ И ОТНОСИТЕЛЬНАЯ
ПОГРЕШНОСТЬ

Абсолютная
погрешность
приближенного числа а
это число

,                                          (1.1.1)

где А – точное значение
некоторой величины.

На практике чаще всего
пользуются предельной  абсолютной погрешностью Δа.

,                                  (1.1.2)

где Δа
– оценка сверху для Δ.

Основной характеристикой
точности будет являться относительная погрешность  и, аналогично, — она  характеризует
качество приближения, (безразмерная величина обычно измеряется в %).

1.2 
ЗАПИСЬ ПРИБЛИЖЕННЫХ ЧИСЕЛ

Пусть приближенное число
записано в виде конечной дроби

а = αm·10 m + αm — 1·10 m – 1 + …+ αm n + 1·10 m n  + 1(1.2.1)

где (αm ≠ 0) и αi = {0, 1… 9}.

Значащими цифраминазывают все цифры в записи числа, начиная с первой
ненулевой цифры слева. Например: а = 0,0503, b = 0,00630500. Значащую цифру
называют верной, если абсолютная погрешность числа не превосходит
единицы разряда, соответствующего этой цифре. В противном случае – цифра
считается сомнительной.

Например: Если а = 0,0503 и Δа
= 0,00002 или b = 0,00630500
и Δb = 0,000008. (В данном случае
подчеркнуты верные цифры).

Если исходное число имеет
несколько сомнительных чисел, то его надо предварительно округлить.

Правило округления: чтобы округлить число до n – значащих цифр, отбрасывают все его
цифры, стоящие после n – ой
значащей или (если это необходимо для сохранения разрядов) заменяют их нулями.
При этом:

а)  если первое из
отбрасываемых чисел меньше 5, то оставшиеся десятичные знаки сохраняют без
изменений;

б)  если больше  5,  то к
последней сохраненной цифре добавляют 1.   

в) если равно 5, то
возможны 2 случая:

1) после 5 идут ненулевые
цифры – последняя оставленная увеличивается на 1

2) если первая из
отброшенных 5 и далее идут нули, то последняя оставленная цифра увеличивается
на 1, если она нечетная и остается прежней, если она четная.  

Напримерb = 0,125168 ≈ 0,125; π = 3,14159265 ≈ 3,1416;

   b = 0,125168 ≈ 0,13;  с =
1,25000 ≈ 1,2    d = 1,3500 ≈
1,4.

Если приближенные числа
не носят окончательного характера, то следует сохранять в них одну или две
сомнительные цифры до окончания вычислений. При этом абсолютная погрешность меньше половины единицы
оставленного разряда.

0,5 · 10 m n  + 1                             (1.2.2)

1.3 
ПОГРЕШНОСТИ ФУНКЦИЙ

Пусть задана
дифференцируемая функция y = f(x1, x2, …xn), где каждый аргумент определяется с погрешностями Δхі. Тогда абсолютная погрешность
функции

Δy = │f(x1 + Δ x1; x2 + Δ x2; …; xn + Δ xn) f(x1, x2, …xn)│.    (1.3.1)

Если предположить, что Δхі0, то можно считать

Δ ≈ │df(x1, …xn)│=  £         (1.3.2)

Отсюда определим верхнюю
границу для Δy.

Δy = ,                             (1.3.3)

где Δхі – предельные абсолютные погрешности для
хі., а Δy – предельные абсолютные погрешности для y.

Тогда относительная
погрешность

.               (1.3.4)

Поэтому предельная
относительная погрешность

.                                 (1.3.5)

Пример. Найти предельные абсолютную и
относительную погрешности объема шара если
d = 3,7±0,05 см., а π ≈3,14.

Решение

Вычисляем первые частные
производные

 и ,
тогда =8,44×0,0016+21,5×0,05=1,088»1,1 (см3)     тогда   V  ≈ 27,4 см3 ± 1,1 см3  
и   %.

Применяя эти формулы
можно получить следующие правила вычисления погрешностей результата через
погрешности компонент:

а) предельная абсолютная
погрешность суммы или разности равна сумме предельных абсолютных погрешностей
слагаемых;

б) предельная
относительная погрешность не превосходит наибольшей из предельных относительных
погрешностей слагаемых;

в) предельная
относительная погрешность произведения и частного равна сумме предельных
относительных погрешностей компонент;

г) предельная
относительная погрешность n-ой
степени в n раз больше предельной относительной
погрешности данного числа (верно и для целых и для дробных n).

1.4  
ОБРАТНАЯ ЗАДАЧА ТЕОРИИ ПОГРЕШНОСТЕЙ

Каковы должны быть
погрешности аргументов функции, чтобы абсолютная погрешность функции не
превышала заданной величины. Эта задача решается однозначно только для функции
одной переменной. y = f(x), тогда  если  f(x) – дифференцируема и f ´(x) ≠ 0, то .

В случае нескольких
переменных нужно вводить дополнительные ограничения.

Например, принцип
равных влияний
предполагается, что в формуле (1.3.3) все слагаемые
равны и следовательно

     .                                    (1.4.1)

Пример №1. С какой точностью нужно измерить
угол x в первой четверти, чтобы получить
значение sin x c пятью верными знаками    (0° ≤ x60°).

Решение:               , так как   0,5 < cos x < 1   в заданном промежутке.

   Пример №2.
Радиус основания цилиндра  R ≈ 2 м. Н ≈ 3 м. – высота. С какой
точностью надо определить R и Н, чтобы его объем можно было
вычислить с точностью до 0,1 м3.

Решение: V = π R2H и ΔV = 0,1
м3. Для значений R = 2 м. Н = 3 м. π = 3,14 получим
приближенно:

                         .

На основании
«принципа равных влияний аргументов» (число аргументов n = 3) имеем:

     
      .

2  
МАТРИЦЫ

2.1
ОСНОВНЫЕ ДЕЙСТВИЯ МАД МАТРИЦАМИ:

а) Сложение (разность).

А ± В = [аij ± bij],                  (2.1.1)

причем   А ±В = В ± А;     
А ± 0 = 0 ± А = А.

Например: А =   В
=
 тогда  А+В=

б) Умножение на число.

α ∙А = А
∙ α = [α ∙ аij]                              (2.1.2)

Обусловленность матрицы. Погрешности.

Числа
обусловленности матрицы определяют
чувствительность решения системы
линейных уравнений к погрешностям
исходных данных. Следующие функции
позволяют найти числа обусловленности
матриц.

Значение
cond(X),
близкое к 1, указывает на хорошо
обусловленную матрицу;

Вернемся к анализу
формулы (4) для вариации решения x

  1. Пусть матрица А
    известна точно ()
    и погрешность решения связана лишь с
    погрешностьюправой части, тогда:

Из:

Перемножая
полученные неравенства, найдем:

Или

=M/m
число
обусловленности матрицы А.

— всегда (в любой
норме), т.о. хорошо обусловленные матрицы
– это матрицы с малым
,
при этом относительная погрешность
решения мала.

  1. Пусть известно
    возмущение
    матрицыА,
    при условии, что правая часть f
    задана точно.

Тогда:

Или

Таким
образом, чем больше число обусловленности,
тем чувствительнее система к округлениям.

Системы
с большим числом обусловленности
называют плохо
обусловленными.

В
случае СЛАУ 2-го порядка понятие
обусловленности матрицы допускает
наглядную
геометрическую интерпретацию.

Лекция №3

Метод
последовательного исключения

неизвестных – метод Гаусса.

Методы
решения систем линейных алгебраических
уравнений (СЛАУ):
1)
точные (прямые)
2)приближенные ( методы
последовательных

приближений.)

Прямые
методы

: метод Крамера, метод Гаусса и его
модификации: (метод главного элемента,
метод квадратного корня, метод отражений
и другие), метод ортогонализации. N
£
103.

Методы
последовательных приближений
(итерационные
):

метод
простой итерации,

метод
Зейделя,

метод
релаксаций,

градиентные
методы и их модификации. N¸
106.

Рассмотрим
систему n
линейных алгебраических уравнений с
n неизвестными:

(1)

в
матричном виде: Ax
= b
;

здесь
квадратная матрица размераn´n,

,
векторы n-го порядка.

В
индексной форме:

(2)

Система
линейных уравнений называется совместной,
если она имеет хотя бы одно решение, и
несовместной
(противоречивой), если она не имеет
решений.

Совместная
система называется определенной,
если она имеет единственное решение,
и неопределенной,
если более одного решения.

1. Схема единственного деления

Делим
первое уравнение этой системы на
коэффициент a11
¹
0
при
неизвестном х1
(ведущий
элемент
).

Выполнения
условия a11¹
0

можно добиться всегда путем перестановки
уравнений системы.

(3) или

Исключаем
неизвестное х1
из остальных уравнений системы (для
этого достаточно из каждого уравнения
(i
=2,3,…,
n)
вычесть уравнение (3), предварительно
умноженное на коэффициент при х1
, т.е. на a21,
a31
и т.д. ai1,

Например:

Обозначим

Преобразованные
уравнения будут иметь вид:

Здесь
обозначено

Матрица
системы имеет вид:

Вслед
за этим, оставив первое уравнение в
покое, над остальными уравнениями
системы совершим аналогичные
преобразования:

  1. выберем
    из их числа уравнение с ведущим элементом
    a22(1)

  2. и
    исключим с его помощью из остальных
    уравнений неизвестное х2.

  3. Повторяя
    этот процесс n
    раз,
    вместо системы (2) получим равносильную
    ей систему с треугольной матрицей:

(4)

Матрицы
такого вида называются верхними
треугольными матрицами.

Из
системы (4) последовательно находятся
значения всех
неизвестных xn,
x
n-1,
…, x
1.

Таким
образом, процесс решения (1) по методу
Гаусса распадается на два этапа. Первый
этап, состоящий в последовательном
исключении неизвестных, называют прямым
ходом.

(число арифметических действий ¸
2N3/3)

Обратным
ходом.

(число арифметических действий ¸
N2)

Общие
формулы обратного хода имеют вид:

Соседние файлы в предмете [НЕСОРТИРОВАННОЕ]

  • #
  • #
  • #
  • #
  • #
  • #
  • #
  • #
  • #
  • #
  • #

Нормы векторов и матриц абсолютная и относительная погрешности вектора

Нормы векторов и матриц. Обозначим через — точное решение системы, а через — приближенное решение системы. Для количественной характеристики вектора погрешности введем понятие нормы.

Нормой вектора называется число , удовлетворяющее трем аксиомам:

1) причем = 0 тогда и только тогда, когда = 0;

2) для любого вектора и любого числа ;

3) для любых векторов и .

Наиболее употребительными являются следующие три нормы:

, , .

Абсолютная и относительная погрешности вектора вводятся с помощью формул:

и .

Нормой матрицы называется величина . Введенная норма обладает свойствами, аналогичными свойствам нормы вектора:

1) причем = 0 тогда и только тогда, когда A = 0;

2) для любой матрицы A и любого числа ;

3) для любых матриц A и B;

4) .

Каждой из векторных норм соответствует своя подчиненная норма матрицы:

, , .

В оценках вместо нормы используется евклидова норма матрицы

, так как .

Абсолютная и относительная погрешности матрицы вводятся аналогично погрешностям вектора с помощью формул:

, .

ПРИМЕР 1. Вычисление норм вектора и матрицы.

ПРИМЕР 2. Вычисление норм матрицы.

Пусть рассматривается система линейных алгебраических уравнений

В матричной форме записи она имеет вид . Будем предполагать, что матрица системы задана и является невырожденной. Известно, что в этом случае решение системы существует, единственно и устойчиво по входным данным.

Обусловленность задачи. Так же как и другие задачи, задача вычисления решения системы может быть как хорошо обусловленной, так и плохо обусловленной.

Теорема об оценке погрешности решения по погрешностям входных данных.

Пусть решение системы , а x* — решение системы A*x*=b*, тогда , где — относительное число обусловленности системы.

Если число обусловленности больше 10, то система является плохо обусловленной, так как возможен сильный рост погрешности результата.

ПРИМЕР 3. Оценка числа обусловленности и эксперимент.

Метод Гаусса. Рассмотрим метод Гаусса (схему единственного деления) решения системы уравнений. Прямой ход состоит из m-1 шагов исключения.

1 Шаг. Исключим неизвестное из уравнений с номерами i = 2,3. m. Предположим, что . Будем называть его ведущим элементом 1-го шага.

Найдем величины , i=2,3,. m , называемые множителями 1-го шага. Вычтем последовательно из второго, третьего, . m vго уравнений системы первое уравнение, умноженное соответственно на . В результате 1-го шага получим эквивалентную систему уравнений:

Аналогично проводятся остальные шаги. Опишем очередной k-ый шаг. Предположим, что ведущий элемент . Вычислим множители к-го шага:, i=k+1. m и вычтем последовательно из (k+1)-го, . m v го уравнений системы k-ое уравнение, умноженное соответственно на

.После (m-1)-го шага исключения получим систему уравнений

,

матрица которой является верхней треугольной. На этом вычисления прямого хода заканчиваются.

Обратный ход. Из последнего уравнения системы находим . Подставляя найденное значение в предпоследнее уравнение, получим . Далее последовательно находим неизвестные .

LU разложение матрицы. Представим матрицу A в виде произведения нижней треугольной матрицы L и верхней треугольной U.

Введем в рассмотрение матрицы

и

Можно показать, что A = LU. Это и есть разложение матрицы на множители.

ПРИМЕР 4. Разложение матрицы A на множители.

ПРИМЕР 5. Решение системы уравнений с помощью LU — разложения матрицы.

Исправляем ошибки: Нашли опечатку? Выделите ее мышкой и нажмите Ctrl+Enter

Нормы векторов и матриц

Для исследования сходимости и точности численных итерационных методов решения задач линейной и нелинейной и нелинейной алгебры, в том числе итерационных методов решения СЛАУ и СНАУ, необходимо ввести понятие нормы векторов матриц.

Нормой вектора х = (обозначают )

В n — мерной вещественном пространстве векторов x R n называют неотрицательное число, вычисляемое с помощью компонент вектора и обладающее следующими свойствами

а) 0 ( = 0 тогда и только тогда, когда x – нулевой вектор, т.е. x = );

б) = для любых чисел (действительных или комплексных);

в) .

Нормой матрицы Аn+n(обозначается c вещественными элементами в n-мерном пространстве матриц А R n называют неотрицательное число, вычисляемое с помощью элементов матрицы и обладающее следующими свойствами:

а) 0 ( 0 тогда и только тогда, когда А – нулевая матрица, т.е. А= );

б) для любых действительных и комплексных чисел ;

в) + ;

г) для всех матриц А и рассматриваемого пространства.

Нормы матриц и векторов, на которые матрицы действуют должны быть согласованы.

Норма матрицы А называется согласованной с нормой вектора х, на который действует матрица А; если выполняется неравенство

, (*)

которое называется связью, осуществляющей согласование матрицы А с вектором х.

Наиболее употребительными являются следующие нормы векторов:

, I = , …


Согласованными с ними с помощью связи нормами матриц будут соответственно:


Где — модули собственных чисел симметрической вещественной матрицы для которой все являются действительными числами;

— максимальное по модулю собственное значение матрицы или спектральный радиус вещественной матрицы А.

Основная и дополнительная литература по дисциплине.

Основная:

1. Формалев В.Ф., Ревизников Д.Л. Численные методы.-М.: Физматлит 2004-400с.

2. Пирумов У.Г. (редактор). Численные методы. Учебник и практикум. Бакалавр. Академический курс.-М.: Юрайт, 2014-422с.

3. Численные методы. Сборник задач. Под редакцией У.Г.Пирумова.-М.: Дрофа, 2007-144с.

Дополнительная:

4. Вержбицкий В.М. Численные методы. Три книги:

1) Линейная алгебра и нелинейные уравнения.

2) Математический анализ и ЛДУ.

3) Дифференциальные уравнения в частных производных.

5. Демидович Б.П., Марон И.А. Основы вычислительной математики.-М.: наука, 1966, — 664с.

Учебная литература к лекции 1:

, с.3…15; ,с.3…6.

Дата добавления: 2016-03-04 ; просмотров: 2005 ; ЗАКАЗАТЬ НАПИСАНИЕ РАБОТЫ

Абсолютная и относительная погрешности вектора

Абсолютная и относительная погрешности вектора

Нормы векторов и матриц. Обозначим через — точное решение системы, а через — приближенное решение системы. Для количественной характеристики вектора погрешности введем понятие нормы.

Нормой вектора называется число , удовлетворяющее трем аксиомам:

1) причем = 0 тогда и только тогда, когда = 0;

2) для любого вектора и любого числа ;

3) для любых векторов и .

Наиболее употребительными являются следующие три нормы:

, , .

Абсолютная и относительная погрешности вектора вводятся с помощью формул:

и .

Нормой матрицы называется величина . Введенная норма обладает свойствами, аналогичными свойствам нормы вектора:

1) причем = 0 тогда и только тогда, когда A = 0;

2) для любой матрицы A и любого числа ;

3) для любых матриц A и B;

4) .

Каждой из векторных норм соответствует своя подчиненная норма матрицы:

, , .

В оценках вместо нормы используется евклидова норма матрицы

, так как .

Абсолютная и относительная погрешности матрицы вводятся аналогично погрешностям вектора с помощью формул:

, .

ПРИМЕР 1. Вычисление норм вектора и матрицы.

ПРИМЕР 2. Вычисление норм матрицы.

Пусть рассматривается система линейных алгебраических уравнений

В матричной форме записи она имеет вид . Будем предполагать, что матрица системы задана и является невырожденной. Известно, что в этом случае решение системы существует, единственно и устойчиво по входным данным.

Обусловленность задачи. Так же как и другие задачи, задача вычисления решения системы может быть как хорошо обусловленной, так и плохо обусловленной.

Теорема об оценке погрешности решения по погрешностям входных данных.

Пусть решение системы , а x* — решение системы A*x*=b*, тогда , где — относительное число обусловленности системы.

Если число обусловленности больше 10, то система является плохо обусловленной, так как возможен сильный рост погрешности результата.

ПРИМЕР 3. Оценка числа обусловленности и эксперимент.

Метод Гаусса. Рассмотрим метод Гаусса (схему единственного деления) решения системы уравнений. Прямой ход состоит из m-1 шагов исключения.

1 Шаг. Исключим неизвестное из уравнений с номерами i = 2,3. m. Предположим, что . Будем называть его ведущим элементом 1-го шага.

Найдем величины , i=2,3,. m , называемые множителями 1-го шага. Вычтем последовательно из второго, третьего, . m vго уравнений системы первое уравнение, умноженное соответственно на . В результате 1-го шага получим эквивалентную систему уравнений:

Аналогично проводятся остальные шаги. Опишем очередной k-ый шаг. Предположим, что ведущий элемент . Вычислим множители к-го шага:, i=k+1. m и вычтем последовательно из (k+1)-го, . m v го уравнений системы k-ое уравнение, умноженное соответственно на

.После (m-1)-го шага исключения получим систему уравнений

,

матрица которой является верхней треугольной. На этом вычисления прямого хода заканчиваются.

Обратный ход. Из последнего уравнения системы находим . Подставляя найденное значение в предпоследнее уравнение, получим . Далее последовательно находим неизвестные .

LU разложение матрицы. Представим матрицу A в виде произведения нижней треугольной матрицы L и верхней треугольной U.

Введем в рассмотрение матрицы

и

Можно показать, что A = LU. Это и есть разложение матрицы на множители.

ПРИМЕР 4. Разложение матрицы A на множители.

ПРИМЕР 5. Решение системы уравнений с помощью LU — разложения матрицы.

Исправляем ошибки: Нашли опечатку? Выделите ее мышкой и нажмите Ctrl+Enter

Норма вектора. Некоторые свойства векторных норм. Абсолютная и относительная погрешности. Сходимость.

Некоторым обобщением понятия длины вектора (оценкой величины вектора) является величина, называемая норма вектора. Функция

является нормой вектора, если она обладает следующими свойствами [112]:

Чтобы отличить одну норму от другой, используются индексы при двойной черте.

Полезный класс векторных норм — это п-нопмы. определяемые как

Наиболее важными из /?-норм являются 1. 2 и 00 ноомы:

— норма по модулю (частный случай (2.1.36) при р — 1);

— «евклидова» норма (частный случай (2.1.36) при р = 2);

максимум модуля для элементов вектора (частный случай (2.1.36) при р—> со).

Очевидно, что евклидова норма ||3с|| = у](х,х) . Это соответствует естественному понятию длины вектора в двумерном и трехмерном пространстве. Единичным вектором по отношению к норме || • || называется вектор

х, удовлетворяющий равенству ||3с|| = 1.

Классический результат о «-нормах — неравенство Гелъдеоа

Очень важным частным случаем этого неравенства является неравенство Коши-Шварца:.

Все нормы в эквивалентны, т.е. для двух норм || • ||а и || • ||/; в

существуют положительные константы с, и с,, такие, что

для всех х из пространства R«. Например, для вектора х из имеем:

В вычислительной математике большую роль играет понятие «близости» двух векторов. Это соответствует понятию «расстояния», определяемому формулой

т.е. расстояние между векторами равно норме от их разности:

Оценка близости двух векторов используется для определения погрешности решения в итерационных методах.

Пусть вектор Т пространства есть аппроксимация к вектору х пространства R«. Для заданной векторной нормы || • || будем говорить, что

есть абсолютная погрешность Т, а при хфО формула

задает относительную погрешность х’.

Сходимость. Будем говорить, что последовательность векторов х‘, х 2 , х к , . сходится к вектору х, если

Отметим, что вследствие приведенных выше свойств векторных норм сходимость в а-норме влечет сходимость в Д-норме и наоборот.

Абсолютная и относительная погрешности 1 1

Главная > Документ

Информация о документе
Дата добавления:
Размер:
Доступные форматы для скачивания:

По свойству нормы (3.2)

|| A|| l = | A ( x ) k |  || A ( x )|| l  || A|| l  || x || l .

Так как || x || l = 1 , выполняется равенство || A ( x )|| l = || A || l  || x || l , т. е. l — норма минимальна.

Пусть при суммировании по столбцам максимальная сумма абсолютных величин элементов матрицы достигается в столбце с номером k

|| A || m =.

Координатный столбец образа базисного вектора e k равен k — му столбцу матрицы A , а

|| A ( e k )|| m = || A || m .

Так как || e k || m = 1 , m — норма минимальна.

Сферическая норма оператора не является минимальной. В евклидовом пространстве для любого вектора x

= ( A ( x ), A ( x )) = ( x , A T A ( x ))  0 .

Оператор B = A T A – самосопряженный и неотрицательный. Пусть Sp ( B ) = , s  n,  1 >… >  r  0. Собственные векторы оператора B , отвечающие различным собственным значениям, ортогональны. Любой вектор x  V является линейной комбинацией собственных векторов

x = x 1 + … + x r , B ( x j ) =  j x j , j =1, …, r .

= ( x , B ( x )) =  1 ( x 1 , x 1 ) + … +  r ( x r , x r )   1 (( x 1 , x 1 ) + … +( x r , x r )) =  1 ( x , x ).

Для ненулевого собственного вектора x 1 выполняется строгое равенство

=  1 (( x 1 , x 1 ).

Следовательно, минимальной нормой оператора в евклидовом пространстве является норма

|| A || s = ,

называемая спектральной. Здесь  1 – наибольшее собственное значение матрицы B = A T A . Характеристический многочлен матрицы B представим двумя выражениями

det ( B —  E ) = ( —  ) n +  1 ( —  ) n-1 + … +  n =

где d j – кратность собственного значения  j . Коэффициент  1 называется следом матрицы B

 1 = tr ( B ) = .

След матрицы выражается через собственные значения

 1   1 = d 1  1 + … + d r  r  ( d 1 + … + d r )  1 = n  1 .

,

(3.3) .

3.2 Пример. Найти сферическую и спектральную нормы матрицы

A = .

Решение: || A || n = = 9.

B = A T A = .

det ( B —  E ) = = =

= ( 36 —  )(  2 — 29  +132 ).

Наибольшее собственное значение равно 36 (сумма двух других равна 29 ). Итак, || A || s = 6.

Если матрица A – симметрическая, то собственные значения B равны квадратам собственных значений матрицы A и спектральная норма || A || s равна наибольшему по абсолютной величине собственному значению матрицы A .

3.3 Пример. Найти сферическую и спектральную нормы матрицы

A = .

Решение: Вычислим характеристический многочлен матрицы A

det ( A —  E ) = =

= .

Итак, Sp ( A ) = . Следовательно, || A || s = 7 . Квадрат сферической нормы матрицы равен сумме квадратов ее собственных значений с учетом их кратности

|| A || n =  10,1.

Для норм операторов выполняются следующие свойства:

3.6 Предложение. У самосопряженного оператора l — и m -нормы совпадают.

Самосопряженный оператор имеет симметрическую матрицу.

3.7 Предложение. Любой элемент матрицы по абсолютной величине не превосходит любой ее нормы

a ij  ||A||, i, j = 1, …, n.

Доказательство. Для l -, m -, n — норм утверждение очевидно из определения. Проверим утверждение для спектральной нормы. Согласно определению нормы оператора в евклидовом пространстве для базисного вектора e j имеем

|| A ( e j )|| n  || A || s || e j || n .

Норма || e j || n = 1, а координатный столбец вектора A ( e j ) равен j — му столбцу матрицы A . Итак,

|| A ( e j )|| n =  || A || s , j = 1, …, n ,

откуда следует доказываемое утверждение.

3.8 Предложение. Норма произведения операторов не превосходит произведения их норм

Доказательство. Для минимальных норм, используя теорему о наибольшем значении непрерывной функции на ограниченном замкнутом множестве, имеем

|| AB || = 

.

Для n — нормы доказательство следует из неравенства Буняковского

.

Теория погрешностей в нормированном пространстве. Пусть в линейном нормированном пространстве V задан оператор A : V  V . Перенесем основные понятия теории погрешностей на векторы и операторы.

3.9 Определение. Приближением вектора ( оператора ) называется вектор x ( оператор A ), близкий к точному x * ( A * ) и заменяющий его в вычислениях.

r x = x – x* ( R A = A – A* )

называется погрешностью вектора ( оператора ).

Предельной абсолютной погрешностью вектора ( оператора ) называется любое положительное число  x ( A ) , удовлетворяющее условию

|| r x ||   x ( ||R A ||   A ).

Предельной относительной погрешностью вектора ( оператора ) называется любое положительное число  x (  A ) , удовлетворяющее условию

|| r x || / || x *||   x ( || R A || / || A *||   A ).

Предельные погрешности зависят от определения нормы в векторном пространстве. Из определения предельной абсолютной погрешности имеем

|| x *|| = || x – ( x – x * )||  || x || + || r x ||  || x || +  x ,

|| x || = || x * + ( x – x * )||  || x *|| + || r x ||  || x *|| +  x ,

откуда получаем интервальную оценку

|| x || –  x  || x *||  || x || +  x .

Аналогично выводится оценка для оператора

|| A|| –  A  || A*||  || A|| +  A .

Следовательно, для вектора и оператора остаются справедливыми формулы (1.2), (1.3) и при малых погрешностях (1.4), при замене абсолютных величин на нормы.

3.4 Пример. В пространстве с n — нормой вычислен вектор

x = ( 2,97654; 0,01275; -4,00152 )

с предельной относительной погрешностью  x = 10 -4 . Записать координаты вектора с сохранением одной сомнительной цифры.

Решение: || x || n = = 4,987  5 . По формуле (1.4)

 x = || x || n  x = 5  10 -4 . Погрешность координат вектора оценим согласно (3.2)

| x j – x j *|  || r x || n   x = 5  10 -4 .

x = ( 2,9765  5  10 -4 ; 0,0128  5  10 -4 ; -4,0015  5  10 -4 ).

3.5 Пример. Координаты вектора x вычислены с 4 верными знаками

x = ( 2,97654; 0,01275; -4,00152 ).

Найти предельную относительную погрешность вектора  x в l -, m -, n — нормах.

Решение: Предельные абсолютные погрешности каждой из трех координат вектора x равны соответственно 10 -3 , 10 -5 , 10 -3 . Погрешность  x находим по формуле (1.4):

в l — норме || x || l = 4,00152  4, || r x || l  10 –3 ,  x = ( 1 / 4 ) 10 –3 ;

в m — норме || x || m = 2,97654 + 0,01275 + 4,00152 = 6,9908  7,

|| r x || m  10 –3 + 10 –5 + 10 –3  2 10 –3 ,  x = ( 2 / 7 ) 10 –3 ;

в n- норме || x || n  5, || r x || n  10 –3 ,  x = ( / 5 ) 10 -3 .

3.6 Пример. Все элементы квадратной матрицы A вычислены с предельной абсолютной погрешностью . Найти предельную относительную погрешность  A матрицы.

Решение: Найдем предельную абсолютную погрешность  A матрицы. Из определения нормы вытекает, что в l -, m -, n — нормах  A = n . Следовательно,

где в каждом случае используется соответствующая норма. Для спектральной нормы воспользуемся неравенством || R A || s  || R A || n . Тогда формула останется справедливой и для спектральной нормы.

3.7 Пример. Все элементы квадратной матрицы A вычислены с предельной относительной погрешностью  . Найти предельную относительную погрешность  A матрицы.

Решение: По условию все элементы матрицы R A удовлетворяют условию | r ij |  | a ij |  . Тогда в l -, m -, n — нормах || R A ||  || A ||  и

Рассмотренная задача имеет прикладное значение. При переводе в двоичную систему счисления каждое число представляется t — разрядной двоичной дробью. Относительная погрешность представления числа  = q –( t -1) /  1 . В двоичной системе q =2,  1 = 1. Отсюда вытекает, что предельная относительная погрешность матрицы при переводе в двоичную систему равна  A = 2 –( t -1) .

Погрешность решения системы линейных уравнений. Выясним, как погрешности в матрице и свободном члене системы уравнений влияют на решение системы. Пусть точная система уравнений,

а при искажении матрицы и свободного члена погрешностями будет найдено приближенное решение системы

( A + R A )( x + r x ) = b + r b .

Разрешая уравнение для погрешности

A ( r x ) = r b — R A ( x + r x )

r x = A -1 ( r b ) — A -1 R A ( x + r x )

и после перехода к нормам

|| r x ||  || A -1 |||| r b || + || A -1 |||| R A || (|| x || + || r x ||).

Разделим правую и левую части неравенства на || x ||

|| r x || / || x ||  || A -1 |||| r b || / || x || + || A -1 |||| R A || ( 1 + || r x || / || x ||).

Из точного уравнения после перехода к нормам получим || b ||  || A ||  || x ||. Заменим в правой части || r b || / || b ||, || r x || / || x ||, || R A || / || A || на предельные относительные погрешности соответственно  b ,  x ,  A . Тогда правая часть неравенства будет представлять предельную относительную погрешность решения

|| r x || / || x ||  || A -1 |||| A ||  b + || A -1 |||| A ||  A ( 1 +  x ) =  x .

Величина ( A ) = || A -1 |||| A || зависит от определения нормы и называется мерой обусловленности матрицы. Предельная относительная погрешность решения определяется формулой

(3.4)  x = .

Особый интерес представляет спектральная мера обусловленности. Спектральная норма || A || s = определяется по наибольшему значению спектра матрицы B = A T A ,

Sp ( B ) = ,  1 > …>  r .

Спектр матрицы ( A -1 ) T A -1 = ( AA T ) -1 определяет || A -1 || s . Матрицы A T A и AA T имеют одинаковый спектр, а Sp (( AA T ) -1 ) = . Итак, в спектральной норме мера обусловленности матрицы  s ( A ) = равна квадратному корню из отношения наибольшего и наименьшего собственных значений матрицы B = A T A . Для симметрической матрицы A мера обусловленности равна отношению наибольшего и наименьшего по абсолютным величинам собственных значений матрицы A . Из определения следует, что для любой матрицы  s ( A )  1.

3.8 Пример. Найти меру обусловленности матрицы

A = .

Решение: В примере 3.3 получен спектр симметрической матрицы A Sp ( A ) = . Значит,  s ( A ) = 3,5.

3.9 Пример. Найти меру обусловленности матрицы

A = .

Решение: В примере 3.2 вычислен характеристический многочлен матрицы B = A T A

det ( B —  E ) = ( 36 —  )(  2 — 29  +132 ).

Наибольшее и наименьшее собственные значения равны  1 = 36,  r = 264 / ( 29 + ).

 s ( A ) =  2,52.

3.10 Пример. Оценить погрешность решения системы уравнений

при изменении правой части

и сравнить с реальной погрешностью.

Решение: Исходная система имеет решение x = ( 1, 0 ), измененная система – решение x = ( 0,9; 0,1 ). Погрешность решения r x = ( -0,1;0,1 ). В n — норме относительная погрешность || r x || / || x || = .

Вычислим меру обусловленности матрицы. Характеристический многочлен матрицы

A T A =

f (  ) =  2 – ( 10 –2  10 –3 +10 -6 )  + 10 –6

имеет корни  1  10 и  2  10 –7 . Значит,  s ( A ) = 10 4 .

Погрешность правой части r b = ( -0; 10 -4 ). В n — норме  b = . По формуле (3.4), полагая  A = 0, получим предельную относительную погрешность решения  x = , превышающую реальную в раз.

Вычисление спектральной нормы и меры обусловленности матрицы. У положительно определенной матрицы B = A T A имеем

Sp ( B ) = ,  1 >… >  r  0, r  n.

Воспользуемся разложением произвольного вектора x в сумму взаимно ортогональных собственных векторов матрицы B

x = x 1 + … + x r , B ( x j ) =  j x j , j = 1, …, r .

( B i ( x ), B i ( x )) = .

.

Зададим вектор y (0) произвольно и построим вычислительный процесс

z (i) = A ( y (i) ), y (i+1) = A T ( z (i) ) / | y (i) |.

Докажем, что y ( i ) = B i ( y (0) ) / | B i -1 ( y (0) )|. При i = 1 равенство верно. Индукция по i . Допустим, что равенство верно при i , и докажем, что оно верно при i +1.

y (i+1) = A T ( A ( y (i) )) / | y (i) | = B ( B i ( y (0) ) / | B i-1 ( y (0) )|) / | y (i) | = B i+1 ( y (0) ) / | B i ( y (0) )|.

.

У матрицы B  = E – ( 1 /  1 ) B наибольшее значение спектра

 max = 1 –  r /  1 = 1 – .

Для вычисления  max изменим вычислительный процесс следующим образом:

z (i) = A ( y (i) ), y (i+1) = ( y (i) – ( 1 /  1 ) A T ( z (i) )) / | y (i) |

при произвольном задании y (0) . В итоге двукратного умножения матрицы на вектор получим

y ( i +1) = ( E – ( 1 /  1 ) B )( y ( i ) / | y ( i ) |) = B  ( y ( i ) / | y ( i ) |).

Следовательно,  max . Спектральная норма матрицы вычисляется по формуле

(3.5)  s ( A ) = .

§ 4 Системы линейных уравнений

Разложение квадратной матрицы в приизведение треугольных. Пусть дана система уравнений A ( x ) = b .

4.1 Теорема. Какова бы ни была квадратная матрица A с отличными от нуля угловыми минорами

a 11  0,

ее всегда можно разложить в произведение

где S и T соответственно левая и правая треугольные матрицы.

Доказательство. По условию теоремы s ik = 0 при k > i и t kj = 0 при k j . Тогда

a ij =.

Отсюда s 11 t 11 = a 11 , s ji = a j1 / t 11 , t 1j = a 1j / s 11 , j = 2, …, n;

s ii t ii = , s ji = () / t ii , t ij = () / s ii , j = i+1, …, n.

Итак, решение существует, если s ii  0 и t ii  0.

Допустим, что при некотором p получим s pp t pp = 0. В этом случае возможно разложение A p = S p T p , где A p , S p , T p – матрицы угловых миноров p — го порядка. Тогда

det ( A p ) = det ( S p ) det ( T p ) = = 0,

что противоречит условию теоремы.

Если фиксировать n диагональных элементов ( t ii = 1, i = 1, …, n ), то полученное решение будет единственным.

Метод Гаусса . Представим матрицу A произведением треугольных матриц и сведем задачу к решению двух систем

S ( y ) = b и T ( x ) = y .

Фиксируем диагональные элементы матрицы T , положив t ii = 1, i = 1, …, n . Столбец свободных членов b присоединим к матрице A , присвоив ему номер n +1 ( a i n +1 = b i ). Столбец y получим на месте ( n +1 )-го столбца матрицы T .

Решение системы S ( y ) = b составляет прямой ход метода Гаусса.

s i1 = a i1 , i = 1, …, n, t 1j = a 1j / a 11 , j = 2, …, n+1;

s ji = , j = i, …, n, t ij = () / s ii , j = i+1, …, n+1.

Обратный ход метода Гаусса состоит в решении системы T ( x ) = y . Координаты вектора y составляют ( n +1 )-й столбец матрицы T ( y i = t i n +1 ).

x n = y n / t nn , x i = y i – , i = n-1, …, 1.

Если один из угловых миноров матрицы A близок к нулю, метод Гаусса приводит к росту вычислительной погрешности.

4.1 Пример. Решить методом Гаусса систему линейных уравнений

при вычислении с тремя значащими цифрами.

Решение: Запишем расширенную матрицу системы. При прямом ходе метода Гаусса первую строку расширенной матрицы разделим на 10 -4 и вычтем из второй. Во второй строке появятся четырехзначные числа, которые необходимо округлить до трех знаков. На этом прямой ход закончен, матрица A приведена к треугольному виду.

обратный ход

Выполнив обратный ход, получим x 1 = 0, x 2 = 1. Решение системы с тремя верными знаками после запятой x 1 = 1, x 2 = 1. Итак, вычислительная погрешность существенно исказила результат. Потеря точности произошла при вычитании чисел с сильно различающимися порядками.

Метод Гаусса с выбором главного элемента позволяет исключить вычитание больших чисел. Главным называется наибольший по абсолютной величине коэффициент при неизвестных в ведущей строке расширенной матрицы. После деления на главный элемент коэффициенты при неизвестных в ведущей строке по абсолютной величине не больше единицы. При прямом ходе метода Гаусса ведущая строка умножается на элемент ниже расположенной строки и вычитается из нее. При этом в преобразуемой строке из каждого коэффициента вычитается число, не превышающее один из элементов этой строки. Порядок элементов существенно не изменяется. Однако, если вычитание ведущей строки ведет к уменьшению порядка всех коэффициентов при неизвестных, происходит потеря точности, связанная с вычитанием близких чисел. Поэтому процедура выбора главного элемента, усложняя метод, не гарантирует полностью от проблем с вычислительной погрешностью.

Метод квадратного корня . У положительно определенной матрицы A все угловые миноры положительны и являются доминирующими. Отпадает необходимость в поиске главного элемента. Симметрическая матрица A разлагается в произведение треугольных матриц A = ST , таких, что S = T T . Достаточно вычислять одну матрицу T . Метод Гаусса, адаптированный к линейным системам с положительно определенной матрицей, называется методом квадратного корня . Его реализация имеет вид ( s ij = t ji , a i n+1 = b i , t in+1 = y i )

t 11 = , t 1j =a ij / t 11 , j = 2, …, n+1;

t ii = , t ij = () / t ii , j = i+1, …, n+1.

источники:

http://helpiks.org/7-26161.html

http://b4.cooksy.ru/articles/absolyutnaya-i-otnositelnaya-pogreshnosti-vektora

Данный курс посвящен введению в вычислительную математику.

1. Теория погрешностей и машинная арифметика.

2. Решение нелинейных уравнений. Методы бисекций, простой итерации, Ньютона.

3. Решение нелинейных уравнений. Обусловленность задачи нахождения корня. Интервал неопределенности.

4. Решение систем линейных алгебраических уравнений. Нормы векторов и матриц. LU-разложение матрицы.

5. Решение систем линейных алгебраических уравнений прямыми методами.

6. Решение систем линейных алгебраических уравнений итерационными методами.

7. Приближение функций. Метод наименьших квадратов.

8. Приближение функций. Интерполяция.

9. Приближение функций. Сплайны.

10. Решение задачи Коши одношаговыми методами. 

Наверх

1. Теория погрешностей и машинная арифметика.

Пусть image2 (217 bytes) — точное значение, 

       image3 (103 bytes) — приближенное значение некоторой величины. 

Абсолютной погрешностью приближенного значения image3 (103 bytes) называется величина image4 (371 bytes) . 

Относительной погрешностью значения image3 (103 bytes) (при image5 (259 bytes) 0) называется величина   image6 (293 bytes)

Так как, значение image2 (217 bytes) как правило неизвестно, чаще получают оценки погрешностей вида: image7 (529 bytes)     image8 (621 bytes)

Величины image9 (286 bytes) и image10 (306 bytes) называют верхними границами (или просто границами) абсолютной и относительной погрешностей. 

Значащими цифрами числа  image3 (103 bytes)   называют все цифры в его записи, начиная с первой ненулевой слева.

Значащую цифру числа image3 (103 bytes)  называют верной, если абсолютная погрешность числа не превосходит единицы разряда, соответствующего этой цифре. 

Для оценки погрешностей арифметических операций следует использовать следующие утверждения:

Абсолютная погрешность алгебраической суммы (суммы или разности ) не превосходит суммы абсолютной погрешности слагаемых, т.е.

image11 (616 bytes)

Если а и b — ненулевые числа одного знака, то справедливы неравенства

image12 (403 bytes),      image13 (410 bytes) , 

где image14 (895 bytes) ,     image15 (404 bytes)

Для относительных погрешностей произведения и частного приближенных чисел верны оценки: 

если image16 (295 bytes) и image17 (298 bytes) , то   image18 (585 bytes), image19 (626 bytes).

Пусть image20 (494 bytes) — дифференцируемая в области G функция переменных, вычисление которой производится при приближенно заданных значениях аргументов   image21 (255 bytes) . Тогда для абсолютной погрешности функции image22 (301 bytes) справедлива следующая оценка

image23 (733 bytes) image24 (435 bytes).

Здесь [x, x*] v отрезок, соединяющий точки x и x* =( image25 (255 bytes)

Для относительной погрешности функции справедливо следующее приближенное равенство

image26 (803 bytes) , где image27 (794 bytes)

Наверх

2. Решение нелинейных уравнений. Методы бисекций, простой итерации, Ньютона.

Пусть рассматривается уравнение image1.gif(983 bytes). Корнем уравнения называется значение image2.gif(860 bytes), при котором image3.gif(994 bytes). Корень image2.gif(860 bytes) называется простым, если 

image4.gif(1004 bytes), в противном случае корень называется кратным. Целое число m называется кратностью корня image2.gif(860 bytes), если image5.gif(1034 bytes) для k=1,2,3-,m-1 и 

image6.gif(1044 bytes).

Постановка задачи вычисления приближенного значения корня с точностью image7.gif(848 bytes): найти такое значения image8.gif(850 bytes), что image9.gif(1022 bytes).

Решение задачи разбивается на два этапа: на первом этапе осуществляют локализацию корней, на втором этапе производят итерационное уточнение корней. На этапе локализации корней находят достаточно узкие отрезки ( или отрезок, если корень единственный), которые содержат один и только один корень уравнения image1.gif(983 bytes). На втором этапе вычисляют приближенное значение корня с заданной точностью. Часто вместо отрезка локализации достаточно указать начальное приближение к корню.

Метод бисекции. Пусть [a,b] v отрезок локализации. Предположим, что функция f(x) непрерывна на [a,b] и на концах принимает значения разных знаков image10.gif(1087 bytes)

Алгоритм метода бисекции состоит в построении последовательности вложенных отрезков, на концах которых функция принимает значения разных знаков. Каждый последующий отрезок получают делением пополам предыдущего. Опишем один шаг итераций метода. Пусть на k-ом шаге найден отрезок image11.gif(1043 bytes) такой, что image12.gif(1260 bytes). Найдем середину отрезка image13.gif(1160 bytes). Если image14.gif(1031 bytes), то image15.gif(904 bytes)— корень и задача решена. Если нет, то из двух половин отрезка выбираем ту, на концах которой функция имеет противоположные знаки:

image16.gif(1013 bytes), image17.gif(1012 bytes), если image18.gif(1249 bytes)

image19.gif(1012 bytes), image20.gif(1017 bytes), если image21.gif(1256 bytes)

Критерий окончания итерационного процесса: если длина отрезка локализации меньше 2image7.gif(848 bytes), то итерации прекращают и в качестве значения корня с заданной точностью принимают середину отрезка.

Теорема о сходимости метода бисекций. Пусть функция f(x) непрерывна на [a,b] и на концах принимает значения разных знаков image10.gif(1087 bytes).Тогда метод сходится и справедлива оценка погрешности : image22.gif(1492 bytes)

Метод Ньютона (метод касательных) . Расчетная формула метода Ньютона имеет вид:

image23.gif(1396 bytes). Геометрически метод Ньютона означает, что следующее приближение к корню image24.gif(929 bytes) есть точка пересечения с осью ОХ

касательной, проведенной к графику функции y=f(x) в точке image25.gif(1142 bytes)

Теорема о сходимости метода Ньютона. Пусть image2.gif(860 bytes) — простой корень уравнения image1.gif(983 bytes), в некоторой окрестности которого функция дважды непрерывно дифференцируема. Тогда найдется такая малая image26.gif(855 bytes)— окрестность корня image2.gif(860 bytes), что при произвольном выборе начального приближения image27.gif(905 bytes) из этой окрестности итерационная последовательность метода Ньютона не выходит за пределы окрестности и справедлива оценка 

image28.gif(1281 bytes), где image29.gif(918 bytes), image30.gif(935 bytes).

Критерий окончания итерационного процесса. При заданной точности image7.gif(848 bytes)>0 вычисления следует вести до тех пор пока не окажется выполненным неравенство image31.gif(1124 bytes).

Как указано в теореме, метод Ньютона обладает локальной сходимостью, то есть областью его сходимости является малая окрестность корня image2.gif(860 bytes). Неудачный выбор может дать расходящуюся итерационную последовательность.

Метод простой итерации (метод последовательных повторений). Для применения метода простой итерации следует исходное уравнение image1.gif(983 bytes) преобразовать к виду, удобному для итерации image32.gif(985 bytes). Это преобразование можно выполнить различными способами. Функция image33.gif(943 bytes) называется итерационной функцией. Расчетная формула метода простой итерации имеет вид: image34.gif(1137 bytes).

Теорема о сходимости метода простой итерации. Пусть в некоторой image26.gif(855 bytes)— окрестности корня image2.gif(860 bytes)функция image33.gif(943 bytes) дифференцируема и удовлетворяет неравенству image35.gif(1049 bytes), где image36.gif(968 bytes) — постоянная . Тогда независимо от выбора начального приближения из указанной image26.gif(855 bytes)— окрестности итерационная последовательность не выходит из этой окрестности, метод сходится

со скоростью геометрической последовательности и справедлива оценка погрешности:image37.gif(1375 bytes), image38.gif(908 bytes).

Критерий окончания итерационного процесса. При заданной точности image7.gif(848 bytes)>0 вычисления следует вести до тех пор пока не окажется выполненным неравенство image39.gif(1246 bytes). Если величина image40.gif(1004 bytes), то можно использовать более простой критерий окончания итераций: image31.gif(1124 bytes).

Ключевой момент в применении метода простой итерации состоит в эквивалентном преобразовании уравнения. Способ, при котором выполнено условие сходимости метода простой итерации, состоит в следующем: исходное уравнение приводится к виду image41.gif(1034 bytes). Предположим дополнительно, что производная image42.gif(870 bytes) знакопостоянна и image43.gif(1064 bytes) на отрезке [a,b]. Тогда при выборе итерационного параметра image44.gif(1159 bytes) метод сходится и значение

image45.gif(1232 bytes) .

Наверх

3. Решение нелинейных уравнений. Обусловленность задачи нахождения корня. Интервал неопределенности.

Под обусловленностью вычислительной задачи понимают чувствительность ее решения к малым погрешностям входных данных.

Пусть установлено неравенство image002.gif(382 bytes), где image004.gif(251 bytes) — относительная погрешность входных данных, а image006.gif(256 bytes)— относительная погрешность решения. Тогда image008.gif(195 bytes)— называется абсолютным числом обусловленности задачи. Если же установлено неравенство image010 (382 bytes) между относительными погрешностями данных и решения, то image012 (195 bytes) называют относительным числом обусловленности задачи. 

Обычно под числом обусловленности image014.gif (179 bytes) понимают относительное число обусловленности. Если image016.gif(220 bytes), то задачу называют плохо обусловленной.

Обусловленность задачи нахождения корня. Пусть image018.gif(181 bytes) v корень, подлежащий определению. Будем считать, что входными данными для задачи вычисления корня являются значения функции image020.gif(216 bytes). Так как image021gif (216 bytes)v вычисляется приближенно, то обозначим функцию, полученную в действительности через image023.gif(230 bytes). Предположим, что в малой окрестности корня выполняется неравенство: image025.gif (525 bytes). Для близких к image026.gif (181 bytes) значений image028.gif (178 bytes) справедливо равенство image30.gif (497 bytes), следовательно, image032.gif (595 bytes). Это означает, что число обусловленности задачи нахождения корня равно image034.gif (403 bytes). Из последней формулы следует, что чем меньше значение производной функции в точке корня, тем задача хуже обусловлена. В частности, задача нахождения кратного корня имеет число обусловленности — бесконечность. 

Интервал неопределенности корня. Если функция image035.gif (216 bytes) непрерывна, то найдется такая малая окрестность image037.gif (293 bytes)  корня image038.gif (181 bytes), имеющая радиус image040.gif (174 bytes), в которой выполнено неравенство image042.gif (291 byes). Это означает, что image044.gif (187 bytes) image045.gif (293 bytes) знак вычисленного значения image046.gif (230 bytes) , вообще говоря не обязан совпадать со знаком image047.gif (216 bytes) и, следовательно, становится невозможным определить, какое именно значение image049.gif (174 bytes) из интервала image050.gif (293 bytes) обращает функцию image052.gif в нуль. Этот интервал называется интервалом неопределенности корня. Очевидно, что радиус интервала неопределенности для простого корня равен image054.gif (631.gif). Аналогично можно показать, что для кратного корня image056.gif (525 bytes). Это означает, что для простого корня радиус интервала неопределенности прямо пропорционален погрешности вычисления функции image058.gif (256 bytes), а для кратного корня image060.gif (357 bytes).

Пусть image062.gif (319 bytes). Корень уравнения простой и равен image063.gif (181 bytes) = -0.34729635533861. Тогда image065.gif (302 bytes) и image067.gif (301 bytes). Если image069.gif (340 bytes), то image071.gif (258 bytes). Это означает , что найти корень с точностью меньшей, чем радиус интервала неопределенности, не удастся. 

Применение метода Ньютона для нахождения кратного корня. Метод Ньютона для случая кратного корня обладает лишь линейной скоростью сходимости. Чтобы сохранить квадратичную сходимость его модифицируют следующим образом:

image073.gif (694 bytes), где image075.gif (184 bytes) — кратность корня. 

Как правило, значение image076.gif (184 bytes) v неизвестно. Используя метод Ньютона, можно узнать кратность корня. Для этого будем задавать значения image077.gif (184 bytes)= 1,2,3 и вычислять значение корня с заданной точностью , одновременно подсчитывая количество итераций для каждого значения image078.gif (184 bytes). При некотором значении image079.gif (184 bytes)число итераций будет минимальным. Это значение image080.gif (184 bytes) и есть кратность корня.

Наверх

4. Решение систем линейных алгебраических уравнений. Нормы векторов и матриц. LU-разложение матрицы.

Нормы векторов и матриц. Обозначим через image002 (366 bytes)— точное решение системы, а через image004 (420 bytes)— приближенное решение системы. Для количественной характеристики вектора погрешности image006 (246 bytes) введем понятие нормы.

Нормой вектора image008 (179 bytes) называется число image010 (225 bytes), удовлетворяющее трем аксиомам: 

1) image012 (294 bytes) причем image010 (225 bytes) = 0 тогда и только тогда, когда image008 (179 bytes)= 0;

2) image016 (392 bytes) для любого вектора image008 (179 bytes) и любого числа image019 (182 bytes);

3) image021 (462 bytes) для любых векторов image008 (179 bytes) и image024 (185 bytes).

Наиболее употребительными являются следующие три нормы:

image026 (447 bytes)  ,  image028 (635 bytes)  ,  image030 (496 bytes) .

Абсолютная и относительная погрешности вектора вводятся с помощью формул:

image032 (404 bytes)  и  image034 (534 bytes).

Нормой матрицы image036 (186 bytes) называется величина image038 (632 bytes). Введенная норма обладает свойствами, аналогичными свойствам нормы вектора:

1) image040 (299 bytes) причем image042 (232 bytes) = 0 тогда и только тогда, когда  A = 0;

2) image044 (396 bytes) для любой матрицы A и любого числа image019 (182 bytes);

3) image047 (467 bytes) для любых матриц A и B;

4) image049 (369 bytes).

Каждой из векторных норм соответствует своя подчиненная норма матрицы:

image051 (602 bytes)  ,  image053 (496 bytes)  ,  image055 (606 bytes) .

В оценках вместо нормы image057 (233 bytes) используется евклидова норма матрицы

image059 (635 bytes)  , так как  image061 (355 bytes) .

Абсолютная и относительная погрешности матрицы вводятся аналогично погрешностям вектора с помощью формул:

image063 (414 bytes)  ,  image065 (559 bytes) .

Пусть рассматривается система линейных алгебраических уравнений

image067 (1592 bytes) image069 (115 bytes)

В матричной форме записи она имеет вид image071 (233 bytes). Будем предполагать, что матрица системы image036 (186 bytes)задана и является невырожденной. Известно, что в этом случае решение системы существует, единственно и устойчиво по входным данным.

Обусловленность задачи. Так же как и другие задачи, задача вычисления решения системы может быть как хорошо обусловленной, так и плохо обусловленной. 

Теорема об оценке погрешности решения по погрешностям входных данных.

Пусть решение системы image073 (233 bytes), а x* — решение системы A*x*=b*, тогда image075 (491 bytes), где image077 (446 bytes) — относительное число обусловленности системы.

Если число обусловленности больше 10, то система является плохо обусловленной, так как возможен сильный рост погрешности результата.

Метод Гаусса. Рассмотрим метод Гаусса (схему единственного деления) решения системы уравнений. Прямой ход состоит из m-1 шагов исключения.

1 Шаг. Исключим неизвестное image079 (182 bytes) из уравнений с номерами i = 2,3,..m. Предположим, что image081 (232 bytes). Будем называть его ведущим элементом 1-го шага.

Найдем величины image083 (292 bytes), i=2,3,…m , называемые множителями 1-го шага. Вычтем последовательно из второго, третьего, …m vго уравнений системы первое уравнение, умноженное соответственно на image085 (275 bytes). В результате 1-го шага получим эквивалентную систему уравнений:

image087 (1777 bytes)

Аналогично проводятся остальные шаги. Опишем очередной k-ый шаг. Предположим, что ведущий элемент image089 (233 bytes). Вычислим множители к-го шага:image091 (376 bytes), i=k+1,…m и вычтем последовательно из (k+1)-го, …m v го уравнений системы k-ое уравнение, умноженное соответственно на 

image093 (317 bytes).После (m-1)-го шага исключения получим систему уравнений

image095 (1688 bytes),

матрица которой является верхней треугольной. На этом вычисления прямого хода заканчиваются.

Обратный ход. Из последнего уравнения системы находим image097 (187 bytes). Подставляя найденное значение image097 (187 bytes) в предпоследнее уравнение, получим image100 (199 bytes). Далее последовательно находим неизвестные image102 (253 bytes).

LU  разложение матрицы. Представим матрицу A в виде произведения нижней треугольной матрицы L и верхней треугольной U.

Введем в рассмотрение матрицы 

image104 (991 bytes) и image106 (195 bytes)image108 (187 bytes)

Можно показать, что A = LU. Это и есть разложение матрицы на множители.

Наверх

5. Решение систем линейных алгебраических уравнений прямыми методами.

Метод решения задачи называют прямым, если он позволяет получить решение после выполнения конечного числа элементарных операций. Метод решения задачи называют итерационным, если в результате получают бесконечную последовательность приближений к решению. Если эта последовательность сходится к решению задачи, то говорят, что итерационный процесс сходится. К прямым методам решения относятся метод Гаусса и его модификации, метод Холецкого и метод прогонки.

В методе Гаусса для вычисления масштабирующих множителей требуется делить на ведущие элементы каждого шага. Если элемент равен нулю или близок к нулю, то возможен неконтролируемый рост погрешности.

Поэтому часто применяют модификации метода Гаусса, обладающие лучшими вычислительными свойствами.

Метод Гаусса с выбором главного элемента по столбцу (схема частичного выбора). На k-ом шаге прямого хода в качестве ведущего элемента выбирают максимальный по модулю коэффициент image002.gif (205 bytes) при неизвестной image004.gif (186 bytes) в уравнениях с номерами i = k+1, … , m.Затем уравнение, соответствующее выбранному коэффициенту с номером image006.gif (184 bytes), меняют местами с к-ым уравнением системы для того, чтобы главный элемент занял место коэффициента image008.gif (233 bytes). После этой перестановки исключение проводят как в схеме единственного деления. В этом случае все масштабирующие множители по модулю меньше единицы и схема обладает вычислительной устойчивостью.

Метод Холецкого. Если матрица системы является симметричной и положительно определенной, то для решения системы применяют метод Холецкого (метод квадратных корней). В основе метода лежит алгоритм специального LU-разложения матрицы A, в результате чего она приводится к виду A=image010.gif (204 bytes). Если разложение получено, то как и в методе LU-разложения, решение системы сводится к последовательному решению двух систем с треугольными матрицами: image012.gif (226 bytes) и  image014.gif (239 bytes). Для нахождения коэффициентов матрицы L неизвестные коэффициенты матрицы image010.gif (204 bytes) приравнивают соответствующим элементам матрицы A. Затем последовательно находят требуемые коэффициенты по формулам:

image017.gif (277 bytes) , image019.gif (268 bytes) i = 2, 3, …, m,

image021.gif (332 bytes) , image023.gif (348 bytes) i = 3, 4, …, m,

……………

image025.gif (476 bytes)  image027.gif (505 bytes)   i = k+1, … , m.

image029.gif (588 bytes)

Метод прогонки.Если матрица системы является разреженной, то есть содержит большое число нулевых элементов, то применяют еще одну модификацию метода Гаусса — метод прогонки. Рассмотрим систему уравнений с трехдиагональной матрицей:

image031.gif (1935 bytes)

Преобразуем первое уравнение системы к виду image033.gif (291 bytes), где image035.gif (263 bytes), image037.gif (269 bytes)

Подставим полученное выражение во второе уравнение системы и преобразуем его к виду image039.gif (297 bytes) и т.д. На i-ом шаге уравнение преобразуется к виду image041.gif (295 bytes), где image043.gif (343 bytes), image045.gif (435 bytes). На m-ом шаге подстановка в последнее уравнение выражения image047.gif (333 bytes) дает возможность определить значение image049.gif (187 bytes):

image051.gif (511 bytes). Значения остальных неизвестных находятся по формулам: image052.gif (295 bytes), i = m-1, m-2, …, 1.

Наверх

6. Решение систем линейных алгебраических уравнений итерационными методами.

Рассматривается система Ax = b. 

Для применения итерационных методов система должна быть приведена к эквивалентному виду x=Bx+d. Затем выбирается начальное приближение к решению системы уравнений 

image002.gif (1185 bytes) и находится последовательность приближений к корню. Для сходимостиитерационного процесса достаточно, чтобы было выполнено условие image004.gif (964 bytes). Критерий окончания итераций зависит от применяемого итерационного метода.

Метод Якоби.

Самый простой способ приведения системы к виду удобному для итерации состоит в следующем: из первого уравнения системы выразим неизвестное  x1, из второго уравнения системы выразим  x2, и т. д. В результате получим систему уравнений с матрицей B, в которой на главной диагонали стоят нулевые элементы, а остальные элементы вычисляются по формулам:

 image010.gif (1014 bytes),i, j = 1, 2, … n. 

Компоненты вектора d вычисляются по формулам:

 image012.gif (974 bytes),   i = 1, 2, … n. 

Расчетная формула метода простой итерации имеет вид 

image014.gif (1048 bytes)

или в покоординатной форме записи выглядит так:

image016.gif (1380 bytes),  i = 1, 2, … m.

Критерий окончания итераций в методе Якоби имеет вид: 

image020.gif (1154 bytes) ,   где   image022.gif (1187 bytes)

Если  image024.gif (1008 bytes), то можно применять более простой критерий 

image026.gif (1146 bytes) окончания итераций 

Метод Зейделя.

Метод можно рассматривать как модификацию метода Якоби. Основная идея состоит в том, что при вычислении очередного (n+1)-го приближения к неизвестному  xi при i >1 используют уже найденные (n+1)-е приближения к неизвестным  x1, x2, …, xi — 1, а не n-ое приближение, как в методе Якоби. Расчетная формула метода в покоординатной форме записи выглядит так:

image034.gif (1729 bytes)

 i = 1, 2, … m.. Условия сходимости и критерий окончания итераций можно взять такими же как в методе Якоби.

Пусть матрица системы уравнений A — симметричная и положительно определенная. Тогда при любом выборе начального приближения метод Зейделя сходится. Дополнительных условий на малость нормы некоторой матрицы здесь не накладывается. 

Метод простой итерации.

Если A — симметричная и положительно определенная матрица, то систему уравнений часто приводят к эквивалентному виду: 

x = x — image039.gif (834 bytes)(Ax — b),  image039.gif (834 bytes) — итерационный параметр. 

Расчетная формула метода простой итерации в этом случае имеет вид:

x (n+1) = x n —  image039.gif (834 bytes)(Ax n — b). 

Здесь B = E —  image039.gif (834 bytes)A  и параметр  image039.gif (834 bytes) > 0 выбирают так, чтобы по возможности сделать минимальной величину  image046.gif (929 bytes)

Пусть image048.gif (902 bytes) и image050.gif (902 bytes) — минимальное и максимальное собственные значения матрицы A. Оптимальным является выбор параметра  image052.gif (1099 bytes). В этом случае  image046.gif (929 bytes) принимает минимальное значение равное image055.gif (1216 bytes).

Наверх

7. Приближение функций. Метод наименьших квадратов.

На практике часто возникает необходимость найти функциональную зависимость между величинами x и y, которые получены в результате эксперимента. Часто вид эмпирической зависимости известен, но числовые параметры неизвестны. 

Ниже рассматривается решение задачи приближения многочленами таблично заданной функции по методу наименьших квадратов и по методу интерполяции.

Постановка задачи приближения функции по методу наименьших квадратов. Пусть функция y=f(x) задана таблицей своих значений: image4.gif(967 bytes), i=0,1,-n. Требуется найти многочлен фиксированной степени m, для которого среднеквадратичное отклонение (СКО) image5.gif(1333 bytes)минимально.

Так как многочлен image6.gif(1201 bytes)определяется своими коэффициентами, то фактически нужно подобрать набор кофициентов image7.gif(964 bytes), минимизирующий функцию image8.gif(1755 bytes).

Используя необходимое условие экстремума, image9.gif(1008 bytes), k=0,1,-m получаем так называемую нормальную систему метода наименьших квадратов: image10.gif(1392 bytes), k=0,1,-m.

Полученная система есть система алгебраических уравнений относительно неизвестных image7.gif(964 bytes). Можно показать, что определитель этой системы отличен от нуля, то есть решение существует и единственно. Однако при высоких степенях m система является плохо обусловленной. Поэтому метод наименьших квадратов применяют для нахождения многочленов, степень которых не выше 5. Решение нормальной системы можно найти, например, методом Гаусса.

Запишем нормальную систему наименьших квадратов для двух простых случаев: m=0 и m=2. При m=0 многочлен примет вид: image11.gif(979 bytes). Для нахождения неизвестного коэффициента image12.gif(872 bytes) имеем уравнение:image13.gif(1194 bytes). Получаем, что коэффициент image14.gif(881 bytes) есть среднее арифметическое значений функции в заданных точках. 

Если же используется многочлен второй степени image15.gif(1105 bytes), то нормальная система уравнений примет вид:

image16.gif(3981 bytes)

Предположим, что функцию f можно с высокой точностью аппроксимировать многочленом image17.gif(929 bytes)некоторой степени m. Если эта степень заранее неизвестна, то возникает проблема выбора оптимальной степени аппроксимирующего многочлена в условиях, когда исходные данные image18.gif(865 bytes) содержат случайные ошибки. Для решения этой задачи можно принять следующий алгоритм: для каждого m=0,1,2,.. вычисляется величина 

image19.gif(1365 bytes). За оптимальное значение степени многочлена следует принять то значение m, начиная с которого величина image20.gif(879 bytes) стабилизируется или начинает возрастать.

Определение параметров эмпирической зависимости. Часто из физических соображений следует, что зависимость image21.gif(946 bytes) между величинами хорошо описывается моделью вида image22.gif(1079 bytes), где вид зависимости g известен. Тогда применение критерия наименьших квадратов приводит к задаче определения искомых параметров image7.gif(964 bytes)из условия минимума функции: image23.gif(1436 bytes).

Если зависимость от параметров image24.gif(969 bytes) нелинейна, то экстремум функции image23.gif(1436 bytes)ищут методами минимизации функций нескольких переменных.

Наверх

8. Приближение функций. Интерполяция.

Постановка задачи интерполяции функций.

Пусть функция y = f(x) задана таблицей своих значений: 

image002.gif(1118 bytes), i=0,1,…n. Требуется найти многочлен степени n, такой, что значения функции и многочлена в точках таблицы совпадают:

image004.gif(328 bytes), i=0,1,… n. 

Справедлива теорема о существовании и единственности интерполяционного многочлена.

Одна из форм записи интерполяционного многочлена — многочлен Лагранжа:

image006.gif(437 bytes), где 

image008.gif(1296 bytes)

Многочлен image010.gif(229 bytes)представляет собой многочлен степени n , удовлетворяющий условию

image012.gif(447 bytes) .

Таким образом, степень многочлена image014.gif(189 bytes) равна n и при image016.gif(206 bytes) в сумме обращаются в нуль все слагаемые, кроме слагаемого с номером image018.gif(200 bytes), равного image020.gif(181 bytes). Поэтому многочлен Лагранжа является интерполяционным.

Другая форма записи интерполяционного многочлена — интерполяционный многочлен Ньютона с разделенными разностями. Пусть функция f задана с произвольным шагом и

точки таблицы занумерованы в произвольном порядке. Величины 

image022.gif(534 bytes) называют разделенными разностями первого порядка. Разделенные разности второго порядка определяются формулой:

image024.gif(663 bytes).

Определение разделенной разности порядка image026.gif(210 bytes)таково: 

image028.gif(720 bytes)

Используя разделенные разности, интерполяционный многочлен Ньютона можно записать в следующем виде:

0301.gif (1360 bytes)

0302.gif (1180 bytes)

Величину image032.gif(397 bytes)называют погрешностью интерполяции или остаточным членом интерполяции.

Оценка погрешности интерполяции.

Если функция n+1 раз на отрезке [a,b] , содержащем узлы интерполяции image034.gif(181 bytes), i=0,1,…n, то для погрешности интерполяции справедлива оценка: 

image036.gif(722 bytes). Здесь image038.gif(520 bytes), image040.gif(372 bytes).

Эта оценка показывает, что для достаточно гладкой функции при фиксированной степени интерполяционного многочлена погрешность интерполяции стремится к нулю не медленнее, чем величина, пропорциональная image042.gif(225 bytes). Этот факт формулируют так: интерполяционный многочлен степени nаппроксимирует функцию с (n+1) порядком точности относительно image044.gif(211 bytes).

В практическом плане формула Ньютона обладает преимуществами перед формулой Лагранжа. Предположим, что в необходимо увеличить степень многочлена на единицу, добавив в таблицу еще один узел image046.gif(197 bytes). При использовании формулы Лагранжа это приводит к необходимости вычислять каждое слагаемое заново. Для вычисления image048.gif(239 bytes)достаточно добавить к image050.gif(225 bytes)лишь очередное слагаемое: image052.gif(496 bytes). Если функция f достаточно гладкая, то справедливо приближенное равенство image054.gif(433 bytes). Это равенство можно использовать для практической оценки погрешности интерполяции :image056.gif(376 bytes).

Наверх

9. Приближение функций. Сплайны.

Глобальная и кусочно-полиномиальная интерполяция. Пусть функция  f(x) интерполируется на отрезке [a,b]. Метод решения этой задачи с помощью единого многочлена image002.gif (225 bytes) для всего отрезка называют глобальной полиномиальной интерполяцией. В вычислительной практике такой поход применяется редко в силу различных причин. Одна из причин v необходимо задать стратегию выбора узлов при интерполяции функции  f многочленами все возрастающей степени n.

Теорема Фабера. Какова бы ни была стратегия выбора узлов интерполяции, найдется непрерывная на отрезке [a,b] функция  f, для которой image004.gif (512 bytes) при image006.gif (215 bytes). Таким образом, теорема Фабера отрицает существование единой для всех непрерывных функций стратегии выбора узлов. Проиллюстрируем сказанное примером.

Предположим, что выбираем равноотстоящие узлы, то есть imge008.gif (252 bytes), i = 0,1,…n, где image010.gif (283 bytes). Покажем, что для функции Рунге такая стратегия является неудачной.

На практике чаще используют кусочно-полиномиальную интерполяцию: исходный отрезок разбивается на части и на каждом отрезке малой длины исходная функция заменяется многочленом невысокой степени. Система Mathcad предоставляет возможность аппроксимации двумя важными классами функций: кусочно-линейной и сплайнами.

При кусочно-линейной интерполяции узловые точки соединяются отрезками прямых, то есть через каждые две точки imge012.gif (265 bytes) , imge014.gif (292 bytes) проводится полином первой степени.

Как видно из приведенного примера этот способ приближения также имеет недостаток: в точках «стыка» двух соседних многочленов производная, как правило, имеет разрыв.

Если исходная функция была гладкой и требуется, чтобы и аппроксимирующая функция была гладкой, то кусочно-полиномиальная интерполяция неприемлема. В этом случае применяют сплайны v специальным образом построенные гладкие кусочно-многочленные функции.

Интерполяция сплайнами. Пусть отрезок [a,b] разбит точками на n частичных отрезков imge016.gif (236 bytes). Сплайном степени m называется функция imge018.gif (230 bytes), обладающая следующими свойствами:

1) функция image019.gif (230 bytes) непрерывна на отрезке [a,b] вместе со своими производными до некоторого порядка  p.

2) на каждом частичном отрезке image021.gif (264 bytes) функция совпадает с некоторым алгебраическим многочленом image023.gif (240 bytes) степени m.

Разность m-p между степенью сплайна и наивысшим порядком непрерывной на отрезке [a,b] производной называют дефектом сплайна. Кусочно-линейная функция является сплайном первой степени с дефектом, равным единице. Действительно, на отрезке [a,b] сама функция image025.gif (225 bytes) (нулевая производная) непрерывна. В то же время на каждом частичном отрезке image026.gif (225 bytes) совпадает с некоторым многочленом первой степени.

Наиболее широкое распространение получили сплайны 3 степени (кубические сплайны) image028.gif (225 bytes) с дефектом равным 1 или 2. Система для осуществления сплайн-интерполяции кубическими полиномами предусматривает несколько встроенных функций. Одна из них рассмотрена в примере.

Погрешность приближения кубическими сплайнами. Пусть функция f имеет на отрезке [a,b] непрерывную производную четвертого порядка и image030.gif (597 bytes). Тогда для интерполяционного кубического сплайна справедлива оценка погрешности: image032.gif (739 bytes).

Наверх

10. Решение задачи Коши одношаговыми методами.

Постановка задачи Коши для дифференциального уравнения первого порядка.

Пусть дано дифференциальное уравнение первого порядка image015.gif(302 bytes) . Требуется найти функцию image017.gif(228 bytes) , удовлетворяющую при image019.gif(220 bytes) дифференциальному уравнению и при image021.gif(222 bytes) начальному условию image023.gif(296 bytes)

Теорема существования и единственности задачи Коши. Пусть функция image038.gif(255 bytes) определена и непрерывна на множестве точек image040.gif(447 bytes) . Предположим также, что она удовлетворяет условию Липшица: image042.gif(566 bytes) для всех image044.gif(269 bytes) и произвольных image046.gif(193 bytes), image051.gif(196 bytes) , где image053.gif(179 bytes) — некоторая константа (постоянная Липшица). Тогда для каждого начального значения image055.gif(196 bytes) существует единственное решение image057.gif(228 bytes) задачи Коши, определенное на отрезке image059.gif(249 bytes) .

Геометрически задача интегрирования дифференциальных уравнений состоит в нахождении интегральных кривых, которые в каждой своей точке имеют заданное направление касательной. Заданием начального условия мы выделяем из семейства решений ту единственную кривую, которая проходит через фиксированную точку image061.gif(265 bytes)

Численное решение задачи Коши методом Эйлера.

Численное решение задачи Коши состоит в построении таблицы приближенных значений image063.gif(284 bytes)в точках image065.gif(265 bytes) . Точки image067.gif(277 bytes), image069.gif(268 bytes) называются узлами сетки, а величина image071.gif(182 bytes) — шагом сетки. В основе построения дискретной задачи Коши лежит тот или иной способ замены дифференциального уравнения его дискретным аналогом. Простейший метод основан на замене левой части уравнения правой разностной производной: image073.gif(453 bytes) . Разрешая уравнение относительно image075.gif(211 bytes) , получаем расчетную формулу метода Эйлера: image077.gif(394 bytes), image079.gif(268 bytes)

Численный метод называется  явным, если вычисление решения в следующей точке image082.gif(211 bytes)осуществляется по явной формуле. Метод называется одношаговым, если вычисление решения в следующей точке image084.gif(209 bytes) производится с использованием только одного предыдущего значения image086.gif(189 bytes) . Метод Эйлера является явным одношаговым методом. 

Оценка погрешности метода Эйлера.

Локальной погрешностью метода называется величина image089.gif(349 bytes) . Найдем величину локальной погрешности метода Эйлера: image091.gif(941 bytes) , при условии, что image093.gif(282 bytes) . Другими словами image095.gif(201 bytes) погрешность, которую допускает за один шаг метод, стартующий с точного решения. Глобальной погрешностью   (или просто погрешностью) численного метода называют сеточную функцию image097.gif(199 bytes) со значениями image099.gif(312 bytes) в узлах. В качестве меры абсолютной погрешности метода примем величину image101.gif(601 bytes) . Можно показать, что для явных одношаговых методов из того, что локальная погрешность имеет вид image103.gif(294 bytes) следует, что image105.gif(326 bytes) , где image107.gif(185 bytes) и M — некоторые константы. Таким образом, метод Эйлера является методом первого порядка точности. Для нахождения решения задачи Коши с заданной точностью image109.gif(177 bytes) требуется найти такое приближенное решение image111.gif(204 bytes) , для которого величина глобальной погрешности image113.gif(279 bytes) . Так как точное решение задачи неизвестно, погрешность оценивают с помощью правила Рунге.

Правило Рунге оценки погрешностей.  Для практической оценки погрешности проводят вычисления с шагами h и h/2. За оценку погрешности решения, полученного с шагом h/2, принимают величину, равную image115.gif(618 bytes) , где p — порядок метода.

Модификации метода Эйлера.

Метод Эйлера обладает медленной сходимостью, поэтому чаще применяют методы более высокого порядка точности. Второй порядок точности по image118.gif(182 bytes) имеет усовершенствованный метод Эйлера : image119.gif(702 bytes). Этот метод имеет простую геометрическую интерпретацию. Метод Эйлера называют методом  ломаных, так как интегральная кривая на отрезке image120.gif(262 bytes) заменяется ломаной с угловым коэффициентом image121.gif(278 bytes) . В усовершенствованном методе Эйлера интегральная кривая на отрезке image122.gif(263 bytes) заменяется ломаной с угловым коэффициентом, вычисленным в средней точке отрезка image123.gif(333 bytes) . Так как значение image124.gif(230 bytes) в этой точке неизвестно, для его нахождения используют метод Эйлера с шагом image125.gif(213 bytes)

Еще одна модификация метода Эйлера второго порядка — метод Эйлера-Коши:

image126.gif(829 bytes)

Решение систем дифференциальных уравнений методом Эйлера.

Пусть требуется решить нормальную систему дифференциальных уравнений: 

image127.gif(801 bytes)

с начальными условиями: image128.gif(310 bytes), image129.gif(318 bytes) , …, image130.gif(319 bytes)

Эту систему в векторной форме можно записать в виде: image131.gif(313 bytes), image132.gif(309 bytes) . Здесь image133.gif(627 bytes), image134.gif(805 bytes), image135.gif(510 bytes) . Расчетная формула метода Эйлера имеет вид: image136.gif(410 bytes), image137.gif(268 bytes).

При решении любой математической задачи важную роль играет вопрос существования и единственности решения. Но положительный ответ на этот вопрос еще не гарантирует достоверности практических результатов, которые получены в результате решения математической задачи. Поясним это подробнее.

При постановке математической задачи, как правило, име-ются параметры, которые не фиксированы и могут принимать произвольные значения из некоторых интервалов. В качестве таких параметров могут рассматриваться данные измерений, результаты решения каких-то других задач, результаты экс-пертных оценок и т.п., которые задаются приближенно. Если при каждом допустимом наборе значений параметров (входных данных математической задачи) задача имеет решение, и притом единственное, то возникает зависимость решения от указанных параметров.

Результатом решения математической задачи является вычисление на основе входных данных некоторого набора числовых значений — выходных данных математической задачи. Как входные, так и выходные данные можно рассматривать в качестве элементов соответствующих нормированных пространств. Это позволяет сравнивать между собой различные варианты входных (выходных) данных и оценивать степень их близости, что приводит к понятию непрерывной зависимости решения задачи от входных данных.

Пусть х, x0 ∈ Rm представляют собой векторы входных данных некоторой математической задачи, а y, y0 ∈ Rm — со-ответствующие этим входным данным решения, или выходные данные. Скажем, что решение задачи непрерывно зависит от входных данных, если для любого x0 и для любого ε > 0 существует такое δ > 0, что при ||x — x0|| < δ имеем ||у — y0|| < ε, где ||·|| — некоторая норма в Rm.

Математическую задачу называют корректной или корректно поставленной, если ее решение существует, един-ственно и непрерывно зависит от входных данных. Бели одно из трех условий нарушается (решение неединственно, не существует или нарушается требование непрерывной зависимости от входных данных), то говорят о некорректной математической задаче.

Понятие корректной задачи легко конкретизировать для системы линейных алгебраических уравнений (СЛАУ) с невырожденной матрицей. Напомним, СЛАУ Ах = b с квадратной матрицей А порядка n имеет единственное решение тогда и только тогда, когда матрица А невырождена [III]. Входными данными задачи решения СЛАУ следует считать элементы ее матрицы и правые части уравнений.

Столбец неизвестных х и столбец правых частей b СЛАУ Ах = Ъ можно трактовать как векторы n-мерного линейного арифметического пространства Rn, в котором задана некоторая норма ||·||. Этой норме соответствует индуцированная норма матрицы, для которой будем использовать то же обозначение ||·||. Изменение входных данных означает, что наряду со СЛАУ Ах = b с решением надо рассмотреть другую возмущенную систему ~Ах = ~b с матрицей ~А = А + ΔА и столбцом правых частей b = b + Δb, которая отличается от исходной системы возмущением матрицы системы ΔА и возмущением столбца правых частей ΔЬ. Решением возмущенной системы будет некоторый столбец ~x, который отличается от х на столбец Δх = ~х — x, называемый возмущением решения. Величины ||ΔА||, ||Δb|| и ||Δx|| можно интерпретировать как абсолютные погрешности соответственно матрицы системы, правой части и решения, если компоненты исходной системы рассматривать как точные. При этом относительные погрешности будут выражаться формулами

 Обусловленность квадратных матриц

Корректность задачи решения СЛАУ Ах = b с квадратной невырожденной матрицей заключается в том, что малым от-носительным погрешностям матрицы системы и правой части отвечает малая относительная погрешность решения системы. Чтобы показать, что это действительно так, нужно относительную погрешность решения оценить с помощью относительных погрешностей матрицы и правой части.

Определение 11.1. Для квадратной невырожденной матрицы А величину

c(A) = ||A||||A-1|| (11.1)

называют ее числом обусловленности.

Число обусловленности матрицы всегда положительно и зависит от заданной нормы матриц. Эта характеристика имеет следующие свойства.

Свойство 11.1. Для любой невырожденной матрицы А число ее обусловленности совпадает с числом обусловленности обратной матрицы А-1:

c(A) = c(A-1).

с(А-1) = ||A-1|| ||(A-1)-1|| = |A-1|| ||А|| = с(А).

Свойство 11.2. Бели норма матриц кольцевая, то с(АВ) ≤ с(А)с(B).

Согласно свойствам обратной матрицы, (АВ)-1 = B-1А-1, а согласно условию, что норма кольцевая, ||АВ|| ≤ ||А||||В||. Поэтому

с(АВ) = ||AB|| ||(AВ)-1| ≤ ||A|| ||В|| ||В-1|| ||А-1|| = (||A||||A-1||)(||В|||||B-1||)=с(А)с(В).

Свойство 11.3. Если матричная норма кольцевая, то с(А) ≥ 1 для любой невырожденной матрицы А.

Для единичной матрицы Е, согласно равенству ЕЕ = Е и свойству 11.2, получаем

с(Е) = с(ЕЕ) ≤ с(Е) с(Е).

Так как с(Е) > 0, то, сокращая в неравенстве на с(Е), имеем с(Е) ≥ 1.

Для невырожденной матрицы А существует обратная матрица A-1, при этом AA-1 = Е. Согласно свойствам 11.1 и 11.2, заключаем, что

1 ≤ с(Е) = с(АА-1) ≤ с(A) c(A-1) = (с(A))2.

Значит, с (А) ≥ 1, так как число обусловленности матрицы неотрицательное.

Свойство 11.4. Если ||·|| — спектральная норма, то число обусловленности симметрической матрицы А равно

с(А) = |λmax|/|λmin|,

где λmах, λmin — ее собственные значения, соответственно наибольшее и наименьшее по абсолютной величине.

Спектральная норма симметрической матрицы равна макси-мальной из абсолютных величин |λi| ее собственных значений. Действительно, если симметрическая матрица имеет порядок n, то в Rn существует ортонормированный базис е1,…, еn из ее собственных векторов. Пусть соответствующие им собствен-ные значения связаны неравенствами |λ1| ≥ |λ2| ≥ … ≥ |λn|. То
гда для любого вектора х = α1е1 +… + αnеn имеем

 Обусловленность квадратных матриц

Но на самом деле в приведенном неравенстве должен стоять знак равенства, так как для х = е1 имеем

||Ax||/||x|| = ||λе1е1||/||е1|| = |λе1|

Отметим, что если λ — собственное значение невырожден-ной матрицы А, то λ-1 — собственное значение матрицы А-1, так как равенство Ах = λх, х ≠ 0, равносильно равенству А-1х = λ-1x. Кроме того, если А — симметрическая матрица, т.е. АT = А, то и А-1 — симметрическая матрица, так как (A-1)T = (АT)-1 = А-1 Поэтому, если λmах и λmin — соответственно наибольшее и наименьшее по абсолютной величине собственные значения матрицы А, то ||A|| = |λmах|, ||A-1|| = |λ-1min|. Следовательно, с(А) = ||А||||A-1|| = |λmax| |λ-1min|.

Число обусловленности матрицы А в значительной степени определяет чувствительность СЛАУ Ах = Ь к погрешностям в коэффициентах матрицы и в правых частях уравнений: чем больше это число, тем выше погрешность решения при данном уровне погрешностей входных данных. Эту связь показывает следующая теорема.

Теорема 11.1. Если матрица А невырождена и

||ΔA||<||A-1||-1 , (11.2)

где ||·|| — произвольная кольцевая норма матриц, то матрица ~А = А + ΔА тоже невырождена и верна следующая оценка для относительной погрешности решения

Обусловленность квадратных матриц

Замечание 11.1. Если выполняется неравенство (11.2), то

 Обусловленность квадратных матриц

В этом случае в правой части неравенства (11.3) деления на нуль нет, и она положительная.

  1. Линейные операции над векторами

  2. Базис. Cкалярное произведение

  3. Векторное и смешанное произведения векторов

  4. Декартова система координат. прямая на плоскости

  5. Плоскость в пространстве

  6. Прямая в пространстве

  7. Кривые второго порядка — I

  8. Кривые второго порядка — II

  9. Поверхности второго порядка

  10. Матрицы и операции с ними

  11. Обратная матрица

  12. Ранг матрицы

  13. Системы линейных алгебраических уравнений

  14. Свойства решений однородных и неоднородных СЛАУ

Понравилась статья? Поделить с друзьями:
  • Как найти аккаунт в авито по нику
  • Как найти 250000 рублей
  • Дум 3 как найти плазменный излучатель
  • Как грамотно составить апелляционную жалобу на решение районного суда образец
  • Как конь нашел лошадку