ФЕДЕРАЛЬНОЕ ГОСУДАРСТВЕННОЕ ОБРАЗОВАТЕЛЬНОЕ
УЧРЕЖДЕНИЕ ВЫСШЕГО ПРОФЕССИОНАЛЬНОГO
ОБРАЗОВАНИЯ
“ЮЖНЫЙ ФЕДЕРАЛЬНЫЙ УНИВЕРСИТЕТ”
В.А.Еремеев
РЕШЕНИЕ СИСТЕМ ЛИНЕЙНЫХ
АЛГЕБРАИЧЕСКИХ УРАВНЕНИЙ ДЛЯ БОЛЬШИХ РАЗРЕЖЕННЫХ МАТРИЦ
(учебно-методическое пособие)
Ростов-на-Дону
2008
В.А.Еремеев. Решение систем линейных алгебраических уравнений для больших разреженных матриц: Учебно-методическое пособие. – г.Ростов-на-Дону, 2008 г. – 39 с.
В данном пособии в концентрированном виде содержится информация о решении систем линейных алгебраических уравнений для разреженных матриц большой размерности. Пособие состоит из четырех основных модулей:
1. задачи линейной алгебры с разреженными матрицами на примере дискретизации уравнения Пуассона;
2. векторные и матричные нормы;
3. итерационные методы;
4. методы подпространств Крылова.
Пособие предназначено для преподавания дисциплин в рамках магистерской образовательной программы “Математическое моделирование и компьютерная механика”.
Пособие также предназначено для студентов и аспирантов факультета математики, механики и компьютерных наук, специализирующихся в области математического моделирования, вычислительной математики и механики твердого деформируемого тела.
Пособие подготовлено в рамках гранта ЮФУ K-07-T-41.
Содержание
1 Задачи линейной алгебры с разреженными матрицами на примере дискретизации уравнения Пуассона 4
1.1 Решение уравнения −x
00
= f
(t
) . . . . . . . . . . . . . . . 4
1.2 Решение уравнения Пуассона . . . . . . . . . . . . . . . . 6
2 Векторные и матричные нормы 11
2.1 Векторные нормы . . . . . . . . . . . . . . . . . . . . . . 11
2.2 Матричные нормы . . . . . . . . . . . . . . . . . . . . . . 13
2.3 Связь векторных и матричных норм . . . . . . . . . . . 15
3 Итерационные методы 19
3.1 Определения и условия сходимости итерационных методов 19
3.2 Метод простой итерации . . . . . . . . . . . . . . . . . . . 23
3.3 Метод Якоби . . . . . . . . . . . . . . . . . . . . . . . . . 24
3.4 Метод Гаусса-Зейделя . . . . . . . . . . . . . . . . . . . . 25
3.5 Метод последовательной верхней релаксации (SOR) . . . 26
3.6 Метод симметричной последовательной верхней релак-
сации (SSOR) . . . . . . . . . . . . . . . . . . . . . . . . . 27
4 Методы подпространств Крылова 30
4.1 Инвариантные подпространства . . . . . . . . . . . . . . 30
4.2 Степенная последовательность и подпространства Кры-
лова . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
4.3 Итерационные методы подпространств Крылова . . . . . 33
Заключение 38
Литература 38
Дополнительная литература 39
1 Задачи линейной алгебры с разреженными матрицами на примере дискретизации уравнения Пуассона
Основным источником задач линейной алгебры для матриц большой размерности являются задачи, получаемые в результате дискретизации краевых задач математической физики. Далее рассмотрим два примера, иллюстрирующих особенности получаемых матричных задач.
1.1 Решение уравнения −x
00
= f
(t
)
Рассмотрим простейшую краевую задачу
−x
00
= f
(t
), x
(0) = x
(1) = 0.
Для дискретизации этой краевой задачи воспользуемся методом конечных разностей. Введем равномерную сетку на единичном отрезке
ti
= hi, i
= 0,...n
+ 1, h
= 1/
(n
+ 1)
так, чтобы t
0
= 0, tn
+1
= 1. Используем обозначения
xi
= x
(ti
), fi
= f
(ti
).
Для дискретизации второй производной воспользуемся центральной конечной разностью
,
которая аппроксимирует x
00
(ti
) c точностью O
(h
2
). Тогда исходная краевая задача сводится к системе линейных алгебраических уравнений (СЛАУ) относительно
−xi
−1
+ 2xi
− xi
+1
= h
2
fi
(i
= 1,...,n
)
или c учетом краевых условий x
0
= xn
+1
= 0
2x
1
− x
2
= = h
2
f
1
,
−x
1
+ 2x
2
− x
3
= h
2
f
2
,
,
.
Эту СЛАУ можно записать также в матричном виде
A
x = b,
где
2
A
|
−1 0 2 −1 −1 2 |
...
...
...
... |
0 0 0 |
0 0 0 ,
|
0 0 0 ...
−1 2
x
x
x
... xn
|
b
b
b
b = ... b
|
Обратим внимание на следующие свойства матрицы A
.
• A
– разреженная матрица, она трехдиагональная;
• A
– симметричная и, более того, положительно определенная. Это свойство она унаследовала от свойств оператора исходной краевой задачи;
• Структура A
достаточно простая, ее элементы вычисляются по простым формулам. Следовательно, для ее хранения в памяти компьютера нет необходимости использовать типы данных, предназначенные для хранения заполненных матриц.
Обсудим размерность полученной СЛАУ. Предположим, что требуемая точность аппроксимации равна ²
= 10−6
. Поскольку ²
∼ h
2
, то
−3
, т.к. h
∼ √²
. Т.е. требуемый шаг сетки нужно выбрать порядка 10 мы имеем матрицу размерности 103
× 103
. На практике, размерность должна быть выше, чтобы удовлетворить большей точности.
0 1
Рис. 1: Конечно-разностная сетка. Естественная нумерация узлов.
1.2 Решение уравнения Пуассона Рассмотрим более сложную краевую задачу
−∆u
(x,y
) = f
(x,y
), u
|Γ
= 0,
где u
= u
(x,y
) – неизвестная функция, f
(x,y
) – известная, заданные на единичном квадрате (x,y
) ∈ Ω = [0,
1]×[0,
1]}, Γ = ∂
Ω – граница Ω. Введем на Ω равномерную сетку, так что координаты узлов даются формулами xi
= hi, yi
= hi, i
= 0,...N
+ 1, h
= 1/
(N
+ 1).
Используем обозначения
u
i,j
= u
(x
i
,y
j
), f
i,j
= f
(x
i
,y
j
).
Для дискретизации вторых производных в операторе Лапласа ∆ воспользуемся формулами для центральной конечной разности
,
Таким образом, исходная краевая задача сводится к СЛАУ
−u
i
−1,j
+ 4u
i,j
− u
i
+1,j
− u
i,j
−1 − u
i,j
+1 = h
2f
i,j
(1) относительно ui,j
. Для того, чтобы свести ее к стандартному виду A
x = b, необходимо преобразовать ui,j
к выражению с одним индексом, т.е. перенумеровать каким-то образом. Выбор нумерации влияет, вообще говоря, на структуру матрицы A
.
Рассмотрим случай N
= 3.
Соответствующая сетка показана на рис. 1, где использована естественная нумерация внутренних узлов. Полые кружки соответствуют граничным узлам, в которых известно значение функции, а сплошные – внутренним.
Если преобразовать конечно-разностное уравнение (1) в матричное уравнение A
x = b, вводя вектор неизвестных по правилу u
1,
1 = x
1, u
1,
2 = x
2, u
1,
3 = x
3, u
2,
1 = x
4,..., u
3,
3 = x
9,
то матрица A
принимает вид |
||||||||
| −1 0 0 4 −1 0 −1 0 0 |
0 −1 0 −1 4 −1 0 −1 0 |
0 0 −1 0 −1 4 0 0 −1 |
0 0 0 −1 0 0 4 −1 0 |
0 0 0 0 −1 0 0 4 −1 |
0 0
0 0 0 −1 0 −1 4 |
||
4
0
A
0 0 0 0 |
−1 4 −1 0 −1 0 0 0 0 |
0 −1 4 0 0 −1 0 0 0 |
Видно, что A
является симметричной ленточной разреженной матрицей с диагональным преобладанием.
В результате нужно отметить, что в целом, матрица A
обладает теми же свойствами, что и в случае одномерной, задачи, хотя ее структура может не быть ленточной, что зависит от способа нумерации узлов сетки
Обсудим размерность полученной СЛАУ. Предположим как и ранее, что требуемая точность аппроксимации равна ²
= 10−6
. Поскольку ²
∼ h
2
, то требуемый шаг сетки нужно выбрать порядка 10−3
, т.к.
√ 3
× 103
= 106
. Таh
∼ ²
. Число узлов здесь оказывается равным 10 кому же числу равно число неизвестных n
. Таким образом, мы имеем матрицу размерности 106
× 106
.
Нетрудно догадаться, что если рассмотреть, не квадрат, а куб, то число неизвестных будет примерно равно n
= 109
. В расчетной практике встречаются задачи, где нужно определять не одну функцию, а несколько. Например, в гидродинамике при учете теплопереноса имеем четыре скалярных неизвестных (три компоненты поля скорости и поле температуры). Если рассматривать конечно-разностную аппроксимацию этой задачи с точностью ²
= 10−6
, то получим размерность n
= 4 · 109
.
Рассмотренные выше два примера показывают характерные источники задач линейной алгебры, приводящие к СЛАУ с большими разреженными матрицами. Естественно, что при решении таких СЛАУ необходимо развивать специальные методы вычислительной алгебры.
Рассмотрим другую нумерацию узлов, показанную на рис. 2. Здесь использовано так называемое красно-черное разбиение (или чернобелое). Вначале нумеруются узлы, сумма индексов которых – четное число, а потом узлы, сумма индексов которых дает нечетное число. Таким образом, вектор переменных вводится по правилу вектор неизвестных по правилу
u
1,
1 = x
1, u
1,
3 = x
2, u
2,
2 = x
3, u
3,
1 = x
4, u
3,
3 = x
5
– это красные неизвестные, а
u
1,
2 = x
6, u
2,
1 = x
7, u
2,
3 = x
8, u
3,
2 = x
9
– черные неизвестные.
0 1
Рис. 2: Конечно-разностная сетка. Красно-черное разбиение.
Соответствующая красно-черному разбиению матрица дается формулой
4 0 0 0
A
−1 −1 −1 0 −1 0 −1 −1 0 −1 −1 0 |
0 0 0 0 4 0 0 −1 |
−1 −1 0 0 −1 0 −1 0
−1 −1 −1 −1
0 0 −1 −1 4 0 0 0 0 4 0 0 0 0 4 0 0 0 0 4 |
0 0 −1 −1 −1 |
Видно, что A
является симметричной блочной (состоящей из четырех блоков) разреженной матрицей с диагональным преобладанием.
ТЕСТ РУБЕЖНОГО КОНТРОЛЯ № 1
1. Если исходная краевая задача порождает самосопряженный оператор, то какого вида матрицу следует ожидать после дискретизации? (выберите один из ответов)
(a) диагональную;
(b) верхнюю треугольную;
(c) трехдиагональную; (d) симметричную.
2. Зависит ли структура матрицы от способа нумерации узлов (выберите один из ответов)
(a) зависит;
(b) не зависит;
(c) не зависит, если оператор краевой задачи самосопряженный; (d) не зависит, если матрица ленточная.
3. Выберите из списка все разреженные матрицы
(a) диагональная;
(b) ленточная;
(c) нижняя треугольная; (d) теплицева.
4. При аппроксимации конечными разностями второго порядка двумерного уравнения Лапласа потребовалась точность 10−10
. Каков порядок матрицы соответствующей СЛАУ получится, т.е. размерность n
? (выберите один из ответов)
(a) 10−10
;
(b) 1010
;
(c) 105
;
(d) 10100
.
2 Векторные и матричные нормы
Напомним некоторые основные определения и утверждения из линейной алгебры. В данном пособии мы будем иметь дело с квадратными вещественными матрицами размерности n
× n
.
2.1 Векторные нормы
Определение 1. Пусть V – векторное пространство над полем F (R или C). Функция k · k: V → R является векторной нормой, если для всех x, y ∈ V выполняются следующие условия:
(1) kxk ≥ 0 (неотрицательность);
(1a) kxk = 0 тогда и только тогда, когда x = 0 (положительность);
(2) kc
xk = |c
|kxk для всех чисел c
∈ F (абсолютная однородность);
(3) kx + y| ≤ kxk + kyk (неравенство треугольника).
Это привычные свойства евклидовой длины на плоскости. Евклидова длина обладает и другими свойствами, независимыми от приведенных аксиом (например, выполнено тождество параллелограмма). Подобные дополнительные свойства оказываются несущественными для общей теории норм и поэтому не причисляются к аксиомам.
Функцию, для которой выполнены аксиомы (1), (2) и (3), но не обязательно (1а), называют векторной полунормой. Это более общее понятие, чем норма. Некоторые векторы, отличные от нулевого, могут иметь нулевую длину в смысле полунормы.
Определение 2. Пусть V – векторное пространство над полем F (R или C). Функция (x,
y): Vx
V → F является скалярным произведением, если для всех x, y, z ∈ V следующие условия:
(1) (x,
x) ≥ 0 (неотрицательность);
(1a) (x,
x) = 0 тогда и только тогда, когда x = 0
(положительность);
(2) (x + y,
z) = (x,
z) + (y,
z) (аддитивность); (3) (c
x,
y) = c
(x,
y) для всех чисел c
∈ F (однородность);
(4) (x,
y) = (y,
x) для любых x,
y (эрмитовость).
Примеры векторных норм. В конечномерном анализе используются так называемые `p
-нормы
.
Наиболее распространенными являются следующие три нормы
;
(евклидова норма);
Естественно, что существует бесконечно много норм. Например, нормой также является выражение max{kxk1
+ kx||2
} или такое
kxkT
= kT
xk,
где T
– произвольная невырожденная матрица.
Имеет место теорема, с теоретической точки зрения показывающая достаточность только одной нормы
Теорема 1. В конечномерном пространстве все нормы эквивалентны, т.е. для любых двух норм k · kα
, k · kβ
и для любого x выполняется неравенство
kxkα
≥ C
(α,β,n
)kxkβ
где C
(α,β,n
) – некоторая постоянная, зависящая от вида норм и от размерности матрицы n
.
Для норм k · k1
, k · k2
, k · k∞
константа C
(α,β,n
) определяется таблицей
α
β |
1 | 2 √ |
∞ |
1 | 1 | n
|
n √ |
2 | 1 | 1 | n
|
∞ | 1 | 1 | 1 |
Проверим выполнение некоторых из неравенств.
Очевидно, что kxk1
≤ n
kxk∞
. Это следует из неравенства
,
которое получается, если в kxk1
заменить компоненты на максимальное значение. Неравенство достигается, если xi
= xm
ax
, т.е. все компоненты равны друг другу. Тем самым это неравенство является точным, поскольку иногда становится равенством.
Проверку остальных неравенств оставляем читателю (см. также
[10]).
Несмотря на теоретическую эквивалентность норм, с практической точки зрения норма вектора большой размерности n
может отличаться от другой нормы того же вектора в n
раз. Поэтому выбор нормы при больших n
имеет значение с практической точки зрения.
Геометрические свойства норм k·k1
, k·k2
, k·k∞
могут быть прояснены в случае R2
. Графики уравнений kxk1
= 1, kxk2
= 1, kxk∞
= 1 показаны на рис. 3. .
2.2 Матричные нормы
Обозначим пространство квадратных матриц порядка n
через Mn
.
Определение 3. Функция k·k, действующая из Mn
в Rn
, называется матричной нормой, если выполнены следующие свойства
Рис. 3: Графики уравнений kxk1
=1, kxk2
=1, kxk∞
=1.
1. kA
k ≥ 0, kA
k = 0 ⇔ A
= 0;
2. kλ
A
k = |λ
|kA
k;
3. kA
+ B
k ≤ kA
k + kB
k (неравенство треугольника);
4. kAB
k ≤ kA
kkB
k (кольцевое свойство).
Если последнее свойство не выполнено, то такую норму будем называть обобщенной матричной нормой.
Приведем примеры наиболее распространенных матричных норм.
1. – максимальная столбцовая норма;
2. – максимальная строчная норма;
3. kA
kM
= n
max |aij
|;
i,j
=1..n
4. kA
k2
= max νi
– спектральная норма. Здесь νi
– сингулярные i
=1..n
числа матрицы A
, т.е. νi
2
– собственные числа матрицы AA
T
;
5. – евклидова норма;
6. норма.
Как и в случае векторных норм, все матричные нормы эквивалентны. Использование различных норм связано с удобством использования, а также с тем фактом, что матриц большой размерности значения нормы могут отличаться весьма значительно.
2.3 Связь векторных и матричных норм
Выше были даны примеры векторных и матричных норм, введенные независимо друг от друга. Вместе с тем, эти два понятия могут быть связаны при помощи двух понятий.
Определение 4. Матричная норма k · k называется согласованной с векторной нормой k · k, если для любой A
∈ Mn
и любого x ∈ V выполняется неравенство
kA
xk ≤ kA
kkxk.
Заметим, что в этом неравенстве знак нормы относится к разным нормам – векторным и матричной.
Определение 5. Матричная норма называется подчиненной (операторной, индуцированной) соответствующей векторной норме, если она определена равенством
kA
k = max kA
xk.
kxk=1
Понятие операторной матричной нормы является более сильным, чем подчиненной:
Теорема 2. Операторная норма является подчиненной соответствующей матричной норме.
Доказательство. Действительно, из определения следует,
kA
xk ≤ kA
kkxk.
Следствие 2.3.1. Операторная норма единичной матрицы равна единице:
kE
k = 1.
Доказательство. Действительно, kE
k = max kE
xk = 1.
kxk=1
Существует ряд утверждений, связывающих введенные матричные и векторные нормы.
1. Матричная норма k · k1
являются операторной нормой, соответствующей векторной норме k · k1
.
2. Матричная норма k · k∞
являются операторной нормой, соответствующей векторной норме k · k∞
.
3. Спектральная матричная норма k·k2
являются операторной нормой, соответствующей евклидовой векторной норме k · k2
.
4. Матричные нормы k·kE
, k·kM
, k·k`
1
не являются операторными.
5. Матричная норма k · k2
согласована с векторной нормой k · k2
.
6. Матричная норма k·kM
согласована с векторными нормами k·k1
, k · k∞
, k · k2
.
ТЕСТ РУБЕЖНОГО КОНТРОЛЯ № 2
1. Вычислите нормы k · k1
, k · k∞
, k · kM
, k · k`
1
матриц
(a)
...
0 0
...
0 0
A
...
0 0
;
..
0 0 0−1 2
(b)
41 0 1 0 0 0 0 0
−1 4 −1 0 1 0 0 0 0
01 4 0 01 0 0 0
−1 0 0 4 1 0 −1 0 0
A
= 01 01 0 −1 0 ;
0 01 0 1 4 0 0 −1
0 0 0 1 0 0 4 0 0
0 0 0 0 1 0 −1 4 −1 0 0 0 0 0 −1 0 −1 4
(c)
4 0 0 0 0 −1 −1 0 0
0 4 0 0 0 −1 0 −1 0
0 0 4 0 0 −1 −1 −1 −1
0 0 0 4 0 0 −1 0 −1
A
= 0 0 0 0 4 0 0 −1 −1 .
−1 −11 0 0 4 0 0 0
−1 01 0 0 4 0 0
0 −11 0 1 0 0 4 0
0 01 0 0 0 4
2. Если матричная норма является согласованной, то можно ли построить соответствующую ей векторную норму, чтобы она стала операторной? (выберите один из ответов)
(a) нельзя;
(b) можно;
(c) можно, если матрица симметрична; (d) можно для евклидовой нормы.
3. Если матричная норма k · k является операторной, то (выберите правильные ответы)
(a) она согласована;
(b) положительна;
(c) kE
k = 1;
(d) kE
k = n
.
4. Операторная норма единичной матрицы равна (выберите один из ответов)
(a) чему угодно;
(b) единице; (c) n
;
(d) n
2
.
5. Согласованная норма единичной матрицы равна (выберите один из ответов)
(a) чему угодно;
(b) единице; (c) n
;
(d) n
2
.
3 Итерационные методы
3.1 Определения и условия сходимости итерационных методов
Различают прямые и итерационные методы решения систем линейных алгебраических уравнений (СЛАУ). Прямые методы получают решение за конечное число шагов, причем, если предположить, что это решение может быть получено в точной арифметике (когда нет ошибок округления), то это решение является точным. Итерационные методы, вообще говоря, всегда дают приближенное решение, для получения точного решения необходимо бесконечное число шагов. Интерес к итерационным методам связан как раз с решением СЛАУ с матрицами большой размерности. Прямые методы для таких матриц не дают требуемой точности. В случае разреженных матриц большой размерности итерационные методы дают заметный выигрыш в точности, быстродействии и экономии памяти.
Определение 6. Итерационный метод дается последовательностью
x(k
+1) = G
k
x(k
) + gk
или
³ ´
x(k
+1) = x(k
) + Q
−k
1 b − A
x(k
) .
G
k
называется матрицей перехода, а Q
k
– матрицей расщепления, x(0)
предполагается известным начальным приближением.
Определение 7. Метод называется стационарным, если матрица перехода G
k
(матрица расщепления Q
k
) и не зависят от номера итерации k
.
Далее ограничимся рассмотрением стационарных итерационных методов
x(k
+1) = G
x(k
) + g,
G
= E
− Q
−1A
,
g = Q
−1b.
(2)
В результате выполнения итерационного метода по начальному приближению строится последовательность
x(0),
x(1),
x
Рассмотрим погрешность k
-й итерации. Пусть x(∞)
– точное решение исходной задачи, т.е.
A
x(∞) = b.
С другой стороны, x(∞)
должно удовлетворять уравнению
x
x(∞) + g.
Тогда погрешность k
-й итерации дается формулой εk
= x(k
)
−x(∞)
.
Установим для εk
итерационую формулу. Имеем соотношения
x(1) = G
x(0) + g,
x(2) = G
x(1) + g,
x(3) = G
x(2) + g,
x G
x(k
)
+ g,
...
Вычтем из них уравнение x(∞)
= G
x(∞)
+ g.
Получим
ε(1) | = | G
ε(0), |
ε(2) | = | G
ε(1), |
ε(3) | = | G
ε(2), |
,
...
Выражая все через погрешность начального приближения ε(0)
, получим
ε(1) | = | G
ε(0), |
ε(2) | = | G
ε(1) = G 2ε(0), |
ε(3) | = | G
ε(2) = G 2ε(1) = G 3ε(0), |
,
...
Таким образом, получаем формулу для погрешности на k
-й итерации, которой будем пользоваться в дальнейшем:
ε(k
) = G
k
ε(0).
(3)
Рассмотрим сходимость итерационного метода (2). Поскольку сходимость метода состоит в том, чтобы погрешность убывала, нужно исследовать сходимость к нулю последовательности ε(k
)
. Для анализа сходимости нам потребуется понятие спектрального радиуса.
Определение 8. Спектральным радиусом матрицы G
называется максимальное по модулю собственное число матрицы G
:
ρ
(G
) = max |λi
(G
)|.
i
=1...n
Обратим внимание, что в этом определении участвуют все собственные числа, т.е. вещественные и комплексные.
Теорема 3 (Достаточное условие сходимости). Для сходимости итерационного метода достаточно выполнения неравенства
kG
k <
1.
Доказательство. Доказательство повторяет доказательство принципа сжимающих отображений, поскольку эта теорема является частным случаем этого принципа.
Отметим, что для сходимости достаточно выполнение неравенства для какой-то одной нормы. Это условие является легко проверяемым, хотя лишь достаточным. Необходимое и достаточное условие сходимости является проверяется более сложным образом и дается следующим утверждением.
Теорема 4 (Необходимое и достаточное условие сходимости). Для сходимости итерационного метода необходимо и достаточно выполнения неравенства
ρ
(G
) <
1.
Доказательство. Из соображений краткости, ограничимся случаем, когда собственные векторы матрицы G
образуют базис в Rn
. Это всегда так, например, если G
– симметрична. Очевидно, что сходимость итерационного метода эквивалентная сходимости к нулю последовательности {ε(k
)
}.
1. Докажем достаточность. Пусть ρ
(G
) <
1.
Рассмотрим произвольное начальное приближение и разложим его по базису собственных векторов
.
Тогда
.
По условиям теоремы все собственные числа по модулю меньше единицы, поэтому c учетом |λi
|k
| → 0 при k
→ ∞ (i
= 1,
2,...,n
) выполняются соотношения kε(k
)k = kλ
k
1ε
(0)1 e1 + ...
+ λ
kn
ε
(0)n
en
k ≤
≤ |λ
1
|k
|ε
(0)
1
| + ...
+ |λn
|k
|ε
(0)
n
| → 0, k
→ ∞.
2. Докажем необходимость. Пусть итерационный метод сходитсяпри любом начальном приближении. Предположим противное, т.е. что ρ
(G
) ≥ 1.
Это значит, что существует как минимум один собственный вектор e, такой, что G
e = λ
e c |λ
| ≡ ρ
(G
) ≥ 1. Выберем начальное приближение так: ε(0)
= e. Тогда имеем
ε(k
) = G
k
ε(0) = λ
k
e.
Поскольку |λ
| ≥ 1, последовательность {ε(k
)
} не сходится к нулю при данном начальном приближении, т.к. kε(k
)
k = |λ
|k
≥ 1. Полученное противоречие и доказывает необходимость.
Важным свойством итерационного метода является его симметризуемость. В частности, она используется для его ускорения (т.е. модификации, позволяющей достичь той же точности за меньшее число итераций).
Определение 9. Итерационный метод является симметризуемым, если существует такая невырожденная матрица W
(матрица симметризации), что W
(E
− G
)W
−1
является симметричной и положительно определенной.
Для симметризуемого метода выполняются свойства:
1. собственные числа матрицы перехода G
вещественны;
2. наибольшее собственное число матрицы G
меньше единицы;
3. множество собственных векторов матрицы перехода G
образует базис векторного пространства.
Для симметризуемого метода всегда существует так называемый экстраполированный метод, который сходится всегда, независимо от сходимости исходного метода. Он дается формулой x(k
+1)
= G
γ
x(k
)
+ gγ
,
G
γ
= γ
G
+ (1 − γ
)E
,
gγ
= γ
g.
Оптимальное значение параметра γ
определяется соотношением
,
где M
(G
) и m
(G
) – максимальное и минимальное собственные числа G
.
Рассмотрим далее классические итерационные методы.
3.2 Метод простой итерации
Метод простой итерации является простейшим примером итерационных методов. Он дается формулой x(k
+1)
= (E
− A
)x(k
)
+ b,
G
= E
− A
,
Q
= E
.
Сходится при M
(A
) <
2.
Для симметричной положительно определенной матрицы A
) симметризуем и экстраполированный метод имеет вид
x.
3.3 Метод Якоби
Метод Якоби определяется формулой
.
(4)
Запишем его в матричных обозначениях (в безиндексном виде). Представим матрицу A
в виде
A = D − CL
− CU
,
где D
– диагональная матрица, C
L
– верхняя треугольная, а C
U
– нижняя треугольная. Если A
имеет вид
a
11 a
12 a
13 ... a
1n
a
21 a
22 a
23 ... a
2n
A
= a
31 a
32 a
33 ... a
3n
,
...
...
a
n
1 a
n
2 a
n
3 ... a
nn
то D
, C
L
и C
U
даются формулами
D,
...
..
0 0 0 ... ann
0 0 0 ...
0 0 a
12
a
13
... a
1n
a
21 0 0 ...
0 0 0 a
23 ... a
2n
C
.
Используя матричные обозначения, формулу метода Якоби можно записать так: x(k
+1) = B
x(k
) + g,
где матрица перехода B
дается формулой
B = D−1
(CU
+ CL
) = E − D−1
A
а g = D
−1
b.
Достаточным условием сходимости метода Якоби является диагональное преобладание. Если A
– положительно определенная симметричная матрица, то метод Якоби симметризуем.
3.4 Метод Гаусса-Зейделя
Запишем последовательность формул метода Якоби более подробно
,
|
|
,
|
|
= −a
...
|
|
.
|
Если посмотреть внимательно на них, то видно, что при вычислении последних компонент вектора x(k
+1)
уже известны предыдущие компоненты x(k
+1)
, но они не используются. Например, для последней компоненты имеется формула
.
В ней в левой части присутствует n
− 1 компонент предыдущей итерации, но к этому моменту уже вычислены компоненты текущей итерации . Естественно их использовать при вычислении . Перепишем эти формулы следующим образом, заменяя в левой части уравнений компоненты x(k
)
на уже найденные компоненты x(k
+1)
:
a
11x (1k +1) |
,
|
,
|
|
= −a
...
|
|
.
|
Эти формулы лежат в основе метода Гаусса–Зейделя:
.
(5)
В матричном виде метод Гаусса–Зейделя записывается таким образом:
x(k
+1) = Lx(k
) + g,
где L = (E
− L
)−1
U
, g = (E
− L
)−1
D
−1
b, L
= D
−1
C
L
, U
= D
−1
C
U
.
В общем случае метод несимметризуем.
Есть интересный исторический комментарий [Д2]: метод был неизвестен Зейделю, а Гаусс относился к нему достаточно плохо.
Замечание. Хотя для положительно определенных симметричных матриц метод Гаусса-Зейделя сходится почти в два раза быстрее метода Якоби, для матриц общего вида существуют примеры, когда метод Якоби сходится, а метод Гаусса-Зейделя расходится.
3.5 Метод последовательной верхней релаксации (SOR) Дается формулами
Здесь ω
– параметр релаксации, ω
∈ [0,
2]. При ω >
1 говорят о верхней релаксации, при ω <
1 – о нижней, а при ω
= 1 метод SOR сводится к методу Гаусса–Зейделя. Удачный выбор параметра релаксации позволяет на порядки понизить число итераций для достижения требуемой точности.
Матричная форма (6) имеет вид
x(k
+1) = Lω
x(k
) + gω
,
где Lω
= (E
− ω
L
)−1
(ω
U
+ (1 − ω
)E
), gω
= (E
− ω
L
)−1
ω
D
−1
b.
В общем случае метод несимметризуем. Сходимость гарантирована для положительно определенной симметричной матрицы.
3.6 Метод симметричной последовательной верхней релаксации (SSOR)
Этот метод по числу итераций сходится в два быстрее, чем предыдущий, но итерации являются более сложными и даются соотношениями
;
1;
Здесь ω
– параметр релаксации, ω
∈ [0,
2].
Если A
– положительно определенная симметричная матрица, то метод SSOR симметризуем.
Упражнение. Найдите матрицу перехода.
ТЕСТ РУБЕЖНОГО КОНТРОЛЯ № 2
1. Проверьте сходимость предыдущих методов для матриц
(a)
A
;
0 0 0 0 |
−1 0 0 0 |
0 −1 0 0 |
−1 0 −1 0 |
4 0 0 4 0 −1 −1 0 |
0 0 4 −1 |
|||
(c) | 0 4 |
0 0 |
0 0 |
0 0 | −1 −1 −1 0 | 0 −1 |
0 0 0
(b)
41 0 −1 0 0 0 0 0
−1 4 −1 0 −1 0 0 0 0
01 4 0 01 0 0 0
−1 0 0 4 −1 0
A
= 01 0 −1 41 0 ;
0 0 4 0 0 −1 −1 −1 −1
0 0 0 4 0 0 −1 0 −1
A
0 0 0 0 4 0 0 −1 −1 .
−1 −1 0 0 4 0 0 0
1 0 −1 −1 0 0 4 0 0
−1 −1 0 −1 0 0 4 0
0 0 −1 −1 −1 0 0 0 4
2. A
является симметричной и положительно определенной. Какие из методов являются симметризуемыми?
(a) простой итерации;
(b) Якоби;
(c) Гаусса–Зейделя;
(d) SOR;
(e) SSOR.
3. Необходимым и достаточным условием сходимости итерационного метода является
(a) положительная определенность матрицы перехода G
;
(b) симметричность матрицы перехода G
;
(c) неравенство kG
k <
1;
(d) неравенство ρ
(G
) <
1.
4. Матрица симметризации – это
(a) симметричная матрица;
(b) единичная матрица;
(c) такая матрица W
, что W
(E
−G
)W
−1
– положительно определенная и симметричная матрица;
(d) такая матрица W
, что W
(G
−E
)W
−1
– положительно определенная и симметричная матрица.
5. При ω
= 1 метод SOR переходит в метод (выберите один из ответов)
(a) Якоби;
(b) SSOR;
(c) простой итерации; (d) Гаусса–Зейделя.
6. Параметр релаксации ω
лежит в диапазоне (выберите один из ответов)
(a) [0,
1];
(b) [0,
2]; (c) (0,
2);
(d) [−1,
1].
4 Методы подпространств Крылова
4.1 Инвариантные подпространства
Для понижения размерности исходной задачи воспользуемся понятием инвариантного подпространства.
Определение 10. Подпространство L инвариантно относительно матрицы A
, если для любого вектора x из L вектор A
x также принадлежит L.
Примером инвариантного подпространства, является подпространство, образованное линейными комбинациями нескольких собственных векторов A
.
Предположим, что нам известен базис L, образованный векторами q1
, q2
, ..., qm
, m
≤ n
. Образуем из этих векторов матрицу Q
= [q1
,
q2
,...,
qm
] размерности n
×m
. Вычислим AQ
. Это матрица также размерности n
×m
, причем ее столбцы есть линейные комбинации q1
, q2
, ... qm
. Другими словами, столбцы AQ
принадлежат инвариантному подпространству L. Указанные столбцы удобно записать в виде
QC
, где C
– квадратная матрица размерности m
×m
. Действительно,
AQ
= A
[q1
,
q2
,...
qm
].
Вектор A
qi
∈ L, следовательно, A
qi
представим в виде линейной комбинации q1
, q2
, ... qm
:
A
qi
= ci
1
q1
+ ci
2
q2
+ ...
+ cim
qm
, i
= 1,...,m.
Таким образом, выполняется равенство
AQ
= QC
.
(8)
Матрица C
называется сужением A
на подпространстве L. Более наглядно (8) можно представить в виде
n m m m
A
|
Q
|
=
|
Q
|
C
m
n
Рассмотрим случай, когда q1
, q2
, ..., qm
– ортонормированы. Тогда
QT
Q = Em
,
где E
m
– единичная матрица размерности m
×m
. Из (8) вытекает, что
C
= Q
T
AQ
.
Рассмотрим решение СЛАУ
C
y = d,
где d ∈ Rm
. Умножая это уравнение на Q
слева получим, что
QC
y = AQ
y = Q
d.
То есть вектор Q
y является решением исходной задачи, если b = Q
d. Таким образом, знание инвариантного подпространства позволяет свести решение СЛАУ для матрицы A
к двум СЛАУ меньшей размерности, которые могут быть решены независимо друг от друга. Проблема состоит в том, что априори инвариантные подпространства матрицы A
неизвестны. Вместо инвариантных подпространств можно использовать “почти” инвариантные подпространства, например, подпространства Крылова.
4.2 Степенная последовательность и подпространства Крылова
Определение 11. Подпространством Крылова Km
(b) называется подпространство, образованное всеми линейными комбинациями векторов степенной последовательности
b,
A
b,
A
2
b, ...,
A
m
−1
b,
то есть линейная оболочка, натянутая на эти векторы
Km
(b) = span(b,
A
b,
A
2
b, ...,
A
m
−1
b).
Рассмотрим свойства степенной последовательности
b,
A
b,
A
2
b,
A
3
b,...
A
k
b,...,
где b – некоторый произвольный ненулевой вектор.
Рассмотрим случай, когда A
– симметричная матрица. Следовательно, ее собственные векторы ek
образуют базис в Rn
. Соответствующие собственные числа A
обозначим через λk
:
A
ek
= λk
ek
.
Для определенности примем, что λk
упорядочены по убыванию:
|λ
1
| ≥ |λ
2
| ≥ ...
≥ |λn
|.
Произвольный вектор b можно представить в виде разложения по ek
:
b = b
1
e1
+ b
2
e2
+ ...
+ bn
en
.
Имеют место формулы:
b = b
1
e1
+ b
2
e2
+ ...
+ bn
en
,
A
b = λ
1
b
1
e1
+ λ
2
b
2
e2
+ ...
+ λn
bn
en
,
A
,
...
A,
...
Сделаем дополнительное предположение. Пусть |λ
1
| >
|λ
2
|. Другими словами, λ
1
– максимальное собственное число по модулю: λ
1
= λ
max
. Тогда A
k
b можно записать следующим образом:
A
.
(9)
Поскольку все , то если b
1
6= 0, то все слагаемые в скобках в уравнении (9) кроме первого будут убывать при k
→ ∞:
при k
→ ∞.
Кроме того, также выполняется соотношение
||A
k
b|| → |λ
1
|k
|b
1
| при k
→ ∞.
Таким образом, при возрастании k
члены степенной последовательности поворачиваются таким образом, что оказываются параллельными собственному вектору emax
≡ e1
, соответствующему максимальному по модулю собственному значению λ
max
.
4.3 Итерационные методы подпространств Крылова
Подпространства Крылова обладают замечательным свойством: если A
– симметрична и если последовательно строить ортонормированный базис в Km
(b) m
= 1,
2,...n
, то вектора базиса для Kn
(b) образуют такую ортогональную матрицу Q
, что выполняется равенство
Q
T
AQ
= T
,
(10)
где T
является трехдиагональной матрицей
α
1
β
1
0 ··· 0
β
1 α
2 β
2 ...
T
= 0... β
1 α
3 ...
... ... βn
−1
0 ··· β
n
−1 α
n
Если A
– несимметричная матрица, то вместо (10) получаем
Q
T
AQ
= H
,
(11)
где H
– матрица в верхней форме Хессенберга, т.е. имеет структуру
× × H
0 |
× × × × × × ... ··· |
··· × ... ... ... × × × |
(крестиком помечены ненулевые элементы).
Ясно, что если построено представление (10) или (11), то решение СЛАУ A
x = b можно провести в три шага. Например, если выполнено
(10), то решение A
x = b эквивалентно трем СЛАУ
Q
z = b, |
(12) |
T
y = z, |
(13) |
Q
T x = y, |
(14) |
причем системы (12) и (14) решаются элементарно, поскольку обратная к ортогональной матрице Q
является транспонированная Q
T
. Система (13) также решается гораздо проще исходной, поскольку T
– трехдиагональная матрица, для которых развиты быстрые и эффективные методы решения СЛАУ.
Рассмотрим алгоритм, приводящий симметричную матрицу A
к трехдиагональному виду.
Алгоритм Ланцоша. v = 0; β
0
= 1; j
= 0;
while βj
6= 0 if j
6= 0
for i
= 1..n
t
= wi
; wi
= vi
/βj
; vi
= −βj
t
end
end
v = +A
w
j
= j
+ 1; αj
= (w,
v); v = v − αj
w; βj
:= kvk2
end
Для приведения матрицы к трехдиагональному виду нужна только процедура умножения матрицы на вектор и процедура скалярного произведения. Это позволяет не хранить матрицу как двумерный массив.
Алгоритм Ланцоша может быть обобщен на случай несимметричных матриц. Здесь матрица A
приводится к верхней форме Хессенберга H
. Компоненты H
обозначим через hi,j
, hi,j
= 0 при i < j
− 1.
Соответствующий алгоритм носит названия алгоритма Арнольди.
Алгоритм Арнольди. r = q1
; β
= 1; j
= 0;
while β
6= 0
h
j
+1,i
= β
; qj
+1 = rj
/β
; j
= j
+ 1 w = A
qj
; r = w for i
= 1..j
hij
= (qi
,
w); r = r − hij
qi
end
β
= krk2
if j < n
h
j
+1,j
= β
end
end
Определенным недостатком алгоритмов Ланцоша и Арнольди является потеря ортогональности Q
в процессе вычислений. СУществет ряд реализаций этих алгоритмов, преодолевающих этот недостаток, и делающих эти методы весьма эффективными для решения СЛАУ с большими разреженными матрицами.
ТЕСТ РУБЕЖНОГО КОНТРОЛЯ № 4
1. Что такое инвариантное подпространство? (выберите один из ответов)
(a) линейная оболочка, натянутая на столбцы матрицы A
;
(b) подпространство, не изменяющееся при действии на него матрицы A
;
(c) нульмерное-подпространство; (d) подпространство Крылова.
2. Что такое степенная последовательность? (выберите один из ответов)
(a) последовательность E
, A
, A
2
, A
3
, ...;
(b) последовательность b, A
b, A
2
b, A
3
b, ...;
(c) последовательность 1, x
, x
2
, x
3
, ...; (d) последовательность 1, 2, 4, 8, ....
3. Недостатком метода Ланцоша является (выберите один из ответов)
(a) медленная сходимость;
(b) потеря ортогонализации;
(c) невозможность вычисления собственных векторов; (d) необходимость вычисления степеней.
4. В методе Ланцоша используются
(a) подпространства Крылова;
(b) линейная оболочка, натянутая на столбцы матрицы A
;
(c) подпространство, образованное собственными векторами матрицы A
;
(d) подпространство, образованное собственными векторами матрицы Q
T
AQ
.
5. Метод Ланцоша приводит матрицу к
(a) диагональной;
(b) трехдиагональной;
(c) верхней треугольной;
(d) верхней треугольной в форме Хессенберга.
6. Метод Ланцоша применим для матриц
(a) диагональных;
(b) трехдиагональных;
(c) симметричных; (d) произвольных.
7. Метод Арнольди приводит матрицу к
(a) диагональной;
(b) трехдиагональной;
(c) верхней треугольной;
(d) верхней треугольной в форме Хессенберга.
8. Метод Арнольди применим для матриц
(a) диагональных;
(b) трехдиагональных;
(c) симметричных; (d) произвольных.
Заключение
Выше дано описание некоторых методов решения систем линейных алгебраических уравнений для симметричных разреженных матриц большой размерности.
При написании данного пособия в основном использовались материалы [3, 4, 7, 9, 10]. Более подробные сведения о можно получить в приведенной ниже основной и дополнительной литературе.
ЛИТЕРАТУРА
[1] В. В. Воеводин. Вычислительные основы линейной алгебры. М.: Наука, 1977. 304 с.
[2] В. В. Воеводин, Ю. А. Кузнецов. Матрицы и вычисления. М.: Наука, 1984. 320 с.
[3] Дж. Голуб, Ч. Ван Лоун. Матричные вычисления. М.: Мир, 1999. 548 с.
[4] Дж. Деммель. Вычислительная линейная алгебра. Теория и приложения. М.: Мир, 2001. 430 с.
[5] Х. Д. Икрамов. Численные методы для симметричных линейных систем. М.: Наука, 1988. 160 с.
[6] Б. Парлетт. Симметричная проблема собственных значений. Численные методы. М.: Мир, 1983. 384 с.
[7] C. Писсанецки. Технология разреженных матриц. М.: Мир, 1988. 410 с.
[8] Дж. Х. Уилкинсон. Алгебраическая проблема собственных значений. М.: Наука, 1970. 564 с.
[9] Л. Хейнгеман, Д. Янг. Прикладные итерационные методы. М.: Мир, 1986. 448 с.
[10] Р. Хорн, Ч. Джонсон. Матричный анализ. М.: Мир, 1989. 655 с.
ДОПОЛНИТЕЛЬНАЯ ЛИТЕРАТУРА
[Д1] Х. Д. Икрамов. Несимметричная проблема собственных значений. М.: Наука, 1991. 240 с.
[Д2] Дж. Райс. Матричные вычисления и математическое обеспечение. М.: Мир, 1984. 264 с.
[Д3] Y. Saad. Numerical Methods for Large Eigenvalue Problems. Halsted Press: Manchester, 1992. 347 p.
[Д4] Дж. Форсайт, К. Молер. Численное решение систем линейных алгебраических уравнений. М.: Мир, 1969. 167 с.