Жорданова форма матрицы как найти пример

Пусть дана матрица
3-го порядка. Надо найти жорданову форму
и жорданов базис.

  1. Пусть
    характеристический многочлен матрицы

    имеет вид


,
где


.

Тогда
жорданова форма матрицы имеет вид

.

  1. Пусть
    характеристический многочлен матрицы

    имеет вид


,

где

.
Возможны два случая:

а)

,
поэтому

и, следовательно,

,
поэтому жорданова форма содержит две
жордановы клетки с собственным значением


:


;

б)

,
поэтому

и, следовательно, жорданова форма
содержит одну жорданову клетку с
собственным значением

:


.

  1. Пусть
    характеристический многочлен матрицы

    имеет вид


.

Возможны два
случая:

а)

,
поэтому

и, следовательно, жорданова форма
содержит две жордановы клетки с
собственным значением

:


;

б)

,
поэтому

и, следовательно, жорданова форма
содержит одну жорданову клетку с
собственным значением

:


.

Задача.
Дана матрица

.
Найти

.

Р е ш е
н и е.

Найдем характеристический многочлен
матрицы:


.

Жорданова
форма матрицы

имеет вид

.

Найдем


.

Для
нахождения

воспользуемся формулой

,
где

– матрица перехода от базиса

к базису

.
Очевидно, что

,

поэтому


.

Пример
1.
Найти жорданову форму и жорданов
базис матрицы оператора


.

Р е ш е
н и е.

Вычислим


,

следовательно,
собственное значение

,


.

Найдем
геометрическую кратность собственного
значения

.
Для этого посчитаем ранг матрицы


.

Следовательно,


,

поэтому
жорданова форма имеет вид

или

.

Найдем собственный вектор

,
соответствующий собственному значению

.
Так как он удовлетворяет условию


,

то
решим систему


.

Следовательно,
координаты собственного вектора

удовлетворяют уравнению


.

Заметим, что коэффициент при

равен 0, поэтому

может принимать любые значения.
Отбрасывать

нельзя !!!

Для
нахождения ФСР построим таблицу

.

Векторы

,

образуют фундаментальную систему
решений в собственном подпространстве


,
поэтому любой собственный вектор,
отвечающий собственному значению

,
линейно через них выражается и,
следовательно, имеет вид

.
Так как

,

,
то должен быть один присоединенный
вектор, который будет являться решением
системы

.
Подберем коэффициенты

и

таким образом, чтобы система

была совместна. Так как


,

то для
совместности системы необходимо, чтобы
выполнялось условие

.
Возьмем

,
тогда

,
и координаты присоединенного вектора
являются решением системы


,

то есть
удовлетворяют уравнению

или

.

Возьмем


.

Таким образом, у нас есть собственный
вектор

,
присоединенный к нему

и нужен еще один собственный вектор,
отвечающий собственному значению

.
Можно взять или вектор

,
или

,
или любой другой, отличный от

,
отвечающий собственному значению

.
Эти три вектора и будут образовывать
жорданов базис.

Пример 2. Найти жорданову
форму и жорданов базис матрицы оператора


.

Р е ш е
н и е.

Вычислим


,

следовательно,
собственное значение

,

.

Найдем
геометрическую кратность собственного
значения

.
Для этого посчитаем ранг матрицы


.

Следовательно,


,

поэтому
жорданова форма имеет вид

или

.

Найдем собственный вектор

,
соответствующий собственному значению

.
Так как он удовлетворяет условию


,

то
решим систему


.

Очевидно,
что координаты собственного вектора

удовлетворяют уравнению

или

.

Для
нахождения ФСР построим таблицу

.

Векторы

,

образуют фундаментальную систему
решений в собственном подпространстве


,
поэтому любой собственный вектор,
отвечающий собственному значению

,
линейно через них выражается
и, следовательно, имеет вид


.

Так как

,

,
то должен быть один присоединенный
вектор, который будет являться решением
системы

.
Подберем коэффициенты

и

таким образом, чтобы система

была совместна. Так как


,

то для
совместности системы необходимо, чтобы
выполнялось условие

.
Возьмем

,
тогда

и координаты присоединенного вектора
являются решением системы


,

то есть
удовлетворяют уравнению

или

.

Возьмем


.

Таким образом, у нас есть собственный
вектор

,
присоединенный к нему

и нужен еще один собственный вектор,
отвечающий собственному значению

.
Можно взять или вектор

,
или

,
или любой другой, отличный от

,
отвечающий собственному значению

.
Эти три вектора и будут образовывать
жорданов базис.

Пример 3. Найти жорданову
форму и жорданов базис матрицы оператора


.

Р е ш е
н и е.

Вычислим


.

Таким образом, получили три собственных
значения

,

,


.
Так как алгебраическая кратность каждого
из них равна 1, то жорданова форма имеет
следующий вид


.

Найдем собственный вектор

,
соответствующий собственному значению

.
Очевидно, что он является решением
уравнения

и, следовательно, его координаты
удовлетворяют системе


,

то есть


,
поэтому можем взять

.

Вычислим собственный вектор

,
соответствующий собственному значению

.
Очевидно, что он удовлетворяет уравнению

,
а его координаты – системе


,

откуда
следует, что

,
поэтому можем взять

.

Найдем собственный вектор

,
соответствующий собственному значению


.
Так как он является решением уравнения

,
то его координаты удовлетворяют системе

,

и,
следовательно,

,
поэтому можем взять

.

Векторы

образуют жорданов базис матрицы.

Пример 4. Найти жорданову
форму и жорданов базис матрицы оператора


.

Р е ш е
н и е.

Вычислим


.

Таким образом, получили два собственных
значения

,

.
Так как алгебраическая кратность

равна 2, нужно вычислить геометрическую
кратность

собственного значения

.
Для этого посчитаем ранг матрицы


.

Очевидно, что

,
поэтому

и, следовательно, жорданова форма имеет
следующий вид


.

Найдем собственные векторы

,

,
соответствующие собственному значению

.
Очевидно, что они являются решением
уравнения

,
а их координаты

– решением системы


,

и,
следовательно, удовлетворяют уравнению

или

.

Для
нахождения ФСР построим таблицу

.

Векторы


,

образуют фундаментальную систему
решений в собственном подпространстве


,
поэтому любой собственный вектор,
отвечающий собственному значению

,
линейно через них выражается и,
следовательно, имеет вид


.

Так
как

,
то нужно выбрать любые два линейно
независимых вектора из этой линейной
комбинации. Возьмем

,


.

Найдем собственный вектор

,
соответствующий собственному значению

.
Очевидно, что он удовлетворяет уравнению

,
а его координаты

– системе


,

то есть


,
поэтому можем взять

.

Векторы

образуют жорданов базис матрицы.

Соседние файлы в предмете [НЕСОРТИРОВАННОЕ]

  • #
  • #
  • #
  • #
  • #
  • #
  • #
  • #
  • #
  • #
  • #

Example of a matrix in Jordan normal form. All matrix entries not shown are zero. The outlined squares are known as «Jordan blocks». Each Jordan block contains one number lambda on its main diagonal, and ones above the main diagonal. The lambdas are the eigenvalues of the matrix; they need not be distinct.

In linear algebra, a Jordan normal form, also known as a Jordan canonical form (JCF),[1][2]
is an upper triangular matrix of a particular form called a Jordan matrix representing a linear operator on a finite-dimensional vector space with respect to some basis. Such a matrix has each non-zero off-diagonal entry equal to 1, immediately above the main diagonal (on the superdiagonal), and with identical diagonal entries to the left and below them.

Let V be a vector space over a field K. Then a basis with respect to which the matrix has the required form exists if and only if all eigenvalues of the matrix lie in K, or equivalently if the characteristic polynomial of the operator splits into linear factors over K. This condition is always satisfied if K is algebraically closed (for instance, if it is the field of complex numbers). The diagonal entries of the normal form are the eigenvalues (of the operator), and the number of times each eigenvalue occurs is called the algebraic multiplicity of the eigenvalue.[3][4][5]

If the operator is originally given by a square matrix M, then its Jordan normal form is also called the Jordan normal form of M. Any square matrix has a Jordan normal form if the field of coefficients is extended to one containing all the eigenvalues of the matrix. In spite of its name, the normal form for a given M is not entirely unique, as it is a block diagonal matrix formed of Jordan blocks, the order of which is not fixed; it is conventional to group blocks for the same eigenvalue together, but no ordering is imposed among the eigenvalues, nor among the blocks for a given eigenvalue, although the latter could for instance be ordered by weakly decreasing size.[3][4][5]

The Jordan–Chevalley decomposition is particularly simple with respect to a basis for which the operator takes its Jordan normal form. The diagonal form for diagonalizable matrices, for instance normal matrices, is a special case of the Jordan normal form.[6][7][8]

The Jordan normal form is named after Camille Jordan, who first stated the Jordan decomposition theorem in 1870.[9]

Overview[edit]

Notation[edit]

Some textbooks have the ones on the subdiagonal; that is, immediately below the main diagonal instead of on the superdiagonal. The eigenvalues are still on the main diagonal.[10][11]

Motivation[edit]

An n × n matrix A is diagonalizable if and only if the sum of the dimensions of the eigenspaces is n. Or, equivalently, if and only if A has n linearly independent eigenvectors. Not all matrices are diagonalizable; matrices that are not diagonalizable are called defective matrices. Consider the following matrix:

{displaystyle A=left[{begin{array}{*{20}{r}}5&4&2&1\[2pt]0&1&-1&-1\[2pt]-1&-1&3&0\[2pt]1&1&-1&2end{array}}right].}

Including multiplicity, the eigenvalues of A are λ = 1, 2, 4, 4. The dimension of the eigenspace corresponding to the eigenvalue 4 is 1 (and not 2), so A is not diagonalizable. However, there is an invertible matrix P such that J = P−1AP, where

{displaystyle J={begin{bmatrix}1&0&0&0\[2pt]0&2&0&0\[2pt]0&0&4&1\[2pt]0&0&0&4end{bmatrix}}.}

The matrix J is almost diagonal. This is the Jordan normal form of A. The section Example below fills in the details of the computation.

Complex matrices[edit]

In general, a square complex matrix A is similar to a block diagonal matrix

J = begin{bmatrix}
J_1 & ;     & ; \
;  & ddots & ; \ 
;  & ;     & J_pend{bmatrix}

where each block Ji is a square matrix of the form

J_i = 
begin{bmatrix}
lambda_i & 1            & ;     & ;  \
;        & lambda_i    & ddots & ;  \
;        & ;           & ddots & 1   \
;        & ;           & ;     & lambda_i       
end{bmatrix}.

So there exists an invertible matrix P such that P−1AP = J is such that the only non-zero entries of J are on the diagonal and the superdiagonal. J is called the Jordan normal form of A. Each Ji is called a Jordan block of A. In a given Jordan block, every entry on the superdiagonal is 1.

Assuming this result, we can deduce the following properties:

  • Counting multiplicities, the eigenvalues of J, and therefore of A, are the diagonal entries.
  • Given an eigenvalue λi, its geometric multiplicity is the dimension of ker(Aλi I), where I is the identity matrix, and it is the number of Jordan blocks corresponding to λi.[12]
  • The sum of the sizes of all Jordan blocks corresponding to an eigenvalue λi is its algebraic multiplicity.[12]
  • A is diagonalizable if and only if, for every eigenvalue λ of A, its geometric and algebraic multiplicities coincide. In particular, the Jordan blocks in this case are 1 × 1 matrices; that is, scalars.
  • The Jordan block corresponding to λ is of the form λI + N, where N is a nilpotent matrix defined as Nij = δi,j−1 (where δ is the Kronecker delta). The nilpotency of N can be exploited when calculating f(A) where f is a complex analytic function. For example, in principle the Jordan form could give a closed-form expression for the exponential exp(A).
  • The number of Jordan blocks corresponding to λ of size at least j is dim ker(A − λI)j − dim ker(A − λI)j−1. Thus, the number of Jordan blocks of size j is
    2 dim ker (A - lambda_i I)^j - dim ker (A - lambda_i I)^{j+1} - dim ker (A - lambda_i I)^{j-1}
  • Given an eigenvalue λi, its multiplicity in the minimal polynomial is the size of its largest Jordan block.

Example[edit]

Consider the matrix A from the example in the previous section. The Jordan normal form is obtained by some similarity transformation:

{displaystyle P^{-1}AP=J;} that is, {displaystyle AP=PJ.}

Let P have column vectors p_{i}, {displaystyle i=1,ldots ,4}, then

A begin{bmatrix} p_1 & p_2 & p_3 & p_4 end{bmatrix} = begin{bmatrix} p_1 & p_2 & p_3 & p_4 end{bmatrix}
begin{bmatrix}
1 & 0 & 0 & 0 \
0 & 2 & 0 & 0 \ 
0 & 0 & 4 & 1 \
0 & 0 & 0 & 4 end{bmatrix} = begin{bmatrix} p_1 & 2p_2 & 4p_3 & p_3+4p_4 end{bmatrix}.

We see that

{displaystyle (A-1I)p_{1}=0}
{displaystyle (A-2I)p_{2}=0}
{displaystyle (A-4I)p_{3}=0}
{displaystyle (A-4I)p_{4}=p_{3}.}

For i=1,2,3 we have {displaystyle p_{i}in ker(A-lambda _{i}I)}, that is, p_{i} is an eigenvector of A corresponding to the eigenvalue lambda _{i}. For {displaystyle i=4}, multiplying both sides by (A-4I) gives

{displaystyle (A-4I)^{2}p_{4}=(A-4I)p_{3}.}

But (A-4I)p_3 = 0, so

{displaystyle (A-4I)^{2}p_{4}=0.}

Thus, {displaystyle p_{4}in ker(A-4I)^{2}.}

Vectors such as p_4 are called generalized eigenvectors of A.

Example: Obtaining the normal form[edit]

This example shows how to calculate the Jordan normal form of a given matrix.

Consider the matrix

{displaystyle A=left[{begin{array}{rrrr}5&4&2&1\0&1&-1&-1\-1&-1&3&0\1&1&-1&2end{array}}right]}

which is mentioned in the beginning of the article.

The characteristic polynomial of A is

{displaystyle {begin{aligned}chi (lambda )&=det(lambda I-A)\&=lambda ^{4}-11lambda ^{3}+42lambda ^{2}-64lambda +32\&=(lambda -1)(lambda -2)(lambda -4)^{2}.,end{aligned}}}

This shows that the eigenvalues are 1, 2, 4 and 4, according to algebraic multiplicity. The eigenspace corresponding to the eigenvalue 1 can be found by solving the equation Av = λv. It is spanned by the column vector v = (−1, 1, 0, 0)T. Similarly, the eigenspace corresponding to the eigenvalue 2 is spanned by w = (1, −1, 0, 1)T. Finally, the eigenspace corresponding to the eigenvalue 4 is also one-dimensional (even though this is a double eigenvalue) and is spanned by x = (1, 0, −1, 1)T. So, the geometric multiplicity (that is, the dimension of the eigenspace of the given eigenvalue) of each of the three eigenvalues is one. Therefore, the two eigenvalues equal to 4 correspond to a single Jordan block, and the Jordan normal form of the matrix A is the direct sum

 J = J_1(1) oplus J_1(2) oplus J_2(4) = 
begin{bmatrix} 1 & 0 & 0 & 0 \ 0 & 2 & 0 & 0 \ 0 & 0 & 4 & 1 \ 0 & 0 & 0 & 4 end{bmatrix}.

There are three Jordan chains. Two have length one: {v} and {w}, corresponding to the eigenvalues 1 and 2, respectively. There is one chain of length two corresponding to the eigenvalue 4. To find this chain, calculate

{displaystyle ker(A-4I)^{2}=operatorname {span} ,left{{begin{bmatrix}1\0\0\0end{bmatrix}},left[{begin{array}{r}1\0\-1\1end{array}}right]right}}

where I is the 4 × 4 identity matrix. Pick a vector in the above span that is not in the kernel of A − 4I; for example, y = (1,0,0,0)T. Now, (A − 4I)y = x and (A − 4I)x = 0, so {y, x} is a chain of length two corresponding to the eigenvalue 4.

The transition matrix P such that P−1AP = J is formed by putting these vectors next to each other as follows

{displaystyle P=left[{begin{array}{c|c|c|c}v&w&x&yend{array}}right]=left[{begin{array}{rrrr}-1&1&1&1\1&-1&0&0\0&0&-1&0\0&1&1&0end{array}}right].}

A computation shows that the equation P−1AP = J indeed holds.

P^{-1}AP=J=begin{bmatrix}
1 & 0 & 0 & 0 \
0 & 2 & 0 & 0 \
0 & 0 & 4 & 1 \
0 & 0 & 0 & 4 end{bmatrix}.

If we had interchanged the order in which the chain vectors appeared, that is, changing the order of v, w and {x, y} together, the Jordan blocks would be interchanged. However, the Jordan forms are equivalent Jordan forms.

Generalized eigenvectors[edit]

Given an eigenvalue λ, every corresponding Jordan block gives rise to a Jordan chain of linearly independent vectors pi, i = 1, …, b, where b is the size of the Jordan block. The generator, or lead vector, pb of the chain is a generalized eigenvector such that (AλI)bpb = 0. The vector p1 = (AλI)b−1pb is an ordinary eigenvector corresponding to λ. In general, pi is a preimage of pi−1 under AλI. So the lead vector generates the chain via multiplication by AλI.[13][2] Therefore the statement that every square matrix A can be put in Jordan normal form is equivalent to the claim that the underlying vector space has a basis composed of Jordan chains.

A proof[edit]

We give a proof by induction that any complex-valued square matrix A may be put in Jordan normal form. Since the underlying vector space can be shown[14] to be the direct sum of invariant subspaces associated with the eigenvalues, A can be assumed to have just one eigenvalue λ. The 1 × 1 case is trivial. Let A be an n × n matrix. The range of AλI, denoted by Ran(AλI), is an invariant subspace of A. Also, since λ is an eigenvalue of A, the dimension of Ran(AλI), r, is strictly less than n, so, by the inductive hypothesis, Ran(AλI) has a basis {p1, …, pr} composed of Jordan chains.

Next consider the kernel, that is, the subspace ker(A − λI). If

{displaystyle operatorname {Ran} (A-lambda I)cap ker(A-lambda I)={0},}

the desired result follows immediately from the rank–nullity theorem. (This would be the case, for example, if A were Hermitian.)

Otherwise, if

{displaystyle Q=operatorname {Ran} (A-lambda I)cap ker(A-lambda I)neq {0},}

let the dimension of Q be s ≤ r. Each vector in Q is an eigenvector, so Ran(A − λI) must contain s Jordan chains corresponding to s linearly independent eigenvectors. Therefore the basis {p1, …, pr} must contain s vectors, say {prs+1, …, pr}, that are lead vectors of these Jordan chains. We can «extend the chains» by taking the preimages of these lead vectors. (This is the key step.) Let qi be such that

; (A - lambda I) q_i = p_i mbox{ for } i = r-s+1, ldots, r.

The set {qi}, being preimages of the linearly independent set {pi} under A − λ I, is also linearly independent. Clearly no non-trivial linear combination of the qi can lie in ker(A − λI), for {pi}i=rs+1, …, r is linearly independent. Furthermore, no non-trivial linear combination of the qi can belong to Ran(Aλ I) because it would then be a linear combination of the basic vectors p1, …, pr, and this linear combination would have a contribution of basic vectors not in ker(AλI) because otherwise it would belong to ker(AλI). The action of AλI on both linear combinations would then produce an equality of a non-trivial linear combination of lead vectors and such a linear combination of non-lead vectors, which would contradict the linear independence of (p1, …, pr).

Finally, we can pick any linearly independent set {z1, …, zt} whose projection spans

{displaystyle ker(A-lambda I)/Q.}

Each zi forms a Jordan chain of length 1. By construction, the union of the three sets {p1, …, pr}, {qrs +1, …, qr}, and {z1, …, zt} is linearly independent, and its members combine to form Jordan chains. Finally, by the rank–nullity theorem, the cardinality of the union is n. In other words, we have found a basis composed of Jordan chains, and this shows A can be put in Jordan normal form.

Uniqueness[edit]

It can be shown that the Jordan normal form of a given matrix A is unique up to the order of the Jordan blocks.

Knowing the algebraic and geometric multiplicities of the eigenvalues is not sufficient to determine the Jordan normal form of A. Assuming the algebraic multiplicity m(λ) of an eigenvalue λ is known, the structure of the Jordan form can be ascertained by analyzing the ranks of the powers (AλI)m(λ). To see this, suppose an n × n matrix A has only one eigenvalue λ. So m(λ) = n. The smallest integer k1 such that

(A - lambda I)^{k_1} = 0

is the size of the largest Jordan block in the Jordan form of A. (This number k1 is also called the index of λ. See discussion in a following section.) The rank of

(A - lambda I)^{k_1 - 1}

is the number of Jordan blocks of size k1. Similarly, the rank of

(A - lambda I)^{k_1 - 2}

is twice the number of Jordan blocks of size k1 plus the number of Jordan blocks of size k1 − 1. The general case is similar.

This can be used to show the uniqueness of the Jordan form. Let J1 and J2 be two Jordan normal forms of A. Then J1 and J2 are similar and have the same spectrum, including algebraic multiplicities of the eigenvalues. The procedure outlined in the previous paragraph can be used to determine the structure of these matrices. Since the rank of a matrix is preserved by similarity transformation, there is a bijection between the Jordan blocks of J1 and J2. This proves the uniqueness part of the statement.

Real matrices[edit]

If A is a real matrix, its Jordan form can still be non-real. Instead of representing it with complex eigenvalues and ones on the superdiagonal, as discussed above, there exists a real invertible matrix P such that P−1AP = J is a real block diagonal matrix with each block being a real Jordan block.[15] A real Jordan block is either identical to a complex Jordan block (if the corresponding eigenvalue lambda _{i} is real), or is a block matrix itself, consisting of 2×2 blocks (for non-real eigenvalue lambda_i = a_i+ib_i with given algebraic multiplicity) of the form

{displaystyle C_{i}=left[{begin{array}{rr}a_{i}&-b_{i}\b_{i}&a_{i}\end{array}}right]}

and describe multiplication by lambda _{i} in the complex plane. The superdiagonal blocks are 2×2 identity matrices and hence in this representation the matrix dimensions are larger than the complex Jordan form. The full real Jordan block is given by

{displaystyle J_{i}={begin{bmatrix}C_{i}&I&&\&C_{i}&ddots &\&&ddots &I\&&&C_{i}end{bmatrix}}.}

This real Jordan form is a consequence of the complex Jordan form. For a real matrix the nonreal eigenvectors and generalized eigenvectors can always be chosen to form complex conjugate pairs. Taking the real and imaginary part (linear combination of the vector and its conjugate), the matrix has this form with respect to the new basis.

Matrices with entries in a field[edit]

Jordan reduction can be extended to any square matrix M whose entries lie in a field K. The result states that any M can be written as a sum D + N where D is semisimple, N is nilpotent, and DN = ND. This is called the Jordan–Chevalley decomposition. Whenever K contains the eigenvalues of M, in particular when K is algebraically closed, the normal form can be expressed explicitly as the direct sum of Jordan blocks.

Similar to the case when K is the complex numbers, knowing the dimensions of the kernels of (MλI)k for 1 ≤ km, where m is the algebraic multiplicity of the eigenvalue λ, allows one to determine the Jordan form of M. We may view the underlying vector space V as a K[x]-module by regarding the action of x on V as application of M and extending by K-linearity. Then the polynomials (x − λ)k are the elementary divisors of M, and the Jordan normal form is concerned with representing M in terms of blocks associated to the elementary divisors.

The proof of the Jordan normal form is usually carried out as an application to the ring K[x] of the structure theorem for finitely generated modules over a principal ideal domain, of which it is a corollary.

Consequences[edit]

One can see that the Jordan normal form is essentially a classification result for square matrices, and as such several important results from linear algebra can be viewed as its consequences.

Spectral mapping theorem[edit]

Using the Jordan normal form, direct calculation gives a spectral mapping theorem for the polynomial functional calculus: Let A be an n × n matrix with eigenvalues λ1, …, λn, then for any polynomial p, p(A) has eigenvalues p(λ1), …, p(λn).

Characteristic polynomial[edit]

The characteristic polynomial of A is {displaystyle p_{A}(lambda )=det(lambda I-A)}. Similar matrices have the same characteristic polynomial.
Therefore, {textstyle p_{A}(lambda )=p_{J}(lambda )=prod _{i}(lambda -lambda _{i})^{m_{i}}},
where lambda _{i} is the ith root of {textstyle p_{J}} and m_{i} is its multiplicity, because this is clearly the characteristic polynomial of the Jordan form of A.

Cayley–Hamilton theorem[edit]

The Cayley–Hamilton theorem asserts that every matrix A satisfies its characteristic equation: if p is the characteristic polynomial of A, then {displaystyle p_{A}(A)=0}. This can be shown via direct calculation in the Jordan form, since if lambda _{i} is an eigenvalue of multiplicity m,
then its Jordan block J_{i} clearly satisfies {displaystyle (J_{i}-lambda _{i}I)^{m_{i}}=0}.
As the diagonal blocks do not affect each other, the ith diagonal block of {displaystyle (A-lambda _{i}I)^{m_{i}}} is {displaystyle (J_{i}-lambda _{i}I)^{m_{i}}=0}; hence {textstyle p_{A}(A)=prod _{i}(A-lambda _{i}I)^{m_{i}}=0}.

The Jordan form can be assumed to exist over a field extending the base field of the matrix, for instance over the splitting field of p; this field extension does not change the matrix p(A) in any way.

Minimal polynomial[edit]

The minimal polynomial P of a square matrix A is the unique monic polynomial of least degree, m, such that P(A) = 0. Alternatively, the set of polynomials that annihilate a given A form an ideal I in C[x], the principal ideal domain of polynomials with complex coefficients. The monic element that generates I is precisely P.

Let λ1, …, λq be the distinct eigenvalues of A, and si be the size of the largest Jordan block corresponding to λi. It is clear from the Jordan normal form that the minimal polynomial of A has degree Σsi.

While the Jordan normal form determines the minimal polynomial, the converse is not true. This leads to the notion of elementary divisors. The elementary divisors of a square matrix A are the characteristic polynomials of its Jordan blocks. The factors of the minimal polynomial m are the elementary divisors of the largest degree corresponding to distinct eigenvalues.

The degree of an elementary divisor is the size of the corresponding Jordan block, therefore the dimension of the corresponding invariant subspace. If all elementary divisors are linear, A is diagonalizable.

Invariant subspace decompositions[edit]

The Jordan form of a n × n matrix A is block diagonal, and therefore gives a decomposition of the n dimensional Euclidean space into invariant subspaces of A. Every Jordan block Ji corresponds to an invariant subspace Xi. Symbolically, we put

mathbb{C}^n = bigoplus_{i = 1}^k X_i

where each Xi is the span of the corresponding Jordan chain, and k is the number of Jordan chains.

One can also obtain a slightly different decomposition via the Jordan form. Given an eigenvalue λi, the size of its largest corresponding Jordan block si is called the index of λi and denoted by v(λi). (Therefore, the degree of the minimal polynomial is the sum of all indices.) Define a subspace Yi by

{displaystyle Y_{i}=ker(lambda _{i}I-A)^{v(lambda _{i})}.}

This gives the decomposition

mathbb{C}^n = bigoplus_{i = 1}^l Y_i

where l is the number of distinct eigenvalues of A. Intuitively, we glob together the Jordan block invariant subspaces corresponding to the same eigenvalue. In the extreme case where A is a multiple of the identity matrix we have k = n and l = 1.

The projection onto Yi and along all the other Yj ( ji ) is called the spectral projection of A at vi and is usually denoted by P(λi ; A). Spectral projections are mutually orthogonal in the sense that P(λi ; A) P(vj ; A) = 0 if ij. Also they commute with A and their sum is the identity matrix. Replacing every vi in the Jordan matrix J by one and zeroing all other entries gives P(vi ; J), moreover if U J U−1 is the similarity transformation such that A = U J U−1 then P(λi ; A) = U P(λi ; J) U−1. They are not confined to finite dimensions. See below for their application to compact operators, and in holomorphic functional calculus for a more general discussion.

Comparing the two decompositions, notice that, in general, lk. When A is normal, the subspaces Xi‘s in the first decomposition are one-dimensional and mutually orthogonal. This is the spectral theorem for normal operators. The second decomposition generalizes more easily for general compact operators on Banach spaces.

It might be of interest here to note some properties of the index, ν(λ). More generally, for a complex number λ, its index can be defined as the least non-negative integer ν(λ) such that

{displaystyle ker(A-lambda I)^{nu (lambda )}=ker(A-lambda I)^{m},;forall mgeq nu (lambda ).}

So ν(v) > 0 if and only if λ is an eigenvalue of A. In the finite-dimensional case, ν(v) ≤ the algebraic multiplicity of v.

Plane (flat) normal form[edit]

The Jordan form is used to find a normal form of matrices up to conjugacy such that normal matrices make up an algebraic variety of a low fixed degree in the ambient matrix space.

Sets of representatives of matrix conjugacy classes for Jordan normal form or rational canonical forms in general do not constitute linear or
affine subspaces in the ambient matrix spaces.

Vladimir Arnold posed[16] a problem:
Find a canonical form of matrices over a field for which the set of representatives of matrix conjugacy classes is a union of affine linear subspaces (flats). In other words, map the set of matrix conjugacy classes injectively back into the initial set of matrices so that the image of this embedding—the set of all normal matrices, has the lowest possible degree—it is a union of shifted linear subspaces.

It was solved for algebraically closed fields by Peteris Daugulis.[17]
The construction of a uniquely defined plane normal form of a matrix starts by considering its Jordan normal form.

Matrix functions[edit]

Iteration of the Jordan chain motivates various extensions to more abstract settings. For finite matrices, one gets matrix functions; this can be extended to compact operators and the holomorphic functional calculus, as described further below.

The Jordan normal form is the most convenient for computation of the matrix functions (though it may be not the best choice for computer computations). Let f(z) be an analytical function of a complex argument. Applying the function on a n×n Jordan block J with eigenvalue λ results in an upper triangular matrix:

{displaystyle f(J)={begin{bmatrix}f(lambda )&f'(lambda )&{tfrac {f''(lambda )}{2}}&cdots &{tfrac {f^{(n-1)}(lambda )}{(n-1)!}}\0&f(lambda )&f'(lambda )&cdots &{tfrac {f^{(n-2)}(lambda )}{(n-2)!}}\vdots &vdots &ddots &ddots &vdots \0&0&0&f(lambda )&f'(lambda )\0&0&0&0&f(lambda )end{bmatrix}},}

so that the elements of the k-th superdiagonal of the resulting matrix are {displaystyle {tfrac {f^{(k)}(lambda )}{k!}}}. For a matrix of general Jordan normal form the above expression shall be applied to each Jordan block.

The following example shows the application to the power function f(z) = zn:

{displaystyle {begin{bmatrix}lambda _{1}&1&0&0&0\0&lambda _{1}&1&0&0\0&0&lambda _{1}&0&0\0&0&0&lambda _{2}&1\0&0&0&0&lambda _{2}end{bmatrix}}^{n}={begin{bmatrix}lambda _{1}^{n}&{tbinom {n}{1}}lambda _{1}^{n-1}&{tbinom {n}{2}}lambda _{1}^{n-2}&0&0\0&lambda _{1}^{n}&{tbinom {n}{1}}lambda _{1}^{n-1}&0&0\0&0&lambda _{1}^{n}&0&0\0&0&0&lambda _{2}^{n}&{tbinom {n}{1}}lambda _{2}^{n-1}\0&0&0&0&lambda _{2}^{n}end{bmatrix}},}

where the binomial coefficients are defined as {textstyle {binom {n}{k}}=prod _{i=1}^{k}{frac {n+1-i}{i}}}. For integer positive n it reduces to standard definition
of the coefficients. For negative n the identity {textstyle {binom {-n}{k}}=(-1)^{k}{binom {n+k-1}{k}}} may be of use.

Compact operators[edit]

A result analogous to the Jordan normal form holds for compact operators on a Banach space. One restricts to compact operators because every point x in the spectrum of a compact operator T is an eigenvalue; The only exception is when x is the limit point of the spectrum. This is not true for bounded operators in general. To give some idea of this generalization, we first reformulate the Jordan decomposition in the language of functional analysis.

Holomorphic functional calculus[edit]

Let X be a Banach space, L(X) be the bounded operators on X, and σ(T) denote the spectrum of TL(X). The holomorphic functional calculus is defined as follows:

Fix a bounded operator T. Consider the family Hol(T) of complex functions that is holomorphic on some open set G containing σ(T). Let Γ = {γi} be a finite collection of Jordan curves such that σ(T) lies in the inside of Γ, we define f(T) by

{displaystyle f(T)={frac {1}{2pi i}}int _{Gamma }f(z)(z-T)^{-1},dz.}

The open set G could vary with f and need not be connected. The integral is defined as the limit of the Riemann sums, as in the scalar case. Although the integral makes sense for continuous f, we restrict to holomorphic functions to apply the machinery from classical function theory (for example, the Cauchy integral formula). The assumption that σ(T) lie in the inside of Γ ensures f(T) is well defined; it does not depend on the choice of Γ. The functional calculus is the mapping Φ from Hol(T) to L(X) given by

; Phi(f) = f(T).

We will require the following properties of this functional calculus:

  1. Φ extends the polynomial functional calculus.
  2. The spectral mapping theorem holds: σ(f(T)) = f(σ(T)).
  3. Φ is an algebra homomorphism.

The finite-dimensional case[edit]

In the finite-dimensional case, σ(T) = {λi} is a finite discrete set in the complex plane. Let ei be the function that is 1 in some open neighborhood of λi and 0 elsewhere. By property 3 of the functional calculus, the operator

{displaystyle e_{i}(T)}

is a projection. Moreover, let νi be the index of λi and

f(z)= (z - lambda_i)^{nu_i}.

The spectral mapping theorem tells us

 f(T) e_i (T) = (T - lambda_i)^{nu_i} e_i (T)

has spectrum {0}. By property 1, f(T) can be directly computed in the Jordan form, and by inspection, we see that the operator f(T)ei(T) is the zero matrix.

By property 3, f(T) ei(T) = ei(T) f(T). So ei(T) is precisely the projection onto the subspace

{displaystyle operatorname {Ran} e_{i}(T)=ker(T-lambda _{i})^{nu _{i}}.}

The relation

{displaystyle sum _{i}e_{i}=1}

implies

{displaystyle mathbb {C} ^{n}=bigoplus _{i};operatorname {Ran} e_{i}(T)=bigoplus _{i}ker(T-lambda _{i})^{nu _{i}}}

where the index i runs through the distinct eigenvalues of T. This is the invariant subspace decomposition

mathbb{C}^n = bigoplus_i Y_i

given in a previous section. Each ei(T) is the projection onto the subspace spanned by the Jordan chains corresponding to λi and along the subspaces spanned by the Jordan chains corresponding to vj for ji. In other words, ei(T) = P(λi;T). This explicit identification of the operators ei(T) in turn gives an explicit form of holomorphic functional calculus for matrices:

For all f ∈ Hol(T),
f(T) = sum_{lambda_i in sigma(T)} sum_{k = 0}^{nu_i -1} frac{f^{(k)}}{k!} (T - lambda_i)^k e_i (T).

Notice that the expression of f(T) is a finite sum because, on each neighborhood of vi, we have chosen the Taylor series expansion of f centered at vi.

Poles of an operator[edit]

Let T be a bounded operator λ be an isolated point of σ(T). (As stated above, when T is compact, every point in its spectrum is an isolated point, except possibly the limit point 0.)

The point λ is called a pole of operator T with order ν if the resolvent function RT defined by

{displaystyle R_{T}(lambda )=(lambda -T)^{-1}}

has a pole of order ν at λ.

We will show that, in the finite-dimensional case, the order of an eigenvalue coincides with its index. The result also holds for compact operators.

Consider the annular region A centered at the eigenvalue λ with sufficiently small radius ε such that the intersection of the open disc Bε(λ) and σ(T) is {λ}. The resolvent function RT is holomorphic on A.
Extending a result from classical function theory, RT has a Laurent series representation on A:

{displaystyle R_{T}(z)=sum _{-infty }^{infty }a_{m}(lambda -z)^{m}}

where

a_{-m} = - frac{1}{2 pi i} int_C (lambda - z) ^{m-1} (z - T)^{-1} d z and C is a small circle centered at λ.

By the previous discussion on the functional calculus,

{displaystyle a_{-m}=-(lambda -T)^{m-1}e_{lambda }(T)} where {displaystyle e_{lambda }} is 1 on {displaystyle B_{varepsilon }(lambda )} and 0 elsewhere.

But we have shown that the smallest positive integer m such that

a_{-m} neq 0 and a_{-l} = 0 ; ; forall ; l geq m

is precisely the index of λ, ν(λ). In other words, the function RT has a pole of order ν(λ) at λ.

Numerical analysis[edit]

If the matrix A has multiple eigenvalues, or is close to a matrix with multiple eigenvalues, then its Jordan normal form is very sensitive to perturbations. Consider for instance the matrix

 A = begin{bmatrix} 1 & 1 \ varepsilon & 1 end{bmatrix}.

If ε = 0, then the Jordan normal form is simply

 begin{bmatrix} 1 & 1 \ 0 & 1 end{bmatrix}.

However, for ε ≠ 0, the Jordan normal form is

 begin{bmatrix} 1+sqrtvarepsilon & 0 \ 0 & 1-sqrtvarepsilon end{bmatrix}.

This ill conditioning makes it very hard to develop a robust numerical algorithm for the Jordan normal form, as the result depends critically on whether two eigenvalues are deemed to be equal. For this reason, the Jordan normal form is usually avoided in numerical analysis; the stable Schur decomposition[18] or pseudospectra[19] are better alternatives.

See also[edit]

  • Canonical basis
  • Canonical form
  • Frobenius normal form
  • Jordan matrix
  • Jordan–Chevalley decomposition
  • Matrix decomposition
  • Modal matrix
  • Weyr canonical form

Notes[edit]

  1. ^
    Shilov defines the term Jordan canonical form and in a footnote says that Jordan normal form is synonymous.
    These terms are sometimes shortened to Jordan form. (Shilov)
    The term Classical canonical form is also sometimes used in the sense of this article. (James & James, 1976)
  2. ^ a b Holt & Rumynin (2009, p. 9)
  3. ^ a b Beauregard & Fraleigh (1973, pp. 310–316)
  4. ^ a b Golub & Van Loan (1996, p. 355)
  5. ^ a b Nering (1970, pp. 118–127)
  6. ^ Beauregard & Fraleigh (1973, pp. 270–274)
  7. ^ Golub & Van Loan (1996, p. 353)
  8. ^ Nering (1970, pp. 113–118)
  9. ^ Brechenmacher, «Histoire du théorème de Jordan de la décomposition matricielle (1870-1930). Formes de représentation et méthodes de décomposition», Thesis, 2007
  10. ^ Cullen (1966, p. 114)
  11. ^ Franklin (1968, p. 122)
  12. ^ a b Horn & Johnson (1985, §3.2.1)
  13. ^ Bronson (1970, pp. 189, 194)
  14. ^ Roe Goodman and Nolan R. Wallach, Representations and Invariants of Classical Groups, Cambridge UP 1998, Appendix B.1.
  15. ^ Horn & Johnson (1985, Theorem 3.4.5)
  16. ^ Arnold, Vladimir I, ed. (2004). Arnold’s problems. Springer-Verlag Berlin Heidelberg. p. 127. doi:10.1007/b138219. ISBN 978-3-540-20748-1.
  17. ^ Peteris Daugulis (2012). «A parametrization of matrix conjugacy orbit sets as unions of affine planes». Linear Algebra and Its Applications. 436 (3): 709–721. arXiv:1110.0907. doi:10.1016/j.laa.2011.07.032. S2CID 119649768.
  18. ^ See Golub & Van Loan (2014), §7.6.5; or Golub & Wilkinson (1976) for details.
  19. ^ See Golub & Van Loan (2014), §7.9

References[edit]

  • Beauregard, Raymond A.; Fraleigh, John B. (1973), A First Course In Linear Algebra: with Optional Introduction to Groups, Rings, and Fields, Boston: Houghton Mifflin Co., ISBN 0-395-14017-X
  • Bronson, Richard (1970), Matrix Methods: An Introduction, New York: Academic Press, LCCN 70097490
  • Cullen, Charles G. (1966), Matrices and Linear Transformations, Reading: Addison-Wesley, LCCN 66021267
  • Dunford, N.; Schwartz, J. T. (1958), Linear Operators, Part I: General Theory, Interscience
  • Finkbeiner II, Daniel T. (1978), Introduction to Matrices and Linear Transformations (3rd ed.), W. H. Freeman and Company
  • Franklin, Joel N. (1968), Matrix Theory, Englewood Cliffs: Prentice-Hall, LCCN 68016345
  • Golub, Gene H.; Van Loan, Charles F. (1996), Matrix Computations (3rd ed.), Baltimore: Johns Hopkins University Press, ISBN 0-8018-5414-8
  • Golub, Gene H.; Wilkinson, J. H. (1976). «Ill-conditioned eigensystems and the computation of the Jordan normal form». SIAM Review. 18 (4): 578–619. doi:10.1137/1018113.
  • Holt, Derek; Rumynin, Dmitriy (2009), Algebra I – Advanced Linear Algebra (MA251) Lecture Notes (PDF)
  • Horn, Roger A.; Johnson, Charles R. (1985), Matrix Analysis, Cambridge University Press, ISBN 978-0-521-38632-6
  • James, Glenn; James, Robert C. (1976), Mathematics Dictionary (2nd ed.), Van Nostrand Reinhold
  • MacLane, Saunders; Birkhoff, Garrett (1967), Algebra, Macmillan Publishers
  • Michel, Anthony N.; Herget, Charles J. (1993), Applied Algebra and Functional Analysis, Dover Publications
  • Nering, Evar D. (1970), Linear Algebra and Matrix Theory (2nd ed.), New York: Wiley, LCCN 76091646
  • Shafarevich, I. R.; Remizov, A. O. (2012), Linear Algebra and Geometry, Springer, ISBN 978-3-642-30993-9
  • Shilov, Georgi E. (1977), Linear Algebra, Dover Publications
  • Jordan Canonical Form article at mathworld.wolfram.com

Жорданова форма матрицы

Рассматривается задача упрощения квадратной матрицы при помощи преобразования подобия. Наиболее простой вид квадратной матрицы — диагональный. Для диагональных матриц легко решаются многие типовые задачи линейной алгебры, например, обращение матриц, решение системы уравнений, нахождение многочлена от матрицы и т.п. Однако, как показано ранее, не всякая квадратная матрица подобна диагональной. Поэтому возникает необходимость приведения матрицы к такому виду, пусть даже не диагональному, чтобы при решении типовых задач линейной алгебры не возникало значительных трудностей.

Элементарные делители матрицы

Пусть A — числовая квадратная матрица n-го порядка. Характеристическая матрица (A-lambda E) приводится (элементарными преобразованиями) к нормальному диагональному виду operatorname{diag} Bigl(e_1(lambda), ldots,e_n(lambda)Bigr), где e_i(lambda) — инвариантные множители матрицы (A-lambda E). Характеристический многочлен согласно свойству 2 можно представить в виде (7.25):

Delta_{A}(lambda)=(-1)^ncdot e_1(lambda)cdot e_2(lambda)cdotldotscdot e_n(lambda).

Разложим каждый из многочленов e_i(lambda) на линейные множители:

begin{aligned} e_1(lambda)&= (lambda-lambda_1)^{a_1}cdot (lambda-lambda_2)^{a_2}cdotldotscdot (lambda-lambda_k)^{a_k},\[2pt] e_2(lambda)&= (lambda-lambda_1)^{b_1}cdot (lambda-lambda_2)^{b_2}cdotldotscdot (lambda-lambda_k)^{b_k},\ &cdotscdotscdotscdotscdots\ e_{n-1}(lambda)&= (lambda-lambda_1)^{ell_1}cdot (lambda-lambda_2)^{ell_2}cdotldotscdot (lambda-lambda_k)^{ell_k},\[2pt] e_n(lambda)&= (lambda-lambda_1)^{m_1}cdot (lambda-lambda_2)^{m_2}cdotldotscdot (lambda-lambda_k)^{m_k}. end{aligned}

(7.33)

Здесь lambda_1,lambda_2,ldots,lambda_k — различные собственные значения матрицы A; показатели степеней, удовлетворяют неравенствам 0leqslant a_ileqslant b_ileqslantldots leqslantell_ileqslant m_i (i=1,ldots,k) так как каждый последующий инвариантный множитель делится на предыдущий. Некоторые из множителей (lambda-lambda_i)^j в (7.33) могут иметь нулевую степень, т.е. быть равными единице. Исключение составляют множители (lambda-lambda_i)^{m_i} минимального многочлена (7.29) (mu_{A}(lambda)=e_n(lambda) по свойству 6) , для которых согласно свойству 4 все показатели степеней больше или равны единицы (m_igeqslant1,~ i=1,ldots,k).

Учитывая, что характеристический многочлен (7.24) равен произведению инвариантных множителей (с коэффициентом (-1)^n):

Delta_{A}(lambda)= (-1)^ncdot (lambda-lambda_1)^{n_1}cdot (lambda-lambda_2)^{n_2}cdotldotscdot (lambda-lambda_k)^{n_k}= (-1)^ncdot e_1(lambda)cdot e_2(lambda)cdot ldotscdot e_n(lambda),

получаем, что a_i+b_i+ldots+ell_i+m_i=n_i~(i=1,ldots,k) и n_1+n_2+ldots+ n_k=n, т.е. сумма степеней всех инвариантных множителей равна порядку квадратной матрицы A.

Каждый отличный от единицы многочлен вида (lambda-lambda)^j, указанный в | разложениях (7.33) инвариантных множителей, называется элементарным делителем характеристической матрицы (A-lambda E) (или просто элементарным делителем матрицы A).

По формулам (7.33) можно составить таблицу элементарных делителей:

begin{matrix}(lambda-lambda_1)^{m_1},&(lambda-lambda_1)^{ell_1}, &ldots,,&(lambda-lambda_1)^{b_1},&(lambda-lambda_1)^{a_1},\[4pt] (lambda-lambda_2)^{m_2}, &(lambda-lambda_2)^{ell_2},&ldots,,&(lambda-lambda_2)^{b_2},& (lambda-lambda_2)^{a_2}, \ vdots&vdots&cdots&vdots&vdots\[4pt] (lambda-lambda_k)^{m_k}, &(lambda-lambda_k)^{ell_k}, &ldots,,&(lambda-lambda_k)^{b_k},&(lambda-lambda_k)^{a_k}. end{matrix}

(7.34)


Составление таблицы элементарных делителей по таблице инвариантных множителей

Для составления таблицы (7.34) элементарных делителей по таблице (7.33) инвариантных множителей нужно:

а) в первый столбец таблицы (7.34) записать элементарные делители последнего инвариантного множителя e_n(lambda) из таблицы (7.33);

б) во второй столбец (7.34) записать элементарные делители предпоследнего инвариантного множителя e_{n-1}(lambda) из таблицы (7.33) так, чтобы в i-й строке (7.34) были степени одного и того же двучлена (lambda-lambda_i), и т.д. 18 последний столбец (7.34) записать элементарные делители первого инвариантного множителя e_1(lambda) из таблицы (7.33) так, чтобы в i-й строке (7.34) были степени одного и того же двучлена (lambda-lambda_i).

Элементы, тождественно равные единице, не являются элементарными делителями и в таблицу (7.34) не заносятся. Поэтому в каждой строке таблицы может быть разное количество элементарных делителей, точнее, в каждом последующем столбце количество делителей не больше, чем в предыдущем. В каждой строке таблицы (7.34) стоят делители (lambda-lambda_i)^j, относящиеся к одному собственному значению lambda_i. Поскольку собственные значения lambda_1,ldots,lambda_k могут быть упорядочены по-разному, то и строки таблицы (7.34) можно переставлять. Это не будет в дальнейшем иметь существенного значения.


Составление таблицы инвариантных множителей по таблице элементарных делителей

По таблице (7.34) элементарных делителей можно восстановить таблицу (7.33) инвариантных множителей. Для этого нужно:

а) перемножая элементарные делители первого столбца таблицы (7.34), получить последний инвариантный множитель e_n(lambda) в таблице (7.33);

б) перемножая элементарные делители второго столбца таблицы (7.34), получить предпоследний инвариантный множитель e_{n-1}(lambda) в таблице (7.33) и т.д. Исчерпав столбцы таблицы (7.34), дописываем недостающие инвариантные множители, полагая их равными единице (количество инвариантных множителей равно сумме степеней всех элементарных делителей, т.е. порядку матрицы).

Заметим, что, составляя таблицу (7.33) по таблице (7.34), можно переставлять строки таблицы (7.34), так как это не приведет к изменению таблицы (7.33). Столбцы таблицы (7.34) переставлять нельзя.

Согласно теореме об инвариантных множителях, эквивалентные характеристические матрицы (A-lambda E) и (B-lambda E) имеют одинаковые инвариантные множители (7.33). Тогда они имеют и одинаковые элементарные делители (7.34). Следовательно, критерий подобия числовых матриц можно сформулировать следующим образом.

Теорема 7.8 (критерий подобия матриц). Числовые матрицы подобны тогда и только тогда, когда они имеют одинаковые элементарные делители.

Таким образом, нахождение подобных матриц связано с умением составлять матрицы, элементарные делители которых совпадают с заданной таблицей (7.34).


Жордановы клетки и матрицы

Квадратную матрицу (r-го порядка) вида

J_{r}(lambda_0)= begin{pmatrix}lambda_0&1&0&cdots&0\ 0&lambda_0&1&cdots&0\ vdots&vdots&vdots&ddots&vdots\ 0&0&0&cdots&1\ 0&0&0&cdots&lambda_0 end{pmatrix}

(7.35)

называют жордановой клеткой r-го порядка, соответствующей собственному значению lambda_0. Все элементы на главной диагонали этой верхней треугольной матрицы равны lambda_0, элементы над главной диагональю равны единице, а остальные элементы равны нулю.

Найдем элементарные делители жордановой клетки. Для этого составим характеристическую матрицу

J_{r}(lambda_0)-lambda E= begin{pmatrix}lambda_0-lambda&1&0&cdots&0\ 0&lambda_0-lambda&1&cdots&0\ vdots&vdots&vdots&ddots&vdots\ 0&0&0&cdots&1\ 0&0&0&cdots&lambda_0-lambda end{pmatrix}

и найдем наибольшие общие делители d_i(lambda) миноров i-го порядка. Среди ненулевых миноров первого порядка есть минор, равный единице (M_{{}_2}^{{}^1}=1). Рассматривая его как многочлен нулевой степени, заключаем, что наибольший общий делитель миноров первого порядка должен быть также многочленом нулевой степени, т.е. d_1(lambda)=1. Среди миноров второго порядка также имеется минор, равный единице: M_{{}_{2,3}}^{{}^{1,2}}=begin{vmatrix}1&0\ lambda_0-lambda&1 end{vmatrix}, следовательно, d_2(lambda)=1 и т.д. Минор (r-l)-гo порядка M_{{}_{2,3,ldots,r}}^{{}^{1,2,ldots,r-1}} имеет нижний треугольный вид с единичными элементами на главной диагонали, т.е. M_{{}_{2,3,ldots,r}}^{{}^{1,2,ldots,r-1}}=1. Поэтому d_{r-1}(lambda)=1. Минор r-го порядка, т.е. определитель характеристической матрицы, равен (lambda_0-lambda)^r, поэтому d_r(lambda)=(lambda-lambda_0)^r. По формулам (7.11) находим инвариантные множители:

e_1(lambda)=e_2(lambda)=ldots=e_{r-1}(lambda)=1,quad e_r(lambda)=(lambda-lambda_0)^r.

Следовательно, жорданова клетка (7.35) имеет всего один элементарный делитель (lambda-lambda_0)^r. Поэтому характеристическая матрица приводится к нормальному диагональному виду (7.9):

Bigl(J_A(lambda_0)-lambda EBigr)sim operatorname{diag} underbrace{Bigl(1,ldots,1, (lambda-lambda_0)^rBigr)}_{r}.

(7.36)

Заметим, что характеристический многочлен Delta_{J_A(lambda_0)}= (lambda-lambda_0)^r имеет единственный корень lambda_0 кратности r, т.е. lambda_0 — собственное значение матрицы (7.35).

Рассмотрим теперь блочно-диагональную матрицу

J=operatorname{diag}Bigl(J_{r_1}(lambda_1),J_{r_2}(lambda_2)Bigr)= begin{pmatrix}J_{r_1}(lambda_1)!!&vline!!&O\hline O!!&vline!!& J_{r_2}(lambda_2) end{pmatrix}!,

(7.37)

где J_{r_1}(lambda_1) и J_{r_2}(lambda_2) — жордановы клетки, а O — нулевые матрицы соответствующих размеров. Для определенности считаем, что r_1geqslant r_2. Характеристическая матрица (J-lambda E) также имеет блочно-диагональный вид. С помощью элементарных преобразований каждого блока матрица (J-lambda E), учитывая (7.36), приводится к диагональному виду

(J-lambda E)sim operatorname{diag} underbrace{left(1,ldots,1,(lambda-lambda_1)^{r_1}right.}_{r_1}, underbrace{left.{1,ldots,1,(lambda-lambda_2)^{r_2}}right)}_{r_2}

Если lambda_1ne lambda_2, то d_1(lambda)=ldots=d_{r_1+r_2-1}(lambda)=1,~ d_{r_1+r_2}(lambda)=(lambda-lambda_1)^{r_1}cdot (lambda-lambda_2)^{r_2}.

Тогда e_1(lambda)=ldots=e_{r_1+r_2-1}(lambda)=1,~ e_{r_1+r_2}(lambda)=(lambda-lambda_1)^{r_1}cdot (lambda-lambda_2)^{r_2}.

Следовательно, матрица (7.37) имеет два элементарных делителя (lambda-lambda_1)^{r_1} и (lambda-lambda_2)^{r_2}.

Если lambda_1=lambda_2, то d_1(lambda)=ldots=d_{r_1+r_2-2}(lambda)=1,~ d_{r_1+r_2-1}(lambda)=(lambda-lambda_1)^{r_2},~ d_{r_1+r_2}(lambda)= (lambda-lambda_2)^{r_1+r_2}.

Тогда e_1(lambda)=ldots=e_{r_1+r_2-2}(lambda)=1,~ e_{r_1+r_2-1}(lambda)=(lambda-lambda_1)^{r_2},~ e_{r_1+r_2}(lambda)=(lambda-lambda_2)^{r_1}.

Следовательно, матрица (7.37) имеет два элементарных делителя (lambda-lambda_1)^{r_1} и (lambda-lambda_2)^{r_2}.

Таким образом, элементарные делители блочно-диагональной матрицы (7.37) получаются объединением элементарных делителей каждого блока.


Определение жордановой матрицы

Жордановой матрицей называют блочно-диагональную матрицу, на диагонали которой стоят жордановы клетки:

J=operatorname{diag}Bigl(J_{r_1}(lambda_1),, J_{r_2}(lambda_2),,ldots,, J_{r_k}(lambda_k)Bigr)= begin{pmatrix} J_{r_1}(lambda_1)!!&vline!!&O!!& vline!!&cdots!!&vline!!&O\[4pt]hline O!!&vline!!& J_{r_2}(lambda_2)!!&vline!!& cdots!!&vline!!&O\[4pt]hline vdots!!&vline!!& vdots!!& vline!!&ddots!!&vline!!& vdots\[4pt]hline O!!&vline!!& O!!&vline!!& cdots!!&vline!!& J_{r_k}(lambda_k) end{pmatrix}!.

(7.38)

Здесь O — нулевые матрицы соответствующих размеров. Среди собственных значений lambda_1,lambda_2, ldots,lambda_k могут быть равные, размеры r_1,r_2,ldots, r_k жордановых клеток (всех или некоторых) тоже могут совпадать. Жорданова матрица — почти диагональная. На ее главной диагонали стоят собственные значения, некоторые элементы над главной диагональю равны единице, остальные элементы нулевые. Про матрицу (7.38) говорят, что она имеет нормальную жорданову форму (или просто жорданову форму).

Элементарные делители жордановой матрицы (7.38) (lambda- lambda_1)^{r_1},,(lambda-lambda_2)^{r_2},,ldots,, (lambda-lambda_k)^{r_k} получаются в результате объединения элементарных делителей жордановых клеток.


Составление жордановой матрицы по таблице элементарных делителей

Чтобы составить по таблице (7.34) элементарных делителей соответствующую жорданову матрицу, нужно:

а) для первой строки (lambda-lambda_1)^{m_1},, (lambda-lambda_1)^{ell_1},,ldots,, (lambda-lambda_1)^{b_1},,(lambda-lambda_1)^{a_1} элементарных делителей в (7.34) записать жордановы клетки

J_{m_1}(lambda_1),quad J_{ell_1}(lambda_1),quad ldots,quad J_{b_1}(lambda_1),quad J_{a_1}(lambda_1);

б) для второй строки (lambda-lambda_2)^{m_2},, (lambda-lambda_2)^{ell_2},,ldots,, (lambda-lambda_2)^{b_2},,(lambda-lambda_1)^{a_2} элементарных делителей в (7.34) записать жордановы клетки

J_{m_2}(lambda_2),quad J_{ell_2}(lambda_2),quad ldots,quad J_{b_2}(lambda_2),quad J_{a_2}(lambda_2)

и т.д. Получив полный набор жордановых клеток (количество которых совпадает с количеством элементарных делителей в таблице (7.34)), составить из них блочно-диагональную матрицу вида (7.38). Порядок, в котором нужно располагать жордановы клетки на диагонали, строго не регламентирован. Поэтому для одной и той же таблицы (7.34) можно получить разные жордановы матрицы, отличающиеся только перестановкой жордановых клеток.


Составление таблицы элементарных делителей по жордановой матрице

Чтобы по жордановой матрице (7.38) составить таблицу (7.34) ее элементарных делителей, нужно:

а) выбрать в жордановой матрице все жордановы клетки, соответствующие собственному значению lambda_1; составить для каждой клетки элементарный делитель, а затем записать эти элементарные делители в порядке убывания степеней в первую строку таблицы (7.34), например, для жордановых клеток

J_{m_1}(lambda_1),quad J_{ell_1}(lambda_1),quad ldots,quad J_{b_1}(lambda_1),quad J_{a_1}(lambda_1), где m_1geqslantell_1geqslantldots geqslant b_1geqslant a_1geqslant1,

записать строку (lambda-lambda_1)^{m_1},, (lambda-lambda_1)^{ell_1},,ldots,, (lambda-lambda_1)^{b_1},,(lambda-lambda_1)^{a_1} элементарных делителей;

б) выбрать в жордановой матрице все жордановы клетки, соответствующие собственному значению lambda_2, составить для каждой клетки элементарный делитель, а затем записать эти элементарные делители в порядке убывания степеней во вторую строку таблицы (7.34) и т.д., пока не исчерпаются все собственные значения данной жордановой матрицы. Порядок, в котором выбираются собственные значения жордановой матрицы, точно не устанавливается. Поэтому для одной жордановой матрицы можно получить разные таблицы элементарных делителей, которые будут отличаться только перестановкой строк. Ранее отмечалось, что перестановка строк таблицы (7.34) не влияет на составление таблицы (7.33) инвариантных множителей.


Замечания 7.6

1. Диагональная матрица имеет жорданову форму, в которой все жордановы клетки первого порядка:

operatorname{diag}(lambda_1,, lambda_2,,ldots,, lambda_n)= operatorname{diag} Bigl(J_1(lambda_1),,J_1(lambda_2),,ldots,,J_{1}(lambda_1)Bigr).

2. Хотя жорданова матрица в общем случае не диагональная, для нее достаточно просто решаются типовые задачи линейной алгебры. Например, для неоднородной системы уравнений Jx=b с невырожденной матрицей J=J_n(lambda_0) можно сразу записать решение:

x_n=frac{b_n}{lambda_0},,quad x_{n-1}=frac{b_{n-1}-x_n}{lambda_0},,quadldots,,quad x_1=frac{b_1-x_2}{lambda_0},.

3. Для решения тех или иных задач линейной алгебры используются различные простые виды квадратных матриц, которые обычно называют нормальными, или каноническими формами, например, первая и вторая естественные формы матрицы, вещественная жорданова форма. Матрицу (7.38) называют также канонической формой.


Пример 7.13. Найти элементарные делители и инвариантные множители жордановых матриц

A=begin{pmatrix}1!!&vline!!&0!!&vline!!&0&0\hline 0!!&vline!!&2!!&vline!!&0&0\hline 0!!&vline!!&0!!&vline!!&3&1\ 0!!&vline!!&0!!&vline!!&0&3 end{pmatrix}!,quad B=begin{pmatrix} 1&1!!&vline!!&0!!&vline!!&0\ 0&1!!&vline!!&0!!&vline!!&0\hline 0&0!!&vline!!&1!!&vline!!&0\hline 0&0!!&vline!!&0!!&vline!!&2 end{pmatrix}!,quad C= begin{pmatrix}1&1!!&vline!!&0&0\ 0&1!!&vline!!&0&0\hline 0&0!!&vline!!&1&1\ 0&0!!&vline!!&0&1 end{pmatrix}!.

Решение. Матрица A=operatorname{diag} Bigl(J_1(1),,J_1(2),, J_2(3)Bigr) состоит из трех жордановых клеток с разными собственными значениями lambda_1=1, lambda_2=2, lambda_3=3. Для каждого собственного значения запишем жорданову клетку и соответствующий элементарный делитель:

begin{array}{lllll}lambda_1=1&quad Rightarrow&quad J_1(1)&quad Rightarrow& quad (lambda-1);\[2pt] lambda_2=2&quad Rightarrow&quad J_1(2)&quad Rightarrow& quad (lambda-2);\[2pt] lambda_3=3&quad Rightarrow&quad J_2(3)&quad Rightarrow& quad (lambda-3)^2. end{array}

Получили таблицу элементарных делителей, которая состоит из одного столбца. По этой таблице составляем инвариантные множители (количество которых равно порядку матрицы A). Записываем последний инвариантный множитель e_4(lambda)=(lambda-3)^2(lambda-1)(lambda-2), перемножая элементарные делители первого столбца. Поскольку исчерпаны все элементарные делители (второго столбца в таблице нет), то остальные инвариантные множители полагаем равными единице: e_3(lambda)= e_2(lambda)= e_1(lambda)=1.

Матрица B=operatorname{diag} Bigl(J_2(1),, J_1(1),,J_1(2)Bigr) состоит из трех жордановых клеток, соответствующих двум разным собственным значениям lambda_1=1, lambda_2=2.

Для каждого собственного значения записываем соответствующие жордановы клетки и элементарные делители:

begin{array}{lllll}lambda_1=1&quad Rightarrow& quad J_2(1),,J_1(1)&quad Rightarrow&quad (lambda-1)^2,,(lambda-1);\[2pt] lambda_2=2&quad Rightarrow& quad J_1(2)&quad Rightarrow&quad (lambda-2). end{array}

Получили таблицу элементарных делителей, которая состоит из двух столбцов. По этой таблице составляем инвариантные множители (количество которых равно порядку матрицы B). Записываем последний инвариантный множитель e_4(lambda)=(lambda-1)^2(lambda-2), перемножая элементарные делители первого столбца. Записываем предпоследний инвариантный множитель e_3(lambda)=lambda-1 по второму столбцу таблицы. Поскольку исчерпаны все элементарные делители (третьего столбца в таблице нет), то остальные инвариантные множители полагаем равными единице: e_2(lambda)=e_1(lambda)=1.

Матрица C=operatorname{diag}Bigl(J_2(1),,J_2(1)Bigr) состоит из двух одинаковых жордановых клеток, соответствующих одному собственному значению lambda_1=1. Для этого собственного значения записываем жордановы клетки и соответствующие элементарные делители:

lambda_1=1qquad Rightarrowqquad J_2(1),,J_2(1)qquad Rightarrowqquad (lambda-1)^2,,(lambda-1)^2.

Получили таблицу элементарных делителей, которая состоит из двух столбцов. По этой таблице составляем инвариантные множители (количество которых равно порядку матрицы C). Записываем последний инвариантный множитель e_4(lambda)=(lambda-1)^2 по первому столбцу таблицы. Записываем предпоследний инвариантный множитель e_3(lambda)=(lambda-1)^2 по второму столбцу таблицы. Поскольку исчерпаны все элементарные делители (третьего столбца в таблице нет), то остальные инвариантные множители полагаем равными единице: e_2(lambda)=e_1(lambda)=1.


Пример 7.14. По инвариантным множителям найти жорданову матрицу:

а) матрица Acolon~ e_1(lambda)= e_2(lambda)=e_3(lambda)=1,~ e_4(lambda)=(lambda-1)(lambda-2)(lambda-3)(lambda-4);

б) матрица Bcolon~ e_1(lambda)=e_2(lambda)=1,~ e_3(lambda)=(lambda-1),~ e_4(lambda)=(lambda-1)^3;

в) матрица Ccolon~ e_1(lambda)=1,~ e_2(lambda)=(lambda-1),~ e_3(lambda)=(lambda-1),~ e_4(lambda)=(lambda-1)^2.

Решение. Для матрицы A составляем таблицу (7.34) элементарных делителей. В первый столбец таблицы записываем элементарные делители последнего инвариантного множителя:

(lambda-1),quad (lambda-2),quad (lambda-3),quad (lambda-4).

Остальные элементарные делители равны единице и в таблицу не заносятся. Составляем по таблице элементарных делителей жорданову матрицу. Для каждого элементарного делителя записываем соответствующую жорданову клетку: J_1(1), J_1(2), J_1(3), J_1(4)phantom{,}. Располагая эти клетки на главной диагонали блочной матрицы, получаем искомую жорданову матрицу:

A=begin{pmatrix} 1!!&vline!!& 0!!&vline!!&0!!&vline!!&0\hline 0!!&vline!!& 2!!&vline!!&0!!&vline!!&0\hline 0!!&vline!!& 0!!&vline!!&3!!&vline!!&0\hline 0!!&vline!!& 0!!&vline!!&0!!&vline!!&4 end{pmatrix}!.

Для матрицы B составляем таблицу (7.34) элементарных делителей. В первый столбец таблицы записываем единственный элементарный делитель последнего инвариантного множителя e_4(lambda), во второй столбец — предпоследнего инвариантного множителя e_3(lambda):

(lambda-1)^3,qquad (lambda-1).

Инвариантные множители e_1(lambda)=e_2(lambda)=1 не содержат элементарных делителей, отличных от единицы, и поэтому в таблицу не записываются. Составляем по таблице элементарных делителей жорданову матрицу. Для каждого элементарного делителя записываем соответствующую жорданову клетку: J_3(1),~J_1(1). Располагая эти клетки на главной диагонали блочной матрицы, получаем искомую жорданову матрицу:

B=begin{pmatrix}1&1&0!!&vline!!&0\ 0&1&1!!&vline!!&0\ 0&0&1!!&vline!!&0\hline 0&0&1!!&vline!!&0 end{pmatrix}!.

Для матрицы C составляем таблицу (7.34) элементарных делителей. В первый столбец таблицы записываем единственный элементарный делитель последнего инвариантного множителя e_3(lambda), второй столбец — предпоследнего инвариантного множителя e_3(lambda), в третий столбец — e_2(lambda):

(lambda-1)^2,qquad (lambda-1),qquad (lambda-1).

Инвариантный множитель e_1(lambda)=1 не содержит элементарных делителей, отличных от единицы, и поэтому в таблицу не записывается. Составляем по таблице элементарных делителей жорданову матрицу. Для каждого элементарного делителя записываем соответствующую жорданову клетку: J_2(1),J_1(1),J_1(1). Располагая эти клетки на главной диагонали блочной матрицы, получаем искомую жорданову матрицу:

C=begin{pmatrix} 1&1!!&vline!!&0!!&vline!!&0\ 0&1!!&vline!!&0!!&vline!!&0\hline 0&0!!&vline!!&1!!&vline!!&0\hline 0&0!!&vline!!&0!!&vline!!&1 end{pmatrix}!.


Теорема 7.9 о приведении матрицы к нормальной жордановой форме. Любая квадратная матрица подобна жордановой матрице. Две жордановы матрицы подобны тогда и только тогда, когда они составлены из одинаковых жордановых клеток и отличаются друг от друга лишь расположением клеток на главной диагонали, другими словами, любую квадратную матрицу при помощи преобразования подобия можно привести к нормальной жордановой форме и притом единственной (с точностью до перестановок жордановых клеток).

В самом деле, для любой квадратной матрицы A можно найти элементарные делители, т.е. составить таблицу (7.34). По элементарным делителям можно составить соответствующую жорданову матрицу J_A. При этом матрицы A и J_A будут иметь одинаковые элементарные делители, что является критерием их подобия. Значит, найдется невырожденная преобразующая матрица S такая, что J_A=S^{-1}Lambda S. Заметим, что жорданова форма J_A матрицы A определяется по ее элементарным делителям единственным образом с точностью до перестановок жордановых клеток.

Математический форум (помощь с решением задач, обсуждение вопросов по математике).

Кнопка "Поделиться"

Если заметили ошибку, опечатку или есть предложения, напишите в комментариях.

ДОКЛАД:

Жорданова нормальная форма матрицы оператора, жорданов базис.

  1. Определения и основные понятия

Введем два основных понятия.

1.1 Жорданова клетка

Жордановой клеткой порядка k, относящейся к числу λ0, называется матрица порядка k, 1≤kn, имеющая вид:

Также можем сказать, что на её главной диагонали стоит одно и то же число из поля P, а параллельные элементы, ближайшие к главной диагонали сверху, равны 1, все остальные элементы матрицы равны нулю.

Её характеристический многочлен (λ0 − λ)k имеет корень λ0 кратности k.

Таким образом, данная матрица имеет собственное значение λ0 алгебраической кратности k. Отвечающие ему собственные векторы — это ненулевые решения однородной системы линейных уравнений с матрицей

Так как rangB = k −1, так что размерность собственного подпространства равна 1, то существует лишь один линейно независимый собственный вектор. Таким образом, при k ≥ 2 не существует базиса, состоящего из собственных векторов этого оператора, то есть ни в одном базисе матрица оператора не может иметь диагонального вида. Матрица Jk0) называется жордановой клеткой порядка k, соответствующей собственному значению λ0.

1.2 Жорданов блок

Жордановым блоком, отвечающим собственному значению λ0, называется блочно-диагональная матрица, каждый блок которой представляет собой жорданову клетку вида:

На главной диагонали матрицы расположены s жордановых клеток Ji1(λ0), Ji2(λ0), . . . , Jis(λ0) порядков i1, i2 . . . , is, где s — геометрическая кратность собственного значения λ0.

Сумма порядков этих клеток равна алгебраической кратности собственного значения λ0, т.е. i1 + i2 + · · · + is = m.

Все элементы матрицы вне жордановых клеток равны нулю. Порядок расположения жордановых клеток в матрице A(λ0) определен неоднозначно.

1.3 Примеры жордановых блоков

Рассмотрим простой случай, когда характеристический многочлен матрицы имеет вид f(λ) = (λ0 − λ)m и геометрическая кратность собственного значения λ0 равна s.

Пример 1. Пусть m = 2, s = 1. Тогда

имеем одну жорданову клетку порядка 2.

Пример 2. Пусть m = 3, s = 1. Тогда

имеем одну жорданову клетку порядка 3.

Пример 3. Пусть m = 3, s = 2. Имеем жорданов блок, состоящий из двух жордановых клеток порядков 1 и 2:

  1. Теорема о жордановой форме матрицы оператора

Пусть линейный оператор A действует в линейном пространстве над полем комплексных чисел размерности n и его характеристический многочлен имеет вид

f(λ) = (λ1 − λ)m1(λ2 − λ)m2. . .(λp − λ)mp, где λj ≠ λk при j ≠ k,

m1 + m2 + · · · + mp = n.

Тогда в этом пространстве существует базис, состоящий из собственных и присоединенных векторов оператора A, в котором матрица оператора имеет блочно-диагональную форму (она называется жордановой формой)

где Aj ) — жорданов блок, соответствующий собственному значению λj. Указанный базис называется жордановым.

Сформулированная теорема верна и в случае, когда линейный оператор действует в линейном пространстве над произвольным числовым полем K, но все корни характеристического многочлена принадлежат полю K.

Рассмотрим примеры. Обозначаем через n размерность пространства, mj и sj — алгебраическую и геометрическую кратности собственного значения λj соответственно.

Пример 1. Пусть n = 2, λ1 ≠ λ2. Тогда матрица оператора может быть приведена к диагональному виду:

Пример 2. Пусть n = 3 и оператор имеет два различных собственных значения λ1 (m1 = 2, s1 = 1) и λ2 (m2= s2 = 1). Тогда матрица оператора может быть приведена к виду

Пример 3. Пусть n = 4 и оператор имеет два различных собственных значения λ1 (m1 = 3, s1 = 1) и λ2 (m2 = s2 = 1). Тогда

3 Жорданов базис

Базис векторного пространства, в котором матрица оператора имеет вид одной сплошной ячейки, должен обладать свойством («цикличность»), которое получим на основе правила «столбцы матрицы = образы базисных векторов».

Итак, пусть матрица A линейного оператора в некотором базисе e1,e2,e3,e4   имеет вид одной ячейки: 

Здесь q обозначает некое, известное нам число.

Очевидно, векторы базиса e1,e2,e3,e4 можно записать в виде линейных комбинаций векторов этого же базиса. Так, например:

e1 = 1e1 + 0e2+0e30e4 .

Это означает, что координаты вектора eв этом базисе равны (1,0,0,0).

Если мы умножим нашу матрицу на столбец (1,0,0,0), то получим, очевидно, ее первый столбец, то есть (q,0,0,0). Это означает, что Ae1qe1то есть e1— собственный вектор, q — собственное число.

Как нетрудно проверить, верно и обратное: если первый базисный вектор   является по совместительству собственным вектором оператора с собственным числом q, то первый столбец матрицы оператора в таком базисе равен (q,0,0,0).

Запишем равенство Ae1qe1 в другом виде: (A- qE)e1 = 0   или

Be1 = 0 (где B = A — qE).

Теперь займемся вторым базисным вектором e2. Его координаты равны (0,1,0,0). Умножив на столбец (0,1,0,0) нашу матрицу, мы получим в качестве результата ее второй столбец (1,q,0,0). Это означает, что

Ae2= qe2+ e1        или      (AqE) e2 = e1       или       Be2 = e1.

Точно так же получаются равенства

Be3 = e2    и    Be4 = e3.

В итоге мы приходим к выводу: если матрица оператора A в некотором базисе имеет вид Жордановой клетки (ячейки) с числом q на диагонали и с единичкам над ней, то векторы базиса превращаются друг в друга под воздействием оператора B=A-qE:

e4 e3 e2 e1→0

В этой цепочке стрелки (слева направо) показывают, что из каждого базисного вектора получается под воздействием оператора B.

4 Построение жорданова базиса и жордановой формы матрицы

Пусть λ — собственное значение оператора, m и s — алгебраическая и геометрическая кратности числа λ. Опишем построение линейно независимой совокупности из m собственных и присоединенных векторов, отвечающих данному λ. Этой совокупности векторов в жордановой матрице A′ будет соответствовать жорданов блок A(λ).

Обозначим:

B = A − λI, Bk= (A − λI)k, nk = ker Bk, nk = dim Nk, rk = rang Bk.

Ясно, что nk + rk = n. Для удобства считаем, что B0 = I, так что r0 = n, n0 = 0.

Поскольку rang Bk+1 ≤ rang Bk, имеем nk+1≥ nk, так что

N1 N2 N3 . . . .

Теорема. Существует такое натуральное число q, что

N1 N2 · · · Nq = Nq+1 = Nq+2 = . . . ,

т.е. все ядра с номером, большим, чем q, совпадают с ядром Nq. При этом

n1 = s, nq = m.

Построим часть жорданова базиса, соответствующую данному собственному значению λ, следующим образом.

1. Возводя матрицу B в последовательные натуральные степени, найдем показатель q, начиная с которого ранг степеней матрицы B перестает уменьшаться.

2. Рассмотрим ядра Nq и Nq-1. Пусть векторы f1, f2, · · · Nq достраивают произвольный базис пространства Nq-1 до базиса пространства Nq; их количество равно nq –nq-1. Эти векторы являются присоединенными векторами высоты q, и каждый из них порождает цепочку, состоящую из q векторов, которые войдут в состав жорданова базиса. Каждой такой цепочке будет соответствовать жорданова клетка порядка q; таким образом, в состав жордановой формы матрицы оператора A войдет nq –nq-1 жордановых клеток порядка q.

3. Рассмотрим ядра Nq-1 и Nq-2, а также векторы Bf1, Bf2 , · · · ; их количество равно

nq –nq-1 = (n – rq) − (n – rq-1) = rq-1− rq.

К этим векторам добавим векторы g1, g2, . . . из пространства Nq-1 так, чтобы система векторов

Bf1, Bf2, . . . , g1, g2, . . . Nq-1

дополняла произвольный базис ядра Nq-2 до базиса ядра Nq-1. Векторы g1, g2, . . являются присоединенными векторами высоты q −1, и каждому из них будет соответствовать, во-первых, цепочка векторов жорданова базиса, и во-вторых, жорданова клетка порядка q − 1. Количество добавляемых векторов g1, g2, . . равно

таким же будет количество жордановых клеток порядка q − 1.

4. Рассмотрим ядра Nq-2 и Nq-3 и векторы B2f1, B2f2, . . . , Bg1, Bg2, . . .К этим векторам (если их не хватает) добавим векторы h1,h2, . . . из пространства Nq2 так, чтобы совокупность векторов

дополняла произвольный базис пространства Nq-3 до базиса пространства Nq-2. Количество добавляемых векторов h1,h2, . . . равно

таким же будет количество жордановых клеток порядка q − 2.

Процесс продолжаем аналогично. Наконец, рассмотрим ядро N1 и векторы

Если эта система не образует базис пространства N1, то добавим собственные векторы u1, u2, . . . так, чтобы пополненная система являлась базисом в N1.

Итак, мы описали процесс построения жорданова базиса и выяснили, что количество жордановых клеток порядка k, входящих в состав жордановой формы матрицы оператора, может быть найдено по формуле

Построенную часть жорданова базиса, состоящую из m векторов, соответствующих данному λ (m — алгебраическая кратность этого собственного значения), запишем в таблицу («жорданова лестница»):

Все векторы таблицы линейно независимы, и их число равно m (алгебраической кратности собственного значения λ). Каждому столбцу этой таблицы соответствует одна жорданова клетка, порядок которой равен высоте столбца. Количество столбцов жордановой лестницы, т.е. полное количество жордановых клеток в блоке, соответствующем собственному значению λ, равно геометрической кратности s этого собственного значения.

Будем нумеровать векторы построенной части базиса по столбцам жордановой лестницы: внутри каждого столбца снизу вверх, а сами столбцы в произвольном порядке.

Например, пусть e1, . . . , eq — векторы первого столбца жордановой лестницы. Тогда

Этой группе векторов (собственный вектор e1 и присоединенные к нему векторы e1, . . . , eq) жорданова базиса соответствуют первые q столбцов матрицы A′, которые имеют вид

где Jq(λ) — жорданова клетка порядка q с числом λ на главной диагонали.

В следующих q столбцах матрицы A′, определенных векторами второго столбца жордановой лестницы, расположена жорданова клетка Jq(λ) так, что числа λ стоят на главной диагонали матрицы A′, а элементы вне клетки равны нулю. Подобным образом для данного λ получаем m столбцов матрицы A′. На этих m столбцах находится жорданов блок A(λ).

Для других собственных значений эта схема повторяется, в результате чего получим жорданову матрицу A′ и соответствующий жорданов базис.

4.1 Пример решения задач

Дана матрица A линейного оператора в некотором базисе. Требуется найти жорданов базис и жорданову форму матрицы оператора в этом жордановом базисе. Рассмотрим пример решения такой задачи методом построения жорданова базиса.

Характеристический многочлен

имеет корень λ = 2 кратности 3, т.е. m = 3. Матрица B = AλI равна

Легко проверить, что

Собственные векторы находим, решив однородную систему линейных уравнений BX = O; фундаментальная совокупность решений состоит из двух векторов, например,

Количество этих векторов (т.е. геометрическая кратность собственного значения) равно двум, s = 2, так что для построения жорданова базиса требуется еще один присоединенный вектор.

Так как B2 = O, то ядро N2 оператора B2 совпадает со всем пространством, т.е. n2 = 3, и при этом q = 2.

Дополним базис ядра N1, т.е. набор векторов (2), до базиса ядра N2, например, вектором

Тогда

Дополним вектор Bf1 до базиса пространства N1 вектором

Построим жорданову лестницу:

Жорданов базис:

соответствует жорданова клетка порядка 2,

соответствует жорданова клетка порядка 1.

При этом Be1 = 0, Be2 = e­1, Be3 = 0, т.е. e1 — собственный вектор, e2 — его присоединенный вектор, e3 — собственный вектор.

В жордановом базисе

матрица оператора A′ имеет вид

Список использованной литературы:

  1. В.В. Колыбасова, Н.Ч. Крутицкая, А.В. Овчинников «Жорданова форма матрицы оператора» (интернет ресурс).

  2. В.И. Сушков «Строим Жорданову башню: снизу вверх и сверху вниз» (интернет ресурс).

  3. А. Г. Курош «Курс Высшей Алгебры».

5

Понравилась статья? Поделить с друзьями:
  • Как найти институт по специальности
  • Как найти корни уравнения по кругу
  • Как найти айфон если отвязан айклауд
  • Асимметричный рот как исправить
  • Как найти боковую сторону трапеции онлайн