Как найти ортогональную проекцию формула

Угол между векторами. Ортогональные проекции векторов

Угол между векторами

Углом между двумя ненулевыми векторами называется угол между равными им векторами, имеющими общее начало, не превосходящий по величине числа pi.

Угол между векторами

Пусть в пространстве даны два ненулевых вектора vec{a} и vec{b} (рис.1.22). Построим равные им векторы overrightarrow{OA} и overrightarrow{OB}. На плоскости, содержащей лучи OA и OB, получим два угла angle AOB. Меньший из них, величина varphi которого не превосходит pi~(0leqslantvarphileqslantpi), принимается за угол между векторами vec{a} и vec{b}.

Поскольку направление нулевого вектора не определено, то не определен и угол между двумя векторами, если хотя бы один из них нулевой. Из определения следует, например, что угол между ненулевыми коллинеарными векторами либо равен нулю (если векторы одинаково направлены), либо равен pi (если векторы противоположно направлены).


Ортогональные проекции векторов

Движение по любой прямой может быть в двух направлениях. Ориентированной прямой называется прямая, на которой выбрано направление, т.е. одно из направлений считается положительным, а противоположное — отрицательным. Для измерения длин отрезков на прямой задается масштабный отрезок, который принимается за единицу.

Ориентированная прямая с заданным масштабным отрезком называется осью.

Любой ненулевой вектор vec{e}, принадлежащий прямой, называется направляющим вектором для данной прямой, поскольку задает на ней ориентацию. Направление вектора vec{e} принимается за положительное, а направление противоположного вектора (-vec{e}) — за отрицательное. Кроме того, длину вектора vec{e}nevec{o} — можно принять за величину масштабного отрезка на этой прямой. Поэтому можно сказать, что любой ненулевой вектор определяет ось — прямую, содержащую этот вектор, задавая на ней направление и масштабный отрезок.

Ортогональной проекцией вектора vec{a} на ось, задаваемую вектором vec{e}nevec{o}, называется его проекция на ось вдоль прямой (или вдоль плоскости), перпендикулярной данной оси. Ортогональную проекцию вектора vec{a} на ось, задаваемую вектором vec{e}nevec{o}, будем обозначать overrightarrow{operatorname{pr}}_{vec{e}}vec{a}.

Ортогональную проекцию вектора vec{a} на прямую l (см. разд. 1.2.2 и рис. 1.13) будем обозначать overrightarrow{operatorname{pr}}_{l}vec{a}.

Ортогональную проекцию вектора а на плоскость rho (см. разд. 1.2.2 и рис. 1.14) будем обозначать overrightarrow{operatorname{pr}}_{rho}vec{a}.

Разность между вектором vec{a} и его ортогональной проекцией называют ортогональной составляющей:

vec{a}_{perpvec{e}}-overrightarrow{operatorname{pr}}_{vec{e}}vec{a} — ортогональная составляющая вектора vec{a} относительно вектора vec{e};

vec{a}_{perp l}-overrightarrow{operatorname{pr}}_{l}vec{a} — ортогональная составляющая вектора vec{a} относительно прямой l;

vec{a}_{perprho}-overrightarrow{operatorname{pr}}_{rho}vec{a} — ортогональная составляющая вектора vec{a} относительно плоскости rho.

Ортогональные проекции векторов на прямую и на плоскость

На рис. 1.23 изображены ортогональные проекции вектора vec{a}=overrightarrow{AB}:

— на прямую l (или на ось l, задаваемую вектором vec{e}) вдоль прямой mcolonoverrightarrow{A_lB_l}=overrightarrow{operatorname{pr}}_{l}vec{a}=overrightarrow{operatorname{pr}}_{vec{e}}vec{a} (рис.1.23,а);

— на прямую l (или на ось l, задаваемую вектором vec{e}) вдоль плоскости alphacolonoverrightarrow{A_lB_l}=overrightarrow{operatorname{pr}}_{l}vec{a}=overrightarrow{operatorname{pr}}_{vec{e}}vec{a} (рис.1.23,б);

— на плоскость rho вдоль прямой mcolonoverrightarrow{A_{rho}B_{rho}}=overrightarrow{operatorname{pr}}_{rho}vec{a} (рис.1.23,в).

На рис. 1.23 изображены ортогональные составляющие вектора vec{a}:

— относительно оси l (вектора vec{e}): vec{a}_{perp l}=vec{a}_{perpvec{e}} (рис.1.23,а);

— относительно плоскости rhocolonvec{a}_{perprho} (рис.1.23,в).

Для ортогональных проекций справедлива следующая теорема (см. теорему 1.1 в разд. 1.5).


Теорема 1.2 (об ортогональных проекциях вектора).

1. Если на плоскости заданы две взаимно перпендикулярные прямые l_1 и l_2, то любой вектор vec{a} на плоскости можно однозначно представить в виде суммы своих ортогональных проекций на эти прямые, т.е. vec{a}=overrightarrow{operatorname{pr}}_{l_1}vec{a}+overrightarrow{operatorname{pr}}_{l_2}vec{a} (рис. 1.24,а).

2. Если в пространстве заданы три попарно перпендикулярные прямые l_1,~l_2 и l_3, пересекающиеся в одной точке, то любой вектор vec{a} в пространстве можно однозначно представить в виде суммы своих ортогональных проекций на эти прямые, т.е. vec{a}=overrightarrow{operatorname{pr}}_{l_1}vec{a}+overrightarrow{operatorname{pr}}_{l_2}vec{a}+overrightarrow{operatorname{pr}}_{l_3}vec{a} (рис. 1.24,6).

3. Квадрат длины вектора на плоскости или в пространстве равен сумме квадратов длин своих ортогональных проекций, т.е.

vline,vec{a},,vline,^2=,,vlineoverrightarrow{operatorname{pr}}_{l_1}vec{a},vline,^2+,,vlineoverrightarrow{operatorname{pr}}_{l_2}vec{a},vline,^2;~~~~~vline,vec{a},,vline,^2=,,vlineoverrightarrow{operatorname{pr}}_{l_1}vec{a},vline,^2+,,vlineoverrightarrow{operatorname{pr}}_{l_2}vec{a},vline,^2+,,vlineoverrightarrow{operatorname{pr}}_{l_3}vec{a},vline,^2.

Первые два утверждения представляют собой частные случаи теоремы 1.1. Третье утверждение следует из теоремы Пифагора (для треугольника OA_1A (рис. 1.24,а) или треугольников OA_1A_2 и OA_2A (рис. 1.24,6)).

В формулировке теоремы 1.2 прямые можно заменить осями, задаваемыми попарно ортогональными векторами.

Ортогональные проекции вектора

На рис.1.24,а проекции вектора vec{a} на оси одновременно являются ортогональными составляющими: overrightarrow{operatorname{pr}}_{l_1}vec{a}=vec{a}_{perp l_2} и overrightarrow{operatorname{pr}}_{l_2}vec{a}=vec{a}_{perp l_1}. На рис. 1.24,6 вектор overrightarrow{OA_2} является проекцией вектора vec{a} на плоскость rho, содержащую прямые l_1 и l_2: overrightarrow{OA_2}=overrightarrow{operatorname{pr}}_{rho}vec{a}, а вектор overrightarrow{A_2A} является ортогональной составляющей вектора vec{a} относительно плоскости rhocolonoverrightarrow{A_2A}=vec{a}_{perprho}.


Алгебраическое значение длины проекции

Пусть varphi – угол между ненулевым вектором vec{a} и осью, задаваемой вектором vec{e}nevec{o}, т.е. угол между ненулевыми векторами vec{a} и vec{e}.

Алгебраическим значением длины ортогональной проекции вектора vec{a} на ось, задаваемую вектором vec{e}nevec{o}, называется длина его ортогональной проекции overrightarrow{operatorname{pr}}_{vec{e}}vec{a}, взятая с положительным знаком, если угол varphi не превышает frac{pi}{2}, и с отрицательным знаком, если угол varphi больше frac{pi}{2}, т.е.:

operatorname{pr}_{vec{e}}vec{a}=left{!!begin{aligned}bigl|,overrightarrow{operatorname{pr}}_{vec{e}}vec{a},bigl|,quad&0leqslantvarphileqslantdfrac{pi}{2},\[2pt]-bigl|,overrightarrow{operatorname{pr}}_{vec{e}}vec{a},bigl|,quad&dfrac{pi}{2}leqslantvarphileqslantpi.end{aligned}right.

Например, для проекций, изображенных на рис. 1.25, operatorname{pr}_{vec{e}}vec{a}>0, поскольку угол varphi между векторами vec{a} и vec{e} острый, a operatorname{pr}_{vec{e}}vec{a}<0, так как угол psi между векторами vec{b} и vec{e} тупой.

Некоторые свойства проекций векторов переносятся на алгебраические значения их длин, в частности:

1. overrightarrow{operatorname{pr}}_{vec{e}}bigl(vec{a}+vec{b}bigl)=overrightarrow{operatorname{pr}}_{vec{e}}vec{a}+overrightarrow{operatorname{pr}}_{vec{e}}vec{b} — алгебраическое значение длины ортогональной проекции суммы векторов равно сумме алгебраических значений длин ортогональных проекций слагаемых;

2. overrightarrow{operatorname{pr}}_{vec{e}}bigl(lambdacdotvec{a}bigl)=lambdacdotoverrightarrow{operatorname{pr}}_{vec{e}}vec{a} — алгебраическое значение длины ортогональной проекции произведения вектора на число равно произведению этого числа на алгебраическое значение длины ортогональной проекции вектора

Ортогональная проекция вектора на ось


Замечания 1.4.

1. Из определения алгебраического значения длины ортогональной проекции следует (см. также рис.1.25), что operatorname{pr}_{vec{e}}vec{a}=|vec{a}|cosvarphi, т.е. алгебраическое значение длины ортогональной проекции ненулевого вектора на ось равна произведению длины этого вектора на косинус угла между вектором и осью.

Ортогональную проекцию вектора vec{a} на ось, задаваемую вектором vec{e}nevec{o}, можно представить в виде

overrightarrow{operatorname{pr}}_{vec{e}}vec{a}=operatorname{pr}_{vec{e}}vec{a}cdotfrac{1}{|vec{e}|}cdotvec{e}=frac{|vec{a}|cosvarphi}{|vec{e}|}cdotvec{e}.

Если vec{e} — единичный вектор, то overrightarrow{operatorname{pr}}_{vec{e}}vec{a}=operatorname{pr}_{vec{e}}vec{a}cdotvec{e}=|vec{a}|cosvarphicdotvec{e}.

2. Равенство operatorname{pr}_{vec{e}}vec{a}= |vec{a}|cosvarphi можно использовать как определение косинуса угла между ненулевыми векторами vec{a} и vec{b} (или, что то же самое, косинуса угла между осями, заданными ненулевыми векторами vec{a} и vec{b} (рис. 1.26)).

cosvarphi=frac{operatorname{pr}_{vec{b}}vec{a}}{|vec{a}|}=frac{operatorname{pr}_{vec{a}}vec{b}}{|vec{b}|}.

Косинус угла между ненулевыми векторами

3. Углом между ненулевым вектором vec{a} и прямой l называется угол varphi между вектором vec{a} и его ортогональной проекцией overrightarrow{operatorname{pr}}_{l}vec{a} на прямую l. Величина угла varphi~!left(0leqslantvarphileqslantfrac{pi}{2}right) может быть найдена по формуле

cosvarphi=frac{bigl|overrightarrow{operatorname{pr}}_{l}vec{a}bigl|}{|vec{a}|}

4. Углом между ненулевым вектором vec{a} и плоскостью alpha называется угол psi между вектором vec{a} и его ортогональной проекцией overrightarrow{operatorname{pr}}_{alpha}vec{a} на плоскость alpha. Величина угла psi~!left(0leqslantpsileqslantfrac{pi}{2}right) может быть найдена по формуле

cospsi=frac{bigl|overrightarrow{operatorname{pr}}_{alpha}vec{a}bigl|}{|vec{a}|}


Пример 1.7. Основания AB и CD равнобокой трапеции ABCD равны A и B соответственно; точка m — середина стороны BC (рис. 1.27). Найти алгебраические значения длин ортогональных проекций векторов overrightarrow{AM} и MD на ось, задаваемую вектором overrightarrow{AB}.

Решение. Пусть DL — высота трапеции, N — точка пересечения прямых AB и DM. По свойству равнобокой трапеции AL=frac{a-b}{2}; из равенства треугольников CDM и BNMcolon BN=CD=b.

Равнобокая трапеция

Обозначим через x=operatorname{pr}_{overrightarrow{AB}}overrightarrow{AM},~y=operatorname{pr}_{overrightarrow{AB}}overrightarrow{MD} искомые алгебраические значения длин ортогональных проекций.Тогда из равенств

overrightarrow{AM}+overrightarrow{MD}=overrightarrow{AD}, overrightarrow{AM}-overrightarrow{MD}= overrightarrow{AM}+ overrightarrow{MN}= overrightarrow{AN}

и свойства 1 алгебраических значений длин проекций следует:

begin{aligned} operatorname{pr}_{overrightarrow{AB}}Bigl(overrightarrow{AM}+overrightarrow{MD}Bigl)&= operatorname{pr}_{overrightarrow{AB}}overrightarrow{AM}+operatorname{pr}_{overrightarrow{AB}}overrightarrow{MD}= operatorname{pr}_{overrightarrow{AB}}overrightarrow{AD}~Leftrightarrow~x+y=frac{a-b}{2};\[3pt] operatorname{pr}_{overrightarrow{AB}}Bigl(overrightarrow{AM}-overrightarrow{MD}Bigl)&= operatorname{pr}_{overrightarrow{AB}}overrightarrow{AM}-operatorname{pr}_{overrightarrow{AB}}overrightarrow{MD}= operatorname{pr}_{overrightarrow{AB}}overrightarrow{AN}~Leftrightarrow~x-y=a+b. end{aligned}

Решая систему begin{cases}x+y=dfrac{a-b}{2},\[4pt]x-y=a+b,end{cases} находим begin{cases}x=dfrac{3a+b}{4},\[7pt]y=-dfrac{a+3b}{4},end{cases}, т.е. operatorname{pr}_{{}_{overrightarrow{AB}}}overrightarrow{AM}=dfrac{3a+b}{4},~operatorname{pr}_{{}_{overrightarrow{AB}}}overrightarrow{MD}=-dfrac{a+3b}{4}.

Математический форум (помощь с решением задач, обсуждение вопросов по математике).

Кнопка "Поделиться"

Если заметили ошибку, опечатку или есть предложения, напишите в комментариях.

ТЕОРЕМА
16.1. 
Пусть
в пространстве выбран ортонормированный
базис
 в
котором
 Тогда

Доказательство. По
определению координат вектора в базисе
имеем
 и ,
поэтому

Используя
доказанные свойства скалярного
произведения, получаем


Поскольку
базис  ортонормированный,
то  и ,
значит, окончательно получим


Теорема
доказана.
Замечание
16.1.
 Если
рассматривается множество векторов,
параллельных некоторой плоскости (т.е.
двумерное векторное подпространство
пространства ),
то формула  принимает
вид

где  в
ортонормированном базисе двумерного
подпространства .

17 Задачи, решаемые с помощью скалярного произведения

Задача
17.1
. Пусть
даны координаты вектора 
 в
ортонормированном базисе. Найти длину
вектора 
.
Решение. Согласно
свойству 4. скалярного произведения
длина вектора находится по формуле ,
т.е. .
Но скалярное произведение векторов в
ортонормированном базисе
вычисляется
по формуле .
Поэтому получаем следующую формулу для
нахождения длины вектора, заданного
своими координатами в ортонормированном
базисе

Задача
17.2
Пусть
даны координаты векторов
  и  в
ортонормированном
 базисе.
Найти угол между векторами
  и .
Решение. Из
определения скалярного произведения
получаем следующую формулу для нахождения
косинуса угла между векторами:

С
учетом формул  и  приходим
к следующей формуле для нахождения угла
между векторами, заданных своими
координатами в ортонормированном базисе

Ортогональная проекция вектора на ось.

Задача
17.3
. Пусть
даны два вектора
  и Найти
ортогональную проекцию вектора
  на
ось вектора
 .
Решение. По
формуле  имеем

Следовательно,
получаем формулу для нахождения
ортогональной проекции вектора  на
ось вектора 

Ортогональная проекция вектора на плоскость.

Определение
17.1.
 Пусть
дан вектор  и
некоторая плоскость .
Обозначим через  ортогональные
проекции точек  на
плоскость .
Вектор  называется
ортогональной проекцией вектора  на
плоскость  и
обозначается .

Задача
17.3
. Найти
ортогональную проекцию данного
вектора
  на
плоскость
 ,
перпендикулярную данному
вектору
 .
Решение. Пусть
данный вектор .
По определению ортогональной проекции
вектора на плоскость имеем  (см
рисунок).

По правилу
многоугольника для сложения векторов,
получаем равенство

Заметим,
что  и ,
поэтому .
По признаку коллинеарности векторов
получаем равенство .
Кроме того, ,
поэтому

Умножим
обе части этого равенства скалярно на
вектор .
Имеем числовое равенство 

Учитывая,
что  

Из
последнего равенства находим,
что 

Поэтому
для нахождения ортогональной проекции
вектора на плоскость, перпендикулярную
заданному вектору имеем 

18 Геометрический смысл координат вектора в ортонормированном базисе

Пусть
в пространстве выбран ортонормированный
базис ,
в котором .
Тогда .
Умножим обе части этого
равенства
скалярно сначала на вектор ,
потом на  и .
Получаем

Поскольку
базис ортонормированный, то ,
а поэтому имеем равенства

С
учетом формулы  имеем

Из
равенств  получаем
геометрический смысл координат вектора
в ортонормированном базисе:

координаты
вектора в ортонормированном базисе
равны ортогональным проекциям данного
вектора на
 оси
соответствующих базисных векторов.

Обозначим
через .
Тогда, используя формулу ,
равенства  примут
вид

Числа  называются
направляющими косинусами вектора  в
ОНБ .
Подставим  в  получаем

или

Таким
образом, сумма квадратов направляющих
косинусов любого ненулевого вектора
равна единице.

Заметим,
что если  —
единичный, то его координаты в ОНБ равны
направляющим косинусам этого вектора
или, иначе, направляющие косинусы данного
вектора  равны
координатам единичного вектора  того
же направления.

Соседние файлы в предмете [НЕСОРТИРОВАННОЕ]

  • #

    30.03.201527.55 Mб32Административное право России Конин Н.М..pdf

  • #
  • #
  • #
  • #
  • #
  • #
  • #
  • #
  • #
  • #

In linear algebra and functional analysis, a projection is a linear transformation {displaystyle P} from a vector space to itself such that {displaystyle P^{2}=P}. That is, whenever {displaystyle P} is applied twice to any value, it gives the same result as if it were applied once (idempotent). It leaves its image unchanged. Though abstract, this definition of «projection» formalizes and generalizes the idea of graphical projection. One can also consider the effect of a projection on a geometrical object by examining the effect of the projection on points in the object.

Definitions

A projection on a vector space {displaystyle V} is a linear operator {displaystyle P:Vmapsto V} such that {displaystyle P^{2}=P}.

When {displaystyle V} has an inner product and is complete (i.e. when {displaystyle V} is a Hilbert space) the concept of orthogonality can be used. A projection {displaystyle P} on a Hilbert space {displaystyle V} is called an orthogonal projection if it satisfies {displaystyle langle Px,yrangle =langle x,Pyrangle } for all {displaystyle x,yin V}.
A projection on a Hilbert space that is not orthogonal is called an oblique projection.

Projection matrix

The eigenvalues of a projection matrix must be 0 or 1.

Examples

Orthogonal projection

Orthogonal projection

The transformation P is the orthogonal projection onto the line m.

For example, the function which maps the point {displaystyle (x,y,z)} in three-dimensional space {displaystyle mathbb {R} ^{3}} to the point {displaystyle (x,y,0)} is an orthogonal projection onto the xy plane. This function is represented by the matrix

{displaystyle P={begin{bmatrix}1&0&0\0&1&0\0&0&0end{bmatrix}}.}

The action of this matrix on an arbitrary vector is

{displaystyle P{begin{pmatrix}x\y\zend{pmatrix}}={begin{pmatrix}x\y\0end{pmatrix}}.}

To see that {displaystyle P} is indeed a projection, i.e., {displaystyle P=P^{2}}, we compute

{displaystyle P^{2}{begin{pmatrix}x\y\zend{pmatrix}}=P{begin{pmatrix}x\y\0end{pmatrix}}={begin{pmatrix}x\y\0end{pmatrix}}=P{begin{pmatrix}x\y\zend{pmatrix}}}.

Observing that {displaystyle P^{mathrm {T} }=P} shows that the projection is an orthogonal projection.

Oblique projection

Oblique projection

The transformation T is the oblique projection along k onto m. The range of T is m and the null space is k.

A simple example of a non-orthogonal (oblique) projection (for definition see below) is

{displaystyle P={begin{bmatrix}0&0\alpha &1end{bmatrix}}.}

Via matrix multiplication, one sees that

{displaystyle P^{2}={begin{bmatrix}0&0\alpha &1end{bmatrix}}{begin{bmatrix}0&0\alpha &1end{bmatrix}}={begin{bmatrix}0&0\alpha &1end{bmatrix}}=P.}

proving that {displaystyle P} is indeed a projection.

The projection {displaystyle P} is orthogonal if and only if {displaystyle alpha =0} because only then {displaystyle P^{mathrm {T} }=P}.

Properties and classification

Idempotence

By definition, a projection {displaystyle P} is idempotent (i.e. {displaystyle P^{2}=P}).

Complementarity of range and kernel

Let {displaystyle W} be a finite dimensional vector space and {displaystyle P} be a projection on {displaystyle W}. Suppose the subspaces {displaystyle U} and {displaystyle V} are the range and kernel of {displaystyle P} respectively.
Then {displaystyle P} has the following properties:

  1. {displaystyle P} is the identity operator {displaystyle I} on {displaystyle U}
    {displaystyle forall xin U:Px=x}.
  2. We have a direct sum {displaystyle W=Uoplus V}. Every vector {displaystyle xin W} may be decomposed uniquely as {displaystyle x=u+v} with {displaystyle u=Px} and {displaystyle v=x-Px=(I-P)x}, and where {displaystyle uin U,vin V}.

The range and kernel of a projection are complementary, as are {displaystyle P} and {displaystyle Q=I-P}. The operator {displaystyle Q} is also a projection as the range and kernel of {displaystyle P} become the kernel and range of {displaystyle Q} and vice versa. We say {displaystyle P} is a projection along {displaystyle V} onto {displaystyle U} (kernel/range) and {displaystyle Q} is a projection along {displaystyle U} onto {displaystyle V}.

Spectrum

In infinite dimensional vector spaces, the spectrum of a projection is contained in {displaystyle {0,1}} as

{displaystyle (lambda I-P)^{-1}={frac {1}{lambda }}I+{frac {1}{lambda (lambda -1)}}P.}

Only 0 or 1 can be an eigenvalue of a projection. This implies that an orthogonal projection {displaystyle P} is always a positive semi-definite matrix. In general, the corresponding eigenspaces are (respectively) the kernel and range of the projection. Decomposition of a vector space into direct sums is not unique. Therefore, given a subspace {displaystyle V}, there may be many projections whose range (or kernel) is {displaystyle V}.

If a projection is nontrivial it has minimal polynomial {displaystyle x^{2}-x=x(x-1)}, which factors into distinct roots, and thus {displaystyle P} is diagonalizable.

Product of projections

The product of projections is not in general a projection, even if they are orthogonal. If two projections commute then their product is a projection, but the converse is false: the product of two non-commuting projections may be a projection .

If two orthogonal projections commute then their product is an orthogonal projection. If the product of two orthogonal projections is an orthogonal projection, then the two orthogonal projections commute (more generally: two self-adjoint endomorphisms commute if and only if their product is self-adjoint).

Orthogonal projections

When the vector space {displaystyle W} has an inner product and is complete (is a Hilbert space) the concept of orthogonality can be used. An orthogonal projection is a projection for which the range {displaystyle U} and the null space {displaystyle V} are orthogonal subspaces. Thus, for every {displaystyle x} and {displaystyle y} in {displaystyle W}, {displaystyle langle Px,(y-Py)rangle =langle (x-Px),Pyrangle =0}. Equivalently:

{displaystyle langle x,Pyrangle =langle Px,Pyrangle =langle Px,yrangle }.

A projection is orthogonal if and only if it is self-adjoint. Using the self-adjoint and idempotent properties of {displaystyle P}, for any {displaystyle x} and {displaystyle y} in {displaystyle W} we have {displaystyle Pxin U}, {displaystyle y-Pyin V}, and

{displaystyle langle Px,y-Pyrangle =langle P^{2}x,y-Pyrangle =langle Px,P(I-P)yrangle =langle Px,(P-P^{2})yrangle =0,}

where {displaystyle langle cdot ,cdot rangle } is the inner product associated with {displaystyle W}. Therefore, {displaystyle Px} and {displaystyle y-Py} are orthogonal projections.
The other direction, namely that if {displaystyle P} is orthogonal then it is self-adjoint, follows from

{displaystyle langle x,Pyrangle =langle Px,yrangle =langle x,P^{*}yrangle }

for every {displaystyle x} and {displaystyle y} in {displaystyle W}; thus {displaystyle P=P^{*}}.

Proof of existence

Let {displaystyle H} be a complete metric space with an inner product, and let {displaystyle U} be a closed linear subspace of {displaystyle H} (and hence complete as well).

For every {displaystyle x} the following set of non-negative norms {displaystyle {|x-u||uin U}} has an infimum, and due to the completeness of {displaystyle U} it is a minimum. We define {displaystyle Px} as the point in {displaystyle U} where this minimum is obtained.

Obviously {displaystyle Px} is in {displaystyle U}. It remains to show that {displaystyle Px} satisfies {displaystyle langle x-Px,Pxrangle =0} and that it is linear.

Let us define {displaystyle a=x-Px}. For every non-zero {displaystyle v} in {displaystyle U}, the following holds:

{displaystyle |a-{frac {langle a,vrangle }{|v|^{2}}}v|^{2}=|a|^{2}-{frac {{langle a,vrangle }^{2}}{|v|^{2}}}}

By defining {displaystyle w=Px+{frac {langle a,vrangle }{|v|^{2}}}v} we see that {displaystyle |x-w|<|x-Px|} unless {displaystyle langle a,vrangle } vanishes. Since {displaystyle Px} was chosen as the minimum of the abovementioned set, it follows that {displaystyle langle a,vrangle } indeed vanishes. In particular, (for {displaystyle y=Px}): {displaystyle langle x-Px,Pxrangle =0}.

Linearity follows from the vanishing of {displaystyle langle x-Px,vrangle } for every {displaystyle vin U}:

{displaystyle langle left(x+yright)-Pleft(x+yright),vrangle =0}
{displaystyle langle left(x-Pxright)+left(y-Pyright),vrangle =0}

By taking the difference between the equations we have

{displaystyle langle Px+Py-Pleft(x+yright),vrangle =0}

But since we may choose {displaystyle v=Px+Py-P(x+y)} (as it is itself in {displaystyle U}) it follows that {displaystyle Px+Py=P(x+y)}. Similarly we have {displaystyle lambda Px=P(lambda x)} for every scalar {displaystyle lambda }.

Properties and special cases

An orthogonal projection is a bounded operator. This is because for every {displaystyle v} in the vector space we have, by Cauchy–Schwarz inequality:

{displaystyle |Pv|^{2}=langle Pv,Pvrangle =langle Pv,vrangle leq |Pv|cdot |v|}

Thus {displaystyle |Pv|leq |v|}.

For finite dimensional complex or real vector spaces, the standard inner product can be substituted for {displaystyle langle cdot ,cdot rangle }.

Formulas

A simple case occurs when the orthogonal projection is onto a line. If {displaystyle u} is a unit vector on the line, then the projection is given by the outer product

{displaystyle P_{u}=uu^{mathrm {T} }.}

(If {displaystyle u} is complex-valued, the transpose in the above equation is replaced by a Hermitian transpose). This operator leaves u invariant, and it annihilates all vectors orthogonal to {displaystyle u}, proving that it is indeed the orthogonal projection onto the line containing u. A simple way to see this is to consider an arbitrary vector {displaystyle x} as the sum of a component on the line (i.e. the projected vector we seek) and another perpendicular to it, {displaystyle x=x_{parallel }+x_{perp }}. Applying projection, we get

{displaystyle P_{u}x=uu^{mathrm {T} }x_{parallel }+uu^{mathrm {T} }x_{perp }=uleft(mathrm {sign} (u^{mathrm {T} }x_{parallel })|x_{parallel }|right)+ucdot 0=x_{parallel }}

by the properties of the dot product of parallel and perpendicular vectors.

This formula can be generalized to orthogonal projections on a subspace of arbitrary dimension. Let {displaystyle u_{1},ldots ,u_{k}} be an orthonormal basis of the subspace {displaystyle U}, and let {displaystyle A} denote the {displaystyle ntimes k} matrix whose columns are {displaystyle u_{1},ldots ,u_{k}}, i.e {displaystyle A={begin{bmatrix}u_{1}&ldots &u_{k}end{bmatrix}}}. Then the projection is given by:

{displaystyle P_{A}=AA^{mathrm {T} }}

which can be rewritten as

{displaystyle P_{A}=sum _{i}langle u_{i},cdot rangle u_{i}.}

The matrix {displaystyle A^{mathrm {T} }} is the partial isometry that vanishes on the orthogonal complement of {displaystyle U} and {displaystyle A} is the isometry that embeds {displaystyle U} into the underlying vector space. The range of {displaystyle P_{A}} is therefore the final space of {displaystyle A}. It is also clear that {displaystyle AA^{mathrm {T} }} is the identity operator on {displaystyle U}.

The orthonormality condition can also be dropped. If {displaystyle u_{1},ldots ,u_{k}} is a (not necessarily orthonormal) basis, and {displaystyle A} is the matrix with these vectors as columns, then the projection is:

{displaystyle P_{A}=A(A^{mathrm {T} }A)^{-1}A^{mathrm {T} }.}

The matrix {displaystyle A} still embeds {displaystyle U} into the underlying vector space but is no longer an isometry in general. The matrix {displaystyle (A^{mathrm {T} }A)^{-1}} is a «normalizing factor» that recovers the norm. For example, the rank-1 operator {displaystyle uu^{mathrm {T} }} is not a projection if {displaystyle |u|neq 1.} After dividing by {displaystyle u^{mathrm {T} }u=|u|^{2},} we obtain the projection {displaystyle u(u^{mathrm {T} }u)^{-1}u^{mathrm {T} }} onto the subspace spanned by {displaystyle u}.

In the general case, we can have an arbitrary positive definite matrix {displaystyle D} defining an inner product {displaystyle langle x,yrangle _{D}=y^{dagger }Dx}, and the projection {displaystyle P_{A}} is given by {displaystyle P_{A}x=mathrm {argmin} _{yin mathrm {range} (A)}|x-y|_{D}^{2}}. Then

{displaystyle P_{A}=A(A^{mathrm {T} }DA)^{-1}A^{mathrm {T} }D.}

When the range space of the projection is generated by a frame (i.e. the number of generators is greater than its dimension), the formula for the projection takes the form:
{displaystyle P_{A}=AA^{+}}. Here {displaystyle A^{+}} stands for the Moore–Penrose pseudoinverse. This is just one of many ways to construct the projection operator.

If {displaystyle {begin{bmatrix}A&Bend{bmatrix}}} is a non-singular matrix and {displaystyle A^{mathrm {T} }B=0} (i.e., {displaystyle B} is the null space matrix of {displaystyle A}), the following holds:

{displaystyle {begin{aligned}I&={begin{bmatrix}A&Bend{bmatrix}}{begin{bmatrix}A&Bend{bmatrix}}^{-1}{begin{bmatrix}A^{mathrm {T} }\B^{mathrm {T} }end{bmatrix}}^{-1}{begin{bmatrix}A^{mathrm {T} }\B^{mathrm {T} }end{bmatrix}}\&={begin{bmatrix}A&Bend{bmatrix}}left({begin{bmatrix}A^{mathrm {T} }\B^{mathrm {T} }end{bmatrix}}{begin{bmatrix}A&Bend{bmatrix}}right)^{-1}{begin{bmatrix}A^{mathrm {T} }\B^{mathrm {T} }end{bmatrix}}\&={begin{bmatrix}A&Bend{bmatrix}}{begin{bmatrix}A^{mathrm {T} }A&O\O&B^{mathrm {T} }Bend{bmatrix}}^{-1}{begin{bmatrix}A^{mathrm {T} }\B^{mathrm {T} }end{bmatrix}}\[4pt]&=A(A^{mathrm {T} }A)^{-1}A^{mathrm {T} }+B(B^{mathrm {T} }B)^{-1}B^{mathrm {T} }end{aligned}}}

If the orthogonal condition is enhanced to {displaystyle A^{mathrm {T} }WB=A^{mathrm {T} }W^{mathrm {T} }B=0} with {displaystyle W} non-singular, the following holds:

{displaystyle I={begin{bmatrix}A&Bend{bmatrix}}{begin{bmatrix}(A^{mathrm {T} }WA)^{-1}A^{mathrm {T} }\(B^{mathrm {T} }WB)^{-1}B^{mathrm {T} }end{bmatrix}}W.}

All these formulas also hold for complex inner product spaces, provided that the conjugate transpose is used instead of the transpose. Further details on sums of projectors can be found in Banerjee and Roy (2014). Also see Banerjee (2004) for application of sums of projectors in basic spherical trigonometry.

Oblique projections

The term oblique projections is sometimes used to refer to non-orthogonal projections. These projections are also used to represent spatial figures in two-dimensional drawings (see oblique projection), though not as frequently as orthogonal projections. Whereas calculating the fitted value of an ordinary least squares regression requires an orthogonal projection, calculating the fitted value of an instrumental variables regression requires an oblique projection.

Projections are defined by their null space and the basis vectors used to characterize their range (which is the complement of the null space). When these basis vectors are orthogonal to the null space, then the projection is an orthogonal projection. When these basis vectors are not orthogonal to the null space, the projection is an oblique projection. Let the vectors {displaystyle u_{1},ldots ,u_{k}} form a basis for the range of the projection, and assemble these vectors in the {displaystyle ntimes k} matrix {displaystyle A}. The range and the null space are complementary spaces, so the null space has dimension {displaystyle n-k}. It follows that the orthogonal complement of the null space has dimension {displaystyle k}. Let {displaystyle v_{1},ldots ,v_{k}} form a basis for the orthogonal complement of the null space of the projection, and assemble these vectors in the matrix {displaystyle B}. Then the projection is defined by

{displaystyle P=A(B^{mathrm {T} }A)^{-1}B^{mathrm {T} }.}

This expression generalizes the formula for orthogonal projections given above.

Finding projection with an inner product

Let {displaystyle V} be a vector space (in this case a plane) spanned by orthogonal vectors {displaystyle u_{1},u_{2},cdots ,u_{p}}. Let {displaystyle y} be a vector. One can define a projection of {displaystyle y} onto {displaystyle V} as

{displaystyle operatorname {proj} _{V}y={frac {ycdot u^{j}}{u^{j}cdot u^{j}}}u^{j}}

where the {displaystyle j} ‘s imply Einstein sum notation. The vector {displaystyle y} can be written as an orthogonal sum such that {displaystyle y=operatorname {proj} _{V}y+z}. {displaystyle operatorname {proj} _{V}y} is sometimes denoted as {displaystyle {hat {y}}}. There is a theorem in Linear Algebra that states that this {displaystyle z} is the shortest distance from {displaystyle y} to {displaystyle V} and is commonly used in areas such as machine learning.

Ortho projection

y is being projected onto the vector space V.

Canonical forms

Any projection {displaystyle P=P^{2}} on a vector space of dimension {displaystyle d} over a field is a diagonalizable matrix, since its minimal polynomial divides {displaystyle x^{2}-x}, which splits into distinct linear factors. Thus there exists a basis in which {displaystyle P} has the form

{displaystyle P=I_{r}oplus 0_{d-r}}

where {displaystyle r} is the rank of {displaystyle P}. Here {displaystyle I_{r}} is the identity matrix of size {displaystyle r}, and {displaystyle 0_{d-r}} is the zero matrix of size {displaystyle d-r}. If the vector space is complex and equipped with an inner product, then there is an orthonormal basis in which the matrix of P is

{displaystyle P={begin{bmatrix}1&sigma _{1}\0&0end{bmatrix}}oplus cdots oplus {begin{bmatrix}1&sigma _{k}\0&0end{bmatrix}}oplus I_{m}oplus 0_{s}} .

where {displaystyle sigma _{1}geq sigma _{2}geq ldots geq sigma _{k}>0}. The integers {displaystyle k,s,m} and the real numbers {displaystyle sigma _{i}} are uniquely determined. Note that {displaystyle k+s+m=d}. The factor {displaystyle I_{m}oplus 0_{s}} corresponds to the maximal invariant subspace on which {displaystyle P} acts as an orthogonal projection (so that P itself is orthogonal if and only if {displaystyle k=0}) and the {displaystyle sigma _{i}}-blocks correspond to the oblique components.

Projections on normed vector spaces

When the underlying vector space {displaystyle X} is a (not necessarily finite-dimensional) normed vector space, analytic questions, irrelevant in the finite-dimensional case, need to be considered. Assume now {displaystyle X} is a Banach space.

Many of the algebraic results discussed above survive the passage to this context. A given direct sum decomposition of {displaystyle X} into complementary subspaces still specifies a projection, and vice versa. If {displaystyle X} is the direct sum {displaystyle X=Uoplus V}, then the operator defined by {displaystyle P(u+v)=u} is still a projection with range {displaystyle U} and kernel {displaystyle V}. It is also clear that {displaystyle P^{2}=P}. Conversely, if {displaystyle P} is projection on {displaystyle X}, i.e. {displaystyle P^{2}=P}, then it is easily verified that {displaystyle (1-P)^{2}=(1-P)}. In other words, {displaystyle 1-P} is also a projection. The relation {displaystyle P^{2}=P} implies {displaystyle 1=P+(1-P)} and {displaystyle X} is the direct sum {displaystyle mathrm {ran} (P)oplus mathrm {ran} (1-P)}.

However, in contrast to the finite-dimensional case, projections need not be continuous in general. If a subspace {displaystyle U} of {displaystyle X} is not closed in the norm topology, then projection onto {displaystyle U} is not continuous. In other words, the range of a continuous projection {displaystyle P} must be a closed subspace. Furthermore, the kernel of a continuous projection (in fact, a continuous linear operator in general) is closed. Thus a continuous projection {displaystyle P} gives a decomposition of {displaystyle X} into two complementary closed subspaces: {displaystyle X=mathrm {ran} (P)oplus mathrm {ker} (P)=mathrm {ker} (1-P)oplus mathrm {ker} (P)}.

The converse holds also, with an additional assumption. Suppose {displaystyle U} is a closed subspace of {displaystyle X}. If there exists a closed subspace {displaystyle V} such that X = UV, then the projection {displaystyle P} with range {displaystyle U} and kernel {displaystyle V} is continuous. This follows from the closed graph theorem. Suppose xnx and Pxny. One needs to show that {displaystyle Px=y}. Since {displaystyle U} is closed and {Pxn} ⊂ U, y lies in {displaystyle U}, i.e. Py = y. Also, xnPxn = (IP)xnxy. Because {displaystyle V} is closed and {(IP)xn} ⊂ V, we have {displaystyle x-yin V}, i.e. {displaystyle P(x-y)=Px-Py=Px-y=0}, which proves the claim.

The above argument makes use of the assumption that both {displaystyle U} and {displaystyle V} are closed. In general, given a closed subspace {displaystyle U}, there need not exist a complementary closed subspace {displaystyle V}, although for Hilbert spaces this can always be done by taking the orthogonal complement. For Banach spaces, a one-dimensional subspace always has a closed complementary subspace. This is an immediate consequence of Hahn–Banach theorem. Let {displaystyle U} be the linear span of {displaystyle u}. By Hahn–Banach, there exists a bounded linear functional {displaystyle varphi } such that φ(u) = 1. The operator {displaystyle P(x)=varphi (x)u} satisfies {displaystyle P^{2}=P}, i.e. it is a projection. Boundedness of {displaystyle varphi } implies continuity of {displaystyle P} and therefore {displaystyle operatorname {ker} (P)=operatorname {ran} (I-P)} is a closed complementary subspace of {displaystyle U}.

Applications and further considerations

Projections (orthogonal and otherwise) play a major role in algorithms for certain linear algebra problems:

  • QR decomposition (see Householder transformation and Gram–Schmidt decomposition);
  • Singular value decomposition
  • Reduction to Hessenberg form (the first step in many eigenvalue algorithms)
  • Linear regression
  • Projective elements of matrix algebras are used in the construction of certain K-groups in Operator K-theory

As stated above, projections are a special case of idempotents. Analytically, orthogonal projections are non-commutative generalizations of characteristic functions. Idempotents are used in classifying, for instance, semisimple algebras, while measure theory begins with considering characteristic functions of measurable sets. Therefore, as one can imagine, projections are very often encountered in the context operator algebras. In particular, a von Neumann algebra is generated by its complete lattice of projections.

Generalizations

More generally, given a map between normed vector spaces {displaystyle Tcolon Vto W,} one can analogously ask for this map to be an isometry on the orthogonal complement of the kernel: that {displaystyle (ker T)^{perp }to W} be an isometry (compare Partial isometry); in particular it must be onto. The case of an orthogonal projection is when W is a subspace of V. In Riemannian geometry, this is used in the definition of a Riemannian submersion.

References

Wikipedia This page uses content that though originally imported from the Wikipedia article Projection (linear algebra) might have been very heavily modified, perhaps even to the point of disagreeing completely with the original wikipedia article.
The list of authors can be seen in the page history. The text of Wikipedia is available under the Creative Commons Licence.


2.5.8. Как найти проекцию вектора на прямую?

Об ортогональной проекции вектора на вектор мы говорили ранее, и фактически было установлено

следующее:

Чтобы найти ортогональную проекцию вектора на прямую, нужно найти его проекцию на любой направляющий вектор этой прямой.

…возможно, не всем понятен термин «ортогональная» – это такая проекция, при которой на вектор «падают лучи света» строго

перпендикулярно по отношению к прямой (см. рис. ниже). Существует куча иных («косых») проекций, когда проецирование осуществляется под

другими углами, но для данной книги этот материал не столь актуален.

Решим символическую задачку:

Задача 85

Найти проекцию вектора  на прямую

Решение: найдём какой-нибудь направляющий вектор прямой, проще и быстрее

взять стандартный вариант: .
Проекция вектора на прямую – есть его проекция на любой направляющий вектор этой прямой, по

соответствующей формуле:

Ответ:

Напоминаю, что проекция – это длина «тени» вектора  (красный цвет):

Желающие могут взять любые точки  прямой, найти направляющий вектор  и убедиться в том, что проекция  будет такой же, как вариант, со знАком «минус».

Ну вот и подошло к концу наше путешествие по основным задачам с «плоской» прямой, и никакого Кащея Бессмертного тут нет…. – Здесь есть я, с

новыми знаниями и задачами J  Потому что Бабу-Ягу никто не отменял =)

2.6. Линейные неравенства

2.5.7. Как найти угол между прямыми?

| Оглавление |



Автор: Aлeксaндр Eмeлин

Преобразование P — это ортогональная проекция на линию m.

В линейной алгебре и функциональный анализ, проекция — это линейное преобразование P { displaystyle P}Pиз векторного пространства самому себе так, что P 2 = P { displaystyle P ^ {2} = P}P^{2}=P. То есть всякий раз, когда P { displaystyle P}Pприменяется дважды к любому значению, он дает такой же результат, как если бы он был применен один раз (идемпотент ). Он оставляет свой образ неизменным. Хотя абстрактная, это определение «проекции» формализует и обобщает идею графической проекции. Можно также рассмотреть влияние проекции на геометрический объект , исследуя влияние проекции на точки в объекте.

Содержание

  • 1 Определения
    • 1.1 Матрица проекции
  • 2 Примеры
    • 2.1 Ортогональная проекция
    • 2.2 Наклонная проекция
  • 3 Свойства и классификация
    • 3.1 Идемпотентность
    • 3.2 Комплементарность диапазон и ядро ​​
    • 3.3 Спектр
    • 3.4 Произведение проекций
    • 3.5 Ортогональные проекции
      • 3.5.1 Свойства и особые случаи
        • 3.5.1.1 Формулы
    • 3.6 Косые проекции
    • 3.7 Поиск проекции с внутренним продуктом
  • 4 Канонические формы
  • 5 Проекции на нормированных векторных пространствах
  • 6 Приложения и дополнительные соображения
  • 7 Обобщения
  • 8 См. также
  • 9 Примечания
  • 10 Ссылки
  • 11 Внешние ссылки

Определения

A проекция на векторное пространство V { displaystyle V}V— линейный оператор P: V ↦ V { displaystyle P : V mapsto V}{ displaystyle P: V  mapsto V} такой, что P 2 = P { displaystyle P ^ {2} = P}{ displaystyle P ^ {2} = P} .

Когда V { displaystyle V}Vимеет внутренний продукт и является полным (т.е. когда V { displaystyle V}V— это гильбертово пространство ) может использоваться концепция ортогональности. Проекция P { displaystyle P}Pв гильбертовом пространстве V { displaystyle V}Vназывается ортогональной проекцией, если она удовлетворяет ⟨п Икс, Y⟩ знак равно ⟨Икс, П Y⟩ { Displaystyle langle Px, y rangle = langle x, Py rangle}{displaystyle langle Px,yrangle =langle x,Pyrangle }для всех x, y ∈ V { displaystyle x, y in V}x, y  in V . Неортогональная проекция на гильбертово пространство называется наклонной проекцией .

Матрица проекции

Собственные значения матрицы проекции должно быть 0 или 1.

Примеры

Ортогональная проекция

Например, функция, отображающая точку (x, y, z) { displaystyle (x, y, z)}(x,y,z)в трехмерном пространстве R 3 { displaystyle mathbb {R} ^ {3}}mathbb {R} ^{3}до точки (x, y, 0) { displaystyle (x, y, 0)}{displaystyle (x,y,0)}— ортогональная проекция на плоскость x – y. Эта функция представлена ​​матрицей

P = [1 0 0 0 1 0 0 0 0]. { displaystyle P = { begin {bmatrix} 1 0 0 \ 0 1 0 \ 0 0 0 end {bmatrix}}.}P={begin{bmatrix}100\010\000end{bmatrix}}.

Действие этой матрицы на произвольный вектор:

P (xyz) = (xy 0). { displaystyle P { begin {pmatrix} x \ y \ z end {pmatrix}} = { begin {pmatrix} x \ y \ 0 end {pmatrix}}.}P{begin{pmatrix}x\y\zend{pmatrix}}={begin{pmatrix}x\y\0end{pmatrix}}.

Чтобы увидеть что P { displaystyle P}Pдействительно является проекцией, т.е. P = P 2 { displaystyle P = P ^ {2}}{displaystyle P=P^{2}}, мы вычисляем

P 2 (xyz) = P (xy 0) = (xy 0) = P (xyz) { displaystyle P ^ {2} { begin {pmatrix} x \ y \ z end {pmatrix} } = P { begin {pmatrix} x \ y \ 0 end {pmatrix}} = { begin {pmatrix} x \ y \ 0 end {pmatrix}} = P { begin {pmatrix} x \ y \ z end {pmatrix}}}{displaystyle P^{2}{begin{pmatrix}x\y\zend{pmatrix}}=P{begin{pmatrix}x\y\0end{pmatrix}}={begin{pmatrix}x\y\0end{pmatrix}}=P{begin{pmatrix}x\y\zend{pmatrix}}}.

Заметим, что PT = P { displaystyle P ^ { mathrm {T}} = P}{displaystyle P^{mathrm {T} }=P}показывает, что проекция является ортогональной проекцией.

Наклонная проекция

Простым примером неортогональной (наклонной) проекции (определение см. Ниже) является

P = [0 0 α 1]. { displaystyle P = { begin {bmatrix} 0 0 \ alpha 1 end {bmatrix}}.}P={begin{bmatrix}00\alpha 1end{bmatrix}}.

Через умножение матриц можно увидеть, что

P 2 = [0 0 α 1] [0 0 α 1] = [0 0 α 1] = P. { displaystyle P ^ {2} = { begin {bmatrix} 0 0 \ alpha 1 end {bmatrix}} { begin {bmatrix} 0 0 \ alpha 1 end {bmatrix}} = { begin { bmatrix} 0 0 \ alpha 1 end {bmatrix}} = P.}P^{2}={begin{bmatrix}00\alpha 1end{bmatrix}}{begin{bmatrix}00\alpha 1end{bmatrix}}={begin{bmatrix}00\alpha 1end{bmatrix}}=P.

доказывает, что P { displaystyle P}Pдействительно является проекцией.

Проекция P { displaystyle P}Pортогональна тогда и только тогда, когда α = 0 { displaystyle alpha = 0} alpha = 0 , потому что только тогда PT = P { displaystyle P ^ { mathrm {T}} = P}{displaystyle P^{mathrm {T} }=P}.

Свойства и классификация

Преобразование T — это проекция вдоль k на m. Диапазон T равен m, а пустое пространство — k.

Идемпотентность

По определению проекция P { displaystyle P}Pявляется идемпотентной (например, P 2 = P { displaystyle P ^ {2} = P}{ displaystyle P ^ {2} = P} ).

Комплементарность диапазона и ядра

Пусть W { displaystyle W}Wбудет конечномерным векторным пространством и P { displaystyle P}Pбыть проекцией на W { displaystyle W}W. Предположим, что подпространства U { displaystyle U}Uи V { displaystyle V}V— это диапазон и ядро ​​ из P { displaystyle P}Pсоответственно. Тогда P { displaystyle P}Pимеет следующие свойства:

  1. P { displaystyle P}P— оператор идентичности I { displaystyle I}Iна U { displaystyle U}U
    ∀ x ∈ U: P x = x { displaystyle forall x in U: Px = x}forall xin U:Px=x.
  2. У нас есть прямая сумма W = U ⊕ V { displaystyle W = U oplus V}{displaystyle W=Uoplus V}. Каждый вектор x ∈ W { displaystyle x in W}xin Wможет быть разложен однозначно как x = u + v { displaystyle x = u + v}{displaystyle x=u+v}с u = P x { displaystyle u = Px}{displaystyle u=Px}и v = x — P x = (I — P) x { displaystyle v = x-Px = (IP) x}{displaystyle v=x-Px=(I-P)x}, и где u ∈ U, v ∈ V { displaystyle u in U, v in V}{ displaystyle u  in U, v  in V} .

Диапазон и ядро ​​проекции дополняют друг друга, как и P { displaystyle P}Pи Q = I — P { displaystyle Q = IP}{ displaystyle Q = IP} . Оператор Q { displaystyle Q}Qтакже является проекцией, поскольку диапазон и ядро ​​P { displaystyle P}Pстановятся ядром, а диапазон Q { displaystyle Q}Qи наоборот. Мы говорим, что P { displaystyle P}P— это проекция вдоль V { displaystyle V}Vна U { displaystyle U}U(ядро / диапазон) и Q { displaystyle Q}Q— это проекция вдоль U { displaystyle U}Uна V { displaystyle V}V.

Спектр

В бесконечномерных векторных пространствах спектр проекции содержится в {0, 1} { displaystyle {0,1 } }{0,1}как

(λ I — P) — 1 = 1 λ I + 1 λ (λ — 1) P. { displaystyle ( lambda IP) ^ {- 1} = { frac {1} { lambda}} I + { frac {1} { lambda ( lambda -1)}} P.}{displaystyle (lambda I-P)^{-1}={frac {1}{lambda }}I+{frac {1}{lambda (lambda -1)}}P.}

Только 0 или 1 могут быть собственным значением проекции. Это означает, что ортогональная проекция P { displaystyle P}Pвсегда является положительной полуопределенной матрицей. В общем, соответствующие собственные подпространства являются (соответственно) ядром и диапазоном проекции. Разложение векторного пространства на прямые суммы не единственно. Следовательно, учитывая подпространство V { displaystyle V}V, может быть много проекций, диапазон (или ядро) которых составляет V { displaystyle V}V.

Если проекция нетривиальна он имеет минимальный многочлен x 2 — x = x (x — 1) { displaystyle x ^ {2} -x = x (x-1)}{displaystyle x^{2}-x=x(x-1)}, который делится на отдельные корни, и, таким образом, P { displaystyle P}Pдиагонализуемый.

Произведение проекций

Произведение проекций, как правило, не является проекцией, даже если они ортогональны. Если две проекции коммутируют, то их произведение является проекцией, но обратное неверно: произведение двух некоммутирующих проекций может быть проекцией.

Если две ортогональные проекции коммутируют, то их произведение является ортогональной проекцией. Если продукт двух ортогональных проекций является ортогональным проектором, то эти два ортогональных проектора коммутируют (в более общем смысле: два самосопряженных эндоморфизма коммутируют тогда и только тогда, когда их произведение самосопряжено).

Ортогональные проекции

Когда векторное пространство W { displaystyle W}Wимеет внутренний продукт и является полным (это гильбертово пространство ) может использоваться концепция ортогональности. Ортогональная проекция — это проекция, для которой диапазон U { displaystyle U}Uи пустое пространство V { displaystyle V}Vявляются ортогональными подпространствами. Таким образом, для каждого x { displaystyle x}xи y { displaystyle y}yв W { displaystyle W}W, ⟨P Икс, (Y — п Y)⟩ знак равно ⟨(Икс — П Икс), п Y⟩ знак равно 0 { Displaystyle langle Px, (Y-Py) rangle = langle (x-Px), Py rangle = 0}langle Px,(y-Py)rangle =langle (x-Px),Pyrangle =0. Эквивалентно:

⟨x, P y⟩ = ⟨P x, P y P = ⟨P x, y⟩ { displaystyle langle x, Py rangle = langle Px, Py rangle = langle Px, y rangle}langle x,Pyrangle =langle Px,Pyrangle =langle Px,yrangle .

Проекция ортогональна тогда и только тогда, когда она самосопряженная. Используя самосопряженные и идемпотентные свойства P { displaystyle P}Pдля любых x { displaystyle x}xи y { displaystyle y}yв W { displaystyle W}Wмы имеем P x ∈ U { displaystyle Px in U}{ displaystyle Px  in U} , y — P y ∈ V { displaystyle y-Py in V}{displaystyle y-Pyin V}и

⟨P x, y — P y⟩ = ⟨P 2 x, y — P y⟩ = ⟨P x, P (I — П) y⟩ знак равно ⟨п Икс, (п — п 2) y⟩ знак равно 0 { displaystyle langle Px, y-Py rangle = langle P ^ {2} x, y-Py rangle = langle Px, P (IP) y rangle = langle Px, (PP ^ {2}) y rangle = 0 ,}langle Px,y-Pyrangle =langle P^{2}x,y-Pyrangle =langle Px,P(I-P)yrangle =langle Px,(P-P^{2})yrangle =0,

где ⟨⋅, ⋅⟩ { displaystyle langle cdot, cdot rangle}langle cdot,cdot rangle — это внутренний продукт, связанный с W { displaystyle W}W. Следовательно, P x { displaystyle Px}{displaystyle Px}и y — P y { displaystyle y-Py}{displaystyle y-Py}являются ортогональными проекциями. Другое направление, а именно, что если P { displaystyle P}Pортогонален, то он самосопряжен, следует из

⟨x, P y⟩ = ⟨P x, y⟩ = ⟨Икс, P * Y⟩ { Displaystyle langle x, Py rangle = langle Px, y rangle = langle x, P ^ {*} y rangle}langle x,Pyrangle =langle Px,yrangle =langle x,P^{*}yrangle

для каждого x { displaystyle x}xи y { displaystyle y}yв W { displaystyle W}W; таким образом, P = P ∗ { displaystyle P = P ^ {*}}{displaystyle P=P^{*}}.

Доказательство существования

Пусть H { displaystyle H}Hбудет полным метрическим пространством с внутренний продукт, и пусть U { displaystyle U}Uбудет замкнутым линейным подпространством из H { displaystyle H}H(а значит, и полный).

Для каждого x { displaystyle x}xследующий набор неотрицательных норм {‖ x — u ‖ | u ∈ U} { displaystyle { | xu || u in U }}{|x-u||uin U}имеет нижнюю границу , а из-за полноты U { displaystyle U}Uэто минимум. Мы определяем P x { displaystyle Px}{displaystyle Px}как точку в U { displaystyle U}U, где достигается этот минимум.

Очевидно, P x { displaystyle Px}{displaystyle Px}находится в U { displaystyle U}U. Осталось показать, что P x { displaystyle Px}{displaystyle Px}удовлетворяет ⟨x — P x, P x⟩ = 0 { displaystyle langle x-Px, Px rangle = 0 }{displaystyle langle x-Px,Pxrangle =0}и что это линейно.

Определим a = x — P x { displaystyle a = x-Px}a=x-Px. Для каждого ненулевого v { displaystyle v}vв U { displaystyle U}Uвыполняется следующее:

‖ a — ⟨a, v⟩ ‖ v ‖ 2 v ‖ 2 знак равно ‖ a ‖ 2 — ⟨a, v⟩ 2 ‖ v ‖ 2 { displaystyle | a — { frac { langle a, v rangle} { | v | ^ {2}}} v | ^ {2} = | a | ^ {2} — { frac {{ langle a, v rangle} ^ {2}} { | v | ^ { 2}}}}|a-{frac {langle a,vrangle }{|v|^{2}}}v|^{2}=|a|^{2}-{frac {{langle a,vrangle }^{2}}{|v|^{2}}}

Определив w = P x + ⟨a, v⟩ ‖ v ‖ 2 v { displaystyle w = Px + { frac { langle a, v rangle} { | v | ^ {2}}} v}w=Px+{frac {langle a,vrangle }{|v|^{2}}}vмы видим, что ‖ x — w ‖ < ‖ x − P x ‖ {displaystyle |x-w|<|x-Px|}|x-w|<|x-Px|, если ⟨a, v⟩ { displaystyle langle a, v rangle}langle a,vrangle исчезает. Поскольку P x { displaystyle Px}{displaystyle Px}был выбран как минимум из вышеупомянутого набора, следует, что ⟨a, v⟩ { displaystyle langle a, v rangle}langle a,vrangle действительно исчезает. В частности, (для y = P x { displaystyle y = Px}{displaystyle y=Px}): ⟨x — P x, P x⟩ = 0 { displaystyle langle x-Px, Px rangle = 0}langle x-Px,Pxrangle =0.

Линейность следует из исчезновения ⟨x — P x, v⟩ { displaystyle langle x-Px, v rangle}langle x-Px,vrangle для каждого v ∈ U { displaystyle v in U}{displaystyle vin U}:

⟨(x + y) — P (x + y), v⟩ = 0 { displaystyle langle left (x + y right) -P left (Икс + Y справа), v rangle = 0}langle left(x+yright)-Pleft(x+yright),vrangle =0
⟨(x — P x) + (y — P y), v⟩ = 0 { displaystyle langle left (x-Px right) + left (y-Py right), v rangle = 0}langle left(x-Pxright)+left(y-Pyright),vrangle =0

Взяв разность между уравнениями, мы имеем

⟨P x + P y — P (x + y), v⟩ = 0 { displaystyle langle Px + Py-P left (x + y right), v rangle = 0}langle Px+Py-Pleft(x+yright),vrangle =0

Но поскольку мы можем выбрать v = P x + P y — P (x + y) { displaystyle v = Px + Py-P (x + y)}{displaystyle v=Px+Py-P(x+y)}(как в U { displaystyle U}U) следует, что П Икс + Р Y знак равно п (Икс + Y) { Displaystyle Px + Py = P (x + y)}{ displaystyle Px + Py = P (x + y)} . Точно так же у нас есть λ п Икс = P (λ x) { displaystyle lambda Px = P ( lambda x)}{displaystyle lambda Px=P(lambda x)}для каждого scalar λ { displaystyle lambda}lambda .

Свойства и особые случаи

Ортогональная проекция — это ограниченный оператор. Это связано с тем, что для каждого v { displaystyle v}vв векторном пространстве мы имеем по неравенству Коши – Шварца :

‖ P v ‖ 2 = ⟨P v, P v ⟩ Знак равно ⟨п v, v⟩ ≤ ‖ п v ‖ ⋅ ‖ v ‖ { displaystyle | Pv | ^ {2} = langle Pv, Pv rangle = langle Pv, v rangle leq | Pv | cdot | v |}{displaystyle |Pv|^{2}=langle Pv,Pvrangle =langle Pv,vrangle leq |Pv|cdot |v|}

Таким образом, ‖ P v ‖ ≤ ‖ v ‖ { displaystyle | Pv | leq | v |}{ displaystyle  | Pv  |  Leq  | v  |} .

Для конечномерных комплексных или вещественных векторных пространств стандартный внутренний продукт можно заменить на ⟨⋅, ⋅⟩ { displaystyle langle cdot, cdot rangle}langle cdot,cdot rangle .

Формулы

Простые случай возникает, когда ортогональная проекция находится на прямой. Если u { displaystyle u}uявляется единичным вектором на линии, то проекция задается внешним произведением

P u = uu T. { displaystyle P_ {u} = uu ^ { mathrm {T}}.}{displaystyle P_{u}=uu^{mathrm {T} }.}

(Если u { displaystyle u}uимеет комплексные значения, транспонирование в приведенном выше уравнении заменяется эрмитовым транспонированием). Этот оператор оставляет u инвариантным и аннулирует все векторы, ортогональные к u { displaystyle u}u, доказывая, что это действительно ортогональная проекция на линию, содержащую u. Простой способ увидеть это — рассмотреть произвольный вектор x { displaystyle x}xкак сумму компонента на линии (т. Е. Проецируемого вектора, который мы ищем) и другого перпендикуляра к нему, Икс = Икс ∥ + Икс ⊥ { Displaystyle x = x _ { parallel} + x _ { perp}}x=x_{parallel }+x_{perp }. Применяя проекцию, получаем

P ux = uu T x ∥ + uu T x ⊥ = u (sign (u T x ∥) ‖ x ∥ ‖) + u ⋅ 0 = x ∥ { displaystyle P_ {u} x = uu ^ { mathrm {T}} x _ { parallel} + uu ^ { mathrm {T}} x _ { perp} = u left ( mathrm {sign} (u ^ { mathrm {T}} x _ { parallel}) | x _ { parallel} | right) + u cdot 0 = x _ { parallel}}{ displaystyle P_ {u} x = uu ^ { mathrm {T }} x _ { parallel} + uu ^ { mathrm {T}} x _ { perp }=uleft(mathrm {sign} (u^{mathrm {T} }x_{parallel })|x_{parallel }|right)+ucdot 0=x_{parallel }}

по свойствам точечного произведения параллельного и перпендикулярного векторов.

Эту формулу можно обобщить на ортогональные проекции на подпространство произвольной размерности. Пусть u 1,…, uk { displaystyle u_ {1}, ldots, u_ {k}}{displaystyle u_{1},ldots,u_{k}}будет ортонормированным базисом подпространства U { displaystyle U}U, и пусть A { displaystyle A}Aобозначает n × k { displaystyle n times k}n times kматрица, столбцы которой равны u 1,…, uk { displaystyle u_ {1}, ldots, u_ {k}}{displaystyle u_{1},ldots,u_{k}}, т.е. A = [u 1… uk] { displaystyle A = { begin {bmatrix} u_ {1} ldots u_ {k} end {bmatrix}}}{ displaystyle A = { begin {bmatrix} u_ {1}  ldots u_ {k}  end {bmatrix}}} . Тогда проекция задается следующим образом:

PA = AAT { displaystyle P_ {A} = AA ^ { mathrm {T}}}P_{A}=AA^{mathrm {T} }

, который можно переписать как

PA = ∑ i ⟨ui, ⋅ ⟩ Ui. { displaystyle P_ {A} = sum _ {i} langle u_ {i}, cdot rangle u_ {i}.}P_{A}=sum _{i}langle u_{i},cdot rangle u_{i}.

Матрица AT { displaystyle A ^ { mathrm {T }}}A^{mathrm {T} }— это частичная изометрия, которая исчезает в ортогональном дополнении U { displaystyle U}Uи A { displaystyle A }A— изометрия, которая включает U { displaystyle U}Uв базовое векторное пространство. Диапазон P A { displaystyle P_ {A}}P_{A}, следовательно, является последним пространством A { displaystyle A}A. Также ясно, что AAT { displaystyle AA ^ { mathrm {T}}}{displaystyle AA^{mathrm {T} }}является оператором идентичности в U { displaystyle U}U.

Условие ортонормальности также может быть отброшенным. Если u 1,…, uk { displaystyle u_ {1}, ldots, u_ {k}}{displaystyle u_{1},ldots,u_{k}}является базисом (не обязательно ортонормированным) и A { displaystyle A }A— матрица с этими векторами в качестве столбцов, тогда проекция будет:

PA = A (ATA) — 1 AT. { displaystyle P_ {A} = A (A ^ { mathrm {T}} A) ^ {- 1} A ^ { mathrm {T}}.}P_{A}=A(A^{mathrm {T} }A)^{-1}A^{mathrm {T} }.

Матрица A { displaystyle A }Aпо-прежнему встраивает U { displaystyle U}Uв основное векторное пространство, но больше не является изометрией в целом. Матрица (A T A) — 1 { displaystyle (A ^ { mathrm {T}} A) ^ {- 1}}{displaystyle (A^{mathrm {T} }A)^{-1}}— это «нормализующий коэффициент», который восстанавливает норму. Например, оператор ранга 1 uu T { displaystyle uu ^ { mathrm {T}}}{ displaystyle uu ^ { mathrm {T}}} не является проекцией, если ‖ u ‖ ≠ 1. { displaystyle | u | neq 1.}{displaystyle |u|neq 1.}После деления на u T u = ‖ u ‖ 2, { displaystyle u ^ { mathrm {T}} u = | u | ^ {2},}{displaystyle u^{mathrm {T} }u=|u|^{2},}получаем проекцию u (u T u) — 1 u T { displaystyle u (u ^ { mathrm {T}} u) ^ {- 1} u ^ { mathrm {T}}}{ displaystyle u (u ^ { mathrm {T}} u) ^ {- 1} u ^ { mathrm {T}}} на подпространство, охватываемое u { displaystyle u}u.

В общем случае мы можем иметь произвольную положительно определенную матрицу D { displaystyle D}Dопределение внутреннего продукта ⟨x, y⟩ D = y † D x { displaystyle langle x, y rangle _ {D} = y ^ { dagger} Dx }{ displaystyle  langle x, y  rangle _ {D} = y ^ { dagger} Dx} , а проекция PA { displaystyle P_ {A}}P_{A}задается как PA x = argminy ∈ range (A) ‖ x — y ‖ D 2 { displaystyle P_ {A} x = mathrm {argmin} _ {y in mathrm {range} (A)} | xy | _ {D} ^ {2}}{ displaystyle P_ {A} x =  mathrm {argmin} _ {y  in  mathrm {range} (A)}  | xy  | _ {D} ^ {2}} . Тогда

P A = A (A T D A) — 1 A T D. { displaystyle P_ {A} = A (A ^ { mathrm {T}} DA) ^ {- 1} A ^ { mathrm {T}} D.}{displaystyle P_{A}=A(A^{mathrm {T} }DA)^{-1}A^{mathrm {T} }D.}

Когда создается пространство диапазона проекции по кадру (т. е. количество генераторов превышает его размер) формула для проекции принимает вид: PA = AA + { displaystyle P_ {A} = AA ^ {+ }}{displaystyle P_{A}=AA^{+}}. Здесь A + { displaystyle A ^ {+}}A^{+}обозначает псевдообратную матрицу Мура – ​​Пенроуза. Это лишь один из многих способов построения оператора проекции.

Если [AB] { displaystyle { begin {bmatrix} AB end {bmatrix}}}{displaystyle {begin{bmatrix}ABend{bmatrix}}}— невырожденная матрица и ATB = 0 { displaystyle A ^ { mathrm {T}} B = 0}{displaystyle A^{mathrm {T} }B=0}(например, B { displaystyle B}B— матрица пустого пространства из A { displaystyle A}A) выполняется следующее:

I = [AB] [AB] — 1 [ATBT] — 1 [ATBT] = [AB] ([ATBT ] [AB]) — 1 [ATBT] = [AB] [ATAOOBTB] — 1 [ATBT] = A (ATA) — 1 AT + B (BTB) — 1 BT { displaystyle { begin {выровнено} I = { begin {bmatrix} AB end {bmatrix}} { begin {bmatrix} AB end {bmatrix}} ^ {- 1} { begin {bmatrix} A ^ { mathrm {T}} \ B ^ { mathrm {T}} end {bmatrix}} ^ {- 1} { begin {bmatrix} A ^ { mathrm {T}} \ B ^ { mathrm {T}} end {bmatrix}} = { begin {bmatrix} AB end {bmatrix}} left ({ begin {bmatrix} A ^ { mathrm {T}} \ B ^ { mathrm {T}} end {bmatrix} } { begin {bmatrix} AB end {bmatrix}} right) ^ {- 1} { begin {bmatrix} A ^ { mathrm {T}} \ B ^ { mathrm {T}} end {bmatrix}} \ = { begin {bmatrix} AB end {bmatrix }} { begin {bmatrix} A ^ { mathrm {T}} AO \ OB ^ { mathrm {T}} B end {bmatrix}} ^ {- 1} { begin {bmatrix} A ^ { mathrm {T}} \ B ^ { mathrm {T}} end {bmatrix}} \ [4pt] = A (A ^ { mathrm {T}} A) ^ {- 1} A ^ { mathrm {T}} + B (B ^ { mathrm {T}} B) ^ {- 1} B ^ { mathrm {T}} end {align}}}{displaystyle {begin{aligned}I={begin{bmatrix}ABend{bmatrix}}{begin{bmatrix}ABend{bmatrix}}^{-1}{begin{bmatrix}A^{mathrm {T} }\B^{mathrm {T} }end{bmatrix}}^{-1}{begin{bmatrix}A^{mathrm {T} }\B^{mathrm {T} }end{bmatrix}}\={begin{bmatrix}ABend{bmatrix}}left({begin{bmatrix}A^{mathrm {T} }\B^{mathrm {T} }end{bmatrix}}{begin{bmatrix}ABend{bmatrix}}right)^{-1}{begin{bmatrix}A^{mathrm {T} }\B^{mathrm {T} }end{bmatrix}}\={begin{bmatrix}ABend{bmatrix}}{begin{bmatrix}A^{mathrm {T} }AO\OB^{mathrm {T} }Bend{bmatrix}}^{-1}{begin{bmatrix}A^{mathrm {T} }\B^{mathrm {T} }end{bmatrix}}\[4pt]=A(A^{mathrm {T} }A)^{-1}A^{mathrm {T} }+B(B^{mathrm {T} }B)^{-1}B^{mathrm {T} }end{aligned}}}

Если условие ортогональности улучшено до ATWB = ATWTB = 0 { displaystyle A ^ { mathrm {T}} WB = A ^ { mathrm {T}} W ^ { mathrm {T}} B = 0}{displaystyle A^{mathrm {T} }WB=A^{mathrm {T} }W^{mathrm {T} }B=0}с W { displaystyle W}Wнеособым числом, выполняется следующее:

I = [AB] [(ATWA) — 1 AT (BTWB) — 1 BT] W. { displaystyle I = { begin {bmatrix} AB end {bmatrix}} { begin {bmatrix} (A ^ { mathrm {T}} WA) ^ {- 1} A ^ { mathrm {T}} \ (B ^ { mathrm {T}} WB) ^ {- 1} B ^ { mathrm {T}} end {bmatrix}} W.}{displaystyle I={begin{bmatrix}ABend{bmatrix}}{begin{bmatrix}(A^{mathrm {T} }WA)^{-1}A^{mathrm {T} }\(B^{mathrm {T} }WB)^{-1}B^{mathrm {T} }end{bmatrix}}W.}

Все эти формулы также верны для сложных внутренних пространств продукта при условии, что вместо транспонирования используется сопряженное транспонирование. Более подробную информацию о суммах проекторов можно найти в Banerjee and Roy (2014). Также см. Banerjee (2004) о применении сумм проекторов в основной сферической тригонометрии.

Наклонные проекции

Термин «наклонные проекции» иногда используется для обозначения неортогональных проекций. Эти проекции также используются для представления пространственных фигур на двухмерных чертежах (см. наклонная проекция ), хотя и не так часто, как ортогональные проекции. В то время как для вычисления подобранного значения регрессии обычных наименьших квадратов требуется ортогональная проекция, для вычисления подобранного значения регрессии инструментальных переменных требуется наклонная проекция.

Проекции определяются своим нулевым пространством и базисными векторами, используемыми для характеристики их диапазона (который является дополнением к нулевому пространству). Когда эти базисные векторы ортогональны нулевому пространству, тогда проекция является ортогональной проекцией. Когда эти базисные векторы не ортогональны нулевому пространству, проекция является наклонной проекцией. Пусть векторы u 1,…, uk { displaystyle u_ {1}, ldots, u_ {k}}{displaystyle u_{1},ldots,u_{k}}образуют основу для диапазона проекции и объединяют эти векторы в n × k { displaystyle n times k}n times kматрица A { displaystyle A}A. Диапазон и пустое пространство являются дополнительными пространствами, поэтому нулевое пространство имеет размерность n — k { displaystyle n-k}n-k. Отсюда следует, что ортогональное дополнение пустого пространства имеет размерность k { displaystyle k}k. Пусть v 1,…, vk { displaystyle v_ {1}, ldots, v_ {k}}{displaystyle v_{1},ldots,v_{k}}образуют основу для ортогонального дополнения нулевого пространства проекции, и соберите эти векторы в матрице B { displaystyle B}B. Тогда проекция определяется как

P = A (B T A) — 1 B T. { displaystyle P = A (B ^ { mathrm {T}} A) ^ {- 1} B ^ { mathrm {T}}.}P=A(B^{mathrm {T} }A)^{-1}B^{mathrm {T} }.

Это выражение обобщает формулу для ортогональных проекций, приведенную выше.

Поиск проекции с помощью внутреннего продукта

Пусть V { displaystyle V}Vбудет векторным пространством (в данном случае плоскостью), натянутым на ортогональные векторы u 1, u 2, ⋯, вверх { displaystyle u_ {1}, u_ {2}, cdots, u_ {p}}{displaystyle u_{1},u_{2},cdots,u_{p}}. Пусть y { displaystyle y}yбудет вектором. Можно определить проекцию y { displaystyle y}yна V { displaystyle V}Vкак

proj V ⁡ y = y ⋅ ujuj ⋅ ujuj { displaystyle operatorname {proj} _ {V} y = { frac {y cdot u ^ {j}} {u ^ {j} cdot u ^ {j}}} u ^ {j}}{displaystyle operatorname {proj} _{V}y={frac {ycdot u^{j}}{u^{j}cdot u^{j}}}u^{j}}

, где j { displaystyle j}jподразумевает нотацию суммы Эйнштейна. Вектор y { displaystyle y}yможет быть записан как ортогональная сумма, такая что y = proj V ⁡ y + z { displaystyle y = operatorname {proj} _ {V } y + z}{displaystyle y=operatorname {proj} _{V}y+z}. proj V ⁡ y { displaystyle operatorname {proj} _ {V} y}{displaystyle operatorname {proj} _{V}y}иногда обозначается как y ^ { displaystyle { hat {y} }}{hat {y}}. В линейной алгебре есть теорема, согласно которой этот z { displaystyle z}zявляется кратчайшим расстоянием от y { displaystyle y}yдо V { displaystyle V}Vи обычно используется в таких областях, как машинное обучение.

y проецируется в векторное пространство V.

Канонические формы

Любая проекция P = P 2 { displaystyle P = P ^ {2}}{displaystyle P=P^{2}}в векторном пространстве размерности d { displaystyle d}dнад полем представляет собой диагонализуемую матрицу, поскольку ее минимальный многочлен делит x 2 — x { displaystyle x ^ {2} -x}{displaystyle x^{2}-x}, который разбивается на отдельные линейные множители. Таким образом, существует базис, в котором P { displaystyle P}Pимеет форму

P = I r ⊕ 0 d — r { displaystyle P = I_ {r} oplus 0_ { dr}}P=I_{r}oplus 0_{d-r}

, где r { displaystyle r}r— это ранг P { displaystyle P}P. Здесь I r { displaystyle I_ {r}}I_r— это единичная матрица размера r { displaystyle r}r, а 0 d — r { displaystyle 0_ {dr}}{displaystyle 0_{d-r}}— нулевая матрица размера d — r { displaystyle dr}d-r. Если векторное пространство является сложным и снабжено скалярным произведением , то существует ортонормированный базис, в котором матрица P имеет вид

P = [1 σ 1 0 0] ⊕ ⋯ ⊕ [1 σ k 0 0] ⊕ я м ⊕ 0 s { displaystyle P = { begin {bmatrix} 1 sigma _ {1} \ 0 0 end {bmatrix}} oplus cdots oplus { begin {bmatrix} 1 sigma _ {k} \ 0 0 end {bmatrix}} oplus I_ {m} oplus 0_ {s}}P={begin{bmatrix}1sigma _{1}\00end{bmatrix}}oplus cdots oplus {begin{bmatrix}1sigma _{k}\00end{bmatrix}}oplus I_{m}oplus 0_{s}.

где σ 1 ≥ σ 2 ≥… ≥ σ k>0 { displaystyle sigma _ {1} geq sigma _ {2} geq ldots geq sigma _ {k}>0}{displaystyle sigma _{1}geq sigma _{2}geq ldots geq sigma _{k}>0} . Целые числа k, s, m { displaystyle k, s, m}{displaystyle k,s,m}и действительные числа σ i { displaystyle sigma _ {i}}sigma _{i}определяются однозначно. Обратите внимание, что k + s + m = d { displaystyle k + s + m = d}{displaystyle k+s+m=d}. Фактор I m ⊕ 0 s { displaystyle I_ {m} oplus 0_ {s}}{ displaystyle I_ {m}  oplus 0_ {s}} соответствует максимальному инвариантному подпространству на который P { displaystyle P}Pдействует как ортогональная проекция (так что сама точка P ортогональна тогда и только тогда, когда k = 0 { displaystyle k = 0}k=0) и σ i { displaystyle sigma _ {i}}sigma _{i}-блоки соответствуют наклонным компонентам.

Проекции на нормированные векторные пространства

Когда основное векторное пространство X { displaystyle X}Xявляется (не обязательно конечномерным) нормированным В векторном пространстве необходимо рассмотреть аналитические вопросы, не относящиеся к конечномерному случаю. Предположим теперь, что X { displaystyle X}Xявляется банаховым пространством.

Многие из алгебраических результатов, обсужденных выше, переживают переход к этому контексту. Разложение заданной прямой суммы X { displaystyle X}Xна дополнительные подпространства по-прежнему определяет проекцию, и наоборот. Если X { displaystyle X}X— прямая сумма X = U ⊕ V { displaystyle X = U oplus V}{displaystyle X=Uoplus V}, то оператор, определяемый P (u + v) = u { displaystyle P (u + v) = u}{displaystyle P(u+v)=u}по-прежнему является проекцией с диапазоном U { displaystyle U}Uи ядро ​​V { displaystyle V}V. Также ясно, что P 2 = P { displaystyle P ^ {2} = P}{ displaystyle P ^ {2} = P} . И наоборот, если P { displaystyle P}Pявляется проекцией на X { displaystyle X}X, то есть P 2 = P { displaystyle P ^ {2} = P}{ displaystyle P ^ {2} = P} , тогда легко проверить, что (1 — P) 2 = (1 — P) { displaystyle (1-P) ^ {2} = (1- P)}{displaystyle (1-P)^{2}=(1-P)}. Другими словами, 1 — P { displaystyle 1-P}{displaystyle 1-P}также является проекцией. Отношение P 2 = P { displaystyle P ^ {2} = P}{ displaystyle P ^ {2} = P} подразумевает 1 = P + (1 — P) { displaystyle 1 = P + (1-P) }{displaystyle 1=P+(1-P)}и X { displaystyle X}X— прямая сумма ran (P) ⊕ ran (1 — P) { displaystyle mathrm {ran} ( P) oplus mathrm {ran} (1-P)}{displaystyle mathrm {ran} (P)oplus mathrm {ran} (1-P)}.

Однако, в отличие от конечномерного случая, проекции не обязательно должны быть непрерывными в целом. Если подпространство U { displaystyle U}Uиз X { displaystyle X}Xне замкнуто в топологии нормы, то проекция на U { displaystyle U}Uне является непрерывным. Другими словами, диапазон непрерывной проекции P { displaystyle P}Pдолжен быть замкнутым подпространством. Кроме того, ядро ​​непрерывной проекции (в общем, непрерывного линейного оператора) замкнуто. Таким образом, непрерывная проекция P { displaystyle P}Pдает разложение X { displaystyle X}Xна два дополнительных закрытых подпространства: X = ran (P) ⊕ ker (P) знак равно ker (1 — P) ⊕ ker (P) { displaystyle X = mathrm {ran} (P) oplus mathrm {ker} (P) = mathrm {ker} ( 1-P) oplus mathrm {ker} (P)}{ displaystyle X =  mathrm {ran} (P)  oplus  mathrm {ker} (P) =  mathrm {ker} (1-П)  oplus  mathrm {ker} (P)} .

Обратное также верно с дополнительным предположением. Предположим, что U { displaystyle U}Uявляется замкнутым подпространством X { displaystyle X}X. Если существует замкнутое подпространство V { displaystyle V}Vтакое, что X = U ⊕ V, то проекция P { displaystyle P}Pс диапазоном U { displaystyle U}Uи ядро ​​V { displaystyle V}Vявляется непрерывным. Это следует из теоремы о замкнутом графике. Предположим, что x n → x и Px n → y. Необходимо показать, что P x = y { displaystyle Px = y}Px=y. Поскольку U { displaystyle U}Uзамкнут и {Px n } ⊂ U, y лежит в U { displaystyle U}U, т.е. Py = y. Кроме того, x n — Px n = (I — P) x n → x — y. Поскольку V { displaystyle V}Vзакрыто и {(I — P) x n } ⊂ V, мы имеем x — y ∈ V { displaystyle xy in V}{displaystyle x-yin V}, т.е. P (x — y) = P x — P y = P x — y = 0 { displaystyle P (xy) = Px-Py = Px-y = 0}{displaystyle P(x-y)=Px-Py=Px-y=0}, что доказывает утверждение.

В приведенном выше аргументе используется предположение, что оба U { displaystyle U}Uи V { displaystyle V}Vзакрыты. В общем случае, учитывая замкнутое подпространство U { displaystyle U}U, может не существовать дополнительное замкнутое подпространство V { displaystyle V}V, хотя для Гильбертовы пространства это всегда можно сделать, взяв ортогональное дополнение. Для банаховых пространств одномерное подпространство всегда имеет замкнутое дополнительное подпространство. Это непосредственное следствие теоремы Хана – Банаха. Пусть U { displaystyle U}Uбудет линейным промежутком u { displaystyle u}u. По Хану-Банаху существует ограниченный линейный функционал φ { displaystyle varphi}varphi такой, что φ (u) = 1. Оператор P (x) = φ (x) u { displaystyle P (x) = varphi (x) u}{displaystyle P(x)=varphi (x)u}удовлетворяет P 2 = P { displaystyle P ^ {2} = P}P^{2}=P, т.е. это проекция. Ограниченность φ { displaystyle varphi}varphi подразумевает непрерывность P { displaystyle P}Pи, следовательно, ker ⁡ (P) = ran ⁡ ( I — P) { displaystyle operatorname {ker} (P) = operatorname {ran} (IP)}{displaystyle operatorname {ker} (P)=operatorname {ran} (I-P)}— это закрытое дополнительное подпространство U { displaystyle U}U.

Applications и другие соображения

Проекции (ортогональные и другие) играют важную роль в алгоритмах для некоторых задач линейной алгебры:

Как указано выше, проекции являются частным случаем идемпотентов. Аналитически ортогональные проекции являются некоммутативными обобщениями характеристики ристические функции. Идемпотенты используются при классификации, например, полупростых алгебр, тогда как теория меры начинается с рассмотрения характеристических функций измеримых множеств. Поэтому, как можно догадаться, проекции очень часто встречаются в контекстных операторных алгебрах. В частности, алгебра фон Неймана порождается ее полной решеткой проекций.

Обобщения

В более общем смысле, если дана карта между нормированными векторными пространствами T: V → W, { displaystyle T двоеточие V to W,}Tcolon Vto W,аналогично можно попросить, чтобы это отображение было изометрией на ортогональном дополнении ядра: (ker ⁡ T) ⊥ → W { displaystyle ( ker T) ^ { perp} to W}(ker T)^{perp }to Wбыть изометрией (сравните Частичная изометрия ); в частности он должен быть включен. Случай ортогональной проекции — это когда W является подпространством V. В римановой геометрии это используется в определении римановой субмерсии.

См. Также

Примечания

Источники

  • Банерджи, Судипто; Рой, Аниндия (2014), Линейная алгебра и матричный анализ для статистики, Тексты в статистике (1-е изд.), Чепмен и Холл / CRC, ISBN 978-1420095388
  • Данфорд, Нью-Йорк.; Шварц, Дж. Т. (1958). Линейные операторы. Часть I: Общая теория. Interscience.
  • Мейер, Карл Д. (2000). Матричный анализ и прикладная линейная алгебра. Общество промышленной и прикладной математики. ISBN 978-0-89871-454-8.

Внешние ссылки

Понравилась статья? Поделить с друзьями:
  • Наушники работают как микрофон как исправить
  • Как найти рентабельность выпуска
  • Как исправить кракелюр на стене
  • Как найти спрятанные фотки
  • Как найти детскую коляску