Как найти норму числа

Вычисление нормы и чисел обусловленности матрицы

1
норма матрицы представляет из себя
максимальное из чисел, полученных при
сложении всех элементов каждого столбца,
взятых по модулю. Не путайте со сложением
матриц!

Р
ассмотрим
на примере: пусть дана матрица размера
3х2. В первом столбце стоят элементы: 8,
3, 8. Все элементы положительные. Найдем
их сумму: 8+3+8=19. В втором столбце стоят
элементы: 8, -2, -8. Два элемента — отрицательные,
поэтому при сложении этих чисел,
необходимо подставлять модуль этих
чисел (т.е. без знаков «минус»).
Найдем их сумму: 8+2+8=18. Максимальное из
этих двух чисел — это 19. Значит первая
норма матрицы равна 19.

2
норма матрицы представляет из себя
квадратный корень из суммы квадратов
всех элементов матрицы. А это значит мы
возводим в квадрат все элементы матрицы,
затем складываем полученные значения
и из результата извлекаем квадратный
корень.

В
нашем случае, 2 норма матрицы получилась
равна квадратному корню из 269. На схеме,
я приближенно извлекла квадратный
корень из 269 и в результате получила
приблизительно около 16,401. Хотя более
правильно не извлекать корень.

3
норма матрицы представляет из себя
максимальное из чисел, полученных при
сложении всех элементов каждой строки,
взятых по модулю.

В

нашем примере: в первой строке стоят
элементы: 8, 8. Все элементы положительные.
Найдем их сумму: 8+8=16. В второй строке
стоят элементы: 3, -2. Один из элементов
отрицательный, поэтому при сложении
этих чисел, необходимо подставлять
модуль этого числа. Найдем их сумму:
3+2=5. В третьей строке стоят элементы 8,
и -8. Один из элементов отрицательный,
поэтому при сложении этих чисел,
необходимо подставлять модуль этого
числа. Найдем их сумму: 8+8=16. Максимальное
из этих трех чисел — это 16. Значит третья
норма матрицы равна 16.

Число
обусловленности квадратной матрицы A
определяется, как

k(A)
= ||A||·||A -1||


Число
обусловленности имеет следующее
значение: если машинная точность, с
которой совершаются все операции с
вещественными числами, равна ε, то при
решении системы линейных уравнений Ax
= b результат будет получен с относительной
погрешностью порядка ε·k(A). Хотя число
обусловленности матрицы зависит от
выбора нормы, если матрица хорошо
обусловлена, то её число обусловленности
будет мало при любом выборе нормы, а
если она плохо обусловлена, то её число
обусловленности будет велико при любом
выборе нормы. Таким образом, обычно
норму выбирают исходя из соображений
удобства. На практике наиболее широко
используют 1-норму, 2-норму и ∞-норму,
задающиеся формулами:

В
Matlab
используется следующие функции поиска
нормы:

Пусть
А —матрица. Тогда n=norm(A) эквивалентно
п=погп(А,2) и возвращает вторую норму, т.
е. самое большое сингулярное число А.
Функция n=norm(A, 1) возвращает первую норму,
т. е. самую большую из сумм абсолютных
значений элементов матрицы по столбцам.
Норма неопределенности n=norm(A, inf) возвращает
самую большую из сумм абсолютных значений
элементов матрицы по рядам. Норма
Фробениуса
(Frobenius) norm(A, ‘fro’) = sqrt(sum(diag(A’A))).

Пример:

»
A=[2,3,1;1,9,4;2,6,7]

A
=

2
3 1

1
9 4

2
6 7

»
norm(A,1)

ans
=

18

Числа
обусловленности матрицы определяют
чувствительность решения системы
линейных уравнений к погрешностям
исходных данных. Следующие функции
позволяют найти числа обусловленности
матриц.

cond(X)
— возвращает число обусловленности,
основанное на второй норме, то есть
отношение самого большого сингулярного
числа X к самому малому. Значение cond(X),
близкое к 1, указывает на хорошо
обусловленную матрицу;

с
= cond(X,p) — возвращает число обусловленности
матрицы, основанное на р-норме:
norm(X,p)*norm(inv(X),p), где р определяет способ
расчета:

р=1
— число обусловленности матрицы,
основанное на первой норме;

р=2
— число обусловленности матрицы,
основанное на второй норме;

p=
‘fro’ — число обусловленности матрицы,
основанное на норме Фробе-ниуса
(Frobenius);

р=’inf’
— число обусловленности матрицы,
основанное на норме неопределенности.

с
= cond(X) — возвращает число обусловленности
матрицы, основанное на второй норме.

Пример:

»
d=cond(hilb(4))

d
=

1.5514е+004

condeig(A)
— возвращает вектор чисел обусловленности
для собственных значений А. Эти числа
обусловленности — обратные величины
косинусов углов между левыми и правыми
собственными векторами;

[V.D.s]
= condeig(A) — эквивалентно
[V,D] = eig(A): s = condeig(A);.

Большие
числа обусловленности означают, что
матрица А близка к матрице с кратными
собственными значениями.

Пример:

»
d=condeig(rand(4))

d
=

1.0766

1.2298

1.5862

1.7540

rcond(A)
— возвращает обратную величину
обусловленности матрицы А по первой
норме, используя оценивающий обусловленность
метод LAPACK. Если А — хорошо обусловленная
матрица, то rcond(A) около 1.00, если плохо
обусловленная, то около 0.00. По сравнению
с cond функция rcond реализует более
эффективный в плане затрат машинного
времени, но менее достоверный метод
оценки обусловленности матрицы.

Пример:

»
s=rcond(hilb(4))

s
=

4.6461е-005

Соседние файлы в предмете [НЕСОРТИРОВАННОЕ]

  • #
  • #
  • #
  • #
  • #
  • #
  • #
  • #
  • #
  • #
  • #

Линейная алгебра для исследователей данных

Время на прочтение
5 мин

Количество просмотров 14K

Иллюстрация: UCI
Иллюстрация: UCI

«Наша [Ирвинга Капланского и Пола Халмоша] общая философия в отношении линейной алгебры такова: мы думаем в безбазисных терминах, пишем в безбазисных терминах, но когда доходит до серьезного дела, мы запираемся в офисе и вовсю считаем с помощью матриц».

Ирвинг Капланский

Для многих начинающих исследователей данных линейная алгебра становится камнем преткновения на пути к достижению мастерства в выбранной ими профессии.

kdnuggets

kdnuggets

В этой статье я попытался собрать основы линейной алгебры, необходимые в повседневной работе специалистам по машинному обучению и анализу данных.

Произведения векторов 

Для двух векторов x, y ∈ ℝⁿ их скалярным или внутренним произведением xy

называется следующее вещественное число:

Как можно видеть, скалярное произведение является особым частным случаем произведения матриц. Также заметим, что всегда справедливо тождество

.

x^Ty = y^Tx

Для двух векторов x ∈ ℝᵐ, y ∈ ℝⁿ (не обязательно одной размерности) также можно определить внешнее произведение xyᵀ ∈ ℝᵐˣⁿ. Это матрица, значения элементов которой определяются следующим образом: (xy)ᵢⱼ = xy, то есть

След 

Следом квадратной матрицы A ∈ ℝⁿˣⁿ, обозначаемым tr(A) (или просто trA), называют сумму элементов на ее главной диагонали: 

След обладает следующими свойствами:

  • Для любой матрицы A ∈ ℝⁿˣⁿ: trA = trAᵀ.

  • Для любых матриц A,B ∈ ℝⁿˣⁿ: tr(A + B) = trA + trB.

  • Для любой матрицы A ∈ ℝⁿˣⁿ и любого числа t ∈ ℝ: tr(tA) = t trA.

  • Для любых матриц A,B, таких, что их произведение AB является квадратной матрицей: trAB = trBA.

  • Для любых матриц A,B,C, таких, что их произведение ABC является квадратной матрицей: trABC = trBCA = trCAB (и так далее — данное свойство справедливо для любого числа матриц).

TimoElliott

TimoElliott

Нормы

Норму ∥x∥ вектора x можно неформально определить как меру «длины» вектора. Например, часто используется евклидова норма, или норма l₂:

Заметим, что ‖x‖₂²=xᵀx.

Более формальное определение таково: нормой называется любая функция f : ℝn → ℝ, удовлетворяющая четырем условиям:

  1. Для всех векторов x ∈ ℝⁿ: f(x) ≥ 0 (неотрицательность).

  2. f(x) = 0 тогда и только тогда, когда x = 0 (положительная определенность).

  3. Для любых вектора x ∈ ℝⁿ и числа t ∈ ℝ: f(tx) = |t|f(x) (однородность).

  4. Для любых векторов x, y ∈ ℝⁿ: f(x + y) ≤ f(x) + f(y) (неравенство треугольника)

Другими примерами норм являются норма l

и норма l

Все три представленные выше нормы являются примерами норм семейства lp, параметризуемых вещественным числом p ≥ 1 и определяемых как

Нормы также могут быть определены для матриц, например норма Фробениуса:

Линейная независимость и ранг 

Множество векторов {x₁, x₂, …, xₙ} ⊂ ₘ называют линейно независимым, если никакой из этих векторов не может быть представлен в виде линейной комбинации других векторов этого множества. Если же такое представление какого-либо из векторов множества возможно, эти векторы называют линейно зависимыми. То есть, если выполняется равенство

для некоторых скалярных значений α₁,…, αₙ-₁ ∈ , то мы говорим, что векторы x₁, …, x линейно зависимы; в противном случае они линейно независимы. Например, векторы

линейно зависимы, так как x₃ = −2xₙ + x₂.

Столбцовым рангом матрицы A ∈ ℝᵐˣⁿ называют число элементов в максимальном подмножестве ее столбцов, являющемся линейно независимым. Упрощая, говорят, что столбцовый ранг — это число линейно независимых столбцов A. Аналогично строчным рангом матрицы является число ее строк, составляющих максимальное линейно независимое множество.

Оказывается (здесь мы не будем это доказывать), что для любой матрицы A ∈ ℝᵐˣⁿ столбцовый ранг равен строчному, поэтому оба этих числа называют просто рангом A и обозначают rank(A) или rk(A); встречаются также обозначения rang(A), rg(A) и просто r(A). Вот некоторые основные свойства ранга:

  • Для любой матрицы A ∈ ℝᵐˣⁿ: rank(A) ≤ min(m,n). Если rank(A) = min(m,n), то A называют матрицей полного ранга.

  • Для любой матрицы A ∈ ℝᵐˣⁿ: rank(A) = rank(Aᵀ).

  • Для любых матриц A ∈ ℝᵐˣⁿ, Bn×p: rank(AB) ≤ min(rank(A),rank(B)).

  • Для любых матриц A,B ∈ ℝᵐˣⁿ: rank(A + B) ≤ rank(A) + rank(B).

Ортогональные матрицы 

Два вектора x, yⁿ называются ортогональными, если xy = 0. Вектор xⁿ называется нормированным, если ||x||₂ = 1. Квадратная м

атрица Uⁿˣⁿ называется ортогональной, если все ее столбцы ортогональны друг другу и нормированы (в этом случае столбцы называют ортонормированными). Заметим, что понятие ортогональности имеет разный смысл для векторов и матриц.

Непосредственно из определений ортогональности и нормированности следует, что

Другими словами, результатом транспонирования ортогональной матрицы является матрица, обратная исходной. Заметим, что если U не является квадратной матрицей (U ∈ ℝᵐˣⁿ, n < m), но ее столбцы являются ортонормированными, то UU = I, но UUᵀ ≠ I. Поэтому, говоря об ортогональных матрицах, мы будем по умолчанию подразумевать квадратные матрицы.

Еще одно удобное свойство ортогональных матриц состоит в том, что умножение вектора на ортогональную матрицу не меняет его евклидову норму, то есть

для любых вектора x ∈ ℝⁿ и ортогональной матрицы U ∈ ℝⁿˣⁿ.

TimoElliott

TimoElliott

Область значений и нуль-пространство матрицы

Линейной оболочкой множества векторов {x₁, x₂, …, xₙ} является множество всех векторов, которые могут быть представлены в виде линейной комбинации векторов {x₁, …, xₙ}, то есть

Областью значений R(A) (или пространством столбцов) матрицы A ∈ ℝᵐˣⁿ называется линейная оболочка ее столбцов. Другими словами,

 Нуль-пространством, или ядром матрицы A ∈ ℝᵐˣⁿ (обозначаемым N(A) или ker A), называют множество всех векторов, которые при умножении на A обращаются в нуль, то есть

Квадратичные формы и положительно полуопределенные матрицы 

Для квадратной матрицы A ∈ ℝⁿˣⁿ и вектора xквадратичной формой называется скалярное значение xAx. Распишем это выражение подробно:

Заметим, что

  • Симметричная матрица A ∈ 𝕊ⁿ называется положительно определенной, если для всех ненулевых векторов xⁿ справедливо неравенство xAx > 0. Обычно это обозначается как

    (или просто A > 0), а множество всех положительно определенных матриц часто обозначают

    .

  • Симметричная матрица A ∈ 𝕊ⁿ называется положительно полуопределенной, если для всех векторов справедливо неравенство xAx ≥ 0. Это записывается как

    (или просто A ≥ 0), а множество всех положительно полуопределенных матриц часто обозначают

    .

  • Аналогично симметричная матрица A ∈ 𝕊ⁿ называется отрицательно определенной

  • , если для всех ненулевых векторов xⁿ справедливо неравенство xAx < 0.

  • Далее, симметричная матрица A ∈ 𝕊ⁿ называется отрицательно полуопределенной (

    ), если для всех ненулевых векторов xⁿ справедливо неравенство xAx ≤ 0.

  • Наконец, симметричная матрица A ∈ 𝕊ⁿ называется неопределенной, если она не является ни положительно полуопределенной, ни отрицательно полуопределенной, то есть если существуют векторы x₁, x₂ ∈ ⁿ такие, что

    и

    .

Собственные значения и собственные векторы 

Для квадратной матрицы Aⁿˣⁿ комплексное значение λ ∈ ℂ и вектор x ∈ ℂⁿ будут соответственно являться собственным значением и собственным вектором, если выполняется равенство

На интуитивном уровне это определение означает, что при умножении на матрицу A вектор x сохраняет направление, но масштабируется с коэффициентом λ. Заметим, что для любого собственного вектора x ∈ ℂⁿ и скалярного значения с ∈ ℂ справедливо равенство A(cx) = cAx = cλx = λ(cx). Таким образом, cx тоже является собственным вектором. Поэтому, говоря о собственном векторе, соответствующем собственному значению λ, мы обычно имеем в виду нормализованный вектор с длиной 1 (при таком определении все равно сохраняется некоторая неоднозначность, так как собственными векторами будут как x, так и –x, но тут уж ничего не поделаешь).


Перевод статьи был подготовлен в преддверии старта курса «Математика для Data Science». Также приглашаем всех желающих посетить бесплатный демоурок, в рамках которого рассмотрим понятие линейного пространства на примерах, поговорим о линейных отображениях, их роли в анализе данных и порешаем задачи.

  • ЗАПИСАТЬСЯ НА ДЕМОУРОК

In mathematics, a norm is a function from a real or complex vector space to the non-negative real numbers that behaves in certain ways like the distance from the origin: it commutes with scaling, obeys a form of the triangle inequality, and is zero only at the origin. In particular, the Euclidean distance in a Euclidean space is defined by a norm on the associated Euclidean vector space, called the Euclidean norm, the 2-norm, or, sometimes, the magnitude of the vector. This norm can be defined as the square root of the inner product of a vector with itself.

A seminorm satisfies the first two properties of a norm, but may be zero for vectors other than the origin.[1] A vector space with a specified norm is called a normed vector space. In a similar manner, a vector space with a seminorm is called a seminormed vector space.

The term pseudonorm has been used for several related meanings. It may be a synonym of «seminorm».[1]
A pseudonorm may satisfy the same axioms as a norm, with the equality replaced by an inequality «{displaystyle ,leq ,}» in the homogeneity axiom.[2]
It can also refer to a norm that can take infinite values,[3] or to certain functions parametrised by a directed set.[4]

Definition[edit]

Given a vector space X over a subfield F of the complex numbers {displaystyle mathbb {C} ,} a norm on X is a real-valued function {displaystyle p:Xto mathbb {R} } with the following properties, where {displaystyle |s|} denotes the usual absolute value of a scalar s:[5]

  1. Subadditivity/Triangle inequality: {displaystyle p(x+y)leq p(x)+p(y)} for all {displaystyle x,yin X.}
  2. Absolute homogeneity: {displaystyle p(sx)=|s|p(x)} for all xin X and all scalars s.
  3. Positive definiteness/positiveness[6]/Point-separating: for all {displaystyle xin X,} if p(x) = 0 then x=0.

A seminorm on X is a function {displaystyle p:Xto mathbb {R} } that has properties (1.) and (2.)[7] so that in particular, every norm is also a seminorm (and thus also a sublinear functional). However, there exist seminorms that are not norms. Properties (1.) and (2.) imply that if p is a norm (or more generally, a seminorm) then {displaystyle p(0)=0} and that p also has the following property:

  1. Non-negativity:[6] {displaystyle p(x)geq 0} for all {displaystyle xin X.}

Some authors include non-negativity as part of the definition of «norm», although this is not necessary.
Although this article defined «positive» to be a synonym of «positive definite», some authors instead define «positive» to be a synonym of «non-negative»;[8] these definitions are not equivalent.

Equivalent norms[edit]

Suppose that p and q are two norms (or seminorms) on a vector space X. Then p and q are called equivalent, if there exist two positive real constants c and C with c>0 such that for every vector {displaystyle xin X,}

{displaystyle cq(x)leq p(x)leq Cq(x).}

The relation «p is equivalent to q» is reflexive, symmetric ({displaystyle cqleq pleq Cq} implies {displaystyle {tfrac {1}{C}}pleq qleq {tfrac {1}{c}}p}), and transitive and thus defines an equivalence relation on the set of all norms on X.
The norms p and q are equivalent if and only if they induce the same topology on X.[9] Any two norms on a finite-dimensional space are equivalent but this does not extend to infinite-dimensional spaces.[9]

Notation[edit]

If a norm {displaystyle p:Xto mathbb {R} } is given on a vector space X, then the norm of a vector zin X is usually denoted by enclosing it within double vertical lines: {displaystyle |z|=p(z).} Such notation is also sometimes used if p is only a seminorm. For the length of a vector in Euclidean space (which is an example of a norm, as explained below), the notation |x| with single vertical lines is also widespread.

Examples[edit]

Every (real or complex) vector space admits a norm: If {displaystyle x_{bullet }=left(x_{i}right)_{iin I}} is a Hamel basis for a vector space X then the real-valued map that sends {displaystyle x=sum _{iin I}s_{i}x_{i}in X} (where all but finitely many of the scalars s_{i} are {displaystyle 0}) to {displaystyle sum _{iin I}left|s_{i}right|} is a norm on X.[10] There are also a large number of norms that exhibit additional properties that make them useful for specific problems.

Absolute-value norm[edit]

The absolute value

{displaystyle |x|=|x|}

is a norm on the one-dimensional vector spaces formed by the real or complex numbers.

Any norm p on a one-dimensional vector space X is equivalent (up to scaling) to the absolute value norm, meaning that there is a norm-preserving isomorphism of vector spaces {displaystyle f:mathbb {F} to X,} where mathbb {F} is either mathbb {R} or {displaystyle mathbb {C} ,} and norm-preserving means that {displaystyle |x|=p(f(x)).}
This isomorphism is given by sending {displaystyle 1in mathbb {F} } to a vector of norm 1, which exists since such a vector is obtained by multiplying any non-zero vector by the inverse of its norm.

Euclidean norm[edit]

On the n-dimensional Euclidean space {displaystyle mathbb {R} ^{n},} the intuitive notion of length of the vector {displaystyle {boldsymbol {x}}=left(x_{1},x_{2},ldots ,x_{n}right)} is captured by the formula[11]

{displaystyle |{boldsymbol {x}}|_{2}:={sqrt {x_{1}^{2}+cdots +x_{n}^{2}}}.}

This is the Euclidean norm, which gives the ordinary distance from the origin to the point X—a consequence of the Pythagorean theorem.
This operation may also be referred to as «SRSS», which is an acronym for the square root of the sum of squares.[12]

The Euclidean norm is by far the most commonly used norm on {displaystyle mathbb {R} ^{n},}[11] but there are other norms on this vector space as will be shown below.
However, all these norms are equivalent in the sense that they all define the same topology.

The inner product of two vectors of a Euclidean vector space is the dot product of their coordinate vectors over an orthonormal basis.
Hence, the Euclidean norm can be written in a coordinate-free way as

{displaystyle |{boldsymbol {x}}|:={sqrt {{boldsymbol {x}}cdot {boldsymbol {x}}}}.}

The Euclidean norm is also called the L^{2} norm,[13] ell ^{2} norm, 2-norm, or square norm; see L^{p} space.
It defines a distance function called the Euclidean length, L^{2} distance, or ell ^{2} distance.

The set of vectors in {displaystyle mathbb {R} ^{n+1}} whose Euclidean norm is a given positive constant forms an n-sphere.

Euclidean norm of complex numbers[edit]

The Euclidean norm of a complex number is the absolute value (also called the modulus) of it, if the complex plane is identified with the Euclidean plane {displaystyle mathbb {R} ^{2}.} This identification of the complex number {displaystyle x+iy} as a vector in the Euclidean plane, makes the quantity {textstyle {sqrt {x^{2}+y^{2}}}} (as first suggested by Euler) the Euclidean norm associated with the complex number.

Quaternions and octonions[edit]

There are exactly four Euclidean Hurwitz algebras over the real numbers. These are the real numbers {displaystyle mathbb {R} ,} the complex numbers {displaystyle mathbb {C} ,} the quaternions {displaystyle mathbb {H} ,} and lastly the octonions {displaystyle mathbb {O} ,} where the dimensions of these spaces over the real numbers are {displaystyle 1,2,4,{text{ and }}8,} respectively.
The canonical norms on mathbb {R} and mathbb{C} are their absolute value functions, as discussed previously.

The canonical norm on mathbb {H} of quaternions is defined by

{displaystyle lVert qrVert ={sqrt {,qq^{*}~}}={sqrt {,q^{*}q~}}={sqrt {,a^{2}+b^{2}+c^{2}+d^{2}~}}}

for every quaternion {displaystyle q=a+b,mathbf {i} +c,mathbf {j} +d,mathbf {k} } in {mathbb  {H}}. This is the same as the Euclidean norm on mathbb {H} considered as the vector space {displaystyle mathbb {R} ^{4}.} Similarly, the canonical norm on the octonions is just the Euclidean norm on {displaystyle mathbb {R} ^{8}.}

Finite-dimensional complex normed spaces[edit]

On an n-dimensional complex space {displaystyle mathbb {C} ^{n},} the most common norm is

{displaystyle |{boldsymbol {z}}|:={sqrt {left|z_{1}right|^{2}+cdots +left|z_{n}right|^{2}}}={sqrt {z_{1}{bar {z}}_{1}+cdots +z_{n}{bar {z}}_{n}}}.}

In this case, the norm can be expressed as the square root of the inner product of the vector and itself:

{displaystyle |{boldsymbol {x}}|:={sqrt {{boldsymbol {x}}^{H}~{boldsymbol {x}}}},}

where {boldsymbol {x}} is represented as a column vector {displaystyle {begin{bmatrix}x_{1};x_{2};dots ;x_{n}end{bmatrix}}^{rm {T}}} and {displaystyle {boldsymbol {x}}^{H}} denotes its conjugate transpose.

This formula is valid for any inner product space, including Euclidean and complex spaces. For complex spaces, the inner product is equivalent to the complex dot product. Hence the formula in this case can also be written using the following notation:

{displaystyle |{boldsymbol {x}}|:={sqrt {{boldsymbol {x}}cdot {boldsymbol {x}}}}.}

Taxicab norm or Manhattan norm[edit]

{displaystyle |{boldsymbol {x}}|_{1}:=sum _{i=1}^{n}left|x_{i}right|.}

The name relates to the distance a taxi has to drive in a rectangular street grid (like that of the New York borough of Manhattan) to get from the origin to the point x.

The set of vectors whose 1-norm is a given constant forms the surface of a cross polytope of dimension equivalent to that of the norm minus 1.
The Taxicab norm is also called the ell ^{1} norm. The distance derived from this norm is called the Manhattan distance or ell _{1} distance.

The 1-norm is simply the sum of the absolute values of the columns.

In contrast,

{displaystyle sum _{i=1}^{n}x_{i}}

is not a norm because it may yield negative results.

p-norm[edit]

Let pgeq 1 be a real number.
The p-norm (also called {displaystyle ell _{p}}-norm) of vector {displaystyle mathbf {x} =(x_{1},ldots ,x_{n})} is[11]

{displaystyle |mathbf {x} |_{p}:=left(sum _{i=1}^{n}left|x_{i}right|^{p}right)^{1/p}.}

For {displaystyle p=1,} we get the taxicab norm, for p=2 we get the Euclidean norm, and as p approaches infty the p-norm approaches the infinity norm or maximum norm:

{displaystyle |mathbf {x} |_{infty }:=max _{i}left|x_{i}right|.}

The p-norm is related to the generalized mean or power mean.

For {displaystyle p=2,} the {displaystyle |,cdot ,|_{2}}-norm is even induced by a canonical inner product {displaystyle langle ,cdot ,,cdot rangle ,} meaning that {displaystyle |mathbf {x} |_{2}={sqrt {langle mathbf {x} ,mathbf {x} rangle }}} for all vectors {displaystyle mathbf {x} .} This inner product can be expressed in terms of the norm by using the polarization identity.
On {displaystyle ell ^{2},} this inner product is the Euclidean inner product defined by

{displaystyle langle left(x_{n}right)_{n},left(y_{n}right)_{n}rangle _{ell ^{2}}~=~sum _{n}{overline {x_{n}}}y_{n}}

while for the space L^{2}(X,mu ) associated with a measure space {displaystyle (X,Sigma ,mu ),} which consists of all square-integrable functions, this inner product is

{displaystyle langle f,grangle _{L^{2}}=int _{X}{overline {f(x)}}g(x),mathrm {d} x.}

This definition is still of some interest for {displaystyle 0<p<1,} but the resulting function does not define a norm,[14] because it violates the triangle inequality.
What is true for this case of {displaystyle 0<p<1,} even in the measurable analog, is that the corresponding L^{p} class is a vector space, and it is also true that the function

{displaystyle int _{X}|f(x)-g(x)|^{p}~mathrm {d} mu }

(without pth root) defines a distance that makes {displaystyle L^{p}(X)} into a complete metric topological vector space. These spaces are of great interest in functional analysis, probability theory and harmonic analysis.
However, aside from trivial cases, this topological vector space is not locally convex, and has no continuous non-zero linear forms. Thus the topological dual space contains only the zero functional.

The partial derivative of the p-norm is given by

{displaystyle {frac {partial }{partial x_{k}}}|mathbf {x} |_{p}={frac {x_{k}left|x_{k}right|^{p-2}}{|mathbf {x} |_{p}^{p-1}}}.}

The derivative with respect to x, therefore, is

{displaystyle {frac {partial |mathbf {x} |_{p}}{partial mathbf {x} }}={frac {mathbf {x} circ |mathbf {x} |^{p-2}}{|mathbf {x} |_{p}^{p-1}}}.}

where circ denotes Hadamard product and |cdot | is used for absolute value of each component of the vector.

For the special case of {displaystyle p=2,} this becomes

{displaystyle {frac {partial }{partial x_{k}}}|mathbf {x} |_{2}={frac {x_{k}}{|mathbf {x} |_{2}}},}

or

{displaystyle {frac {partial }{partial mathbf {x} }}|mathbf {x} |_{2}={frac {mathbf {x} }{|mathbf {x} |_{2}}}.}

Maximum norm (special case of: infinity norm, uniform norm, or supremum norm)[edit]

|x|_infty = 1

If mathbf {x} is some vector such that {displaystyle mathbf {x} =(x_{1},x_{2},ldots ,x_{n}),} then:

{displaystyle |mathbf {x} |_{infty }:=max left(left|x_{1}right|,ldots ,left|x_{n}right|right).}

The set of vectors whose infinity norm is a given constant, c, forms the surface of a hypercube with edge length {displaystyle 2c.}

Zero norm[edit]

In probability and functional analysis, the zero norm induces a complete metric topology for the space of measurable functions and for the F-space of sequences with F–norm {textstyle (x_{n})mapsto sum _{n}{2^{-n}x_{n}/(1+x_{n})}.}[15]
Here we mean by F-norm some real-valued function lVert cdot rVert on an F-space with distance d, such that {displaystyle lVert xrVert =d(x,0).} The F-norm described above is not a norm in the usual sense because it lacks the required homogeneity property.

Hamming distance of a vector from zero[edit]

In metric geometry, the discrete metric takes the value one for distinct points and zero otherwise. When applied coordinate-wise to the elements of a vector space, the discrete distance defines the Hamming distance, which is important in coding and information theory.
In the field of real or complex numbers, the distance of the discrete metric from zero is not homogeneous in the non-zero point; indeed, the distance from zero remains one as its non-zero argument approaches zero.
However, the discrete distance of a number from zero does satisfy the other properties of a norm, namely the triangle inequality and positive definiteness.
When applied component-wise to vectors, the discrete distance from zero behaves like a non-homogeneous «norm», which counts the number of non-zero components in its vector argument; again, this non-homogeneous «norm» is discontinuous.

In signal processing and statistics, David Donoho referred to the zero «norm« with quotation marks.
Following Donoho’s notation, the zero «norm» of x is simply the number of non-zero coordinates of x, or the Hamming distance of the vector from zero.
When this «norm» is localized to a bounded set, it is the limit of p-norms as p approaches 0.
Of course, the zero «norm» is not truly a norm, because it is not positive homogeneous.
Indeed, it is not even an F-norm in the sense described above, since it is discontinuous, jointly and severally, with respect to the scalar argument in scalar–vector multiplication and with respect to its vector argument.
Abusing terminology, some engineers[who?] omit Donoho’s quotation marks and inappropriately call the number-of-non-zeros function the L^0 norm, echoing the notation for the Lebesgue space of measurable functions.

Infinite dimensions[edit]

The generalization of the above norms to an infinite number of components leads to ell ^{p} and L^{p} spaces, with norms

{displaystyle |x|_{p}={bigg (}sum _{iin mathbb {N} }left|x_{i}right|^{p}{bigg )}^{1/p}{text{ and  }} |f|_{p,X}={bigg (}int _{X}|f(x)|^{p}~mathrm {d} x{bigg )}^{1/p}}

for complex-valued sequences and functions on {displaystyle Xsubseteq mathbb {R} ^{n}} respectively, which can be further generalized (see Haar measure).

Any inner product induces in a natural way the norm {textstyle |x|:={sqrt {langle x,xrangle }}.}

Other examples of infinite-dimensional normed vector spaces can be found in the Banach space article.

Composite norms[edit]

Other norms on mathbb {R} ^{n} can be constructed by combining the above; for example

{displaystyle |x|:=2left|x_{1}right|+{sqrt {3left|x_{2}right|^{2}+max(left|x_{3}right|,2left|x_{4}right|)^{2}}}}

is a norm on {displaystyle mathbb {R} ^{4}.}

For any norm and any injective linear transformation A we can define a new norm of x, equal to

{displaystyle |Ax|.}

In 2D, with A a rotation by 45° and a suitable scaling, this changes the taxicab norm into the maximum norm. Each A applied to the taxicab norm, up to inversion and interchanging of axes, gives a different unit ball: a parallelogram of a particular shape, size, and orientation.

In 3D, this is similar but different for the 1-norm (octahedrons) and the maximum norm (prisms with parallelogram base).

There are examples of norms that are not defined by «entrywise» formulas. For instance, the Minkowski functional of a centrally-symmetric convex body in mathbb {R} ^{n} (centered at zero) defines a norm on mathbb {R} ^{n} (see § Classification of seminorms: absolutely convex absorbing sets below).

All the above formulas also yield norms on {displaystyle mathbb {C} ^{n}} without modification.

There are also norms on spaces of matrices (with real or complex entries), the so-called matrix norms.

In abstract algebra[edit]

Let E be a finite extension of a field k of inseparable degree {displaystyle p^{mu },} and let k have algebraic closure K. If the distinct embeddings of E are {displaystyle left{sigma _{j}right}_{j},} then the Galois-theoretic norm of an element {displaystyle alpha in E} is the value {textstyle left(prod _{j}{sigma _{k}(alpha )}right)^{p^{mu }}.} As that function is homogeneous of degree {displaystyle [E:k]}, the Galois-theoretic norm is not a norm in the sense of this article. However, the {displaystyle [E:k]}-th root of the norm (assuming that concept makes sense) is a norm.[16]

Composition algebras[edit]

The concept of norm {displaystyle N(z)} in composition algebras does not share the usual properties of a norm as it may be negative or zero for {displaystyle zneq 0.} A composition algebra {displaystyle (A,{}^{*},N)} consists of an algebra over a field A, an involution {displaystyle {}^{*},} and a quadratic form {displaystyle N(z)=zz^{*}} called the «norm».

The characteristic feature of composition algebras is the homomorphism property of N: for the product {displaystyle wz} of two elements w and z of the composition algebra, its norm satisfies {displaystyle N(wz)=N(w)N(z).} For {displaystyle mathbb {R} ,} {displaystyle mathbb {C} ,} {displaystyle mathbb {H} ,} and O the composition algebra norm is the square of the norm discussed above. In those cases the norm is a definite quadratic form. In other composition algebras the norm is an isotropic quadratic form.

Properties[edit]

For any norm {displaystyle p:Xto mathbb {R} } on a vector space X, the reverse triangle inequality holds:

{displaystyle p(xpm y)geq |p(x)-p(y)|{text{ for all }}x,yin X.}

If u:Xto Y is a continuous linear map between normed spaces, then the norm of u and the norm of the transpose of u are equal.[17]

For the L^{p} norms, we have Hölder’s inequality[18]

{displaystyle |langle x,yrangle |leq |x|_{p}|y|_{q}qquad {frac {1}{p}}+{frac {1}{q}}=1.}

A special case of this is the Cauchy–Schwarz inequality:[18]

{displaystyle left|langle x,yrangle right|leq |x|_{2}|y|_{2}.}

Every norm is a seminorm and thus satisfies all properties of the latter. In turn, every seminorm is a sublinear function and thus satisfies all properties of the latter. In particular, every norm is a convex function.

Equivalence[edit]

The concept of unit circle (the set of all vectors of norm 1) is different in different norms: for the 1-norm, the unit circle is a square, for the 2-norm (Euclidean norm), it is the well-known unit circle, while for the infinity norm, it is a different square. For any p-norm, it is a superellipse with congruent axes (see the accompanying illustration). Due to the definition of the norm, the unit circle must be convex and centrally symmetric (therefore, for example, the unit ball may be a rectangle but cannot be a triangle, and pgeq 1 for a p-norm).

In terms of the vector space, the seminorm defines a topology on the space, and this is a Hausdorff topology precisely when the seminorm can distinguish between distinct vectors, which is again equivalent to the seminorm being a norm. The topology thus defined (by either a norm or a seminorm) can be understood either in terms of sequences or open sets. A sequence of vectors {v_{n}} is said to converge in norm to v, if {displaystyle left|v_{n}-vright|to 0} as n to infty. Equivalently, the topology consists of all sets that can be represented as a union of open balls. If (X, |cdot|) is a normed space then[19]
{displaystyle |x-y|=|x-z|+|z-y|{text{ for all }}x,yin X{text{ and }}zin [x,y].}

Two norms {displaystyle |cdot |_{alpha }} and {displaystyle |cdot |_{beta }} on a vector space X are called equivalent if they induce the same topology,[9] which happens if and only if there exist positive real numbers C and D such that for all xin X

{displaystyle C|x|_{alpha }leq |x|_{beta }leq D|x|_{alpha }.}

For instance, if {displaystyle p>rgeq 1} on {displaystyle mathbb {C} ^{n},} then[20]

{displaystyle |x|_{p}leq |x|_{r}leq n^{(1/r-1/p)}|x|_{p}.}

In particular,

{displaystyle |x|_{2}leq |x|_{1}leq {sqrt {n}}|x|_{2}}

{displaystyle |x|_{infty }leq |x|_{2}leq {sqrt {n}}|x|_{infty }}

{displaystyle |x|_{infty }leq |x|_{1}leq n|x|_{infty },}

That is,

{displaystyle |x|_{infty }leq |x|_{2}leq |x|_{1}leq {sqrt {n}}|x|_{2}leq n|x|_{infty }.}

If the vector space is a finite-dimensional real or complex one, all norms are equivalent. On the other hand, in the case of infinite-dimensional vector spaces, not all norms are equivalent.

Equivalent norms define the same notions of continuity and convergence and for many purposes do not need to be distinguished. To be more precise the uniform structure defined by equivalent norms on the vector space is uniformly isomorphic.

Classification of seminorms: absolutely convex absorbing sets[edit]

All seminorms on a vector space X can be classified in terms of absolutely convex absorbing subsets A of X. To each such subset corresponds a seminorm p_{A} called the gauge of A, defined as

{displaystyle p_{A}(x):=inf{rin mathbb {R} :r>0,xin rA}}

where {displaystyle inf _{}} is the infimum, with the property that

{displaystyle left{xin X:p_{A}(x)<1right}~subseteq ~A~subseteq ~left{xin X:p_{A}(x)leq 1right}.}

Conversely:

Any locally convex topological vector space has a local basis consisting of absolutely convex sets. A common method to construct such a basis is to use a family (p) of seminorms p that separates points: the collection of all finite intersections of sets {displaystyle {p<1/n}} turns the space into a locally convex topological vector space so that every p is continuous.

Such a method is used to design weak and weak* topologies.

norm case:

Suppose now that (p) contains a single {displaystyle p:} since (p) is separating, p is a norm, and {displaystyle A={p<1}} is its open unit ball. Then A is an absolutely convex bounded neighbourhood of 0, and {displaystyle p=p_{A}} is continuous.
The converse is due to Andrey Kolmogorov: any locally convex and locally bounded topological vector space is normable. Precisely:
If X is an absolutely convex bounded neighbourhood of 0, the gauge {displaystyle g_{X}} (so that {displaystyle X={g_{X}<1}} is a norm.

See also[edit]

  • Asymmetric norm – Generalization of the concept of a norm
  • F-seminorm – A topological vector space whose topology can be defined by a metric
  • Gowers norm
  • Kadec norm – All infinite-dimensional, separable Banach spaces are homeomorphic
  • Least-squares spectral analysis – Periodicity computation method
  • Mahalanobis distance – Statistical distance measure
  • Magnitude (mathematics) – mathematical concept related to comparison and ordering
  • Matrix norm – Norm on a vector space of matrices
  • Minkowski distance – distance between vectors or points computed as the pth root of the sum of pth powers of coordinate differences
  • Minkowski functional
  • Operator norm – Measure of the «size» of linear operators
  • Paranorm – A topological vector space whose topology can be defined by a metric
  • Relation of norms and metrics – Mathematical space with a notion of distance
  • Seminorm – nonnegative-real-valued function on a real or complex vector space that satisfies the triangle inequality and is absolutely homogenous
  • Sublinear function

References[edit]

  1. ^ a b Knapp, A.W. (2005). Basic Real Analysis. Birkhäuser. p. [1]. ISBN 978-0-817-63250-2.
  2. ^ «Pseudo-norm — Encyclopedia of Mathematics». encyclopediaofmath.org. Retrieved 2022-05-12.
  3. ^ «Pseudonorm». www.spektrum.de (in German). Retrieved 2022-05-12.
  4. ^ Hyers, D. H. (1939-09-01). «Pseudo-normed linear spaces and Abelian groups». Duke Mathematical Journal. 5 (3). doi:10.1215/s0012-7094-39-00551-x. ISSN 0012-7094.
  5. ^ Pugh, C.C. (2015). Real Mathematical Analysis. Springer. p. page 28. ISBN 978-3-319-17770-0. Prugovečki, E. (1981). Quantum Mechanics in Hilbert Space. p. page 20.
  6. ^ a b Kubrusly 2011, p. 200.
  7. ^ Rudin, W. (1991). Functional Analysis. p. 25.
  8. ^ Narici & Beckenstein 2011, pp. 120–121.
  9. ^ a b c Conrad, Keith. «Equivalence of norms» (PDF). kconrad.math.uconn.edu. Retrieved September 7, 2020.
  10. ^ Wilansky 2013, pp. 20–21.
  11. ^ a b c Weisstein, Eric W. «Vector Norm». mathworld.wolfram.com. Retrieved 2020-08-24.
  12. ^ Chopra, Anil (2012). Dynamics of Structures, 4th Ed. Prentice-Hall. ISBN 978-0-13-285803-8.
  13. ^ Weisstein, Eric W. «Norm». mathworld.wolfram.com. Retrieved 2020-08-24.
  14. ^ Except in {displaystyle mathbb {R} ^{1},} where it coincides with the Euclidean norm, and {displaystyle mathbb {R} ^{0},} where it is trivial.
  15. ^ Rolewicz, Stefan (1987), Functional analysis and control theory: Linear systems, Mathematics and its Applications (East European Series), vol. 29 (Translated from the Polish by Ewa Bednarczuk ed.), Dordrecht; Warsaw: D. Reidel Publishing Co.; PWN—Polish Scientific Publishers, pp. xvi, 524, doi:10.1007/978-94-015-7758-8, ISBN 90-277-2186-6, MR 0920371, OCLC 13064804
  16. ^ Lang, Serge (2002) [1993]. Algebra (Revised 3rd ed.). New York: Springer Verlag. p. 284. ISBN 0-387-95385-X.
  17. ^ Trèves 2006, pp. 242–243.
  18. ^ a b Golub, Gene; Van Loan, Charles F. (1996). Matrix Computations (Third ed.). Baltimore: The Johns Hopkins University Press. p. 53. ISBN 0-8018-5413-X.
  19. ^ Narici & Beckenstein 2011, pp. 107–113.
  20. ^ «Relation between p-norms». Mathematics Stack Exchange.

Bibliography[edit]

  • Bourbaki, Nicolas (1987) [1981]. Topological Vector Spaces: Chapters 1–5. Éléments de mathématique. Translated by Eggleston, H.G.; Madan, S. Berlin New York: Springer-Verlag. ISBN 3-540-13627-4. OCLC 17499190.
  • Khaleelulla, S. M. (1982). Counterexamples in Topological Vector Spaces. Lecture Notes in Mathematics. Vol. 936. Berlin, Heidelberg, New York: Springer-Verlag. ISBN 978-3-540-11565-6. OCLC 8588370.
  • Kubrusly, Carlos S. (2011). The Elements of Operator Theory (Second ed.). Boston: Birkhäuser Basel. ISBN 978-0-8176-4998-2. OCLC 710154895.
  • Narici, Lawrence; Beckenstein, Edward (2011). Topological Vector Spaces. Pure and applied mathematics (Second ed.). Boca Raton, FL: CRC Press. ISBN 978-1584888666. OCLC 144216834.
  • Schaefer, Helmut H.; Wolff, Manfred P. (1999). Topological Vector Spaces. GTM. Vol. 8 (Second ed.). New York, NY: Springer New York Imprint Springer. ISBN 978-1-4612-7155-0. OCLC 840278135.
  • Trèves, François (2006) [1967]. Topological Vector Spaces, Distributions and Kernels. Mineola, N.Y.: Dover Publications. ISBN 978-0-486-45352-1. OCLC 853623322.
  • Wilansky, Albert (2013). Modern Methods in Topological Vector Spaces. Mineola, New York: Dover Publications, Inc. ISBN 978-0-486-49353-4. OCLC 849801114.

У этого термина существуют и другие значения, см. норма.

Норма — понятие, обобщающее абсолютную величину (модуль) числа, а также длину вектора на случай элементов (векторов) линейного пространства.

Норма в векторном линейном пространстве {displaystyle L} над полем вещественных или комплексных чисел есть функция {displaystyle p:Lto mathbb {R} }, удовлетворяющая следующим условиям:

  1. {displaystyle p(x)geq 0}, причём {displaystyle ~p(x)=0} только при {displaystyle ~x=0};
  2. {displaystyle p(x+y)leq p(x)+p(y)} для всех {displaystyle x,yin L} (неравенство треугольника);
  3. {displaystyle ~p(alpha x)=|alpha |p(x)} для каждого скаляра {displaystyle ~alpha }.

Норма {displaystyle ~x} обычно обозначается {displaystyle |x|}. Линейное пространство с нормой называется нормированным пространством.

Примеры норм в линейных пространствах

Топология пространства и норма

Норма задаёт на пространстве топологию, базой которой являются всевозможные открытые шары, то есть множества вида {displaystyle B(x,epsilon )={ymid |x-y|<epsilon }}. Понятия сходимости, определённой на языке теоретико-множественной топологии в такой топологии и определённой на языке нормы, при этом совпадают.

Эквивалентность норм

Две нормы {displaystyle p} и {displaystyle q} на пространстве {displaystyle L} называются эквивалентными, если существует две положительные константы {displaystyle C_{1}} и {displaystyle C_{2}} такие, что для любого {displaystyle xin L} выполняется {displaystyle C_{1}p(x)leq q(x)leq C_{2}p(x)}. Эквивалентные нормы задают на пространстве одинаковую топологию. В конечномерном пространстве все нормы эквивалентны.

Операторная норма

Норма оператора {displaystyle A} — число, которое определяется, как:

{displaystyle |A|=sup _{|x|=1}|Ax|}.

где {displaystyle A} — оператор, действующий из нормированного пространства {displaystyle L} в нормированное пространство {displaystyle K}.
  • Свойства операторных норм:
  1. {displaystyle |A|geq 0}, причём {displaystyle |A|=0} только при {displaystyle A=0};
  2. {displaystyle |alpha A|=|alpha |cdot |A|};
  3. {displaystyle |A+B|leq |A|+|B|};
  4. {displaystyle |AB|leq |A|cdot |B|}.

Матричная норма

Нормой матрицы {displaystyle A} называется действительное число {displaystyle |A|}, удовлетворяющее первым трём из следующих условий:

  1. {displaystyle |A|geq 0}, причём {displaystyle |A|=0} только при {displaystyle A=0};
  2. {displaystyle |alpha A|=|alpha |cdot |A|};
  3. {displaystyle |A+B|leq |A|+|B|};
  4. {displaystyle |AB|leq |A|cdot |B|}.

Если выполняется также и четвёртое свойство, норма называется мультипликативной. Матричная норма, составленная как операторная, называется подчинённой по отношению к норме, использованной в пространствах векторов. Очевидно, что все подчинённые матричные нормы мультипликативны. Немультипликативные нормы для матриц являются простыми нормами, заданными в линейных пространствах матриц.

Виды матричных норм

  1. m-норма: {displaystyle |A|_{m}=max _{i}sum _{j}|a_{ij}|}
  2. l-норма: {displaystyle |A|_{l}=max _{j}sum _{i}|a_{ij}|}
  3. Евклидова норма: {displaystyle |A|_{E}={sqrt {sum _{i,j}|a_{ij}|^{2}}}}
  4. Сингулярная норма (подчинена евклидовой норме векторов): {displaystyle |A|_{2}=max _{i}sigma _{i}(A)}

ca:Norma (matemàtiques)
da:Norm (matematik)
he:נורמה (מתמטיקה)
nl:Norm (wiskunde)
pl:Norma (matematyka)
sv:Norm (matematik)
ur:امثولہ (ریاضی)

Норма алгебраического числа — теоретико-числовая функция, норма, определённая в конечном алгебраическом расширении поля. Норма алгебраического числа равна произведению всех корней минимального многочлена данного числа. Норма отображает кольцо целых элементов расширения поля в кольцо целых элементов поля. Часто в качестве поля берется поле рациональных чисел mathbb{Q}~, а значит в качестве кольца его целых элементов берется кольцо целых чисел mathbb{Z}~.

Содержание

  • 1 Свойства
  • 2 Примеры
    • 2.1 Норма в кольце гауссовых целых чисел
    • 2.2 Норма в действительном квадратичной расширении кольца целых чисел
  • 3 Применение
  • 4 Литература

Свойства

  • Норма — мультипликативная функция.
  • Норма отображает обратимые элементы кольца в обратимые элементы кольца.
  • Норма сохраняет отношение делимости элементов кольца, в частности, норма простого элемента кольца равна простому элементу кольца

Примеры

Норма в кольце гауссовых целых чисел

Поле mathbb{Q}[i]~ — расширение поля рациональных чисел, кольцо его целых элементов — это кольцо гауссовых целых чисел K=mathbb{Z}[i]~ чисел вида a+bi, a,b inmathbb{Z}~. Норма определяется как N(a+bi)=a^2+b^2~. Для данной нормы a^2+b^2~ — простое число в mathbb{Z}~ тогда и только тогда, когда a+bi~ — простой элемент кольца mathbb{Z}[i]~. Таким образом, в mathbb{Z}[i]~ 2 и все простые числа вида p=4k+1~ разложимы в mathbb{Z}[i]~, а простые вида p=4k+3~ — неразложимы, поэтому N(p)=p^2~.

Множество обратимых элементов кольца mathbb{Z}[i]~ состоит из 4-х элементов: {1,-1,i,-i}~, норма только этих элементов равна 1.

Норма в действительном квадратичной расширении кольца целых чисел

Если d>1~ — натуральное число, свободное от квадратов, то mathbb{Z}[sqrt{d}]~ — действительное квадратичное расширение кольца степени 2, его элементы имеют вид a+bsqrt{d},a,binmathbb{Z}~. Норма в mathbb{Z}[sqrt{d}]~ определяется как N(a+bsqrt{d})=a^2-db^2~. Множество обратимых элементов кольца mathbb{Z}[sqrt{d}]~ состоит из бесконечного множества элементов — всех решений уравнения Пелля a^2-db^2=1~.

Применение

Норма применяется для решения диофантовых уравнений. Если уравнение имеет вид F(x_1,ldots ,x_n)=A~, где F — норма N некоторого кольца алгебраических чисел K, а alphain K~ — элемент кольца, определенный энкой (x_1,ldots ,x_n)~, то для решения уравнения достаточно найти хотя бы одно решение уравнения N(alpha)=A~ и все обратимые элементы кольца N(varepsilon)=1~. Так могут быть решены обобщенные уравнения Пелля вида a^2-db^2=A~.

Норма может применятся для исследования простых элементов колец алгебраических чисел и простых элементов кольца mathbb{Z}~.

Литература

  • Боревич З.И. Шафаревич И.Р. Теория чисел. — ФизМатЛит, 1985.
  • Постников М.М. Высшая геометрия. — ФизМатЛит, 1982.

Понравилась статья? Поделить с друзьями:
  • Sorry unable to map your existing skeleton mixamo как исправить
  • Как исправить текст в ворде при печати
  • Как составить план рабочего дня образец
  • Как найти секс парню в интернете
  • Как найти бабу маню