Переходные вероятности. Матрица перехода.
Переходной
вероятностью
называют
условную вероятность того, что из
состояния
в итоге следующего испытания система
перейдет в состояние
.
Таким образом, индекс
относится к предшествующему, а
— к последующему состоянию.
Будем считать, что
число состояний конечно и равно k.
Матрицей
перехода
системы называют матрицу, которая
содержит все переходные вероятности
этой системы:
,
где
представляют вероятности перехода за
один шаг.
Отметим некоторые
особенности матрицы перехода.
-
Элементы
каждой строки матрицы представляют
собой вероятности всех возможных
переходов за один шаг из выбранного
состояния, в том числе и вероятность
отсутствия перехода (элемент строки с
равными индексами) -
Элементы
столбцов задают вероятности всех
переходов системы за один шаг в заданное
состояние -
Так
как в каждой строке матрицы помещены
вероятности событий (т.е. вероятности
перехода из состоянияв любое возможное состояние
),
которые образуют полную группу, то
сумма вероятностей этих событий равна
единице:
-
По
главной диагонали матрицы перехода
стоят вероятности
того, что система не выйдет из состояния,
а останется в нем.
Равенство Маркова
Обозначим через
вероятность того, что в результате n
шагов (испытаний) система перейдет из
состояния
в состояние
.
Например,
—
вероятность перехода за 10 шагов из
третьего состояния в шестое. Отметим,
что при n
= 1 эта вероятность сводится просто к
переходной вероятности
.
Возникает вопрос,
как, зная переходные вероятности
,
найти вероятности перехода состояния
в состояние
за n
шагов. С этой целью вводится в рассмотрение
промежуточное (между
и
) состояние r.
Другими словами, полагают, что из
первоначального состояния
за m
шагов система перейдет в промежуточное
состояние r
с вероятностью
,
после чего за оставшиеся n
– m
шагов из промежуточного состояния r
она перейдет в конечное состояние
с вероятностью
.
Используя формулу полной вероятности,
можно показать, что справедлива формула
Эту формулу называют
равенством
Маркова.
Зная все переходные
вероятности
,
т.е. зная матрицу перехода
из состояния в состояние за один шаг,
можно найти вероятности
перехода из состояние в состояние за
два шага, а значит, и саму матрицу перехода
,
далее – по известной матрице
— найти
и т.д.
Действительно,
полагая в равенстве Маркова n
= 2, m
= 1 получим
или
.
В матричном виде это можно записать как
.
Полагая n=3,
m
=2, получим
.
В общем случае справедливо соотношение
.
Пример.
Пусть матрица перехода
равна
Требуется найти
матрицу перехода
.
Умножая матрицу
саму на себя, получим
.
Для
практических применений чрезвычайно
важным является вопрос о расчете
вероятности
нахождения системы
в том или ином состоянии в конкретный
момент времени.
Решение этого вопроса требует знания
начальных условий, т.е. вероятностей
нахождения системы в определенных
состояниях в начальный момент времени.
Начальным распределением вероятностей
марковской цепи называется распределение
вероятностей состояний в начале процесса
.
Здесь через
обозначена вероятность нахождения
системы в состоянии
в начальный момент времени. В частном
случае, если начальное состояние системы
в точности известно (например
),
то начальная вероятность
,
а все остальные равны нулю.
Если
для однородной цепи Маркова заданы
начальное распределение вероятностей
и матрица перехода, то вероятности
состояний системы на n-м
шаге
вычисляются
по рекуррентной формуле
.
Для иллюстрации
приведем простой пример. Рассмотрим
процесс функционирования некоторой
системы (например, прибора). Пусть прибор
в течение одних суток может находиться
в одном из двух состояний – исправном
(
)
и неисправном (
).
В результате массовых наблюдений за
работой прибора составлена следующая
матрица перехода
,
где
— вероятность того, что прибор останется
в исправном состоянии;
—
вероятность перехода прибора из
исправного в неисправное состояние;
—
вероятность перехода прибора из
неисправного в исправное состояние;
—
вероятность того, что прибор останется
в состоянии «неисправен».
Пусть вектор
начальных вероятностей состояний
прибора задан соотношением
,
т.е.
(в начальный момент прибор был
неисправен). Требуется определить
вероятности состояния прибора через
трое суток.
Решение:
Используя матрицу перехода, определим
вероятности состояний после первого
шага (после первых суток):
.
Вероятности
состояний после второго шага (вторых
суток) равны
Наконец,
вероятности состояний после третьего
шага (третьих суток) равны
.
Таким образом,
вероятность того, что прибор будет
находиться в исправном состоянии равна
0,819, и того, что в неисправном –
соответственно 0,181.
Соседние файлы в предмете [НЕСОРТИРОВАННОЕ]
- #
- #
- #
- #
- #
- #
- #
- #
- #
- #
- #
В 1998 году Лоуренс Пейдж, Сергей Брин, Раджив Мотвани и Терри Виноград опубликовали статью «The PageRank Citation Ranking: Bringing Order to the Web», в которой описали знаменитый теперь алгоритм PageRank, ставший фундаментом Google. Спустя чуть менее двух десятков лет Google стал гигантом, и даже несмотря на то, что его алгоритм сильно эволюционировал, PageRank по-прежнему является «символом» алгоритмов ранжирования Google (хотя только немногие люди могут действительно сказать, какой вес он сегодня занимает в алгоритме).
С теоретической точки зрения интересно заметить, что одна из стандартных интерпретаций алгоритма PageRank основывается на простом, но фундаментальном понятии цепей Маркова. Из статьи мы увидим, что цепи Маркова — это мощные инструменты стохастического моделирования, которые могут быть полезны любому эксперту по аналитическим данным (data scientist). В частности, мы ответим на такие базовые вопросы: что такое цепи Маркова, какими хорошими свойствами они обладают, и что с их помощью можно делать?
Краткий обзор
В первом разделе мы приведём базовые определения, необходимые для понимания цепей Маркова. Во втором разделе мы рассмотрим особый случай цепей Маркова в конечном пространстве состояний. В третьем разделе мы рассмотрим некоторые из элементарных свойств цепей Маркова и проиллюстрируем эти свойства на множестве мелких примеров. Наконец, в четвёртом разделе мы свяжем цепи Маркова с алгоритмом PageRank и увидим на искусственном примере, как цепи Маркова можно применять для ранжирования узлов графа.
Примечание. Для понимания этого поста необходимы знания основ вероятностей и линейной алгебры. В частности, будут использованы следующие понятия: условная вероятность, собственный вектор и формула полной вероятности.
Что такое цепи Маркова?
Случайные переменные и случайные процессы
Прежде чем вводить понятие цепей Маркова, давайте вкратце вспомним базовые, но важные понятия теории вероятностей.
Во-первых, вне языка математики случайной величиной X считается величина, которая определяется результатом случайного явления. Его результатом может быть число (или «подобие числа», например, векторы) или что-то иное. Например, мы можем определить случайную величину как результат броска кубика (число) или же как результат бросания монетки (не число, если только мы не обозначим, например, «орёл» как 0, а «решку» как 1). Также упомянем, что пространство возможных результатов случайной величины может быть дискретным или непрерывным: например, нормальная случайная величина непрерывна, а пуассоновская случайная величина дискретна.
Далее мы можем определить случайный процесс (также называемый стохастическим) как набор случайных величин, проиндексированных множеством T, которое часто обозначает разные моменты времени (в дальнейшем мы будем считать так). Два самых распространённых случая: T может быть или множеством натуральных чисел (случайный процесс с дискретным временем), или множеством вещественных чисел (случайный процесс с непрерывным временем). Например, если мы будем бросать монетку каждый день, то зададим случайный процесс с дискретным временем, а постоянно меняющаяся стоимость опциона на бирже задаёт случайный процесс с непрерывным временем. Случайные величины в разные моменты времени могут быть независимыми друг от друга (пример с подбрасыванием монетки), или иметь некую зависимость (пример со стоимостью опциона); кроме того, они могут иметь непрерывное или дискретное пространство состояний (пространство возможных результатов в каждый момент времени).
Разные виды случайных процессов (дискретные/непрерывные в пространстве/времени).
Марковское свойство и цепь Маркова
Существуют хорошо известные семейства случайных процессов: гауссовы процессы, пуассоновские процессы, авторегрессивные модели, модели скользящего среднего, цепи Маркова и другие. Каждое из этих отдельных случаев имеет определённые свойства, позволяющие нам лучше исследовать и понимать их.
Одно из свойств, сильно упрощающее исследование случайного процесса — это «марковское свойство». Если объяснять очень неформальным языком, то марковское свойство сообщает нам, что если мы знаем значение, полученное каким-то случайным процессом в заданный момент времени, то не получим никакой дополнительной информации о будущем поведении процесса, собирая другие сведения о его прошлом. Более математическим языком: в любой момент времени условное распределение будущих состояний процесса с заданными текущим и прошлыми состояниями зависит только от текущего состояния, но не от прошлых состояний (свойство отсутствия памяти). Случайный процесс с марковским свойством называется марковским процессом.
Марковское свойство обозначает, что если мы знаем текущее состояние в заданный момент времени, то нам не нужна никакая дополнительная информация о будущем, собираемая из прошлого.
На основании этого определения мы можем сформулировать определение «однородных цепей Маркова с дискретным временем» (в дальнейшем для простоты мы их будем называть «цепями Маркова»). Цепь Маркова — это марковский процесс с дискретным временем и дискретным пространством состояний. Итак, цепь Маркова — это дискретная последовательность состояний, каждое из которых берётся из дискретного пространства состояний (конечного или бесконечного), удовлетворяющее марковскому свойству.
Математически мы можем обозначить цепь Маркова так:
где в каждый момент времени процесс берёт свои значения из дискретного множества E, такого, что
Тогда марковское свойство подразумевает, что у нас есть
Снова обратите внимание, что эта последняя формула отражает тот факт, что для хронологии (где я нахожусь сейчас и где я был раньше) распределение вероятностей следующего состояния (где я буду дальше) зависит от текущего состояния, но не от прошлых состояний.
Примечание. В этом ознакомительном посте мы решили рассказать только о простых однородных цепях Маркова с дискретным временем. Однако существуют также неоднородные (зависящие от времени) цепи Маркова и/или цепи с непрерывным временем. В этой статье мы не будем рассматривать такие вариации модели. Стоит также заметить, что данное выше определение марковского свойства чрезвычайно упрощено: в истинном математическом определении используется понятие фильтрации, которое выходит далеко за пределы нашего вводного знакомства с моделью.
Характеризуем динамику случайности цепи Маркова
В предыдущем подразделе мы познакомились с общей структурой, соответствующей любой цепи Маркова. Давайте посмотрим, что нам нужно, чтобы задать конкретный «экземпляр» такого случайного процесса.
Сначала заметим, что полное определение характеристик случайного процесса с дискретным временем, не удовлетворяющего марковскому свойству, может быть сложным занятием: распределение вероятностей в заданный момент времени может зависеть от одного или нескольких моментов в прошлом и/или будущем. Все эти возможные временные зависимости потенциально могут усложнить создание определения процесса.
Однако благодаря марковскому свойству динамику цепи Маркова определить довольно просто. И в самом деле. нам нужно определить только два аспекта: исходное распределение вероятностей (то есть распределение вероятностей в момент времени n=0), обозначаемое
и матрицу переходных вероятностей (которая даёт нам вероятности того, что состояние в момент времени n+1 является последующим для другого состояния в момент n для любой пары состояний), обозначаемую
Если два этих аспекта известны, то полная (вероятностная) динамика процесса чётко определена. И в самом деле, вероятность любого результата процесса тогда можно вычислить циклически.
Пример: допустим, мы хотим знать вероятность того, что первые 3 состояния процесса будут иметь значения (s0, s1, s2). То есть мы хотим вычислить вероятность
Здесь мы применяем формулу полной вероятности, гласящую, что вероятность получения (s0, s1, s2) равна вероятности получения первого s0, умноженного на вероятность получения s1 с учётом того, что ранее мы получили s0, умноженного на вероятность получения s2 с учётом того, что мы получили ранее по порядку s0 и s1. Математически это можно записать как
И затем проявляется упрощение, определяемое марковским допущением. И в самом деле, в случае длинных цепей мы получим для последних состояний сильно условные вероятности. Однако в случае цепей Маркова мы можем упростить это выражение, воспользовавшись тем, что
получив таким образом
Так как они полностью характеризуют вероятностную динамику процесса, многие сложные события можно вычислить только на основании исходного распределения вероятностей q0 и матрицы переходной вероятности p. Стоит также привести ещё одну базовую связь: выражение распределения вероятностей во время n+1, выраженное относительно распределения вероятностей во время n
Цепи Маркова в конечных пространствах состояний
Представление в виде матриц и графов
Здесь мы допустим, что во множестве E есть конечное количество возможных состояний N:
Тогда исходное распределение вероятностей можно описать как вектор-строку q0 размером N, а переходные вероятности можно описать как матрицу p размером N на N, такую что
Преимущество такой записи заключается в том, что если мы обозначим распределение вероятностей на шаге n вектором-строкой qn, таким что его компоненты задаются
тогда простые матричные связи при этом сохраняются
(здесь мы не будем рассматривать доказательство, но воспроизвести его очень просто).
Если умножить справа вектор-строку, описывающий распределение вероятностей на заданном этапе времени, на матрицу переходных вероятностей, то мы получим распределение вероятностей на следующем этапе времени.
Итак, как мы видим, переход распределения вероятностей из заданного этапа в последующий определяется просто как умножение справа вектора-строки вероятностей исходного шага на матрицу p. Кроме того, это подразумевает, что у нас есть
Динамику случайности цепи Маркова в конечном пространстве состояний можно с лёгкостью представить как нормированный ориентированный граф, такой что каждый узел графа является состоянием, а для каждой пары состояний (ei, ej) существует ребро, идущее от ei к ej, если p(ei,ej)>0. Тогда значение ребра будет той же вероятностью p(ei,ej).
Пример: читатель нашего сайта
Давайте проиллюстрируем всё это простым примером. Рассмотрим повседневное поведение вымышленного посетителя сайта. В каждый день у него есть 3 возможных состояния: читатель не посещает сайт в этот день (N), читатель посещает сайт, но не читает пост целиком (V) и читатель посещает сайт и читает один пост целиком (R ). Итак, у нас есть следующее пространство состояний:
Допустим, в первый день этот читатель имеет вероятность 50% только зайти на сайт и вероятность 50% посетить сайт и прочитать хотя бы одну статью. Вектор, описывающий исходное распределение вероятностей (n=0) тогда выглядит так:
Также представим, что наблюдаются следующие вероятности:
- когда читатель не посещает один день, то имеет вероятность 25% не посетить его и на следующий день, вероятность 50% только посетить его и 25% — посетить и прочитать статью
- когда читатель посещает сайт один день, но не читает, то имеет вероятность 50% снова посетить его на следующий день и не прочитать статью, и вероятность 50% посетить и прочитать
- когда читатель посещает и читает статью в один день, то имеет вероятность 33% не зайти на следующий день (надеюсь, этот пост не даст такого эффекта!), вероятность 33% только зайти на сайт и 34% — посетить и снова прочитать статью
Тогда у нас есть следующая переходная матрица:
Из предыдущего подраздела мы знаем как вычислить для этого читателя вероятность каждого состояния на следующий день (n=1)
Вероятностную динамику этой цепи Маркова можно графически представить так:
Представление в виде графа цепи Маркова, моделирующей поведение нашего придуманного посетителя сайта.
Свойства цепей Маркова
В этом разделе мы расскажем только о некоторых самых базовых свойствах или характеристиках цепей Маркова. Мы не будем вдаваться в математические подробности, а представим краткий обзор интересных моментов, которые необходимо изучить для использования цепей Маркова. Как мы видели, в случае конечного пространства состояний цепь Маркова можно представить в виде графа. В дальнейшем мы будем использовать графическое представление для объяснения некоторых свойств. Однако не стоит забывать, что эти свойства необязательно ограничены случаем конечного пространства состояний.
Разложимость, периодичность, невозвратность и возвратность
В этом подразделе давайте начнём с нескольких классических способов характеризации состояния или целой цепи Маркова.
Во-первых, мы упомянем, что цепь Маркова неразложима, если можно достичь любого состояния из любого другого состояния (необязательно, что за один шаг времени). Если пространство состояний конечно и цепь можно представить в виде графа, то мы можем сказать, что граф неразложимой цепи Маркова сильно связный (теория графов).
Иллюстрация свойства неразложимости (несокращаемости). Цепь слева нельзя сократить: из 3 или 4 мы не можем попасть в 1 или 2. Цепь справа (добавлено одно ребро) можно сократить: каждого состояния можно достичь из любого другого.
Состояние имеет период k, если при уходе из него для любого возврата в это состояние нужно количество этапов времени, кратное k (k — наибольший общий делитель всех возможных длин путей возврата). Если k = 1, то говорят, что состояние является апериодическим, а вся цепь Маркова является апериодической, если апериодичны все её состояния. В случае неприводимой цепи Маркова можно также упомянуть, что если одно состояние апериодическое, то и все другие тоже являются апериодическими.
Иллюстрация свойства периодичности. Цепь слева периодична с k=2: при уходе из любого состояния для возврата в него всегда требуется количество шагов, кратное 2. Цепь справа имеет период 3.
Состояние является невозвратным, если при уходе из состояния существует ненулевая вероятность того, что мы никогда в него не вернёмся. И наоборот, состояние считается возвратным, если мы знаем, что после ухода из состояния можем в будущем вернуться в него с вероятностью 1 (если оно не является невозвратным).
Иллюстрация свойства возвратности/невозвратности. Цепь слева имеет такие свойства: 1, 2 и 3 невозвратны (при уходе из этих точек мы не можем быть абсолютно уверены, что вернёмся в них) и имеют период 3, а 4 и 5 возвратны (при уходе из этих точек мы абсолютно уверены, что когда-нибудь к ним вернёмся) и имеют период 2. Цепь справа имеет ещё одно ребро, делающее всю цепь возвратной и апериодической.
Для возвратного состояния мы можем вычислить среднее время возвратности, которое является ожидаемым временем возврата при покидании состояния. Заметьте, что даже вероятность возврата равна 1, то это не значит, что ожидаемое время возврата конечно. Поэтому среди всех возвратных состояний мы можем различать положительные возвратные состояния (с конечным ожидаемым временем возврата) и нулевые возвратные состояния (с бесконечным ожидаемым временем возврата).
Стационарное распределение, предельное поведение и эргодичность
В этом подразделе мы рассмотрим свойства, характеризующие некоторые аспекты (случайной) динамики, описываемой цепью Маркова.
Распределение вероятностей π по пространству состояний E называют стационарным распределением, если оно удовлетворяет выражению
Так как у нас есть
Тогда стационарное распределение удовлетворяет выражению
По определению, стационарное распределение вероятностей со временем не изменяется. То есть если исходное распределение q является стационарным, тогда оно будет одинаковых на всех последующих этапах времени. Если пространство состояний конечно, то p можно представить в виде матрицы, а π — в виде вектора-строки, и тогда мы получим
Это снова выражает тот факт, что стационарное распределение вероятностей со временем не меняется (как мы видим, умножение справа распределения вероятностей на p позволяет вычислить распределение вероятностей на следующем этапе времени). Учтите, что неразложимая цепь Маркова имеет стационарное распределение вероятностей тогда и только тогда, когда одно из её состояний является положительным возвратным.
Ещё одно интересное свойство, связанное с стационарным распределением вероятностей, заключается в следующем. Если цепь является положительной возвратной (то есть в ней существует стационарное распределение) и апериодической, тогда, какими бы ни были исходные вероятности, распределение вероятностей цепи сходится при стремлении интервалов времени к бесконечности: говорят, что цепь имеет предельное распределение, что является ничем иным, как стационарным распределением. В общем случае его можно записать так:
Ещё раз подчеркнём тот факт, что мы не делаем никаких допущений об исходном распределении вероятностей: распределение вероятностей цепи сводится к стационарному распределению (равновесному распределению цепи) вне зависимости от исходных параметров.
Наконец, эргодичность — это ещё одно интересное свойство, связанное с поведением цепи Маркова. Если цепь Маркова неразложима, то также говорится, что она «эргодическая», потому что удовлетворяет следующей эргодической теореме. Допустим, у нас есть функция f(.), идущая от пространства состояний E к оси (это может быть, например, цена нахождения в каждом состоянии). Мы можем определить среднее значение, перемещающее эту функцию вдоль заданной траектории (временное среднее). Для n-ных первых членов это обозначается как
Также мы можем вычислить среднее значение функции f на множестве E, взвешенное по стационарному распределению (пространственное среднее), которое обозначается
Тогда эргодическая теорема говорит нам, что когда траектория становится бесконечно длинной, временное среднее равно пространственному среднему (взвешенному по стационарному распределению). Свойство эргодичности можно записать так:
Иными словами, оно обозначает, что в пределе ранее поведение траектории становится несущественным и при вычислении временного среднего важно только долговременное стационарное поведение.
Вернёмся к примеру с читателем сайта
Снова рассмотрим пример с читателем сайта. В этом простом примере очевидно, что цепь неразложима, апериодична и все её состояния положительно возвратны.
Чтобы показать, какие интересные результаты можно вычислить с помощью цепей Маркова, мы рассмотрим среднее время возвратности в состояние R (состояние «посещает сайт и читает статью»). Другими словами, мы хотим ответить на следующий вопрос: если наш читатель в один день заходит на сайт и читает статью, то сколько дней нам придётся ждать в среднем того, что он снова зайдёт и прочитает статью? Давайте попробуем получить интуитивное понятие о том, как вычисляется это значение.
Сначала мы обозначим
Итак, мы хотим вычислить m(R,R). Рассуждая о первом интервале, достигнутом после выхода из R, мы получим
Однако это выражение требует, чтобы для вычисления m(R,R) мы знали m(N,R) и m(V,R). Эти две величины можно выразить аналогичным образом:
Итак, у нас получилось 3 уравнения с 3 неизвестными и после их решения мы получим m(N,R) = 2.67, m(V,R) = 2.00 и m(R,R) = 2.54. Значение среднего времени возвращения в состояние R тогда равно 2.54. То есть с помощью линейной алгебры нам удалось вычислить среднее время возвращения в состояние R (а также среднее время перехода из N в R и среднее время перехода из V в R).
Чтобы закончить с этим примером, давайте посмотрим, каким будет стационарное распределение цепи Маркова. Чтобы определить стационарное распределение, нам нужно решить следующее уравнение линейной алгебры:
То есть нам нужно найти левый собственный вектор p, связанный с собственным вектором 1. Решая эту задачу, мы получаем следующее стационарное распределение:
Стационарное распределение в примере с читателем сайта.
Можно также заметить, что π( R ) = 1/m(R,R), и если немного поразмыслить, то это тождество довольно логично (но подробно об этом мы говорить не будем).
Поскольку цепь неразложима и апериодична, это означает, что в длительной перспективе распределение вероятностей сойдётся к стационарному распределению (для любых исходных параметров). Иными словами, каким бы ни было исходное состояние читателя сайта, если мы подождём достаточно долго и случайным образом выберем день, то получим вероятность π(N) того, что читатель не зайдёт на сайт в этот день, вероятность π(V) того, что читатель зайдёт, но не прочитает статью, и вероятность π® того, что читатель зайдёт и прочитает статью. Чтобы лучше уяснить свойство сходимости, давайте взглянем на следующий график, показывающий эволюцию распределений вероятностей, начинающихся с разных исходных точек и (быстро) сходящихся к стационарному распределению:
Визуализация сходимости 3 распределений вероятностей с разными исходными параметрами (синяя, оранжевая и зелёная) к стационарному распределению (красная).
Классический пример: алгоритм PageRank
Настало время вернуться к PageRank! Но прежде чем двигаться дальше, стоит упомянуть, что интерпретация PageRank, данная в этой статье, не единственно возможная, и авторы оригинальной статьи при разработке методики не обязательно рассчитывали на применение цепей Маркова. Однако наша интерпретация хороша тем, что очень понятна.
Произвольный веб-пользователь
PageRank пытается решить следующую задачу: как нам ранжировать имеющееся множество (мы можем допустить, что это множество уже отфильтровано, например, по какому-то запросу) с помощью уже существующих между страницами ссылок?
Чтобы решить эту задачу и иметь возможность отранжировать страницы, PageRank приблизительно выполняет следующий процесс. Мы считаем, что произвольный пользователь Интернета в исходный момент времени находится на одной из страниц. Затем этот пользователь начинает случайным образом начинает перемещаться, щёлкая на каждой странице по одной из ссылок, которые ведут на другую страницу рассматриваемого множества (предполагается, что все ссылки, ведущие вне этих страниц, запрещены). На любой странице все допустимые ссылки имеют одинаковую вероятность нажатия.
Так мы задаём цепь Маркова: страницы — это возможные состояния, переходные вероятности задаются ссылками со страницы на страницу (взвешенными таким образом, что на каждой странице все связанные страницы имеют одинаковую вероятность выбора), а свойства отсутствия памяти чётко определяются поведением пользователя. Если также предположить, что заданная цепь положительно возвратная и апериодичная (для удовлетворения этим требованиям применяются небольшие хитрости), тогда в длительной перспективе распределение вероятностей «текущей страницы» сходится к стационарному распределению. То есть какой бы ни была начальная страница, спустя длительное время каждая страница имеет вероятность (почти фиксированную) стать текущей, если мы выбираем случайный момент времени.
В основе PageRank лежит такая гипотеза: наиболее вероятные страницы в стационарном распределении должны быть также и самыми важными (мы посещаем эти страницы часто, потому что они получают ссылки со страниц, которые в процессе переходов тоже часто посещаются). Тогда стационарное распределение вероятностей определяет для каждого состояния значение PageRank.
Искусственный пример
Чтобы это стало намного понятнее, давайте рассмотрим искусственный пример. Предположим, что у нас есть крошечный веб-сайт с 7 страницами, помеченными от 1 до 7, а ссылки между этими страницами соответствуют следующему графу.
Ради понятности вероятности каждого перехода в показанной выше анимации не показаны. Однако поскольку подразумевается, что «навигация» должна быть исключительно случайной (это называют «случайным блужданием»), то значения можно легко воспроизвести из следующего простого правила: для узла с K исходящими ссылками (странице с K ссылками на другие страницы) вероятность каждой исходящей ссылки равна 1/K. То есть переходная матрица вероятностей имеет вид:
где значения 0.0 заменены для удобства на «.». Прежде чем выполнять дальнейшие вычисления, мы можем заметить, что эта цепь Маркова является неразложимой и апериодической, то есть в длительной перспективе система сходится к стационарному распределению. Как мы видели, можно вычислить это стационарное распределение, решив следующую левую задачу собственного вектора
Сделав так, мы получим следующие значения PageRank (значения стационарного распределения) для каждой страницы
Значения PageRank, вычисленные для нашего искусственного примера из 7 страниц.
Тогда ранжирование PageRank этого крошечного веб-сайта имеет вид 1 > 7 > 4 > 2 > 5 = 6 > 3.
Выводы
Основные выводы из этой статьи:
- случайные процессы — это наборы случайных величин, часто индексируемые по времени (индексы часто обозначают дискретное или непрерывное время)
- для случайного процесса марковское свойство означает, что при заданном текущем вероятность будущего не зависит от прошлого (это свойство также называется «отсутствием памяти»)
- цепь Маркова с дискретным временем — это случайные процессы с индексами дискретного времени, удовлетворяющие марковскому свойству
- марковское свойство цепей Маркова сильно облегчает изучение этих процессов и позволяет вывести различные интересные явные результаты (среднее время возвратности, стационарное распределение…)
- одна из возможных интерпретаций PageRank (не единственная) заключается в имитации веб-пользователя, случайным образом перемещающегося от страницы к странице; при этом показателем ранжирования становится индуцированное стационарное распределение страниц (грубо говоря, на самые посещаемые страницы в устоявшемся состоянии должны ссылаться другие часто посещаемые страницы, а значит, самые посещаемые должны быть наиболее релевантными)
В заключение ещё раз подчеркнём, насколько мощным инструментом являются цепи Маркова при моделировании задач, связанных со случайной динамикой. Благодаря их хорошим свойствам они используются в различных областях, например, в теории очередей (оптимизации производительности телекоммуникационных сетей, в которых сообщения часто должны конкурировать за ограниченные ресурсы и ставятся в очередь, когда все ресурсы уже заняты), в статистике (хорошо известные методы Монте-Карло по схеме цепи Маркова для генерации случайных переменных основаны на цепях Маркова), в биологии (моделирование эволюции биологических популяций), в информатике (скрытые марковские модели являются важными инструментами в теории информации и распознавании речи), а также в других сферах.
Разумеется, огромные возможности, предоставляемые цепями Маркова с точки зрения моделирования и вычислений, намного шире, чем рассмотренные в этом скромном обзоре. Поэтому мы надеемся, что нам удалось пробудить у читателя интерес к дальнейшему изучению этих инструментов, которые занимают важное место в арсенале учёного и эксперта по данным.
Цепи Маркова. Переходные вероятности
Лучшее спасибо — порекомендовать эту страницу
Примеры решений
Задача 1. Для заданной матрицы переходных вероятностей Р найти вероятности перехода за 2 шага и стационарные вероятности, если они существуют.
Задача 2. Задана матрица $P_1$ вероятностей перехода дискретной цепи Маркова из состояния $i (i=1,2)$ в состояние $j (j=1,2)$ за один шаг. Распределение вероятностей по состояниям в момент $t=0$ определяется вектором $bar{q}$. Найти:
1) матрицу $P_2$ перехода из состояния $i$ в состояние $j$ за два шага;
2) распределение вероятностей по состояниям в момент $t=2$;
3) вероятность того, что в момент $t=1$ состоянием цепи будет $i=2$;
4) стационарное распределение.
Задача 3. В заданной матрице $L$ элемент $lambda_{ij}$ есть интенсивность случайного пуассоновского процесса переходов из состояния $i$ в состояние $j$ (размерность кол-во переходов в единицу времени).
А) построить граф переходов между состояниями, ребра которого помечены соответствующими интенсивностями переходов.
Б) написать систему уравнений для определения предельных вероятностей различных состояний.
В) решить эту систему уравнений, найти предельную вероятность каждого состояния.
Задача 4. Найти стационарные вероятности и математическое ожидание для марковского процесса N, заданного графом переходов состояний.
Задача 5. Дан размеченный граф состояний системы.
Найти:
А) матрицы перехода за один и два шага,
Б) вероятности состояний системы после первого, второго, третьего шага, если в начальный момент система находилась в состоянии $S_1$,
В) финальные вероятности.
Задача 6. Система имеет три состояния. Построить граф состояний системы, написать уравнения Колмогорова и найти стационарное распределение.
Мы отлично умеем решать задачи по теории вероятностей
Содержание
Цепи Маркова
Матрица переходных вероятностей
Пусть имеется некоторая физическая система, которая по своей природе
ведет себя случайным образом: в каждый момент времени находится в
одном из $n$ возможных и несовместимых состояний $S_1,dots,S_n$,
которые сменяют друг друга через конечные промежутки времени по
следующему закону: в некоторый начальный момент $t_0$ вероятности
этих состояний равны соответственно $p_{01},dots,p_{0n}$, а в
каждый последующий момент
$$ t_1< t_2< dots $$
вероятность системе, находившейся в этот момент в состоянии $S_j$, перейти в состояние $S_k$
в следующий момент равна числу $p_{jk}, 0 le p_{jk} le
1$. Это число $p_{jk}$ не зависит от состояний системы во все
предшествующие моменты времени.
Известно также, что в одно из состояний система перейдет наверняка:
$$
p_{j1}+dots+p_{jn}=1 quad mbox{при} jin{1,dots,n} , .
$$
Составим из этих вероятностей матрицу.
Матрица из схемы
$$
begin{array}{c}
\
S_1 \
S_2 \
vdots \
S_n
end{array}
begin{array}{c}
begin{array}{cccc}
S_1 & S_2 & dots & S_n
end{array} \
left( begin{array}{llll}
p_{11} & p_{12} & dots & p_{1n} \
p_{21} & p_{22} & dots & p_{2n} \
dots &&& dots \
p_{n1} & p_{n2} & dots & p_{nn}
end{array} right)
end{array}
$$
называется матрицей переходных вероятностей, будем обозначать
ее $mathfrak P$. Величины
$p_{01},dots,p_{0n}$ назовем начальными вероятностями. Определенная
этими правилами смена состояний системы называется простой однородной
цепью Маркова $mathfrak C_n$ (с конечным числом состояний).
И
Биографические заметки об А.А.Маркове
☞
ЗДЕСЬ
П
Пример 1. В так называемом братско-сестринском скрещивании скрещиваются две особи, и среди их прямых потомков случайны образом
выбираются две особи разного пола. Они вновь скрещиваются, и процесс этот
продолжается бесконечно. Имея три генотипа ${sf AA}, {sf Aa}, {sf aa} $ для
каждого родителя, мы должны различать шесть комбинаций родителей, которые
пометим следующим образом:
$$S_1= {sf AA}times {sf AA}, S_2= {sf AA}times {sf Aa},
S_3= {sf Aa}times {sf Aa}, S_4= {sf Aa}times {sf aa},
S_5= {sf aa}times {sf aa}, S_6= {sf AA}times {sf aa} , .
$$
Генотип потомка зависит от случайного процесса. При любых обстоятельствах каждый
родительский ген может передаваться с вероятностью $1/2$, и последовательные
испытания независимы. Иначе говоря, генотипы потомков можно представить как результат
независимых испытаний, каждое из которых эквивалентно бросанию пары монет.
Например, при скрещивании особей ${sf Aa}times {sf Aa}$ могут появиться
генотипы ${sf AA}, {sf Aa}$ и $ {sf aa} $ с вероятностями равными соответственно
$1/4,, 1/2,, 1/4$. Скрещивание ${sf AA}times {sf aa}$ может привести
к появлению лишь особей $ {sf Aa} $ и т.п. Матрица переходных вероятностей
будет иметь вид
$$
mathfrak P=left( begin{array}{cccccc}
1& 0 & 0 & 0 & 0 & 0 \
1/4 & 1/2 & 1/4 & 0 & 0 & 0 \
1/16 & 1/4 & 1/4 & 1/4 &
1/16 & 1/8 \
0 & 0 & 1/4 & 1/2 & 1/4 & 0 \
0 & 0 & 0 & 0 & 1 & 0 \
0 & 0 & 1 & 0 & 0 & 0
end{array} right)
, .
$$
П
Пример 2. Предположим, что студенческая
жизнь в каждый момент времени состоит из трех возможных состояний:
лекция, сон, буфет. Пусть известны привычки студента, т.е.
задана матрица переходных вероятностей $mathfrak P$:
$$ begin{array}{c}
\
mbox{лекция} \
mbox{сон} \
mbox{буфет}
end{array}
begin{array}{c}
begin{array}{c}
mbox{лекция} mbox{ сон } mbox{буфет}
end{array} \
left( begin{array}{lcr}
frac{1}{2} &frac{1}{4} & frac{1}{4} \
frac{1}{3} & frac{1}{3} & frac{1}{3} \
frac{1}{3} & frac{1}{6} & frac{1}{2}
end{array} right)
end{array} enspace .
$$
Требуется определить «судьбу» студента, т.е. вероятность нахождения
в одном из состояний по истечении достаточно большого промежутка
времени.
Переходные вероятности $p_{jk}$ можно назвать вероятностями перехода
системы из $S_j$ в $S_k$ за один шаг. Найдем теперь вероятности
перехода $p_{jk}^{(2)}$ системы из $S_j$ в $S_k$ за два шага.
На основании теоремы об умножении вероятностей вероятности каждого перехода:
$$
begin{array}{c|c}
mbox{переход} & mbox{вероятность} \
hline
S_j to S_1 rightarrow S_k &
p_{j1}p_{1k} \
S_j rightarrow S_2 rightarrow S_k &
p_{j2}p_{2k} \
dots & dots \
S_j rightarrow S_n rightarrow S_k &
p_{jn}p_{nk}
end{array}
$$
В соответствии с теоремой о вероятности суммы событий, чтобы получить вероятность перехода
из $S_j$ в $S_k$ за два шага надо просуммировать полученные выражения:
$$
p_{jk}^{(2)}= sum_{ell=1}^n p_{jell}p_{ell k} , .
$$
Вывод: матрица $mathfrak P^{(2)}$ переходных вероятностей за два шага состоит
из элементов, которые формируются по правилу умножения матриц $mathfrak Pcdot mathfrak P$:
$$mathfrak P^{(2)}=mathfrak P^2 .$$
Этот результат обобщается на случай переходных вероятностей за $K$ шагов:
$$
mathfrak P^{(K)}=mathfrak P^K ,quad mbox{ при } Kin mathbb N .
$$
Абсолютной вероятностью $p_j^{(K)}$ состояния $S_j$
системы в момент $t=t_{K}$ называется вероятность этого состояния независимо от того, в каких состояниях находилась система в
моменты времени $t_{K-1},dots,t_1$.
$$
p_j^{(K)}=p_1^{(K-1)}p_{1j}+dots+ p_n^{(K-1)}p_{nj}
=left[p_1^{(K-1)},dots, p_n^{(K-1)} right]
left(begin{array}{c}
p_{1j} \ vdots \ p_{nj}
end{array} right) enspace .
$$
Собираем абсолютные вероятности для всех состояний $S_1,dots,S_n$ в вектор:
$$
left[p_1^{(K)},dots, p_n^{(K)} right] =
left[p_1^{(K-1)},dots, p_n^{(K-1)} right] mathfrak P , .
$$
Рекурсивно по $K$ применяем последнюю формулу:
$$
left[p_1^{(K)},dots, p_n^{(K)} right] =
left[p_1^{(K-2)},dots, p_n^{(K-2)} right] mathfrak P^2=dots=
[p_{01},dots,p_{0n}] mathfrak P^K .
$$
Задача. Найти $displaystyle lim_{Kto +infty} p_j^{(K)}$ для $ jin {1,dots,n} $.
Если этот предел существует, то его величина $p_j^{infty}$ называется финальной (предельной) абсолютной
вероятностью.
Из последнего равенства следует, что существование $p_j^{infty}$ зависит
от существования
$$lim_{Kto +infty} mathfrak P^K, . $$
Мы пришли к задаче о выяснении асимптотики степенной функции матрицы. Исследование начинаем с собственных чисел матрицы $mathfrak P$.
Спектр стохастической матрицы
Матрица $A$ называется неотрицательной (положительной)
если все ее элементы неотрицательны (положительны): $ A ge mathbb O$ ($A> mathbb O$).
Квадратная неотрицательная матрица $A$ называется стохастической1) если
равна $ 1 $ сумма элементов каждой ее строки2).
Матрица $mathfrak P$ переходных вероятностей — стохастическая (и в дальнейшем
всякую стохастическую матрицу будем обозначать $mathfrak P$).
Т
Теорема 1. Если $mathfrak P$ — стохастическая, то и $mathfrak P^K$ — стохастическая.
Доказательство. Для элементов $j$-й строки матрицы $mathfrak P^2$ выше выведена формула
$$
p_{jk}^{(2)}= sum_{ell=1}^n p_{jell}p_{ell k} , .
$$
Их неотрицательность очевидна. Просуммируем:
$$ sum_{i=1}^n p_{j i}^{(2)}=sum_{i=1}^n sum_{ell =1}^n
p_{jell}p_{ell i} =sum_{ell=1}^n sum_{i=1}^n p_{jell}p_{ell i}=
sum_{ell=1}^n bigg(p_{jell} underbrace{sum_{i=1}^n p_{ell i}}_{=1} bigg) =
sum_{ell=1}^n p_{jell}=1 , .
$$
Следовательно, $mathfrak P^2$ — стохастическая.
Доказательство для общего случая проводится индукцией по $K$.
♦
Т
Теорема 2. Все собственные числа стохастической матрицы не
превосходят по модулю $1$, и по крайней мере одно из них
равно $1$.
Доказательство. Действительно, согласно теореме Гершгорина, собственное
число $lambdain mathbb C$ стохастической матрицы $mathfrak P$ должно удовлетворять неравенству
$$|lambda — p_{jj}|le sum_{kne j} |p_{jk}|=1-p_{jj} $$
хотя бы при одном $j$. Воспользовавшись следствием к неравенству треугольника
имеем:
$$|lambda| — |p_{jj}|le |lambda — p_{jj}| le 1-p_{jj} Rightarrow
|lambda| le 1 , . $$
Далее,
$$
mathfrak P left( begin{array}{c}
1 \ 1 \ vdots \ 1
end{array}
right) =
left( begin{array}{c}
p_{11} +dots+p_{1n} \ p_{21} +dots+p_{2n} \ dots \
p_{n1} +dots+ p_{nn}
end{array}
right) =
left( begin{array}{c}
1 \ 1 \ vdots \ 1
end{array}
right),
$$
т.е. $lambda=1$ — собственное число, соответствующее собственному
вектору $X=[1,1,dots,1]^{^{top}}$.
♦
Локализация оставшейся части спектра стохастической матрицы оказывается задачей сложной. На рисунке показаны области допустимых значений для собственных чисел стохастических матриц порядков $ 3,4,5 $ (области Карпелевича). Выход граничных кривых областей на окружность $ |z|=1 $ — в корнях из единицы.
Асимптотика
Т
Теорема 3. Если собственное число $1$ — простое для
матрицы $mathfrak P$, а модули всех остальных собственных чисел меньше $1$, то
существует конечная матрица
$$ mathfrak P^{infty}:= lim_{Kto +infty} mathfrak P^K , .$$
Все строки матрицы $ mathfrak P^{infty} $ одинаковы.
Доказательство. Теория построения жордановой нормальной формы в нашем конкретном случае дает следующую информацию о ЖНФ $mathfrak P_{_{mathfrak J}} $ и матрице перехода к каноническому базису:
$$
mathfrak P_{_{mathfrak J}}=left( begin{array}{l|lll}
1 &0 & dots & 0\
hline
0& & mbox{клетки} & \
vdots& & mbox{для} lambda_j & \
0& & |lambda_j|<1 &
end{array} right), quad
C= left( begin{array}{l|lll}
1 & & mbox{корневые} & \
1& & mbox{векторы} & \
vdots& &mbox{для} lambda_j & \
1& & |lambda_j|<1 &
end{array} right)
$$
На основании теоремы 7:
$$mathfrak P_{_{mathfrak J}}^{infty}:= lim_{Kto +infty} mathfrak P_{_{mathfrak J}}^K=
left( begin{array}{llll}
1 &0 & dots & 0\
0& & & \
vdots& & mathbb O& \
0& & &
end{array} right).
$$
Но тогда существует $displaystyle{ lim_{Kto +infty} mathfrak P^K}$ и он равен
$$C mathfrak P_{_{mathfrak J}}^{infty}C^{-1}=
left( begin{array}{llll}
tau_{11} &tau_{12} & dots & tau_{1n}\
tau_{11} &tau_{12} & dots & tau_{1n}\
dots & & & dots\
tau_{11} &tau_{12} & dots & tau_{1n}
end{array} right),
$$
где $left[tau_{11},tau_{12}, dots, tau_{1n}right]$ — первая строка матрицы
$C^{-1}$. Действительно, как и утверждается в формулировке теоремы, все строки
матрицы $mathfrak P^{infty}$ одинаковы! Кроме того,
на основании теоремы 1, свойство стохастичности для матрицы $mathfrak P^{infty}$
должно сохраняться: $tau_{11}+tau_{12}+ cdots+ tau_{1n}=1$.
♦
Теорема 3 известна в литературе как эргодическая теорема. Матрица $ mathfrak P^{infty} $ является матрицей ранга 1 и может быть представлена в виде
$$
mathfrak P^{infty} = left[begin{array}{c} 1 \ 1 \ vdots \ 1 end{array} right] cdot left[tau_{11},tau_{12}, dots, tau_{1n}right] , .
$$
Стохастическая матрица $mathfrak P$, удовлетворяющая условию
теоремы 3, называется регулярной (и такой же — цепь $mathfrak C_n$).
=>
Для регулярной цепи $mathfrak C_n$ финальные абсолютные вероятности
находятся по формулам
$$
p_j^{infty}=tau_{1j} quad mbox{для} jin {1,dots,n} , ,
$$
и они не зависят от начальных $p_{01},dots,p_{0n}$.
Иначе говоря: для момента времени $t_K$ достаточно удаленного от любого
исходного момента поведение системы становится почти независимым от
исходного состояния.
П
Пример. Для стохастической матрицы
$$mathfrak P= left( begin{array}{llll}
0.54580 &0.36663 & 0.03519 & 0.05238\
0.04406 &0.00738 & 0.13600 & 0.81256\
0.42015 &0.27010 & 0.12121 & 0.18854\
0.85136 &0.00749 & 0.00123 & 0.13992
end{array} right)
$$
имеем:
$$
mathfrak P^{32}=
left( begin{array}{llll}
0.50875694_{displaystyle 79} &0.203905925_{displaystyle 3}
& 0.0522576617_{displaystyle 4}
&0.23507946_{displaystyle 60}\
0.50875694_{displaystyle 76}
&0.203905925_{displaystyle 0} & 0.0522576617_{displaystyle 9} &
0.23507946_{displaystyle 63}\
0.50875694_{displaystyle 78}
&0.203905925_{displaystyle 2}
& 0.0522576617_{displaystyle 5} &
0.23507946_{displaystyle 61}\
0.50875694_{displaystyle 81}
&0.203905925_{displaystyle 1}
& 0.0522576617_{displaystyle 2} &
0.23507946_{displaystyle 59}
end{array} right) , .
$$
♦
Реальный расчет финальных вероятностей по формулам из последнего следствия затруднителен,
более конструктивен следующий результат.
Т
Теорема 4. Пусть матрица $mathfrak P$ — регулярна. Обозначим $ f_1(lambda) $ — частное от деления характеристического полинома этой матрицы на $ det (mathfrak P-lambda E) $ на $ lambda -1 $. Тогда
$$mathfrak P^{infty}=frac{1}{f_1(1)} f_1(mathfrak P) , . $$
Доказательство проведем в дополнительном предположении простоты всех собственных
чисел ${1,lambda_2,dots,lambda_n} $. Воспользуемся теоремой 2 в применении к полиному $g(x)equiv x^K$. Положим
$$f_j(lambda):=det (mathfrak P-lambda E) /(lambda-lambda_j) quad mbox{ при } jin {2,dots,n } . $$
Тогда
$$
mathfrak P^K=1^K frac{f_1(mathfrak P)}{f_1(1)}+sum_{j=2}^{n} lambda_j^K
frac{f_j(mathfrak P)}{f_j(lambda_j)} , .
$$
Поскольку $|lambda_j|<1$ при $jin {2,dots,n}$, то при $K to infty$
каждое слагаемое под знаком $ sum $ стремится к нулевой матрице.
♦
Если бы удалось установить регулярность матрицы $ mathfrak P $ без построения ее
характеристического полинома то финальные абсолютные вероятности определялись бы достаточно просто.
=>
Вектор $ left[p_1^{infty},dots,p_n^{infty} right]^{^{top}} $ является
собственным вектором матрицы $mathfrak P^{^{top}}$, принадлежащим собственному числу
$lambda=1$.
Доказательство. Действительно, по теореме Гамильтона-Кэли,
$$ f_1 (mathfrak P)(mathfrak P-E) = mathbb O_{ntimes n} quad iff quad f_1 (mathfrak P)mathfrak P = f_1 (mathfrak P) , . $$
Иначе говоря, любая строка матрицы $ f_1 (mathfrak P) $ является левым собственным вектором матрицы $mathfrak P $, принадлежащим собственному числу $ lambda =1 $. Но по теореме $ 3 $, все строки матрицы $ f_1(mathfrak P)/f_1(1) $ одинаковы и совпадают с $ left[p_1^{infty},dots,p_n^{infty} right] $. В формулировке следствия произведен перевод этого результата в привычную терминологию обычного (правого) собственного вектора транспонированной стохастической матрицы.
♦
Особо подчеркнем: из всего множества собственных векторов
$mathfrak P^{^{top}}$, принадлежащих $lambda=1$, нас интересует тот единственный, что имеет сумму компонент равной
единице.
П
Пример. Найти «судьбу» студента из примера 2, т.е.
определить финальные абсолютные вероятности для матрицы
$$
mathfrak P=
left( begin{array}{ccc}
frac{1}{2} &frac{1}{4} & frac{1}{4} \
frac{1}{3} & frac{1}{3} & frac{1}{3} \
frac{1}{3} & frac{1}{6} & frac{1}{2}
end{array} right) , .
$$
Решение. Характеристический полином
$$
f(lambda)=det (mathfrak P-lambda E)= -lambda^3+frac{4}{3},lambda^2-frac{13}{36}, lambda+frac{1}{36} , .
$$
имеет все корни по модулю не превосходящими $ 1 $.
В данном примере это устанавливается непосредственным вычислением: $lambda_{2,3}=frac{1}{6}$;
в общем же случае можно воспользоваться критерием Шура-Кона применительно к полиному
$$
f_1(lambda)=-lambda^2+frac{1}{3},lambda-frac{1}{36} , .
$$
Следовательно, матрица $mathfrak P$ регулярна. Применение теоремы 4 дает:
$$
mathfrak P^{infty}=frac{f_1(mathfrak P)}{f_1(1)}=-frac{scriptstyle 36}{scriptstyle 25}left(-mathfrak P^2+frac{1}{3},mathfrak P-frac{1}{36} Eright)=
left( begin{array}{lll}
frac{scriptstyle 2}{scriptstyle 5} &frac{scriptstyle 6}{scriptstyle 25} &
frac{scriptstyle 9}{scriptstyle 25} \
frac{scriptstyle 2}{scriptstyle 5} &frac{scriptstyle 6}{scriptstyle 25} &
frac{scriptstyle 9}{scriptstyle 25} \
frac{scriptstyle 2}{scriptstyle 5} &frac{scriptstyle 6}{scriptstyle 25} &
frac{scriptstyle 9}{scriptstyle 25}
end{array} right), .
$$
Ответ. $ p_1^{infty}=frac{2}{5}, p_2^{infty} =frac{6}{25}, p_3^{infty}=frac{9}{25}$.
Студент попался трудолюбивый: наибольшая вероятность застать его на лекции.
Для нерегулярной цепи матрица $ mathfrak P^{infty} $ — не обязательно одноранговая, а финальные абсолютные вероятности будут зависеть от начальных.
П
Пример. Определить финальные абсолютные вероятности для примера 1, если
$$left[frac{1}{4}, frac{1}{3}, frac{1}{6}, frac{1}{6}, 0, frac{1}{12} right]$$
— вектор начальных вероятностей распределения генотипов в популяции.
Решение.
$$det (mathfrak P-lambda, E)=
left(lambda-frac{1}{4} right)left(lambda-frac{1}{2}right)
left(lambda^2-frac{1}{2}, lambda-frac{1}{4} right) (lambda-1)^2 , .
$$
$$
mathfrak P^{infty}=
left(
begin{array}{rrrrrr}
1 & 0 & 0 & 0 & 0 &0\
frac{3}{4} & 0 & 0 & 0 & frac{1}{4} &0 \
frac{1}{2} & 0 & 0 & 0 & frac{1}{2} &0 \
frac{1}{4} & 0 & 0 & 0 & frac{3}{4} &0\
0 & 0 & 0 & 0 &1 &0 \
frac{1}{2} & 0 & 0 & 0 & frac{1}{2} &0
end{array}
right) quad ; operatorname{rank} (mathfrak P^{infty})=2 , .
$$
Ответ. $left[ frac{2}{3},0,0,0,frac{1}{3},0 right]$. И это при том, что исходно в
популяции не предполагается скрещивания особей с генотипами,
соответствующими $S_5$, т.е. ${sf aa}times {sf aa}$.
Задачи
Источники
Романовский В.И. Дискретные цепи Маркова. Гостехиздат. 1948