Как найти оценку для вероятности

Содержание:

Точечные оценки:

Пусть случайная величина имеет неизвестную характеристику а. Такой характеристикой может быть, например, закон распределения, математическое ожидание, дисперсия, параметр закона распределения, вероятность определенного значения случайной величины и т.д. Пронаблюдаем случайную величину n раз и получим выборку из ее возможных значений Точечные оценки, свойства оценок - определение и вычисление с примерами решения

Существует два подхода к решению этой задачи. Можно по результатам наблюдений вычислить приближенное значение характеристики, а можно указать целый интервал ее значений, согласующихся с опытными данными. В первом случае говорят о точечной оценке, во втором – об интервальной.

Определение. Функция результатов наблюдений Точечные оценки, свойства оценок - определение и вычисление с примерами решения

Для одной и той же характеристики можно предложить разные точечные оценки. Необходимо иметь критерии сравнения оценок, для суждения об их качестве. Оценка Точечные оценки, свойства оценок - определение и вычисление с примерами решения как функция случайных результатов наблюдений Точечные оценки, свойства оценок - определение и вычисление с примерами решения сама является случайной величиной. Значения Точечные оценки, свойства оценок - определение и вычисление с примерами решения найденные по разным сериям наблюдений, могут отличаться от истинного значения характеристики Точечные оценки, свойства оценок - определение и вычисление с примерами решения в ту или другую сторону. Естественно потребовать, чтобы оценка систематически не завышала и не занижала оцениваемое значение, а с ростом числа наблюдений становилась более точной. Формализация названных требований приводит к следующим понятиям.

Определение. Оценка называется несмещенной, если ее математическое ожидание равно оцениваемой величине: Точечные оценки, свойства оценок - определение и вычисление с примерами решения В противном случае оценку называют смещенной.

Определение. Оценка называется состоятельной, если при увеличении числа наблюдений она сходится по вероятности к оцениваемой величине, т.е. для любого сколь угодно малого Точечные оценки, свойства оценок - определение и вычисление с примерами решения

 Точечные оценки, свойства оценок - определение и вычисление с примерами решения

Если известно, что оценка Точечные оценки, свойства оценок - определение и вычисление с примерами решения несмещенная, то для ее состоятельности достаточно, чтобы

Точечные оценки, свойства оценок - определение и вычисление с примерами решения

Последнее условие удобно для проверки. В качестве меры разброса значений оценки Точечные оценки, свойства оценок - определение и вычисление с примерами решения относительно Точечные оценки, свойства оценок - определение и вычисление с примерами решения можно рассматривать величину Точечные оценки, свойства оценок - определение и вычисление с примерами решения Из двух оценок предпочтительней та, для которой эта величина меньше. Если оценка имеет наименьшую меру разброса среди всех оценок характеристики, построенных по Точечные оценки, свойства оценок - определение и вычисление с примерами решения наблюдениям, то оценку называют эффективной.

Следует отметить, что несмещенность и состоятельность являются желательными свойствами оценок, но не всегда разумно требовать наличия этих свойств у оценки. Например, может оказаться предпочтительней оценка хотя и обладающая небольшим смещением, но имеющая значительно меньший разброс значений, нежели несмещенная оценка. Более того, есть характеристики, для которых нет одновременно несмещенных и состоятельных оценок.

Оценки для математического ожидания и дисперсии

Пусть случайная величина имеет неизвестные математическое ожидание и дисперсию, причем Точечные оценки, свойства оценок - определение и вычисление с примерами решения Если Точечные оценки, свойства оценок - определение и вычисление с примерами решения– результаты Точечные оценки, свойства оценок - определение и вычисление с примерами решения независимых наблюдений случайной величины, то в качестве оценки для математического ожидания можно предложить среднее арифметическое наблюдаемых значений Точечные оценки, свойства оценок - определение и вычисление с примерами решения

Несмещенность такой оценки следует из равенствТочечные оценки, свойства оценок - определение и вычисление с примерами решения

В силу независимости наблюдений Точечные оценки, свойства оценок - определение и вычисление с примерами решения

При условии Точечные оценки, свойства оценок - определение и вычисление с примерами решения имеем Точечные оценки, свойства оценок - определение и вычисление с примерами решения что означает состоятельность оценки Точечные оценки, свойства оценок - определение и вычисление с примерами решения.

Доказано, что для математического ожидания нормально распределенной случайной величины оценка Точечные оценки, свойства оценок - определение и вычисление с примерами решения еще и эффективна.

Оценка математического ожидания посредством среднего арифметического наблюдаемых значений наводит на мысль предложить в качестве оценки для дисперсии величину

 Точечные оценки, свойства оценок - определение и вычисление с примерами решения

Преобразуем величину Точечные оценки, свойства оценок - определение и вычисление с примерами решения обозначая для краткости Точечные оценки, свойства оценок - определение и вычисление с примерами решения через Точечные оценки, свойства оценок - определение и вычисление с примерами решенияТочечные оценки, свойства оценок - определение и вычисление с примерами решения

В силу (3.1.2) имеем Точечные оценки, свойства оценок - определение и вычисление с примерами решения ПоэтомуТочечные оценки, свойства оценок - определение и вычисление с примерами решения 

Последняя запись означает, что оценка Точечные оценки, свойства оценок - определение и вычисление с примерами решения имеет смещение. Она систематически занижает истинное значение дисперсии. Для получения несмещенной оценки введем поправку в виде множителя Точечные оценки, свойства оценок - определение и вычисление с примерами решения и полученную оценку обозначим через Точечные оценки, свойства оценок - определение и вычисление с примерами решения

Точечные оценки, свойства оценок - определение и вычисление с примерами решения

Величина

 Точечные оценки, свойства оценок - определение и вычисление с примерами решения

является несмещенной и состоятельной оценкой дисперсии.

Пример:

Оценить математическое ожидание и дисперсию случайной величины Х по результатам ее независимых наблюдений: 7, 3, 4, 8, 4, 6, 3.

Решение. По формулам (3.1.1) и (3.1.3) имеем Точечные оценки, свойства оценок - определение и вычисление с примерами решения

Ответ. Точечные оценки, свойства оценок - определение и вычисление с примерами решения

Пример:

Данные 25 независимых наблюдений случайной величины представлены в сгруппированном виде: Точечные оценки, свойства оценок - определение и вычисление с примерами решения

Требуется оценить математическое ожидание и дисперсию этой случайной величины.

Решение. Представителем каждого интервала можно считать его середину. С учетом этого формулы (3.1.1) и (3.1.3) дают следующие оценки:Точечные оценки, свойства оценок - определение и вычисление с примерами решения

Ответ.  Точечные оценки, свойства оценок - определение и вычисление с примерами решения

Метод наибольшего правдоподобия для оценки параметров распределений

В теории вероятностей и ее приложениях часто приходится иметь дело с законами распределения, которые определяются некоторыми параметрами. В качестве примера можно назвать нормальный закон распределения Точечные оценки, свойства оценок - определение и вычисление с примерами решения Его параметры Точечные оценки, свойства оценок - определение и вычисление с примерами решения и Точечные оценки, свойства оценок - определение и вычисление с примерами решения имеют смысл математического ожидания и дисперсии соответственно. Их можно оценить с помощью Точечные оценки, свойства оценок - определение и вычисление с примерами решения и Точечные оценки, свойства оценок - определение и вычисление с примерами решения В общем случае параметры законов распределения не всегда напрямую связаны со значениями числовых 179 характеристик. Поэтому практический интерес представляет следующая задача.

Пусть случайная величина Х имеет функцию распределения Точечные оценки, свойства оценок - определение и вычисление с примерами решения причем тип функции распределения F известен, но неизвестно значение параметра Точечные оценки, свойства оценок - определение и вычисление с примерами решения По данным результатов наблюдений нужно оценить значение параметра. Параметр может быть и многомерным.

Продемонстрируем идею метода наибольшего правдоподобия на упрощенном примере. Пусть по результатам наблюдений, отмеченных на рис. 3.1.1 звездочками, нужно отдать предпочтение одной из двух функций плотности вероятности Точечные оценки, свойства оценок - определение и вычисление с примерами решения или Точечные оценки, свойства оценок - определение и вычисление с примерами решения Точечные оценки, свойства оценок - определение и вычисление с примерами решения

Из рисунка видно, что при значении параметра Точечные оценки, свойства оценок - определение и вычисление с примерами решения такие результаты наблюдений маловероятны и вряд ли бы реализовались. При значении же Точечные оценки, свойства оценок - определение и вычисление с примерами решения эти результаты наблюдений вполне возможны. Поэтому значение параметра Точечные оценки, свойства оценок - определение и вычисление с примерами решения более правдоподобно, чем значение Точечные оценки, свойства оценок - определение и вычисление с примерами решения. Такая аргументация позволяет сформулировать принцип наибольшего правдоподобия: в качестве оценки параметра выбирается то его значение, при котором данные результаты наблюдений наиболее вероятны.

Этот принцип приводит к следующему способу действий. Пусть закон распределения случайной величины Х зависит от неизвестного значения параметра Точечные оценки, свойства оценок - определение и вычисление с примерами решения Обозначим через Точечные оценки, свойства оценок - определение и вычисление с примерами решения для непрерывной случайной величины плотность вероятности в точке Точечные оценки, свойства оценок - определение и вычисление с примерами решения а для дискретной случайной величины – вероятность того, что Точечные оценки, свойства оценок - определение и вычисление с примерами решения Если в Точечные оценки, свойства оценок - определение и вычисление с примерами решения независимых наблюдениях реализовались значения случайной величины Точечные оценки, свойства оценок - определение и вычисление с примерами решения то выражение Точечные оценки, свойства оценок - определение и вычисление с примерами решения

называют функцией правдоподобия. Величина Точечные оценки, свойства оценок - определение и вычисление с примерами решения зависит только от параметра Точечные оценки, свойства оценок - определение и вычисление с примерами решения при фиксированных результатах наблюдений Точечные оценки, свойства оценок - определение и вычисление с примерами решения При каждом значении параметра Точечные оценки, свойства оценок - определение и вычисление с примерами решения функция Точечные оценки, свойства оценок - определение и вычисление с примерами решения равна вероятности именно тех значений дискретной случайной величины, которые получены в процессе наблюдений. Для непрерывной случайной величины Точечные оценки, свойства оценок - определение и вычисление с примерами решения равна плотности вероятности в точке выборочного пространства Точечные оценки, свойства оценок - определение и вычисление с примерами решения

Сформулированный принцип предлагает в качестве оценки значения параметра выбрать такое Точечные оценки, свойства оценок - определение и вычисление с примерами решения при котором Точечные оценки, свойства оценок - определение и вычисление с примерами решения принимает наибольшее значение. Величина Точечные оценки, свойства оценок - определение и вычисление с примерами решения будучи функцией от результатов наблюдений Точечные оценки, свойства оценок - определение и вычисление с примерами решения называется оценкой наибольшего правдоподобия.

Во многих случаях, когда Точечные оценки, свойства оценок - определение и вычисление с примерами решения дифференцируема, оценка наибольшего правдоподобия находится как решение уравнения Точечные оценки, свойства оценок - определение и вычисление с примерами решения

которое следует из необходимого условия экстремума. Поскольку Точечные оценки, свойства оценок - определение и вычисление с примерами решения достигает максимума при том же значении Точечные оценки, свойства оценок - определение и вычисление с примерами решения, что и Точечные оценки, свойства оценок - определение и вычисление с примерами решения, то можно решать относительно Точечные оценки, свойства оценок - определение и вычисление с примерами решения эквивалентное уравнениеТочечные оценки, свойства оценок - определение и вычисление с примерами решения

Это уравнение называют уравнением правдоподобия. Им пользоваться удобнее, чем уравнением (3.1.5), так как функция Точечные оценки, свойства оценок - определение и вычисление с примерами решения равна произведению, а Точечные оценки, свойства оценок - определение и вычисление с примерами решения– сумме, а дифференцировать Точечные оценки, свойства оценок - определение и вычисление с примерами решения проще.

Если параметров несколько (многомерный параметр), то следует взять частные производные от функции правдоподобия по всем параметрам, приравнять частные производные нулю и решить полученную систему уравнений.

Оценку, получаемую в результате поиска максимума функции правдоподобия, называют еще оценкой максимального правдоподобия.

Известно, что оценки максимального правдоподобия состоятельны. Кроме того, если для q существует эффективная оценка, то уравнение правдоподобия имеет единственное решение, совпадающее с этой оценкой. Оценка максимального правдоподобия может оказаться смещенной.

Метод моментов

Начальным моментом Точечные оценки, свойства оценок - определение и вычисление с примерами решенияго порядка случайной величины Х называется математическое ожидание Точечные оценки, свойства оценок - определение и вычисление с примерами решенияй степени этой величины, т.е. Точечные оценки, свойства оценок - определение и вычисление с примерами решения Само математическое ожидание считается начальным моментом первого порядка.

Центральным моментом Точечные оценки, свойства оценок - определение и вычисление с примерами решенияго порядка называется Точечные оценки, свойства оценок - определение и вычисление с примерами решения Очевидно, что дисперсия – это центральный момент второго порядка. Если закон распределения случайной величины зависит от некоторых параметров, то от этих параметров зависят и моменты случайной величины.

Для оценки параметров распределения по методу моментов находят на основе опытных данных оценки моментов в количестве, равном числу оцениваемых параметров. Эти оценки приравнивают к соответствующим теоретическим моментам, величины которых выражены через параметры. Из полученной системы уравнений можно определить искомые оценки. 

Например, если Х имеет плотность распределения Точечные оценки, свойства оценок - определение и вычисление с примерами решения то Точечные оценки, свойства оценок - определение и вычисление с примерами решения

Если воспользоваться величиной Точечные оценки, свойства оценок - определение и вычисление с примерами решения как оценкой для Точечные оценки, свойства оценок - определение и вычисление с примерами решения на основе опытных данных, то оценкой Точечные оценки, свойства оценок - определение и вычисление с примерами решения по методу моментов будет решение уравнения Точечные оценки, свойства оценок - определение и вычисление с примерами решения

Пример:

Найти оценку параметра показательного закона распределения по методу моментов.

Решение. Плотность вероятности показательного закона распределения имеет вид Точечные оценки, свойства оценок - определение и вычисление с примерами решения Поэтому Точечные оценки, свойства оценок - определение и вычисление с примерами решенияТочечные оценки, свойства оценок - определение и вычисление с примерами решения Откуда Точечные оценки, свойства оценок - определение и вычисление с примерами решения

Ответ. Точечные оценки, свойства оценок - определение и вычисление с примерами решения

Пример:

Пусть имеется простейший поток событий неизвестной интенсивности Точечные оценки, свойства оценок - определение и вычисление с примерами решения. Для оценки параметра Точечные оценки, свойства оценок - определение и вычисление с примерами решения проведено наблюдение потока и зарегистрированы Точечные оценки, свойства оценок - определение и вычисление с примерами решения – длительности Точечные оценки, свойства оценок - определение и вычисление с примерами решенияпоследовательных интервалов времени между моментами наступления событий. Найти оценку для Точечные оценки, свойства оценок - определение и вычисление с примерами решения.

Решение. В простейшем потоке интервалы времени между последовательными моментами наступления событий потока имеют показательный закон распределения Точечные оценки, свойства оценок - определение и вычисление с примерами решения Так как плотность вероятности показательного закона распределения равна Точечные оценки, свойства оценок - определение и вычисление с примерами решения то функция правдоподобия (3.1.4) имеет видТочечные оценки, свойства оценок - определение и вычисление с примерами решения

Тогда  Точечные оценки, свойства оценок - определение и вычисление с примерами решения и уравнение правдоподобия Точечные оценки, свойства оценок - определение и вычисление с примерами решения имеет решение Точечные оценки, свойства оценок - определение и вычисление с примерами решения

При таком значении Точечные оценки, свойства оценок - определение и вычисление с примерами решения функция правдоподобия действительно достигает наибольшего значения, так как Точечные оценки, свойства оценок - определение и вычисление с примерами решения

ОтветТочечные оценки, свойства оценок - определение и вычисление с примерами решения

Определение. Пусть Точечные оценки, свойства оценок - определение и вычисление с примерами решения – результаты n независимых наблюдений случайной величины X. Если расставить эти результаты в порядке возрастания, то получится последовательность значений, которую называют вариационным рядом и обозначают: 

Точечные оценки, свойства оценок - определение и вычисление с примерами решения
В этой записи Точечные оценки, свойства оценок - определение и вычисление с примерами решения 

Величины Точечные оценки, свойства оценок - определение и вычисление с примерами решения называют порядковыми статистиками.

Пример:

Случайная величина Х имеет равномерное распределение на отрезке Точечные оценки, свойства оценок - определение и вычисление с примерами решения где Точечные оценки, свойства оценок - определение и вычисление с примерами решения и Точечные оценки, свойства оценок - определение и вычисление с примерами решения неизвестны. Пусть Точечные оценки, свойства оценок - определение и вычисление с примерами решения – результаты Точечные оценки, свойства оценок - определение и вычисление с примерами решения независимых наблюдений. Найти оценку параметра Точечные оценки, свойства оценок - определение и вычисление с примерами решения.

Решение. Функция плотности вероятности величины Х имеет видТочечные оценки, свойства оценок - определение и вычисление с примерами решения

В этом случае функция правдоподобия Точечные оценки, свойства оценок - определение и вычисление с примерами решения от Точечные оценки, свойства оценок - определение и вычисление с примерами решения явно не зависит. Дифференцировать по Точечные оценки, свойства оценок - определение и вычисление с примерами решения такую функцию нельзя и нет возможности записать уравнение правдоподобия. Однако легко видеть, что Точечные оценки, свойства оценок - определение и вычисление с примерами решения возрастает при уменьшении Точечные оценки, свойства оценок - определение и вычисление с примерами решения. Все результаты наблюдений лежат в Точечные оценки, свойства оценок - определение и вычисление с примерами решения поэтому можно записать:

 Точечные оценки, свойства оценок - определение и вычисление с примерами решения

где Точечные оценки, свойства оценок - определение и вычисление с примерами решения – наименьший, а Точечные оценки, свойства оценок - определение и вычисление с примерами решения – наибольший из результатов наблюдений. При минимально возможном Точечные оценки, свойства оценок - определение и вычисление с примерами решения 

Точечные оценки, свойства оценок - определение и вычисление с примерами решения

откуда Точечные оценки, свойства оценок - определение и вычисление с примерами решения или Точечные оценки, свойства оценок - определение и вычисление с примерами решения

Оценкой наибольшего правдоподобия для параметра Точечные оценки, свойства оценок - определение и вычисление с примерами решения будет величинаТочечные оценки, свойства оценок - определение и вычисление с примерами решения

ОтветТочечные оценки, свойства оценок - определение и вычисление с примерами решения

Пример:

Случайная величина X имеет функцию распределенияТочечные оценки, свойства оценок - определение и вычисление с примерами решения

где Точечные оценки, свойства оценок - определение и вычисление с примерами решения неизвестный параметр.

Пусть Точечные оценки, свойства оценок - определение и вычисление с примерами решения – результаты Точечные оценки, свойства оценок - определение и вычисление с примерами решениянезависимых наблюдений случайной величины X. Требуется найти оценку наибольшего правдоподобия для параметра Точечные оценки, свойства оценок - определение и вычисление с примерами решения и найти оценку для M(X).

Решение. Для построения функции правдоподобия найдем сначала функцию плотности вероятности

 Точечные оценки, свойства оценок - определение и вычисление с примерами решения

Тогда функция правдоподобия: Точечные оценки, свойства оценок - определение и вычисление с примерами решения

Логарифмическая функция правдоподобия: Точечные оценки, свойства оценок - определение и вычисление с примерами решения

Уравнение правдоподобия

 Точечные оценки, свойства оценок - определение и вычисление с примерами решения

не имеет решений. Критических точек нет. Наибольшее и наименьшее значения Точечные оценки, свойства оценок - определение и вычисление с примерами решения находятся на границе допустимых значений Точечные оценки, свойства оценок - определение и вычисление с примерами решения.

По виду функции Точечные оценки, свойства оценок - определение и вычисление с примерами решения можно заключить, что значение Точечные оценки, свойства оценок - определение и вычисление с примерами решения тем больше, чем меньше величина Точечные оценки, свойства оценок - определение и вычисление с примерами решения. Но Точечные оценки, свойства оценок - определение и вычисление с примерами решения не может быть меньше Точечные оценки, свойства оценок - определение и вычисление с примерами решения Поэтому наиболее правдоподобное значение Точечные оценки, свойства оценок - определение и вычисление с примерами решения

Так как Точечные оценки, свойства оценок - определение и вычисление с примерами решения, то оценкой наибольшего правдоподобия для Точечные оценки, свойства оценок - определение и вычисление с примерами решения будет величина Точечные оценки, свойства оценок - определение и вычисление с примерами решения
Ответ. Точечные оценки, свойства оценок - определение и вычисление с примерами решения

Пример:

Случайная величина Х имеет нормальный закон распределения Точечные оценки, свойства оценок - определение и вычисление с примерами решения c неизвестными параметрами Точечные оценки, свойства оценок - определение и вычисление с примерами решения и Точечные оценки, свойства оценок - определение и вычисление с примерами решения По результатам независимых наблюдений Точечные оценки, свойства оценок - определение и вычисление с примерами решения найти наиболее правдоподобные значения этих параметров.

Решение. В соответствии с (3.1.4) функция правдоподобия имеет вид Точечные оценки, свойства оценок - определение и вычисление с примерами решения

а логарифмическая функция правдоподобия: Точечные оценки, свойства оценок - определение и вычисление с примерами решения

Необходимые условия экстремума дают систему двух уравнений: Точечные оценки, свойства оценок - определение и вычисление с примерами решения

Решения этой системы имеют вид: Точечные оценки, свойства оценок - определение и вычисление с примерами решения

Отметим, что обе оценки являются состоятельными, причем оценка для Точечные оценки, свойства оценок - определение и вычисление с примерами решения несмещенная, а для Точечные оценки, свойства оценок - определение и вычисление с примерами решения смещенная (сравните с формулой (3.1.3)).

Ответ. Точечные оценки, свойства оценок - определение и вычисление с примерами решения

Пример:

По данным эксперимента построен статистический ряд: 

Точечные оценки, свойства оценок - определение и вычисление с примерами решения

Найти оценки математического ожидания, дисперсии и среднего квадратического отклонения случайной величины X.
Решение. 1) Число экспериментальных данных вычисляется по формуле:

Точечные оценки, свойства оценок - определение и вычисление с примерами решения

Значит, объем выборки n = 50.

2) Вычислим среднее арифметическое значение эксперимента:

Точечные оценки, свойства оценок - определение и вычисление с примерами решения

Точечные оценки, свойства оценок - определение и вычисление с примерами решения

Значит, найдена оценка математического ожидания Точечные оценки, свойства оценок - определение и вычисление с примерами решения= 12,3.

3) Вычислим исправленную выборочную дисперсию:

Точечные оценки, свойства оценок - определение и вычисление с примерами решения

Точечные оценки, свойства оценок - определение и вычисление с примерами решения

Значит, найдена оценка дисперсии: Точечные оценки, свойства оценок - определение и вычисление с примерами решения = 1,44.

5) Вычислим оценку среднего квадратического отклонения:

Точечные оценки, свойства оценок - определение и вычисление с примерами решения
Ответ: Точечные оценки, свойства оценок - определение и вычисление с примерами решения

Пример:

По данным эксперимента построен статистический ряд: 

Точечные оценки, свойства оценок - определение и вычисление с примерами решения

Найти оценки математического ожидания, дисперсии и среднего квадратического отклонения случайной величины X.
Решение. По формуле

Точечные оценки, свойства оценок - определение и вычисление с примерами решения

перейдем к условным вариантам: 

Точечные оценки, свойства оценок - определение и вычисление с примерами решения

Для них произведем расчет точечных оценок параметров:

Точечные оценки, свойства оценок - определение и вычисление с примерами решения

Точечные оценки, свойства оценок - определение и вычисление с примерами решения

Точечные оценки, свойства оценок - определение и вычисление с примерами решения

Следовательно, вычисляем искомые точечные оценки: 

Точечные оценки, свойства оценок - определение и вычисление с примерами решения

Точечные оценки, свойства оценок - определение и вычисление с примерами решения

ОтветТочечные оценки, свойства оценок - определение и вычисление с примерами решения

Пример:

По данным эксперимента построен интервальный статистический ряд: 

Точечные оценки, свойства оценок - определение и вычисление с примерами решения

Найти оценки математического ожидания, дисперсии и среднего квадратического отклонения.
Решение. 1) От интервального ряда перейдем к статистическому ряду, заменив интервалы их серединами  Точечные оценки, свойства оценок - определение и вычисление с примерами решения

Точечные оценки, свойства оценок - определение и вычисление с примерами решения

2) Объем выборки вычислим по формуле:

Точечные оценки, свойства оценок - определение и вычисление с примерами решения

3) Вычислим среднее арифметическое значений эксперимента:

Точечные оценки, свойства оценок - определение и вычисление с примерами решения

3) Вычислим исправленную выборочную дисперсию:

Точечные оценки, свойства оценок - определение и вычисление с примерами решения

Точечные оценки, свойства оценок - определение и вычисление с примерами решения

Можно было воспользоваться следующей формулой:

Точечные оценки, свойства оценок - определение и вычисление с примерами решения

5)  Вычислим оценку среднего квадратического отклонения: 

Точечные оценки, свойства оценок - определение и вычисление с примерами решения

ОтветТочечные оценки, свойства оценок - определение и вычисление с примерами решения

Пример:

Найти доверительный интервал с надежностью 0,95 для оценки математического ожидания M(X) нормально распределенной случайной величины X, если известно среднее квадратическое отклонение σ = 2, оценка математического ожидания Точечные оценки, свойства оценок - определение и вычисление с примерами решения объем выборки n = 25.
 

Решение. Доверительный интервал для истинного математического ожидания с доверительной вероятностью Точечные оценки, свойства оценок - определение и вычисление с примерами решения = 0,95 при известной дисперсии σ находится по формуле:

Точечные оценки, свойства оценок - определение и вычисление с примерами решения

где m = M(X) – истинное математическое ожидание; 𝑥̅ − оценка M(X) по выборке; n – объем выборки; Точечные оценки, свойства оценок - определение и вычисление с примерами решения – находится по доверительной вероятности Точечные оценки, свойства оценок - определение и вычисление с примерами решения = 0,95 из равенства:

Точечные оценки, свойства оценок - определение и вычисление с примерами решения

Из табл. П 2.2 приложения 2 находим: Точечные оценки, свойства оценок - определение и вычисление с примерами решения = 1,96. Следовательно, найден доверительный интервал для M(X): 

Точечные оценки, свойства оценок - определение и вычисление с примерами решения

Ответ: (9,216 ; 10,784).

Пример:

По данным эксперимента построен статистический ряд: 

Точечные оценки, свойства оценок - определение и вычисление с примерами решения

Найти доверительный интервал для математического ожидания M (X) с надежностью 0,95.
 

Решение. Воспользуемся формулой для доверительного интервала математического ожидания при неизвестной дисперсии:

Точечные оценки, свойства оценок - определение и вычисление с примерами решения

где n – объем выборки; 𝑥̅ оценка M(X);  s – оценка среднего квадратического отклонения; Точечные оценки, свойства оценок - определение и вычисление с примерами решения  − находится по доверительной вероятности Точечные оценки, свойства оценок - определение и вычисление с примерами решения = 0,95.

По числам Точечные оценки, свойства оценок - определение и вычисление с примерами решения = 0,95 и n = 20 находим: Точечные оценки, свойства оценок - определение и вычисление с примерами решения = 2,093.
Теперь вычисляем оценки для M(X) и D(X):

Точечные оценки, свойства оценок - определение и вычисление с примерами решения

Точечные оценки, свойства оценок - определение и вычисление с примерами решения

Следовательно, s ≈ 1,685. Поэтому искомый доверительный интервал математического ожидания задается формулой: 

Точечные оценки, свойства оценок - определение и вычисление с примерами решения

Ответ: (– 0,76; 0,76).

Пример:

По данным десяти независимых измерений найдена оценка квадратического отклонения Точечные оценки, свойства оценок - определение и вычисление с примерами решения = 0,5. Найти доверительный интервал точности измерительного прибора с надежностью 99 %.
 

Решение. Задача сводится к нахождению доверительного интервала для истинного квадратического отклонения, так как точность прибора характеризуется средним квадратическим отклонением случайных ошибок измерений.

Доверительный интервал для среднего квадратического отклонения находим по формуле:

Точечные оценки, свойства оценок - определение и вычисление с примерами решения

Точечные оценки, свойства оценок - определение и вычисление с примерами решения

где  Точечные оценки, свойства оценок - определение и вычисление с примерами решения = 0,5 − оценка среднего квадратического отклонения; Точечные оценки, свойства оценок - определение и вычисление с примерами решения – число, определяемое из табл. П 2.4 приложения 2 по заданной доверительной вероятности  Точечные оценки, свойства оценок - определение и вычисление с примерами решения = 0,99 и заданному объему выборки  n = 10.
Находим:   Точечные оценки, свойства оценок - определение и вычисление с примерами решения
Тогда можно записать: 

Точечные оценки, свойства оценок - определение и вычисление с примерами решения

Ответ: (0; 1,04).

  • Доверительный интервал для вероятности события
  • Проверка гипотезы о равенстве вероятностей
  • Доверительный интервал для математического ожидания
  • Доверительный интервал для дисперсии
  • Системы случайных величин
  • Вероятность и риск
  • Определения вероятности событий
  • Предельные теоремы теории вероятностей

Мы уже упоминали, что оценивать вероятности классов как $softmax(f_w(x_i))$ для какой-то произвольной функции $f_w$ – это дело подозрительное. В этом разделе мы поговорим о том, как это делать хорошо и правильно.

Что же такое вероятность класса, если объект либо принадлежит этому классу, либо нет?

Ограничимся пока случаем двуклассовой классификации с классами 0 и 1. Пожалуй, если утверждается, что мы предсказываем корректную вероятность класса 1 (обозначим её $q(x_i)$), то прогноз «объект $x_i$ принадлежит классу 1 с вероятностью $frac23$» должен сбываться в $frac23$ случаев. То есть, условно говоря, если мы возьмём все объекты, которым мы предсказали вероятностью $frac23$, то среди них что-то около двух третей действительно имеет класс 1. На математическом языке это можно сформулировать так: Если $widehat{p}$ – предсказанная вероятность класса 1, то $P(y_i = 1 vert q(x_i) = widehat{p}) = widehat{p}$.

К сожалению, в реальной жизни $widehat{p}$ – это скорее всего вещественные числа, которые будут различными для различных $y_i$, и никаких вероятностей мы не посчитаем, но мы можем разбить отрезок $[0,1]$ на бины, внутри каждого из которых уже вычислить, каковая там доля объектов класса 1, и сравнить эту долю со средним значением вероятности в бине:

12_1.png

У модели, которая идеально предсказывает вероятности (как обычно говорят, у идеально калиброванной модели) жёлтые точки на диаграме калибровки должны совпадать с розовыми.

А вот на картинке выше это не так: жёлтые точки всегда ниже розовых. Давайте поймём, что это значит. Получается, что наша модель систематически завышает предсказанную вероятность (розовые точки), и порог отсечения нам, выходит, тоже надо было бы сдвинуть вправо:

12_2.png

Но такая картинка, пожалуй, говорит о какой-то серьёзной патологии классификатора; гораздо чаще встречаются следующие две ситуации:

  • Слишком уверенный (overconfident) классификатор: 12_3.png Такое случается с сильными классификаторыми (например, нейросетями), которые учились на метки классов, а не на вероятности: тем самым процесс обучения стимулировал их всегда давать как можно более близкий к 0 или 1 ответ.

  • Неуверенный (underconfident) классификатор: 12_4.png

Такое может случиться, например, если мы слишком много обращаем внимания на трудные для классификации объекты на границе классов (как, скажем, в SVM), в каком-то смысле в ущерб более однозначно определяемым точкам. Этим же могут и грешить модели на основе бэггинга (например, случайный лес). Грубо говоря, среднее нескольких моделей предскажет что-то близкое к единице только если все слагаемые предскажут что-то, близкое к единице – но из-за дисперсии моделей это будет случаться реже, чем могло бы. См. статью.

Вам скажут: логистическая регрессия корректно действительно предсказывает вероятности

Вам даже будут приводить какие-то обоснования. Важно понимать, что происходит на самом деле, и не дать ввести себя в заблуждение. В качестве противоядия от иллюзий предлагаем рассмотреть два примера.

  • Рассмотрим датасет c двумя классами (ниже на картинке обучающая выборка)

12_5.png

Обучим на нём логистическую регрессию из sklearn безо всяких параметров (то есть $L^2$-регуляризованную, но это не так важно). Классы не так-то просто разделить, вот и логистическая регрессия так себе справляется. Ниже изображена часть тестовой выборки вместе с предсказанными вероятностями классов для всех точек области

12_6.png

Видим, что модель не больно-то уверена в себе, и ясно почему: признаковое описание достаточно бедное и не позволяет нам хорошо разделить классы, хотя, казалось бы, это можно довольно неплохо сделать.

  • Попробуем поправить дело, добавив полиномиальные фичи, то есть все $x^jy^k$ для $0leqslant j,kleqslant 5$ в качестве признаков, и обучив поверх этих данных логистическую регрессию. Снова нарисуем некоторые точки тестовой выборки и предсказания вероятностей для всех точек области:

12_7.png

Видим, что имеет место сочетание двух проблем: неуверенности посередине и очень уверенных ошибок по краям.

Нарисуем теперь калибровочные кривые для обеих моделей:

12_8.png

Калибровочные кривые весьма примечательны; в любом случае ясно, что с предсказанием вероятностей всё довольно плохо. Посмотрим ещё, какие вероятности наши классификаторы чаще приписывают объектам:

12_9.png

Как и следовало ожидать, предсказания слабого классификатора тяготеют к серединке (та самая неуверенность), а среди предсказаний переобученного очень много крайне уверенных (и совсем не всегда правильных).

Но почему же все твердят, что логистическая регрессия хорошо калибрована?!

Попробуем понять и простить её.

Как мы помним, логистическая регрессия учится путём минимизации функционала

$$l(X, y) = -sum_{i=1}^N(y_ilog(sigma(langle w, x_irangle)) + (1 — y_i)log(1 — sigma(langle w, x_irangle)))$$

Отметим между делом, что каждое слагаемое – это кроссэнтропия распределения $P$, заданного вероятностями $P(0) = 1 — sigma(langle w, x_irangle)$ и $P(1) = sigma(langle w, x_irangle)$, и тривиального распределения, которое равно $y_i$ с вероятностью $1$.

Допустим, что мы обучили по всему универсуму данных $mathbb{X}$ идеальную логистическую регрессию с идеальными весами $w^{ast}$. Пусть, далее, оказалось, что у нас есть $n$ объектов $x_1,ldots,x_n$ с одинаковым признаковым описанием (то есть по сути представленных одинаковыми векторами $x_i$), но, возможно, разными истинными метками классов $y_1,ldots,y_n$. Тогда соответствующий им кусок функции потерь имеет вид

$$-left(sum_{i=1}^ny_iright)log(sigma(langle w, x_1rangle)) -left(sum_{i=1}^n (1 — y_i)right)log(1 — sigma(langle w, x_1rangle)) =$$

$$=-nleft(vphantom{frac12}p_0log(sigma(langle w, x_1rangle)) + p_1log(1 — sigma(langle w, x_1rangle))right)$$

где $p_j$ – частота $j$-го класса среди истинных меток. В скобках также стоит кросс-энтропия распределения, задаваемого частотой меток истинных классов, и распределения, предсказываемого логистической регрессией. Минимальное значение кросс-энтропии (и минимум функции потерь) достигается, когда

$$sigma(langle w, x_1rangle) = p_0,quad 1 — sigma(langle w, x_1rangle) = p_1$$

Теперь, если признаковое описание данных достаточно хорошее (то есть классы не перемешаны как попало и всё-таки близки к разделимым) и в то же время модель не переобученная (то есть, в частности, предсказания вероятностей не скачут очень уж резко – вспомните второй пример), то результат, полученный для $n$ совпадающих точек будет приблизительно верным и для $n$ достаточно близких точек: на всех них модель будет выдавать примерно долю положительных, то есть тоже хорошую оценку вероятности.

Как же всё-таки предсказать вероятности: методы калибровки

Пусть наша модель (бинарной классификации) для каждого объекта $x_i$ выдаёт некоторое число $q(x_i)in[0,1]$. Как же эти числа превратить в корректные вероятности?

  • Гистограммная калибровка. Мы разбиваем отрезок $[0,1]$ на бины $mathbb{B}_1,ldots,mathbb{B}_k$ (одинаковой ширины или равномощные) и хотим на каждом из них предсказывать всегда одну и ту же вероятность: $theta_j$, если $q(x_i)in mathbb{B}_j$. Вероятности $theta_i$ подбираются так, чтобы они как можно лучше приближали средние метки классов на соответствующих бинах; иными словами, мы решаем задачу

$$sum_{j=1}^kleft|frac{sum_{i=1}^Nmathbb{I}{q(x_i)inmathbb{B}_j}y_i}{ vert mathbb{B}_j vert } — theta_jright|longrightarrowminlimits_{(theta_1,ldots,theta_k)}$$

Вместо разности модулей можно рассматривать и разность квадратов.

Метод довольно простой и понятный, но требует подбора числа бинов и предсказывает лишь дискретное множество вероятностей.

**Изотоническая регрессия**. Этот метод похож на предыдущий, только мы будем, во-первых, настраивать и границы $0=b_0,b_1,ldots,b_k = 1$ бинов $mathbb{B}_j = {t vert b_{j-1}leqslant b_j}$, а кроме того, накладываем условие $theta_1leqslantldotsleqslanttheta_k$. Искать $b_j$ и $theta_j$ мы будем, приближая $y_i$ кусочно постоянной функцией $g$ от $q(x_i)$:

$$sum_{i=1}^N(y_i — g(q(x_i)))^2longrightarrowmin_{g}$$

12_10.png

Минимизация осуществляется при помощи pool adjacent violators algorithm, и эти страницы слишком хрупки, чтобы выдержать его формулировку.

  • Калибровка Платта представляет собой по сути применение сигмоиды поверх другой модели (то есть самый наивный способ получения »вероятностей»). Более точно, если $q(x_i)$ – предсказанная вероятность, то мы полагаем

$$P(y_i = 1mid x_i) = sigma(aq(x_i) + b) = frac1{1 + e^{-aq(x_i) — b}}$$

где $a$ и $b$ подбираются методом максимального правдоподобия на отложенной выборке:

$$-sum_{i=1}^N(vphantom{frac12}y_ilog(sigma(q(x_i))) + (1 — y_i)log(1 — sigma(q(x_i))))longrightarrowminlimits_{a,b}$$

Для избежания переобучения Платт предлагал также заменить метки $y_i$ и $(1 — y_i)$ на регуляризованные вероятности таргетов:

$$t_0 = frac1{#{i vert y_i = 0} + 2},quad t_1 = frac{#{i vert y_i = 1} + 1}{#{i vert y_i = 0} + 2}$$

Калибровка Платта неплохо справляется с выколачиванием вероятностей из SVM, но для более хитрых классификаторов может спасовать. В целом, можно показать, что этот метод хорошо работает, если для каждого из истинных классов предсказанные вероятности $q(x_i)$ распределы нормально с одинаковыми дисперсиями. Подробнее об этом вы можете почитать в этой статье. Там же описано обобщение данного подхода – бета-калибровка.

С большим количеством других методов калибровки вы можете познакомиться в этой статье

Как измерить качество калибровки

Калибровочные кривые хорошо показывают, что есть проблемы, но как оценить наши потуги по улучшению предсказания вероятностей? Хочется иметь какую-то численную метрику. Мы упомянем две разновидности, которые по сути являются прямым воплощением описанных выше идей.

  • Expected/Maximum calibration error. Самый простой способ, впрочем, является наследником идеи с калибровочной кривой. А именно, разобьём отрезок $[0,1]$ на бины $mathbb{B}_1,ldots,mathbb{B}_k$ по предсказанным вероятностям и вычислим

$$sum_{j=1}^kfrac{#mathbb{B}_j}{N}left|overline{y}(mathbb{B}_j) — overline{q}(mathbb{B}_j)right|$$

или

$$maxlimits_{j=1,ldots,k}left|overline{y}(mathbb{B}_j) — overline{q}(mathbb{B}_j)right|$$

где $overline{y}(mathbb{B}_j)$ – среднее значение $y_i$, а $overline{q}(mathbb{B}_j)$ – среднее значение $q(x_i)$ для $x_i$, таких что $q(x_i)inmathbb{B}_j$. Проблема этого способа в том, что мы можем очень по-разному предсказывать в каждом из бинов вероятности (в том числе константой) без ущерба для метрики.

  • Одна из популярных метрик – это Brier score, которая попросту измеряет разницу между предсказанными вероятностями и $ y_i $:

$$sum_{i=1}^N(y_i — q(x_i))^2$$

Казалось бы, в чём смысл? Немного подрастить мотивацию помогает следующий пример. Допустим, наши таргеты совершенно случайны, то есть $P(y_i = 1 vert x_i) = P(y_i)$. Тогда хорошо калиброванный классификатор должен для каждого $x_i$ предсказывать вероятность $frac12$; соответственно, его brier score равен $frac14$. Если же классификатор хоть в одной точке выдаёт вероятность $p>frac12$, то в маленькой окрестности он должен выдавать примерно такие же вероятности; поскольку же таргет случаен, локальный кусочек суммы из brier score будет иметь вид $frac{N’}{2}p^2 + frac{N’}{2}(1-p)^2 < frac{N’}2$, что хуже, чем получил бы всегда выдающий $frac12$ классификатор.

Не обязательно брать квадратичную ошибку; сгодится и наш любимый log-loss:

$$sum_{i=1}^Nleft(vphantom{frac12}y_ilog{q(x_i)} + (1 — y_i)log(1 — q(x_i))right)$$

Это же и помогает высветить ограничения подхода, если вспомнить рассуждения о калиброванности логистической регрессии. Для достаточно гладких классификатора и датасета briar score и log-loss будут адекватными средствами оценки, но если нет – возможно всякое.

Вопрос на засыпку: а как быть, если у нас классификация не бинарная, а многоклассовая? Что такое хорошо калиброванный классификатор? Как это определить численно? Как заставить произвольный классификатор предсказывать вероятности?

Мы не будем про это рассказывать, но призываем читателя подумать над этим самостоятельно или, например, посмотреть туториал с ECML KDD 2020.

Пусть
производятся независимые испытания с
неизвестной вероятностью p
появления события A
в каждом испытании. Требуется оценить
неизвестную вероятность p
по относительной частоте, т. е. надо
найти ее точечную и интервальную оценки.

Точечная
оценка.

В качестве точечной оценки не­известной
вероятности p
принимают относительную частоту:

W
= т/п,

где
т
—число
появлений события
A,
п
—число
испыта­ний.

Эта
оценка несмещенная, т. е. ее математическое
ожи­дание

равно оцениваемой вероятности.
Действительно, учитывая, что
М (т)= пр
,
получим:

M
(
W)
=

M
[
m/п]
= М (т)/п = пр/п = р.

Найдем
дисперсию
оценки,
приняв во внимание, что D(m)=
npq:

D
(W)
=
D
[т/п] = D
(т)/п2
= npq/n2
= pq/n,

тогда
среднее
квадратическое отклонение

находим по формуле:

σ=

Интервальная
оценка
.
Найдем доверительный ин­тервал для
оценки вероятности по относительной
частоте.

Формула,
позволяющая найти вероятность того,
что аб­солютная величина отклонения
не превысит
положитель­ного
числа б:

Р
(|Х —а | <
б) = 2Ф (б/а)
(*),

где
X
—нормальная
случайная
величина с математи­ческим ожиданием
М (Х) = а.

Если
п
достаточно велико и вероятность р
не очень близка к нулю и к единице, то
можно считать M(W)
=
p.

Таким
образом, заменив в соотношении (*)
случайную величину
X

и ее математическое ожидание
а

соответ­ственно случайной величиной
W
и ее математическим ожиданием
р,

получим приближенное равенство

P
(| W—р
| <
б) = Ф(б/σ).

Построим
доверительный интервал с надежностью
γ:

P
(| W—р
| <
б) = Ф(б/σ) = γ

Заменим
σ


,

Тогда
P
(| W—р
| <
б) = Ф(б
/
)
= Ф(t)
= γ,

Где
t
= б
/
),
откуда б = t

/

Заменим
в неравенстве случайную величину W
на неслучайную наблюдаемую относительную
частоту ω и заменим q=1-p,
подставим
выражение для б, получим:


— p|
< t

/

,
раскрываем модуль, оценивая ω<
p
и ω>p
получим p1
и p2
— промежутки для доверительного
интервала.

Доверительный
интервал.

Θ
– Исследуемый параметр, Θ
* — статистическая характеристика
исследуемого параметра

|
Θ
— Θ
*|<б – точность оценки

P
(|Θ-Θ*|<б)
= γ
– точность( доверительная вероятность)

Доверительным
называют интервал (Θ*
— б; Θ*
+ б), который покрывает неизвестный
параметр с заданной надежностью.

60. Оценка параметров в статистике

Пусть
нам нужно изучить к-либо признак
генеральной совокупности и мы теоретически
знаем его тип распределения.

Обычно
имеем: данные выборки (например, значения
признака x1,x2,xn
в результате n
независимых испытаний).

61. Дисперсионный анализ. Однофакторный комплекс.

Основная
идея: сравнения «факторной» дисперсии
и «остаточной» (вызванная в результате
случайных причин).

62. Корреляционный анализ. Регрессия.

Корреляционный
анализ — метод, позволяющий обнаружить
зависимость между несколькими с.в.

Допустим,
проводится независимое измерение
различных параметров у одного типа
объектов. Из этих данных можно получить
качественно новую информацию — о
взаимосвязи этих параметров.

Н
апример,
измеряем рост и вес человека, каждое
измерение представлено точкой в двумерном
пространстве:

Н
есмотря
на то, что величины носят случайный
характер, в общем наблюдается некоторая
зависимость — величины коррелируют.

В

данном случае это положительная
корреляция (при увеличении одного
параметра второй тоже увеличивается).

Возможны
также такие случаи:

Регре́ссия
— зависимость среднего значения к-либо
величины от некоторой другой величины
или от нескольких величин. В отличие от
чисто функциональной зависимости
y=f(x), при регрессионной связи одному и
тому же значению x могут соответствовать
в зависимости от случая различные
значения величины y. Если при каждом
значении x=xi
наблюдается
ni
значений yi1…yin1
величины y, то зависимость средних
арифметических

и
является регрессией.

Соседние файлы в предмете [НЕСОРТИРОВАННОЕ]

  • #
  • #
  • #
  • #
  • #
  • #
  • #
  • #
  • #
  • #
  • #

Так же как и теория вероятностей, математическая статистика имеет свои ключевые понятия, к которым относятся: генеральная совокупность, теоретическая функция распределения, выборка, эмпирическая функция распределения, статистика. Именно с определения этих понятий, а также с установления связи между ними и объектами, изучаемыми в теории вероятностей, мы начнем изложение математической статистики, предварительно дав краткое описание задач, которые собираемся решать. Кроме того, в последнем параграфе главы остановимся на некоторых распределениях, наиболее часто встречающихся в математической статистике.

Задачи математической статистики

Математическая статистика, являясь частью общей прикладной математической дисциплины «Теория вероятностей и математическая статистика», изучает, как и теория вероятностей, случайные явления, использует одинаковые с ней определения, понятия и методы и основана на той же самой аксиоматике А.Н. Колмогорова.

Однако задачи, решаемые математической статистикой, носят специфический характер. Теория вероятностей исследует явления, заданные полностью их моделью, и выявляет еще до опыта те статистические закономерности, которые будут иметь место после его проведения. В математической статистике вероятностная модель явления определена с точностью до неизвестных параметров. Отсутствие сведений о параметрах компенсируется тем, что нам позволено проводить «пробные» испытания и на их основе восстанавливать недостающую информацию.

Попытаемся показать различие этих двух взаимосвязанных дисциплин на простейшем примере — последовательности независимых одинаковых испытаний, или схеме Бернулли (часть 1, гл.4). Схему Бернулли можно трактовать как подбрасывание несимметричной монеты с вероятностью выпадения «герба» (успеха) р и «цифры» (неудачи) Оценки неизвестных параметров В теории вероятностей р и q задаются «извне» (например, для симметричной монеты Оценки неизвестных параметров Методы теории вероятностей позволяют, зная р и q, определить вероятность выпадения т «гербов» при п подбрасываниях монеты (биномиальное распределение, часть 1, гл.4, параграф 1), найти асимптотику этой вероятности при увеличении числа подбрасываний (теоремы Пуассона и Муавра-Лапласа,

часть 1, гл.4, параграфы 2-4) и т.д. В математической статистике значения р и q неизвестны заранее, но мы можем произвести серию подбрасываний монеты. Цель проведения испытаний как раз и заключается либо в определении р и q, либо в проверке некоторых априорных суждений относительно их значений. Таким образом, судя уже по этому простейшему примеру, задачи математической статистики являются в некотором смысле обратными задачам теории вероятностей.

В математической статистике обычно принято выделять два основных направления исследований.

Первое направление связано с оценкой неизвестных параметров. Возвращаясь к нашему примеру, предположим, что мы произвели п подбрасываний монеты и установили, что в Оценки неизвестных параметров из них выпал «герб». Тогда наиболее естественной оценкой вероятности р является наблюденная частота Оценки неизвестных параметров Как известно из закона больших чисел Бернулли (часть 1, гл. 4, параграф 5), с увеличением числа испытаний частота Оценки неизвестных параметров стремится к вероятности р, т. е. Оценки неизвестных параметров является состоятельной оценкой вероятности р. Оказывается, наряду с простотой и естественностью оценка Оценки неизвестных параметров будет и наилучшей с многих точек зрения, т. е. она обладает свойством эффективности. Однако если нам заранее определено число п подбрасываний монеты, то сказать со 100%-й гарантией что-либо об истинном значении р мы не можем (за исключением разве что тривиальных суждений типа «если выпадет хотя бы один „герб» то вероятность выпадения „герба» не может равняться нулю»). Поэтому наряду с точечными оценками в математической статистике принято определять интервальные оценки или, иными словами, доверительные интервалы, опираясь при этом на «уровень доверия», или доверительную вероятность.

Второе направление в математической статистике связано с проверкой некоторых априорных предположений, или статистических гипотез. Так, до опыта мы можем предположить, что монета симметрична, т.е. высказать гипотезу о равенстве Оценки неизвестных параметров Противоположное предположение, естественно, будет состоять в том, что Оценки неизвестных параметров и тоже представляет собой гипотезу. Принято называть одну из этих гипотез (как правило, более важную с практической точки зрения) основной Оценки неизвестных параметров а вторую — альтернативной или конкурирующей Оценки неизвестных параметров В приведенном выше примере нужно проверить основную гипотезу Оценки неизвестных параметров против конкурирующей гипотезы Оценки неизвестных параметров Заметим, что в нашем случае основная гипотеза Оценки неизвестных параметров полностью определяет вероятностную модель подбрасывания монеты, т.е. является простой (состоит из одной точки), в отличие от конкурирующей гипотезы Оценки неизвестных параметров являющейся сложной (состоит из более чем одной точки). Задача проверки статистических гипотез состоит в выборе правила или критерия, позволяющего по результатам наблюдений проверить (по возможности, наилучшим образом) справедливость этих гипотез и принять одну из них. Так же, как и при оценке неизвестных параметров, мы не застрахованы от неверного решения; в математической статистике они подразделяются

на ошибки первого и второго рода. Ошибка первого рода состоит в том, что мы принимаем конкурирующую гипотезу Оценки неизвестных параметров в то время как справедлива основная гипотеза Оценки неизвестных параметров аналогично определяется ошибка второго рода. Возвращаясь к примеру с монетой, приведем следующий критерий проверки двух перечисленных гипотез: основную гипотезу Оценки неизвестных параметров будем принимать в том случае, если наблюденная частота Оценки неизвестных параметров удовлетворяет неравенству Оценки неизвестных параметров в противном случае считаем верной конкурирующую гипотезу Оценки неизвестных параметров Вероятность ошибки первого рода (принять симметричную монету за несимметричную) в этом случае определяется как вероятность выполнения неравенства Оценки неизвестных параметров в схеме Бернулли с равновероятными исходами. Вероятность ошибки второго рода (принять несимметричную монету за симметричную) также определяется из схемы Бернулли, но с неравновероятными исходами и будет зависеть от истинного значения р.

Далее мы увидим, что задача проверки статистических гипотез наиболее полно решается для случая двух простых гипотез. Можно поставить и задачу проверки нескольких гипотез (в примере с монетой можно взять, например, три гипотезы: Оценки неизвестных параметров однако мы такие задачи рассматривать не будем.

Условно математическую статистику можно подразделить на исследование байесовских и небайесовских моделей.

Байесовские модели возникают тогда, когда неизвестный параметр является случайной величиной и имеется априорная информация о его распределении. При байесовском подходе на основе опытных данных априорные вероятности пересчитываются в апостериорные. Применение байесовского подхода фактически сводится к использованию формулы Байеса (см. часть 1, гл. 3, параграф 5), откуда, собственно говоря, и пошло его название. Байесовский подход нами будет применяться только как вспомогательный аппарат при доказательстве некоторых теорем.

Небайесовские модели появляются тогда, когда неизвестный параметр нельзя считать случайной величиной и все статистические выводы приходится делать, опираясь только на результаты «пробных» испытаний. Именно такие модели мы будем рассматривать в дальнейшем изложении.

В заключение этого параграфа отметим, что в математической статистике употребляют также понятия параметрических и непараметрических моделей. Параметрические модели возникают тогда, когда нам известна с точностью до параметра (скалярного или векторного) функция распределения наблюдаемой характеристики и необходимо по результатам испытаний определить этот параметр (задача оценки неизвестного параметра) или проверить гипотезу о принадлежности его некоторому заранее выделенному множеству значений (задача проверки статистических гипотез). Все приведенные выше примеры с подбрасыванием монеты представляют собой параметрические модели. Примеры непараметрических моделей мы рассмотрим позже.

Основные понятия математической статистики

Основными понятиями математической статистики являются: генеральная совокупность, выборка, теоретическая функция распределения.

Генеральная совокупность. Будем предполагать, что у нас имеются N объектов, каждому из которых присуще определенное значение некоторой числовой характеристики X. Характеристика X, вообще говоря, может быть и векторной (например, линейные размеры объекта), однако для простоты изложения мы ограничимся только скалярным случаем, тем более что переход к векторному случаю никаких трудностей не вызывает. Совокупность этих N объектов назовем генеральной совокупностиью.

Поскольку все наши статистические выводы мы будем делать, основываясь только на значениях числовой характеристики X, естественно абстрагироваться от физической природы самих объектов и отождествить каждый объект с присущей ему характеристикой X. Таким образом, с точки зрения математической статистики генеральная совокупность представляет собой N чисел, среди которых, конечно, могут быть и одинаковые.

Выборка. Для того чтобы установить параметры генеральной совокупности, нам позволено произвести некоторое число п испытаний. Каждое испытание состоит в том, что мы случайным образом выбираем один объект генеральной совокупности и определяем его значение X. Полученный таким образом ряд чисел Оценки неизвестных параметров будем называть (случайной) выборкой объема п, а число Оценки неизвестных параметров элементом выборки.

Заметим, что сам процесс выбора можно осуществлять различными способами: выбрав объект и определив его значение, изымать этот объект и не допускать к последующим испытаниям (выборка без возвращения); после определения его значения объект возвращается в генеральную совокупность и может полноправно участвовать в дальнейших испытаниях (выборка с возвращением) и т.д.

Разумеется, если бы мы смогли провести сплошное обследование всех объектов генеральной совокупности, то не нужно было бы применять никакие статистические методы и саму математическую статистику можно было бы отнести к чисто теоретическим наукам. Однако такой полный контроль невозможен по следующим причинам. Во-первых, часто испытание сопровождается разрушением испытуемого объекта; в этом случае мы имеем выборку без возвращения. Во-вторых, обычно необходимо исследовать весьма большое количество объектов, что просто невозможно физически. Наконец, может возникнуть такое положение, когда многократно измеряется один и тот же объект, но каждый замер производится со случайной ошибкой, и цель последующей статистической обработки заключается именно в уточнении характеристик объекта на основе многократных наблюдений; при этом результат каждого наблюдения надо считать новым объектом генеральной совокупности (простейшим примером такой ситуации является многократное подбрасывание монеты с целью определения вероятности выпадения «герба»). Следует помнить также, что выборка обязательно должна удовлетворять условию репрезентативности или, говоря более простым языком, давать обоснованное представление о генеральной совокупности.

С ростом объема N генеральной совокупности исчезает различие между выборками с возвращением и без возвращения. Мы, как обычно это делается в математической статистике, будем рассматривать случай бесконечно большого объема генеральной совокупности и поэтому, употребляя слово «выборка», не будем указывать, какая она — с возвращением или без него.

Теоретическая функция распределения. Пусть Оценки неизвестных параметров — выборка единичного объема из заданной генеральной совокупности. Поскольку сам процесс выбора производится случайным образом, то Оценки неизвестных параметров является случайной величиной и, как и всякая случайная величина, имеет функцию распределения Оценки неизвестных параметров Нетрудно видеть, что если объем N генеральной совокупности конечен, то при случайном выборе объекта мы находимся в рамках схемы классической вероятности (часть 1, гл.2, параграф 1) и значение функции распределения F(x) совпадает с отношением Оценки неизвестных параметров — число тех объектов генеральной совокупности, значения которых меньше х.

В случае выборки Оценки неизвестных параметров произвольного объема п каждый элемент Оценки неизвестных параметров выборки также будет иметь функцию распределения F(x), причем для выборки с возвращением наблюдения Оценки неизвестных параметров будут независимы между собой (чего нельзя сказать о выборке без возвращения). Поскольку, как уже говорилось, мы будем рассматривать выборки из генеральной совокупности бесконечно большого объема, а в этом случае исчезает различие между выборками разного типа, мы приходим к интерпретации (с точки зрения теории вероятностей) выборки Оценки неизвестных параметров как п независимых одинаково распределенных с функцией распределения F(x) случайных величин или, допуская некоторую вольность речи, как п независимых реализаций наблюдаемой случайной величины X, имеющей функцию распределения F(x). Функция распределения F(x) называется теоретической функцией распределения. Однако теоретическая функция распределения F(x) либо неизвестна, либо известна не полностью, и именно относительно F(x) мы будем делать наши статистические выводы. Заметим, что в соответствии с общими положениями теории вероятностей совместная функция распределения Оценки неизвестных параметров выборки Оценки неизвестных параметровзадается формулой

Оценки неизвестных параметров

В дальнейшем, как правило, мы будем предполагать, что F(x) является функцией распределения либо дискретной, либо непрерывной наблюдаемой случайной величины X. В первом случае будем оперировать рядом распределения случайной величины X, записанным в виде табл. 1, а во втором — плотностью распределения Оценки неизвестных параметров

Оценки неизвестных параметров

Простейшие статистические преобразования

Прежде чем переходить к детальному анализу наблюденных статистических данных, обычно проводят их предварительную обработку. Иногда результаты такой обработки уже сами по себе дают наглядную картину исследуемого явления, в большинстве же случаев они служат исходным материалом для получения более подробных статистических выводов.

Вариационный и статистический ряды. Часто бывает удобно пользоваться не самой выборкой Оценки неизвестных параметров а некоторой ее модификацией, называемой вариационным рядом. Вариационный ряд Оценки неизвестных параметров представляет собой ту же самую выборку Оценки неизвестных параметров но расположенную в порядке возрастания элементов: Оценки неизвестных параметров Такое преобразование не приводит к потере информации относительно теоретической функции распределения F(x), поскольку, переставив элементы вариационного ряда Оценки неизвестных параметров в случайном порядке, мы получим новый набор случайных величин Оценки неизвестных параметров совместная функция распределения Оценки неизвестных параметров которых в точности совпадает с функцией распределения Оценки неизвестных параметров первоначальной выборки Оценки неизвестных параметров

Для Оценки неизвестных параметров употребляют название «крайние члены вариационного ряда».

Пример 1. Измерение проекции вектора скорости молекул водорода на одну из осей координат дало (с учетом направления вектора) результаты Оценки неизвестных параметров представленные в табл.2.

Вариационный ряд этой выборки приведен в табл. 3. Крайними членами вариационного ряда Оценки неизвестных параметров являются Оценки неизвестных параметров

Если среди элементов выборки Оценки неизвестных параметров (а значит, и среди элементов вариационного ряда Оценки неизвестных параметров имеются одинаковые, что происходит при наблюдении дискретной случайной величины, а также довольно часто встречается при наблюдении непрерывной случайной величины с округлением значений, то наряду с вариационным рядом используют представление выборки в виде статистического

Оценки неизвестных параметров
Оценки неизвестных параметров

ряда (табл.4), в котором Оценки неизвестных параметров представляют собой расположенные в порядке возрастания различные значения элементов выборки Оценки неизвестных параметров — числа элементов выборки, значения которых равны соответственно Оценки неизвестных параметров

Пример 2. В течение минуты каждую секунду регистрировалось число попавших в счетчик Гейгера частиц. Результаты наблюдений приведены в табл. 5.

Статистический ряд выборки представлен в табл. 6.

Оценки неизвестных параметров
Оценки неизвестных параметров
Оценки неизвестных параметров

Статистики. Для получения обоснованных статистических выводов необходимо проводить достаточно большое число испытаний, т.е. иметь выборку достаточно большого объема п. Ясно, что не только использование такой выборки, но и хранение ее весьма затруднительно. Чтобы избавиться от этих трудностей, а также для других целей, полезно ввести понятие статистики, общее определение которой формулируется следующим образом. Назовем статистикой Оценки неизвестных параметров произвольную (измеримую) k-мерную функцию от выборки Оценки неизвестных параметров

Оценки неизвестных параметров

Как функция от случайного вектора Оценки неизвестных параметров статистика S также будет случайным вектором (см. часть 1, гл.6, параграф 7), и ее функция распределения

Оценки неизвестных параметров

определяется для дискретной наблюдаемой случайной величины X формулой

Оценки неизвестных параметров

и для непрерывной — формулой

Оценки неизвестных параметров

где суммирование или интегрирование производится по всем возможным значениям Оценки неизвестных параметров (в дискретном случае каждое Оценки неизвестных параметров принадлежит множеству Оценки неизвестных параметров для которых выполнена система неравенств

Оценки неизвестных параметров

Пример 3. Пусть выборка Оценки неизвестных параметров произведена из генеральной совокупности с теоретической функцией распределения Оценки неизвестных параметров являющейся нормальной с математическим ожиданием (средним значением) т и дисперсией Оценки неизвестных параметров Рассмотрим двумерную статистику Оценки неизвестных параметров где

Оценки неизвестных параметров

Тогда

Оценки неизвестных параметров

Мы, однако, не будем вычислять записанный интеграл, а воспользуемся тем фактом (см. пример 29, часть 1, гл.6, параграф 7), что любое линейное преобразование переводит нормально распределенный вектор в вектор, снова имеющий нормальное распределение, причем ортогональное преобразование переводит вектор с независимыми координатами, имеющими одинаковые дисперсии, в вектор с также независимыми и имеющими те же самые дисперсии координатами.

Из курса теории вероятностей известно, что статистика Оценки неизвестных параметров имеет нормальное распределение со средним га и дисперсией Оценки неизвестных параметров Положим

Оценки неизвестных параметров

Очевидно, что

Оценки неизвестных параметров

Пусть теперь А — линейное ортогональное преобразование пространства Оценки неизвестных параметров ставящее в соответствие каждому вектору Оценки неизвестных параметров вектор Оценки неизвестных параметров (как известно из курса линейной алгебры, такое преобразование всегда существует). Тогда, если Оценки неизвестных параметров будет нормально распределенным случайным вектором, имеющим независимые координаты Оценки неизвестных параметров с нулевым средним и дисперсией Оценки неизвестных параметровКроме того, Оценки неизвестных параметров Далее, рассмотрим Оценки неизвестных параметров— квадрат длины вектора Оценки неизвестных параметров Простейшие преобразования показывают, что

Оценки неизвестных параметров

С другой стороны, в силу ортогональности преобразования А

Оценки неизвестных параметров

Отсюда, в частности, следует, что

Оценки неизвестных параметров

т.е. Оценки неизвестных параметров представляет собой сумму квадратов п — 1 независимых случайных величин, распределенных по стандартному нормальному закону. Вспоминая теперь, что случайные величины Оценки неизвестных параметров независимы, получаем окончательный ответ: статистики Оценки неизвестных параметров независимы Оценки неизвестных параметров статистика Оценки неизвестных параметров распределена по нормальному закону с параметрами Оценки неизвестных параметров а случайная величина Оценки неизвестных параметров (в том случае, когда дисперсия Оценки неизвестных параметров неизвестна, отношение Оценки неизвестных параметров не является статистикой, поскольку зависит от неизвестного параметра Оценки неизвестных параметров — по закону Оценки неизвестных параметров степенями свободы (см. также параграф 4).

Отметим, что проведенные рассуждения будут нами постоянно использоваться в гл. 4, посвященной статистическим задачам, связанным с нормально распределенными наблюдениями.

Важный класс статистик составляют так называемые достаточные статистики. Не давая пока строгого математического определения, скажем, что статистика S является достаточной, если она содержит всю ту информацию относительно теоретической функции распределения F(x), что и исходная выборка Оценки неизвестных параметров В частности, вариационный ряд всегда представляет собой достаточную статистику. Более сложными примерами достаточных статистик являются число успехов в схеме Бернулли и двумерная статистика S из примера 3 для выборки из генеральной совокупности с нормальной теоретической функцией распределения. В современной математической статистике достаточные статистики играют очень важную роль.

Эмпирическая функция распределения. Пусть мы имеем выборку Оценки неизвестных параметров объема п из генеральной совокупности с теоретической функцией распределения F(x). Построим по выборке Оценки неизвестных параметров аналог теоретической функции распределения F(x). Положим

Оценки неизвестных параметров

где Оценки неизвестных параметров — число элементов выборки, значения которых Оценки неизвестных параметров меньше х. Поскольку каждое Оценки неизвестных параметров меньше х с вероятностью Оценки неизвестных параметров а сами Оценки неизвестных параметров независимы, то Оценки неизвестных параметров является целочисленной случайной величиной, распределенной по биномиальному закону:

Оценки неизвестных параметров

Функция Оценки неизвестных параметров носит название эмпирической (выборочной) функции распределения. Ясно, что при каждом х значение эмпирической функции распределения Оценки неизвестных параметров является случайной величиной, принимающей значения Оценки неизвестных параметров если же рассматривать Оценки неизвестных параметров как функцию от х, то Оценки неизвестных параметров представляет собой случайный процесс.

Построение эмпирической функции распределения Оценки неизвестных параметров удобно производить с помощью вариационного ряда Оценки неизвестных параметров Функция Оценки неизвестных параметров постоянна на каждом интервале Оценки неизвестных параметров а в точке Оценки неизвестных параметровувеличивается на 1 /п.

Пример 4. График эмпирической функции распределения, построенной по вариационному ряду из табл. 3, приведен на рис. 1.

Если выборка задана статистическим рядом (см. табл. 4), то эмпирическая функция распределения также постоянна на интервалах Оценки неизвестных параметров но ее значение в точке Оценки неизвестных параметров увеличивается на Оценки неизвестных параметров а не на 1/n

Оценки неизвестных параметров

Пример 5. График эмпирической функции распределения, построенной по статистическому ряду из табл. 6, приведен на рис. 2.

Гистограмма, полигон. Для наглядности выборку иногда преобразуют следующим образом. Всю ось абсцисс делят на интервалы Оценки неизвестных параметров длиной Оценки неизвестных параметров и определяют функцию Оценки неизвестных параметров постоянную на i-м интервале и принимающую на этом интервале значение Оценки неизвестных параметров — число элементов выборки, попавших в интервал Оценки неизвестных параметров Функция Оценки неизвестных параметровназывается гистограммой.

При наблюдении дискретной случайной величины вместо гистограммы часто используют полигон частот. Для этого по оси абсцисс откладывают все возможные значения Оценки неизвестных параметров наблюдаемой величины X, а по оси ординат, пользуясь статистическим рядом, либо числа Оценки неизвестных параметров элементов выборки, принявших значения Оценки неизвестных параметров (полигон частот), либо соответствующие наблюденные частоты

Оценки неизвестных параметров

(полигон относительных частот). Для большей наглядности соседние точки соединяются отрезками прямой.

Для непрерывной наблюдаемой случайной величины полигоном относительных частот иногда называют ломаную линию, соединяющую середины отрезков, составляющих гистограмму.
Пример 6. Построим гистограмму и полигон относительных частот выборки, представленной в табл. 2. Для этого выберем интервалы одинаковой длины Оценки неизвестных параметров Числа Оценки неизвестных параметров и значения Оценки неизвестных параметров на каждом интервале приведены в табл. 7. Гистограмма выборки показана на рис. 3 сплошной линией, а полигон относительных частот — штриховой линией.

Оценки неизвестных параметров

Пример 7. Построим полигон относительных частот выборки, приведенной в табл. 5. Возможные значения наблюдаемой случайной величины X (числа частиц, попавших в счетчик Гейгера) представляют собой неотрицательные целые числа. Воспользовавшись статистическим рядом из табл. 6, получаем полигон относительных частот, изображенный на рис. 4.

Предельное поведение эмпирической функции распределения.

Предположим, что по выборке Оценки неизвестных параметров мы построили эмпирическую функцию распределения Оценки неизвестных параметров(здесь и в дальнейшем в том случае, когда нам важна зависимость какой-то характеристики от объема выборки п, будем снабжать ее дополнительным нижним индексом (n)). Как мы уже говорили, число Оценки неизвестных параметров элементов выборки, принявших значение, меньшее х, распределено по биномиальному закону с вероятностью успеха Оценки неизвестных параметров Тогда при Оценки неизвестных параметров в силу усиленного закона больших чисел (часть 1, гл.8, параграф 2) значения эмпирических функций распределения Оценки неизвестных параметров сходятся при каждом х к значению теоретической функции распределения F(x). В. И. Гливенко и Ф. П. Кантелли обобщили этот факт и доказали следующую теорему.

Теорема Гливенко-Кантелли. При Оценки неизвестных параметров с вероятностью, равной единице

Оценки неизвестных параметров

Смысл теоремы Гливенко-Кантелли заключается в том, что при увеличении объема выборки п у эмпирической функции распределения исчезают свойства случайности и она приближается к теоретической функции распределения.

Аналогично, если п велико, то значение гистограммы Оценки неизвестных параметров в точке х приближенно равно

Оценки неизвестных параметров

где Оценки неизвестных параметров — концы интервала, в котором находится х, а Оценки неизвестных параметров есть длина этого интервала. Если теоретическая функция распределения имеет плотность распределения р(х) и при этом длины интервалов Оценки неизвестных параметров малы, то гистограмма Оценки неизвестных параметров достаточно хорошо воспроизводит эту плотность.

Выборочные характеристики. Эмпирическая функция распределения Оценки неизвестных параметров построенная по фиксированной выборке Оценки неизвестных параметров обладает всеми свойствами обычной функции распределения (дискретной случайной величины). В частности, по ней можно найти математическое ожидание (среднее)

Оценки неизвестных параметров

второй момент

Оценки неизвестных параметров

дисперсию

Оценки неизвестных параметров

момент k-го порядка

Оценки неизвестных параметров

центральный момент k-го порядка

Оценки неизвестных параметров

и т.д. Соответствующие характеристики называются выборочными (выборочное среднее, выборочный второй момент, выборочная дисперсия и т.п.). Ясно, что выборочные характеристики как функции от случайных величин Оценки неизвестных параметров сами являются случайными величинами, причем их распределения определяются в соответствии с общими положениями теории вероятностей (см. часть 1, гл.6, параграф 7). Так, функция распределения выборочного среднего Оценки неизвестных параметров для случая дискретной наблюдаемой случайной величины определяется формулой

Оценки неизвестных параметров

где суммирование ведется по всем Оценки неизвестных параметров принимающим значения Оценки неизвестных параметров и удовлетворяющим неравенству Оценки неизвестных параметров а функция распределения выборочного второго момента Оценки неизвестных параметров для непрерывного случая — формулой

Оценки неизвестных параметров

Наряду с выборочной дисперсией Оценки неизвестных параметров часто используют и другую характеристику разброса выборки вокруг среднего:

Оценки неизвестных параметров

Характеристику Оценки неизвестных параметров также будем называть выборочной дисперсией, а для того чтобы не путать Оценки неизвестных параметров каждый раз будем указывать, о какой именно выборочной дисперсии идет речь. Выборочная дисперсия Оценки неизвестных параметров отличается от выборочной дисперсии Оценки неизвестных параметров только лишь наличием множителя Оценки неизвестных параметров который с увеличением объема выборки п стремится к единице, и, казалось бы, нет смысла вводить две практически одинаковые величины. Однако, как мы увидим из дальнейшего, Оценки неизвестных параметров является несмещенной оценкой теоретической дисперсии Оценки неизвестных параметров чего нельзя сказать о выборочной дисперсии Оценки неизвестных параметров хотя стандартные методы приводят именно к Оценки неизвестных параметров

Пример 8. Подсчитаем выборочное среднее и выборочные дисперсии для выборки, приведенной в табл. 2:

Оценки неизвестных параметров

Для подсчета выборочной дисперсии Оценки неизвестных параметров можно было бы воспользоваться также формулой Оценки неизвестных параметров

Основные распределения математической статистики

Наиболее часто в математической статистике используются: нормальное распределение, Оценки неизвестных параметров распределение (распределение Пирсона), t-распределение (распределение Стьюдента), F-распределение (распределение Фишера), распределение Колмогорова и Оценки неизвестных параметров-распределение. Все эти распределения связаны с нормальным. В свою очередь, широкое распространение нормального распределения обусловлено исключительно центральной предельной теоремой (см. часть 1, гл.8, параграф 4). Ввиду их особой важности все названные распределения затабулированы и содержатся в различных статистических таблицах, а также, частично, в большинстве учебников по теории вероятностей и математической статистике. Наиболее полными из известных и доступных читателю в нашей стране являются таблицы Л.Н. Большева и Н. В. Смирнова [1], на которые мы и будем ссылаться в дальнейшем.

Нормальное распределение. Одномерное стандартное нормальное распределение (стандартный нормальный закон) задается своей плотностью распределения (см. часть 1, гл.5, параграф 4)

Оценки неизвестных параметров

Значения функции Ф(x) и плотности Оценки неизвестных параметров стандартного нормального распределения, а также квантилей Оценки неизвестных параметров (функции Оценки неизвестных параметров обратной функции стандартного нормального распределения) приведены в [1], табл. 1.1-1.3 (см. также табл.2 и 3 приложения).

Общее одномерное нормальное распределение характеризуется двумя параметрами: средним (математическим ожиданием) т и дисперсией Оценки неизвестных параметров Его можно трактовать как распределение случайной величины

Оценки неизвестных параметров

где случайная величина Оценки неизвестных параметров подчинена стандартному нормальному закону. Плотность распределения и функцию распределения общего нормального закона будем обозначать через Оценки неизвестных параметров Многомерное (k-мерное) нормальное распределение (часть 1, гл.6, параграф 4) определяется вектором средних Оценки неизвестных параметров и матрицей ковариаций Оценки неизвестных параметров

Оценки неизвестных параметров-распределение (см. часть 1, гл.5, параграф 4, а также примеры 28 и 30, часть 1, гл.6, параграф 7). Пусть Оценки неизвестных параметров— независимые случайные величины, распределенные по стандартному нормальному закону. Распределение случайной величины

Оценки неизвестных параметров

носит название Оценки неизвестных параметровраспределения с п степенями свободы, Оценки неизвестных параметров-распределение имеет плотность распределения

Оценки неизвестных параметров

где Оценки неизвестных параметров введено в параграфе 4 гл. 5.

Значения функции Оценки неизвестных параметров-распределения и а-процентных точек (а-про-центная точка Оценки неизвестных параметров-распределения представляет собой Оценки неизвестных параметров-квантиль Оценки неизвестных параметров-распределения приведены в [1], табл. 2.1а и 2.2а. В дальнейшем нам будет полезно следующее свойство. Пусть Оценки неизвестных параметров независимые случайные величины, распределенные по нормальному закону с одинаковыми параметрами Оценки неизвестных параметров Положим

Оценки неизвестных параметров

Тогда случайная величина

Оценки неизвестных параметров

имеет Оценки неизвестных параметров-распределение, но с п-1 степенями свободы. Доказательство этого факта содержится в примере 3.

Еще одна схема, в которой появляется Оценки неизвестных параметров-распределение — полиномиальная схема (см. часть 1, гл.4, параграф 7). Пусть производится п независимых одинаковых испытаний, в каждом из которых с вероятностью Оценки неизвестных параметров может произойти одно из событий Оценки неизвестных параметров Обозначим через Оценки неизвестных параметров число появлений события Оценки неизвестных параметров Тогда из многомерного аналога интегральной теоремы Муавра-Лапласа следует, что случайная величина

Оценки неизвестных параметров

при Оценки неизвестных параметров асимптотически распределена по закону Оценки неизвестных параметров степенями свободы.

t-распределение. Пусть Оценки неизвестных параметров — независимые случайные величины, причем Оценки неизвестных параметров распределена по стандартному нормальному закону, а Оценки неизвестных параметровимеет Оценки неизвестных параметров-распределение с п степенями свободы. Распределение случайной величины

Оценки неизвестных параметров

называется t-распределением с п степенями свободы, t-распределение имеет плотность распределения

Оценки неизвестных параметров

Значения функции t-распределения и Оценки неизвестных параметров-процентных точек Оценки неизвестных параметров квантилей Оценки неизвестных параметров t-распределения приведены в [1], табл. 3.1а и 3.2.

Далее, пусть Оценки неизвестных параметров — независимые одинаково распределенные случайные величины, подчиненные нормальному закону со средним т. Положим

Оценки неизвестных параметров

Тогда случайные величины Оценки неизвестных параметров независимы, а случайная величина

Оценки неизвестных параметров

имеет t-распределение с n-1 степенями свободы (доказательство этого см. в примере 3).

F-распределение. Пусть Оценки неизвестных параметров две независимые случайные величины, имеющие Оценки неизвестных параметров-распределения с Оценки неизвестных параметров степенями свободы. Распределение случайной величины

Оценки неизвестных параметров

носит название F-распределения с параметрами Оценки неизвестных параметров F-распределение имеет плотность распределения

Оценки неизвестных параметров

Значения Оценки неизвестных параметров-процентных точек Оценки неизвестных параметров-квантилей Оценки неизвестных параметров-распределения приведены в [1], табл. 3.5.

Распределение Колмогорова. Функция распределения Колмогорова имеет вид

Оценки неизвестных параметров

Распределение Колмогорова является распределением случайной величины

Оценки неизвестных параметров

где Оценки неизвестных параметров — броуновский мостик, т. е. винеровский процесс с закрепленными концами Оценки неизвестных параметров на отрезке Оценки неизвестных параметров (см. [11]).

Значения функции распределения Колмогорова приведены в [1], табл.6.1. Квантили распределения Колмогорова будем обозначать через Оценки неизвестных параметров

Оценки неизвестных параметров -распределение. Функция Оценки неизвестных параметровраспределения задается формулой

Оценки неизвестных параметров

Здесь Оценки неизвестных параметров — модифицированная функция Бесселя, Оценки неизвестных параметров-распределение представляет собой распределение случайной величины

Оценки неизвестных параметров

где Оценки неизвестных параметров — броуновский мостик.

Значения функции Оценки неизвестных параметров-распределения приведены в [1], табл. 6.4а. Квантили Оценки неизвестных параметров-распределения будем обозначать через Оценки неизвестных параметров

Оценки неизвестных параметров

Как уже говорилось в гл. 1, одним из двух основных направлений в математической статистике является оценивание неизвестных параметров. В этой главе мы дадим определение оценки, опишем те свойства, которые желательно требовать от оценки, и приведем основные методы построения оценок. Завершается глава изложением метода построения доверительных интервалов для неизвестных параметров.

Статистические оценки и их свойства

Предположим, что в результате наблюдений мы получили выборку Оценки неизвестных параметров из генеральной совокупности с теоретической функцией распределения F(x). Относительно F(x) обычно бывает известно только, что она принадлежит определенному параметрическому семейству Оценки неизвестных параметров зависящему от числового или векторного параметра Оценки неизвестных параметров Как правило, для простоты изложения будем рассматривать случай числового параметра Оценки неизвестных параметров и лишь иногда обращаться к векторному параметру Оценки неизвестных параметров в векторном случае будем использовать запись Оценки неизвестных параметров Для большей наглядности будем все неизвестные параметры (за исключением теоретических моментов Оценки неизвестных параметров обозначать буквой Оценки неизвестных параметров (снабжая их при необходимости индексами), хотя в теории вероятностей для них обычно приняты другие обозначения. Наша цель состоит в том, чтобы, опираясь только на выборку Оценки неизвестных параметровоценить неизвестный параметр Оценки неизвестных параметров

Оценкой неизвестного параметра Оценки неизвестных параметров построенной по выборке Оценки неизвестных параметров назовем произвольную функцию

Оценки неизвестных параметров

зависящую только от выборки Оценки неизвестных параметров Ясно, что как функция от случайной величины Оценки неизвестных параметров оценка Оценки неизвестных параметров сама будет являться случайной величиной и, как всякая случайная величина, будет иметь функцию распределения Оценки неизвестных параметров определяемую в дискретном случае формулой

Оценки неизвестных параметров

где суммирование ведется по всем переменным Оценки неизвестных параметров принимающим значения Оценки неизвестных параметров из ряда распределения наблюдаемой случайной величины X и удовлетворяющим неравенству Оценки неизвестных параметров и в непрерывном случае — формулой

Оценки неизвестных параметров

где интегрирование ведется по области, выделяемой неравенством Оценки неизвестных параметров Как уже говорилось, иногда для того, чтобы подчеркнуть зависимость оценки от объема выборки п, будем наряду с обозначением Оценки неизвестных параметров употреблять обозначение Оценки неизвестных параметров Нужно четко представлять себе, что зависимость оценки Оценки неизвестных параметров от неизвестного параметра Оценки неизвестных параметров осуществляется только через зависимость от Оценки неизвестных параметров выборки Оценки неизвестных параметров что в свою очередь реализуется зависимостью от Оценки неизвестных параметров функции распределения Оценки неизвестных параметров Приведенное выше определение отождествляет понятие оценки Оценки неизвестных параметров (вектора оценок Оценки неизвестных параметров с одномерной (k-мерной) статистикой.

Пример:

Предположим, что проведено п испытаний в схеме Бернулли с неизвестной вероятностью успеха Оценки неизвестных параметров В результате наблюдений получена выборка Оценки неизвестных параметров где Оценки неизвестных параметров — число успехов i-м испытании. Ряд распределения наблюдаемой величины X — числа успехов в одном испытании представлен в табл. 1.

Оценки неизвестных параметров

В качестве оценки Оценки неизвестных параметров рассмотрим наблюденную частоту успехов

Оценки неизвестных параметров

где

Оценки неизвестных параметров

представляет собой суммарное число успехов в п испытаниях Бернулли. Статистика Оценки неизвестных параметров распределена по биномиальному закону с параметром Оценки неизвестных параметров поэтому ряд распределения оценки Оценки неизвестных параметров имеет вид, приведенный в табл. 2.

Оценки неизвестных параметров

Пример:

Выборка Оценки неизвестных параметров произведена из генеральной совокупности с теоретической функцией распределения Оценки неизвестных параметров являющейся нормальной с неизвестным средним Оценки неизвестных параметров В качестве оценки Оценки неизвестных параметров снова рассмотрим выборочное среднее

Оценки неизвестных параметров

Функция распределения Оценки неизвестных параметров задается формулой

Оценки неизвестных параметров

Однако вместо непосредственного вычисления написанного n-мерного интеграла заметим, что статистика

Оценки неизвестных параметров

распределена по нормальному закону с параметрами Оценки неизвестных параметров (математической ожидание) и Оценки неизвестных параметров (дисперсия). Значит, оценка Оценки неизвестных параметров распределена также по нормальному закону с параметрами Оценки неизвестных параметров

Разумеется, на практике имеет смысл использовать далеко не любую оценку.

Пример:

Как и в примере 1, рассмотрим испытания в схеме Бернулли. Однако теперь в качестве оценки неизвестной вероятности успеха Оценки неизвестных параметров возьмем

Оценки неизвестных параметров

Такая оценка будет хороша лишь в том случае, когда истинное значение Оценки неизвестных параметров ее качество ухудшается с увеличением отклонения Оценки неизвестных параметров от 1 /2.

Приведенный пример показывает, что желательно употреблять только те оценки, которые по возможности принимали бы значения, наиболее близкие к неизвестному параметру. Однако в силу случайности выборки в математической статистике мы, как правило, не застрахованы полностью от сколь угодно большой ошибки. Значит, гарантировать достаточную близость оценки Оценки неизвестных параметров к оцениваемому параметру Оценки неизвестных параметров можно только с некоторой вероятностью и для того, чтобы увеличить эту вероятность, приходится приносить необходимую жертву — увеличивать объем выборки п.

Опишем теперь те свойства, которые мы хотели бы видеть у оценки.

Главное свойство любой оценки, оправдывающее само название «оценка», — возможность хотя бы ценой увеличения объема выборки до бесконечности получить точное значение неизвестного параметра Оценки неизвестных параметров. Оценка Оценки неизвестных параметров называется состоятельной, если с ростом объема выборки она сходится к оцениваемому параметру Оценки неизвестных параметров Можно рассматривать сходимость различных типов: по вероятности, с вероятностью единица, в среднем квадратичном и т.д. Обычно рассматривается сходимость по вероятности, т.е. состоятельной называется такая оценка Оценки неизвестных параметров которая для любого Оценки неизвестных параметров при всех возможных значениях неизвестного параметра Оценки неизвестных параметров удовлетворяет соотношению

Оценки неизвестных параметров

Отметим, что правильнее было бы говорить о состоятельности последовательности оценок Оценки неизвестных параметров поскольку для каждого значения п объема выборки оценка Оценки неизвестных параметров может определяться по своему правилу. Однако в дальнейшем мы будем употреблять понятие состоятельности только для оценок, построенных по определенным алгоритмам, поэтому будем говорить просто о состоятельности оценки.

Пример:

Оценка Оценки неизвестных параметров из примера 1 является состоятельной оценкой неизвестной вероятности успеха Оценки неизвестных параметров. Это является прямым следствием закона больших чисел Бернулли.

Пример:

Пусть выборка Оценки неизвестных параметров произведена из генеральной совокупности с неизвестной теоретической функцией распределения F(x). Тогда в силу закона больших чисел выборочный момент

Оценки неизвестных параметров

сходится к теоретическому моменту Оценки неизвестных параметров значит, представляет собой состоятельную оценку Оценки неизвестных параметров Аналогично, выборочные дисперсии Оценки неизвестных параметров и выборочные центральные моменты Оценки неизвестных параметров являются состоятельными оценками теоретической дисперсии Оценки неизвестных параметров и теоретических центральных моментов Оценки неизвестных параметров Отметим, что поскольку в этом примере не предполагается принадлежность теоретической функции распределения F(x) какому-либо параметрическому семейству, то мы имеем дело с задачей оценки неизвестных моментов теоретической функции распределения в непараметрической модели.

Пример:

Выборка Оценки неизвестных параметров произведена из генеральной совокупности с теоретической функцией распределения F(x), имеющей плотность распределения Коши

Оценки неизвестных параметров

с неизвестным параметром Оценки неизвестных параметров Поскольку плотность распределения Коши симметрична относительно Оценки неизвестных параметров то казалось бы естественным в качестве оценки Оценки неизвестных параметров параметра Оценки неизвестных параметров взять выборочное среднее

Оценки неизвестных параметров

Однако Оценки неизвестных параметров как и сама наблюдаемая случайная величина X, имеет распределение Коши с тем же параметром Оценки неизвестных параметров (это легко установить с помощью характеристических функций, см. часть 1, гл.8, параграф 3), т.е. не сближается с параметром Оценки неизвестных параметров а значит, не является состоятельной оценкой параметра Оценки неизвестных параметров

Из курса теории вероятностей известно (см. часть 1, гл.7, параграф 1), что мерой отклонения оценки Оценки неизвестных параметров от параметра Оценки неизвестных параметров служит разность Оценки неизвестных параметров В математической статистике разность

Оценки неизвестных параметров

называется смещением оценки Оценки неизвестных параметров Ясно, что

Оценки неизвестных параметров

в дискретном случае и

Оценки неизвестных параметров

в непрерывном, где суммирование или интегрирование ведется по всем возможным значениям Оценки неизвестных параметров

Оценка Оценки неизвестных параметров называется несмещенной, если

Оценки неизвестных параметров

при всех Оценки неизвестных параметров е. ее среднее значение Оценки неизвестных параметров совпадает с оцениваемым параметром Оценки неизвестных параметров

Пример:

Оценка Оценки неизвестных параметров неизвестной вероятности успеха Оценки неизвестных параметров из примера 1 является несмещенной. Действительно,

Оценки неизвестных параметров

Пример:

Выборочные моменты Оценки неизвестных параметров являются несмещенными оценками теоретических моментов Оценки неизвестных параметров поскольку

Оценки неизвестных параметров

Вычислим теперь математическое ожидание выборочной дисперсии Оценки неизвестных параметров

Оценки неизвестных параметров

Таким образом, Оценки неизвестных параметров является смещенной (хотя и состоятельной, см. пример 5) оценкой дисперсии Оценки неизвестных параметров Поскольку

Оценки неизвестных параметров

то

Оценки неизвестных параметров

и Оценки неизвестных параметров представляет собой уже несмещенную оценку Оценки неизвестных параметров Можно показать также, что выборочные центральные моменты Оценки неизвестных параметров являются смещенными оценками теоретических центральных моментов Оценки неизвестных параметров

Пример:

Пусть Оценки неизвестных параметров — выборка из генеральной совокупности с теоретической функцией распределения Оценки неизвестных параметров являющейся нормальной с неизвестным средним Оценки неизвестных параметров Поскольку Оценки неизвестных параметров то оценка

Оценки неизвестных параметров

является несмещенной. Очевидно, однако, что она не является состоятельной.

Примеры 8 и 9 показывают, что состоятельная оценка может быть сметенной и, наоборот, несмещенная оценка не обязана быть состоятельной.

Рассматривая несколько оценок неизвестного параметра Оценки неизвестных параметров мы, разумеется, хотели бы выбрать из них ту, которая имела бы наименьший разброс, причем при любом значении неизвестного параметра Оценки неизвестных параметров. Мерой разброса оценки Оценки неизвестных параметров как и всякой случайной величины, является дисперсия

Оценки неизвестных параметров

(дисперсия, как и распределение оценки, зависит от неизвестного параметра Оценки неизвестных параметров). Однако для смещенной оценки Оценки неизвестных параметров дисперсия служит мерой близости не к оцениваемому параметру Оценки неизвестных параметров а к математическому ожиданию Оценки неизвестных параметров Поэтому естественно искать оценки с наименьшей дисперсией не среди всех оценок, а только среди несмещенных, что мы и будем делать в дальнейшем. Для несмещенных оценок дисперсия определяется также формулой

Оценки неизвестных параметров

Имеется несколько подходов к нахождению несмещенных оценок с минимальной дисперсией. Это связано с тем, что такие оценки существуют не всегда, а найти их бывает чрезвычайно сложно. Здесь мы изложим понятие эффективности оценки, основанное на неравенстве Рао-Крамера.

Теорема:

Неравенство Рао-Крамера. Пусть Оценки неизвестных параметров— несмещенная оценка неизвестного параметра Оценки неизвестных параметров построенная по выборке объема п. Тогда (при некоторых дополнительных условиях регулярности, наложенных на семейство Оценки неизвестных параметров

где Оценки неизвестных параметров— информация Фишера, определяемая в дискретном случае формулой

Оценки неизвестных параметров

а в непрерывном — формулой

Оценки неизвестных параметров

Прежде чем переходить к доказательству теоремы, заметим, что по неравенству Рао-Крамера дисперсия любой несмещенной оценки не может быть меньше Оценки неизвестных параметров Назовем эффективностью Оценки неизвестных параметровнесмещенной оценки Оценки неизвестных параметров величину

Оценки неизвестных параметров

Ясно, что эффективность любой оценки Оценки неизвестных параметров при каждом Оценки неизвестных параметров заключена между нулем и единицей, причем чем она ближе к единице при каком-либо Оценки неизвестных параметров тем лучше оценка Оценки неизвестных параметров при этом значении неизвестного параметра.

Несмещенная оценка Оценки неизвестных параметров называется эффективной (по Рао-Краме-ру), если Оценки неизвестных параметров при любом Оценки неизвестных параметров

Доказательство теоремы 1. Доказательство этой и всех остальных теорем будем проводить (если не сделано специальной оговорки) для непрерывного случая. Это связано с тем, что непрерывный случай, как правило, более сложен, и читатель, усвоивший доказательство для непрерывного случая, легко проведет его для дискретного.

Как мы увидим из хода доказательства, условия регулярности семейства Оценки неизвестных параметров упомянутые в формулировке теоремы, есть не что иное, как условия, гарантирующие законность дифференцирования под знаком интеграла в формулах (1) и (3). В разных книгах сформулированы различные достаточные условия. Мы упомянем одно из них, приведенное в [11]:

функция Оценки неизвестных параметров для всех (точнее, для почти всех) х непрерывно дифференцируема по Оценки неизвестных параметров информация Фишера Оценки неизвестных параметров конечна, положительна и непрерывна по Оценки неизвестных параметров

Приступим теперь к собственно доказательству теоремы. Заметим прежде всего, что, дифференцируя тождество

Оценки неизвестных параметров

(в силу сформулированного условия это можно делать), получаем

Оценки неизвестных параметров

Далее, в силу несмещенности оценки Оценки неизвестных параметров имеем

Оценки неизвестных параметров

Дифференцируя это равенство по Оценки неизвестных параметров и учитывая очевидное тождество

Оценки неизвестных параметров

полученное из (1) и (2), находим

Оценки неизвестных параметров

Воспользовавшись неравенством Коши-Буняковского

Оценки неизвестных параметров

при

Оценки неизвестных параметров

имеем

Оценки неизвестных параметров

Заметим теперь, что в силу тождества (2)

Оценки неизвестных параметров

Тогда неравенство (5) можно переписать в виде Оценки неизвестных параметров откуда и следует неравенство Рао-Крамера.

Замечание:

Для превращения используемого при доказательстве теоремы 1 неравенства Коши-Буняковского, в равенство необходимо и достаточно существование таких функций Оценки неизвестных параметроваргумента х и Оценки неизвестных параметров аргумента Оценки неизвестных параметров что ,

Оценки неизвестных параметров

При этом оценка Оценки неизвестных параметров должна иметь вид

Оценки неизвестных параметров

Обозначая

Оценки неизвестных параметров

и интегрируя уравнение (6), получаем, что необходимым условием существования эффективной оценки является возможность представления плотности распределения Оценки неизвестных параметров в виде

Оценки неизвестных параметров

где Оценки неизвестных параметров — функции, зависящие только от Оценки неизвестных параметров функции, зависящие только от Оценки неизвестных параметров

Аналогичное представление для ряда распределения Оценки неизвестных параметров должно иметь место и в дискретном случае. Семейство плотностей или рядов распределения такого вида носит название экспоненциального.

Экспоненциальные семейства играют в математической статистике важную роль. В частности, как мы показали, только для этих семейств могут существовать эффективные оценки, которые к тому же определяются формулой

Оценки неизвестных параметров

(появление множителя Оценки неизвестных параметров связано с неоднозначностью определения функций Оценки неизвестных параметров в представлении (7)). Однако следует помнить, что не для всякого экспоненциального семейства существует эффективная оценка (в принятом нами смысле), поскольку эффективная оценка по определению должна быть несмещенной, что, вообще говоря, нельзя сказать об оценке (8) в случае произвольного экспоненциального семейства. Впрочем, из тождества (1) вытекает весьма простой способ проверки несмещенности (8) непосредственно по Оценки неизвестных параметров заключающийся в выполнении равенства Оценки неизвестных параметров

Замечание:

Неравенство Рао-Крамера можно обобщить на случай смещенных оценок:

Оценки неизвестных параметров

И в этом случае неравенство превращается в равенство только тогда, когда семейство распределений экспоненциально.

Пример:

Рассмотрим оценку Оценки неизвестных параметров неизвестной вероятности успеха Оценки неизвестных параметров в схеме Бернулли из примера 1. Как показано в примере 7, эта оценка несмещенная. Дисперсия Оценки неизвестных параметров имеет вид

Оценки неизвестных параметров

Найдем информацию Фишера (напомним, что в данном случае наблюдаемая величина X принимает всего два значения 0 и 1 с вероятностями Оценки неизвестных параметров соответственно):

Оценки неизвестных параметров

Таким образом, Оценки неизвестных параметров и, значит, оценка Оценки неизвестных параметров эффективная.

Пример:

Рассмотрим оценку Оценки неизвестных параметров неизвестного среднего нормального закона из примера 2. Поскольку эта оценка представляет собой выборочное среднее, то в соответствии с результатами, полученными в примере 8, она является несмещенной. Найдем ее эффективность. Для этого прежде всего заметим, что

Оценки неизвестных параметров

Далее,

Оценки неизвестных параметров
Оценки неизвестных параметров

И в этом примере оценка Оценки неизвестных параметров является эффективной.

Пример:

Оценим неизвестную дисперсию Оценки неизвестных параметров нормального закона при известном среднем т. Плотность нормального распределения представима в виде

Оценки неизвестных параметров

где

Оценки неизвестных параметров

т.е. по отношению к неизвестной дисперсии Оценки неизвестных параметров принадлежит экспоненциальному семейству. Поэтому эффективная оценка Оценки неизвестных параметров дисперсии Оценки неизвестных параметров должна по формуле (8) иметь вид

Оценки неизвестных параметров

С другой стороны, нетрудно видеть, что Оценки неизвестных параметров откуда следует несмещенность оценки

Оценки неизвестных параметров

и, значит, ее эффективность. Впрочем, эффективность оценки Оценки неизвестных параметров легко установить и на основе неравенства Рао-Крамера.

Пусть теперь мы оцениваем не дисперсию, а среднее квадратичное отклонение Оценки неизвестных параметров И в этом случае имеет место представление (7), только теперь

Оценки неизвестных параметров

Поэтому равенство Оценки неизвестных параметров не превращается в тождество ни при каком выборе g, и, значит, эффективной (в смысле Рао-Крамера) оценки среднего квадратичного отклонения нормального закона не существует. Рассмотрим оценку

Оценки неизвестных параметров

равную корню квадратному из оценки дисперсии с точностью до постоянного множителя Оценки неизвестных параметров Читателю предлагается проверить, что оценка Оценки неизвестных параметров несмещенная. Кроме того, в следующем параграфе будет показано, что среди всех несмещенных оценок среднего квадратичного отклонения Оценки неизвестных параметров она имеет минимальную дисперсию (хотя и не является эффективной).

Пример:

Пусть выборка Оценки неизвестных параметров произведена из генеральной совокупности с равномерным на интервале Оценки неизвестных параметров теоретическим распределением. Оценим неизвестный параметр Оценки неизвестных параметров Обозначим через Оценки неизвестных параметров максимальный член вариационного ряда. В качестве оценки параметра Оценки неизвестных параметров возьмем

Оценки неизвестных параметров

Функция распределения Оценки неизвестных параметров статистики Оценки неизвестных параметров задается формулой

Оценки неизвестных параметров

Тогда

Оценки неизвестных параметров

Значит, оценка Оценки неизвестных параметров несмещенная. Далее,

Оценки неизвестных параметров

Мы видим, что дисперсия оценки Оценки неизвестных параметров при Оценки неизвестных параметров убывает, как Оценки неизвестных параметров Такая оценка оказалась более эффективной, поскольку дисперсия эффективной оценки убывает только, как 1 /п. Разгадка парадокса чрезвычайно проста: для данного семейства не выполнены условия регулярности, необходимые при доказательстве неравенства Рао-Крамера. Используя понятие достаточной статистики, в следующем параграфе мы докажем минимальность дисперсии данной оценки.

В заключение этого параграфа отметим, что эффективные по Рао-Крамеру оценки существуют крайне редко. Правда, как мы увидим в параграфе 4, эффективность по Рао-Крамеру играет существенную роль в асимптотическом анализе оценок, получаемых методом максимального правдоподобия. Кроме того, существуют обобщения неравенства Рао-Крамера (например, неравенство Бхаттачария [7]), позволяющие доказывать оптимальность более широкого класса оценок.

В следующем параграфе мы рассмотрим другой подход к определению оценок с минимальной дисперсией, базирующийся на достаточных статистиках.

Наиболее распространенные методы нахождения оценок приводятся в параграфах 3-6.

Наконец, в параграфе 7 описан подход к построению доверительных интервалов для неизвестных параметров.

Достаточные оценки

Первый шаг в поисках другого (не основанного на неравенстве Рао-Крамера) принципа построения оценок с минимальной дисперсией состоит во введении понятия достаточной статистики (отметим, что достаточные статистики играют в современной математической статистике весьма важную роль, причем как при оценке неизвестных
параметров, так и при проверке статистических гипотез). Назовем k-мерную статистику

Оценки неизвестных параметров

достаточной для параметра Оценки неизвестных параметров если условное распределение Оценки неизвестных параметров выборки Оценки неизвестных параметров при условии Оценки неизвестных параметров не зависит от параметра Оценки неизвестных параметров

Пример:

Пусть Оценки неизвестных параметров — число успехов в i-м испытании Бернулли (см. пример 1). Рассмотрим статистику

Оценки неизвестных параметров

— общее число успехов в п испытаниях Бернулли. Покажем, что она является достаточной для вероятности успеха Оценки неизвестных параметров Для этого найдем условное распределение Оценки неизвестных параметров Воспользовавшись определением условной вероятности, получаем

Оценки неизвестных параметров

Если Оценки неизвестных параметров то вероятность Оценки неизвестных параметров совпадает с вероятностью Оценки неизвестных параметров т.е.

Оценки неизвестных параметров

(напомним еще раз, что каждое Оценки неизвестных параметров может принимать здесь только значение О или 1, причем Оценки неизвестных параметров Поскольку вероятность Оценки неизвестных параметров определяется формулой Бернулли

Оценки неизвестных параметров

то из (9) получаем, что

Оценки неизвестных параметров

т. е. не зависит от Оценки неизвестных параметров Если же Оценки неизвестных параметров то

Оценки неизвестных параметров

откуда

Оценки неизвестных параметров

т. е. опять-таки не зависит от Оценки неизвестных параметров Таким образом, S — достаточная статистика.

Очевидно, что использовать приведенное выше определение для проверки достаточности конкретных статистик весьма сложно, особенно в непрерывном случае. Простой критерий достаточности задается следующей теоремой.

Теорема:

Факторизационная теорема Неймана-Фишера. Для того чтобы статистика Оценки неизвестных параметров была достаточной для параметра Оценки неизвестных параметров необходимо и достаточно, чтобы ряд распределения

Оценки неизвестных параметров

в дискретном случае или плотность распределения

Оценки неизвестных параметров

в непрерывном случае выборки Оценки неизвестных параметров были представимы в виде

Оценки неизвестных параметров

где функция Оценки неизвестных параметров зависит только от Оценки неизвестных параметров а функция Оценки неизвестных параметров — только от Оценки неизвестных параметров

Доказательство:

Для простоты изложения ограничимся только дискретным случаем. По определению условной вероятности,

Оценки неизвестных параметров

Очевидно, что числитель в правой части (II) совпадает с вероятностью Оценки неизвестных параметров в том случае, когда Оценки неизвестных параметров и равен нулю в противном. Поскольку событиями нулевой вероятности можно пренебречь, то ограничимся случаем Оценки неизвестных параметров и запишем (11) в виде

Оценки неизвестных параметров

Теперь, если S — достаточная статистика, то левая часть (12) не зависит от Оценки неизвестных параметров Обозначая ее через Оценки неизвестных параметров — через Оценки неизвестных параметров приходим к (10), что доказывает необходимость (10). И наоборот, пусть выполнено (10). Тогда

Оценки неизвестных параметров

Подставляя последнее равенство в (12), имеем

Оценки неизвестных параметров

т.е. не зависит от Оценки неизвестных параметров а значит, статистика S является достаточной.

Замечание к теореме 2. Очевидно, что представление (10) справедливо с точностью до функции Оценки неизвестных параметров зависящей только от Оценки неизвестных параметров

Пример:

Пусть Оценки неизвестных параметров — выборка из генеральной совокупности с теоретической функцией распределения, являющейся нормальной со средним Оценки неизвестных параметров и дисперсией Оценки неизвестных параметров Покажем, что (двумерная) статистика Оценки неизвестных параметров где

Оценки неизвестных параметров

является достаточной для (двумерного) параметра Оценки неизвестных параметров (см. также пример 3 из гл. 1). Действительно, плотность распределения Оценки неизвестных параметров выборки Оценки неизвестных параметров представима в виде

Оценки неизвестных параметров

т.е. имеет вид (10), где

Оценки неизвестных параметров

Пример:

Пусть Оценки неизвестных параметров — выборка из генеральной совокупности с равномерным на интервале Оценки неизвестных параметров теоретическим распределением (см. пример 13). Покажем, что максимальный член вариационного ряда

Оценки неизвестных параметров

является (одномерной) достаточной статистикой для Оценки неизвестных параметров Действительно, вспоминая, что плотность Оценки неизвестных параметров равномерно распределенной на интервале Оценки неизвестных параметров величины равна Оценки неизвестных параметров при Оценки неизвестных параметров и нулю в противном случае, получаем для плотности распределения выборки Оценки неизвестных параметров выражение

Оценки неизвестных параметров

В частности, область изменения каждого аргумента Оценки неизвестных параметров при отличной от нуля плотности распределения зависит от параметра Оценки неизвестных параметров Рассмотрим функцию

Оценки неизвестных параметров

и положим

Оценки неизвестных параметров

С учетом введенных функций.

Оценки неизвестных параметров

Здесь уже при определении функции Оценки неизвестных параметров сверху не наложено никаких ограничений, поскольку они автоматически ограничены своим максимальным значением S, которое в свою очередь не превосходит Оценки неизвестных параметров Но это означает, что функция Оценки неизвестных параметров не зависит от параметра Оценки неизвестных параметров и в соответствии с теоремой 2 статистика

Оценки неизвестных параметров

является достаточной для параметра Оценки неизвестных параметров

Пример:

Покажем, что для экспоненциального семейства (7) существует одномерная достаточная статистика. Этот факт легко установить, если подставить выражение (7) в формулу для плотности распределения выборки

Оценки неизвестных параметров

Полагая теперь

Оценки неизвестных параметров

видим, что одномерная статистика

Оценки неизвестных параметров

является достаточной для параметра Оценки неизвестных параметров

Как уже говорилось в гл. 1, смысл достаточной статистики S заключается в том, что она включает в себя всю ту информацию о неизвестном параметре Оценки неизвестных параметров которая содержится в исходной выборке Оценки неизвестных параметров Интуиция подсказывает нам: оценка с наименьшей дисперсией (если она существует) должна зависеть только от достаточной статистики S. И действительно, следующий наш шаг будет заключаться в переходе от произвольной оценки Оценки неизвестных параметров к оценке Оценки неизвестных параметров зависящей только от достаточной статистики S, причем этот переход совершится таким образом, чтобы дисперсия оценки Оценки неизвестных параметров не превосходила дисперсии исходной оценки Оценки неизвестных параметров

Начиная с этого момента и до конца параграфа будем для простоты предполагать, что неизвестный параметр Оценки неизвестных параметров является одномерным.

Пусть имеется некоторая оценка Оценки неизвестных параметровэтого параметра, а также (произвольная) статистика S. Рассмотрим условное математическое ожидание Оценки неизвестных параметров случайной величины Оценки неизвестных параметров при условии S (см. часть 1, гл. 7, параграф 5). Следующее утверждение, играющее основную роль в наших рассуждениях, было получено независимо Д. Блекуэлом, М.М. Рао и А.Н. Колмогоровым.

Теорема:

Улучшение оценки по достаточной статистике. Пусть S — достаточная статистика, а Оценки неизвестных параметров — несмещенная оценка параметра Оценки неизвестных параметровТогда условное математическое ожидание Оценки неизвестных параметров является несмещенной оценкой параметра Оценки неизвестных параметров зависящей только от достаточной статистики S и удовлетворяющей неравенству

Оценки неизвестных параметров

при всех Оценки неизвестных параметров

Доказательство:

В силу достаточности статистики 5 условное распределение, а значит, и условное математическое ожидание оценки Оценки неизвестных параметров при условии S не зависит от неизвестного параметра Оценки неизвестных параметров (для произвольной статистики S функция Оценки неизвестных параметров вообще говоря, может зависеть от т.е. Оценки неизвестных параметров представляет собой оценку параметра Оценки неизвестных параметров причем зависящую только от S. Далее, из равенства

Оценки неизвестных параметров

для условного математического ожидания немедленно следует несмещенность оценки Оценки неизвестных параметров

Наконец,

Оценки неизвестных параметров

Используя опять свойство условного математического ожидания, получаем

Оценки неизвестных параметров

Поэтому

Оценки неизвестных параметров

Замечание:

Неравенство (13) превращается для некоторого Оценки неизвестных параметров в равенство тогда и только тогда, когда Оценки неизвестных параметров (почти всюду по мере Оценки неизвестных параметров

Замечание:

Утверждение теоремы остается в силе и для смещенной оценки Оценки неизвестных параметров В частности, Оценки неизвестных параметров

Смысл теоремы 3 заключается в том, что взятие условного математического ожидания, т. е. переход к оценке Оценки неизвестных параметров зависящей только от достаточной статистики S, не ухудшает любую оценку Оценки неизвестных параметров при всех значениях неизвестного параметра Оценки неизвестных параметров

Пример:

Пусть Оценки неизвестных параметров — выборка из нормально распределенной генеральной совокупности с неизвестным средним Оценки неизвестных параметров и известной дисперсией Оценки неизвестных параметров В примере 9 было показано, что оценка Оценки неизвестных параметров даже не является состоятельной оценкой Оценки неизвестных параметров хотя она и несмещенная. Рассмотрим статистику

Оценки неизвестных параметров

Нетрудно показать, что статистика S является достаточной для параметра Оценки неизвестных параметров Поэтому мы можем определить новую оценку Оценки неизвестных параметров Для ее вычисления заметим, что величины Оценки неизвестных параметров имеют двумерное нормальное распределение со средними Оценки неизвестных параметров дисперсиями Оценки неизвестных параметров и ковариацией Оценки неизвестных параметров Но тогда, как известно из курса теории вероятностей, условное распределение Оценки неизвестных параметров при условии S = s также является нормальным со средним значением Оценки неизвестных параметров как раз и представляющим собой значение Оценки неизвестных параметров при S = s. Поскольку коэффициент корреляции Оценки неизвестных параметров то среднее значение условного распределения Оценки неизвестных параметров совпадает с s/n и окончательно получаем

Оценки неизвестных параметров

Иными словами, мы из совсем плохой оценки Оценки неизвестных параметров получили эффективную (см. пример 11) оценку Оценки неизвестных параметров

Рассмотренный пример приоткрывает нам те возможности, которые несет с собой теорема 3. Однако, прежде чем сделать последний шаг, введем еще одно определение. Назовем статистику Оценки неизвестных параметров полной для семейства распределений Оценки неизвестных параметров если из того, что

Оценки неизвестных параметров

при всех Оценки неизвестных параметров (мы для простоты предположили существование плотности распределения Оценки неизвестных параметров следует, что функция Оценки неизвестных параметров тождественно равна нулю. Теперь мы в состоянии сформулировать окончательный итог наших поисков.

Теорема:

Минимальность дисперсии оценки, зависящей от полной достаточной статистики. Пусть S — полная достаточная статистика, Оценки неизвестных параметров — несмещенная оценка неизвестного параметра Оценки неизвестных параметров Тогда

Оценки неизвестных параметров

является единственной несмещенной оценкой с минимальной дисперсией.

Доказательство теоремы немедленно вытекает из предыдущих результатов. Действительно, в силу теоремы 3 оценка с минимальной дисперсией обязательно должна находиться среди оценок, зависящих только от достаточной статистики S; в противном случае ее можно было бы улучшить с помощью условного математического ожидания. Но среди оценок, зависящих только от S, может быть максимум одна несмещенная. В самом деле, если таких оценок две: Оценки неизвестных параметров то функция

Оценки неизвестных параметров

имеет при всех значениях Оценки неизвестных параметров математическое ожидание

Оценки неизвестных параметров

что в силу полноты статистики S влечет за собой равенство Оценки неизвестных параметров нулю. Само же существование несмещенной оценки Оценки неизвестных параметров зависящей только от S, гарантируется существованием просто несмещенной оценки Оценки неизвестных параметров

Перейдем к обсуждению полученных результатов.

Условие полноты статистики S, как мы видим, сводится к единственности несмещенной оценки Оценки неизвестных параметров зависящей только от статистики S. Нам не известно общих теорем, которые давали бы простые правила проверки полноты произвольной статистики S. Однако, как мы увидим из примеров, в конкретных случаях кустарные способы обычно дают хорошие результаты.

Сравнение размерностей полной статистики S и оцениваемого параметра Оценки неизвестных параметров дает право говорить, что, как правило, статистика S должна иметь ту же размерность, что и Оценки неизвестных параметров а поскольку мы ограничились одномерным параметром Оценки неизвестных параметров то S также должна быть одномерной. Это приводит к следующим полезным определениям. Оценка Оценки неизвестных параметров называется достаточной, если она является достаточной как одномерная статистика. Аналогично, назовем оценку Оценки неизвестных параметров полной, если она является полной статистикой.

Сформулируем очевидное следствие из теоремы 4. которое удобно применять во многих частных случаях.

Следствие из теоремы 4. Если оценка Оценки неизвестных параметров несмещенная и зависит только от полной достаточной статистики S, то она имеет минимальную дисперсию.

Пример:

Пусть Оценки неизвестных параметров — выборка из генеральной совокупности, распределенной по нормальному закону с известным средним m и неизвестным средним квадратичным отклонением Оценки неизвестных параметров Нетрудно показать, что статистика

Оценки неизвестных параметров

является достаточной для параметра Оценки неизвестных параметров Покажем, что она также полная. Для этого вспомним (см. параграф 4 гл. 1), что случайная величина Оценки неизвестных параметров имеет Оценки неизвестных параметров-распределение с п степенями свободы, а значит, статистика Оценки неизвестных параметров имеет плотность распределения

Оценки неизвестных параметров

Пусть теперь Оценки неизвестных параметров — такая функция, что Оценки неизвестных параметров при всех Оценки неизвестных параметровПоложим

Оценки неизвестных параметров

Тогда

Оценки неизвестных параметров

что Оценки неизвестных параметров для всех Оценки неизвестных параметров Но из теории преобразований Лапласа известно, что в этом случае оригинал Оценки неизвестных параметров а значит, и функция Оценки неизвестных параметровтакже должны тождественно равняться нулю, что и доказывает полноту статистики S.

Рассмотрим теперь оценку

Оценки неизвестных параметров

(см. пример 12) неизвестного среднего квадратичного отклонения Оценки неизвестных параметров Эта оценка несмещенная и зависит только от полной достаточной статистики S. Поэтому по следствию из теоремы 4 она имеет минимальную дисперсию, хотя, как было показано в примере 12, и не является эффективной по Рао-Крамеру.

Пример:

Рассмотрим оценку

Оценки неизвестных параметров

параметра Оценки неизвестных параметров равномерного на интервале Оценки неизвестных параметров распределения (см. пример 13). В примере 13 показано, что эта оценка несмещенная. Статистика Оценки неизвестных параметров является достаточной (см. пример 16). Покажем, наконец, что — полная статистика. Действительно, для любой функции Оценки неизвестных параметров

Оценки неизвестных параметров

Отсюда, в частности, следует, что если Оценки неизвестных параметров при всех Оценки неизвестных параметров то

Оценки неизвестных параметров

при всех х. Поэтому Оценки неизвестных параметров и статистика Оценки неизвестных параметров полная.

Таким образом, в силу следствия из теоремы 4 и в этом примере оценка Оценки неизвестных параметров имеет минимальную дисперсию.

Метод моментов

Пусть мы имеем выборку Оценки неизвестных параметров из генеральной совокупности с теоретической функцией распределения F(x), принадлежащей k-параметрическому семейству Оценки неизвестных параметров с неизвестными параметрами Оценки неизвестных параметров которые нужно оценить. Поскольку нам известен вид теоретической функции распределения, мы можем вычислить первые k теоретических моментов. Эти моменты, разумеется, будут зависеть от k неизвестных параметров Оценки неизвестных параметров

Оценки неизвестных параметров

Суть метода моментов заключается в следующем: так как выборочные моменты являются состоятельными оценками теоретических моментов (см. пример 8), мы можем в написанной системе равенств при большом объеме выборки п теоретические моменты Оценки неизвестных параметров заменить на выборочные Оценки неизвестных параметров а затем, решая эту систему относительно Оценки неизвестных параметров найти оценки неизвестных параметров. Таким образом, в методе моментов оценки Оценки неизвестных параметров неизвестных параметров Оценки неизвестных параметров определяются из системы уравнений

Оценки неизвестных параметров

Можно показать, что при условии непрерывной зависимости решения этой системы от начальных условий Оценки неизвестных параметров оценки, полученные методом моментов, будут состоятельными. Более того, справедлива следующая теорема.

Теорема:

Асимптотическая нормальность оценок, полученных методом моментов. При некоторых условиях, наложенных на семейство Оценки неизвестных параметров совместное распределение случайных величин

Оценки неизвестных параметров

при Оценки неизвестных параметров сходится к (многомерному) нормальному закону с нулевыми средними и матрицей ковариаций, зависящей от теоретических моментов Оценки неизвестных параметров и матрицы Оценки неизвестных параметров

Доказательство:

Будем полагать, что выполнены следующие условия: а) параметры Оценки неизвестных параметров однозначно определяются своими моментами Оценки неизвестных параметров

б) существует теоретический момент Оценки неизвестных параметров порядка 2k (это эквивалентно существованию дисперсий у выборочных моментов Оценки неизвестных параметров

в) функция

Оценки неизвестных параметров

дифференцируема по Оценки неизвестных параметров с отличным от нуля якобианом Оценки неизвестных параметров

Доказательство теоремы проведем для одномерного случая, предоставляя общий случай читателю. Оно является комбинацией следующих результатов: теоремы о дифференцируемости обратного отображения и центральной предельной теоремы. Действительно, поскольку существует дисперсия DX, то при каждом истинном значении Оценки неизвестных параметров параметра Оценки неизвестных параметров в силу центральной предельной теоремы выборочное среднее

Оценки неизвестных параметров

асимптотически при Оценки неизвестных параметров распределено по нормальному закону с параметрами Оценки неизвестных параметров С другой стороны, сама оценка Оценки неизвестных параметров записывается в виде

Оценки неизвестных параметров

где Оценки неизвестных параметров — обратная к Оценки неизвестных параметров функция. В силу сделанных предположений обратное отображение Оценки неизвестных параметров в окрестности точки Оценки неизвестных параметров приближенно представляет собой линейную функцию

Оценки неизвестных параметров

причем Оценки неизвестных параметров Но тогда и случайная величина Оценки неизвестных параметров как приближенно линейное преобразование приближенно нормальной случайной величины Оценки неизвестных параметров распределена приближенно по нормальному закону со средним Оценки неизвестных параметров и дисперсией Оценки неизвестных параметров Это доказывает утверждение теоремы.

Пример:

Найдем методом моментов оценку неизвестной вероятности успеха Оценки неизвестных параметров в схеме Бернулли. Поскольку в схеме Бернулли только один неизвестный параметр, для его определения необходимо приравнять теоретическое математическое ожидание числа успехов в одном испытании Оценки неизвестных параметров выборочному среднему Оценки неизвестных параметров

Итак, оценка Оценки неизвестных параметров полученная методом моментов, представляет собой наблюденную частоту успехов. Свойства этой оценки были нами достаточно полно исследованы в примерах 1, 4, 7 и 10.

Пример:

Выборка Оценки неизвестных параметров произведена из генеральной совокупности с теоретической функцией распределения, имеющей гамма-плотность

Оценки неизвестных параметров

с двумя неизвестными параметрами Оценки неизвестных параметров Первые два момента случайной величины X, имеющей гамма-распределение, задаются формулами:

Оценки неизвестных параметров

Отсюда для определения оценок Оценки неизвестных параметров неизвестных параметров Оценки неизвестных параметров получаем систему двух уравнений:

Оценки неизвестных параметров

решение которой имеет вид

Оценки неизвестных параметров

Вообще говоря, в методе моментов не обязательно использовать первые k моментов. Более того, можно рассматривать моменты не обязательно целого порядка. Иногда для использования в методе моментов привлекают более или менее произвольные функции Оценки неизвестных параметров сравнивая выборочные средние

Оценки неизвестных параметров

функций Оценки неизвестных параметров с теоретическими средними

Оценки неизвестных параметров

Пример:

Пусть выборка Оценки неизвестных параметров произведена из нормальной генеральной совокупности с известным средним т и неизвестной дисперсией Оценки неизвестных параметров Попробуем для оценивания Оценки неизвестных параметров применить метод моментов, взяв выборочное среднее Оценки неизвестных параметров Но теоретическое среднее Оценки неизвестных параметров не зависит от параметра Оценки неизвестных параметров Это означает, что использование выборочного среднего для оценивания неизвестной дисперсии неправомочно и нужно привлекать моменты других порядков. В частности, применяя второй выборочный момент Оценки неизвестных параметров и вспоминая, что Оценки неизвестных параметров получаем оценку

Оценки неизвестных параметров

Следует отметить, что оценки, полученные методом моментов, обычно имеют эффективность существенно меньше единицы и даже являются смещенными. Иногда из-за своей простоты они используются в качестве начального приближения для нахождения более эффективных оценок.

Метод максимального правдоподобия

Метод максимального правдоподобия является наиболее распространенным методом нахождения оценок. Пусть по-прежнему выборка Оценки неизвестных параметров произведена из генеральной совокупности с неизвестной теоретической функцией распределения F(x), принадлежащей известному однопараметрическому семейству Оценки неизвестных параметров Функция

Оценки неизвестных параметров

в дискретном случае и

Оценки неизвестных параметров

в непрерывном называется функцией правдоподобия. Отметим,что в функции правдоподобия Оценки неизвестных параметров элементы выборки Оценки неизвестных параметров являются фиксированными параметрами, а Оценки неизвестных параметров— аргументом (а не истинным значением неизвестного параметра). Функция правдоподобия по своей сути представляет собой не что иное, как вероятность (в непрерывном случае плотность распределения) получить именно ту выборку Оценки неизвестных параметров которую мы реально имеем, если бы значение неизвестного параметра равнялось Оценки неизвестных параметров Естественно поэтому в качестве оценки неизвестного параметра Оценки неизвестных параметров выбрать Оценки неизвестных параметров доставляющее наибольшее значение функции правдоподобия Оценки неизвестных параметров Оценкой максимального правдоподобия называется такое значение Оценки неизвестных параметров для которого

Оценки неизвестных параметров

При практической реализации метода максимального правдоподобия удобно пользоваться не самой функцией правдоподобия, а ее логарифмом.

Уравнением правдоподобия называется уравнение

Оценки неизвестных параметров

Если функция правдоподобия дифференцируема по Оценки неизвестных параметров в каждой точке, то оценку максимального правдоподобия Оценки неизвестных параметров следует искать среди значений Оценки неизвестных параметров удовлетворяющих уравнению правдоподобия или принадлежащих границе области допустимых значений Оценки неизвестных параметров. Для наиболее важных семейств Оценки неизвестных параметров уравнение правдоподобия имеет единственное решение Оценки неизвестных параметров которое и является оценкой максимального правдоподобия.

Пример:

Найдем оценку неизвестной вероятности успеха Оценки неизвестных параметров в схеме Бернулли, но теперь уже в отличие от примера 21 методом максимального правдоподобия. Поскольку Оценки неизвестных параметров если X = 0, то функцию правдоподобия можно записать так:

Оценки неизвестных параметров

где Оценки неизвестных параметров — суммарное число успехов в п испытаниях. Тогда уравнение правдоподобия принимает вид

Оценки неизвестных параметров

Решая это уравнение, имеем

Оценки неизвестных параметров

Поскольку

Оценки неизвестных параметров

то Оценки неизвестных параметров представляет собой выпуклую вверх функцию Оценки неизвестных параметров Значит, Оценки неизвестных параметров доставляет максимум функции правдоподобия Оценки неизвестных параметров т.е. является оценкой максимального правдоподобия. Эта оценка представляет собой, как и в примере 21, наблюденную частоту успехов.

Оказывается, имеется тесная связь между эффективными оценками и оценками, полученными методом максимального правдоподобия. А именно, справедлива следующая теорема.

Теорема:

Совпадение эффективной оценки с оценкой максимального правдоподобия. Если (естественно, при условиях регулярности теоремы 1) существует эффективная оценка Оценки неизвестных параметров то она является оценкой максимального правдоподобия Оценки неизвестных параметров

Доказательство теоремы 6 представляет собой дальнейшее уточнение доказательства теоремы 1. Действительно, как следует из замечания 1 к теореме 1, из существования эффективной оценки Оценки неизвестных параметров вытекает (6) и (8) Оценки неизвестных параметров Отсюда и из (4) следует равенство

Оценки неизвестных параметров

Поэтому из условия строгой положительности информации I вытекает строгая положительность Оценки неизвестных параметров которая в свою очередь влечет за собой единственность решения

Оценки неизвестных параметров

уравнения правдоподобия

Оценки неизвестных параметров

Это решение совпадает с эффективной оценкой Оценки неизвестных параметров и задает единственный максимум функции правдоподобия Оценки неизвестных параметров

В общем случае оценка максимального правдоподобия может быть не только неэффективной, но и смещенной. Тем не менее она обладает свойством асимптотической эффективности в следующем смысле.

Теорема:

Асимптотическая эффективность оценки максимального правдоподобия. При некоторых условиях на семейство Оценки неизвестных параметров уравнение правдоподобия имеет решение, при Оценки неизвестных параметров асимптотически распределенное по нормальному закону со средним Оценки неизвестных параметров и дисперсией Оценки неизвестных параметров где I — информация Фишера.

Доказательство:

Сначала сформулируем условия теоремы (см. [9]), которые, как мы увидим далее, гарантируют возможность дифференцируемости под знаком интеграла и разложения Оценки неизвестных параметров в ряд Тейлора до первого члена:

а) для (почти) всех х существуют производные

Оценки неизвестных параметров

б) при всех Оценки неизвестных параметров справедливы неравенства

Оценки неизвестных параметров

где функции Оценки неизвестных параметров интегрируемы на Оценки неизвестных параметров причем M не зависит от Оценки неизвестных параметров

в) информация I конечна и положительна для всех Оценки неизвестных параметров

Обозначим через Оценки неизвестных параметров истинное значение неизвестного параметра Оценки неизвестных параметров В силу условий теоремы справедливо следующее разложение Оценки неизвестных параметров в окрестности Оценки неизвестных параметров

Оценки неизвестных параметров

причем Оценки неизвестных параметров Тогда после умножения на Оценки неизвестных параметров уравнение правдоподобия можно записать в виде

Оценки неизвестных параметров

где случайные величины Оценки неизвестных параметров определяются выражениями

Оценки неизвестных параметров

Рассмотрим поведение Оценки неизвестных параметров при больших п. Дифференцируя (1) по Оценки неизвестных параметров получаем

Оценки неизвестных параметров

Поэтому

Оценки неизвестных параметров

Вернемся к уравнению (14) и воспользуемся сначала тем фактом, что при Оценки неизвестных параметров в силу закона больших чисел Оценки неизвестных параметров причем, согласно условиям теоремы, Оценки неизвестных параметров Тогда можно показать, что уравнение (14) будет в некоторой окрестности Оценки неизвестных параметров иметь асимптотически единственное решение Оценки неизвестных параметровкоторое к тому же определяется приближенной формулой

Оценки неизвестных параметров

Величина Оценки неизвестных параметров по центральной предельной теореме, при Оценки неизвестных параметров имеет асимптотически нормальное распределение с нулевым средним и дисперсией Оценки неизвестных параметров

Поэтому оценка Оценки неизвестных параметров также асимптотически распределена по нормальному закону с параметрами Оценки неизвестных параметров

Замечание:

Доказанная теорема гарантирует, что среди всех решений уравнения правдоподобия существует по крайней мере одно Оценки неизвестных параметров обладающее свойством асимптотической эффективности в указанном смысле. Более того, такое решение асимптотически единственно в некоторой окрестности точки Оценки неизвестных параметров (т. е. вероятность того, что в этой окрестности имеется другое решение уравнения правдоподобия, с ростом п стремится к нулю) и именно оно доставляет локальный максимум функции правдоподобия в этой окрестности. Но с самого начала мы назвали оценкой максимального правдоподобия оценку, доставляющую глобальный максимум функции правдоподобия. Такая оценка, вообще говоря, может не совпадать с Оценки неизвестных параметров и даже быть неединственной. Однако если семейство распределений Оценки неизвестных параметров удовлетворяет естественному свойству разделимости, смысл которого сводится к тому, что для достаточно удаленных друг от друга Оценки неизвестных параметров распределения Оценки неизвестных параметров также достаточно хорошо отличаются друг от друга, то любая оценка максимального правдоподобия будет состоятельной, т.е. стремиться к оцениваемому параметру. Вкупе с доказанной теоремой это означает асимптотическую единственность оценки максимального правдоподобия и совпадение ее с Оценки неизвестных параметров что позволяет при асимптотическом анализе свойств оценки максимального правдоподобия говорить не об одном из решений уравнения правдоподобия или даже не об одной из оценок максимального правдоподобия, а просто об оценке максимального правдоподобия Оценки неизвестных параметровДетальный разбор этого явления можно найти в [И]. Там же показано, что для оценки близости распределений удобно использовать расстояние Кульбака-Лейблера

Оценки неизвестных параметров

поскольку в силу закона больших чисел именно к расстоянию Кульбака-Лейблера при Оценки неизвестных параметров сходится с точностью до знака, постоянной

здесь Оценки неизвестных параметров — аргумент функции правдоподобия, а Оценки неизвестных параметров — истинное значение неизвестного параметра.

В случае, когда семейство Оценки неизвестных параметров зависит от нескольких неизвестных параметров Оценки неизвестных параметров при использовании метода максимального правдоподобия нужно искать максимум функции правдоподобия или ее логарифма по k аргументам Оценки неизвестных параметров Уравнение правдоподобия превращается в систему уравнений

Оценки неизвестных параметров

Пример:

Выборка Оценки неизвестных параметров произведена из нормальной генеральной совокупности с неизвестными параметрами Оценки неизвестных параметров (среднее) и Оценки неизвестных параметров (дисперсия). Найдем их оценки Оценки неизвестных параметров методом максимального правдоподобия. Логарифм функции правдоподобия задается формулой

Оценки неизвестных параметров

Система уравнений правдоподобия имеет вид

Оценки неизвестных параметров

Таким образом,

Оценки неизвестных параметров

Читателю предлагается самостоятельно показать, что Оценки неизвестных параметровдоставляют максимум функции правдоподобия Оценки неизвестных параметровОценки Оценки неизвестных параметров параметров Оценки неизвестных параметров совпадают с выборочным средним Оценки неизвестных параметров и выборочной дисперсией Оценки неизвестных параметров Отметим, что оценка Оценки неизвестных параметров неизвестного математического ожидания Оценки неизвестных параметров является эффективной (см. пример 11), чего нельзя сказать об оценке Оценки неизвестных параметров неизвестной дисперсии Оценки неизвестных параметров которая, как мы знаем, является даже смещенной.

Оказывается, однако, что если мы в качестве оценки параметра Оценки неизвестных параметров рассмотрим выборочную дисперсию Оценки неизвестных параметров то эта оценка будет уже не только несмещенной, но и иметь минимальную дисперсию среди всех несмещенных оценок параметра Оценки неизвестных параметров Последний факт вытекает из неравенства Бхаттачария [7], обобщающего неравенство Рао-Крамера, а также может быть установлен из свойств многомерных достаточных оценок [11].

Метод минимального расстояния

Суть этого метода заключается в следующем. Предположим, что любым двум функциям распределения Оценки неизвестных параметров поставлено в соответствие число

Оценки неизвестных параметров

называемое расстоянием, причем Оценки неизвестных параметров Пусть теперь, как обычно, задана выборка Оценки неизвестных параметров из генеральной совокупности с теоретической функцией распределения F(x), принадлежащей параметрическому семейству Оценки неизвестных параметров Вычислим расстояние между эмпирической функцией распределения Оценки неизвестных параметров и функциями распределения Оценки неизвестных параметров из данного семейства. Оценкой, полученной методом минимального расстояния, называется такое значение Оценки неизвестных параметров для которого

Оценки неизвестных параметров

т. е. такое значение Оценки неизвестных параметров которое определяет ближайшую к Оценки неизвестных параметров в смысле расстояния р функцию распределения из семейства Оценки неизвестных параметров

Приведем примеры некоторых наиболее часто встречающихся в математической статистике расстояний.

Равномерное расстояние (расстояние Колмогорова) определяется формулой

Оценки неизвестных параметров

Расстояние Оценки неизвестных параметров имеет вид

Оценки неизвестных параметров

Расстояние Оценки неизвестных параметров употребляется для функций распределения Оценки неизвестных параметров дискретных случайных величин Оценки неизвестных параметров принимающих одинаковые значения Оценки неизвестных параметров и задается выражением

Оценки неизвестных параметров

где вероятности Оценки неизвестных параметров определяются рядами распределения случайных величин Оценки неизвестных параметров

Использование приведенных выше расстояний для получения оценок весьма сложно в вычислительном плане, и поэтому они употребляются крайне редко. Здесь мы упомянули об этих расстояниях только потому, что применение оценок, полученных с их помощью, позволяет упростить вычисление уровней значимости критериев при проверке сложных непараметрических статистических гипотез, поскольку такие оценки естественным образом связаны с соответствующими критериями (см. параграф 5 гл. 3).

Метод номограмм

Еще одним методом, позволяющим, пользуясь только номограммами (специальным образом разлинованными листами бумаги, которые в математической статистике носят название вероятностной бумаги), весьма просто и быстро оценить неизвестные параметры, является метод номограмм. Его сущность состоит в следующем. Пусть мы имеем выборку Оценки неизвестных параметров из генеральной совокупности с неизвестной теоретической функцией распределения, принадлежащей двухпараметрическому семейству Оценки неизвестных параметров Предположим теперь, что каким-то чрезвычайно простым способом удалось построить функцию распределения Оценки неизвестных параметров из семейства Оценки неизвестных параметров достаточно хорошо приближающую эмпирическую функцию распределения Оценки неизвестных параметров Тогда Оценки неизвестных параметров будут являться оценками неизвестных параметров Оценки неизвестных параметров причем в силу теоремы Гливенко-Кантелли состоятельными при весьма слабых условиях, накладываемых на семейство Оценки неизвестных параметров

Казалось бы, мы пришли к не менее сложной задаче: найти «чрезвычайно простой» способ приближения эмпирической функции распределения функцией распределения из семейства Оценки неизвестных параметров Оказывается, однако, что графики функций распределения тех семейств Оценки неизвестных параметров в которых Оценки неизвестных параметров по сути дела, связаны с параметрами «сдвига» и «масштаба» (к таким семействам относятся, например, нормальное, логнормальное и т.д.), можно с помощью некоторых нелинейных преобразований координат превратить в семейство прямых линий. Тогда, построив в этих новых координатах график эмпирической функции распределения Оценки неизвестных параметров нетрудно визуально провести прямую, которая достаточно хорошо приближает Оценки неизвестных параметров а затем уже по коэффициентам проведенной прямой найти оценки Оценки неизвестных параметров и неизвестных параметров Оценки неизвестных параметров

Практическая реализация метода номограмм происходит следующим образом. Сначала выборку Оценки неизвестных параметров преобразуют в вариационный ряд Оценки неизвестных параметров и на номограмме для соответствующего семейства Оценки неизвестных параметров откладывают точки Оценки неизвестных параметров с координатами Оценки неизвестных параметров абсциссы которых Оценки неизвестных параметров представляют собой точки скачков эмпирической функции распределения Оценки неизвестных параметров а ординаты Оценки неизвестных параметров— середины этих скачков. Затем «на глаз» проводят прямую линию, проходящую как можно ближе ко всем точкам Оценки неизвестных параметров Наконец, с помощью пояснений к номограмме по коэффициентам прямой находят оценки Оценки неизвестных параметров неизвестных параметров Оценки неизвестных параметров

Пример 26. Предполагая в примере 1 из гл. 1, что проекция вектора скорости молекул водорода распределена по нормальному закону, оценим с помощью метода номограмм неизвестное математическое ожидание Оценки неизвестных параметров и дисперсию Оценки неизвестных параметров Воспользовавшись вариационным рядом выборки, найдем координаты точек Оценки неизвестных параметров (табл.3). Отложим точки Оценки неизвестных параметров на номограмме для нормального распределения (на нормальной вероятностной бумаге) и проведем «на глаз» прямую А, задаваемую уравнением Оценки неизвестных параметров (рис. 1).

Оценки неизвестных параметров

Оценка Оценки неизвестных параметров математического ожидания Оценки неизвестных параметров совпадает с точкой пересечения прямой А с осью абсцисс, т. е. Оценки неизвестных параметров Для того чтобы найти оценку дисперсии Оценки неизвестных параметров определим значение коэффициента Оценки неизвестных параметров Тогда Оценки неизвестных параметров Для сравнения приведем значения оценок этих же параметров, полученные методом максимального

Оценки неизвестных параметров

правдоподобия (см. пример 18, а также пример 8 из гл. 1): Оценки неизвестных параметровОценки неизвестных параметров Как видим, оценки весьма близки.

Следует отметить, что с помощью метода номограмм можно судить также о правильности выбора семейства Оценки неизвестных параметровДействительно, по множеству точек Оценки неизвестных параметров сразу видно, группируются они вокруг некоторой прямой или нет. Если нет, то возникают серьезные сомнения в принадлежности теоретического распределения F(x) семейству Оценки неизвестных параметров

Доверительные интервалы

Полученные в предыдущих параграфах оценки неизвестных параметров естественно называть точечными, поскольку они оценивают неизвестный параметр одним числом или точкой. Однако, как мы знаем, точечная оценка не совпадает с оцениваемым параметром и более разумно было бы указывать те допустимые границы, в которых может находиться неизвестный параметр Оценки неизвестных параметров при наблюденной выборке Оценки неизвестных параметров К сожалению, в подавляющем большинстве важных для практики случаев при любой выборке Оценки неизвестных параметров достоверная область, в которой может находиться неизвестный параметр Оценки неизвестных параметров совпадает со всей возможной областью изменения этого параметра, поскольку такую выборку мы можем получить с ненулевой вероятностью (или плотностью распределения) при каждом значении Оценки неизвестных параметров Поэтому приходится ограничиваться нахождением границ изменения неизвестного параметра с некоторой наперед заданной степенью доверия или доверительной вероятностью.

Доверительной вероятностью назовем такую вероятность Оценки неизвестных параметров что событие вероятности Оценки неизвестных параметров можно считать невозможным. Разумеется, выбор доверительной вероятности полностью зависит от исследователя, причем во внимание принимаются не только его личные наклонности, но и физическая суть рассматриваемого явления. Так, степень доверия авиапассажира к надежности самолета, несомненно, должна быть выше степени доверия покупателя к надежности электрической лампочки. В математической статистике обычно используют значения доверительной вероятности 0,9, 0,95, 0,99, реже 0,999, 0,9999 и т. д.

Задавшись доверительной вероятностью Оценки неизвестных параметров мы уже можем по выборке Оценки неизвестных параметров определить интервал Оценки неизвестных параметров в котором будет находиться неизвестный параметр Оценки неизвестных параметров Такой интервал называется доверительным интервалом (иногда также говорят «интервальная оценка») доверительной вероятности Оценки неизвестных параметров для неизвестного параметра Оценки неизвестных параметров Отметим, что доверительная вероятность а ни в коей мере не является вероятностью неизвестному параметру Оценки неизвестных параметров принадлежать доверительному интервалу Оценки неизвестных параметров поскольку, как мы предположили с самого начала, априорные сведения о параметре Оценки неизвестных параметров в частности о его распределении, отсутствуют. Когда говорят, что неизвестный параметр не может выйти за границу доверительного интервала Оценки неизвестных параметров констатируют только, что если при любом истинном значении Оценки неизвестных параметров в результате эксперимента получена выборка Оценки неизвестных параметров а затем по ней построен доверительный интервал Оценки неизвестных параметров то этот интервал с вероятностью Оценки неизвестных параметров накроет значение Оценки неизвестных параметров

Доверительные интервалы определим, следуя Ю. Нейману, опираясь на точечные оценки. По заданной оценке Оценки неизвестных параметров доверительные интервалы доверительной вероятности а можно построить различными способами. На практике обычно используют два типа доверительных интервалов: симметричные и односторонние. Ограничимся описанием процедуры построения симметричных доверительных интервалов. Односторонние доверительные интервалы находятся совершенно аналогично.

Итак, пусть у нас имеется выборка Оценки неизвестных параметров из генеральной совокупности с неизвестной теоретической функцией распределения F(x), принадлежащей однопараметрическому семейству Оценки неизвестных параметров Предположим также, что нами выбрана некоторая оценка Оценки неизвестных параметров по которой мы хотим построить симметричный доверительный интервал доверительной вероятности Оценки неизвестных параметров Для этого возьмем произвольное значение Оценки неизвестных параметров и найдем функцию распределения Оценки неизвестных параметров оценки Оценки неизвестных параметров Определим Оценки неизвестных параметров и Оценки неизвестных параметров из решения уравнений (см. рис. 2):

Оценки неизвестных параметров

(напомним, что Оценки неизвестных параметров носят название Оценки неизвестных параметров-квантилей функции распределения Оценки неизвестных параметров Таким образом, при заданном Оценки неизвестных параметров оценка Оценки неизвестных параметров будет с вероятностью Оценки неизвестных параметров заключена в интервале Оценки неизвестных параметров причем вероятность попадания Оценки неизвестных параметров как влево, так и вправо от интервала Оценки неизвестных параметров имеет одно и то же значение Оценки неизвестных параметров (отсюда происходит название «симметричный»). Откладывая теперь на графике рис. 3 по оси абсцисс значение параметра Оценки неизвестных параметров а по оси ординат — соответствующие ему значения Оценки неизвестных параметров получим кривые Оценки неизвестных параметров В силу принципа невозможности события, происходящего с вероятностью 1 — а, заключаем, что все возможные пары Оценки неизвестных параметров могут находиться только внутри области G между кривыми Оценки неизвестных параметров Для окончания построения доверительного интервала остается заметить, что, получив по выборке Оценки неизвестных параметров оценку Оценки неизвестных параметров мы вправе сделать вывод: неизвестный параметр Оценки неизвестных параметров в обязан лежать внутри интервала где Оценки неизвестных параметров определяются из решения уравнений

Оценки неизвестных параметров

Именно интервал Оценки неизвестных параметров и является симметричным доверительным интервалом доверительной вероятности Оценки неизвестных параметров

Оценки неизвестных параметров

Пример 27. Построим симметричный доверительный интервал доверительной вероятности а для неизвестной вероятности успеха Оценки неизвестных параметров в схеме Бернулли. Естественно в качестве оценки Оценки неизвестных параметров взять наблюденную частоту

Оценки неизвестных параметров

где Оценки неизвестных параметров — суммарное наблюденное число успехов (см. пример 24).

При малом объеме выборки п процедура построения доверительных интервалов трудоемка, поскольку она практически сводится к перебору значений неизвестного параметра. Поэтому существуют специальные таблицы (см. [1], табл. 5.2), которые по наблюденным значениям числа успехов Оценки неизвестных параметров и числа неудач Оценки неизвестных параметров дают границы доверительного интервала доверительной вероятности а.

Оценки неизвестных параметров

При больших объемах выборки п пользуются тем фактом, что в силу интегральной теоремы Муавра-Лапласа оценка Оценки неизвестных параметров распределена приближенно по нормальному закону со средним Оценки неизвестных параметров и дисперсией Оценки неизвестных параметров Тогда решения уравнений

Оценки неизвестных параметров

связаны с Оценки неизвестных параметров-квантилями Оценки неизвестных параметров (см. [1], табл. 1.3) стандартного нормального закона формулами

Оценки неизвестных параметров

Учитывая, что Оценки неизвестных параметров уравнения кривых Оценки неизвестных параметров можно записать в единой эквивалентной форме

Оценки неизвестных параметров

Последнее уравнение, как нетрудно видеть, представляет собой уравнение эллипса (рис. 4) (физически непонятный выход эллипса за полосу Оценки неизвестных параметров связан с тем, что при Оценки неизвестных параметров близких к нулю или единице, необходимо в соответствии с теоремой Пуассона использовать не нормальную, а пуассоновскую аппроксимацию оценки Оценки неизвестных параметров Уравнение для определения границ Оценки неизвестных параметровдоверительного интервала имеет вид

Оценки неизвестных параметров

откуда окончательно получаем

Оценки неизвестных параметров

Пример:

Построим симметричный доверительный интервал доверительной вероятности а для неизвестного среднего Оценки неизвестных параметров нормального закона при известной дисперсии Оценки неизвестных параметров Эффективной оценкой Оценки неизвестных параметров параметра Оценки неизвестных параметров как мы знаем (пример 18), является выборочное среднее

Оценки неизвестных параметров

Оценка Оценки неизвестных параметров также распределена по нормальному закону с параметрами Оценки неизвестных параметров Поэтому

Оценки неизвестных параметров

т.е. Оценки неизвестных параметров представляют собой уравнения двух параллельных прямых (рис. 5). Решая уравнения получаем границы доверительного интервала Оценки неизвестных параметровили, учитывая, что Оценки неизвестных параметров

Оценки неизвестных параметров

Пример:

Как и в предыдущем примере, предположим, что выборка Оценки неизвестных параметров произведена из нормальной генеральной совокупности, но с неизвестной дисперсией Оценки неизвестных параметров а среднее известно и равно т. В качестве оценки Оценки неизвестных параметров неизвестной дисперсии Оценки неизвестных параметров возьмем выборочную дисперсию

Оценки неизвестных параметров

Тогда случайная величина Оценки неизвестных параметров будет иметь Оценки неизвестных параметров-распределение с п степенями свободы, а значит, решения уравнений

Оценки неизвестных параметров

определяются формулами

Оценки неизвестных параметров

где Оценки неизвестных параметров— а-квантиль Оценки неизвестных параметров-распределения с п степенями свободы (см. [1], табл. 2.26). Уравнения

Оценки неизвестных параметров

представляют собой уравнения двух лучей, исходящих из начала координат (рис.6), и, значит, границы симметричного доверительного интервала доверительной вероятности а для неизвестной дисперсии Оценки неизвестных параметров задаются формулами

Оценки неизвестных параметров

Пример:

Рассмотрим, наконец, случай, когда в выборке из нормальной генеральной совокупности неизвестны оба параметра: среднее Оценки неизвестных параметров и дисперсия Оценки неизвестных параметров В качестве их оценок воспользуемся выборочным средним

Оценки неизвестных параметров

и выборочной дисперсией

Оценки неизвестных параметров

(см. пример 25).

Построение доверительного интервала Оценки неизвестных параметров для неизвестного среднего начнем с определения случайной величины

Оценки неизвестных параметров

которая, как говорилось в параграфе 4 гл. 1, имеет t-распределение с п — 1 степенями свободы. Обозначим через Оценки неизвестных параметров-квантили t-распределения (см. [1], табл. 3.2). Тогда значение оценки среднего с вероятностью а будет лежать в пределах

Оценки неизвестных параметров

Продолжая рассуждения, как и в случае известной дисперсии, и учитывая равенство Оценки неизвестных параметров получаем окончательные выражения для границ Оценки неизвестных параметров симметричного доверительного интервала доверительной вероятности a:

Оценки неизвестных параметров

Доверительный интервал Оценки неизвестных параметров доверительной вероятности а для неизвестной дисперсии Оценки неизвестных параметров строится точно так же, как и в примере 29:

Оценки неизвестных параметров

При этом нужно учитывать, что квантили Оценки неизвестных параметров берутся для Оценки неизвестных параметров-распределения с Оценки неизвестных параметров степенями свободы, поскольку одна степень свободы уходит на определение неизвестного среднего Оценки неизвестных параметров

В заключение отметим, что в современной математической статистике доверительные интервалы строят так же, основываясь на критериях значимости.

Решение заданий и задач по предметам:

  • Теория вероятностей
  • Математическая статистика

Дополнительные лекции по теории вероятностей:

  1. Случайные события и их вероятности
  2. Случайные величины
  3. Функции случайных величин
  4. Числовые характеристики случайных величин
  5. Законы больших чисел
  6. Статистические оценки
  7. Статистическая проверка гипотез
  8. Статистическое исследование зависимостей
  9. Теории игр
  10. Вероятность события
  11. Теорема умножения вероятностей
  12. Формула полной вероятности
  13. Теорема о повторении опытов
  14. Нормальный закон распределения
  15. Определение законов распределения случайных величин на основе опытных данных
  16. Системы случайных величин
  17. Нормальный закон распределения для системы случайных величин
  18. Вероятностное пространство
  19. Классическое определение вероятности
  20. Геометрическая вероятность
  21. Условная вероятность
  22. Схема Бернулли
  23. Многомерные случайные величины
  24. Предельные теоремы теории вероятностей
  25. Генеральная совокупность

Понравилась статья? Поделить с друзьями:
  • Как составить психологическую интерпретацию
  • Как составить претензию на услуги стоимость
  • Как найти свои пароли в телефоне гугл
  • Пропал айфон как найти через компьютер
  • Госуслуги как найти заявление в каком разделе