Поможем написать учебную работу
Если у вас возникли сложности с курсовой, контрольной, дипломной, рефератом, отчетом по практике, научно-исследовательской и любой другой работой - мы готовы помочь.

Предоплата всего

Подписываем
Если у вас возникли сложности с курсовой, контрольной, дипломной, рефератом, отчетом по практике, научно-исследовательской и любой другой работой - мы готовы помочь.
Предоплата всего
Подписываем
§2 Условные распределения
Способы задания закона распределения двумерной случайной величины (с.в.) (X,Y).
1) Функция распределения F(x,y).
Определение.
F(x,y)=P{X<x, Y<y}. (1)
Определяется для дискретных и непрерывных составляющих.
Свойства F(x,y):
1) 0≤ F(x,y) ≤1;
2) F(x,y) неубывающая функция по каждому аргументу;
3) F(‒∞,∞) = F(‒ ∞,y) = F(x,‒ ∞) = 0;
4) F(∞,∞) = 1;
5) F(x,∞) = F1(x), F(∞,y) = F2(y), где F1(x) и F2(y) маргинальные (по каждому аргументу) функции распределения.
2) Распределение дискретной с.в. (X,Y) можно задать таблицей распределения:
Y X |
x1 |
x2 |
… |
xn |
y1 |
p11 |
p21 |
… |
pn1 |
y2 |
p11 |
p22 |
… |
p n2 |
… |
… |
… |
… |
… |
ym |
p1m |
p 2m |
… |
p nm |
,
Свойства таблицы распределения:
а) для любых i и j pij ≥ 0, где pij = P{X = xi, Y = yi};
б) pij = 1;
Обозначим ; , которые при всех i и j задают маргинальные (одномерные) распределения с.в. X и Y соответственно.
По ФВП получаем
P{X=xi} = ; (2)
аналогично получаем
P{Y=yi} = . (3)
3) Распределение непрерывной с.в. (X,Y) можно задать плотностью
распределения
; (4)
маргинальная плотность распределения с.в. Х;
маргинальная плотность распределения с.в. Y;
; . (5)
2. Условные распределения и условные математические ожидания (у.м.о)
1) В дискретном случае
(6)
у.м.о. (при фиксированном условии это число (const)).
Аналогично определяется и .
2) В непрерывном случае , условные плотности при фиксированном значении другой координате.
У.м.о. для непрерывной с.в. при фиксированном условии есть
это числа (const). |
|
Если рассматривать значение y с.в. Y как случайное, то E(X/Y) с.в., зависящая от с.в. Y и называется у.м.о.
Простейшие свойства у.м.о E(X/Y):
1) E(C/Y) = C; |
(7) |
2) E(CX/Y) = CE(X/Y); |
|
3) E(X +Y/Z) = E(X/Z) + E(Y/Z). |
Если рассматривать значение x и y как возможные текущие значения с.в. Х и Y, то , , где и - некоторые функции одного переменного. Тогда уравнения регрессии соответственно по x и y есть
среднее значение с.в. X при фиксированном значении с.в. Y=y; (8) |
|
среднее значение с.в. Y при фиксированном значении с.в. X=x. |
Если уравнение регрессии есть уравнение прямой (т.е. описывает линейную зависимость) то регрессия называется прямолинейной.
Тема условных распределений имеет важное теоретическое и практической значение, т.к. аппарат условных распределений и у.м.о. используется при решении различных статистических задач, а линии регрессии отражают зависимость между компонентами двумерной с.в. (X,Y).
Пусть одна из компонент двумерной с.в. (X,Y) недоступна для наблюдений, например, компонента Y. Тогда возникает задача прогноза возможных значений с.в. Y по наблюденным значениям с.в. X. Это означает поиск зависимости компонент X и Y: , наилучшим образом приближающей возможные значения с.в. Y. Вид зависимости ищется, исходя из минимизации выбранной меры близости с.в. к Y. Наиболее распространенной является мера близости в среднем квадратическом:
. Тогда ищется из условий .
Ниже доказывается, что этот минимум достигается на .
Свойства линий регрессии:
1) Если X и Y нз с.в., то линии регрессии параллельны координатным осям.
Доказательство.
Из нз с.в. X и Y следует, что
прямая параллельна оси 0(║0) |
или |
|
прямая параллельна оси 0(║0) |
линий регрессии есть ;
2) Если (a и b const), то линии регрессии совпадают и имеют уравнение
Доказательство.
Значения с.в. X и Y взаимно однозначно определяют друг друга и не являются случайными при задании одного из них, поэтому уравнения регрессии есть
а это уравнения одной и той же прямой: . |
Приведем некоторые важные теоретические сведения по теме в виде следующих задач.
Задача 1.
Доказать, что когда X и Y независимые с.в., то
Решение.
По (6) имеем:
,
откуда следует, что . .
Аналогично, .
Для нз с.в. X и Y
.
Аналогично .
Задача 2.
Доказать, что .
Решение.
а) X и Y дискретные с.в., тогда, т.к. P(A/B)P(B) = P(AB) при A = (X = xi), B = (Y = yj) имеем
=, где маргинальное распределение с.в. X |
б) Пусть теперь X и Y непрерывные с.в., тогда
Задача 3.
Доказать, что достигает на , т.е. все возможные в указанном выше смысле прогнозируемые значения с.в. Y лежат на линии регрессии
Доказательство.
=
=
Если доказать, что (*) = 0, то получаем:
равенство достигается тогда, когда , что и утверждалось.
Остается доказать, что .
Напомним свойства у.м.о.:
|
(А) |
||
(Б) (7) |
|||
|
(В) (Г) |
Воспользуемся свойствами у.м.о. (7) и утверждением задачи 2.
Представим
Рассмотрим
Покажем, что по свойствам А, Б и В для у.м.о. имеем:
, что и завершает доказательство утверждения.
Формула полного математического ожидания (ФПМО).
Пусть Х дискретная с.в. с возможными значениями ; {Bk} полная группа несовместных событий. Тогда
это ФПМО, отсюда следует, что .
Задача.
, где Y целочисленная с.в.; и Y независимые с.в., с.в. одинаково распределены. Найти EZ, зная и .
Решение.
Положим , . Тогда по ФПМО
= .
Замечание. Такой же результат в данной задаче был получен ранее методом производящих функций.
Задачи по теме.
Задача 1.
Дано совместное распределение с.в. X и Y. Найти маргинальные распределения с.в. X и Y, EX, EY, условные распределения с.в. X при (j=1,2); и F(x,y).
X Y |
2 |
5 |
8 |
0.4 |
0.15 |
0.30 |
0.35 |
0.8 |
0.05 |
0.12 |
0.03 |
(Проверка: 0.15 + 0.30 + 0.35 + 0.05 + 0.12 + 0.03 = 1)
Решение.
По (2) и (3):
X |
2 |
5 |
8 |
Y |
0.4 |
0.8 |
|
P |
0.2 |
0.42 |
0.38 |
; |
P |
0.8 |
0.2 |
EX = :
EY = .
По (4)
Аналогично получаем: 0.25;
Отсюда видно, что E(X/Y) есть с.в. с рядом распределения:
E(X/Y) |
4.7 |
5.75 |
P(Y) |
0.2 |
0.8 |
Поэтому
Задача 2.
В счетчик поток космических частиц. Число попавших в счетчик частиц в течение времени t распределено по закону Пуассона (λ > 0). Каждая частица, независимо от других может быть зарегистрирована с вероятностью p. число зарегистрированных частиц за время t. Найти условное распределение с.в. при условии, что и .
Решение.
=
=
условное распределение с.в. при есть .
= =
=
Задача 3.
Случайная точка (X,Y) распределена равномерно в области D, т.е. R[D]. Найти и уравнения регрессий.
Решение.
; ; .
y = 1+x x = y1 |
y |
yx+1 x = 1y |
y = x1 x = y1 |
y = x1 x = y+1 |
;
т.е. ;
т.е. .
Уравнения регрессии: x = 0, y = 0 т.е. линии регрессии координатные оси.
Задача 4.
Случайная точка распределения на плоскости с плотностью (это двумерная
нормальная плотность):
Найти уравнения линий регрессии, где r коэффициент корреляции, , , , .
Решение.
=
=
Аналогично получаем:
;
что соответствует нормальному распределению:
, откуда следует, что
.
Аналогично получаем:
, откуда
.
Таким образом, имеем уравнения линий регрессии:
; .
Задача 5.
Рабочий обслуживает n однотипных станков, расположенных в ряд на расстоянии а друг от друга. Рабочий приходит к ним в порядке появления неисправностей. Х длина перехода к следующему, требующему ремонта станку. Найти EХ.
Решение.
Пусть событие Bk рабочий находится у k-ого станка (k = 1,…,n); xi возможное значение с.в.; Х длина перехода к 1-ому станку.
Тогда по (1) имеем:
=
= .
Задача 6.
С.в. при X = x с.в. . Найти и линии регрессии.
Решение.
Регрессия с.в. X на Y: x = E(x/y):
Регрессия с.в. Y на X: y=E(Y/x);
Задача 7.
С.в. при с.в. при с.в.
Найти .
Решение.
=
Это ясно и сразу, т.к. с.в. при
X дискретная с.в. с возможными значениями полная группа несовместимых событий, тогда , Отсюда следует: т.е. рекуррентное соотношение откуда
=
=
§3 Основные понятия математической статистики
Математическая статистика занимается разработкой, научным обоснованием и применением методов обработки данных наблюдений с целью получения информации о распределении изучаемой случайной величины.
Пусть Х наблюдаемая случайная величина (с.в.)
Все значения, которые может принимать с.в. Х называют выборочным пространством или генеральной совокупностью; n возможных значений с.в. Х называются выборкой (n объем выборки):
=( x1, x2, x3, ...., xn).
Конкретные n наблюденных значений с.в. Х называются реализацией выборки.
Для того чтобы изучение с.в. по выборке имело смысл, необходимо, чтобы выборка не искажала, а отражала свойства генеральной совокупности. Такая выборка называется представительной (репрезентативной). Математически это означает, что элементы выборки должны быть независимыми, одинаково распределенными с.в. с тем же законом распределения, что и у изучаемой с.в. Х.
Если упорядочить значения выборки по величине X(1) ≤ X(2)≤ ....≤ X(n) , то ряд X(1), X(2), ....,X(n) называется вариационным рядом или рядом порядковых статистик, а элементы ряда называются вариантами или порядковыми статистиками.
Элементы вариационного ряда не обладают теми же свойствами, которыми обладала выборка, т.е. они не являются независимыми, одинаково распределенными с.в. и каждый имеет свой закон распределения, не совпадающий с законом распределения исходной с.в. Х (доказательство см. ниже)
Проиллюстрируем это на примере крайних порядковых статистик с.в. X с функцией распределения F(x):
X(1)=min( x1, ...., xn )=U и x(n) =max( x1, ...., xn )=V; Зависимость их очевидна.
Найдем закон распределения для с.в. U и V. Обозначим: GU(x) функция распределения с.в. U и GV(x) функция распределения с.в. V ;
GU(x) = P{U<x} = P{min(x1,....,xn )<x} = (сформулируем эквивалентное событие в терминах элементов выборки, переходя к дополнительному событию, и учитывая свойства элементов выборки) = 1 P{xi ≥ x} =
= 1P{xi ≥ x} = 1 (1F(x))n
Найдем плотность распределения с.в. U есть gU(x) = Gu′(x) =
= n(1-F(x) )n-1 f0(x).
Аналогичными рассуждениями найдем закон распределения с.в. V:
GV(x) = P{x(n) < x} = P{x1 < x, ...., xn < x} = F(x). Тогда плотностью распределения с.в. V есть gv(x) = GV(x) = nF0(x)n-1 f(x)
Статистика это любая функция от наблюдений, не зависящая от неизвестных параметров распределения.
Семейство распределений Fq(x) множество распределений одного аналитического вида со всеми возможными значениями параметра
q = (q1, …, qk).
Основные задачи математической статистики
Непараметрическая задача статистики
Это первоначальная (грубая) обработка данных вида: наблюдаемая с.в. Х и реализация выборки x = (x1,....,xn) с целью получения информации о виде распределения с.в. Х, т.е. нахождения семейства распределений, к которому оно относится. В результате решения задачи получается, что L(X) Î Fq(x), где L(X) - распределение с.в. Х, а q = (q1,....,qk) неизвестный параметр распределения с.в. Х.
Параметрическая задача статистики
Эта задача решается после решения непараметрической задачи (когда семейство распределений Fq(x) для с.в. Х уже определено) и состоит в уточнении значения параметра q или функции τ(q) от этого параметра в общем случае, где q = (q1,....,qk), т.е. в построении оценки t() = = функции τ(q) = τ.
При решении этой задачи различают два подхода: точечное и доверительное оценивание.
1) Точечное оценивание
Суть точечного оценивания в том, что для τ(q) строится одна статистика t(x) =, которая принимается за оценку τ(q), т.е. t(x) =.
«Хорошей» оценкой является такая оценка, которая наиболее близка к истинному значению τ(q), т.е. когда ее значения в каком-то смысле сконцентрированы вокруг истинного значения τ(q).
Математически это означает желательность следующих свойств оценки:
а) несмещенность
Et(x) = τ(q), где Et(x) среднее значение с.в. Х (при малых выборках это требование очень важно, при больших n достаточно выполнения свойства асимптотической несмещенности: Et(x) q, но Et(x)q, при n∞
б) состоятельность
t(x) τ(q), что означает P{|t(x) - τ(q)| >} 0
в) эффективность, которая определяется только для несмещенных оценок и определяется дисперсией Dt(x). Тогда значение дисперсии несмещенной оценки называется ее эффективностью, которая используется при сравнении качества несмещенных оценок: та оценка лучше, у которой дисперсия меньше, т.е. эффективность больше.
Оценка называется оптимальной, если она несмещенная и имеет минимально возможную дисперсию.
2) Доверительное оценивание
Ограничимся сначала рассмотрением этого подхода в случае одномерного параметра. Тогда решение состоит в построении двух статистик: t1= t1() и t2 = t2() таким образом, чтобы P{t1() < τ(q)< t2()} = g, где g некоторое значение, называемое доверительной вероятностью, а интервал I = (t1(x), t2(x)) доверительным интервалом (этот интервал желательно строить наиболее коротким). Тогда g надежность оценивания, а длина интервала (t1(x), t2(x)) определяет точность оценивания, поэтому при заданном g этот интервал желательно строить более коротким.
В случае бльшей размерности неизвестного параметра аналогично определяется доверительная область, содержащая истинное значение τ(q).
Проверка статистических гипотез.
Это проверка предположений (гипотез) о распределении изучаемой с.в. Если гипотеза H0 описывает одно распределение, то она называется простой, а если несколько, то сложной. Та гипотеза H0, которую нужно проверить, называется нулевой или основной; H1 альтернативная гипотеза.
Чтобы проверить гипотезу, нужно построить критерий, т.е. правило, по которому нулевая гипотеза принимается или отвергается. Это значит, что выборочное пространство нужно разделить границей
на две зоны: Т область принятия гипотезы (основной гипотезы H0) и R критическая область, где она отвергается.
Пусть Х изучаемая с.в., x1, ...., xn выборка ее наблюдаемых значений. Если точка попадает в Т, то гипотеза принимается, если точка попадает в R, то гипотеза отвергается.
Как выбрать границу наилучшим образом?
Это делают на основе анализа возможных ошибок. При решении могут возникнуть ошибки двух родов.
Пусть a вероятность ошибки 1го рода (это вероятность того, что отвергли верную гипотезу (H0): a = P{xR/H0}), b вероятность ошибки 2го рода (это вероятность того, что приняли неверную гипотезу (H0): b =P{R/H1}).
a называется ещё уровнем значимости или размером критерия.
Оказывается, что одновременно вероятности ошибок 1го и 2го рода (a и b) невозможно сделать сколько угодно маленькими. Поэтому два критерия, если они сравнимы, нужно сравнивать по качеству, определяемому вероятностями ошибок a и b следующим образом: фиксируется вероятность ошибки 1го рода a для первого и второго критериев, по этому значению a строится граница и вычисляется вероятность ошибки 2го рода b. Тогда тот критерий лучше, у которого меньше вероятность ошибки 2го рода b.
Говорят, что такой критерий более мощный: W = 1 b мощность критерия.
Задача.
Пусть проверяют партии деталей, упакованных по 1000 штук. Партию считают хорошей, если при контроле 20 наугад выбранных из нее деталей бракуют X1 штуки.
Пусть гипотеза H0 состоит в том, что партия хорошая, а гипотеза H1 партия плохая. Тогда a = P(X>1/ H0) риск заказчика; b = P(X1/ H1) риск изготовителя.
§4. Порядковые статистики
Пусть Х изучаемая случайная величина (с.в.), = х1, … ,хn выборка наблюдений над с.в. Х объёма n. Тогда если упорядочить по возрастанию элементы выборки : Х(1) Х(2) … Х(n) , то последовательность
Х(1), Х(2),…, Х(n) называется вариационным рядом, а его элементы порядковыми статистиками (или вариантами) с соответствующими номерами (Х(i) iая порядковая статистика). Х(1) , Х(n) крайние порядковые статистики.
Порядковые статистики широко используются при решение многих задач статистики, поэтому должны быть заранее изучены в первую очередь по следующим направлениям: установление связи распределения изучаемой с.в. Х с законами распределений порядковых статистик разных размерностей; нахождение выражений моментов порядковых статистик через закон распределения с.в. Х; изучение закона распределения размаха выборки (W = X(n) X(1)). Все полученные здесь формулы по указанным направлениям ниже проиллюстрированы на примере равномерного распределения.
1. Основные формулы для порядковых статистик.
Через F(x) и f(x) будем обозначать соответственно функцию распределения и плотность распределения изучаемой с.в. Х, а через F(k)(x) и f(k)(x) соответственно функцию распределения и плотность распределения kой порядковой статистики.
1.1) Законы распределения крайних порядковых статистик Х(1), Х(n) .
а)F(1)(x) = P(X(1)<x) = 1 P(x(1)≥x) = 1 P(x1≥x,…,xn ≥x) = 1P(xi ≥ x) =
= 1 (P(x1≥x))n = 1 (1 F(x))n ;
f(1)(x) = F'(1)(x) , т.е. f(1)(x) = n(1 F(x))n-1 f(x).
б) F(n)(x) = P(X(n)< x) = P(x1<x,…, xn<x) =P(xi<x) = Fn(x);
f(n)(x) = nFn-1(x)f(x).
1.2) Закон распределения k-ой порядковой статистики Х(k).
f(k)(x) плотность распределения kой порядковой статистики.
Тогда f(k)(x)dx элемент вероятности для kой порядковой статистики, т.е. f(k)(x)dx = P(X(k)(x ; x + dx)) = P(A), где А = {X(k) (x,x + dx)}.
Проинтерпретируем событие A в терминах элементов выборки в соответствие с рисунком 1.
Рис.1
c вероятностью |
числом вариантов |
|
1. какое-то наблюдение (x;x+dx); |
f(x)dx |
n |
2. какие-то (k1) остальных наблюдений левее x; |
Fk-1(x) |
C |
3. остальные (nk) правее x. |
(1 F(x))n-k |
1 |
Тогда f(k)(x)dx = P(x(k)(x; x + dx)) = nCf(x)dxFk-1(x)(1 F(x))n-k.
Отсюда плотность распределения kой порядковой статистики:
f(k)(x) = nCf(x)Fk-1(x)(1 F(x))n-k.
Замечание 1. Если в эту формулу подставить k = 1, k = n, то получим законы распределения крайних порядковых статистик, найденных в пункте 1.
1.3) Найдём закон совместного распределения k-ой и l-ой порядковой статистик (k < l).
f(kl)(u,v)dudv = P(X(k)(u,u + du), X(l)(v,v + dv)) элемент вероятности с.в. (X(k) ,X(l)).
Пусть событие А = {X(k)(u,u + du), X(l)(v,v + dv)}. Переформулируем событие А в терминах элементов выборки в соответствие с рисунком 2.
Рис. 2 |
Событие А состоит в одновременном появление следующих событий
с вероятностью |
числом вариантов |
|
1. какое-то одно наблюдение ; |
f(u)du |
n |
2. какое-то одно наблюдение ; |
f(v)dv |
n1 |
3. какие-то (k1) из оставшихся левее u; |
Fk-1(u) |
C |
4. какие-то (lk1) из оставшихся ; |
(F(v) F(u))l-k-1 |
C |
5. оставшиеся (n1) правее v. |
(1F(v))n-1 |
1 |
Тогда
f(ki)(u,v) = n(n 1)CCf(u)f(v)Fk-1(u)(F(v) F(u))l-k-1(1 F(v))n-1
Замечание. Подставляя k = 1 и l = n, получим закон распределения крайних порядковых статистик:
f(1n)(u,v) = n(n 1)f(u)f(v)(F(v) F(u))n-2
1.4) Закон совместного распределения k-ой, l-ой и m-ой порядковых статистик (k<l<m).
f(klm)(u,v,c)dudvdc = P(X(k)(u;u + du), X(l)(v;v + dv), X(m)(c;c + dc)).
Пусть событие А = (X(k)(u;u + du), X(l)(v;v + dv), X(m)(c;c + dc)).
Переформулируем событие А в терминах элемента выборки в соответствии с рисунком 3.
рис.3
Событие А состоит в одновременном появление следующих событий:
с вероятностью |
числом вариантов |
|
1. какое-то одно наблюдение ; |
f(u)du |
n |
2. какое-то одно наблюдение ; |
f(v)dv |
n1 |
3. какое-то одно наблюдение ; |
f(c)dc |
n2 |
4. какие-то (k1) из оставшихся левее u; |
Fk-1(u) |
C |
5. какие-то (lk1) из оставшихся ; |
(F(v) F(u))l-k-1 |
C |
6. какие-то (ml1) из оставшихся ; |
(F(c) F(v))m-l-1 (1F(c))n-m |
C 1 |
7. оставшиеся (nm) правее c. |
Тогда: f(klm)(u,v,c) = n(n 1)(n 2)CCCf(u)f(v)f(w)Fk-1(u)(F(v)
F(u))l-k-1(F(c) F(v))n-l-1(1 F(c))n-m.
1.5) Совместное распределение первых r порядковых статистик
(r n).
u1 u1 + du1 u2 u2 + du2 ..... ur ur + dur
рис.4
f(12..r)(u1 ,u2 , … ,ur) = P(X(1)(u1,u1+du1), X(2)(u2,u2+du2),…, X(r)(ur,ur+dur))= = P(A), где событие А, в соответствие с рисунком 4 , состоит в одновременном появление следующих событий:
с вероятностью |
числом вариантов |
|
1. какое-то одно наблюдение ; |
f(u1)du1 |
n |
2. какое-то одно из остальных ; |
f(u2)du2 |
n1 |
……. |
….. |
….. |
r. какое-то одно из остальных ; |
f(ur)dur |
nr+1 |
r+1. остальные (nr) наблюдений левее ur. |
(1F(ur))n-r |
1 |
f(1…r)(u1,…,ur) = n(n 1)(n 2)…(n r + 1)f(u1)…f(ur)(1 F(ur))n-r плотность распределения первых r порядковых статистик.
1.6) Размах выборки.
Назовём W = X(n) X(1) размахом выборки. Найдём закон распределения
размаха выборки H(t):
H(t) = P(W<t) =f(1n)(uv)dudv =
= n(n1)f(u)du(F(v) F(u))n-2f(v)dv =
= n(n1)f(u)()du = nf(u)(F(u+t) F(u))n-1du .
H(t) = nf(u)(F(u + t) F(u))n-1du закон распределения размаха выборки.
1.7) Моменты порядковых статистик.
EX(k) =xf(k)(x)dx ; EX =x2f(k)(x)dx ; DX(k) = EX (EX(k))2
= EX(k)X(l) EX(k)EX(l); EX(k)X(l) = uvfkl(u,v)dudv
2.Порядковые статистики равномерного распределения.
Пусть с.в. XR[0,1]; с.в. YR[a,b], тогда Y=(b a)X + a
0, x[0,1] 0, x[a,b]
fx(x) = fy(x) =
1, x[0,1] ; 1/(ba) , x[a,b] ;
0, x<0 0, x<a
Fx(x) = x, x[0,1] ; Fy(x) = , x[a,b]; 1 k n.
1, x>1 1, x > b
2.1) Связи распределений и моментов случайных величин X(k) и Y(k) :
Очевидно, что Y(k) = (b a)X(k) + a. Тогда F(x) = P{Y(k) < x} = =P = F f(x) = f
EY(k) = (b a)EX(k) + a ; DY(k) = (b a)2DX(k); K= (b a)2 K ,
1 k < l n ;
WX = X(n) X(1); WY = Y(n) Y(1) = (b a)( X(n) X(1)) = (b a)WX ;
EWY = (b a)EWX; DWY = (b a)2DWX
Замечание. На основании п.1 достаточно изучать порядковые статистики случайной величины X(k): f(x) = nCf(x)Fk-1(x)[1 F(x)]n-1.
2.2) Вычисление моментов порядковых статистик равномерного распределения с.в. XR[0,1].
0, x[0,1]
fk(x) = f(x) =
nCxk-1(1 x)n-k , x[0,1] ;
0, x < 0
Fk(x) = F(x) = n Ctk-1(1 t)n-kdt , x[0,1].
1, x > 1
Далее используются функции:
Г(p) =xp-1e-xdx и B(p,q) =xp-1(1 x)q-1dx; (Г(p + 1) = pГ(p), при целом p
Г(p + 1) = p!; B(p,q) = Г(p)Г(q)/Г(p + q))
EX(k) =xfk(x)dx = n Cxk(1 x)n-kdx = n CB(k + 1,n k + 1) =
= n C EX(1) = ;
EX(n) = EY(1) = a + ; EY(n) = ;
DX(k) = EX2(k) (EX(k))2 ;
EX2(k) =x2fk(x)dx = n C xk+1(1x)n-kdx = n CB(k+2,nk+1) =
= n C;
DX(k) = DX(1) = = DX(n);
= EX(1)X(n) EX(1)EX(n) ;
EX(1)X(n) =uvf1n(u,v)dudv , где
n(n1)f(x)f(y)(F(y) F(x))n-2, x,y n(n1)(yx)n-2, x,y[0,1]
f(ln)(x,y) = =
0, в противном случае 0, в противном случае
EX(1)X(n) = n(n 1)uv(v u)n-2dudv = n(n 1)u(v(v u)n-2dv)du ;
I =v(v u)n-2dv =(v u)n-1dv + u(v u)n-2dv =
=
EX(1)EX(n) = u(u 1)ndu + u2(1 u)n-1du =
= B(2,n + 1) +B(3,n) =
=
.
По п.1). найти моменты для Y(k) самостоятельно.
2.3) Моменты размаха выборки из равномерного распределения.
WX = X(n) X(1) ; EWX = EX(n) EX(1) = ;
DWX = EW (EWX)2 , где EW = E(X(n) X(1))2 =
= EX+ EX 2EX(1)X(n) ;
EX = ; EX = ; EX(1)X(n) =
DWX =
Можно вычислить DWX по другому:
DWX = D(X(n) X(1)) = DX(1) + DX(n) 2 =
= .
2.4) Распределение размаха выборки из равномерного распределения.
HX(t) = P(WX<t) = n(F(u + t) F(u))n-1f(u)du
Найдём HX(t) сначала для t [0,1] . ( f(u) = fx(t) обозначение);
0, u < 0
F(u) = u, u [0,1];
1, u > 1
0, u + t < 0 u < t
F(u+t) = u + t, 0 u + t 1 t u 1t ,
1, u + t >1 u > 1 t
или удобнее для дальнейшего представления F(u) и F(u + t) в следующем виде:
0, u < t 0, u < t
0, t u 0 u + t, t u 0
F(u) = u, 0 < u 1 t ; F(u + t) = u + t, 0 < u 1 t
u, 1 t < u 1 1, 1 t < u 1
1, u > 1 1, u > 1
0, u < t
u + t, t u 0
F(u + t) F(u) = t , 0 < u < 1 t
1 u, 1 t < u 1
0, u > 1
HX(t) = ntn-1du + n(1 u)n-1du = n(1 t)tn-1 + n = n(1 t)tn-1 + tn
для t[0,1]
0, t < 0
HX(t) = tn + n(1 t)tn-1 , t[0,1]
1, t > 1
0, t [0,1]
hX(t) =
ntn-1 n(n 1)(1 t)tn-2 ntn-1 , t[0,1]
Для нахождения HY(t) используем связь случайных величин X и Y :
Y= (b a)X + a
HY(t) = P(WY<t) = =
hY(t) = hX .
Самостоятельно выписать HY(t) и hY(t) в явном виде.
PAGE \* MERGEFORMAT 36