Будь умным!


У вас вопросы?
У нас ответы:) SamZan.net

Функция распределения Fxy

Работа добавлена на сайт samzan.net:

Поможем написать учебную работу

Если у вас возникли сложности с курсовой, контрольной, дипломной, рефератом, отчетом по практике, научно-исследовательской и любой другой работой - мы готовы помочь.

Предоплата всего

от 25%

Подписываем

договор

Выберите тип работы:

Скидка 25% при заказе до 4.6.2024

§2 Условные распределения

Способы задания закона распределения двумерной случайной величины (с.в.)  (X,Y).

1) Функция распределения  F(x,y).

Определение.

F(x,y)=P{X<x, Y<y}.                                                                                         (1)

Определяется для дискретных и непрерывных составляющих.

Свойства F(x,y):

1) 0≤ F(x,y) ≤1;

2) F(x,y) – неубывающая функция по каждому аргументу;

3) F(‒∞,∞) = F(‒ ∞,y) = F(x,‒ ∞) = 0;

4) F(∞,∞) = 1;

5) F(x,∞) = F1(x), F(∞,y) = F2(y), где  F1(x)  и  F2(y)  – маргинальные (по каждому аргументу) функции распределения.

2) Распределение дискретной с.в.  (X,Y)  можно задать таблицей распределения:

          Y              X

x1

x2

xn

y1

p11

p21

pn1

y2

p11

p22

p n2

ym

p1m

p 2m

p nm

,

Свойства таблицы распределения: 

а) для любых  i  и  j  pij ≥ 0, где pij = P{X = xi, Y = yi};

б) pij = 1;

Обозначим ; , которые при всех  i  и  j  задают маргинальные (одномерные) распределения с.в. X и Y соответственно.

По ФВП получаем

P{X=xi} = ;       (2)                  

аналогично получаем                 

P{Y=yi} = .                                                                                                                          (3)

3) Распределение непрерывной с.в. (X,Y) можно задать плотностью

   распределения

;                                                                                              (4)

– маргинальная плотность распределения с.в. Х;

– маргинальная плотность распределения с.в. Y;

  ; .                                        (5)

2. Условные распределения и условные математические ожидания (у.м.о)

1) В дискретном случае

                           (6)

– у.м.о. (при фиксированном условии – это число (const)).

Аналогично определяется  и .

2) В непрерывном случае ,  – условные плотности при фиксированном значении другой координате.

У.м.о. для непрерывной с.в. при фиксированном условии есть

 – это числа (const).

Если рассматривать значение y с.в.  Y  как случайное, то E(X/Y) – с.в., зависящая от с.в.  Y  и называется у.м.о.

Простейшие свойства у.м.о  E(X/Y):

1) E(C/Y) = C; 

                                                           (7)

2) E(CX/Y) = CE(X/Y);

3) E(X +Y/Z) = E(X/Z) + E(Y/Z).

Если рассматривать значение  x  и  y  как возможные текущие значения с.в. Х и Y, то , , где  и  - некоторые функции одного переменного. Тогда уравнения регрессии соответственно по x и y есть

– среднее значение с.в.  X  при фиксированном значении с.в. Y=y;                                                                                                                    (8)

 

– среднее значение с.в.  Y  при фиксированном значении с.в. X=x.

Если уравнение регрессии есть уравнение прямой (т.е. описывает линейную зависимость) то регрессия называется прямолинейной.

Тема условных распределений имеет важное теоретическое и практической значение, т.к. аппарат условных распределений и у.м.о. используется при решении различных статистических задач, а линии регрессии отражают зависимость между компонентами двумерной с.в.  (X,Y).

Пусть одна из компонент двумерной  с.в.  (X,Y)  недоступна для наблюдений, например, компонента  Y. Тогда возникает задача прогноза возможных значений с.в.  Y  по наблюденным значениям с.в.  X. Это означает поиск зависимости компонент  X  и  Y: , наилучшим образом приближающей возможные значения с.в. Y. Вид зависимости    ищется, исходя из минимизации выбранной меры близости с.в.  к  Y. Наиболее распространенной является мера близости в среднем квадратическом:

. Тогда  ищется из условий  .

Ниже доказывается, что этот минимум достигается на .

Свойства линий регрессии:

1) Если  X  и  Y  нз с.в., то линии регрессии параллельны координатным осям.

Доказательство.

Из нз с.в. X и Y следует, что

   прямая параллельна оси 0(║0)            

или

   прямая параллельна оси 0(║0)

линий регрессии есть ;

2) Если  (a и b  const), то линии регрессии совпадают и имеют уравнение

Доказательство.

Значения с.в. X и Y взаимно однозначно определяют друг друга и не являются случайными при задании одного из них, поэтому уравнения регрессии есть

а это уравнения одной и той же прямой: .

Приведем некоторые важные теоретические сведения по теме в виде следующих задач.

Задача 1.

Доказать, что когда X и Y – независимые с.в., то        

Решение.

По (6) имеем:

,

откуда следует, что  .  .

Аналогично, .

Для нз с.в.  X  и  Y

.

Аналогично .

Задача 2.

Доказать, что .

Решение.

а) X и Y – дискретные с.в., тогда, т.к. P(A/B)P(B) = P(AB) при A = (X = xi), B = (Y = yj) имеем

=,

где   – маргинальное распределение с.в.  X 

б) Пусть теперь X и Y – непрерывные с.в., тогда

Задача 3.

Доказать, что  достигает на , т.е. все возможные в указанном выше смысле прогнозируемые значения с.в.  Y  лежат на линии регрессии

Доказательство.

  

=

=

Если доказать, что (*) = 0, то получаем:

 

равенство достигается тогда, когда , что и утверждалось.

Остается доказать, что .

Напомним свойства у.м.о.:

                                                                       

(А)

(Б)                                               (7)

                    

(В)

(Г)

Воспользуемся свойствами у.м.о. (7) и утверждением задачи 2.

Представим

Рассмотрим  

Покажем, что  по свойствам А, Б и В для у.м.о. имеем:

, что и завершает доказательство утверждения.

Формула полного математического ожидания (ФПМО).

Пусть  Х  – дискретная с.в. с возможными значениями ; {Bk} – полная группа несовместных событий. Тогда

– это ФПМО, отсюда следует, что .

Задача.

, где  Y – целочисленная с.в.;    и  Y – независимые с.в., с.в.  – одинаково распределены. Найти EZ, зная  и .

Решение.

Положим , . Тогда по ФПМО

= .

Замечание. Такой же результат в данной задаче был получен ранее методом производящих функций.

Задачи по теме.

Задача 1.

Дано совместное распределение с.в.  X и Y. Найти маргинальные распределения с.в. X и Y, EX, EY, условные распределения с.в. X при  (j=1,2);  и F(x,y).

      X

Y

2

5

8

0.4

0.15

0.30

0.35

0.8

0.05

0.12

0.03

(Проверка: 0.15 + 0.30 + 0.35 + 0.05 + 0.12 + 0.03 = 1)

Решение.

По (2) и (3):

X

2

5

8

Y

0.4

0.8

P

0.2

0.42

0.38

       ;

P

0.8

0.2

EX = :

EY = .

По (4)

Аналогично получаем: 0.25;

Отсюда видно, что  E(X/Y)  есть с.в. с рядом распределения:

E(X/Y)

4.7

5.75

P(Y)

0.2

0.8

Поэтому

Задача 2.

В счетчик поток космических частиц. Число    попавших в счетчик частиц в течение времени  t  распределено по закону Пуассона   (λ > 0). Каждая частица, независимо от других может быть зарегистрирована с вероятностью p.     – число зарегистрированных частиц за время  t. Найти условное распределение с.в.    при условии, что    и  .

Решение.

=

 

=

условное распределение с.в.    при    есть  .

= =

 

=

Задача 3.

Случайная точка  (X,Y)  распределена равномерно в области  D, т.е.  R[D]. Найти           и уравнения регрессий.

Решение.

;    ; .

y = 1+x

x = y–1

y

yx+1

x = 1y

y = x1

x = y1

y = x1

x = y+1

   ;

 

т.е. ;

 

т.е. .

Уравнения регрессии:  x = 0,  y = 0  т.е. линии регрессии – координатные оси.

Задача 4.

Случайная точка распределения на плоскости с плотностью (это двумерная

нормальная плотность):

Найти уравнения линий регрессии, где  r  – коэффициент корреляции, , , , .

Решение.

=

=

Аналогично получаем:

;

что соответствует нормальному распределению:

, откуда следует, что

.

Аналогично получаем:

, откуда

.

Таким образом, имеем уравнения линий регрессии:

; .

Задача 5.

Рабочий обслуживает n однотипных станков, расположенных в ряд на расстоянии  а  друг от друга. Рабочий приходит к ним в порядке появления неисправностей. Х – длина перехода к следующему, требующему ремонта станку. Найти EХ.

Решение.

Пусть событие Bk – рабочий находится у k-ого станка (k = 1,…,n); xi – возможное значение с.в.; Х – длина перехода к 1-ому станку.

  

Тогда по (1) имеем:

 

=

 

= .

Задача 6.

С.в.   при  X = x  с.в.  . Найти       и линии регрессии.

Решение.  

 

 

Регрессия с.в.  X  на  Y:  x = E(x/y):

Регрессия с.в.  Y  на  X:  y=E(Y/x);   

Задача 7.

С.в.  при    с.в.   при  с.в.

Найти .

Решение.

=

Это ясно и сразу, т.к. с.в.  при   

X – дискретная с.в. с возможными значениями   – полная группа несовместимых событий, тогда ,  Отсюда следует:  т.е.  – рекуррентное соотношение  откуда

=

=

§3 Основные понятия математической статистики

Математическая статистика занимается разработкой, научным обоснованием и применением методов обработки данных наблюдений с целью получения информации о распределении изучаемой случайной величины.

Пусть  Х  – наблюдаемая случайная величина (с.в.)

Все значения, которые может принимать с.в.  Х  называют выборочным пространством или генеральной совокупностью;  n  возможных значений с.в.  Х  называются выборкой (n – объем выборки):

=( x1, x2, x3, ...., xn).

Конкретные n наблюденных значений с.в. Х   называются реализацией выборки.

Для того чтобы изучение с.в. по выборке имело смысл, необходимо, чтобы выборка не искажала, а отражала свойства генеральной совокупности. Такая выборка называется представительной (репрезентативной). Математически это означает, что элементы выборки должны быть независимыми, одинаково распределенными с.в. с тем же законом распределения, что и  у изучаемой с.в.  Х.

Если упорядочить значения выборки по величине   X(1) X(2)≤ ....≤ X(n) , то ряд  X(1), X(2), ....,X(n)    называется вариационным рядом или рядом порядковых статистик, а элементы ряда называются вариантами или порядковыми  статистиками.

Элементы вариационного ряда не обладают теми же свойствами, которыми обладала выборка, т.е. они не являются независимыми, одинаково распределенными с.в. и каждый имеет свой закон распределения, не совпадающий с законом распределения исходной с.в.  Х  (доказательство см. ниже)

Проиллюстрируем это на примере крайних порядковых статистик с.в. X  с функцией распределения  F(x):

X(1)=min( x1, ...., xn )=U и  x(n) =max( x1, ...., xn )=V; Зависимость их очевидна.

Найдем закон распределения для с.в.  U  и  V. Обозначим:  GU(x) – функция распределения с.в.  U  и  GV(x)  – функция распределения с.в.  V ;

GU(x) = P{U<x} = P{min(x1,....,xn )<x} = (сформулируем эквивалентное событие в терминах элементов выборки, переходя к дополнительному событию, и учитывая свойства элементов выборки) = 1– P{xi  x} =

= 1–P{xi x} = 1– (1–F(x))n 

Найдем плотность распределения с.в.  U есть gU(x) = Gu(x) =

= n(1-F(x) )n-1 f0(x).

Аналогичными рассуждениями найдем закон распределения с.в.  V:

GV(x) = P{x(n) < x} = P{x1 < x, ...., xn < x} = F(x). Тогда плотностью распределения с.в. V есть  gv(x) = GV(x) = nF0(x)n-1 f(x)

Статистика – это любая функция от наблюдений, не зависящая от неизвестных параметров распределения.

Семейство распределений Fq(x) – множество распределений одного аналитического вида со всеми возможными значениями параметра

q = (q1, …, qk).     

Основные задачи математической статистики

Непараметрическая задача статистики    

Это  первоначальная (грубая) обработка данных вида: наблюдаемая с.в.  Х  и реализация выборки  x = (x1,....,xn) с целью получения информации о виде распределения с.в.  Х, т.е. нахождения семейства распределений, к которому оно относится. В результате решения задачи получается, что  L(X) Î Fq(x), где  L(X) - распределение с.в.  Х, а  q = (q1,....,qk)  –неизвестный параметр распределения с.в.  Х.

Параметрическая задача статистики

Эта задача решается после решения непараметрической задачи (когда семейство распределений Fq(x) для с.в. Х уже определено) и состоит в уточнении значения параметра  q  или функции   τ(q)  от этого параметра в общем случае, где  q = (q1,....,qk), т.е. в построении оценки  t() = =  функции τ(q) = τ.

При решении этой задачи различают два подхода: точечное и доверительное оценивание.

1) Точечное оценивание

Суть точечного оценивания в том, что для  τ(q)  строится одна статистика  t(x) =, которая принимается за оценку  τ(q), т.е.  t(x) =.

«Хорошей» оценкой является такая оценка, которая наиболее близка к истинному значению  τ(q), т.е. когда ее  значения в каком-то смысле сконцентрированы вокруг истинного значения  τ(q).

Математически это означает желательность следующих свойств оценки:

а) несмещенность

Et(x) = τ(q), где   Et(x) – среднее значение с.в.  Х (при малых выборках это требование очень важно, при больших  n  достаточно выполнения свойства асимптотической несмещенности:  Et(x) q, но  Et(x)q, при  n  

б) состоятельность

t(x)  τ(q), что означает  P{|t(x) - τ(q)| >} 0

в) эффективность, которая определяется только для несмещенных оценок и определяется дисперсией  Dt(x). Тогда значение дисперсии несмещенной оценки называется ее эффективностью, которая используется при сравнении качества несмещенных оценок: та оценка лучше, у которой дисперсия меньше, т.е. эффективность больше.

Оценка называется оптимальной, если она несмещенная и имеет минимально возможную дисперсию.

2) Доверительное оценивание

Ограничимся сначала рассмотрением этого подхода в случае одномерного параметра. Тогда решение состоит в построении двух статистик: t1=  t1()  и  t2 = t2() таким образом, чтобы   P{t1() < τ(q)< t2()} = g, где  g – некоторое значение, называемое доверительной вероятностью, а интервал  I = (t1(x),  t2(x)) – доверительным интервалом (этот интервал желательно строить наиболее коротким). Тогда  g  – надежность оценивания, а длина интервала  (t1(x), t2(x))  определяет точность оценивания, поэтому при заданном  g  этот интервал желательно строить более коротким.

В случае бльшей размерности неизвестного параметра  аналогично определяется доверительная область, содержащая истинное значение  τ(q).

Проверка статистических гипотез.

Это проверка предположений (гипотез) о распределении изучаемой с.в. Если гипотеза  H0  описывает одно распределение, то она называется простой, а если несколько, то сложной. Та гипотеза  H0, которую нужно проверить, называется нулевой или основной;  H1  альтернативная гипотеза.

Чтобы проверить гипотезу, нужно построить критерий, т.е. правило, по которому нулевая гипотеза принимается или отвергается. Это значит, что выборочное пространство нужно разделить границей   

 на две зоны:  Т  – область принятия гипотезы (основной гипотезы  H0) и  R  – критическая область, где она отвергается.

Пусть  Х  – изучаемая с.в.,  x1, ...., xn – выборка ее наблюдаемых значений. Если точка попадает в Т, то гипотеза принимается, если точка попадает в  R, то гипотеза отвергается.

Как выбрать границу наилучшим образом?

Это делают на основе анализа возможных ошибок. При решении могут возникнуть ошибки двух родов.

Пусть a – вероятность ошибки 1го рода (это вероятность того, что отвергли верную гипотезу  (H0): a = P{xR/H0}),  b – вероятность ошибки 2го рода (это вероятность того, что приняли неверную гипотезу  (H0): b =P{R/H1}).

a называется ещё уровнем значимости или размером критерия.

Оказывается, что одновременно вероятности ошибок 1го и 2го рода (a  и b) невозможно сделать сколько угодно маленькими. Поэтому два критерия, если они сравнимы, нужно сравнивать по качеству, определяемому вероятностями ошибок  a  и  b  следующим образом: фиксируется вероятность ошибки 1го рода a  для первого и второго критериев, по этому значению  a  строится граница и вычисляется вероятность ошибки 2го рода  b. Тогда тот критерий лучше, у которого меньше вероятность ошибки 2го рода  b.

Говорят, что такой критерий более мощный:  W = 1 – b  – мощность критерия.

Задача.

Пусть проверяют партии деталей, упакованных по 1000 штук. Партию считают хорошей, если при контроле 20 наугад выбранных из нее деталей бракуют  X1  штуки.

Пусть гипотеза  H0  состоит в том, что партия хорошая, а гипотеза  H1  –партия плохая. Тогда  a = P(X>1/ H0)  – риск заказчика;  b = P(X1/ H1)  – риск изготовителя.


§4. Порядковые статистики

Пусть  Х  – изучаемая случайная величина (с.в.),   = х1, … ,хn – выборка наблюдений над с.в.  Х  объёма  n. Тогда если упорядочить по возрастанию элементы выборки :  Х(1)  Х(2)  Х(n) , то последовательность

Х(1), Х(2),…, Х(n)  называется вариационным рядом, а его элементы – порядковыми статистиками  (или вариантами) с соответствующими номерами (Х(i)iая порядковая статистика).  Х(1) , Х(n) – крайние порядковые статистики.

Порядковые статистики широко используются при решение многих задач статистики, поэтому должны быть заранее изучены в первую очередь по следующим направлениям: установление связи распределения изучаемой с.в.  Х  с законами распределений порядковых статистик разных размерностей; нахождение выражений моментов порядковых статистик через закон распределения с.в.  Х; изучение закона распределения размаха выборки  (W = X(n)X(1)). Все полученные здесь формулы по указанным направлениям ниже проиллюстрированы на примере равномерного распределения.

1. Основные формулы для порядковых статистик.

Через  F(x)  и  f(x)  будем обозначать соответственно функцию распределения и плотность распределения изучаемой с.в.  Х, а через  F(k)(x)   и f(k)(x)  – соответственно функцию распределения и плотность распределения kой порядковой статистики.         

1.1) Законы распределения крайних порядковых статистик  Х(1), Х(n) .

а)F(1)(x) = P(X(1)<x) = 1 – P(x(1)x) = 1– P(x1x,…,xn x) = 1–P(xi x) =

= 1 – (P(x1x))n = 1– (1 – F(x))n ;

f(1)(x) = F'(1)(x) , т.е.   f(1)(x) = n(1 – F(x))n-1 f(x).

б) F(n)(x) = P(X(n)< x) = P(x1<x,…, xn<x) =P(xi<x) = Fn(x);

f(n)(x) = nFn-1(x)f(x).

1.2) Закон распределения k-ой порядковой статистики  Х(k).

f(k)(x)  – плотность распределения  kой порядковой статистики.

Тогда  f(k)(x)dx  – элемент вероятности для  kой порядковой статистики, т.е.  f(k)(x)dx = P(X(k)(x ; x + dx)) = P(A), где  А = {X(k) (x,x + dx)}.

Проинтерпретируем событие  A  в терминах элементов выборки в соответствие с рисунком 1.

          

Рис.1

Событие А состоит в одновременном появлении следующих трёх событий:

c вероятностью

числом вариантов

1. какое-то наблюдение (x;x+dx);

f(x)dx

n

2. какие-то (k–1) остальных наблюдений левее x;

Fk-1(x)

C

3. остальные (nk) правее x.  

(1 – F(x))n-k

1

Тогда  f(k)(x)dx = P(x(k)(x; x + dx)) = nCf(x)dxFk-1(x)(1 – F(x))n-k.

Отсюда плотность распределения  kой порядковой статистики:

f(k)(x) = nCf(x)Fk-1(x)(1 – F(x))n-k.

Замечание 1. Если в эту формулу подставить  k = 1,  k = n, то получим законы распределения крайних порядковых статистик, найденных в пункте 1.

1.3) Найдём закон совместного распределения  k-ой и l-ой порядковой статистик  (k < l).

f(kl)(u,v)dudv = P(X(k)(u,u + du),  X(l)(v,v + dv))  –  элемент вероятности с.в.   (X(k) ,X(l)).

Пусть событие А = {X(k)(u,u + du),  X(l)(v,v + dv)}. Переформулируем событие  А в терминах элементов выборки в соответствие с рисунком 2.

            

Рис. 2

Событие А состоит в одновременном появление следующих событий                                                                        

с вероятностью

числом вариантов

1. какое-то одно наблюдение ;

f(u)du

n

2. какое-то одно наблюдение ;

f(v)dv

n–1

3. какие-то (k–1) из оставшихся левее u;

Fk-1(u)

C

4. какие-то (lk–1) из оставшихся ;

(F(v) –F(u))l-k-1

C

5. оставшиеся (n–1) правее v.

(1–F(v))n-1

1

Тогда

f(ki)(u,v) = n(n – 1)CCf(u)f(v)Fk-1(u)(F(v) – F(u))l-k-1(1– F(v))n-1

Замечание. Подставляя  k = 1  и  l = n, получим закон распределения крайних порядковых статистик:

f(1n)(u,v) = n(n – 1)f(u)f(v)(F(v) – F(u))n-2

1.4) Закон совместного распределения  k-ой,  l-ой и  m-ой порядковых статистик  (k<l<m).

f(klm)(u,v,c)dudvdc = P(X(k)(u;u + du),  X(l)(v;v + dv),  X(m)(c;c + dc)).

Пусть событие  А = (X(k)(u;u + du),  X(l)(v;v + dv),  X(m)(c;c + dc)).

Переформулируем событие  А  в терминах элемента выборки в соответствии с рисунком 3.

рис.3

Событие А состоит в одновременном появление следующих событий:   

 

с вероятностью

числом вариантов

1. какое-то одно наблюдение ;

f(u)du

n

2. какое-то одно наблюдение ;

f(v)dv

n–1

3. какое-то одно наблюдение ;

f(c)dc

n–2

4. какие-то (k–1) из оставшихся левее u;

Fk-1(u)

C

5. какие-то (lk–1) из оставшихся ;

(F(v) –F(u))l-k-1

C

6. какие-то (ml–1) из оставшихся ;

(F(c) –F(v))m-l-1

(1–F(c))n-m

C

1

7. оставшиеся (nm) правее c.

Тогда: f(klm)(u,v,c) = n(n – 1)(n – 2)CCCf(u)f(v)f(w)Fk-1(u)(F(v) –

– F(u))l-k-1(F(c)  – F(v))n-l-1(1 – F(c))n-m.

1.5) Совместное распределение первых r порядковых статистик   

(r  n).

  u1            u1 +  du1          u2          u2 + du2      .....               ur          ur + dur

рис.4

       

f(12..r)(u1 ,u2 , … ,ur) = P(X(1)(u1,u1+du1),  X(2)(u2,u2+du2),…, X(r)(ur,ur+dur))= = P(A), где событие  А, в соответствие с рисунком 4 , состоит в одновременном появление следующих событий: 

с вероятностью

числом вариантов

1. какое-то одно наблюдение ;

f(u1)du1

n

2. какое-то одно из остальных ;

f(u2)du2

n1

…….

…..

…..

r. какое-то одно из остальных ;

f(ur)dur

nr+1

r+1. остальные (nr) наблюдений левее ur.

(1–F(ur))n-r

1

f(1…r)(u1,…,ur) = n(n – 1)(n – 2)…(nr + 1)f(u1)…f(ur)(1 – F(ur))n-r –  плотность распределения первых r порядковых статистик.

1.6) Размах выборки.

Назовём W = X(n)X(1) размахом выборки. Найдём закон распределения

размаха выборки H(t):

H(t) = P(W<t)  =f(1n)(uv)dudv  =

= n(n–1)f(u)du(F(v) –F(u))n-2f(v)dv =

= n(n–1)f(u)()du = nf(u)(F(u+t) – F(u))n-1du .

H(t)  =  nf(u)(F(u + t) – F(u))n-1du – закон распределения размаха выборки.

1.7) Моменты порядковых статистик.

EX(k)  =xf(k)(x)dx    ;    EX =x2f(k)(x)dx  ;  DX(k)  =  EX– (EX(k))2

=  EX(k)X(l) – EX(k)EX(l);       EX(k)X(l)  = uvfkl(u,v)dudv

2.Порядковые статистики равномерного распределения.

Пусть с.в.  XR[0,1]; с.в.  YR[a,b], тогда  Y=(b – a)X + a

   

       0, x[0,1]                           0,        x[a,b]

fx(x) =                                 fy(x) =

              1, x[0,1]  ;                        1/(b–a) , x[a,b]  ;

                                                      

                

         0, x<0                                0, x<a   

Fx(x) =      x, x[0,1]  ;       Fy(x) =     , x[a,b]; 1 k n.

         1, x>1                                1, x > b

2.1) Связи распределений и моментов случайных величин  X(k) и  Y(k) :

Очевидно, что Y(k) = (ba)X(k)  + a. Тогда F(x) = P{Y(k) < x} = =P = F        f(x) = f

 

EY(k) = (b – a)EX(k) + a ; DY(k) = (b – a)2DX(k);  K= (b – a)2 K ,   

1 k < l n ;

 

WX  =  X(n) – X(1);  WY = Y(n) – Y(1) = (b – a)( X(n) – X(1)) = (b – a)WX ;

 

EWY = (b – a)EWX;  DWY = (b – a)2DWX        

Замечание. На основании п.1 достаточно изучать порядковые статистики случайной величины  X(k):   f(x) = nCf(x)Fk-1(x)[1 – F(x)]n-1.

2.2) Вычисление моментов порядковых статистик равномерного распределения с.в. XR[0,1].

                        0, x[0,1]                                           

fk(x) = f(x)  =      

                               nCxk-1(1 – x)n-k , x[0,1]   ;

                       

                         0, x < 0

Fk(x) = F(x) =     n Ctk-1(1 – t)n-kdt ,  x[0,1].

                         1,  x > 1

Далее используются функции:

Г(p) =xp-1e-xdx и B(p,q) =xp-1(1 – x)q-1dx; (Г(p + 1) = pГ(p), при целом  p 

Г(p + 1) = p!;  B(p,q) = Г(p)Г(q)/Г(p + q))

EX(k) =xfk(x)dx = n Cxk(1 – x)n-kdx = n CB(k + 1,nk + 1) =

= n C      EX(1) = ;

EX(n) =         EY(1) = a +  ;  EY(n) = ;

DX(k) = EX2(k) – (EX(k))2 ;

EX2(k) =x2fk(x)dx = n C xk+1(1–x)n-kdx = n CB(k+2,n–k+1) =

= n C;

DX(k) = DX(1) = = DX(n);

 = EX(1)X(n) – EX(1)EX(n) ;

EX(1)X(n) =uvf1n(u,v)dudv  , где

                  n(n–1)f(x)f(y)(F(y) –F(x))n-2, x,y      n(n–1)(y–x)n-2, x,y[0,1]              

f(ln)(x,y) =                                                              =

          0, в противном случае                            0, в противном случае                       

    

EX(1)X(n) = n(n – 1)uv(v – u)n-2dudv = n(n – 1)u(v(v – u)n-2dv)du ;

I =v(v – u)n-2dv =(v – u)n-1dv + u(v – u)n-2dv =

=     

EX(1)EX(n) = u(u – 1)ndu + u2(1 – u)n-1du =

= B(2,n + 1) +B(3,n) =        

 =

.

По п.1). найти моменты для Y(k)  самостоятельно.

2.3) Моменты размаха выборки из равномерного распределения.

WX = X(n) – X(1) ; EWX = EX(n) – EX(1) =  ;

DWX  =  EW –  (EWX)2 , где  EW = E(X(n) – X(1))2 =

= EX+ EX – 2EX(1)X(n) ;

EX = ;  EX = ;  EX(1)X(n) =   

 DWX =

Можно вычислить DWX  по другому:

DWX  =  D(X(n)  –  X(1)) = DX(1) + DX(n) – 2 =

= .

2.4) Распределение размаха выборки из равномерного распределения.

HX(t) = P(WX<t) = n(F(u + t) – F(u))n-1f(u)du   

Найдём HX(t) сначала для  t  [0,1] .  ( f(u) = fx(t) – обозначение);

       0, u < 0

F(u) =     u, u  [0,1];

       1, u > 1

         

           0, u + t < 0  u < –t

F(u+t) =      u + t, 0  u + t  1  t  u  1–t ,                                                              

                  1, u + t >1    u > 1– t       

или удобнее для дальнейшего представления  F(u)  и  F(u + t)   в следующем виде:

      0, u < –t                                    0, u < –t

      0, –t  u  0                              u + t, –t  u  0    

F(u) =    u, 0 < u 1 – t ;     F(u + t) =    u + t, 0 < u 1 – t   

      u, 1 – t < u 1                          1, 1 – t < u 1  

      1, u > 1                                     1, u > 1

                                 0, u < –t

                                 u + t,  –t u 0

  F(u + t) – F(u) =  t ,      0 < u < 1 – t             

                                                      1 – u, 1 – t < u 1

                                 0,  u > 1

HX(t) = ntn-1du + n(1 – u)n-1du = n(1 – t)tn-1 + n = n(1 – t)tn-1 + tn   

для  t[0,1]   

       0, t < 0                                                   

HX(t) =    tn  + n(1 – t)tn-1 ,  t[0,1]     

              1,  t > 1

      0, t [0,1]

hX(t) =     

              ntn-1 – n(n – 1)(1 – t)tn-2 – ntn-1  ,  t[0,1]

      

Для нахождения  HY(t)  используем связь случайных величин  X и  Y :

Y= (b – a)X + a

HY(t) = P(WY<t) = =     

hY(t) =  hX .

Самостоятельно выписать  HY(t)   и   hY(t)   в явном виде.

PAGE   \* MERGEFORMAT 36




1. Сімнадцяте століття період становлення капіталізму і початку буржуазних революцій
2. Курсовая работа Принципи навчання
3.  Финансы хозяйствующих субъектов представляют собой экономические отношения возникающие в процессе форм
4. Ресурсы производства; проблемы их ограниченности
5. Территория талантов
6. Химия вокруг нас спросить Марию Дружинину или Марка Костюка организация ЭГМиМ ЭГМиМ Наша земля н
7. Тема- Функции кадровой службы в организацииПриспособление постепенное вхождение работника в новые професси
8. История развития методологии ОВОС на международном уровне
9. задание- вариант Культура Регион
10. Васильчиков Виктор Илларионович.html
11.  Адміністративне підпорядкування та географічне положення населеного пункту- а категорія поселення се
12. кожна людина на певному місці і кожне місце для певної людини
13. Реферат- Стандартизация и сертификация в туризме
14. 895 Рецензенты- Буева Л
15. Ландшафты Земли
16. Психология эмоций
17. Общество с дополнительной и ограниченной ответственностью
18. Роль упаковки товаров в маркетинге
19. цзы 551479г До нэ родился и жил в эпоху больших социальных и политических потрясений когда чжоуский Китай на
20. Мое отношение к базарову И