У вас вопросы?
У нас ответы:) SamZan.net

АРА то события А и В независимы

Работа добавлена на сайт samzan.net:

Поможем написать учебную работу

Если у вас возникли сложности с курсовой, контрольной, дипломной, рефератом, отчетом по практике, научно-исследовательской и любой другой работой - мы готовы помочь.

Предоплата всего

от 25%

Подписываем

договор

Выберите тип работы:

Скидка 25% при заказе до 28.12.2024

  1.  Какие события называются независимыми? Докажите, что если события

A и B независимы, то независимы события A и B’

 Если выполняется равенство РB(А)=Р(А) то события А и В независимы. Для двух независимых событий А и В имеем Р(АВ)=Р(А)*Р(В)- правило умножения вероятностей для двух событий.

А=АВ+АВ’  Р(А)= Р(АВ)+Р(АВ’), или Р(А)=Р(АВ’)+Р(А)Р(В). Отсюда Р(АВ’)=Р(А)1-Р(В), или Р(АВ’)=Р(А)Р(В’)

  1.  Сформулируйте и докажите формулу полной вероятности.

    Пусть событие А может наступить при условии появления одного из несовместных событий В1, В2,В3 ,…., Вn, которые образуют полную группу. Пусть известны вероятности этих событий и условные вероятности   Р в2 (А), …., Рвn (А) события А.  Найдем вероятность события А.

Вероятность события А, которое может наступить лишь при условии появления одного из несовместных событий В1, В2,…,Вn, образующих полную группу, равна сумме произведений вероятностей каждого из этих событий на соответствующую условную вероятность события А:

Р(А) = Р(В1) Рв1(А) + Р(В2) Рв2(А) +….+ Р(Вn) Рвn(А).

Эта формула называется «формулой полной вероятности».

Докажем ее…

По условию, событие А может наступить, если наступит одно из несовместных событий  В1,В2,…,Вn. Другими словами, появление события А означает осуществление одного, безразлично какого, из несовместных событий В1А, В2А,…, ВnА. Пользуясь для вычисления события А теоремой сложения, получаем

 Р(А) = Р(В1А) + Р(В2А) +….+ Р(ВnА)         (1)

Остается вычислить каждое из слагаемых. По теореме умножения вероятностей зависимых событий имеем:

Р(В1А) = Р(В1) Рв1(А);    Р(В2) Рв2(А): …. Р(ВnА) = Р(Вn) Р( bn) (А)

Подставляем правые части этих равенств в соотношение  (1) и получаем формулу полной вероятности:

Р(А) = Р(В1) Рв1(А) + Р(В2)Рв2 (А) + ….+ Р(Вn) Рвn (А)

  1.  Сформулируйте и докажите формулу Байеса.

Пусть событие А может наступить при условии появления одного из несовместных событий В1,В2,…,Вn, образующих полную группу. Поскольку заранее неизвестно, какое из этих событий наступит, их называют гипотезами. Вероятность появления события А определяется по формуле полной вероятности:

Р(А) = Р(В1) Рв1(А) + Р(В2)Рв2 (А) + ….+ Р(Вn) Рвn (А)  (1)

Допустим, что произведено испытание, в результате которого появилось событие А.  Определим, как изменились, в связи с тем, что событие А уже наступило, вероятности гипотез. Другими словами, будем искать условные вероятности

Ра(В1), Ра(В2),…., Ра(Вn).

Найдем вначале условную вероятность Ра(В1). По теореме умножения имеем

                Р(АВ1) = Р(А) Ра(В1) = Р(В1)Рв1(А)

Отсюда

                       Ра(В1) = Р(В1)Рв1(А)

                                             Р(А)

Заменим здесь Р(А) по формуле (1), получаем

pA(Hi)=                                рвi(A)p(Вi)                                  .

               рВ11)р(В1)+рВ2(А)р(В2)+…+рВn(А)р(Вn)    

Аналогично выводятся формулы, определяющие условные вероятности остальных гипотез, т.е. условная вероятность любой гипотезы Вi (i= 1,2,…,n) может быть вычислена по формуле

                        Ра(Вi) =   Р(Вi) Рвi(А)

                                        Р(В1) Рв1(А) + Р(В2) Рв2(А)+….+Р(Вn) Рвn(А)

Полученные формулы называются формулы Байеса. Они позволяют переоценить вероятности гипотез после того, как становится известным результат испытания, в итоге которого появилось событие А.

  1.  Выведите формулу для наиболее вероятного числа успехов в серии n испытаний по схеме Бернулли.

Рассмотрим 2 соседних числа Рn(k) и Рn(k+1). Они либо равны, либо 1<2го, либо 2<1го. Рn(k)/ Рn(k+1)<>=1.

Рn(k)=Сnkpkqn-k; Pn(k+1)=Cnk+1pk+1qn-k-1. Cnk+1nk*(n-k)/(k+1). Сл-но (k+1)/(n-k)<>=1. Или (k+1)*q<>=(n-k)*p. Сл-но k<>=n*p-q. Обозначим np-q как a. Сл-но для любого k<a-1 справедливо Pn(k)<Hn(k+1), для k=a-1 (если а – целое число) Pn(k)=Pn(k+1), при k>a-1, Pn(k)>Pn(k+1). При k<a-1 функция Pn(k) возрастает, при k>a-1, убывает.То есть, если а не являя-ся целым, то ф-я имеет единственный максимум, он достигается при ближайшем к а слева целом значении k, k=[a]=[n*p +p]. Если а =целое, то 2 разных максимума достигаются при k=a-1, k=a.

Н-во Чебышева: пусть X – случ. величина, у кот есть M(X)=m и D(X)=a, тогда  >0 справедливо н-во

P(|X-m|)  D(X)/2. Противоположное событие: 1 - P(|X-m|)  1 - D(X)/2; P(|X-m|<) 1 - D(X)/2.

Правило 3: Пусть =3: P(|X-m|<3)  1-2/92 = 8/9.

  1.  Используя интегральную приближённую формулу Лапласа, выведите формулу для оценки отклонения относительной частоты события А от вероятности p наступления A в одном опыте.

В условиях схемы Бернулли с заданными значениями n и p для данного >0 оценим вероятность события , где k – число успехов в n опытах. Это неравенство эквивалентно |k-np|n, т.е. -n  k-np  n или np-n  k  np+n. Таким образом, речь идёт о получении оценки для вероятности события k1  k  k2, где k1 = np-n, k2 = np+n. Применяя интегральную приближённую формулу Лапласа, получим:

P( .

С учётом нечётности функции Лапласа получаем приближённое равенство P( 2Ф(. Примечание: т.к. по условию n=1, то подставляем вместо n единицу и получаем окончательный ответ.

  1.  Пусть X – дискретная случайная величина, принимающая только неотрицательные значения и имеющая математическое ожидание m . Докажите, что P(X 4) m/4 .

Докажем неравенство Маркова:

Если x>0 и a=const, a>0, то 

Док-во: Введём новую величину:

Y

0

a

P

P(x<a)

P(xa)

XY

M(x) M(y), M(y)= aP(Xa)

aP(Xa) M(x)

P(Xa)  

В нашем примере a=4 (т.е. a=const), a>0, M(x)=m

По неравенству Маркова: P(X4)  m/4

  1.  Докажите, что если X и Y – независимые дискретные случайные величины, принимающие конечное множество значений, то М(XY)=М(X)М(Y)

Если случайные величины X и Y независимы, то математическое ожидание их произведения равно произведению их математических ожиданий (теорема умножения математических ожиданий).

Возможные значения X обозначим x1, x2, , возможные значения Y - y1, y2, а pij=P(X=xi, Y=yj). Закон распределения величины XY будет выражаться соответствующей таблицей. А M(XY)= Ввиду независимости величин X и Y имеем: P(X= xi, Y=yj)= P(X=xi) P(Y=yj). Обозначив P(X=xi)=ri, P(Y=yj)=sj, перепишем данное равенство в виде pij=risj

Таким образом, M(XY)= =. Преобразуя полученное равенство, выводим: M(XY)=( )() = M(X)M(Y)

  1.  Докажите, что если X и Y – дискретные случайные величины, принимающие конечное множество значений, то М(X +Y) = М(X ) (Y).

Математическое ожидание суммы двух случайных величин равно сумме математических ожиданий слагаемых:M(X+Y)= M(X)+M(Y). Док-во. Пусть случайные величины X и Y заданы следующими законами распределения(*)( возьмем 2 значения):

X x1 x2

p p1 p2

Y y1 y2

g g1 g2

Составим все возможные значения величины X+Y. Для этого к каждому возможному значению X прибавим возможное значение Y; получим x1+y1, x1+y2, x2+y1, x2+y2. Предположим, что эти возможные значения различны( если не так, то доказательство аналогично), и обозначим их вероятности соответственно через p11,p12,p21,p22. Математическое ожидание величины X+Y равно сумме произведений возможных значений на их вероятности:  M(X+Y) = (x1+y1)* *p11+(x1+y2)* p12+(x2+y1)* p21+(x2+y2)* p22, или  M(X+Y) = x1*(p11+p12)+ x2*(p21+p22)+ +y1*(p11+p21)+ y1*(p12+p22). Докажем, что p11+p12=p1. Событие, состоящие в том, что X примет значение x1 (вероятность этого события равна p1), влечет за собой событие, которое состоит в том, что X+Y примет значение x1+y1 или x1+y2 (вероятность этого события по теореме сложения равна   p11+p12), и обратно. Отсюда следует, что p11+p12=p1. Аналогично доказываются равенства p21+p22=p2, p11+p21=g1 и  p12+p22=g2. Подставляя правые части этих равенств в соотношение (*), получим   M(X+Y)=(x1p1+x2p2)+(y1g1+y2g2), или  M(X+Y)= M(X)+M(Y).

  1.  Пусть Х – дискретная случайная величина, распределенная по биномиальному закону распределения с параметрами n и р. Докажите, что М(Х)=nр, D(Х)=nр(1-р).

Пусть производится n  независимых испытаний, в каждом из которых может появиться событие А с вероятностью р, так что вероятность противоположного события Ā равна q=1-p. Рассмотрим сл. величину Х – число появления события А в n опытах. Представим Х в виде суммы индикаторов события А для каждого испытания: Х=Х12+…+Хn. Теперь докажем, что М(Хi)=р, D(Хi)=np. Для этого рассмотрим закон распределения сл. величины, который имеет вид:

Х

0

1

Р

Р

q

Очевидно, что М(Х)=р, случайная величина Х2 имеет тот же закон распределения, поэтому D(Х)=М(Х2)-М2(Х)=р-р2=р(1-р)=рq. Таким образом, М(Хi)=р, D(Хi)=pq. По теореме сложения математических ожиданий М(Х)=М(Х1)+..+М(Хn)=nр, D(Х)=D(Х1)+…+Dn)=npq=np(1-р).

  1.  Пусть X – дискретная случайная величина, распределенная по закону Пуассона с параметром  . Докажите, что M(X ) = D(X ) = λ .

Закон Пуассона задается таблицей:

X

0

1

2

3

P

λ−e

λλ−e

λλ−e!22

λλ−e!33

Отсюда имеем:

=

Таким образом, параметр λ, характеризующий данное пуассоновское распределение, есть не что иное как математическое ожидание величины X. Это легко понять, если вспомнить, что формулы Пуассона получились как предельный вариант формул Бернулли, когда , причем ∞→n∞→nλ = np. Поскольку для биномиального закона математическое ожидание равно np, то неудивительно, что для пуассоновского закона M(X) = . Более того, мы можем предположить, что дисперсия X тоже будет равна λ, поскольку для биномиального закона D(X) = npq и 1 при →q. Действительно, непосредственный подсчет дисперсии подтверждает это предположение, однако мы не приводим его здесь из-за сложности выкладок. Ниже мы выведем эти формулы более простым способом. Таким образом, для закона Пуассона

  1.  M(X) = λ, D(X) = λ

  1.  Пусть Х – дискретная случайная величина, распределенная по геометрическому закону с параметром р. Докажите, что M (X) = 1/Р.

Геометрический закон связан с последовательностью испытания Бернулли до 1-го успешного А (события), р=р(А)

х

1

2

n

Р

р

pq

Pqn-1

  1.  Докажите, что коэффициент корреляции случайных величин Х и У удовлетворяет условию .

Определение. Коэффициентом корреляции двух случайных величин называется отношение их ковариации к произведению средних квадратических отклонений этих величин: pxy=Kxy/«сигма»х«сигма»х. Из определения следует, что рху=рух=р. Очевидно также, что коэффициент корреляции есть безразмерная величина. Отметим свойства  коэффициента корреляции.

1. Коэффициент корреляции принимает значения на отрезке [-1;1],т.е. -1<р<1.Из неравенства

Тк As и Ex не меняются при меняющихся заменах, а любое равномерное распределение на отрезке может быть получено линейной заменой из любого другого равномерного распределения, например, из равномерного распределения на отрезке, то достаточно посчитать As и Ex для этого распределения.

As=μ33,    σ=√D, μ3=M[(x-M(x)3]

Ex= μ44-3

Плотность fx=1/(b-a)=1, μ3= Sb a fx(t)tdt== Sb a tdt=t2/2 в пределах от a до =(b-a)2/2

D== Sb a fx(t)t2dt=(b-a)3/3

σ=√D=√(b-a)3/3 

As=μ33=((b-a)2/2)/( √(b-a)3/3 )

Ex= μ44-3=((b-a)5 /5)/(( b-a)3/3)2 - 3

μ4= M[(x-M(x)4] fx(t)tdt= Sb a t4dt=(b-a)5 /5

  1.  Как вычисляется дисперсия в случае распределения с плотностью f (x)? Докажите, что для случайной величины X с плотностьюдисперсия D(X ) не существует, а математическое ожидание M(X ) существует.

Дисперсия абсолютно непрерывной случайной величины.

Дисперсия абсолютно непрерывной случайной величины X с функцией плотности f(x) и математическим ожиданием m = M(X) определяется таким же равенством, как и для дискретной величины

Из равенства (5.26) следует, что справедлива следующая формула

Поскольку формула (5.29) может быть записана в следующем виде

то формулу (5.30) можно представить таким образом

  1.  

В случае когда абсолютно непрерывная случайная величина X сосредоточена на промежутке [a, b], формулы (5.30), (5.32) примут вид

  1.  .

Дисперсия непрерывной случайной величины определяет степень рассеивания значений, принимаемых случайной величиной, вокруг ее математического ожидания.

Среднее квадратичное отклонение, или стандартное отклонение, непрерывной случайной величины X определяется так же, как и для дискретной случайной величины:

Начальным моментом порядка k (k принадлежит N), свободная величина Х называется мат.ожиданием k-й степени Х.

Центральным моментом порядка k СВ Х называется мат.ожидание k-й степени отклонения:

Теорема: если Х и У независимые СВ, то

Док-во:

Докажем связь начальных и центральных моментов:

f(xy)=d(fx(x))/dy и наоборот

По определению:

Компоненты Х и У абсолютно непрерывного случайного вектора называются независимыми, если

Пример: прямоугольник , в котором вектор (х,у) равномерно распределен.

F(x;y)= иначе

При решении уравнения найдем

 

а)

б) 

Аналогично для

Компоненты Х и У – независимые

Неравенство Маркова: если x0, a>0, то P(Xa)  M(X)/a

Н-во Чебышева: пусть X – случ. величина, у кот есть M(X)=m и D(X)=a, тогда  >0 справедливо н-во  P(|X-m|)  D(X)/2 Док-во: P(X)  m/ - н-во Маркова. |X-m|; (X-m)2/21;

P(|X-m|) = P((X-m)2/21)  M((X-m)2/2) = 1/2 M((X-m)2) = D/2; P(|X-m|) D(X)/2.

Выборочная дисперсия Db- среднее арифметическое квадрата отклонения наблюдаемого значения признака от их среднего значения Хв. Если все значения х12+…+хn выборки v n различны, то DB=

Если значения признака х12,…хn имеют соответствующие частоты n1,…nk; n1+…+nk=n

DB=

D=

D== ==

 

1°. Теорема Чебышева. Неравенство Чебышева позволяет доказать ряд важных теорем, объе-диненных одним общим названием "закон больших чисел". Основная из этих теорем принадлежит самому П.Л. Чебышеву.

  1.  Теорема 10.1. (теорема Чебышева). Пусть имеется бесконечная последовательность X1, X2, … независимых случайных величин с одним и тем же математическим ожиданием m и дисперсиями, ограниченными одной и той же постоянной:

 Тогда, каково бы ни было положительное число , вероятность события

 стремится к единице при

Доказательство. Положим,

.

В силу свойств математического ожидания имеем:

.

Далее, так как величины независимы, то

.

Сопоставив полученное неравенство с неравенством Чебышева:

,

будем иметь:

  1.  

Это показывает, что с ростом n вероятность события стремится к 1.

Смысл теоремы Чебышева можно пояснить следующим примером. Пусть требуется измерить некоторую физическую величину m. В силу неизбежных ошибок результат измерения будет случай-ной величиной. Обозначим эту величину X; ее математическое ожидание будет совпадать с измеряе-мой величиной m, а дисперсия равна некоторой величине D (характеризующей точность измеритель-ного прибора). Произведем n независимых измерений и обозначим:

X1 – результат первого измерения;

X2 – результат второго измерения

и т.д. Совокупность величин X1, X2, …, Xn представляет собой систему n независимых случайных ве-личин, каждая из которых имеет тот же закон распределения, что и сама величина X. Среднее ариф-метическое этих величин тоже является, конечно, случайной величиной. Однако с увеличением n эта величина почти перестает быть случайной, она все более приближается к постоянной m. Точная количественная формулировка этой близости состоит в том, что событие становится как угодно достоверным при достаточно большом n.

 

 

Если в каждом из п независимых испытаний вероятность р появления события А постоянна, то как угодно близка к единице вероятность того, что отклонение относительной частоты от вероятности р по абсолютной величине будет сколь угодно малым, если число испытаний достаточно велико.

Другими словами, если - сколь угодно малое положительное число, то при соблюдении условий теоремы имеет место равенство . Доказательство. Обозначим через Х1 дискретную случайную величину—число появлений события в первом испытании, через Х2—во втором, ..., Хn—в n-м испытании. Ясно, что каждая из величин может принять лишь два значения: 1 (событие А наступило) с вероятностью р и 0 (событие не появилось) с вероятностью 1—р=q. Можно ли применить к рассматриваемым величинам теорему Чебышева? Можно, если случайные величины попарно независимы и дисперсии их ограничены. Оба условия выполняются. Действительно, попарная независимость величин X1, Х2, . . ., Хn следует из того, что испытания независимы. Дисперсия любой величины Xi (i= 1, 2, . .., n) равна произведению pq, так как p+q=1,то произведение pq не превышает  1/4 и, следовательно, дисперсии всех величин ограничены, например, числом С =1/4. Применяя теорему Чебышева (частный случай) к рассматриваемым величинам, имеем Приняв во внимание, что математическое ожидание а каждой из величин Xi (т. е. математическое ожидание числа появлений события в одном испытании) равно вероятности р наступления события, получим Остается показать, что дробь (X1+X2+…Xn)/n  равна относительной частоте т/п появлений события А в испытаниях. Действительно, каждая из величин X1,X2,…Xn  при появлении события в соответствующем испытании принимает значение, равное единице; следовательно, сумма X1+X2+…+Xn равна числу m появления события в n испытаниях, а значит, Учитывая, это равенство, окончательно получим

. Итак, теорема Бернулли утверждает, что при относительная частота стремится по вероятности к p.

Х – биномин. Случайная величина с параметрами n и p

Если Х – случайная величина, явл-ся суммой большого числа независимых случайных величин, то случайная величина Х-МХ/ςх имеет распределение, близкое к стандартному нормальному, т.е.

Р{αX-MX/ςxβ} = =Ф(β)-Ф(α) Х – число успехов в серии из n испытаний Х=Х1+Х2+…Хn

Где Хi=0, если в i-ом успеха не было, 1, если успех был. Р{α≤(X-np)/√npqβ}= Ф(β)-Ф(α)

Р{np+αnpqxnp+βnpq}




1. Мир Великого Дракона Fobos11 2013 Введение Это небольшое дополнение поможет создать героя владеющего м
2. Логистика оптовых продаж Задание {1} Увеличение количества складов в системе сбыта компании при неи
3. Современные модели в теории перевода
4. вариантов такого нежного и сытного блюда.html
5.  Деятельность- сущность и основные типы
6. TverSocil cse chllenge I
7. Лабораторная работа 7 Файловый вводвывод
8. тема знаков единицы которой и отношения между ними образуют иерархически упорядоченную структуру
9. В Совете Европы отдается предпочтение осуществлению борьбы с преступностью посредством международных дого.
10. Состояние малого бизнеса в Беларуси и зарубежных странах
11. Биология Химия ФЕН и Геология ГГФ 1
12. Условия работы линейной изоляции
13.  Создайте простой круг используя Ellipticl Mrquee Tool
14. Операции страховых компаний с ценными бумагами
15. В один прекрасный день если следовать академику Е
16. А есть наука об изменении технического состояния машин методах обеспечения их работоспособности и безопас
17. пик согласия фиксируется по поводу суждения о Казахстане как общем доме для всех проживающих в нем народов
18. Комплексная система автоматизированных рабочих мест. (КСАРМ)
19. Проблема периодизации развития личности
20. В случаях предусмотренных настоящим Федеральным законом а также в случае отсутствия денежных средств на с