Поможем написать учебную работу
Если у вас возникли сложности с курсовой, контрольной, дипломной, рефератом, отчетом по практике, научно-исследовательской и любой другой работой - мы готовы помочь.
Если у вас возникли сложности с курсовой, контрольной, дипломной, рефератом, отчетом по практике, научно-исследовательской и любой другой работой - мы готовы помочь.
A и B независимы, то независимы события A и B
Если выполняется равенство РB(А)=Р(А) то события А и В независимы. Для двух независимых событий А и В имеем Р(АВ)=Р(А)*Р(В)- правило умножения вероятностей для двух событий.
А=АВ+АВ Р(А)= Р(АВ)+Р(АВ), или Р(А)=Р(АВ)+Р(А)Р(В). Отсюда Р(АВ)=Р(А)1-Р(В), или Р(АВ)=Р(А)Р(В)
Пусть событие А может наступить при условии появления одного из несовместных событий В1, В2,В3 ,…., Вn, которые образуют полную группу. Пусть известны вероятности этих событий и условные вероятности Р в2 (А), …., Рвn (А) события А. Найдем вероятность события А.
Вероятность события А, которое может наступить лишь при условии появления одного из несовместных событий В1, В2,…,Вn, образующих полную группу, равна сумме произведений вероятностей каждого из этих событий на соответствующую условную вероятность события А:
Р(А) = Р(В1) Рв1(А) + Р(В2) Рв2(А) +….+ Р(Вn) Рвn(А).
Эта формула называется «формулой полной вероятности».
Докажем ее…
По условию, событие А может наступить, если наступит одно из несовместных событий В1,В2,…,Вn. Другими словами, появление события А означает осуществление одного, безразлично какого, из несовместных событий В1А, В2А,…, ВnА. Пользуясь для вычисления события А теоремой сложения, получаем
Р(А) = Р(В1А) + Р(В2А) +….+ Р(ВnА) (1)
Остается вычислить каждое из слагаемых. По теореме умножения вероятностей зависимых событий имеем:
Р(В1А) = Р(В1) Рв1(А); Р(В2) Рв2(А): …. Р(ВnА) = Р(Вn) Р( bn) (А)
Подставляем правые части этих равенств в соотношение (1) и получаем формулу полной вероятности:
Р(А) = Р(В1) Рв1(А) + Р(В2)Рв2 (А) + ….+ Р(Вn) Рвn (А)
Пусть событие А может наступить при условии появления одного из несовместных событий В1,В2,…,Вn, образующих полную группу. Поскольку заранее неизвестно, какое из этих событий наступит, их называют гипотезами. Вероятность появления события А определяется по формуле полной вероятности:
Р(А) = Р(В1) Рв1(А) + Р(В2)Рв2 (А) + ….+ Р(Вn) Рвn (А) (1)
Допустим, что произведено испытание, в результате которого появилось событие А. Определим, как изменились, в связи с тем, что событие А уже наступило, вероятности гипотез. Другими словами, будем искать условные вероятности
Ра(В1), Ра(В2),…., Ра(Вn).
Найдем вначале условную вероятность Ра(В1). По теореме умножения имеем
Р(АВ1) = Р(А) Ра(В1) = Р(В1)Рв1(А)
Отсюда
Ра(В1) = Р(В1)Рв1(А)
Р(А)
Заменим здесь Р(А) по формуле (1), получаем
pA(Hi)= рвi(A)p(Вi) .
рВ1(А1)р(В1)+рВ2(А)р(В2)+…+рВn(А)р(Вn)
Аналогично выводятся формулы, определяющие условные вероятности остальных гипотез, т.е. условная вероятность любой гипотезы Вi (i= 1,2,…,n) может быть вычислена по формуле
Ра(Вi) = Р(Вi) Рвi(А)
Р(В1) Рв1(А) + Р(В2) Рв2(А)+….+Р(Вn) Рвn(А)
Полученные формулы называются формулы Байеса. Они позволяют переоценить вероятности гипотез после того, как становится известным результат испытания, в итоге которого появилось событие А.
Рассмотрим 2 соседних числа Рn(k) и Рn(k+1). Они либо равны, либо 1<2го, либо 2<1го. Рn(k)/ Рn(k+1)<>=1.
Рn(k)=Сnkpkqn-k; Pn(k+1)=Cnk+1pk+1qn-k-1. Cnk+1=Сnk*(n-k)/(k+1). Сл-но (k+1)/(n-k)<>=1. Или (k+1)*q<>=(n-k)*p. Сл-но k<>=n*p-q. Обозначим np-q как a. Сл-но для любого k<a-1 справедливо Pn(k)<Hn(k+1), для k=a-1 (если а целое число) Pn(k)=Pn(k+1), при k>a-1, Pn(k)>Pn(k+1). При k<a-1 функция Pn(k) возрастает, при k>a-1, убывает.То есть, если а не являя-ся целым, то ф-я имеет единственный максимум, он достигается при ближайшем к а слева целом значении k, k=[a]=[n*p +p]. Если а =целое, то 2 разных максимума достигаются при k=a-1, k=a.
Н-во Чебышева: пусть X случ. величина, у кот есть M(X)=m и D(X)=a, тогда >0 справедливо н-во
P(|X-m|) D(X)/2. Противоположное событие: 1 - P(|X-m|) 1 - D(X)/2; P(|X-m|<) 1 - D(X)/2.
Правило 3: Пусть =3: P(|X-m|<3) 1-2/92 = 8/9.
В условиях схемы Бернулли с заданными значениями n и p для данного >0 оценим вероятность события , где k число успехов в n опытах. Это неравенство эквивалентно |k-np|n, т.е. -n k-np n или np-n k np+n. Таким образом, речь идёт о получении оценки для вероятности события k1 k k2, где k1 = np-n, k2 = np+n. Применяя интегральную приближённую формулу Лапласа, получим:
P( .
С учётом нечётности функции Лапласа получаем приближённое равенство P( 2Ф(. Примечание: т.к. по условию n=1, то подставляем вместо n единицу и получаем окончательный ответ.
Докажем неравенство Маркова:
Если x>0 и a=const, a>0, то
Док-во: Введём новую величину:
Y |
0 |
a |
P |
P(x<a) |
P(xa) |
XY
M(x) M(y), M(y)= aP(Xa)
aP(Xa) M(x)
P(Xa)
В нашем примере a=4 (т.е. a=const), a>0, M(x)=m
По неравенству Маркова: P(X4) m/4
Если случайные величины X и Y независимы, то математическое ожидание их произведения равно произведению их математических ожиданий (теорема умножения математических ожиданий).
Возможные значения X обозначим x1, x2, …, возможные значения Y - y1, y2, … а pij=P(X=xi, Y=yj). Закон распределения величины XY будет выражаться соответствующей таблицей. А M(XY)= Ввиду независимости величин X и Y имеем: P(X= xi, Y=yj)= P(X=xi) P(Y=yj). Обозначив P(X=xi)=ri, P(Y=yj)=sj, перепишем данное равенство в виде pij=risj
Таким образом, M(XY)= =. Преобразуя полученное равенство, выводим: M(XY)=( )() = M(X)M(Y)
Математическое ожидание суммы двух случайных величин равно сумме математических ожиданий слагаемых:M(X+Y)= M(X)+M(Y). Док-во. Пусть случайные величины X и Y заданы следующими законами распределения(*)( возьмем 2 значения):
X x1 x2 p p1 p2 |
Y y1 y2 g g1 g2 |
Составим все возможные значения величины X+Y. Для этого к каждому возможному значению X прибавим возможное значение Y; получим x1+y1, x1+y2, x2+y1, x2+y2. Предположим, что эти возможные значения различны( если не так, то доказательство аналогично), и обозначим их вероятности соответственно через p11,p12,p21,p22. Математическое ожидание величины X+Y равно сумме произведений возможных значений на их вероятности: M(X+Y) = (x1+y1)* *p11+(x1+y2)* p12+(x2+y1)* p21+(x2+y2)* p22, или M(X+Y) = x1*(p11+p12)+ x2*(p21+p22)+ +y1*(p11+p21)+ y1*(p12+p22). Докажем, что p11+p12=p1. Событие, состоящие в том, что X примет значение x1 (вероятность этого события равна p1), влечет за собой событие, которое состоит в том, что X+Y примет значение x1+y1 или x1+y2 (вероятность этого события по теореме сложения равна p11+p12), и обратно. Отсюда следует, что p11+p12=p1. Аналогично доказываются равенства p21+p22=p2, p11+p21=g1 и p12+p22=g2. Подставляя правые части этих равенств в соотношение (*), получим M(X+Y)=(x1p1+x2p2)+(y1g1+y2g2), или M(X+Y)= M(X)+M(Y).
Пусть производится n независимых испытаний, в каждом из которых может появиться событие А с вероятностью р, так что вероятность противоположного события Ā равна q=1-p. Рассмотрим сл. величину Х число появления события А в n опытах. Представим Х в виде суммы индикаторов события А для каждого испытания: Х=Х1+Х2+…+Хn. Теперь докажем, что М(Хi)=р, D(Хi)=np. Для этого рассмотрим закон распределения сл. величины, который имеет вид:
Х |
0 |
1 |
Р |
Р |
q |
Очевидно, что М(Х)=р, случайная величина Х2 имеет тот же закон распределения, поэтому D(Х)=М(Х2)-М2(Х)=р-р2=р(1-р)=рq. Таким образом, М(Хi)=р, D(Хi)=pq. По теореме сложения математических ожиданий М(Х)=М(Х1)+..+М(Хn)=nр, D(Х)=D(Х1)+…+D(Хn)=npq=np(1-р).
Закон Пуассона задается таблицей:
X |
0 |
1 |
2 |
3 |
… |
P |
λ−e |
λλ−e |
λλ−e!22 |
λλ−e!33 |
… |
Отсюда имеем:
=
Таким образом, параметр λ, характеризующий данное пуассоновское распределение, есть не что иное как математическое ожидание величины X. Это легко понять, если вспомнить, что формулы Пуассона получились как предельный вариант формул Бернулли, когда , причем ∞→n∞→nλ = np. Поскольку для биномиального закона математическое ожидание равно np, то неудивительно, что для пуассоновского закона M(X) = . Более того, мы можем предположить, что дисперсия X тоже будет равна λ, поскольку для биномиального закона D(X) = npq и 1 при →q. Действительно, непосредственный подсчет дисперсии подтверждает это предположение, однако мы не приводим его здесь из-за сложности выкладок. Ниже мы выведем эти формулы более простым способом. Таким образом, для закона Пуассона
Геометрический закон связан с последовательностью испытания Бернулли до 1-го успешного А (события), р=р(А)
х |
1 |
2 |
… |
n |
… |
Р |
р |
pq |
… |
Pqn-1 |
… |
Определение. Коэффициентом корреляции двух случайных величин называется отношение их ковариации к произведению средних квадратических отклонений этих величин: pxy=Kxy/«сигма»х«сигма»х. Из определения следует, что рху=рух=р. Очевидно также, что коэффициент корреляции есть безразмерная величина. Отметим свойства коэффициента корреляции.
1. Коэффициент корреляции принимает значения на отрезке [-1;1],т.е. -1<р<1.Из неравенства
Тк As и Ex не меняются при меняющихся заменах, а любое равномерное распределение на отрезке может быть получено линейной заменой из любого другого равномерного распределения, например, из равномерного распределения на отрезке, то достаточно посчитать As и Ex для этого распределения.
As=μ3/σ3, σ=√D, μ3=M[(x-M(x)3]
Ex= μ4/σ4-3
Плотность fx=1/(b-a)=1, μ3= Sb a fx(t)tdt== Sb a tdt=t2/2 в пределах от a до =(b-a)2/2
D== Sb a fx(t)t2dt=(b-a)3/3
σ=√D=√(b-a)3/3
As=μ3/σ3=((b-a)2/2)/( √(b-a)3/3 )
Ex= μ4/σ4-3=((b-a)5 /5)/(( b-a)3/3)2 - 3
μ4= M[(x-M(x)4] fx(t)tdt= Sb a t4dt=(b-a)5 /5
Дисперсия абсолютно непрерывной случайной величины.
Дисперсия абсолютно непрерывной случайной величины X с функцией плотности f(x) и математическим ожиданием m = M(X) определяется таким же равенством, как и для дискретной величины
Из равенства (5.26) следует, что справедлива следующая формула
Поскольку формула (5.29) может быть записана в следующем виде
то формулу (5.30) можно представить таким образом
В случае когда абсолютно непрерывная случайная величина X сосредоточена на промежутке [a, b], формулы (5.30), (5.32) примут вид
Дисперсия непрерывной случайной величины определяет степень рассеивания значений, принимаемых случайной величиной, вокруг ее математического ожидания.
Среднее квадратичное отклонение, или стандартное отклонение, непрерывной случайной величины X определяется так же, как и для дискретной случайной величины:
Начальным моментом порядка k (k принадлежит N), свободная величина Х называется мат.ожиданием k-й степени Х.
Центральным моментом порядка k СВ Х называется мат.ожидание k-й степени отклонения:
Теорема: если Х и У независимые СВ, то
Док-во:
Докажем связь начальных и центральных моментов:
f(xy)=d(fx(x))/dy и наоборот
По определению:
Компоненты Х и У абсолютно непрерывного случайного вектора называются независимыми, если
Пример: прямоугольник , в котором вектор (х,у) равномерно распределен.
F(x;y)= иначе
При решении уравнения найдем
а)
б)
Аналогично для
Компоненты Х и У независимые
Неравенство Маркова: если x0, a>0, то P(Xa) M(X)/a
Н-во Чебышева: пусть X случ. величина, у кот есть M(X)=m и D(X)=a, тогда >0 справедливо н-во P(|X-m|) D(X)/2 Док-во: P(X) m/ - н-во Маркова. |X-m|; (X-m)2/21;
P(|X-m|) = P((X-m)2/21) M((X-m)2/2) = 1/2 M((X-m)2) = D/2; P(|X-m|) D(X)/2.
Выборочная дисперсия Db- среднее арифметическое квадрата отклонения наблюдаемого значения признака от их среднего значения Хв. Если все значения х1+х2+…+хn выборки v n различны, то DB=
Если значения признака х1,х2,…хn имеют соответствующие частоты n1,…nk; n1+…+nk=n
DB=
D=
D== ==
1°. Теорема Чебышева. Неравенство Чебышева позволяет доказать ряд важных теорем, объе-диненных одним общим названием "закон больших чисел". Основная из этих теорем принадлежит самому П.Л. Чебышеву.
Тогда, каково бы ни было положительное число , вероятность события
стремится к единице при
Доказательство. Положим,
.
В силу свойств математического ожидания имеем:
.
Далее, так как величины независимы, то
.
Сопоставив полученное неравенство с неравенством Чебышева:
,
будем иметь:
Это показывает, что с ростом n вероятность события стремится к 1.
Смысл теоремы Чебышева можно пояснить следующим примером. Пусть требуется измерить некоторую физическую величину m. В силу неизбежных ошибок результат измерения будет случай-ной величиной. Обозначим эту величину X; ее математическое ожидание будет совпадать с измеряе-мой величиной m, а дисперсия равна некоторой величине D (характеризующей точность измеритель-ного прибора). Произведем n независимых измерений и обозначим:
X1 результат первого измерения;
X2 результат второго измерения
и т.д. Совокупность величин X1, X2, …, Xn представляет собой систему n независимых случайных ве-личин, каждая из которых имеет тот же закон распределения, что и сама величина X. Среднее ариф-метическое этих величин тоже является, конечно, случайной величиной. Однако с увеличением n эта величина почти перестает быть случайной, она все более приближается к постоянной m. Точная количественная формулировка этой близости состоит в том, что событие становится как угодно достоверным при достаточно большом n.
Если в каждом из п независимых испытаний вероятность р появления события А постоянна, то как угодно близка к единице вероятность того, что отклонение относительной частоты от вероятности р по абсолютной величине будет сколь угодно малым, если число испытаний достаточно велико.
Другими словами, если - сколь угодно малое положительное число, то при соблюдении условий теоремы имеет место равенство . Доказательство. Обозначим через Х1 дискретную случайную величинучисло появлений события в первом испытании, через Х2во втором, ..., Хnв n-м испытании. Ясно, что каждая из величин может принять лишь два значения: 1 (событие А наступило) с вероятностью р и 0 (событие не появилось) с вероятностью 1р=q. Можно ли применить к рассматриваемым величинам теорему Чебышева? Можно, если случайные величины попарно независимы и дисперсии их ограничены. Оба условия выполняются. Действительно, попарная независимость величин X1, Х2, . . ., Хn следует из того, что испытания независимы. Дисперсия любой величины Xi (i= 1, 2, . .., n) равна произведению pq, так как p+q=1,то произведение pq не превышает 1/4 и, следовательно, дисперсии всех величин ограничены, например, числом С =1/4. Применяя теорему Чебышева (частный случай) к рассматриваемым величинам, имеем Приняв во внимание, что математическое ожидание а каждой из величин Xi (т. е. математическое ожидание числа появлений события в одном испытании) равно вероятности р наступления события, получим Остается показать, что дробь (X1+X2+…Xn)/n равна относительной частоте т/п появлений события А в испытаниях. Действительно, каждая из величин X1,X2,…Xn при появлении события в соответствующем испытании принимает значение, равное единице; следовательно, сумма X1+X2+…+Xn равна числу m появления события в n испытаниях, а значит, Учитывая, это равенство, окончательно получим
. Итак, теорема Бернулли утверждает, что при относительная частота стремится по вероятности к p.
Х биномин. Случайная величина с параметрами n и p
Если Х случайная величина, явл-ся суммой большого числа независимых случайных величин, то случайная величина Х-МХ/ςх имеет распределение, близкое к стандартному нормальному, т.е.
Р{α≤X-MX/ςx≤β} = =Ф(β)-Ф(α) Х число успехов в серии из n испытаний Х=Х1+Х2+…Хn
Где Хi=0, если в i-ом успеха не было, 1, если успех был. Р{α≤(X-np)/√npq≤β}= Ф(β)-Ф(α)
Р{np+α√npq≤x≤np+β√npq}