У вас вопросы?
У нас ответы:) SamZan.net

Лекция1 Случайные события Опр1- опыт эксперимент наблюдение явления будем называть испытанием

Работа добавлена на сайт samzan.net: 2015-07-10

Поможем написать учебную работу

Если у вас возникли сложности с курсовой, контрольной, дипломной, рефератом, отчетом по практике, научно-исследовательской и любой другой работой - мы готовы помочь.

Предоплата всего

от 25%

Подписываем

договор

Выберите тип работы:

Скидка 25% при заказе до 3.2.2025

Теория вероятности

Лекция№1 Случайные события

Опр1: опыт, эксперимент, наблюдение явления будем называть испытанием.

Опр2: произвольное множества Ω (омега) называем пространством элементарных событий, а элементы ω (омега) этого множества будем называть элементарными событиями (элементарными исходами).

Замечание: элементарным событием соответствует взаимоисключающие исходы опыта (испытания).

Опр3: произвольное подмножество пространство элементарных событий называется случайным событием или просто событием. Обозначают: А, В, С…

Опр4: говорят, что в результате испытания осуществилось (наступило) событие А, если произошло элементарное событие ω Є А.

Операции над событиями

Опр5: суммой событий А и В называется событие С, состоящее из всех элементарных событий, которые входят или в событие А или в событие В или в то и другое. Обозначают: С =  А + В или С = A U В.

Замечание: событие А + В состоит в том, что произошло по крайней мере одно из двух событий А или В.

Опр6: произведением событий А и В называется событие С, состоящее из всех элементов, которые одновременно входят в обои события А и В. Обозначают: С = АВ или С = А ∩ В.

Замечание: событие АВ происходит тогда и только тогда, когда происходят одновременно и событие А, и событие В.

Опр7: разностью событий А и В называется событие С, состоящее из всех элементарных событий, которые входят в А, но не входят в В. Обозначают: С = А – В или С = А\В.

Замечание: событие А-В состоит в том, что событие А произошло, а событие В не произошло.

Виды случайных событий

Опр8: пространство элементарных событий называется достоверным, а пустое множество называется невозможным событием.

Замечание!: достоверное событие в результате испытаний неизбежно происходит, а невозможное заведомо не может произойти.

Опр9: события А и В называются несовместными, если их произведение есть невозможное событие, т. е. АВ = Ø, в противном случае события называются совместными.

Замечание: несовместные события не могут наступить одновременно, а совместные могут.

Опр10: событие Ā = Ω – А называется противоположным событию А.

Замечание: событие Ā (не А) означает, что событие А не произошло.

Говорят, что соб А входит в соб В, или соб А влечет за собой соб В и пишут: А, если все эл-ые события мн-ва А входят в В

Св-ва операций над событиями:

1) А+=Ω 2) А=Ø 3) (А+В)С=АС+ВС 4) =*5)= +6) А*Ω=А

Классич. опред-е вер-ти

Вер-ть Р(А) соб А равна отношению кол-ва эл-х событий m, входящих в состав события А к кол-ву всех возможных эл-х событий n:

Р(А)=|A| / |Ω|=M/n

З Символ |М| обозначает число эл-в любого конечного мн-ва М (мощность мн-ва) З! Классич. опред-е вер-ти примен-ся тогда, когда:

1) простр-во эл-х событий Ω конечно, т.е. |Ω|=n (конечное число)

2)все эл-ые события ωi- равновер-тны (равновозможны), т.е Р(ωi)=1/n для ¥ i=1,2…n

Св-ва вер-ти:

1)Р(ω)=1 2)Р(Ø)=0 3) 0≤Р(А) ≤1 , для ¥ А 4)Р()=1-Р(А) 5) АсB =>Р(А) ≤ Р(В) 6) А и В несовместны, то Р(А+В)= Р(А)+ Р(В)

Лекция №2 Вероятность событий

1. Элементы комбинаторики.

Комбинаторика изучает количество различных комбинаций, которые можно составить из элементов произвольного конечного множ-ва.

Перестановками-называются комбинации составленные из одних и тех же n различных элеметнов, которые отличаются между собой только порядком расположения элементов. Общее число перестановок равно Pn!=n!=1*2*3*4…n

Пример: х={1,2,3} 123 132 213 231 312 321

Опр2. сочетанием-называется комбинации составленные из n различных элементов по m элементов которые отличаются между собой хотя бы 1 элементом. C n m = n!/m!(n-m)!

Замечание: в сочетание порядок расположение элементов не важен.

Опр3. размещениями наз-ся комбинации составленные из n различных элементов по m, которые отличаются составом элементов, либо их порядком. Общее число размещений  A n m =n!/(n -m)!=n(n-1)…(n-m+1)- m сомножителей

Опр4. (геометрическое определение вероятности) если g часть области G, то при бросании на удачу точки в область G вероятность ее попадания в часть g=P=mes g/mes G, где символ mes означает мера (в одномерном варианте длина, двумерном-площадь, в трехмерном - объем)

Замечание. При геометрическом определении вероятности полагают:

1. пространство элементарных событий (Ω=G)

2. интересующее событие A=g

опр.5 (условная вероятность) вероятность события А, найденное при условии, что событие B уже произошло, называется условной вероятностью события А, и обозначается символом P(A/B)

опр6. (независимость событий) 2 события А и В называются независимыми если вероятности появления каждого из них не зависит от того произошло ли другое событие или нет, т.е. если:  P(A/B)=P(A), P(B/A)=P(B). При этом вероятности P(A) и P(B) называют безусловными вероятностями в противном случае события называют независимыми.

Замечание. зависимость и независимость событий всегда взаимно т.е. если А зависит от В то и В зависит от А, и наоборот. Кроме того, если события А и В независимы то независимы каждые 2 события А и В,  А и В, А и В

Замечание. На практике о независимости событий заключают по смыслу задачи.

Теорема сложения вероятностей. Вероятность суммы двух событий А и В = сумме вероятностей этих событий минус вероятность их произведения. P(A+B)=P(A)+P(B)-P(AB).

Следствие: если события А и В не совместны то P(A+B)=P(A)+P(B)

Теорема умножения вероятностей. Вероятность произведения двух событий А и В равна произведению вероятности одного из них на условную вероятность другого, вычисленную при условии что первое событие уже наступило P(AB)=P(A)*P(B/A)=P(B)*P(A/B)

Следствие. Если события А и В независимы то Р(АВ)=Р(А)*Р(В)

    

Лекция 3Формула полной вероятности, формула Байеса.

Опр1. (полная группа событий) говорят что совокупность событий А1, А2…Аn образуют полную группу событий, если эти события попарно несовместны и в результате испытания обязательно наступает хотя бы одно из них, т.е. если:

1. Ai*Aj=Ø(невозможные события), при I неравно j. 2. A1+A2+…+An=Ω

Замечание!: для одного и того же испытания может быть несколько полных групп событий.

Торема1. сумма вероятностей событий А1, А2 …Аn образующих полную группу ,равна 1. P(A)+P(B)+…+P(An)=1

Док-во: поскольку события А1,А2,…,Аn образуют полную группу, то А1+А2+…+Аn= Ω. Отсюда Р(А1+А2+…+Аn)=Р(Ω)=1(*). Любые два события полной группы несовместны, поэтому Р(А1+А2+…+Аn)=Р(А1)+Р(А2)+…+Р(Аn)(**). Из формул (*) и (**) окончательно получаем P(A)+P(B)+…+P(An)=1

Теорема (формула полной вероятности) если событие А может наступить только при условии появления одного из событий В1, В2…Вn, которое образуют полную группу событий, то вероятность события А равна сумме произведений вероятностей каждого из этих событий на соответствующую условную вероятность события А: P(A)=Σ P(Bi)*P(A/Bi)

Док-во. Поскольку события В1, В2…Вn образуют полную группу , то В1+ В2+…+Вn=Ω поэтому А=А*Ω=А(В1+ В2+…Вn)=АВ1 +АВ2 + +..АВnABi. Т.к. события В1, В2… Вn попарно несовместны то и события АВ1, АВ2…АВn так же попарно несовместны Р(А)=Р(Σ АВi)=Σ P(ABi)=Σ P(Bi)*P(A/Bi)

Замечание. ФПВ применяется во всех случаях когда испытание со случайным исходом распадается на 2 этапа, на первом этапе как бы «разыгрывается» условие испытание, а на втором  этапе его результат, событие В1, В2… Вn при этом обычно называются гипотезами, поскольку за ранее неизвестно какое из этих событий наступит.

Формула Байеса. P(Bi/A)=P(Bi)P(A/Bi))/(Σ P(Bi)P(A/Bi))

Доказательство. По теореме умножения вероятностей имеем P(A/Bi)=P(A)* P(Bi/A)=P(Bi)* P(A/Bi) отсюда P(Bi/A)=(P(Bi)*P(A/Bi))/P(A)(*). С другой стороны по формуле полной вероятности P(A)=Σ P(Bi)*P(A/Bi)(**). Из формулы (*)и(**) получаем формулу Байеса

Замечание. Формула Байеса позволяет пересчитывать вероятности гипотез в свете новой инфо-ии, состоящей в том, что в результате опыта произошло событие А.

Аксиомотическое построение теории вероятности(проеодолевает недостатки, присущие известным опред вероятности.-автор Толмогоров)

1.Каждому событию А соотв неотриц числоP(А), назыв его вероятностью.

2.Вероятность достоверного соб-ия =1P(гамма)=1

3. Если А1,А2,А3,Аn попарно несовм, то P(A1+A2+A3+An)=P(A1)+P(PA2)+P(An)

Лекция 4. Схема Бернулли

Опр1.Испытание называется независимым если вер-ть какого либо исхода каждого из них не зависит от того какие исходы имели другие испытания.

Опр2. Повторные независимые испытания называются испытаниям Бернулли или схемой Бернулли, если:   1) каждое испытание имеет только 2 возможных исхода; 2) вероятности этих исходов постоянны для всех испытаний, т.о. в схеме Бернулли для каждого испытания имеется только 2 исхода:  событие А(успех) и  событие не А (неудача) с постоянными вероятностями Р(А)=Р и Р(неА)=q при этом Р+q=1.

Замечание. для n испытаний Бернулли элем. события удобно обозначать комбинациями в виде цепочек длиной n состоящих из букв У(успех) и Н (неудача), либо из букв А(успех) и неА(неудача), т.е. ω=УУН…ННУn ; =ААнеА…неАнеААn

Замечание. Испытания Бернулли возникают и при более сложных экспериментах, если мы не будем различать несколько возможных исходов, а опишем результат каждого испытания только в виде двух исходов А(успех), неА(неудача).

Теорема (Формула Бернулли)

Вероятность того что при n испытаний Бернулли успех наступит ровно m-раз равна Pn(m)=C n m *P^m*q^n-m, m-0,1,2,…,n, где Р -вероятность появления успеха в каждом испытании q=1-P-вероятность неудачи.

Док-во. Обозначим интересующее событие Вn(m)={в n испытаниях Бернулли событие А(успех) наступит ровно m раз}. Представим событие Вn(m) через элементарные события например: при n=3 и m=2 будем иметь В3(2)= ААнеА+АнеАА+неААА. В общем виде событие Вn(m) представляет собой сумму элементарных событий в виде цепочек длиной n, каждая из которых состоит ровно из m событий  А и (n-m) событий неА, т.е. Bn(m)=А,А,…,А* неА,неА,…,неА+АА…А*неААнеА…неА+…+неАнеА…неААА…А  (*). В силу независимости испытаний вероятность каждой цепочки в формуле (*) равна Р(ААнеА….неАА)=Р(А)Р(А)Р(неА)…Р(неА)Р(А)=Р^m(A)*Р^n-m(неА)=Р^n*q^n-m

А-m раз                           Р(А)- m раз

неА(n-m)-раз                  Р(неА)-(n-m) раз

Общее число цепочек в формуле(*)равно числу способов выбора из n испытаний m испытаний, в которых событие А произошло, т.е. равно числу сочетаний С n m. В связи с тем, что цепочки между собой несовместны получаем: Рn(m)=P(Bn(m))=P^m*q^n-m+P^m*q^n-m+…+P^m*q^n-mn m *P^m*q^n-m.

Опр3. число m0 называется наивероятнейшим числом наступлений события А в n испытаниях Бернулли, если  Рn(m0)>=Pn(m),   m=0,1,2,….,n

Замечание: наивероятнейшее число m0=целой части числа (n+1)*P и может быть определено из двойного неравенства: np-q<=m0<=np+q, если р≠0, р≠1. Если число (n+1)*p-целое, то наивероятнейшим так же будет являться и число m0-1, с той же вероятностью Pn(m0).

Лекция 5Приближенные ассимитрич формулы для схемы Бернули

Теорема 1 (Формула Пуассона)

Вероятность того что в n(n∞) в испытаниях Бернулли успех наступит ровно m раз приближенно равное Pn(m)≈λ^m/m!*e^-λ  где λ=n*p, Р(Р0) вер-ть появление успеха в каждом испытании.

Док-во: По ф.Бернулли имеем Pn(m)=Cnmpmqn-m =(n!/(m!*(n-m)!))*(λ/n)^m*(1-λ/n)n-m=(n*(n-1)*…*(n-m+1))/m! *λm/nm * (1- λ/n)n-m = (n (n-1)*…*(n-m+1))/ nm *λm/ m!* (1- λ/n)n-m = 1*(1-1/n)*…*(1- (m-1)/n)* λm/ m!* (1- λ/n) m *(1- λ/n)m (*). Найдем пределы каждого сомножителя в формуле * при n→∞ :1)lim n→∞ 1= lim n→∞ (1-1/n)=…= lim n→∞ (1- (m-1)/n)=1 2) lim n→∞ λm/ m!= λm/ m! 3) lim n→∞ (1- λ/n) m =(1)=e –λ 4) lim n→∞ (1- λ/n)m =1.

Из данных пределов и формулы * получаем lim n→∞ Pn(m)= λm/ m!*e –λ . => Pn(m)≈ λm/ m!*e –λ при достаточно великой n.

Замечание. Приближенную формулу Пуассона применяют практически в случаях когда n велико, а р мало. Обычно р<0,1, а λ=n*p не превосходит 10(<=10). Существуют таблицы значений функции λ^m/m!*e^-λ

Теорема 2(Локальная формула Муавра-Лапласа). Вероятность того, что n(n∞) испытание Бернулли успех наступит ровно m-раз приближенно равна: Pn(m)≈ 1/√npq * φ(xn,m), где р-вероятность появление успеха в каждом испытании; q=1-p – вероятность неудачи; Xn,m=m-np/√npq; φ(x)=1/√2П*e^-(x^2)/2.

Замечание. Вычесление по локальной формуле Муавра-Лапласса дает несущественную погрешность при выполнении условия npq>= 20. Существует спец. таблицы значений функций φ(х) для положительных значений х, для отицательных значений пользуются теми же таблицами, так как функция φ(х) четная.

Теорема 3(интегральная формула Муавро-Лапласса) вероятность того что в n(n∞) испытаниях Бернулли, число успехов μ находиться между m1 и m2 , приближенно равно P{m1<=μ<=m2}≈Ф(х2)-Ф(х1), где Ф(х)=1/√2π  -∞+∞е^-((t^2)/2)*dt (интеграл вероятностей ), х2=(m2-np)/√npq; x2=(m1-np)/ /√npq, где Р-вероятность появления успеха в каждом испытании, q=1-p.

Замечание: существуют специальные таблицы значений функции Лапласса, при этом Ф(х)+Ф(-х)=1

       

  Лекция №6 Случайные величины

Опр1: (неформальное определение случайной величины)Случайной величиной (СВ) называется переменная величина, которая в результате испытания случайно принимает одно значение из множества возможных значений.

Опр2: (формальное определение СВ) СВ называется ф-ция, определенная на пространстве элементарных событий.

Опр3: СВ, которая может принимать только конечное или счетное множество значений называется дискретной (ДСВ).

Опр4: СВ, которая может принимать все значения из некоторого числового промежутка называется непрерывной(НСВ).

Опр5: Законом распределения CВ называется соотношение, устанавливающее тем или иным способом связь между возможными значениями CВ и их вероятностями.

Замечание: Закон распределения ДСВ обычно задается рядом распределения.

Опр6: Рядом распределения  ДСВ называется таблица, в верхней строке которой перечислены все возможные значения CВ, а в нижней – соответствующие им вероятности.

Σ(i=1 – n )pi =1

Замечание: для наглядности распределения ДСВ можно изобразить графически. Для этого в прямоугольной системе координат строят точки (xi;pi), а затем соединяют их отрезками прямых, полученную фигуру называют многоугольником распределения.

Опр7: Функцией распределения СВ Х называется вероятность того, что она примет значение меньшее, чем заданно х: F(x)=P{X<x}.

Замечание: геометрически функция распределения интерпретируется как вероятность события {наблюдаемое значение случайной величины Х находится левее заданной точки х}.

Свойства ФР.

1) 0<=F(x)<=1; 2)F(x)-неубывающая функция своего аргумента, т.е. если х1<x2, то F(x1)<F(x2); 3) F(-∞)=0; 4) F(+∞ =1; 5)P{a<=x<=b} =F(b)-F(a).

Функция распределения ДСВ.

Если Х –ДСВ, принимающая значение х1, х2, х3, и т. д. с вероятностями р1, р2, р3, и т. д., то её ФР задается равенством: F(x)=Σ(xi<x)pi, где суммируются вероятности тех значений xi, которые меньше х.

Замечание: ФР любой ДСВ есть разрывная ступенчатая функция (непрерывная слева), скачки которой происходят в точках х1, х2, х3 и т.д. и равны вероятности р1, р2 ,р3 и т.д.

Опр8: Плотность распределения или плотность вероятности НСВ Х в точке х называется производная её функции распределения в этой точке. Обозначают f(x): f(x)=F’(x)

Замечание: плотность вероятности как закон распределения имеет смысл только для НСВ.

Опр9: График плотности вероятности f(x) называется кривой распределения.

Свойства плотности вероятности.

1)f(x)>=0; 2) -∞+∞f(x)dx=1; )P{a<=x<=b}= abf(x)dx; 4)F(x)=-∞xf(t)dt(позволят находить функцию распределения по заданной плотности вероятности).

Лекция 7. Числовые хар-ки С.В.

Опр. 1 Математическое ожидание (М.О.) ДСВ Х  наз-ся сумма произведений всех ее возможных значений на соответствующие им вероятности. Обозначают: М(Х) или Е(Х).  .

Зам-е.  Если ДСВ х принимает четное множество значений (n=∞),то .При этом предполагается, что сущ-ет предел .

Опр2. Математическое ожидание НСВ с плотностью вероятности f(x) наз-ся выр-е M(x)= -∞+∞ xf(x)dx (при этом предлагается, что интеграл -∞+∞xf(x)dx сходится).

Зам-е! при большом количестве испытаний среднее арифметическое наблюдаемых значений CD Х близко к ее МО. Поэтому МО СВ иногда наз-ют средним значением или центром распределения вероятностей СВ.

Опред.3. СВ Х и У наз-ся независимым если закон распределения каждой из них не зависит от того какие возможные значения приняла другая величина, в противном случае СВ Х и У наз-ся зависимыми.

Св-ва МО.

1. М(С)=С, где С- константа

2. М(СХ)=СМ(Х), где С – константа

3. М(Х+-У) =М(Х)+-М(У)

4. М(ХУ)=М(Х)М(У), если Х,У – независимые

Опр. Дисперсия СВ наз-ся МО квадрата отклонения СВ от ее МО. Обозначают D(Х).  D(X)= М[(Х-М(Х))^2]

Зам-е. Дисперсия хар-ет степень рассеяния (разброса) значений СВ относительно ее МО (среднего значения).

Непосредственное выч-е значения дисперсии осуществляется по ф-лам:

 D(x)= - для ДСВ

 D(x)= -∞+∞ [x - М(Х)]^2*f(x)dx- для НСВ

Св-ва Дисперсии

D(x)=M(x)2M2 (x)

D(c)=0 – где с- константа

D(cx)=c2D(x), c-const

D(x+-y)=D(x)+D(y) – если Х и У независимы.

Опр-е: Ср. квадратичным отклонением (СКО) СВ наз-ся кв. корень от ее дисперсии σ(Х)= √D(x)

Зам-е. размерность величин М(Х) и σ(Х) совпадает с размерностью самой СВ Х, а размерность D(X) равна квадрату размерности СВ Х.

Опр. Модой ДСВ Х наз-ся ее наиболее вероятное значение, а модой НСВ Х наз-ся такое ее зн-е, при котором плотность вероятности достигает максимума, обозн. Мо(Х).

Зам-ние. Если плотность вероятности достигает максимума не в одной, а в нескольких точках, то распределение называется полимодальным.

Опр. Медианой Ме(Х) НСВ Х наз-ся такое ее зн-е, при к-м P{x>Me(X)}=P{x<Me(X)}=0.5.

Зам. Геометричесик медиана НСВ Х - это такая точка Ме(Х) на оси Ох, для которой вертикальная прямая х=Ме(Х) делит площадь фигуры от кривой распр-я на 2 равные части

Опр 8 Квантилем уровня р(или p- квантелем) СВ наз-ся такое значение хp, при котором вып-ся равенство F(xp)=p.

Зам-ние. Медиана CD есть квантель уровня 0.5, т.е. Ме(Х)=х0.5.

Опр. Начальным методом к-го порядка СВ наз-ся число К=М(ХК). Центральным моментом к-го порядка СВ Х наз-ся число μК= М[x-M(x)]К.

Лекция 8.Основные законы распределения ДСВ

Опр1. Говорят, что ДСВ Х распределена по биноминальному закону, если она принимает значения  0,1,2,…,n с вероятностями, где 0<p<1, q=1-p, m=0,1,…,n.

Замеч: Вероятности P{Х=m}находится по формуле Бернулли. Следовательно ДСВ, распределенная по биномиальному закону -это число наступления события А(число «успехов») в n испытаниях Бернулли.

 Теорема 1:МО и дисперсия  СВ  Х, распределенной по биномиальному закону, соответственно равны: M(X)=np,  D(X)=npq.

Док-во:СВХ-число наступлений соб А (успех) в n исп Бернулли. => ее можно предст в виде X=∑nk=1Xk, Xk (k=1,2…n)-случайная величина, кот. выраж число наступлений соб А в k-том испытании, т е Xk=1,если соб А наступило в k-том испытании, Xk=0,если соб А не наступило в k-том испытании. Т к исп Бернулли явл независ и вер-ть появления соб А в каждом испытании постоянна,то => СВ Хk независ м/у собой и каждое из них имеет 1 и тот же закон распред-я Xk(k=1,2…n)

xi

0

1

pi

q

p

             

Найдем числовые хар-ки СВ Xk (к=1,2…n). M(Xk)=def2i=1xipi=0*q+1*p=p D(Xk)=def2i=1[xi-M(Xk)]2pi=[0-p]2q+[1-p]2p=p2q+q2p=pq(p+q)=pq. Тогда M(X)=M(∑nk=1Xk)=∑nk=1M(Xk)= ∑nk=1p=np.

D(X)=D(∑nk=1Xk)=│X1,X2…Xn-независ│= ∑nk=1D(Xk)= ∑nk=1pq=npq.

Зам: Биноминальный закон распределения широко используется при проведения выборочного контроля качества продукции, при описании систем массового обслуживания, и других областей.

Опр : говорят, что ДСВ Х имеет закон распределения Пуассона ,если она принимает значения  0,1,2,…(счетное множество) с вероятностями, где  m=0,1,2,…; -параметр закона Пуассона.

Теорема 2:МО и дисперсия СВ Х, распределенной по закону Пуассона , равны параметру λ этого закона ,т.е. М(Х)=λ,D(X)=λ

Теорема3:Сумма двух независимых СВ, распределенных по закону Пуассона с параметрами λ1 и λ2,есть СВ ,так же распределенная по закону Пуассона  с параметром λ=λ1+λ2.

Док-во:Пусть независ СВ X,Y распред по закону Пуассона сооттв с парам λ1 и λ2. Докажем,что СВ Z=X+Y также распред по закону Пуассона с парам λ=λ12. Очевидно,что возможн зн-я СВ Z следующ:0,1,2…Найдем соотв им вер-ти P{Z=n}= P{X+Y=n}=P(∑nm=0{X=m,Y=n-m})=∑nm=0P{X=m,Y=n-m} =∑nm=0P({X=m}*{Y=n-m})(X,Y-независ по усл теоремы)= ∑nm=0 P{X=m}*P{Y=n-m}=∑nm=0 λ1me-λ1/m!* λ2n-me-λ2/(n-m)!=e -(λ1+ λ2)* ∑nm=0 λ1m2 n-m*n!/m!(n-m)!*n!= e -(λ1+ λ2)/n!* ∑nm=0 Cmnλ1mλ2n-m (бином (λ1+ λ2)n)= e -(λ1+ λ2)/n!*(λ1+ λ2)n=eλn/n!

Лекция 9

Опр1 Говорят, ДСВ Х имеет геометр распределение если она принимает значения 1,2 .. (множество натуральных чисел) с вероятностями, где , q=1-p   m=1,2, …

З !ДСВ х имеющая геометр распределение представляет собой число испытаний Бернулли которые нужно провести до 1 ого появления события А (успех).

З! Ряд распределения ДСВ Ч имеющий геометр распределение имеет вид :

При этом

Вероятности pm=  образуют геометрическую прогрессию с первым членом р и q. Отсюда и вытекает название Геометрическое распределение .

Т1. Мат ожидание и дисперсия СВХ имеющий геометрическое распределение соответственно равны: М(х)=1/р    D(x)=

Док: Поскольку множество возможных значений СВ Х бесконечно( счётно), то её мат ожидание есть сумма ряда

M(x)  ===

т.к. члены ряда  являются производными по переменной q соответствующих членов ряда  и при этом:  

то    =

Следовательно М(х)=р*=

 Для вычисления дисперсии найдем сначала средний квадрат

 

=== = =

= p*(q(-= p*(q(-  p*(q(- p*(q(- p*( -  p*( -

Следовательно: D(x)= M- M2(x) =   ч.т.д.

Параграф 2 Гипергеометрическое распределение

Говорят, что ДСВ Х имеет гипергеометрическое распределение если она принимает значения 0,1,2 .. , min(n,M) c вероятностями

P{X=m}=, где m=0,1,…min(n,M)

, где n,M,N натуральные числа

Теорема 2 математическое ожидание и дисперсия СВ Химеющей гипергеометрическое распределение соответственно равны

M(x)=                                  

Зам. Гипергеометрическое распределение широко используется в практике статистического контроля качества промышленной продукции

Лекция 10. Основные законы распределения НСВ.

Опр1. Говорят, что НСВ Х имеет равномерный закон распределения на отр. [ a; b], если ее плотность вер-ти имеет вид  f(x)= {1/(b-a), a<=x<=b}{ 0, x<a или x> b}

Теорема 1. Фнкция распределения НСВ Х, распределенная по равномерному закону имеет вид F(x)={0, x<=a}{x-a/b-a, a<x<=b}{1, x>b}.

Док-во. Функция распределения  F(x) = [cв-во 4 пл-ти вер-ти]=-∞x f(t)dt. 1. x<=a ,=> F(x) = -∞xf(t) dt=-∞x0dt=0. 2.a<x<=b, => F(x) = -∞xf(t) dt=[-∞х=-∞a+ ax]= axf(t)dt= ax (1/b-a)dt=(1/b-a)axdt=(1/b-a)tab=x-a/b-a. 3. x>b, => F(x) = -∞xf(t) dt=[-∞x= -∞a+ ab+ bx]= abf(t)dt= ab (1/b-a)dt =1/b-a abdt =(1/b-a)ta b=b-a/b-a=1.

Теорема 2. МО и дисперсия CВ Х, распределенной по равномерному закону соответственно равны М(Х)= (а+b)/2; D(X)=(b-a)2/12.

Док-во:M(X)=def-∞xf(x)dx=!-∞=-∞a(=0)+ab+b(=0)!= abxdx/b-a=1/b-a abxdx=1/b-a(x2/2)!ba=b2-a2/2(a-b)=a+b/2

D(X)=def-∞(x-M(x))^2f(x)dx=!-∞=-∞a(=0)+ab+b(=0)!=ab ((x-(b+a)/2)^2)dx/b-a=1/b-aab((x-(b+a)/2)^2)dx= (b-a)^2/12

Замечание! Равномерное распределение не имеет моды, а медиана совпадает с МО, т.е. Ме(Х) =(a+b)/2

(ошибки измерения физ велечин при окр рез набл до ближайшего деления)

Опред №2 Говорят, что НСВ Х имеет показательный (экспоненциальный) закон расп-ния с параметром λ, если ее плотность вер-ти имеет вид f(x)={ λ*e^-λx, x>=0} { 0, x<0}.

Теорема 3. Функция расп-ния CВ Х, распределенной по показ. закону, имеет вид F(X)={ 1-e^-λx, x>=0} { 0, x<0 }.

Док-во: -∞xf(t)dt Пусть x<0 =>-∞xf(t)dt=-∞x0dt=0. Пусть x≥0 =>-∞xf(t)dt=!-∞x=-∞0(=0)+0x!= 0xf(t)dt=0x λexdt=λ0x exdt=λ(ex/-λ)!x0=-(et)!x0=-(ex-1)=(-e)x-1

Теорема 4. МО и дисперсия CВ Х,распределенной по показ. закону, соответственно равны М(Х)=1/λ; D(X)= 1/ λ2.

Док-во:Проверим для МО. M(X)=def-∞xf(x)dx=!-∞=-∞0(=0)+0!=0 exdx=def lim b→∞ 0bλxe-λxdx. 0bλxe-λxdx=!интегр по частям!=!u=λx,dv=e-λxdx, v=∫e-λxdx=e-λx/-λ, dudx!=[λx*e-λx/-λ]!b0-0bex λdx /-λ=-[x ex]!b0+0bexdx=-[beb-0]+(ex/-λ)!b0= -beb-1/λ (eb-1)= -beb-eb/λ+1/2 =>M(X)=lim b→∞[-beb-eb/λ+1/2]=1/λ

Опр3 (норм закон распределения). Говорят, что НСВ Х имеет нормальный закон расп-ния (закон Гаусса) с параметрами δ и μ, если ее плотность вероятности имеет вид f(x) = (1/√2π* δ)* e^-(x-μ)^2/2δ^2, (δ>0)/

Замечание. Функция распр-ния  CВ Х, распред-ная по норм. закону имеет вид F(X)=(1/√2π* δ)--∞xe^-(t-μ)^2/2δ^2dt.

Теорема 5. МО, дисперсия и СКО СВ Х, распр-ной по норм. закону соответственно равны М(Х)=μ,  D(X)= δ2, δ(X)= δ

Замечаение! Утверждение «CВ Х имеет норм. распределение с параметрами μ и δ» кратко записывается Х€ N (μ, δ)

Опр4. Норм.закон распределения CВ Х с парметрами μ=0, δ=1,т.е. N(0;1) назыв. стандартным или нормированным.

Замечание! Плотность вер-ти и ФР СВ Х, распределенной по нормированному закону, имеют вид f0(x)=(1/√2π )e^-x^2/2 ; F(X) =-∞x (1/√2π) е^-t^2/2dt. Эти функции табулированы (сущ-ют таблицы их значений).

Свойства CВ Х распред-ной по нормированному закону (XN(μ;δ))

1.Вер-ть попадание CВ Х в отрез. [ a;b] P{a<=x<=b}=F0(b-μ/δ)- F0(а-μ/δ)

2. вер-ть того, что CВ Х отличается от своего МО по абс. вел-не не больше, чем на ε  P{X-μ<=ε}=2F0(ε/δ)-1.

Лекция 11.О1. Упорядоченный набор (x1, x2, .. , xn) СВ Х1, Х2, …, Хn называется системой n случайных величин или многомерной ( nмерной) случайной величиной.

О2. Одномерные СВ Х1, Х2, … ,Хn называются компонентами или составляющими n- мерной СВ (Х1, Х2, … , Хn)

Зам! Свойство систем Св  многомерной Св не исчерпывается свойствами её компонентов, а включает также и взаимные связи (зависимости между этими компонентами ). В дальнейшем будем рассматривать только 2 мерную СВ.

Типы 2 мерных Случайных Величин (X,Y)

Дискретная – если возможные значения (X,Y) образуют конечное или счётное множество.

Непрерывная – если возможные значения (X,Y) сплошь заполняют некоторую область на плоскости.

Смешанная   - если возможные компоненты X и Y являются одномерными СВ разных типов.

З! Тип 2 мерной СВ (X,Y) фактически определяется типом её компонентов X иY

т.е. если оба компонента x  и y ДСВ, то и 2 мерная СВ (X,Y) также будет дискретной.

О3 Матрицей распределения называется матрица вида :

          

Y1

Y2

Yn

X1

P11

P12

P1m

X2

P21

P22

P2m

Xn

Pn1

Pn2

Pnm

Свойства Вероятности

=

=

Зам! Свойства 2 и 3 означают, что если задана матрица распределения 2мерной ДСВ (X,Y), то можно найти ряды распределения одномерных СВ Х и Y

Опр4 Функция распределения 2мерной СВ (X,Y) называется вероятность совместного выполнения 2х неравенств :

   т.е.  F(x,y)=P     

Зам! Событие     означает произведение событий  

Функция распределения двумерной ДСВ (X,Y)   

Если СВ (x,y)  является дискретной, то её функция распределения находится по формуле

; где суммируются все вероятности  для которых ,   

Свойства функции распределения 2 мерной СВХ

– не убывающая функция по каждому аргументу т.е.

, if

Fx(x)

Fy(y) где Fx(x) и Fy(y)функции распределения СВ Х и Y соответственно.

Лекция 12

Опр 1 . Плотностью  вероятности 2мерной НСВ (X,Y) называется вторая смешанная частная производная её  функции распределения:

Опр 2. График плотности вероятности 2 мерной НСВ называется поверхностью распределения.

 Свойства плотности вероятности двумерной НСВ

f(x,y)больше или равно 0

Вероятность попадания случайной точки () в область D  равна 2му интегралу от плотности вероятности по этой области т.е.

 

Функция распределения двумерной НСВ может быть выражена через её плотность вероятности по формуле :

 

Условия нормировки: 2ой несобственный интеграл в бесконечных пределах от плотности вероятности двумерной НСВ равен единице т.е.

=1  

Геометрически данное свойство означает, что объем тела, ограниченного сверху поверхностью распределения, а снизу плотностью x  по y равна 1

)=)=где   и ) плотность вероятности СВ(X,Y) соответственно.

Равномерное распределение 2мерной НСВ

Опр3. Говорят, что двумерное НСВ (X,Y) имеет равномерное распределение в области D, если её плотность вероятности имеет вид:

f(x,y)=

где SD – площадь P

замечание: Основные свойства равномерного распределения состоит в том,что для него применимо понятие “Изометрической вероятности” т.е. если область g содержится в области D, то нетрудно показать, что

  где площадь g

Теорема (о независимости 2 СВ)

СВ независимыфункция распределения двумерной СВ (X,Y) равна произведению функций распределения составляющих т.е.

  )= F(x,y)  ,   ) функции распределения СВ x и  y соответственно.

Доказательство:

Необходимо:

Пусть СВ x и y независимы , тогда

 )

Достаточно: Пусть     )  

Тогда из определений функций распределения следует равенство: , которое и означает, что СВ X и Y независимы  ч.т.д.

Следствие :Необходимым и достаточным условием независимости 2ух непрерывных СВ X и Y образующих систему (x,y) является равенство :   )= F(x,y)  

Лекция 13

Опр.1. Условным законом распределения СВ Х входящей в систему (X,Y) называется её закон распределения вычисленный при условии, что другая СВ Y приняла определенное значение.

Замечание. Аналогично определяется условный закон распределения СВ Y входящей в систему (X,Y).

Обозначим через условную вероятность, того что СВ Х примет значение  при условии, что СВ Y приняла значение

Замечание! Условные вероятности  определяются равенством:

Опр.2. Условным законом распределения составляющий x при называют совокупность условных вероятностей  Вычисленных предположений, что событие уже наступило.

Замечание. Аналогично находят условный закон распределения составляющий Y

Замечание. Сумма вероятностей условного распределения равна 1. Док-во:  

Аналогично доказывается, что при фиксированным  . Это свойство распределений используют для контроля вычислений.

Опр.3.Условной плотностью вероятности  составляющей X при заданном значении Y=y называется отношение плотности вероятности двумерной непрерывной СВ (X,Y) к плотности вероятности составляющей Y т.е.  Аналогично определяется условная плотность вероятности составляющей Y при заданном значении X=x   Формулы для вычисления условных плотностей вероятностей. Если известна плотность вероятности f(x,y) двумерной непрерывной СВ (X,Y), то условные плотности вероятности составляющих X и Y могут быть найдены по формулам     Замечание! Условные плотности вероятности обладают всеми свойствами безусловной плотности вероятности.

Лекция 14

Опр.1. МО двумерной ДСВ (X,Y) называется совокупность двух МО M(X) и M(Y) определяемых равенствами , где .

Опр.2. МО двумерной НСВ с плотностью вероятности f(x,y) называется совокупность двух МО M(x) и M(y) определяемые равенствами  . Опр.3. Дисперсией двумерной ДСВ (x,y) называется совокупность двух дисперсий D(x) и D(y) определяемых равенствами  .

Опр.4.  Дисперсией двумерной НСВ (X,Y) с плотностью вероятности f(x,y) называется совокупность двух дисперсий D(x) и D(y) определяемых равенствами  З! МО M(x),M(y) и дисперсии D(x),D(y) СВ X и Y  входящих в систему (X,Y) могут быть найдены по обычным формулам используемых для одномерных СВ. Для этого необходимо предварительно перейти от закона распределения двумерной СВ (X,Y) соответственно к одномерным законам распределения СВ X и Y

Опр.5.Ковариацией СВ X и Y называется МО произведения отклонений этих величин. Обозначается cov (X,Y) или . Замечание. Ковариация характеризует взаимную зависимость СВ X и Y - Для ДСВ -НСВ

Замечание! Ковариацию часто удобно вычислять по формуле, которая получается  из определения ковариации на основании свойств МО . Если СВ независимы то k=0. Опр.6. Коэф. корреляции

СВ X и Y называется выражение . Замечание! Для любых СВ X и Y выполняется соотношение  , при этом если r=0, то СВ X и Y называются некореллированы, в противном случае – кореллированы.




1. Реферат- Правление Екатерины II
2. Российские РСЗО
3. Гороскоп дерев
4. Теоретические основы страхования в России
5. Откорм крупнорогатого скота
6. из первых рук- они основаны на данных многолетних исследований руководимой И
7. тематичний аналіз А В Т О Р Е Ф Е Р А Т дисертації на здобуття наукового ступеня кандида
8. это процесс определения того отвечает ли текущее состояние разработки достигнутое на данном этапе требов
9. Не реже 1 раза в неделю; Б
10. политический аспект актуализации проблемы генерирует и две линии восприятия и интерпретации сути задач кот