Будь умным!


У вас вопросы?
У нас ответы:) SamZan.net

Лекция1 Случайные события Опр1- опыт эксперимент наблюдение явления будем называть испытанием

Работа добавлена на сайт samzan.net:

Поможем написать учебную работу

Если у вас возникли сложности с курсовой, контрольной, дипломной, рефератом, отчетом по практике, научно-исследовательской и любой другой работой - мы готовы помочь.

Предоплата всего

от 25%

Подписываем

договор

Выберите тип работы:

Скидка 25% при заказе до 24.11.2024

Теория вероятности

Лекция№1 Случайные события

Опр1: опыт, эксперимент, наблюдение явления будем называть испытанием.

Опр2: произвольное множества Ω (омега) называем пространством элементарных событий, а элементы ω (омега) этого множества будем называть элементарными событиями (элементарными исходами).

Замечание: элементарным событием соответствует взаимоисключающие исходы опыта (испытания).

Опр3: произвольное подмножество пространство элементарных событий называется случайным событием или просто событием. Обозначают: А, В, С…

Опр4: говорят, что в результате испытания осуществилось (наступило) событие А, если произошло элементарное событие ω Є А.

Операции над событиями

Опр5: суммой событий А и В называется событие С, состоящее из всех элементарных событий, которые входят или в событие А или в событие В или в то и другое. Обозначают: С =  А + В или С = A U В.

Замечание: событие А + В состоит в том, что произошло по крайней мере одно из двух событий А или В.

Опр6: произведением событий А и В называется событие С, состоящее из всех элементов, которые одновременно входят в обои события А и В. Обозначают: С = АВ или С = А ∩ В.

Замечание: событие АВ происходит тогда и только тогда, когда происходят одновременно и событие А, и событие В.

Опр7: разностью событий А и В называется событие С, состоящее из всех элементарных событий, которые входят в А, но не входят в В. Обозначают: С = А – В или С = А\В.

Замечание: событие А-В состоит в том, что событие А произошло, а событие В не произошло.

Виды случайных событий

Опр8: пространство элементарных событий называется достоверным, а пустое множество называется невозможным событием.

Замечание!: достоверное событие в результате испытаний неизбежно происходит, а невозможное заведомо не может произойти.

Опр9: события А и В называются несовместными, если их произведение есть невозможное событие, т. е. АВ = Ø, в противном случае события называются совместными.

Замечание: несовместные события не могут наступить одновременно, а совместные могут.

Опр10: событие Ā = Ω – А называется противоположным событию А.

Замечание: событие Ā (не А) означает, что событие А не произошло.

Говорят, что соб А входит в соб В, или соб А влечет за собой соб В и пишут: А, если все эл-ые события мн-ва А входят в В

Св-ва операций над событиями:

1) А+=Ω 2) А=Ø 3) (А+В)С=АС+ВС 4) =*5)= +6) А*Ω=А

Классич. опред-е вер-ти

Вер-ть Р(А) соб А равна отношению кол-ва эл-х событий m, входящих в состав события А к кол-ву всех возможных эл-х событий n:

Р(А)=|A| / |Ω|=M/n

З Символ |М| обозначает число эл-в любого конечного мн-ва М (мощность мн-ва) З! Классич. опред-е вер-ти примен-ся тогда, когда:

1) простр-во эл-х событий Ω конечно, т.е. |Ω|=n (конечное число)

2)все эл-ые события ωi- равновер-тны (равновозможны), т.е Р(ωi)=1/n для ¥ i=1,2…n

Св-ва вер-ти:

1)Р(ω)=1 2)Р(Ø)=0 3) 0≤Р(А) ≤1 , для ¥ А 4)Р()=1-Р(А) 5) АсB =>Р(А) ≤ Р(В) 6) А и В несовместны, то Р(А+В)= Р(А)+ Р(В)

Лекция №2 Вероятность событий

1. Элементы комбинаторики.

Комбинаторика изучает количество различных комбинаций, которые можно составить из элементов произвольного конечного множ-ва.

Перестановками-называются комбинации составленные из одних и тех же n различных элеметнов, которые отличаются между собой только порядком расположения элементов. Общее число перестановок равно Pn!=n!=1*2*3*4…n

Пример: х={1,2,3} 123 132 213 231 312 321

Опр2. сочетанием-называется комбинации составленные из n различных элементов по m элементов которые отличаются между собой хотя бы 1 элементом. C n m = n!/m!(n-m)!

Замечание: в сочетание порядок расположение элементов не важен.

Опр3. размещениями наз-ся комбинации составленные из n различных элементов по m, которые отличаются составом элементов, либо их порядком. Общее число размещений  A n m =n!/(n -m)!=n(n-1)…(n-m+1)- m сомножителей

Опр4. (геометрическое определение вероятности) если g часть области G, то при бросании на удачу точки в область G вероятность ее попадания в часть g=P=mes g/mes G, где символ mes означает мера (в одномерном варианте длина, двумерном-площадь, в трехмерном - объем)

Замечание. При геометрическом определении вероятности полагают:

1. пространство элементарных событий (Ω=G)

2. интересующее событие A=g

опр.5 (условная вероятность) вероятность события А, найденное при условии, что событие B уже произошло, называется условной вероятностью события А, и обозначается символом P(A/B)

опр6. (независимость событий) 2 события А и В называются независимыми если вероятности появления каждого из них не зависит от того произошло ли другое событие или нет, т.е. если:  P(A/B)=P(A), P(B/A)=P(B). При этом вероятности P(A) и P(B) называют безусловными вероятностями в противном случае события называют независимыми.

Замечание. зависимость и независимость событий всегда взаимно т.е. если А зависит от В то и В зависит от А, и наоборот. Кроме того, если события А и В независимы то независимы каждые 2 события А и В,  А и В, А и В

Замечание. На практике о независимости событий заключают по смыслу задачи.

Теорема сложения вероятностей. Вероятность суммы двух событий А и В = сумме вероятностей этих событий минус вероятность их произведения. P(A+B)=P(A)+P(B)-P(AB).

Следствие: если события А и В не совместны то P(A+B)=P(A)+P(B)

Теорема умножения вероятностей. Вероятность произведения двух событий А и В равна произведению вероятности одного из них на условную вероятность другого, вычисленную при условии что первое событие уже наступило P(AB)=P(A)*P(B/A)=P(B)*P(A/B)

Следствие. Если события А и В независимы то Р(АВ)=Р(А)*Р(В)

    

Лекция 3Формула полной вероятности, формула Байеса.

Опр1. (полная группа событий) говорят что совокупность событий А1, А2…Аn образуют полную группу событий, если эти события попарно несовместны и в результате испытания обязательно наступает хотя бы одно из них, т.е. если:

1. Ai*Aj=Ø(невозможные события), при I неравно j. 2. A1+A2+…+An=Ω

Замечание!: для одного и того же испытания может быть несколько полных групп событий.

Торема1. сумма вероятностей событий А1, А2 …Аn образующих полную группу ,равна 1. P(A)+P(B)+…+P(An)=1

Док-во: поскольку события А1,А2,…,Аn образуют полную группу, то А1+А2+…+Аn= Ω. Отсюда Р(А1+А2+…+Аn)=Р(Ω)=1(*). Любые два события полной группы несовместны, поэтому Р(А1+А2+…+Аn)=Р(А1)+Р(А2)+…+Р(Аn)(**). Из формул (*) и (**) окончательно получаем P(A)+P(B)+…+P(An)=1

Теорема (формула полной вероятности) если событие А может наступить только при условии появления одного из событий В1, В2…Вn, которое образуют полную группу событий, то вероятность события А равна сумме произведений вероятностей каждого из этих событий на соответствующую условную вероятность события А: P(A)=Σ P(Bi)*P(A/Bi)

Док-во. Поскольку события В1, В2…Вn образуют полную группу , то В1+ В2+…+Вn=Ω поэтому А=А*Ω=А(В1+ В2+…Вn)=АВ1 +АВ2 + +..АВnABi. Т.к. события В1, В2… Вn попарно несовместны то и события АВ1, АВ2…АВn так же попарно несовместны Р(А)=Р(Σ АВi)=Σ P(ABi)=Σ P(Bi)*P(A/Bi)

Замечание. ФПВ применяется во всех случаях когда испытание со случайным исходом распадается на 2 этапа, на первом этапе как бы «разыгрывается» условие испытание, а на втором  этапе его результат, событие В1, В2… Вn при этом обычно называются гипотезами, поскольку за ранее неизвестно какое из этих событий наступит.

Формула Байеса. P(Bi/A)=P(Bi)P(A/Bi))/(Σ P(Bi)P(A/Bi))

Доказательство. По теореме умножения вероятностей имеем P(A/Bi)=P(A)* P(Bi/A)=P(Bi)* P(A/Bi) отсюда P(Bi/A)=(P(Bi)*P(A/Bi))/P(A)(*). С другой стороны по формуле полной вероятности P(A)=Σ P(Bi)*P(A/Bi)(**). Из формулы (*)и(**) получаем формулу Байеса

Замечание. Формула Байеса позволяет пересчитывать вероятности гипотез в свете новой инфо-ии, состоящей в том, что в результате опыта произошло событие А.

Аксиомотическое построение теории вероятности(проеодолевает недостатки, присущие известным опред вероятности.-автор Толмогоров)

1.Каждому событию А соотв неотриц числоP(А), назыв его вероятностью.

2.Вероятность достоверного соб-ия =1P(гамма)=1

3. Если А1,А2,А3,Аn попарно несовм, то P(A1+A2+A3+An)=P(A1)+P(PA2)+P(An)

Лекция 4. Схема Бернулли

Опр1.Испытание называется независимым если вер-ть какого либо исхода каждого из них не зависит от того какие исходы имели другие испытания.

Опр2. Повторные независимые испытания называются испытаниям Бернулли или схемой Бернулли, если:   1) каждое испытание имеет только 2 возможных исхода; 2) вероятности этих исходов постоянны для всех испытаний, т.о. в схеме Бернулли для каждого испытания имеется только 2 исхода:  событие А(успех) и  событие не А (неудача) с постоянными вероятностями Р(А)=Р и Р(неА)=q при этом Р+q=1.

Замечание. для n испытаний Бернулли элем. события удобно обозначать комбинациями в виде цепочек длиной n состоящих из букв У(успех) и Н (неудача), либо из букв А(успех) и неА(неудача), т.е. ω=УУН…ННУn ; =ААнеА…неАнеААn

Замечание. Испытания Бернулли возникают и при более сложных экспериментах, если мы не будем различать несколько возможных исходов, а опишем результат каждого испытания только в виде двух исходов А(успех), неА(неудача).

Теорема (Формула Бернулли)

Вероятность того что при n испытаний Бернулли успех наступит ровно m-раз равна Pn(m)=C n m *P^m*q^n-m, m-0,1,2,…,n, где Р -вероятность появления успеха в каждом испытании q=1-P-вероятность неудачи.

Док-во. Обозначим интересующее событие Вn(m)={в n испытаниях Бернулли событие А(успех) наступит ровно m раз}. Представим событие Вn(m) через элементарные события например: при n=3 и m=2 будем иметь В3(2)= ААнеА+АнеАА+неААА. В общем виде событие Вn(m) представляет собой сумму элементарных событий в виде цепочек длиной n, каждая из которых состоит ровно из m событий  А и (n-m) событий неА, т.е. Bn(m)=А,А,…,А* неА,неА,…,неА+АА…А*неААнеА…неА+…+неАнеА…неААА…А  (*). В силу независимости испытаний вероятность каждой цепочки в формуле (*) равна Р(ААнеА….неАА)=Р(А)Р(А)Р(неА)…Р(неА)Р(А)=Р^m(A)*Р^n-m(неА)=Р^n*q^n-m

А-m раз                           Р(А)- m раз

неА(n-m)-раз                  Р(неА)-(n-m) раз

Общее число цепочек в формуле(*)равно числу способов выбора из n испытаний m испытаний, в которых событие А произошло, т.е. равно числу сочетаний С n m. В связи с тем, что цепочки между собой несовместны получаем: Рn(m)=P(Bn(m))=P^m*q^n-m+P^m*q^n-m+…+P^m*q^n-mn m *P^m*q^n-m.

Опр3. число m0 называется наивероятнейшим числом наступлений события А в n испытаниях Бернулли, если  Рn(m0)>=Pn(m),   m=0,1,2,….,n

Замечание: наивероятнейшее число m0=целой части числа (n+1)*P и может быть определено из двойного неравенства: np-q<=m0<=np+q, если р≠0, р≠1. Если число (n+1)*p-целое, то наивероятнейшим так же будет являться и число m0-1, с той же вероятностью Pn(m0).

Лекция 5Приближенные ассимитрич формулы для схемы Бернули

Теорема 1 (Формула Пуассона)

Вероятность того что в n(n∞) в испытаниях Бернулли успех наступит ровно m раз приближенно равное Pn(m)≈λ^m/m!*e^-λ  где λ=n*p, Р(Р0) вер-ть появление успеха в каждом испытании.

Док-во: По ф.Бернулли имеем Pn(m)=Cnmpmqn-m =(n!/(m!*(n-m)!))*(λ/n)^m*(1-λ/n)n-m=(n*(n-1)*…*(n-m+1))/m! *λm/nm * (1- λ/n)n-m = (n (n-1)*…*(n-m+1))/ nm *λm/ m!* (1- λ/n)n-m = 1*(1-1/n)*…*(1- (m-1)/n)* λm/ m!* (1- λ/n) m *(1- λ/n)m (*). Найдем пределы каждого сомножителя в формуле * при n→∞ :1)lim n→∞ 1= lim n→∞ (1-1/n)=…= lim n→∞ (1- (m-1)/n)=1 2) lim n→∞ λm/ m!= λm/ m! 3) lim n→∞ (1- λ/n) m =(1)=e –λ 4) lim n→∞ (1- λ/n)m =1.

Из данных пределов и формулы * получаем lim n→∞ Pn(m)= λm/ m!*e –λ . => Pn(m)≈ λm/ m!*e –λ при достаточно великой n.

Замечание. Приближенную формулу Пуассона применяют практически в случаях когда n велико, а р мало. Обычно р<0,1, а λ=n*p не превосходит 10(<=10). Существуют таблицы значений функции λ^m/m!*e^-λ

Теорема 2(Локальная формула Муавра-Лапласа). Вероятность того, что n(n∞) испытание Бернулли успех наступит ровно m-раз приближенно равна: Pn(m)≈ 1/√npq * φ(xn,m), где р-вероятность появление успеха в каждом испытании; q=1-p – вероятность неудачи; Xn,m=m-np/√npq; φ(x)=1/√2П*e^-(x^2)/2.

Замечание. Вычесление по локальной формуле Муавра-Лапласса дает несущественную погрешность при выполнении условия npq>= 20. Существует спец. таблицы значений функций φ(х) для положительных значений х, для отицательных значений пользуются теми же таблицами, так как функция φ(х) четная.

Теорема 3(интегральная формула Муавро-Лапласса) вероятность того что в n(n∞) испытаниях Бернулли, число успехов μ находиться между m1 и m2 , приближенно равно P{m1<=μ<=m2}≈Ф(х2)-Ф(х1), где Ф(х)=1/√2π  -∞+∞е^-((t^2)/2)*dt (интеграл вероятностей ), х2=(m2-np)/√npq; x2=(m1-np)/ /√npq, где Р-вероятность появления успеха в каждом испытании, q=1-p.

Замечание: существуют специальные таблицы значений функции Лапласса, при этом Ф(х)+Ф(-х)=1

       

  Лекция №6 Случайные величины

Опр1: (неформальное определение случайной величины)Случайной величиной (СВ) называется переменная величина, которая в результате испытания случайно принимает одно значение из множества возможных значений.

Опр2: (формальное определение СВ) СВ называется ф-ция, определенная на пространстве элементарных событий.

Опр3: СВ, которая может принимать только конечное или счетное множество значений называется дискретной (ДСВ).

Опр4: СВ, которая может принимать все значения из некоторого числового промежутка называется непрерывной(НСВ).

Опр5: Законом распределения CВ называется соотношение, устанавливающее тем или иным способом связь между возможными значениями CВ и их вероятностями.

Замечание: Закон распределения ДСВ обычно задается рядом распределения.

Опр6: Рядом распределения  ДСВ называется таблица, в верхней строке которой перечислены все возможные значения CВ, а в нижней – соответствующие им вероятности.

Σ(i=1 – n )pi =1

Замечание: для наглядности распределения ДСВ можно изобразить графически. Для этого в прямоугольной системе координат строят точки (xi;pi), а затем соединяют их отрезками прямых, полученную фигуру называют многоугольником распределения.

Опр7: Функцией распределения СВ Х называется вероятность того, что она примет значение меньшее, чем заданно х: F(x)=P{X<x}.

Замечание: геометрически функция распределения интерпретируется как вероятность события {наблюдаемое значение случайной величины Х находится левее заданной точки х}.

Свойства ФР.

1) 0<=F(x)<=1; 2)F(x)-неубывающая функция своего аргумента, т.е. если х1<x2, то F(x1)<F(x2); 3) F(-∞)=0; 4) F(+∞ =1; 5)P{a<=x<=b} =F(b)-F(a).

Функция распределения ДСВ.

Если Х –ДСВ, принимающая значение х1, х2, х3, и т. д. с вероятностями р1, р2, р3, и т. д., то её ФР задается равенством: F(x)=Σ(xi<x)pi, где суммируются вероятности тех значений xi, которые меньше х.

Замечание: ФР любой ДСВ есть разрывная ступенчатая функция (непрерывная слева), скачки которой происходят в точках х1, х2, х3 и т.д. и равны вероятности р1, р2 ,р3 и т.д.

Опр8: Плотность распределения или плотность вероятности НСВ Х в точке х называется производная её функции распределения в этой точке. Обозначают f(x): f(x)=F’(x)

Замечание: плотность вероятности как закон распределения имеет смысл только для НСВ.

Опр9: График плотности вероятности f(x) называется кривой распределения.

Свойства плотности вероятности.

1)f(x)>=0; 2) -∞+∞f(x)dx=1; )P{a<=x<=b}= abf(x)dx; 4)F(x)=-∞xf(t)dt(позволят находить функцию распределения по заданной плотности вероятности).

Лекция 7. Числовые хар-ки С.В.

Опр. 1 Математическое ожидание (М.О.) ДСВ Х  наз-ся сумма произведений всех ее возможных значений на соответствующие им вероятности. Обозначают: М(Х) или Е(Х).  .

Зам-е.  Если ДСВ х принимает четное множество значений (n=∞),то .При этом предполагается, что сущ-ет предел .

Опр2. Математическое ожидание НСВ с плотностью вероятности f(x) наз-ся выр-е M(x)= -∞+∞ xf(x)dx (при этом предлагается, что интеграл -∞+∞xf(x)dx сходится).

Зам-е! при большом количестве испытаний среднее арифметическое наблюдаемых значений CD Х близко к ее МО. Поэтому МО СВ иногда наз-ют средним значением или центром распределения вероятностей СВ.

Опред.3. СВ Х и У наз-ся независимым если закон распределения каждой из них не зависит от того какие возможные значения приняла другая величина, в противном случае СВ Х и У наз-ся зависимыми.

Св-ва МО.

1. М(С)=С, где С- константа

2. М(СХ)=СМ(Х), где С – константа

3. М(Х+-У) =М(Х)+-М(У)

4. М(ХУ)=М(Х)М(У), если Х,У – независимые

Опр. Дисперсия СВ наз-ся МО квадрата отклонения СВ от ее МО. Обозначают D(Х).  D(X)= М[(Х-М(Х))^2]

Зам-е. Дисперсия хар-ет степень рассеяния (разброса) значений СВ относительно ее МО (среднего значения).

Непосредственное выч-е значения дисперсии осуществляется по ф-лам:

 D(x)= - для ДСВ

 D(x)= -∞+∞ [x - М(Х)]^2*f(x)dx- для НСВ

Св-ва Дисперсии

D(x)=M(x)2M2 (x)

D(c)=0 – где с- константа

D(cx)=c2D(x), c-const

D(x+-y)=D(x)+D(y) – если Х и У независимы.

Опр-е: Ср. квадратичным отклонением (СКО) СВ наз-ся кв. корень от ее дисперсии σ(Х)= √D(x)

Зам-е. размерность величин М(Х) и σ(Х) совпадает с размерностью самой СВ Х, а размерность D(X) равна квадрату размерности СВ Х.

Опр. Модой ДСВ Х наз-ся ее наиболее вероятное значение, а модой НСВ Х наз-ся такое ее зн-е, при котором плотность вероятности достигает максимума, обозн. Мо(Х).

Зам-ние. Если плотность вероятности достигает максимума не в одной, а в нескольких точках, то распределение называется полимодальным.

Опр. Медианой Ме(Х) НСВ Х наз-ся такое ее зн-е, при к-м P{x>Me(X)}=P{x<Me(X)}=0.5.

Зам. Геометричесик медиана НСВ Х - это такая точка Ме(Х) на оси Ох, для которой вертикальная прямая х=Ме(Х) делит площадь фигуры от кривой распр-я на 2 равные части

Опр 8 Квантилем уровня р(или p- квантелем) СВ наз-ся такое значение хp, при котором вып-ся равенство F(xp)=p.

Зам-ние. Медиана CD есть квантель уровня 0.5, т.е. Ме(Х)=х0.5.

Опр. Начальным методом к-го порядка СВ наз-ся число К=М(ХК). Центральным моментом к-го порядка СВ Х наз-ся число μК= М[x-M(x)]К.

Лекция 8.Основные законы распределения ДСВ

Опр1. Говорят, что ДСВ Х распределена по биноминальному закону, если она принимает значения  0,1,2,…,n с вероятностями, где 0<p<1, q=1-p, m=0,1,…,n.

Замеч: Вероятности P{Х=m}находится по формуле Бернулли. Следовательно ДСВ, распределенная по биномиальному закону -это число наступления события А(число «успехов») в n испытаниях Бернулли.

 Теорема 1:МО и дисперсия  СВ  Х, распределенной по биномиальному закону, соответственно равны: M(X)=np,  D(X)=npq.

Док-во:СВХ-число наступлений соб А (успех) в n исп Бернулли. => ее можно предст в виде X=∑nk=1Xk, Xk (k=1,2…n)-случайная величина, кот. выраж число наступлений соб А в k-том испытании, т е Xk=1,если соб А наступило в k-том испытании, Xk=0,если соб А не наступило в k-том испытании. Т к исп Бернулли явл независ и вер-ть появления соб А в каждом испытании постоянна,то => СВ Хk независ м/у собой и каждое из них имеет 1 и тот же закон распред-я Xk(k=1,2…n)

xi

0

1

pi

q

p

             

Найдем числовые хар-ки СВ Xk (к=1,2…n). M(Xk)=def2i=1xipi=0*q+1*p=p D(Xk)=def2i=1[xi-M(Xk)]2pi=[0-p]2q+[1-p]2p=p2q+q2p=pq(p+q)=pq. Тогда M(X)=M(∑nk=1Xk)=∑nk=1M(Xk)= ∑nk=1p=np.

D(X)=D(∑nk=1Xk)=│X1,X2…Xn-независ│= ∑nk=1D(Xk)= ∑nk=1pq=npq.

Зам: Биноминальный закон распределения широко используется при проведения выборочного контроля качества продукции, при описании систем массового обслуживания, и других областей.

Опр : говорят, что ДСВ Х имеет закон распределения Пуассона ,если она принимает значения  0,1,2,…(счетное множество) с вероятностями, где  m=0,1,2,…; -параметр закона Пуассона.

Теорема 2:МО и дисперсия СВ Х, распределенной по закону Пуассона , равны параметру λ этого закона ,т.е. М(Х)=λ,D(X)=λ

Теорема3:Сумма двух независимых СВ, распределенных по закону Пуассона с параметрами λ1 и λ2,есть СВ ,так же распределенная по закону Пуассона  с параметром λ=λ1+λ2.

Док-во:Пусть независ СВ X,Y распред по закону Пуассона сооттв с парам λ1 и λ2. Докажем,что СВ Z=X+Y также распред по закону Пуассона с парам λ=λ12. Очевидно,что возможн зн-я СВ Z следующ:0,1,2…Найдем соотв им вер-ти P{Z=n}= P{X+Y=n}=P(∑nm=0{X=m,Y=n-m})=∑nm=0P{X=m,Y=n-m} =∑nm=0P({X=m}*{Y=n-m})(X,Y-независ по усл теоремы)= ∑nm=0 P{X=m}*P{Y=n-m}=∑nm=0 λ1me-λ1/m!* λ2n-me-λ2/(n-m)!=e -(λ1+ λ2)* ∑nm=0 λ1m2 n-m*n!/m!(n-m)!*n!= e -(λ1+ λ2)/n!* ∑nm=0 Cmnλ1mλ2n-m (бином (λ1+ λ2)n)= e -(λ1+ λ2)/n!*(λ1+ λ2)n=eλn/n!

Лекция 9

Опр1 Говорят, ДСВ Х имеет геометр распределение если она принимает значения 1,2 .. (множество натуральных чисел) с вероятностями, где , q=1-p   m=1,2, …

З !ДСВ х имеющая геометр распределение представляет собой число испытаний Бернулли которые нужно провести до 1 ого появления события А (успех).

З! Ряд распределения ДСВ Ч имеющий геометр распределение имеет вид :

При этом

Вероятности pm=  образуют геометрическую прогрессию с первым членом р и q. Отсюда и вытекает название Геометрическое распределение .

Т1. Мат ожидание и дисперсия СВХ имеющий геометрическое распределение соответственно равны: М(х)=1/р    D(x)=

Док: Поскольку множество возможных значений СВ Х бесконечно( счётно), то её мат ожидание есть сумма ряда

M(x)  ===

т.к. члены ряда  являются производными по переменной q соответствующих членов ряда  и при этом:  

то    =

Следовательно М(х)=р*=

 Для вычисления дисперсии найдем сначала средний квадрат

 

=== = =

= p*(q(-= p*(q(-  p*(q(- p*(q(- p*( -  p*( -

Следовательно: D(x)= M- M2(x) =   ч.т.д.

Параграф 2 Гипергеометрическое распределение

Говорят, что ДСВ Х имеет гипергеометрическое распределение если она принимает значения 0,1,2 .. , min(n,M) c вероятностями

P{X=m}=, где m=0,1,…min(n,M)

, где n,M,N натуральные числа

Теорема 2 математическое ожидание и дисперсия СВ Химеющей гипергеометрическое распределение соответственно равны

M(x)=                                  

Зам. Гипергеометрическое распределение широко используется в практике статистического контроля качества промышленной продукции

Лекция 10. Основные законы распределения НСВ.

Опр1. Говорят, что НСВ Х имеет равномерный закон распределения на отр. [ a; b], если ее плотность вер-ти имеет вид  f(x)= {1/(b-a), a<=x<=b}{ 0, x<a или x> b}

Теорема 1. Фнкция распределения НСВ Х, распределенная по равномерному закону имеет вид F(x)={0, x<=a}{x-a/b-a, a<x<=b}{1, x>b}.

Док-во. Функция распределения  F(x) = [cв-во 4 пл-ти вер-ти]=-∞x f(t)dt. 1. x<=a ,=> F(x) = -∞xf(t) dt=-∞x0dt=0. 2.a<x<=b, => F(x) = -∞xf(t) dt=[-∞х=-∞a+ ax]= axf(t)dt= ax (1/b-a)dt=(1/b-a)axdt=(1/b-a)tab=x-a/b-a. 3. x>b, => F(x) = -∞xf(t) dt=[-∞x= -∞a+ ab+ bx]= abf(t)dt= ab (1/b-a)dt =1/b-a abdt =(1/b-a)ta b=b-a/b-a=1.

Теорема 2. МО и дисперсия CВ Х, распределенной по равномерному закону соответственно равны М(Х)= (а+b)/2; D(X)=(b-a)2/12.

Док-во:M(X)=def-∞xf(x)dx=!-∞=-∞a(=0)+ab+b(=0)!= abxdx/b-a=1/b-a abxdx=1/b-a(x2/2)!ba=b2-a2/2(a-b)=a+b/2

D(X)=def-∞(x-M(x))^2f(x)dx=!-∞=-∞a(=0)+ab+b(=0)!=ab ((x-(b+a)/2)^2)dx/b-a=1/b-aab((x-(b+a)/2)^2)dx= (b-a)^2/12

Замечание! Равномерное распределение не имеет моды, а медиана совпадает с МО, т.е. Ме(Х) =(a+b)/2

(ошибки измерения физ велечин при окр рез набл до ближайшего деления)

Опред №2 Говорят, что НСВ Х имеет показательный (экспоненциальный) закон расп-ния с параметром λ, если ее плотность вер-ти имеет вид f(x)={ λ*e^-λx, x>=0} { 0, x<0}.

Теорема 3. Функция расп-ния CВ Х, распределенной по показ. закону, имеет вид F(X)={ 1-e^-λx, x>=0} { 0, x<0 }.

Док-во: -∞xf(t)dt Пусть x<0 =>-∞xf(t)dt=-∞x0dt=0. Пусть x≥0 =>-∞xf(t)dt=!-∞x=-∞0(=0)+0x!= 0xf(t)dt=0x λexdt=λ0x exdt=λ(ex/-λ)!x0=-(et)!x0=-(ex-1)=(-e)x-1

Теорема 4. МО и дисперсия CВ Х,распределенной по показ. закону, соответственно равны М(Х)=1/λ; D(X)= 1/ λ2.

Док-во:Проверим для МО. M(X)=def-∞xf(x)dx=!-∞=-∞0(=0)+0!=0 exdx=def lim b→∞ 0bλxe-λxdx. 0bλxe-λxdx=!интегр по частям!=!u=λx,dv=e-λxdx, v=∫e-λxdx=e-λx/-λ, dudx!=[λx*e-λx/-λ]!b0-0bex λdx /-λ=-[x ex]!b0+0bexdx=-[beb-0]+(ex/-λ)!b0= -beb-1/λ (eb-1)= -beb-eb/λ+1/2 =>M(X)=lim b→∞[-beb-eb/λ+1/2]=1/λ

Опр3 (норм закон распределения). Говорят, что НСВ Х имеет нормальный закон расп-ния (закон Гаусса) с параметрами δ и μ, если ее плотность вероятности имеет вид f(x) = (1/√2π* δ)* e^-(x-μ)^2/2δ^2, (δ>0)/

Замечание. Функция распр-ния  CВ Х, распред-ная по норм. закону имеет вид F(X)=(1/√2π* δ)--∞xe^-(t-μ)^2/2δ^2dt.

Теорема 5. МО, дисперсия и СКО СВ Х, распр-ной по норм. закону соответственно равны М(Х)=μ,  D(X)= δ2, δ(X)= δ

Замечаение! Утверждение «CВ Х имеет норм. распределение с параметрами μ и δ» кратко записывается Х€ N (μ, δ)

Опр4. Норм.закон распределения CВ Х с парметрами μ=0, δ=1,т.е. N(0;1) назыв. стандартным или нормированным.

Замечание! Плотность вер-ти и ФР СВ Х, распределенной по нормированному закону, имеют вид f0(x)=(1/√2π )e^-x^2/2 ; F(X) =-∞x (1/√2π) е^-t^2/2dt. Эти функции табулированы (сущ-ют таблицы их значений).

Свойства CВ Х распред-ной по нормированному закону (XN(μ;δ))

1.Вер-ть попадание CВ Х в отрез. [ a;b] P{a<=x<=b}=F0(b-μ/δ)- F0(а-μ/δ)

2. вер-ть того, что CВ Х отличается от своего МО по абс. вел-не не больше, чем на ε  P{X-μ<=ε}=2F0(ε/δ)-1.

Лекция 11.О1. Упорядоченный набор (x1, x2, .. , xn) СВ Х1, Х2, …, Хn называется системой n случайных величин или многомерной ( nмерной) случайной величиной.

О2. Одномерные СВ Х1, Х2, … ,Хn называются компонентами или составляющими n- мерной СВ (Х1, Х2, … , Хn)

Зам! Свойство систем Св  многомерной Св не исчерпывается свойствами её компонентов, а включает также и взаимные связи (зависимости между этими компонентами ). В дальнейшем будем рассматривать только 2 мерную СВ.

Типы 2 мерных Случайных Величин (X,Y)

Дискретная – если возможные значения (X,Y) образуют конечное или счётное множество.

Непрерывная – если возможные значения (X,Y) сплошь заполняют некоторую область на плоскости.

Смешанная   - если возможные компоненты X и Y являются одномерными СВ разных типов.

З! Тип 2 мерной СВ (X,Y) фактически определяется типом её компонентов X иY

т.е. если оба компонента x  и y ДСВ, то и 2 мерная СВ (X,Y) также будет дискретной.

О3 Матрицей распределения называется матрица вида :

          

Y1

Y2

Yn

X1

P11

P12

P1m

X2

P21

P22

P2m

Xn

Pn1

Pn2

Pnm

Свойства Вероятности

=

=

Зам! Свойства 2 и 3 означают, что если задана матрица распределения 2мерной ДСВ (X,Y), то можно найти ряды распределения одномерных СВ Х и Y

Опр4 Функция распределения 2мерной СВ (X,Y) называется вероятность совместного выполнения 2х неравенств :

   т.е.  F(x,y)=P     

Зам! Событие     означает произведение событий  

Функция распределения двумерной ДСВ (X,Y)   

Если СВ (x,y)  является дискретной, то её функция распределения находится по формуле

; где суммируются все вероятности  для которых ,   

Свойства функции распределения 2 мерной СВХ

– не убывающая функция по каждому аргументу т.е.

, if

Fx(x)

Fy(y) где Fx(x) и Fy(y)функции распределения СВ Х и Y соответственно.

Лекция 12

Опр 1 . Плотностью  вероятности 2мерной НСВ (X,Y) называется вторая смешанная частная производная её  функции распределения:

Опр 2. График плотности вероятности 2 мерной НСВ называется поверхностью распределения.

 Свойства плотности вероятности двумерной НСВ

f(x,y)больше или равно 0

Вероятность попадания случайной точки () в область D  равна 2му интегралу от плотности вероятности по этой области т.е.

 

Функция распределения двумерной НСВ может быть выражена через её плотность вероятности по формуле :

 

Условия нормировки: 2ой несобственный интеграл в бесконечных пределах от плотности вероятности двумерной НСВ равен единице т.е.

=1  

Геометрически данное свойство означает, что объем тела, ограниченного сверху поверхностью распределения, а снизу плотностью x  по y равна 1

)=)=где   и ) плотность вероятности СВ(X,Y) соответственно.

Равномерное распределение 2мерной НСВ

Опр3. Говорят, что двумерное НСВ (X,Y) имеет равномерное распределение в области D, если её плотность вероятности имеет вид:

f(x,y)=

где SD – площадь P

замечание: Основные свойства равномерного распределения состоит в том,что для него применимо понятие “Изометрической вероятности” т.е. если область g содержится в области D, то нетрудно показать, что

  где площадь g

Теорема (о независимости 2 СВ)

СВ независимыфункция распределения двумерной СВ (X,Y) равна произведению функций распределения составляющих т.е.

  )= F(x,y)  ,   ) функции распределения СВ x и  y соответственно.

Доказательство:

Необходимо:

Пусть СВ x и y независимы , тогда

 )

Достаточно: Пусть     )  

Тогда из определений функций распределения следует равенство: , которое и означает, что СВ X и Y независимы  ч.т.д.

Следствие :Необходимым и достаточным условием независимости 2ух непрерывных СВ X и Y образующих систему (x,y) является равенство :   )= F(x,y)  

Лекция 13

Опр.1. Условным законом распределения СВ Х входящей в систему (X,Y) называется её закон распределения вычисленный при условии, что другая СВ Y приняла определенное значение.

Замечание. Аналогично определяется условный закон распределения СВ Y входящей в систему (X,Y).

Обозначим через условную вероятность, того что СВ Х примет значение  при условии, что СВ Y приняла значение

Замечание! Условные вероятности  определяются равенством:

Опр.2. Условным законом распределения составляющий x при называют совокупность условных вероятностей  Вычисленных предположений, что событие уже наступило.

Замечание. Аналогично находят условный закон распределения составляющий Y

Замечание. Сумма вероятностей условного распределения равна 1. Док-во:  

Аналогично доказывается, что при фиксированным  . Это свойство распределений используют для контроля вычислений.

Опр.3.Условной плотностью вероятности  составляющей X при заданном значении Y=y называется отношение плотности вероятности двумерной непрерывной СВ (X,Y) к плотности вероятности составляющей Y т.е.  Аналогично определяется условная плотность вероятности составляющей Y при заданном значении X=x   Формулы для вычисления условных плотностей вероятностей. Если известна плотность вероятности f(x,y) двумерной непрерывной СВ (X,Y), то условные плотности вероятности составляющих X и Y могут быть найдены по формулам     Замечание! Условные плотности вероятности обладают всеми свойствами безусловной плотности вероятности.

Лекция 14

Опр.1. МО двумерной ДСВ (X,Y) называется совокупность двух МО M(X) и M(Y) определяемых равенствами , где .

Опр.2. МО двумерной НСВ с плотностью вероятности f(x,y) называется совокупность двух МО M(x) и M(y) определяемые равенствами  . Опр.3. Дисперсией двумерной ДСВ (x,y) называется совокупность двух дисперсий D(x) и D(y) определяемых равенствами  .

Опр.4.  Дисперсией двумерной НСВ (X,Y) с плотностью вероятности f(x,y) называется совокупность двух дисперсий D(x) и D(y) определяемых равенствами  З! МО M(x),M(y) и дисперсии D(x),D(y) СВ X и Y  входящих в систему (X,Y) могут быть найдены по обычным формулам используемых для одномерных СВ. Для этого необходимо предварительно перейти от закона распределения двумерной СВ (X,Y) соответственно к одномерным законам распределения СВ X и Y

Опр.5.Ковариацией СВ X и Y называется МО произведения отклонений этих величин. Обозначается cov (X,Y) или . Замечание. Ковариация характеризует взаимную зависимость СВ X и Y - Для ДСВ -НСВ

Замечание! Ковариацию часто удобно вычислять по формуле, которая получается  из определения ковариации на основании свойств МО . Если СВ независимы то k=0. Опр.6. Коэф. корреляции

СВ X и Y называется выражение . Замечание! Для любых СВ X и Y выполняется соотношение  , при этом если r=0, то СВ X и Y называются некореллированы, в противном случае – кореллированы.




1. Определение удельного заряда электрона
2. Программа для проверки работы операторов
3.  Виды возможности локальных вычислительных сетей На предприятиях наибольшее распространение получил
4. Вариант 2 1. Парная линейная регрессия Задача Данные о себестоимости Y руб
5. Был ли у Вас кризис и сколько раз
6. Ознакомление с торговым предприятием и отделом секцией 4 2
7. I Материальная транспортная энергетическая миграция населения эпидемии и др
8. Парацельс Россия 620085 Свердловская обл
9. Основные проблемы, изучаемые макроэкономикой
10. Предметом ТВ является модели экспериментов со случайными исходными причем рассматриваются только такие
11. воспитательные задачи курса трудового обучения решаются на основе тесной связи урочной системы обучен.
12. ОТЧЕТ ПО УЧЕБНОЙ ПРАКТИКЕ Выполнил- Головина А
13. ГРАД Копытов В
14. Введение в экономическую теорию Экономическая теория ~ совокупность знаний об экономических явлениях и пр
15. ГОРМОН РОСТА 1 глава 2 глава 3 глава 4 глава 5 глава 6 глава 7 глава 8 глава 9 глава 10 глава 11 глава 12 г
16. Реферат- Эндокринная система
17. ВОЛГОГРАДСКИЙ ЮРИДИЧЕСКИЙ ИНСТИТУТ кафедра Гражданскоправовых дисциплин учебная дисциплина ~ Гр
18. Быстрый прогресс наблюдался во всех сферах жизни общества
19. ЛЕКЦИЯ 4 СРЕДСТВА ВЛИЯЮЩИЕ НА ИММУННУЮ СИСТЕМУ
20. ЛАБОРАТОРНАЯ РАБОТА ’ 6 АНАЛИЗ ИНФОРМАЦИОННЫХ РЕСУРСОВ ИНТЕРНЕТ Задание 1