Поможем написать учебную работу
Если у вас возникли сложности с курсовой, контрольной, дипломной, рефератом, отчетом по практике, научно-исследовательской и любой другой работой - мы готовы помочь.
Если у вас возникли сложности с курсовой, контрольной, дипломной, рефератом, отчетом по практике, научно-исследовательской и любой другой работой - мы готовы помочь.
Теория вероятности
Лекция№1 Случайные события
Опр1: опыт, эксперимент, наблюдение явления будем называть испытанием.
Опр2: произвольное множества Ω (омега) называем пространством элементарных событий, а элементы ω (омега) этого множества будем называть элементарными событиями (элементарными исходами).
Замечание: элементарным событием соответствует взаимоисключающие исходы опыта (испытания).
Опр3: произвольное подмножество пространство элементарных событий называется случайным событием или просто событием. Обозначают: А, В, С…
Опр4: говорят, что в результате испытания осуществилось (наступило) событие А, если произошло элементарное событие ω Є А.
Операции над событиями
Опр5: суммой событий А и В называется событие С, состоящее из всех элементарных событий, которые входят или в событие А или в событие В или в то и другое. Обозначают: С = А + В или С = A U В.
Замечание: событие А + В состоит в том, что произошло по крайней мере одно из двух событий А или В.
Опр6: произведением событий А и В называется событие С, состоящее из всех элементов, которые одновременно входят в обои события А и В. Обозначают: С = АВ или С = А ∩ В.
Замечание: событие АВ происходит тогда и только тогда, когда происходят одновременно и событие А, и событие В.
Опр7: разностью событий А и В называется событие С, состоящее из всех элементарных событий, которые входят в А, но не входят в В. Обозначают: С = А В или С = А\В.
Замечание: событие А-В состоит в том, что событие А произошло, а событие В не произошло.
Виды случайных событий
Опр8: пространство элементарных событий называется достоверным, а пустое множество называется невозможным событием.
Замечание!: достоверное событие в результате испытаний неизбежно происходит, а невозможное заведомо не может произойти.
Опр9: события А и В называются несовместными, если их произведение есть невозможное событие, т. е. АВ = Ø, в противном случае события называются совместными.
Замечание: несовместные события не могут наступить одновременно, а совместные могут.
Опр10: событие Ā = Ω А называется противоположным событию А.
Замечание: событие Ā (не А) означает, что событие А не произошло.
Говорят, что соб А входит в соб В, или соб А влечет за собой соб В и пишут: А, если все эл-ые события мн-ва А входят в В
Св-ва операций над событиями:
1) А+=Ω 2) А=Ø 3) (А+В)С=АС+ВС 4) =*5)= +6) А*Ω=А
Классич. опред-е вер-ти
Вер-ть Р(А) соб А равна отношению кол-ва эл-х событий m, входящих в состав события А к кол-ву всех возможных эл-х событий n:
Р(А)=|A| / |Ω|=M/n
З Символ |М| обозначает число эл-в любого конечного мн-ва М (мощность мн-ва) З! Классич. опред-е вер-ти примен-ся тогда, когда:
1) простр-во эл-х событий Ω конечно, т.е. |Ω|=n (конечное число)
2)все эл-ые события ωi- равновер-тны (равновозможны), т.е Р(ωi)=1/n для ¥ i=1,2…n
Св-ва вер-ти:
1)Р(ω)=1 2)Р(Ø)=0 3) 0≤Р(А) ≤1 , для ¥ А 4)Р()=1-Р(А) 5) АсB =>Р(А) ≤ Р(В) 6) А и В несовместны, то Р(А+В)= Р(А)+ Р(В)
Лекция №2 Вероятность событий
1. Элементы комбинаторики.
Комбинаторика изучает количество различных комбинаций, которые можно составить из элементов произвольного конечного множ-ва.
Перестановками-называются комбинации составленные из одних и тех же n различных элеметнов, которые отличаются между собой только порядком расположения элементов. Общее число перестановок равно Pn!=n!=1*2*3*4…n
Пример: х={1,2,3} 123 132 213 231 312 321
Опр2. сочетанием-называется комбинации составленные из n различных элементов по m элементов которые отличаются между собой хотя бы 1 элементом. C n m = n!/m!(n-m)!
Замечание: в сочетание порядок расположение элементов не важен.
Опр3. размещениями наз-ся комбинации составленные из n различных элементов по m, которые отличаются составом элементов, либо их порядком. Общее число размещений A n m =n!/(n -m)!=n(n-1)…(n-m+1)- m сомножителей
Опр4. (геометрическое определение вероятности) если g часть области G, то при бросании на удачу точки в область G вероятность ее попадания в часть g=P=mes g/mes G, где символ mes означает мера (в одномерном варианте длина, двумерном-площадь, в трехмерном - объем)
Замечание. При геометрическом определении вероятности полагают:
1. пространство элементарных событий (Ω=G)
2. интересующее событие A=g
опр.5 (условная вероятность) вероятность события А, найденное при условии, что событие B уже произошло, называется условной вероятностью события А, и обозначается символом P(A/B)
опр6. (независимость событий) 2 события А и В называются независимыми если вероятности появления каждого из них не зависит от того произошло ли другое событие или нет, т.е. если: P(A/B)=P(A), P(B/A)=P(B). При этом вероятности P(A) и P(B) называют безусловными вероятностями в противном случае события называют независимыми.
Замечание. зависимость и независимость событий всегда взаимно т.е. если А зависит от В то и В зависит от А, и наоборот. Кроме того, если события А и В независимы то независимы каждые 2 события А и В, А и В, А и В
Замечание. На практике о независимости событий заключают по смыслу задачи.
Теорема сложения вероятностей. Вероятность суммы двух событий А и В = сумме вероятностей этих событий минус вероятность их произведения. P(A+B)=P(A)+P(B)-P(AB).
Следствие: если события А и В не совместны то P(A+B)=P(A)+P(B)
Теорема умножения вероятностей. Вероятность произведения двух событий А и В равна произведению вероятности одного из них на условную вероятность другого, вычисленную при условии что первое событие уже наступило P(AB)=P(A)*P(B/A)=P(B)*P(A/B)
Следствие. Если события А и В независимы то Р(АВ)=Р(А)*Р(В)
Лекция 3Формула полной вероятности, формула Байеса.
Опр1. (полная группа событий) говорят что совокупность событий А1, А2…Аn образуют полную группу событий, если эти события попарно несовместны и в результате испытания обязательно наступает хотя бы одно из них, т.е. если:
1. Ai*Aj=Ø(невозможные события), при I неравно j. 2. A1+A2+…+An=Ω
Замечание!: для одного и того же испытания может быть несколько полных групп событий.
Торема1. сумма вероятностей событий А1, А2 …Аn образующих полную группу ,равна 1. P(A)+P(B)+…+P(An)=1
Док-во: поскольку события А1,А2,…,Аn образуют полную группу, то А1+А2+…+Аn= Ω. Отсюда Р(А1+А2+…+Аn)=Р(Ω)=1(*). Любые два события полной группы несовместны, поэтому Р(А1+А2+…+Аn)=Р(А1)+Р(А2)+…+Р(Аn)(**). Из формул (*) и (**) окончательно получаем P(A)+P(B)+…+P(An)=1
Теорема (формула полной вероятности) если событие А может наступить только при условии появления одного из событий В1, В2…Вn, которое образуют полную группу событий, то вероятность события А равна сумме произведений вероятностей каждого из этих событий на соответствующую условную вероятность события А: P(A)=Σ P(Bi)*P(A/Bi)
Док-во. Поскольку события В1, В2…Вn образуют полную группу , то В1+ В2+…+Вn=Ω поэтому А=А*Ω=А(В1+ В2+…Вn)=АВ1 +АВ2 + +..АВn=Σ ABi. Т.к. события В1, В2… Вn попарно несовместны то и события АВ1, АВ2…АВn так же попарно несовместны Р(А)=Р(Σ АВi)=Σ P(ABi)=Σ P(Bi)*P(A/Bi)
Замечание. ФПВ применяется во всех случаях когда испытание со случайным исходом распадается на 2 этапа, на первом этапе как бы «разыгрывается» условие испытание, а на втором этапе его результат, событие В1, В2… Вn при этом обычно называются гипотезами, поскольку за ранее неизвестно какое из этих событий наступит.
Формула Байеса. P(Bi/A)=P(Bi)P(A/Bi))/(Σ P(Bi)P(A/Bi))
Доказательство. По теореме умножения вероятностей имеем P(A/Bi)=P(A)* P(Bi/A)=P(Bi)* P(A/Bi) отсюда P(Bi/A)=(P(Bi)*P(A/Bi))/P(A)(*). С другой стороны по формуле полной вероятности P(A)=Σ P(Bi)*P(A/Bi)(**). Из формулы (*)и(**) получаем формулу Байеса
Замечание. Формула Байеса позволяет пересчитывать вероятности гипотез в свете новой инфо-ии, состоящей в том, что в результате опыта произошло событие А.
Аксиомотическое построение теории вероятности(проеодолевает недостатки, присущие известным опред вероятности.-автор Толмогоров)
1.Каждому событию А соотв неотриц числоP(А), назыв его вероятностью.
2.Вероятность достоверного соб-ия =1P(гамма)=1
3. Если А1,А2,А3,Аn попарно несовм, то P(A1+A2+A3+An)=P(A1)+P(PA2)+P(An)
Лекция 4. Схема Бернулли
Опр1.Испытание называется независимым если вер-ть какого либо исхода каждого из них не зависит от того какие исходы имели другие испытания.
Опр2. Повторные независимые испытания называются испытаниям Бернулли или схемой Бернулли, если: 1) каждое испытание имеет только 2 возможных исхода; 2) вероятности этих исходов постоянны для всех испытаний, т.о. в схеме Бернулли для каждого испытания имеется только 2 исхода: событие А(успех) и событие не А (неудача) с постоянными вероятностями Р(А)=Р и Р(неА)=q при этом Р+q=1.
Замечание. для n испытаний Бернулли элем. события удобно обозначать комбинациями в виде цепочек длиной n состоящих из букв У(успех) и Н (неудача), либо из букв А(успех) и неА(неудача), т.е. ω=УУН…ННУn ; =ААнеА…неАнеААn
Замечание. Испытания Бернулли возникают и при более сложных экспериментах, если мы не будем различать несколько возможных исходов, а опишем результат каждого испытания только в виде двух исходов А(успех), неА(неудача).
Теорема (Формула Бернулли)
Вероятность того что при n испытаний Бернулли успех наступит ровно m-раз равна Pn(m)=C n m *P^m*q^n-m, m-0,1,2,…,n, где Р -вероятность появления успеха в каждом испытании q=1-P-вероятность неудачи.
Док-во. Обозначим интересующее событие Вn(m)={в n испытаниях Бернулли событие А(успех) наступит ровно m раз}. Представим событие Вn(m) через элементарные события например: при n=3 и m=2 будем иметь В3(2)= ААнеА+АнеАА+неААА. В общем виде событие Вn(m) представляет собой сумму элементарных событий в виде цепочек длиной n, каждая из которых состоит ровно из m событий А и (n-m) событий неА, т.е. Bn(m)=А,А,…,А* неА,неА,…,неА+АА…А*неААнеА…неА+…+неАнеА…неААА…А (*). В силу независимости испытаний вероятность каждой цепочки в формуле (*) равна Р(ААнеА….неАА)=Р(А)Р(А)Р(неА)…Р(неА)Р(А)=Р^m(A)*Р^n-m(неА)=Р^n*q^n-m
А-m раз Р(А)- m раз
неА(n-m)-раз Р(неА)-(n-m) раз
Общее число цепочек в формуле(*)равно числу способов выбора из n испытаний m испытаний, в которых событие А произошло, т.е. равно числу сочетаний С n m. В связи с тем, что цепочки между собой несовместны получаем: Рn(m)=P(Bn(m))=P^m*q^n-m+P^m*q^n-m+…+P^m*q^n-m=С n m *P^m*q^n-m.
Опр3. число m0 называется наивероятнейшим числом наступлений события А в n испытаниях Бернулли, если Рn(m0)>=Pn(m), m=0,1,2,….,n
Замечание: наивероятнейшее число m0=целой части числа (n+1)*P и может быть определено из двойного неравенства: np-q<=m0<=np+q, если р≠0, р≠1. Если число (n+1)*p-целое, то наивероятнейшим так же будет являться и число m0-1, с той же вероятностью Pn(m0).
Лекция 5Приближенные ассимитрич формулы для схемы Бернули
Теорема 1 (Формула Пуассона)
Вероятность того что в n(n∞) в испытаниях Бернулли успех наступит ровно m раз приближенно равное Pn(m)≈λ^m/m!*e^-λ где λ=n*p, Р(Р0) вер-ть появление успеха в каждом испытании.
Док-во: По ф.Бернулли имеем Pn(m)=Cnmpmqn-m =(n!/(m!*(n-m)!))*(λ/n)^m*(1-λ/n)n-m=(n*(n-1)*…*(n-m+1))/m! *λm/nm * (1- λ/n)n-m = (n (n-1)*…*(n-m+1))/ nm *λm/ m!* (1- λ/n)n-m = 1*(1-1/n)*…*(1- (m-1)/n)* λm/ m!* (1- λ/n) m *(1- λ/n) m (*). Найдем пределы каждого сомножителя в формуле * при n→∞ :1)lim n→∞ 1= lim n→∞ (1-1/n)=…= lim n→∞ (1- (m-1)/n)=1 2) lim n→∞ λm/ m!= λm/ m! 3) lim n→∞ (1- λ/n) m =(1∞)=e λ 4) lim n→∞ (1- λ/n) m =1.
Из данных пределов и формулы * получаем lim n→∞ Pn(m)= λm/ m!*e λ . => Pn(m)≈ λm/ m!*e λ при достаточно великой n.
Замечание. Приближенную формулу Пуассона применяют практически в случаях когда n велико, а р мало. Обычно р<0,1, а λ=n*p не превосходит 10(<=10). Существуют таблицы значений функции λ^m/m!*e^-λ
Теорема 2(Локальная формула Муавра-Лапласа). Вероятность того, что n(n∞) испытание Бернулли успех наступит ровно m-раз приближенно равна: Pn(m)≈ 1/√npq * φ(xn,m), где р-вероятность появление успеха в каждом испытании; q=1-p вероятность неудачи; Xn,m=m-np/√npq; φ(x)=1/√2П*e^-(x^2)/2.
Замечание. Вычесление по локальной формуле Муавра-Лапласса дает несущественную погрешность при выполнении условия npq>= 20. Существует спец. таблицы значений функций φ(х) для положительных значений х, для отицательных значений пользуются теми же таблицами, так как функция φ(х) четная.
Теорема 3(интегральная формула Муавро-Лапласса) вероятность того что в n(n∞) испытаниях Бернулли, число успехов μ находиться между m1 и m2 , приближенно равно P{m1<=μ<=m2}≈Ф(х2)-Ф(х1), где Ф(х)=1/√2π -∞∫+∞е^-((t^2)/2)*dt (интеграл вероятностей ), х2=(m2-np)/√npq; x2=(m1-np)/ /√npq, где Р-вероятность появления успеха в каждом испытании, q=1-p.
Замечание: существуют специальные таблицы значений функции Лапласса, при этом Ф(х)+Ф(-х)=1
Лекция №6 Случайные величины
Опр1: (неформальное определение случайной величины)Случайной величиной (СВ) называется переменная величина, которая в результате испытания случайно принимает одно значение из множества возможных значений.
Опр2: (формальное определение СВ) СВ называется ф-ция, определенная на пространстве элементарных событий.
Опр3: СВ, которая может принимать только конечное или счетное множество значений называется дискретной (ДСВ).
Опр4: СВ, которая может принимать все значения из некоторого числового промежутка называется непрерывной(НСВ).
Опр5: Законом распределения CВ называется соотношение, устанавливающее тем или иным способом связь между возможными значениями CВ и их вероятностями.
Замечание: Закон распределения ДСВ обычно задается рядом распределения.
Опр6: Рядом распределения ДСВ называется таблица, в верхней строке которой перечислены все возможные значения CВ, а в нижней соответствующие им вероятности.
Σ(i=1 n )pi =1
Замечание: для наглядности распределения ДСВ можно изобразить графически. Для этого в прямоугольной системе координат строят точки (xi;pi), а затем соединяют их отрезками прямых, полученную фигуру называют многоугольником распределения.
Опр7: Функцией распределения СВ Х называется вероятность того, что она примет значение меньшее, чем заданно х: F(x)=P{X<x}.
Замечание: геометрически функция распределения интерпретируется как вероятность события {наблюдаемое значение случайной величины Х находится левее заданной точки х}.
Свойства ФР.
1) 0<=F(x)<=1; 2)F(x)-неубывающая функция своего аргумента, т.е. если х1<x2, то F(x1)<F(x2); 3) F(-∞)=0; 4) F(+∞ =1; 5)P{a<=x<=b} =F(b)-F(a).
Функция распределения ДСВ.
Если Х ДСВ, принимающая значение х1, х2, х3, и т. д. с вероятностями р1, р2, р3, и т. д., то её ФР задается равенством: F(x)=Σ(xi<x)pi, где суммируются вероятности тех значений xi, которые меньше х.
Замечание: ФР любой ДСВ есть разрывная ступенчатая функция (непрерывная слева), скачки которой происходят в точках х1, х2, х3 и т.д. и равны вероятности р1, р2 ,р3 и т.д.
Опр8: Плотность распределения или плотность вероятности НСВ Х в точке х называется производная её функции распределения в этой точке. Обозначают f(x): f(x)=F(x)
Замечание: плотность вероятности как закон распределения имеет смысл только для НСВ.
Опр9: График плотности вероятности f(x) называется кривой распределения.
Свойства плотности вероятности.
1)f(x)>=0; 2) -∞∫+∞f(x)dx=1; )P{a<=x<=b}= a∫bf(x)dx; 4)F(x)=-∞ ∫xf(t)dt(позволят находить функцию распределения по заданной плотности вероятности).
Лекция 7. Числовые хар-ки С.В.
Опр. 1 Математическое ожидание (М.О.) ДСВ Х наз-ся сумма произведений всех ее возможных значений на соответствующие им вероятности. Обозначают: М(Х) или Е(Х). .
Зам-е. Если ДСВ х принимает четное множество значений (n=∞),то .При этом предполагается, что сущ-ет предел .
Опр2. Математическое ожидание НСВ с плотностью вероятности f(x) наз-ся выр-е M(x)= -∞∫+∞ xf(x)dx (при этом предлагается, что интеграл -∞∫+∞ │x│f(x)dx сходится).
Зам-е! при большом количестве испытаний среднее арифметическое наблюдаемых значений CD Х близко к ее МО. Поэтому МО СВ иногда наз-ют средним значением или центром распределения вероятностей СВ.
Опред.3. СВ Х и У наз-ся независимым если закон распределения каждой из них не зависит от того какие возможные значения приняла другая величина, в противном случае СВ Х и У наз-ся зависимыми.
Св-ва МО.
1. М(С)=С, где С- константа
2. М(СХ)=СМ(Х), где С константа
3. М(Х+-У) =М(Х)+-М(У)
4. М(ХУ)=М(Х)М(У), если Х,У независимые
Опр. Дисперсия СВ наз-ся МО квадрата отклонения СВ от ее МО. Обозначают D(Х). D(X)= М[(Х-М(Х))^2]
Зам-е. Дисперсия хар-ет степень рассеяния (разброса) значений СВ относительно ее МО (среднего значения).
Непосредственное выч-е значения дисперсии осуществляется по ф-лам:
D(x)= - для ДСВ
D(x)= -∞∫+∞ [x - М(Х)]^2*f(x)dx- для НСВ
Св-ва Дисперсии
D(x)=M(x)2 M2 (x)
D(c)=0 где с- константа
D(cx)=c2D(x), c-const
D(x+-y)=D(x)+D(y) если Х и У независимы.
Опр-е: Ср. квадратичным отклонением (СКО) СВ наз-ся кв. корень от ее дисперсии σ(Х)= √D(x)
Зам-е. размерность величин М(Х) и σ(Х) совпадает с размерностью самой СВ Х, а размерность D(X) равна квадрату размерности СВ Х.
Опр. Модой ДСВ Х наз-ся ее наиболее вероятное значение, а модой НСВ Х наз-ся такое ее зн-е, при котором плотность вероятности достигает максимума, обозн. Мо(Х).
Зам-ние. Если плотность вероятности достигает максимума не в одной, а в нескольких точках, то распределение называется полимодальным.
Опр. Медианой Ме(Х) НСВ Х наз-ся такое ее зн-е, при к-м P{x>Me(X)}=P{x<Me(X)}=0.5.
Зам. Геометричесик медиана НСВ Х - это такая точка Ме(Х) на оси Ох, для которой вертикальная прямая х=Ме(Х) делит площадь фигуры от кривой распр-я на 2 равные части
Опр 8 Квантилем уровня р(или p- квантелем) СВ наз-ся такое значение хp, при котором вып-ся равенство F(xp)=p.
Зам-ние. Медиана CD есть квантель уровня 0.5, т.е. Ме(Х)=х0.5.
Опр. Начальным методом к-го порядка СВ наз-ся число К=М(ХК). Центральным моментом к-го порядка СВ Х наз-ся число μК= М[x-M(x)]К.
Лекция 8.Основные законы распределения ДСВ
Опр1. Говорят, что ДСВ Х распределена по биноминальному закону, если она принимает значения 0,1,2,…,n с вероятностями, где 0<p<1, q=1-p, m=0,1,…,n.
Замеч: Вероятности P{Х=m}находится по формуле Бернулли. Следовательно ДСВ, распределенная по биномиальному закону -это число наступления события А(число «успехов») в n испытаниях Бернулли.
Теорема 1:МО и дисперсия СВ Х, распределенной по биномиальному закону, соответственно равны: M(X)=np, D(X)=npq.
Док-во:СВХ-число наступлений соб А (успех) в n исп Бернулли. => ее можно предст в виде X=∑nk=1Xk, Xk (k=1,2…n)-случайная величина, кот. выраж число наступлений соб А в k-том испытании, т е Xk=1,если соб А наступило в k-том испытании, Xk=0,если соб А не наступило в k-том испытании. Т к исп Бернулли явл независ и вер-ть появления соб А в каждом испытании постоянна,то => СВ Хk независ м/у собой и каждое из них имеет 1 и тот же закон распред-я Xk(k=1,2…n)
xi |
0 |
1 |
pi |
q |
p |
Найдем числовые хар-ки СВ Xk (к=1,2…n). M(Xk)=def∑2i=1xipi=0*q+1*p=p D(Xk)=def∑2i=1[xi-M(Xk)]2pi=[0-p]2q+[1-p]2p=p2q+q2p=pq(p+q)=pq. Тогда M(X)=M(∑nk=1Xk)=∑nk=1M(Xk)= ∑nk=1p=np.
D(X)=D(∑nk=1Xk)=│X1,X2…Xn-независ│= ∑nk=1D(Xk)= ∑nk=1pq=npq.
Зам: Биноминальный закон распределения широко используется при проведения выборочного контроля качества продукции, при описании систем массового обслуживания, и других областей.
Опр : говорят, что ДСВ Х имеет закон распределения Пуассона ,если она принимает значения 0,1,2,…(счетное множество) с вероятностями, где m=0,1,2,…; -параметр закона Пуассона.
Теорема 2:МО и дисперсия СВ Х, распределенной по закону Пуассона , равны параметру λ этого закона ,т.е. М(Х)=λ,D(X)=λ
Теорема3:Сумма двух независимых СВ, распределенных по закону Пуассона с параметрами λ1 и λ2,есть СВ ,так же распределенная по закону Пуассона с параметром λ=λ1+λ2.
Док-во:Пусть независ СВ X,Y распред по закону Пуассона сооттв с парам λ1 и λ2. Докажем,что СВ Z=X+Y также распред по закону Пуассона с парам λ=λ1+λ2. Очевидно,что возможн зн-я СВ Z следующ:0,1,2…Найдем соотв им вер-ти P{Z=n}= P{X+Y=n}=P(∑nm=0{X=m,Y=n-m})=∑nm=0P{X=m,Y=n-m} =∑nm=0P({X=m}*{Y=n-m})(X,Y-независ по усл теоремы)= ∑nm=0 P{X=m}*P{Y=n-m}=∑nm=0 λ1me-λ1/m!* λ2n-me-λ2/(n-m)!=e -(λ1+ λ2)* ∑nm=0 λ1m *λ2 n-m*n!/m!(n-m)!*n!= e -(λ1+ λ2)/n!* ∑nm=0 Cmnλ1mλ2n-m (бином (λ1+ λ2)n)= e -(λ1+ λ2)/n!*(λ1+ λ2)n=e-λ λn/n!
Лекция 9
Опр1 Говорят, ДСВ Х имеет геометр распределение если она принимает значения 1,2 .. (множество натуральных чисел) с вероятностями, где , q=1-p m=1,2, …
З !ДСВ х имеющая геометр распределение представляет собой число испытаний Бернулли которые нужно провести до 1 ого появления события А (успех).
З! Ряд распределения ДСВ Ч имеющий геометр распределение имеет вид :
При этом
Вероятности pm= образуют геометрическую прогрессию с первым членом р и q. Отсюда и вытекает название Геометрическое распределение .
Т1. Мат ожидание и дисперсия СВХ имеющий геометрическое распределение соответственно равны: М(х)=1/р D(x)=
Док: Поскольку множество возможных значений СВ Х бесконечно( счётно), то её мат ожидание есть сумма ряда
M(x) ===
т.к. члены ряда являются производными по переменной q соответствующих членов ряда и при этом:
то =
Следовательно М(х)=р*=
Для вычисления дисперсии найдем сначала средний квадрат
=== = =
= p*(q(-= p*(q(- p*(q(- p*(q(- p*( - p*( -
Следовательно: D(x)= M- M2(x) = ч.т.д.
Параграф 2 Гипергеометрическое распределение
Говорят, что ДСВ Х имеет гипергеометрическое распределение если она принимает значения 0,1,2 .. , min(n,M) c вероятностями
P{X=m}=, где m=0,1,…min(n,M)
, где n,M,N натуральные числа
Теорема 2 математическое ожидание и дисперсия СВ Химеющей гипергеометрическое распределение соответственно равны
M(x)=
Зам. Гипергеометрическое распределение широко используется в практике статистического контроля качества промышленной продукции
Лекция 10. Основные законы распределения НСВ.
Опр1. Говорят, что НСВ Х имеет равномерный закон распределения на отр. [ a; b], если ее плотность вер-ти имеет вид f(x)= {1/(b-a), a<=x<=b}{ 0, x<a или x> b}
Теорема 1. Фнкция распределения НСВ Х, распределенная по равномерному закону имеет вид F(x)={0, x<=a}{x-a/b-a, a<x<=b}{1, x>b}.
Док-во. Функция распределения F(x) = [cв-во 4 пл-ти вер-ти]=-∞ ∫x f(t)dt. 1. x<=a ,=> F(x) = -∞ ∫xf(t) dt=-∞ ∫x0dt=0. 2.a<x<=b, => F(x) = -∞ ∫xf(t) dt=[-∞ ∫х=-∞ ∫a+ a ∫x]= a∫xf(t)dt= a ∫x (1/b-a)dt=(1/b-a)a ∫xdt=(1/b-a)t│ab=x-a/b-a. 3. x>b, => F(x) = -∞ ∫xf(t) dt=[-∞ ∫x= -∞∫a+ a ∫b+ b ∫x]= a ∫bf(t)dt= a ∫b (1/b-a)dt =1/b-a a ∫bdt =(1/b-a)t│a b=b-a/b-a=1.
Теорема 2. МО и дисперсия CВ Х, распределенной по равномерному закону соответственно равны М(Х)= (а+b)/2; D(X)=(b-a)2/12.
Док-во:M(X)=def-∞∫∞xf(x)dx=!-∞∫∞=-∞∫a(=0)+a∫b+b∫∞(=0)!= a∫bxdx/b-a=1/b-a a∫bxdx=1/b-a(x2/2)!ba=b2-a2/2(a-b)=a+b/2
D(X)=def-∞∫∞(x-M(x))^2f(x)dx=!-∞∫∞=-∞∫a(=0)+a∫b+b∫∞(=0)!=a∫b ((x-(b+a)/2)^2)dx/b-a=1/b-aa∫b((x-(b+a)/2)^2)dx= (b-a)^2/12
Замечание! Равномерное распределение не имеет моды, а медиана совпадает с МО, т.е. Ме(Х) =(a+b)/2
(ошибки измерения физ велечин при окр рез набл до ближайшего деления)
Опред №2 Говорят, что НСВ Х имеет показательный (экспоненциальный) закон расп-ния с параметром λ, если ее плотность вер-ти имеет вид f(x)={ λ*e^-λx, x>=0} { 0, x<0}.
Теорема 3. Функция расп-ния CВ Х, распределенной по показ. закону, имеет вид F(X)={ 1-e^-λx, x>=0} { 0, x<0 }.
Док-во: -∞∫xf(t)dt Пусть x<0 =>-∞∫xf(t)dt=-∞∫x0dt=0. Пусть x≥0 =>-∞∫xf(t)dt=!-∞∫x=-∞∫0(=0)+0∫x!= 0∫xf(t)dt=0∫x λe-λxdt=λ0∫x e-λxdt=λ(e-λx/-λ)!x0=-(e-λt)!x0=-(e-λx-1)=(-e)-λx-1
Теорема 4. МО и дисперсия CВ Х,распределенной по показ. закону, соответственно равны М(Х)=1/λ; D(X)= 1/ λ2.
Док-во:Проверим для МО. M(X)=def-∞∫∞xf(x)dx=!-∞∫∞=-∞∫0(=0)+0∫∞!=0∫∞xλ e-λxdx=def lim b→∞ 0∫bλxe-λxdx. 0∫bλxe-λxdx=!интегр по частям!=!u=λx,dv=e-λxdx, v=∫e-λxdx=e-λx/-λ, du=λdx!=[λx*e-λx/-λ]!b0-0∫be-λx λdx /-λ=-[x e-λx]!b0+0∫be-λxdx=-[be-λb-0]+(e-λx/-λ)!b0= -be-λb-1/λ (e-λb-1)= -be-λb-e-λb/λ+1/2 =>M(X)=lim b→∞[-be-λb-e-λb/λ+1/2]=1/λ
Опр3 (норм закон распределения). Говорят, что НСВ Х имеет нормальный закон расп-ния (закон Гаусса) с параметрами δ и μ, если ее плотность вероятности имеет вид f(x) = (1/√2π* δ)* e^-(x-μ)^2/2δ^2, (δ>0)/
Замечание. Функция распр-ния CВ Х, распред-ная по норм. закону имеет вид F(X)=(1/√2π* δ)--∞∫xe^-(t-μ)^2/2δ^2dt.
Теорема 5. МО, дисперсия и СКО СВ Х, распр-ной по норм. закону соответственно равны М(Х)=μ, D(X)= δ2, δ(X)= δ
Замечаение! Утверждение «CВ Х имеет норм. распределение с параметрами μ и δ» кратко записывается Х€ N (μ, δ)
Опр4. Норм.закон распределения CВ Х с парметрами μ=0, δ=1,т.е. N(0;1) назыв. стандартным или нормированным.
Замечание! Плотность вер-ти и ФР СВ Х, распределенной по нормированному закону, имеют вид f0(x)=(1/√2π )e^-x^2/2 ; F(X) =-∞∫x (1/√2π) е^-t^2/2dt. Эти функции табулированы (сущ-ют таблицы их значений).
Свойства CВ Х распред-ной по нормированному закону (X€ N(μ;δ))
1.Вер-ть попадание CВ Х в отрез. [ a;b] P{a<=x<=b}=F0(b-μ/δ)- F0(а-μ/δ)
2. вер-ть того, что CВ Х отличается от своего МО по абс. вел-не не больше, чем на ε P{X-μ<=ε}=2F0(ε/δ)-1.
Лекция 11.О1. Упорядоченный набор (x1, x2, .. , xn) СВ Х1, Х2, …, Хn называется системой n случайных величин или многомерной ( nмерной) случайной величиной.
О2. Одномерные СВ Х1, Х2, … ,Хn называются компонентами или составляющими n- мерной СВ (Х1, Х2, … , Хn)
Зам! Свойство систем Св многомерной Св не исчерпывается свойствами её компонентов, а включает также и взаимные связи (зависимости между этими компонентами ). В дальнейшем будем рассматривать только 2 мерную СВ.
Типы 2 мерных Случайных Величин (X,Y)
Дискретная если возможные значения (X,Y) образуют конечное или счётное множество.
Непрерывная если возможные значения (X,Y) сплошь заполняют некоторую область на плоскости.
Смешанная - если возможные компоненты X и Y являются одномерными СВ разных типов.
З! Тип 2 мерной СВ (X,Y) фактически определяется типом её компонентов X иY
т.е. если оба компонента x и y ДСВ, то и 2 мерная СВ (X,Y) также будет дискретной.
О3 Матрицей распределения называется матрица вида :
|
Y1 |
Y2 |
… |
Yn |
X1 |
P11 |
P12 |
… |
P1m |
X2 |
P21 |
P22 |
… |
P2m |
… |
… |
… |
… |
… |
Xn |
Pn1 |
Pn2 |
… |
Pnm |
Свойства Вероятности
=
=
Зам! Свойства 2 и 3 означают, что если задана матрица распределения 2мерной ДСВ (X,Y), то можно найти ряды распределения одномерных СВ Х и Y
Опр4 Функция распределения 2мерной СВ (X,Y) называется вероятность совместного выполнения 2х неравенств :
т.е. F(x,y)=P
Зам! Событие означает произведение событий
Функция распределения двумерной ДСВ (X,Y)
Если СВ (x,y) является дискретной, то её функция распределения находится по формуле
; где суммируются все вероятности для которых ,
Свойства функции распределения 2 мерной СВХ
не убывающая функция по каждому аргументу т.е.
, if
Fx(x)
Fy(y) где Fx(x) и Fy(y)функции распределения СВ Х и Y соответственно.
Лекция 12
Опр 1 . Плотностью вероятности 2мерной НСВ (X,Y) называется вторая смешанная частная производная её функции распределения:
Опр 2. График плотности вероятности 2 мерной НСВ называется поверхностью распределения.
Свойства плотности вероятности двумерной НСВ
f(x,y)больше или равно 0
Вероятность попадания случайной точки () в область D равна 2му интегралу от плотности вероятности по этой области т.е.
Функция распределения двумерной НСВ может быть выражена через её плотность вероятности по формуле :
Условия нормировки: 2ой несобственный интеграл в бесконечных пределах от плотности вероятности двумерной НСВ равен единице т.е.
=1
Геометрически данное свойство означает, что объем тела, ограниченного сверху поверхностью распределения, а снизу плотностью x по y равна 1
)=)=где и ) плотность вероятности СВ(X,Y) соответственно.
Равномерное распределение 2мерной НСВ
Опр3. Говорят, что двумерное НСВ (X,Y) имеет равномерное распределение в области D, если её плотность вероятности имеет вид:
f(x,y)=
где SD площадь P
замечание: Основные свойства равномерного распределения состоит в том,что для него применимо понятие “Изометрической вероятности” т.е. если область g содержится в области D, то нетрудно показать, что
где площадь g
Теорема (о независимости 2 СВ)
СВ независимыфункция распределения двумерной СВ (X,Y) равна произведению функций распределения составляющих т.е.
)= F(x,y) , ) функции распределения СВ x и y соответственно.
Доказательство:
Необходимо:
Пусть СВ x и y независимы , тогда
)
Достаточно: Пусть )
Тогда из определений функций распределения следует равенство: , которое и означает, что СВ X и Y независимы ч.т.д.
Следствие :Необходимым и достаточным условием независимости 2ух непрерывных СВ X и Y образующих систему (x,y) является равенство : )= F(x,y)
Лекция 13
Опр.1. Условным законом распределения СВ Х входящей в систему (X,Y) называется её закон распределения вычисленный при условии, что другая СВ Y приняла определенное значение.
Замечание. Аналогично определяется условный закон распределения СВ Y входящей в систему (X,Y).
Обозначим через условную вероятность, того что СВ Х примет значение при условии, что СВ Y приняла значение
Замечание! Условные вероятности определяются равенством:
Опр.2. Условным законом распределения составляющий x при называют совокупность условных вероятностей Вычисленных предположений, что событие уже наступило.
Замечание. Аналогично находят условный закон распределения составляющий Y
Замечание. Сумма вероятностей условного распределения равна 1. Док-во:
Аналогично доказывается, что при фиксированным . Это свойство распределений используют для контроля вычислений.
Опр.3.Условной плотностью вероятности составляющей X при заданном значении Y=y называется отношение плотности вероятности двумерной непрерывной СВ (X,Y) к плотности вероятности составляющей Y т.е. Аналогично определяется условная плотность вероятности составляющей Y при заданном значении X=x Формулы для вычисления условных плотностей вероятностей. Если известна плотность вероятности f(x,y) двумерной непрерывной СВ (X,Y), то условные плотности вероятности составляющих X и Y могут быть найдены по формулам Замечание! Условные плотности вероятности обладают всеми свойствами безусловной плотности вероятности.
Лекция 14
Опр.1. МО двумерной ДСВ (X,Y) называется совокупность двух МО M(X) и M(Y) определяемых равенствами , где .
Опр.2. МО двумерной НСВ с плотностью вероятности f(x,y) называется совокупность двух МО M(x) и M(y) определяемые равенствами . Опр.3. Дисперсией двумерной ДСВ (x,y) называется совокупность двух дисперсий D(x) и D(y) определяемых равенствами .
Опр.4. Дисперсией двумерной НСВ (X,Y) с плотностью вероятности f(x,y) называется совокупность двух дисперсий D(x) и D(y) определяемых равенствами З! МО M(x),M(y) и дисперсии D(x),D(y) СВ X и Y входящих в систему (X,Y) могут быть найдены по обычным формулам используемых для одномерных СВ. Для этого необходимо предварительно перейти от закона распределения двумерной СВ (X,Y) соответственно к одномерным законам распределения СВ X и Y
Опр.5.Ковариацией СВ X и Y называется МО произведения отклонений этих величин. Обозначается cov (X,Y) или . Замечание. Ковариация характеризует взаимную зависимость СВ X и Y - Для ДСВ -НСВ
Замечание! Ковариацию часто удобно вычислять по формуле, которая получается из определения ковариации на основании свойств МО . Если СВ независимы то k=0. Опр.6. Коэф. корреляции
СВ X и Y называется выражение . Замечание! Для любых СВ X и Y выполняется соотношение , при этом если r=0, то СВ X и Y называются некореллированы, в противном случае кореллированы.