Поможем написать учебную работу
Если у вас возникли сложности с курсовой, контрольной, дипломной, рефератом, отчетом по практике, научно-исследовательской и любой другой работой - мы готовы помочь.

Предоплата всего

Подписываем
Если у вас возникли сложности с курсовой, контрольной, дипломной, рефератом, отчетом по практике, научно-исследовательской и любой другой работой - мы готовы помочь.
Предоплата всего
Подписываем
1. Предмет ТВ. Построение вероятностной модели случайного явления.
ТВ мат. наука, изучающая закономерности в массовых случайных явлениях.
Случайное явление явление, которое при неоднократном воспроизведении одного и того же опыта (испытания) протекает каждый раз несколько по-иному.
Закономерности случайных явлений могут проявляться только при их многократном наблюдении.
Изучению поддаются только такие случайные явления, которые можно наблюдать практически не ограниченное число раз. Такие случайные явления называются массовыми.
Результаты отдельных наблюдений случайных явлений непредсказуемы, но при многократном наблюдении выявляются определённые закономерности. Эти закономерности и являются предметом изучения ТВ.
Общим для всех случайных явлений является их непредсказуемость в отдельных наблюдениях.
Для их описания строится математическая вероятностная модель.
Для построения модели введём определения:
Опыт наблюдение какого-либо явления при выполнении определённых фиксированных условий.
Событие факт, регистрируемый в результате опыта.
Случайное событие событие, которое при проведении опыта может произойти, а может не произойти.
События обозначаются заглавными буквами: А, В, С…
Пусть имеется урна с n одинаковыми шарами. Испытание состоит в том, что мы случайно выбираем один шар.
Ω = {, , … , } множество шаров. Если из урны при испытании мы вынимаем шар ∈ А, где А некоторое подмножество А⊂ Ω, то будем говорить что произошло событие А. Если ∉ А то говорят что событие А не произошло. Событие А отождествляют с подмножеством А множества Ω.
В общем случае любой вероятностной модели будем рассматривать некоторое основное множество Ω={}. Элементы элементарные события.
Ω пространство элементарных событий.
Некоторые его подмножества А⊂Ω события.
Операции над событиями операции над подмножествами.
Множество Ω может быть дискретным, непрерывным или иметь сложную структуру.
К дискретным относятся конечные или счётные множества элементарных событий.
К непрерывным множества типа континуума (пример континуума конечный или бесконечный интервал на числовой прямой)
Случайное событие А это подмножество А в пространстве элементарных событий Ω.
Подмножество А может содержать один/ни одного/счётное/не счётное число исходов/всё пространство Ω.
2. Случайные события. Действия над событиями, свойства действий.
Объединение последовательности событий {} заключается в появлении хотя бы одного из них.
Пересечение последовательности событий {} это событие, состоящее в появлении всех n событий.
Замечание: если Аи В несовместные события то
С = А - В = А\В А В = А
1. Коммутативность
А⋂В = В⋂А А∪В = В∪А
2. Ассоциативность
(А⋂В)⋂С = А⋂(В⋂С) (А∪В)∪С = А∪(В∪С)
3. Дистрибутивность
(А∪В)⋂С = (А⋂С)∪(В⋂С)
4. Принцип двойственности (правила Де Моргана)
= ⋂ =
5. А ∪ = Ω А ⋂ = ∅
6. Объединение полной группы событий представляет собой достоверное
7. Любое событие А можно разложить на сумму несовместных
А = А Ω = А (В + ) = АВ + А
3. Вероятность и её свойства. Аксиомы вероятности.
Любому случайному событию можно подставить в соответствие числовую характеристику, которая определяет степень возможности появления этого события. Она называется вероятностью.
Рассмотрим определения, на основании которых вводится современное понятие вероятности.
- произвольное про-во элементарных событий.
Класс множеств из будем называть замкнутым относительно какой либо операции над мн-ми, если ее осуществление над мн-ми из этого класса приводит к мн-вам из этого же класса.
В общем случае бесконечного пр-ва мы рассматриваем не все подмн-ва, а лишь некоторые замкнутые классы этих подмн-в , называемые алгебрами и σ-алгебрами.
Опр1: назовем класс А подмн-ва пр-ва алгеброй мн-в, если
1. Ø А , А
2. А А => А
3. А А, В А => А ∩ В А , А А , А\В А
Алгеброй называется класс множеств, замкнутый относительно операций ∩ \ любого конечного набора событий.
Опр2: алгебру мн-в А назовем σ-алгеброй, если
σ-алгебра алгебра, замкнутая относительно ∩ любого счетного набора событий.
Если задано пр-во элементарных событий и σ-алгебра А его подмн-в, то говорят, что задано измеримое пр-во (, А)
На измеримом пр-ве задается числовая ф-я Р(А), которая называется вероятность или вероятностной мерой и удовлетворяет 3 аксиомам.
А1. Аксиома неотрицательности: Р(А) 0 А А
каждому событию а соотв. неотрц. число вероятность этого события
А2. Аксиома нормировки: Р() = 1
вероятность достоверного события равна единице
А3. Аксиома аддитивности: Р(А+В) = P(А) + P(В), АВ = Ø
(распространяется и на Nсобытий)
Опр3: вер-ть неотрицательная, аддитивная, нормированная к 1 мера, заданная на измеримом пр-ве событий, характеризующая степень возможности появления событий
Опр4: (А, Р) будем называть вероятностным пр-вом, где пр-во элем. событий, А - σ-алгебраподмн-в, называемых событиями, Р числовая ф-я, определенная на событиях, называемых вер-тью. Вер-ное пр-во определяет вероятностную модель случайного явления.
4. Свойства вероятностей (следствия из аксиом).
если событие а может произойти только вместе с событием В, то вер-ть события А не может быть больше вер-ти события В.
Для любых а, bсправедливо P(АВ) = P(А) + P(В) P(АВ)
Док-во:
А = А + В
P(АВ) = P(А) + P(В)
В = АВ + А
P(В) = P(АВ) + P(А), P(А) = P(В) P(АВ) => P(АВ) = P(А) + P(В) P(АВ)
Функция множеств P(А) - непрерывна, если , = , , тогда
5. Классическое определение вероятности
Это определение используется, когда число возможных исходов опыта конечно и любой исход равновозможен.
Пусть состоит из Nравновозможных в данном опыте элементарных событий, т.е. P() = p ,
где элементарное событие, i = . Элементарные события несовместны и образуют
полную группу событий и P(, np = P() = 1 => p =
Вероятность любого события А, которому соответствует в пр-ве элементарных событий некоторое подмн-во, содержащее исходов определяется след. образом:
P(A) = P(= , т.е. P(A) =
Опр: вер-ть некоторого события А есть отношение числа исходов благоприятных наступлению события А к общему числу всевозможных исходов n.
Классическое определение удовлетворяет аксиомам Колмогорова:
А1. P(A) =
А2. P() =
А3. А и B несовместны и имеют и благопр. исходов соответственно,
тогда Р(A+B) = = P(A) + P(B)
6. Геометрическое определение вероятности.
Это определение используется, когда опыт имеет несчётное множество равновозможных исходов.
В этом случае пространство элементарных событий можно представить в виде некоторой области G.
∀ точка этой области соответствует элементарному событию
Попадание наугад брошенной точкой в ∀ место области G равновозможно.
Если некоторому событию А соответствуют точки, составляющие некоторую область С внутри G то вероятность где mesG - мера области G (длинна, площадь, объём…)
Геометрическое определение вероятностей удовлетворяет аксиомам Колмогорова и является частным случаем аксиоматического определения.
7. Статистическое определение вероятности.
Наиболее часто встречаются сложные случайные явления с неравновозможными исходами в опыте. Наблюдая за такими явлениями в повторяющихся опытах можно установить, что ∃ объективная характеристика степени возможности появления случайного события, которая проявляется в частоте появления события.
Многократно (m-раз) проводится опыт. Событие А появляется раз. Частота появления события
При m>>1 частота сохраняет постоянную величину. На этом основано статистическое определение вероятностей.
Это определение удовлетворяет аксиомам Колмогорова и пригодно во всех случаях.
8. Условная вероятность.
Пусть задано вероятностное пространство (Ω, F, P) и на нём произвольные события A и B.
Если P(B)>0, то условная вероятность события А есть
Вероятность события А - это мера объективной возможности данного события при определённых условиях опыта.
Совокупность условий опыта обозначается γ. Вероятность события А: Р(А) = Р(А|γ)
Обычно условия опыта в обозначениях вероятностей не используются. Они оговариваются при проведении опыта. Р(А) называется безусловной вероятностью.
Допустим, что при данных условиях γ произошло событие В. Наступление события В можно считать дополнительным условием.
Вероятность наступления А при совокупности условий (γ,В) и есть условная вероятность.
Р(А|B)=P(A|γ ,B)
Разница между условной и безусловной вероятностями состоит в различии совокупных условий.
Безусловная вероятность есть частный случай условной, если условие В - достоверное.
Определение условной вероятности удовлетворяет аксиомам Колмогорова:
А1. , т.к.
А2. , т.к.
А3. Если A и C несовместные, т.е. А ⋂С то
9. Свойства условных вероятностей.
1) P(B|B) = 1
Док-во: P(B|B) = = = 1;
2) P(|B) = 0
Док-во: P(|B) = = = 0;
3) Если B с А, то P(A|B) = 1
Док-во: P(A|B) = =
4) P(A|B) + P(A̅|B) = 1
Док-во: P(A|B) + P(A̅|B) = = = 1;
5) P(AUC | B) = P(A|B) + P(C|B) P(AC|B)
Док-во: представим в виде несовместных событий
A U C = A + A̅C; C = AC + A̅C; P(A U C | B) = P(A|B) + P(A̅C|B) (*).
P(C|B) = P(AC|B) + P(A̅C|B); P(A̅C|B) = P(C|B) P(AC|B) подставим в (*)
получим P(AUC|B) = P(A|B) + P(C|B) P(AC|B);
Пусть задано вер-е пр-во (Ω, A, P) и на нём определены соб-я A и B, P(A)>0 P(B)>0.
Тогда вероятность совместного появления событий A и B равна произведению вероятности одного из этих событий и условной вероятности другого, при условии, что первое произошло:
P(AB) = P(A)P(B|A) = P(B)P(A|B) (2);
Док-во: по опр-ю цел-й вер-ти P(A|B) = , P(B|A) =
Замечание: ф-ла (2) применима и в том случае, когда одно из событий невозможное,
например: P(A) = 0 P(A|B) = 0 P(AB) = 0
Пусть задано вер-е пр-во (Ω, A, P) и на нём определены соб-я >0. вероятность пр-я нескольких событий равна произведению вероятностей этих событий, причём вер-ть каждого последующего: события вычисляется при условии что все предыдущие имели место
Р() = P()P()P()… P() (3)
10. Независимые события, их свойства.
Опр: Пусть имеется вер-е пр-во (Ω, A, P) и на нём определены соб-я A и B, (A∈ Ω, B∈Ω) наз-ся
независимыми статистически, если P(AB) = P(A)P(B) (1)
1. Если P(B)>0, то для независимых событий А и В P(A|B) = P(A) (1')
Док-во: P(A|B) = = = P(A);
Замечание: иногда опр-е независ-ти соб-й дают на основе (1'):
Соб-я A и B наз-ся независимыми, если появление одного из них не влияет на появление другого.
2. Если A и B независимы, то независимы и A̅ и В, А и B̅, A̅ и B̅.
Док-во: докажем 1е утверждение: P(A̅B) = P(B-AB) = P(B) P(AB) = P(B) P(B)P(A) = P(B)(1-P(A)) = P(B)P(A̅)
Док-во второго утв. аналогично.
Док-во 3го: P(A̅B̅) = P(A̅U̅B̅) = 1 P(AUB) = 1 P(A) P(B) + P(AB)
P(A̅)P(B̅) = (1 P(A))(1-P(B)) = 1 P(A) P(B) + P(AB) => P(A̅B̅) = P(A̅)P(B̅)
3. Пусть A и независимы, А и независимы, причём = тогда A и независимы
4. Два несовм. соб-я всегда зависимы т.к. появление одного исключает появление другого,
если А и В несовм. (АВ = ), P(A)>0, P(B)>0, то P(A|B) = P(B|A) = 0;
Опр: (Независимость событий в совокупности): , , . . называется нез в совокупности если любое из них не зависит от любого числа других в любой комбинации.
Для нез. соб-й правило умножения имеет вид:
P(, , . . ) = P()P()…P();
P() =
11. Формула полной вероятности. Формула Байеса.
Эта формула явл-ся следствием Th слож и умнож вер-ей.
Th: пусть на вер-ом пр-ве (Ω, A, P) определена полная группа несовместных событий
вероятность P(), () известны.
Событие А может появиться при появлении одного из событий , причём условные P(A|) известны тогда
P(A) = P()P(A|) (1)
(1) наз-ся формулой полной вер-ти.
Док-во: А = А Ω = А = ;
т.к. несовместные соб-я то А тоже несовместные поэтому используя теорему умнож-я вер-тей имеем
Пример: известно, что 5% мужчин и 0,25% женщин страдает дальтонизмом.
Какова вероятность того, что случайно выбранный человек окажется дальтоником.
Т.е. какова доля лиц страдающих дальтонизмом во всём населении Земли, если мужчины составляют 48% населения, женщины - 52%.
Реш: В качестве полной группы несовм. событий возьмём событие - выбран муж., - выбрана жен.
Вер-ти P() = 0,48% P() = 0,52%
Пусть соб-е А заключается в том, что выбранное наугад лицо - дальтоник.
По усл. задачи P(A|) = 0,05, P(A|) = 0,0025;
P(A) = P(A|)P() + P(A|)P() = 0,05*0,48+0,0025*0,52 = 0,0253
Ответ: 2,53%
Th: пусть имеется полная гр несовместных событий , , . . .
Известны вер-ти этих событий P().
Известны в-сти P(A|), ()
Событие A, P(A)>0 может произойти из событий B(i).
Известны вер-ти P(A|) , () .
Тогда апостериорная (после опыта) вер-ть P() определяется ф-лой:
P() = , () (2);
Док-во: по опр-ю P() =
на основе фор-лы полной вер-ти и Th умн-я вероятностей получаем P() = ,
Формула (2) называется формулой Байеса.
Вер-ти P() наз-ся априорными (до опыта), вер-ти P() наз-ся апостериорными (после),
соб-я наз-ся гипотезами.
Пример: врач после осмотра больного считает, что возможно одно из двух заболеваний 1 и 2.
Степень своей уверенности в отношении правильного диагноза оценивает как 40% и 60% соответственно.
Для уточнения диазноза больного отправили на анализ.
Исход анализа даёт полож реакцию при заболевание 1 в 90% случ при заб 2 в 20% случ.
Анализ дал полож. реакц. Как изменится мнение врача?
Реш: А анализ дал полож. реакц. Гипотезы: - забол1, - забол2.
Априорные вер-ти гипотез P() = 0,4 P() = 0,6. Условные вер-ти P(A|) = 0,9 P(A|) = 0,2.
P) = = 0,75.
Ответ: P) = 0,75 врач с бол-ей уверенностью признает заб1.
12. Схема независимых испытаний Бернулли.
Рассмотрим что такое независимость опытов.
Пусть имеются два независимых опыта G1, G2 и соответствующие им вероятностные пространства (Ω1, A1, P1), (Ω2, A2, P2). Рассмотрим составной эксперимент G с вероятностным пространством (Ω, A, P), где Ω = Ω1* Ω2 прямое произведение, а σ - алгебра порождена событиями B = B1 * B2, где B1 ∈ A1, B2 ∈ A2.
Прямым произведением Ω = Ω1* Ω2 называется множество Ω, элементами которого являются упорядоченные пары элементов пр-в Ω1 и Ω2, т.е. если , , то , где любой эл-т Ω1 и Ω2 соответственно.
Опыты G1 и G2 независимы, если для всех B = B1 * B2 выполняется равенство P(B) = P1(B1) P2(B2).
Последовательность опытов G1, G2, Gn называется независимой, если P(B) = P1(B1) * P2(B2) * … * Pn(Bn), где B = B1 * B2 * … * Bn, Bk ∈ Ak. (Ωk, Ak, Pk) вероятностное пространство, соответствующее -му эксперименту.
Рассмотрим n независимых испытаний Gk, k = . Во любом из этих испытаниях событие A может появиться с одной и той же вероятностью P(A)=p и не появиться с вероятностью P () = 1 - p = q. Такая совокупность испытаний называется схемой независимых испытаний Бернулли.
13. Наивероятнейшее число успехов в схеме Бернулли.
Наступлением события A в испытаниях называют успехом.
Исследуем, как изменится вероятность Pn(m) от числа успехов m.
Рассмотрим отношение
Из него следует:
Наибольшая вероятность Pn(m0) = Pn(m0 + 1) когда m0 = np * q
Значение m0 и m0 + 1 наивероятнейшее число успехов в схеме независимых испытаний Бернулли.
Если np q не целое число, то Pn(m) достигает максимума при [ np q ] + 1 = m0, где [ np q ] целая часть.
14. Предельные теоремы в схеме независимых испытаний Бернулли.
Из-за сложных вычислений по этой формуле были выведены формулы приближенных значений.
Предельные теоремы определяют поведение вероятности Pn(m) при .
Если в схеме независимых испытаний Бернулли число испытаний стремится , то , причем np = λ, где λ > 0, то вероятность , m = 1, 2 …
при
,
т. о. , .
Формула (1) является законом распределения Пуассона.
Формулой (1) для приближенных расчётов можно пользоваться при n >> 1, p << 1.
Пусть в схеме независимых испытаний Бернулли число испытаний стремится , p фиксировано, 0 < p < 1, тогда таких, что справедливо соотношение
Эта формула описывает закон распределения Гаусса. Эта формула приближенная, причем наибольшая точность расчёта вероятности обеспечивается при и при фиксированных n и m.
15.Случайные величины. Законы распределения.
Случайной велечиной называется числовая функция заданная на множестве случайных событий.
Обозначается: X,Y… и их знач. x1,x2…
Опр: Пусть задано вероятностное пространство () всякая числовая функция X=X() определенная на пространстве элементарных событий называется случайной величиной ( С.В.)
rr |
rp |
pr |
pp |
|
X() |
2 |
1 |
1 |
0 |
Пример: в моделе 2х кратного подбрасывания монеты с пр-вом
исходов ={ rr,rp,pr,pp}
X()-число выпавших гербов определяется с помощью таблцы:
Опр: случайной величиной X заданной на вероятностном пространстве () называется измеримая функция X=X() отображающая пространство элем. событий множества действительных чисел
Измеримость ф-ии X=X() позволяет подмножеству Bx поставить в соответствие множество A в пространстве , А поэтому можно вычислить P(X()∈Bx)=P(X ∈Bx)=P(A) (1)
Эта формула описывает распределение вероятности попадания случайной величины в Bx.
Случайная величина считается заданной если задана область ее возможных значений и распределение вероятностей (1) (закон распределения вероятностей ).
Возможные значения С.В. образуют множество B.
Примеры С.В.:
1) бросается игральная кость, множество возможных значений B={1,2,3,4,5,6}. Оно счетно и конечно.
2) Работа ЭВМ после ремонта. С.В. T- время наработки до первого отказа, множество возможных значений B теоретически вся правая половина оси Ot и 0 {t ≥ 0} . Этот участок ограничен справа, но граница расплывчата, неопределенна, B несчетно.
3) Ведется тестирование изделий до появления 1-ого исправного. С.В. Y- число тестов которое будет проведено B={1,2,…,n} - беск. ,счетное.
Из примеров видно, что с.в. бывают двух типов: у одних множество B конечно или счетно, у других это множество занимает какой то участок числовой оси, границы которой могут быть зафиксированными, так и неопределенными, а множество значений несчетно.
Дискретной случайной величиной называется с.в. с конечным или счетным множеством возможных значений.
Непрерывной случайной величиной называется с.в. множество значений которой является непрерывным.
Закон распределения.
Законом распределения с.в. называется ∀ правило( таблица, ф-ия) позволяющее находить вероятности всевозможных событий, связанных со случайной величиной.
Если с.в. X имеет данный закон распределения, то говорят что она распределена по этому закону.
Наиболее простую форму можно придать закону распределения дискретной с.в. Для этого получим ряд распределения дискр. с.в. X в виде таблицы.
x1 |
x2 |
… |
xn |
… |
p1 |
p2 |
… |
pn |
… |
В верхней строке перечислены в порядке возрастания всевозможные
значения, а в нижней вероятности этих значений, где Pi=P{X=xi}
Тк события {X=x1}, {X=x2},… несовместные и образуют
полную группу, то сумма все вероятностей
стоящих в нижней строке ряда равна 1.
Пример1 Рассматривается работа трех независимо работающих техн. устройств. Вероятность норм. Работы первого=0.2,второго=0.4,треьего=0.5. С.в. X число работающих т.у. построить ряд распределения с.в. X.
Решение: с.в. X=0,1,2,3
“+” нормальная работа “-” отказ
p1=P{X=0}=P{---}=(1-0.2)(1-0.4)(1-0.5)=0.24
p2=P{X=1}=P{+--}+P{-+-}+P{--+}=(0.2)(1-0.4)(1-0.5)+(1-0.2)(0.4)(1-.5)+(1-0.2)(1-0.4)(0.5)=0.46
0 |
1 |
2 |
3 |
0.24 |
0.46 |
0.26 |
0.04 |
p3=P{X=2}=P{-++}+P{+-+}+P{++-}=(1-0.2)(0.4)(0.5)+(0.2)(1-0.4)(0.5)+(0.2)(0.4)(1-0.5)=0.26
p4=P{X=3}=P{+++}=(0.2)(0.4)(0.5)=0.04
(можно построить график по табличке)
Графическое изображение ряда распределения называется многоугольником распределения.
Для его построения надо: для любого возможного значения с.в. восстанавливается перпендикуляр к оси абсцисс на котором откладывается вероятность данного значения величины. Полученные точки соединяются отрезками прямых.
16.Функция распределения случайной величины. Её свойства.
Ряд распределения с.в. может быть построен только для дискретной с.в.
Для непрерывной с.в. ряд распределения не может быть построен т.к множество возможных значений такой величины не счётно.
Наиболее общей формой закона распределения для всех с.в. является функция распределения.
Функцией распределения с.в. x называется функция F(x) заданная на всей числовой оси и представляющая собой вероятность того, что с.в. примет значение меньшее чем заданное x. F(x)=P(X<x).
Геометрически ф-я распределения интерпретируется как вероятность того что случайная точка X попадет левее заданной точки x.
Свойства функции распределения:
1. F(x) ≥ 0 следует из определения.
2. F(x) неубывающая функция своего аргументы, те при x2>x1 F(x2) ≥F(x1)
Док-во: рассмотрим на Ox точки x1 и x2, причем x2>x1.
Событие C={x<x2} представим как сумму двух несовместных событий C=A+B,
где A={x<x1} B={x1 ≤X<x2}
P(C)=P(A)+P(B);P(X<x2)=P{X<x1}+P{x1 ≤X<x2}
F(x2)=F(x1)+ P{x1 ≤X<x2}; P{x1 ≤X<x2}= F(x2)-F(x1),
вероятность не может быть отрицательной ⇒ F(x2) ≥F(x1).
3. P{a ≤X<b}= F(b)-F(a)
Док-во: подставим случ.событие в виде {X<b}={X<a}+{ a ≤X<b} по аксиоме аддитивности получим P{X<b}=P{X<a}+ P{a ≤X<b}; P{a ≤X<b}=F(b)-F(a) т.е. вероятность того что с.в. X в результате опыта попадет на [a,b) равна приращению функции распределения на этом участке.
4. F(x) непрерывна слева т.е. F(x)=F(x0)
Док-во: выберем какую-нибудь возрастающую последовательность x1<x2<…<xn<… сходящуюся к x0 т.е xn→x0. An={xn≤X<x0} ясно, что Ai<Aj при i>j и пр-е всех событий есть невозможное событие т.е. An=∅; по аксиоме непрерывности P(An)=P(∅)=0
с другой стороны P(An)= {F(x0)-F(xn)}=F(x0)- F(xn)=F(x0)-F(x-0)=0; F(x)=F(x0)
5. F(x)=0 ; F(x)=1
Док-во: рассмотрим следующее событие ∅ ;P(∅)=0
F(x)=0 ; ; ; F(x)=1
6. Функция распределения может иметь не более чем счетное число скачков.
Скачком в т. x0 называется F(x0+0)-F(x0-0)=c0 ; 0<c0<∞
7. P{X=x}=F(x+0)-F(x-0)
Для непрерывной с.в. функция распределения которой является непрерывной,
имеем P{X=x}=0 ; F(x+0)-F(x-0)=0
Для дискретной с.в. вероятность P{X=xi}=Pi где xi всевозможные значения с.в. pi вероятность принять эти значения и F(x+0)-F(x-0)>0
8.Функция распределения дискретной с.в. меняется скачком на велечину Pi в точках возможных
значений с.в. и остается постоянной вне этих точек.
Т.о. видим что любая функция распределения является неубывающей непрерывной слева и удовлетворяющей условию 0≤F(x) ≤1.
Верно и обратно: любая функция удовлетворяющая перечисленным условиям может рассматриваться как функция распределения некоторой с.в.
17.Функция распределения дискретной случайной величины. Примеры законов распределения дискретной случайной величины.
Зная ряд распределения дискретной с.в. легко построить функцию распределения и обратно
Пример: Ряд распределения с.в. x число работающих технических устройств имеет вид:
xi |
0 |
1 |
2 |
3 |
pi |
0.24 |
0.46 |
0.26 |
0.04 |
Будем задавать различные значения с.в. X и находить для них функцию распределения F(X)=P(X<x). Значения X разобьем на 5 интервалов:
1) x≤0 ; F(x)=0 т.к. число работающих т.у. не может быть отрицательным
2) 0<x≤1 тогда событие {X<x}={X=0} поэтому F(x)=P{X=0}=0.24
3) 1<x≤2 {X<x}={X=0}+{X=1} и применяя теорему к несовместным событиям получаем F(x)=P{X<x}=P{X=0}+P{X=1}=0.24+0.46=0.7
4) 2<x≤3 {X<x}={X=0}+{X=1}+{X=2} F(x)=P{X<x}=P{X=0}+P{X=1}+P{X=2}=0.24+0.46+0.26=0.96
5) x>3 ; F(x)=P{X<x}=P{X=0}+P{X=1}+P{X=2}+P{X=3}=0.24+0.46+0.26+0.04=1
(построить график) функция имеет 4 скачка,которые происходят в точках отвечающим четырем возможным значениям с.в. и по величине равны вероятностям этих значений. Между скачками функция сохраняет постоянное значение.
Функция распределения любой дискретной с.в. есть разрывная ступенчатая функция, скачки которой происходят в точках, соответствующих возможным значениям с.в. и равны вероятностям этих значений. Сумма всех скачков функции F(X) равна 1.
В общем виде функция распределения дискретной с.в.
, Pi=P{X=xi}
Примеры законов распределения дискретной с.в.
0 |
1 |
1-p |
p |
Рассмотрим простейшую функцию распределения д.с.в. которая называется индикатором события. Индикатором события A называется случайной величины I=1, если в результате опыта A произошло и I=0, если A не произошло и I:
эта функция распределения имеет два скачка в точке 0 - 1-p, а в точке 1 p.
F(x)
1
1-p
p
1
x
f(x)
x
18. Непрерывная случайная величина. Плотность распределения.
Пусть дискретная случайная величина Х имеет очень много возможных значений, расположенных близко друг к другу на числовой оси.
Построим ф-ю распределения F(x)
По мере увеличения числа значений случайной величины и уменьшения интервалов между ними, число скачков становится все больше, а сами скачки все меньше. Ступенчатая линия ф-ии распределения приближается к плавной непрерывной. Идеальным является случай когда F(x) непрерывна.
Опр1: случайная величина Х называется непрерывной если ф-я распределения не только непрерывна в точке, но и диф-ма всюду, кроме тех точек где она терпит излом.
Т.к. для таких с.в. ф-я F(x) нигде не имеет скачков то вероятность любого отдельного значения с.в. равна 0. P{X==0 для всех . (1)
Для непрерывной с.в. бесполезно говорить о распределении вероятностей мн-ву её значений. Для н.с.в. имеет смысл плотность распределения или плотность вероятности.
Опр2: плотностью распределения непрерывных с.в. Х в точке x н-ся производная её ф-ии распределения в этой точке. (диф-й з-н распределения).
f(x) существует только для непрерывной с.в.
График плотности распределения н-ся кривой распределения.
f(x)
x
x
dx
Рассмотрим непрерывную с.в. Х с плотностью f(x) и некоторый элементарный участок dx примыкающий к т. x.
Вероятность попадания с.в. на участок dx равна f(x), эта величина н-ся элементом вероятности для т. x.
Геометрически эл-т вероятности приближенно равен площади элементарного прямоугольника, опирающегося на dx.
f(x)
x
a
b
Очевидно, что вероятность попадания с.в. X на отр. (a,b) равна сумме эл-ов вер. На всем этом уч-ке т.е. P{a<X<b}= (3)
Ф-ла (3) есть вероятность которая равна площади ограниченной своей кривой распределения и опирающаяся на участок (a,b).
Формула (3) дает возможность выразить ф-ия распределения через плотность распределения.
f(x)
x
a
b
F(x)=P(X<x)=P(-∞<X<x)= (4) (интегральный закон распределения)
В геометрической интерпретации ф-я
распределения равна площади ограниченной
сверху кривой распределения лежащей
левее т. x.
1) плотность распределения неотрицательная ф-ия f(x) ≥ 0, это свойство следует из определения плотности: производная неубывающей функции не может быть отрицательной.
2) - условие нормировки.
Док-во: это свойство следует из формулы (4), если положить в ней x>+∞ и учесть что F(+∞) =1.
Геометрически эти св-ва плотности f(x) интерпретируются так:
1) вся кривая распределения лежит не ниже 0x
2) полная площадь ограниченная кривой распределения и 0x равна 1.
19. Примеры законов распределения непрерывной случайной величины.
Равномерное распределение
Это распределение при котором все значения с.в. в области её существования (н-р интервале [a,b]) равновероятны.
Ф-я распределения для такой с.в. имеет вид:
M(x)= ; D(x)=
Нормальное распределение (з-н Гаусса)
Это распределение имеет место когда на формирование с.в. сказывается влияние мн-во разнообразных но одинаковых по своему воздействию факторов.
С.в. X называется нормальной если её плотность вероятности имеет вид:
f(x)=
M(x)=a; D(x)=
Если a=0 и σ=1 то распределение называется стандартным.
Распределение непрерывной случайной величины X называется показательным (экспоненциальным), если плотность вероятности этой величины описывается функцией:
Соответственно функция распределения имеет вид:
M(x)=1/λ; D(x)=1/
f(x)= exp{-}, x≥0, σ>0
F(x)=1- exp{-}, x≥0
M(x)= ; D(x)=2
20. Числовые характеристики случайных величин (мат. ожидание и его свойства, дисперсия и её свойства).
Достаточно на практике указать отдельные числовые параметры, характеризующие существенные числовые параметры:
1) Среднее - вокруг которого разбросаны значения с.в.
2) Число характеризующее величину этого разброса
Опр1 числа в сжатой форме выражающие наиболее существенные черты распределения на-ся числовыми характеристиками.
Опр2 мат. ожиданием или средним значением с.в. X заданной на вер-ом пр-ве (Ω,A,P) называется число M[X]= = (1)
Из определения м.о. следует что M[X] всегда ∃ если M|[X]|<∞
Если F(X) ступенчатая ф-я, т.е. рассматривается д.с.в., то интеграл (1) превращается в сумму M[x]=; P{x=}=
1. Для ∀ константы C: M[CX]=CM[X] и M[C]=C
2. Если а и b = const , то M[a+bX]=a+bM[X]
3. М.о. двух с.в. равно сумме м.о. слагаемых M[X+Y]=M[X]+M[Y],
это сво-во обобщено для n слагаемых: M[X1+…+Xn]=M[X1]+…+M[Xn]
4. М.о. произведения 2х независимых с.в. равно произведению их м.о. M[XY]=M[X]M[Y],
это сво-во обобщено для n множителей: M[]=
Опр3 модой с.в. наз-ся её наиболее вероятное значение, т.е. для которого вероятность Pi или плотность расп-я f(x) достигает максимума.
Если или f(X) достигает максимума в нескольких точках, то распределение н-ся полимодальным
Опр4 медианой непрерывной с.в. X н-ся такое её значение что P{X< }= P{X> }=1/2 Т.е. одинаково вероятно окажется ли с.в. больше или меньше .
Для симметричных распределений M[X], - мода и совпадают.
Опр1 Дисперсией D[X] с.в. X называется мат. ожидание квадрата отклонения с.в. относительно её мат. ожидания D[X]==M[(X-M[X]] (1)
Для определения дисперсии можно использовать формулу D[X]=M[]-[X] (2)
Вывод ф-лы (2):
Опр2: Дисперсия равна разности между м.о. квадрата с.в. X и квадрата её м.о. (формула (2))
Дисперсия рассчитывается по формулам: D[X]
Дисперсия имеет размерность квадрата с.в., это не удобно, поэтому используется величина называемая средне-квадратическим отклонением (с.к.о.) или стандартным отклонением с.в. и обозначается σ =σ[X]= =+
Отклонением называют разность между с.в. и её мат. ожиданием (c кружочком вверху);
Стандартизированной с.в. называется с.в. X если =0,
1. Дисперсия не с.в. равна 0.
Док-во: D[C]=M[(C-M[C]]=M[0]=0
2. D[X]≥0
Док-во: D[X]=M[(X- ]≥0
3. Константу можно выносить за знак дисперсии, возводя её в квадрат D[XC]=
Док-во: D[CX]=M[(CX-M[CX]]=M[(X-M[X]]=[(X-M[X]]=D[X]
4. Дисперсия обладает аддитивностью: D[X+Y]=D[X]+D[Y]
Док-во: D[X+Y]=M[(X+Y]-[X+Y]=M[+ M[+2M[X]M[Y]-[X]-2M[X]M[Y]- [Y]= M[-[X]+ M[- [Y]= D[X]+D[Y]
21. Моменты случайных величин. Квантиль распределения.
Начальным моментом к-ого порядка распределения с.в. Х (если он ∃) называется действительное число определённое по формуле: где
Центральным моментом к-ого порядка распределения с.в. Х (если он ∃) называется число определённое по формуле: :
Очевидно что для ∀ с.в. центральный момент 1-ого порядка равен 0: .
Между центральным и начальным моментами существует связь. Выведем ф-лы для д.с.в. (для н.с.в. аналогично при замене на х, на )
пользуясь ф-лой куба разности найдём :
Третий центральный момент служит для характеристики асимметрии распределения.
Он имеет размерность . Чтобы получить безразмерную характеристику делят на куб средне-квадратичного отклонения. ().
Слева третий ц.м.
справа - четвёртый
Четвёртый центральный момент служит для характеристики островершинности/плосковершинности графика распределения. Применяется для н.с.в. Характеризуется с помощью коэффициента эксцесса. ().
(-3 т.к. для нормального распределения и )
Квантилью уровня р ф-ии распределения с.в. называется минимальное значение при котором ф-я распределения F(x) не меньше значения р где р∈(0,1) т.е.
на рисунке указаны квантили
уровней α, β, γ некоторой ф-ии
распределения F(x)
Если ф-я распределения строго монотонная и непрерывная то квантиль является единственным решением уравнения F()=p
Квантиль уровня р= называется медианой. Квантили уровня р= и р= называются квартилями.
Квантили уровня р=0,1 р=0,2 р=0,3 - децили. По децилям можно составить представление о виде ф-ии распределения.
Если плотность распределения существует, симметрична относительно оси Оу и положительна на оси Ох то
Для д.с.в. квантиль распределения определяется не однозначно. В качестве квантиля берётся значение для которого F()<p и F()>p
22. Многомерные (векторные) случайные величины. Функция распределения и её основные свойства.
Многомерной с.в. или случайным вектором называется упорядоченная совокупность скалярных
с.в. где - координата случайного вектора.
Пусть - с.в. заданные на вероятностном пространстве (Ω,А,Р) каждому элементарному событию эти с.в. ставят в соответствие n-мерный вектор ().
Опр: отображение Ω → задаваемое с.в. называется случайным вектором или многомерной с.в.
Векторную с.в. заданную на вероятностном пространстве (Ω,А,Р) можно представить как совокупность измеримых функций ().
Векторная ф-я ставит в соответствие некоторой точке из Ω некоторую точку из
Векторная с.в. считается заданной если задана область её возможных значений и закон распределения.
Измеримость ф-ий позволяет определить вероятность того что векторная с.в. принадлежит некоторому множеству В:
Ф-ей распределения n-мерного случайного вектора или ф-ей совместного распределения
с.в. называется неслучайная ф-я n действительных переменных определяемая как вероятность совместного выполнения n неравенств:
В частном случае для двухмерного случайного вектора (Х,У) имеем
Свойства:
1.
2. - условия
согласованности
3. - условие нормировки
4. - неубывающая ф-я своих аргументов
5. - непрерывная слева по каждому из аргументов
6. Вероятности попадания случайной точки на плоскости (Х,У) в прямоугольник со сторонами параллельными осям координат может быть вычислена по формуле:
23. Многомерная плотность вероятности.
Если компоненты вектора - непрерывные с.в. то может быть определена многомерная плотность вероятности этого вектора.
Опр: плотность распределения случайного вектора или плотность совместного распределения называется n-мерная смешанная частная производная ф-ии распределения, взятая один раз по каждому аргументу:
1.
2.
3. - условие нормировки
3. - свойство согласованности
т.о. из многомерной плотности вероятности можно найти одномерную для ∀ компоненты вектора
Элементом вероятности для системы с.в. в точке называется величина приближённо равная вероятности попадания в элементарную область n-мерного пространства с размерами примыкающую к точке т.е.
Вероятность попадания случайной точки в произвольную область D выражается n-кратным интегралом по D:
24. Многомерные вероятности.
Если все компоненты вектора - д.с.в.
то можно задать многомерную вероятность этого вектора так:
P(,…,)=P( =, … , = ) (1)
Если число возможных значений координат вектора конечно, то вероятности (1) можно представить в виде многомерных таблиц.
1 P()
2 - условие нормировки
3
25. Независимость случайных величин.
Опр: с.в. называется независимыми, если для набора событий ,где подмножества числовой прямой ,выписывается равенство:
След. теорема также может служить определением независимости с.в.
Тh1: с.в. независимы тогда и только тогда, когда в любой точке соблюдается равенство
Если с.в. непрерывны, то важный критерий непрерывности содержится в теореме 2.
Th2: пусть с.в. имеют плотности , тогда для независимости с.в. необходимо и достаточно ,чтобы плотность вектора равная (3)
Если д.с.в. то условие независимости запишется в виде:
26. Условный закон распределения. Условная плотность.
Опр: пусть случ. вектор. Условным законом распределения одной из координат этого вектора наз-ся её з-н. распр-я, вычисленный при усл. что другая случайнаяя координата приняла определённое значение или попала в какой-то интервал
условная вероятность, т.е. это вер-ть события при условии что она может быть названа условной ф-ей распр-я с.в. при условии
Обозначим это условная ф-я распределения, тогда
(1)
Если в качестве первой координаты взять с.в. то по аналогии с (1) получим
(2)
На практике применяют другой вид усл. закона распр-я: закон распр-я одной из с.в.при условии, что другая приняла вполне опр-е зн-е.
Вычислим такой закон для истины двух д.с.в. Он образован усл. вероятностями
или
эти усл. вер-ти найдем по след. формуле:
эту ф-лу применим для нахождения усл. вер-ти того, что с.в. при усл. что
(3)
(4)
Совокупность вер-тей (3) для представляет собой условный ряд распр-я с.в.
при усл. что .Аналогично для форм. (4).
Этот ряд обладает св-ми обычного ряда распр-я, а именно: образующих вер-тей равна 1
Рассмотрим систему 2х зависимых непрерывных с.в. (X,Y) можно док-ть что их совместная плотность равна произведению плотностей одной из них на усл. плотность другой при задании значении первой:
(5) или (6)
где это усл. плотность с.в y при усл. что X=x и аналогично.
Из формул (5) и (6) вытекают формулы выражающие условные плотности распр-я:
(7)
т.е. чтобы получить усл. плотность распр-я одной из с.в. входящих в систему надо разделить совместную плотность на плотность другой с.в.
Ранее пол-ые ф-лы (1)-(7) можно обощить на n-мерный случай:
Для д.с.в. имеем: (8)
Для н.с.в. усл. плотность выч-ся по формуле: (9)
Т.е. условной пл-ю распр-я системы наз-ся плотность распр-я этой подсистемы при усл. что остальные эл-ты системы приняли опр-ые знач-я: .
27. Числовые характеристики системы двух случайных величин. Ковариация и коэффициент корреляции.
В качестве числовых характеристик с.в. (X,Y) обычно рассматриваются начальные и центральные моменты различных порядков.
Начальным моментом порядка k+s системы с.в. (X,Y) называется мат. ожиданием пр-я , .
= M[] (1).
Центральным моментом порядка k+s системы случайных величин (x,y) называется мат. ожидание пр-я на
= M[] (2).
Для системы д.с.в. получим:
= (3).
= (4) , где = P{x = ; y = }.
Для системы н.с.в.:
= f(x,y) dx dy (5). (6).
Порядком начального или центрального момента называется его индексов k + s.
= M[, ] = M[x] = ; = M[, ] = M[y] = ; (7).
Центральные моменты первого порядка равны 0.
=0, =0.
Центральные моменты второго порядка:
= M[] = M[] = ;
= M[] = M[] = ;
= M[] = (9) ; .
первые 2 момента представляют дисперсию, а последний называется ковариацией или корреляционным моментом и обозначается или cov(X,Y).
= M[] = M [] = cov(X,Y) (10)
По определению ковариации = (11)
Дисперсию можно рассматривать как частный случай ковариации.
= M[] = M[] = ; = M[] = M[] = (12).
т.е. дисперсия с.в есть ковариация с самой собой.
Для н.с.в ковариация равна 0.
Док-во: по определению (10)
для н.с.в. доказано что т.о. = (x) dx (y) dy.
Каждый из интервалов пред-ет собой первый центральный момент которые равны нулю. = = 0;
Ковариацию удобно выразить в следующем виде: = M[Х У] M[Х]M[У] (13).
Размерность ковариации равна произведению размерностей с.в X и Y. Чтобы получить безразмерную величину, характеризующую зависимость м-у с.в. ковариацию делят на .
= (14) коэффициент корреляции.
Этот коэффициент характеризует степень линейной зависимости этих величин. Зависимость такова, что при возрастании одного другая проявляет тенденцию так же возрастать () или убывать (). И говорят, что с.в связаны положительной корреляцией (1 случай) отрицательной корреляцией (2 случай).
Если ковариация 2х с.в равна 0 , то с.в. называются некоррелированными.
Если Из независимости с.в следует их некоррелированность. Но обратное не верно.
Свойства коэффициента корреляции:
1. ρ(x,x) = = 1
2. Пусть = + = + , где ≠ 0, тогда
ρ() = = ±p() (“+” если одного знака, “-” иначе).
3. Если X и Y независимы и ∃ D[x] > 0 и D[y] > 0, то ρ (x,y) = 0.
4. -1< ρ(x,y)<1.
5. ρ(x,y) = ±1 тогда и только тогда, когда с.в. Х и У зависимы.
Для вычисления сov д.с.в. используют формулу: cov(x,y) =
для н.с.в.: cov(x,y) = .
28. Ковариационная и корреляционная матрицы, их свойства.
В большинстве инженерных приложений вместо законов распределения полной исчерпывающей характеристики с.в рассматривается её важнейшие числовые характеристики:
1. n мат. ожиданий : = M[]; = M[]; … = M[];
для векторной с.в: M[] = ().
2. N дисперсий: [], [], … [],
для векторной с.в.: D[] = ().
3. n(n-1) ковариаций: = M[] ( i ≠ j ).
D[] = M[] = M[] = .
Ковариация вместе с дисперсиями образует матрицу ковариаций
т.е таблицу состоящую из n строк и n столбцов.
||||= (1)
1. Т.к. = => матрица (1) симметрична относительно глав диагонали.
2. По глав диагонали стоят дисперсии = .
Матрица (1) ввиду симметричности заполняют на половину.
3. Если с.в попарно некоррелированы т.е. при i ≠ j то матрица (1) имеет вид
||||= (2) такая матрица называется диагональной.
Часто используют матрицу составленную из коэф. корреляций.
|||| = (3)
= / = /= /
1. = - симметричная.
2. По глав. диаг. 1 т.к. = = = .
3. Если с.в , попарно некорреллированы, т.е. = 0 (i ≠ j) то матрица принимает вид
= (5) такая матрица называется единичной.
29. Числовые характеристики n-мерного случайного вектора.
Если известен закон распределения системы с.в , , то можно найти числовые характеристики. d .
d .
= d .
Кроме числовых характеристик относящихся к одному случайному векторов в теории вероятности применяют числовые характеристики 2х случайных векторов одинаковой размерности n и k:
мат.ожид, дисперсии, ковариационные матрицы.
Помимо этих числовых характеристик рассматривается взаимная ковариационная матрица, элементами которой являются ковариации.
= M[] () (1) элемент матрицы.
Матрица (1) прямоугольная . При n=k матрица квадратная, но она не обязательно симметричная относительно главной диагонали.
Опр: два случайных вектора и называются независимыми, если все составляющие одного из них не зависят ни от одной из составляющих другого.
называются некоррелируемыми если все элементы их взаимной корреляционной матрицы определяемой по формуле (1) равны 0.
Можно показать, что если случайные векторы независимы, то они и некоррелируемы.
30. Числовые характеристики функций случайных величин.
Пусть имеется вероятностное пространство (Ω,А,Р) и на нём ∃ с.в. Х - скалярная или векторная.
Пусть задана некоторая измеримая ф-я Y=y(X) - скалярная или векторная.
Необходимо определить:
1. з-н распределения ф-ии У
2. числовые характеристики с.в. У если известен закон распределения с.в. Х.
(Такие задачи встречаются в инженерной практике)
Моменты с.в. можно найти по следующим формулам:
Аналогично определяются начальный и центральный моменты с.в. У:
Для векторных с.в. эти ф-лы записываются следующим образом:
31. Теоремы о числовых характеристиках функций случайных величин.
Эта ф-ла справедлива для ∀ с.в., зависимых, независимых, коррелирующих, не коррелирующих и для суммы ∀ счётного числа с.в.
где - не случайные величины ()
т.к. ковариационная матрица симметрична относительно главной диагонали, то эту ф-лу можно представить:
Следствие: если с.в. не коррелируемы, то справедлива следующая теорема:
Th сложения дисперсий:
где - не случайные величины ()
- элемент ковариационной матрицы
Следствие: если то дисперсия линейной ф-ии вычисляется по ф-ле:
Следствие: если не коррелируют () то
для n не коррелирующих сомножителей
Для центрированных с.в. эта ф-ла примет вид:
32. Функция распределения случайного аргумента.
Для нахождения рапределения функции случайного аргумента, предположим, что с.в.(как скалярная, так и векторная) явл-ся действительными. Способы нахождения распределения функции Y=φ(x) основаны на след. положении: чтобы с.в. Y попала на множество B необходимо и достаточно чтобы с.в. X попала на множество AB, где AB={x:φ(x) ∈B} прообраз множества B. AB= φ-1(B)
В зависимости от выбора множества B получаются разные способы нахождения распределения с.в. Y. В частности если B={Y<y}, то вероятность попадания с.в. X на соотв множество AB=Ay={x:φ(x)<y} будет представлять собой функцию распределения функции случайного аргумента Y=φ(x). При этом функция φ(x) должна быть измеримой,а также дифференцируемой и непрерывной. G(y)=P{φ<y}=P{X∈AB} ; AB={x:φ(x)<y}, здесь G(y) функция распределения.
33. Законы распределения функции одного случайного аргумента.
Имеется непрерывная с.в. X с плотностью вероятностей f(X), с.в. Y= φ (x) (1). Требуется найти закон распределения с.в. Y. Пусть φ (x) строго монотонна, непрерывна и дифференцируема в интервале (a,b) всех возможных значений с.в. X. Функция распределения с.в. Y определяется по формуле G(Y)=P{Y<y} (2) Пусть функция φ (x) монотонно возрастает на всем участке возможных значений с.в. X
Из графика видно что событие {Y<y} эквив-но событию {X< ψ(y)}, где ψ(y)=x функция, обратная к функции φ (x)=y. Из строгой монотонности φ (x) следует однозначность функции ψ(y). G(y)=P{Y<y}=P{X< ψ(y)}= (3) Дифференцируя (3) по y, входящей в верхний предел интеграла получим плотность распределения с.в. Y. g(y)= (4) Если φ (x) на (a,b) монотонно убывает, то событие {Y<y} эквивалентно событию {X> ψ(y)}.G(y)=(5). Дифференцируем (5) по y и получим g(y)= (6) плотность распределения. Так как плотность не может быть <0 то формулы (4) и (6) можно объединить: g(y)=f(ψ(y))*
*|ψ(y)| (7)
Рассмотрим случай когда функция φ (x) на (a,b) не монотонна. В этом случае обратная функция x= ψ(y) неоднозначна.Число значений обратной функции ψ(y) зависит от того, какой y мы выбрали. Обозначим эти значения ψ1(y), ψ2(y),…,ψi(y)… Событие {Y<y} равносильно попаданию с.в. X в один из не перекрывающихся отрезков, отмеченных жирной линией, где соответствующая часть кривой y=φ(x) лежит ниже прямой y. В нашем случае это будут отрезки (a;ψ1(y)), (ψ2(y); ψ3(y)), (ψ4(y); ψ5(y)). Последний отрезок может кончаться в точке b, а может в одной из точек ψi(y). Попадание с.в. X в эти отрезки события не совместные. По правилу сложения вероятностей имеем: G(y)=P{Y<y}=P{X ∈(a, ψ1(y)}+ P{X ∈(ψ2(y); ψ3(y))}+ P{X ∈(ψ4(y); ψ5(y))}+… ; G(y)=… (1) Учитывая правила дифференцирования интеграла по переменной, входящей в него пределы получим : g(y)=f(ψ1(y)) ψ1(y)-f(a)+ f(ψ3(y)) ψ3(y)- f(ψ2(y)) ψ2(y) (2) В тех точках, где φ (x) пересекла прямую y убывает производная ψ(y) отрицательна, где φ (x) возрастает ψ(y) положительна. Производные от постоянных a и b равны 0 поэтому безразлично фигурируют ли точки a и B в виде конца или начала. Все члены в формуле (2) положительны и она принимает простой вид g(y)=f(ψi(y))|ψi(y)| (3) где k-число значений обратной функции соответствующее данному у (ψ1(y)… ψk(y))
x1 |
x2 |
… |
xn |
p1 |
p2 |
… |
pn |
Рассмотрим когда X д.с.в. с рядом распределения
φ(x1) |
φ(x2) |
… |
φ(xn) |
p1 |
p2 |
… |
pn |
Некоторое подобие ряда распределения с.в. Y=φ(x) даст таблица
Чтобы сделать из нее ряд распределения нужно:
1) расположить значения, стоящие в верхней строке в порядке возрастания
2) объединить те из них, которые окажутся равными
3) сложить соотв. вероятности
-2 |
-1 |
0 |
1 |
2 |
0.3 |
0.1 |
0.1 |
0.3 |
0.2 |
Полученный ряд и будет рядом распределения с.в. Y
Пример: дан ряд X, построить ряд распределения Y=X2
4 |
1 |
0 |
1 |
4 |
0.3 |
0.1 |
0.1 |
0.3 |
0.2 |
Y: 0 |
1 |
4 |
0.1 |
0.4 |
0.5 |
Решение: не упорядоченный ряд распределения имеет
Ряд распределения с.в.Y
вид
34. Характеристические функции. Определение и свойства характеристических функций.
Наряду с вещественными с.в. можем рассматривать и комплексные с.в.
Под комплексной с.в. X будем понимать функцию X=X1+iX2, где X1 и X2 действит. с.в. (X1,X2) случайный вектор; M[X]=M[X1]+iM[X2] Рассмотрим комплексные с.в.
x=x1+ix2 y=y1+iy2 Комплексные с.в. X и Y независимы если векторы (x1,x2) и (y1,y2) независимы, т.е. компоненты векторов независимы. M[XY]=M[X]M[Y] если X и Y независимые с.в.
Характеристической функцией вещественной с.в. X называется комплекснозначная функция действительного аргумента t. EX(t)=M[eiXt]=
EX(t)= =
Характеристическая функции существует для любой с.в. так как
|EX(t)|=| |≤|eitX|df(x) ≤1
35. Характеристическая функция векторной случайной величины, её свойства.
Опр. Пусть X=(,, … ,) случайный n-мерный вектор имеющий функцию распределения (,, … ,)
Характеристической функцией векторной с.в. по определению называется функция n действительных переменных (, … , ) определенная выражением
()=M[exp(i)], ={, … , }
н.с.в.: ()= d, … ,
д.с.в.: тогда функция определяется соответственно многомерным суммам.
=
Зам: х.ф. содержит всю информацию о с.в. => полностью определяет её.
36. Формула обращения и теорема единственности.
По ф-ии распределения с.в. X можно найти её характеристическую функцию и наоборот, по характеристической функции однозначно определяется ф-я распределения.
Th1 (формула обращения):
Пусть F(X) ф-я распределения с.в. X, (t)- характеристическая функция с.в. X
Если и точки непрерывности функции F(X) то
F()-F()= (t)dt
Следствие:
если ∃ плотность f(x) с.в. X характеристическая функция вычисляется по формуле: (t)=
В свою очередь плотность f(x) может быть определена по формуле:
f(x)=(t)dt
Th2 (единственности):
Функция распределения однозначно определяется своей характеристической функцией.
Док-во: из Th1 следует что в каждой точке непрерывности функции F(x) применима формула
F(X)=(t)dt
где предел по y берется по множеству т. y являющихся точками непрерывности ф-ии F(x).
37. Производящая функция и её свойства.
Пусть дискретная с.в. принимает значения ,, … с вероятностями
Распределение вероятностей {} представляет собой набор чисел (, …) таких что
≥0 ∀k, =1
Этому распределению поставим в соответствие комплексную функцию 𝜑(z) комплексного аргумента z.
Эта функция определена в круге |z|<1 степенным рядом 𝜑(z)=
Такая функция 𝜑(z) называется производящей функцией распределения {}
dz , k=1,2, …
Или по формуле:
= (0)
е. отображение 𝜑(z), |z|≤1 является взаимно-однозначным.
Док-во: =; 𝜑(z)===M[X]
Док-во: пусть для ∀k,
𝜑(z)==-= M[]-M[X]
т.к. по св-ву (4) M[X]= 𝜑(1), то M[]= 𝜑(1)+ 𝜑(1)
Док-во: (z)=M==(z)
38. Виды сходимости последовательностей случайных величин.
Пусть - послед-ть с.в. заданная на вероятностном пространстве
Пусть на этом пространстве задана с.в. X
Опр1: послед-ть с.в. наз-ся сход-ся по вероятности к с.в. X если для вер-ть
(1)
Опр2: послед-ть с.в. сходится почти наверное (почти всюду ,с вер-тью 1) и с.в. X если
(2) т.е это означает, что мн-во исходов для которых не сходится к имеет нулевую вер-ть
Опр3: посл-ть с.в. наз-ся сходящейся в среднем порядка к с.в. X
если (3)
если то сх-ть (3) наз-ся сходимостью в среднем квадратическом.
Сходимость в среднем порядка обозначается
Опр4: посл-ть с.в. наз-ся сходящейся по распределению к с.в. X если во всех точках x где F(x) непрерывна вып-ся усл.: (4)
39. Центральная предельная теорема.
Th: пусть послед ть независимых, одинаково распределенных с.в. с мат. ож-ием
и дисперсией
тогда при
(1)
ф-я стандартного норм. распр-я.
Док-во: пусть , утв-е теоремы означает, что
(нормальный закон распр-я)
подставим в
Пусть характерист. ф-я центрированной с.в. тогда
(*) разложим характеристич. ф-ю в ряд Макларена:
Подставляем в разложение подставим в (*)
характ. ф-я с.в. распределенной по нормальному закону с
и
по теореме единственности однозначное соответствие между
xарактеристич. ф-ей и ф-ей распр-я.
Т.о.
40. Интегральная теорема Муавра-Лапласа.
Является следствием из центральной предельной теоремы
Теорема: - суммарное число успехов в n испытаниях по схеме Бернулли с вер-ю успеха р и вер-ю неудачи q = 1-p. Тогда с ростом n пос-ть ф-ии распределения случайной величины сходится по распределению функции стандартного нормального распределение, т.е.
Док-во:
Пусть - число успехов в испытании Бернулли.
Тогда M[] = p, D[] = pq. Представим и, используя утверждение центральной предельной теоремы (, где ф-я стандартного норм.распр-я ), приходим к утверждению теоремы.
41. Закон больших чисел: не-во Чебышева, теоремы Чебышева, Хинчина, Маркова.
Нер-во Чебыышева: Лемма: Пусть (Ω, A, P) вер-е пр-во. Пусть есть с.в. Х с м.о. и дисперсия тогда ∀ℇ>0 справедливо P(|x- |≥ ℇ)≤ (1) нер-во Чеб-шева, оно утверждает, что ∀ℇ>0 вер-ть того, что с.в. отклонится от своего мат. ож. Не меньше, чем на ℇ, ограничена сверху величиной .
З-н больших чисел: Под этим назв-ием в т.в. ∃ группа Т., утверждающих, что среднее арифметич. с.в. сходится по вер-ти и неслучайной велич. при неограниченномувелич-ии числа слога-ых.
Т. Чебышева: (збч) Если посл-тьнезвав-ыходинакого распределённых с.в. имеющих конечные дисперсии, ограниченной одной и той же постоянной D[]≤C…D[]≤C, то ∀ℇ>0 {|-|<ℇ}=1
Д-во: в условиях теоремы D[]=]=>D[]≤ согласно нер-ву Чебышева (1) имеем P{|- |<ℇ}≥1-≥1- переходя к пределу получаем:
{|- |<ℇ}≥1, а т.к. вер-ть не может быть >1, то =1
Т. Хинчина: Если посл-ть попарно независимых с.в. такова, что M[]=…= M[]=m
D[]≤… ≤D[]≤cто∀ℇ>0{|- m|<ℇ}=1 это есть усл-иесх-ти по вер-тиm
Этот частный случай Т.Чеб-ва даёт основания правилу среднего арифметического.
Т. Маркова (з.н. бол-их чисел в общей формул-ке): Если посл-ть произвольных с.в. такова, что при noo0, то ∀ℇ>0{|- |<ℇ}=1
Если с.в. попарно нез-мы, то усл-е Маркова принимает вид 0при noo
Из Т.М. видно, что Т.Ч. является её частным случаем.
42. Следствия закона больших чисел: теоремы Бернулли и Пуассона
Т. Бернулли: Если событие А происходит в каждом опыте с вер-ю Р(А)=р, то частота появления этого события сход-ся по вер-ти и p при noo т.е. p
Д-во: Рассмотрим независ. с.вЧисло появлений события А в j-ом опыте
Ряд-распр-я для д.с.в имеет вид:M[]=p; D[]=pq, где q=1-p
Усл-ие Т. Хинчина выполняется =>=pт.е. p число появсл-ий события А в nопытах, деление на nдаёт частоту
Т. Б-лли утверждает устойчивость частоты при постоянных усл-ях опытов. При переменных условиях опытов так же ∃ устойчивость частоты.
Т.Пуассона: Если производится n- нез. опытов и вер-тьпоявл-я соб-я А в i-ом опыте равна
то при noo частота соб-я А сход-ся по вер-ти и среднему арифметич-ому т.е. p
Д-во: с пом-ю Т. Чебышева: Пусть исследования пров-ся многократно, но изм-сяусл-я их проведения. Вер-ть зависит от условий, но сх-ся к средней вер-ти.