Поможем написать учебную работу
Если у вас возникли сложности с курсовой, контрольной, дипломной, рефератом, отчетом по практике, научно-исследовательской и любой другой работой - мы готовы помочь.

Предоплата всего

Подписываем
Если у вас возникли сложности с курсовой, контрольной, дипломной, рефератом, отчетом по практике, научно-исследовательской и любой другой работой - мы готовы помочь.
Предоплата всего
Подписываем
Результат, исход испытания называется событием. Событиями являются: выпадение герба или цифры, попадание в цель или промах, появление того или иного числа очков на брошенной игральной кости. Для обозначения событий используются большие буквы латинского алфавита: А, В, С и т.д.
Если при каждом испытании, при котором происходит событие А, происходит и событие В, то говорят, что А влечет за собой событие В (входит в В, является частным случаем, вариантом В) или В включает событие А, и обозначают АВ.
Два события называются совместимыми, если появление одного из них не исключает появление другого в одном и том же испытании.
2 события называются несовместимыми, если появление одного из них исключает появление другого в одном и том же испытании.
Несовместимость более чем двух событий в данном испытании означает их попарную несовместимость.
Два события А и В называются противоположными, если в данном испытании они несовместимы и одно из них обязательно происходит. Событие, противоположное событию А, обозначают .
Событие называется достоверным (обозначаем Ω), если в данном испытании оно является единственно возможным его исходом, и невозможным, если в данном испытании оно заведомо не может произойти. Событие называется невозможным (обозначаем Ø), если в результате испытания оно вообще не может произойти.
Событие А называется случайным, если оно объективно может наступить или не наступить в данном испытании.
Алгебра событий.
Суммой событий А и В называется событие С = А + В, состоящее в наступлении по крайней мере одного из событий А или В.
Аналогично суммой конечного числа событий А1, А2, ..., Аk называется событие А = А1+А2 + ... + Аk, состоящее в наступлении хотя бы одного из событий Аi, (i = 1, ..., k).
Из определения следует, что А + В = В + А. Справедливо также и сочетательное свойство. Однако А + А = А (а не 2А).
Произведением событий А и В называется событие С = АВ, состоящее в том, что в результате испытания произошли и событие А, и событие В.
Аналогично произведением конечного числа событий А1, А2, ..., Аk называется событие А = А1А2…Аk, состоящее в том, что в результате испытания произошли все указанные события.
Из определения непосредственно следует, что АВ = ВА. Справедливы также сочетательный и дистрибутивный законы. Однако АА = А (а не А2).
Говорят, что совокупность событий образует полную группу событий для данного испытания, если его результатом обязательно становится хотя бы одно из них.
Рассмотрим полную группу попарно несовместимых событий А1, А2, ..., Аn, связанную с некоторым испытанием. Предположим, что в этом испытании осуществление каждого из событий Аi, (i = 1, 2, …, k) равновозможно, т. е. условия испытания не создают преимуществ в появлении какого-либо события перед другими возможными.
События А1, А2, ..., Аn, образующие полную группу попарно несовместимых и равновозможных событий, называют элементарными событиями (ω).
Событие А называется благоприятствующим событию В, если наступление события А влечет за собой наступление события В.
Классическое определение вероятности. Вероятностью Р(А) события А называется отношение m/n числа элементарных событий, благоприятствующих событию А, к числу всех элементарных событий, т.е.
Р(А) = m/n.
Свойства вероятности события:
1. Вероятность достоверного события равна 1. Действительно, достоверному событию должны благоприятствовать все n элементарных событий, т.е. m = n и, следовательно, P(Ω) = m/n = n/n = 1.
2. Вероятность невозможного события равна 0. В самом деле, невозможному событию не может благоприятствовать ни одно из элементарных событий, т.е. m = 0, откуда: P(Ø) = m/n = 0/n = 0.
3. Вероятность случайного события есть положительное число, заключенное между нулем и единицей. Действительно, случайному событию благоприятствует лишь часть из общего числа элементарных событий. Поэтому в этом случае 0<m<n и, значит, 0<m/n<1. Следовательно, 0<Р(А)<1. Т.о., вероятность любого события удовлетворяет двойному неравенству: 0 ≤ Р(А) ≤ 1.
Замечание. Из определения вероятности следует, что элементарные события являются равновероятными, т. е. обладают одной и той же вероятностью.
События, вероятности которых очень малы (близки к нулю) или очень велики (близки к единице), называются соответственно практически невозможными или практически достоверными событиями.
Статистической вероятностью события А называется относительная частота (частость) появления этого события в n произведенных испытаниях, т.е.
,
Где - статистическая вер-ть события А; w(A) - относительная частота (частость) события А; m - число испытаний, в которых появилось событие А; n - общее число испытаний.
В отличие от «математической» вероятности Р(А), рассматриваемой в классическом определении, статистическая вер-ть является характеристикой опытной, экспериментальной. Если Р(А) есть доля случаев, благоприятствующих событию А, которая определяется непосредственно, без каких-либо испытаний, то есть доля тех Фактически произведенных испытаний, в которых событие А появилось.
Статистическое определение вер-ти, как и понятия и методы теории веро-тей в целом, применимы не к любым событиям с неопределенным исходом, которые в житейской практике считаются случайными, а только к тем из них, которые обладают определенными свойствами.
1) Рассматриваемые события д.б. исходами только тех испытаний, которые м.б. воспроизведены неограниченное число раз при одном и том же комплексе условий.
2) События должны обладать так называемой статистической устойчивостью, или устойчивостью относительных частот. Это означает, что в различных сериях испытаний относительная частота (частость) события изменяется незначительно (тем меньше, чем больше число испытаний), колеблясь около постоянного числа. Оказалось, что этим постоянным числом является вероятность события. Факт приближения относительной частоты, или частости, события к его вер-ти при числа испытаний, сводящихся к схеме случаев, подтверждается многочисленными массовыми экспериментами, проводимыми разными лицами со времен возникновения теории вер-тей.
3) Число испытаний, в результате которых появляется событие А, должно быть достаточно велико, ибо только в этом случае можно считать вер-ть события Р(А) приближенно равной ее относительной частоте. Резюмируя, можно сказать, что теория вер-тей изучает лишь такие события, в отношении которых имеет смысл не только утверждение об их случайности, но и возможна объективная оценка относительной частоты их появления. Так, утверждение, что при выполнении определенного комплекса условий S вероятность события = р, означает не только случайность события А, но и определенную, достаточно близкую к р, долю появлений события А при большом числе испытаний; а значит, выражает определенную объективную (хотя и своеобразную) связь между комплексом условий S и событием А (не зависящую от субъективных суждений о наличии этой связи того или иного лица). И даже просто существование вероятности р (когда само значение р неизвестно) сохраняет качественно суть этого утверждения, выделенную курсивом.
Легко проверить, что свойства вер-ти, вытекающие из классического определения, сохраняются и при статистическом определении вероятности.
Замечание: 1) Статистическая вер-ь может быть найдена только после проведения опытов, а для классической вероятности опыты не нужны. 2) Статистическая вер-ть получается различной для разных серий опытов, однако при достаточно большом количестве опытов практически достоверно, что статистическая вер-ть будет сколь угодно мало отличатся от классической вер-ти (устойчивость статистической вер-ти).
Два события называются совместимыми, если появление одного из них не исключает появление другого в одном и том же испытании.
2 события называются несовместимыми, если появление одного из них исключает появление другого в одном и том же испытании.
Суммой событий А и В называется событие С = А + В, состоящее в наступлении по крайней мере одного из событий А или В. Аналогично суммой конечного числа событий А1, А2, ..., Аk называется событие А = А1+А2 + ... + Аk, состоящее в наступлении хотя бы одного из событий Аi, (i = 1, ..., k). Из определения следует, что А + В = В + А. Справедливо также и сочетательное свойство. Однако А + А = А (а не 2А).
Теорема сложения вероятностей:
Теорема. Вероятность суммы конечного числа несовместных событий равна сумме вероятностей этих событий: Р(А + В + ... + К) = Р(А) + Р(В) + ... + Р(К).
□ Докажем теорему для схемы случаев, рассматривая сумму двух событий.
Пусть в результате испытания из общего числа n равновозможных и несовместных (элементарных) исходов испытания (случаев) событию А благоприятствует ml случаев, а событию В m2 случаев (рис. 1.4).
Согласно классическому определению .
Т.к. события А и В несовместные, то ни один из случаев, благоприятствующих одному из этих событий, не благоприятствует другому (рис. 1.4). Поэтому событию А+В будет благоприятствовать ml + m2 случаев. Следовательно, ■
Следствие 1. Сумма вероятностей событий, образующих полную группу, равна 1:
P(A) + P(B) + … + P(K) = 1.
□ Если события А,В,…,К образуют полную группу, то они единственно возможные и несовместные.
Т.к. события А,В,…,К единственно возможные, то событие А + В + … +К, состоящее в появлении в результате испытания хотя бы одного из этих событий, является достоверным, то его вероятность = 1:
Р(А + В + … + К) = 1.
Т.к. события А,В,…,К несовместные, к ним применима теорема сложения:
Р(А + В + … + К) = Р(А) + Р(В) + … + Р(К) = 1.■
Следствие 2. Сумма вероятностей противоположных событий = 1:
□ Утверждение следует из того, что противоположные события образуют полную группу. ■
Несколько событий образуют полную группу событий если в результате опыта обязательно появится хотя бы одно из них. Это означает, что в результате испытания должно произойти 1 и только 1 из этих событий.
Частным случаем событий, образующих полную группу, являются противоположные события. 2 несовместимых события из которых 1 должно обязательно произойти называются противоположными. Событие противоположное событию А обозначают .
Доказательство теоремы о полной группе событий
1) Т.к. появление одного из событий полной группы достоверно, а вероятность достоверного события = 1, то Р (A1 + A2 + ... + An) = 1.
2) Любые 2 события полной группы несовместны, поэтому можно применить теорему сложения: Р (А1 + А2 + ... + Аn) = Р (A1) + Р (A2) + ... + Р (Аn).
3) Сравнивая (1) и (2), получим Р (А1) + Р (А2) + ... + Р (Аn) = 1.
События А,Б,В... называют зависимыми друг от друга, если вероятность появления хотя бы одного из них изменяется в зависимости от появления или непоявления других событий.
События называются независимыми, если вероятности появления каждого из них не зависят от появления или непоявления прочих из них.
Событие В называется независимым от события А, если его вероятность не меняется от того, произошло событие А или нет, т.е.
РА(В) = Р(В) (или РА(В)=Р(В)).
В противном случае, если РА(В) ≠ Р(В)(или РА(В) ≠ Р(В)). событие В называется зависимым от А.
Произведением двух событий А и В называют событие АВ, состоящее в совместном появлении (совмещении) этих событий. Например, если А - деталь годная, В - деталь окрашенная, то АВ - деталь годна и окрашена.
Произведением нескольких событий называют событие, состоящее в совместном появлении всех этих событий. Например, если А, В, С - появление «герба» соответственно в первом, втором и третьем бросаниях монеты, то АВС - выпадение «герба» во всех трех испытаниях.
Условной вероятностью (РA(В) - условная вероятность события В относительно А) называют вероятность события В, вычисленную в предположении, что событие А уже наступило. Исходя из классического определения вероятности, формулу РA(В) = Р(АВ) / Р(А) где (Р(А)>0) можно доказать. Это обстоятельство и служит основанием для следующего общего (применимого не только для классической вероятности) определения. Условная вер-ть события В при условии, что событие А уже наступило, по определению, равна РA(В) = Р(АВ) / Р(А) где (Р(A)>0).
Теорема умножения вероятностей зависимых событий. Вероятность совместного появления двух событий равна произведению вероятности одного из них на условную вероятность другого, вычисленную в предположении, что первое событие уже наступило: Р(АВ) = Р(А) • РА(В) = Р(В) • РВ(А).
Доказательство
З а м е ч ан и е. Применив формулу (*) к событию ВА, получим Р(ВА) = Р(В)•РВ(А), или, поскольку событие ВА не отличается от события АВ, -> Р(АВ) = Р(В)•Рв(А).
Сравнивая формулы Р(АВ) = Р(А)•РA(В) и Р(АВ) = Р(В)•Рв(А), заключаем о справедливости равенства Р(А)•РА(В) = Р(В)•Рв(А).
Теорема (правило) умножения вероятностей легко обобщается на случай произвольного числа событий:
P(ABC...KL) = Р(А)· РА(В)· РАВ(С) ... РАВС...К(L),
Т.е. вероятность произведения нескольких событий равна произведению вероятности одного из этих событий на условные вероятности других; при этом условная вероятность каждого последующего события вычисляется в предположении, что все предыдущие события произошли.
Пример 1. У сборщика имеется 3 конусных и 7 эллиптических валиков. Сборщик взял один валик, а затем второй. Найти вероятность того, что первый из взятых валиков - конусный, а второй - эллиптический.
Р е ш е н и е. Вероятность того, что первый валик окажется конусным (событие A), Р(А) = 3 / 10. Вероятность того, что второй валик окажется эллиптическим (событие В), вычисленная в предположении, что первый валик - конусный, т. е. условная вероятность РA(В) = 7 / 9.
По теореме умножения, искомая вероятность Р(АВ) = Р(А)•РA(В) = (3/10)• (7/9) = 7/30. Заметим, что, сохранив обозначения, легко найдем: Р(В) = 7/10, РB(А) = 3/9, Р(В)•РB(А) = 7/30, что наглядно иллюстрирует справедливость равенства.
Формула полной вероятности. Теорема.
Теорема. Если событие F может произойти только при условии появления одного из событий (гипотез) A1,А2,…,Аn образующих полную группу, то вероятность события F равна сумме произведений вероятностей каждого из этих событий (гипотез) на соответствующие условные вероятности события F: |
□ По условию гипотезы А1,А2,…,Аn образуют полную группу, следовательно, они единственно возможные и несовместные. Т.к гипотезы А1,А2,…,Аn - единственно возможные, а событие F может произойти только вместе с 1 из гипотез, то
.
В силу того что гипотезы А1,А2,…,Аn несовместны, можно применить теорему сложения вероятностей:
По теореме умножения вероятностей .■
Следствием теоремы умножения и формулы полной вероятности является формула Байеса.
Она применяется, когда событие F, которое может появиться только с одной из гипотез А1,А2,…,Аn образующих полную группу событий, произошло и необходимо произвести количественную переоценку априорных вероятностей этих гипотез P(A1), Р(А2),..., Р(Аn), известных о испытания, Т.е. надо найти апостериорные (получаемые после проведения испытания) условные вероятности гипотез PF(A1),PF(А2),...,РF(Аn).
□ Для получения искомой формулы запишем теорему умножения вероятностей событий F и Аi в двух формах:
, откуда
или с учетом формулы полной вероятности: . ■
Значение формулы Байеса состоит в том, что при наступлении события Р, т.е. по мере получения новой информации, мы можем проверять и корректировать выдвинутые до испытания гипотезы. Такой подход, называемый байесовским, дает возможность корректировать управленческие решения в эк-ке, оценки неизвестных параметров распределения изучаемых признаков в статистическом анализе и т.п.
Пример: Два стрелка независимо друг от друга стреляют по мишени, делая каждый по одному выстрелу. Вероятность попадания в мишень для первого стрелка равна 0,8; для второго - 0,4. После стрельбы в мишени обнаружена одна пробоина. Какова вероятность того, что она принадлежит: а) l-му стрелку; б) 2-му стрелку?
Решение. Обозначим события:
А1 - оба стрелка не попали в мишень; А2 - оба стрелка попали в мишень; А3 - 1-й стрелок попал в мишень, 2-й нет; А4 - 1-й стрелок не попал в мишень, 2-й попал; F - в мишени одна пробоина (одно попадание).
Найдем вероятности гипотез и условные вероятности события F для этих гипотез:
Р(A1) = 0,2 · 0,6 = 0,12, РА1(F) = 0;
Р(А2) = 0,8 · 0,4 = 0,32, РА2(F) = 0;
Р(А3) = 0,8 · 0,6 = 0,48, РА3(F) = l;
Р(А4) = 0,2 · 0,4 = 0,08, РА4(F) = l.
Теперь по формуле Байеса:
, ,
Т.е. вероятность того, что попал в цель l-й стрелок при наличии одной пробоины, в 6 раз выше, чем для второго стрелка.
Если вероятность наступления события А в каждом испытании не меняется в зависимости от исходов других, то такие испытания называются независимыми относительно события А. Если независимые повторные испытания проводятся при одном и том же комплексе условий, то вероятность наступления события А в каждом испытании одна и та же. Эта последовательность независимых испытаний получила название схемы Бернулли.
Формула Бернулли
Теорема. Если вероятность р наступления события А в каждом испытании постоянна, то вероятность Рm,n того, что событие А наступит m раз в n независимых испытаниях, равна
Где .
□ Пусть и - соответственно появление и непоявление события А в i-ом испытании (i = 1,2,...,n), а - событие, состоящее в том, что в n независимых испытаниях событие А появилось m раз.
Представим событие через элементарные события .
Например, при n = 3, m = 2 событие ,
т.е. событие А произойдет 2 раза в 3 испытаниях, если оно произойдет в l-м и 2-м испытаниях (и не произойдет в 3-м), или в l-м и 3-м (и не произойдет во 2-м), или произойдет во 2-м и 3-м (и не произойдет в l-м).
В общем виде
,
Т.е. каждый вариант появления события Вm (каждый член суммы) состоит из m появлений события А и n-m непоявлений, т.е. из m событий А и из n-m событий с различными индексами.
Число всех комбинаций (слагаемых суммы) равно числу способов выбора из n испытаний m, в которых событие А произошло, т.е. числу сочетаний . Вероятность каждой такой комбинации (каждого варианта появления события Вm) по теореме умножения для независимых событий равна , т.к. , а , i = 1,2,...,n. В связи с тем, что комбинации между собой несовместны, по теореме сложения вероятностей получим
.■
Локальная теорема Муавра-Лапласа. Если вероятность р наступления события А в каждом испытании постоянна и отлична от О и 1, то вероятность Рm,n того, что событие А произойдет m раз в n независимых испытаниях при достаточно большом числе n, приближенно равна:
где Р - вероятность осуществления события в отдельном испытании, q - вероятность неосуществления события в отдельном испытании, n кол-во испытаний.
Где - функция Гаусса. И
Чем больше n, тем точнее приближенная формула. Приближенные значения вероятности Рm,n на практике используются как точные при npq порядка двух и более десятков, Т.е. при условии npq ≥ 20.
Для упрощения расчетов, связанных с применением формулы, составлена таблица значений функции f(x). Пользуясь этой таблицей, необходимо иметь в виду свойства функции f(х).
1. Функция является четной, т.е. f(-x) = f(x).
2. Функция f(x) - монотонно убывающая при положительных значениях х, причем при х → ∞ f(x) → 0.
(Практически можно считать, что уже при х > 4 f(x) ≈ 0.
Пример. В некоторой местности из каждых 100 семей 80 имеют холодильники. Найти вероятность того, что из 400 семей 300 имеют холодильники.
Решение. Вероятность того, что семья имеет холодильник, равна р = 80/100 = 0,8. Т.к. n = 100 достаточно велико (условие npq = 100·0,8(1-0,8)=64 ≥ 20 выполнено), то применяем локальную формулу Муавра-Лапласа.
Вначале определим по формуле : .
Тогда по формуле : .
(значение f(2,50) найдено по табл.). Весьма малое значение вероятности Р300,400 не должно вызывать сомнения, т.к. кроме события «ровно 300 семей из 400 имеют холодильники» возможно еще 400 событий: «0 из 400», «1 из 400», ... , «400 из 400» со своими вероятностями. Все вместе эти события образуют полную группу, а значит, сумма их вероятностей равна 1.
Пусть в условиях примера необходимо найти вероятность того, что от 300 до 360 семей (включительно) имеют холодильники. В этом случае по теореме сложения вероятность искомого события
.
Предположим, что мы хотим вычислить вероятность Рm,n появления события А при большом числе испытаний n, например, Р300,500. По формуле Бернулли:
Ясно, что в этом случае непосредственное вычисление по формуле Бернулли технически сложно, тем более если учесть, что сами р и q - числа дробные. Поэтому возникает естественное желание иметь более простые приближенные формулы для вычисления при больших n. Такие формулы, называемые, асимптотическими, существуют и определяются теоремой Пуассона, локальной и интегральной теоремами Муавра-Лапласа. Наиболее простой из них является теорема Пуассона.
Теорема. Если вероятность р наступления события А в каждом испытании стремится к нулю (р → 0) при неограниченном увеличении числа n испытаний (n → 0), причем произведение nр стремится к постоянному числу λ(nр → λ), то вероятность Рm,n того, что событие А появится m раз в n независимых испытаниях, удовлетворяет предельному равенству: |
□ По формуле Бернулли или, учитывая, что , т.е. при достаточно больших n и .
Т.к. , и , то .■
Строго говоря, условие теоремы Пуассона р → 0 при n → ∞, так что nр → λ, противоречит исходной предпосылке схемы испытаний Бернулли, согласно которой вероятность наступления события в каждом испытании р = const. Однако, если вероятность р - постоянна и мала, число испытаний n - велико и число λ = nр - незначительно (будем полагать, что λ = np ≤ 10), то из предельного равенства вытекает приближенная формула Пуассона:
.
Пример. На факультете насчитывается 1825 студентов. Какова вероятность того, что 1 сентября является днем рождения одновременно четырех студентов факультета?
Решение. Вероятность того, что день рождения студента 1 сентября, равна р = 1/365. Т.к. р = 1/365 - мала, n = 1825 - велико и λ = nр = 1825·(1/365) = 5 ≤ 10, то применяем формулу Пуассона:
: (по табл.)
Интегральная теорема Муавра-Лапласа. Если вероятность р наступления события А в каждом испытании постоянна и отлична от 0 и 1, то вероятность того, что число m наступления события А в n независимых испытаниях заключено в пределах от а до b (включительно), при достаточно большом числе n приближенно равна
,
Где - функция (или интеграл вероятностей) Лапласа;
, .
Формула называется интегральной формулой МуавраЛапласа. Чем больше n, тем точнее эта формула. При выполнении условия npq ≥ 20 интегральная формула , так же как и локальная, дает, как правило, удовлетворительную для практики погрешность вычисления вероятностей.
Функция Ф(х) табулирована (см. табл.). Для применения этой таблицы нужно знать свойства функции:
Пример. В некоторой местности из каждых 100 семей 80 имеют холодильники. Вычислить вероятность того, что от 300 до 360 (включительно) семей из 400 имеют холодильники.
Решение. Применяем интегральную теорему МуавраЛапласа (npq = 64 ≥ 20). Вначале определим:
,
.
Теперь по формуле , учитывая свойства Ф(х), получим
.
(по табл. Ф(2,50) = 0,9876, Ф(5,0) ≈ 1)
Рассмотрим следствие интегральной теоремы МуавраЛапласа.
Следствие. Если вероятность р наступления события А в каждом испытании постоянна и отлична от 0 и 1, то при достаточно большом числе n независимых испытаний вероятность того, что:
а) число m наступлений события А отличается от произведения nр не более, чем на величину ε > 0 (по абсолютной величине), т.е. ;
б) частость события А заключена в пределах от α до β (включительно), т.е. , Где , .
в) частость события А отличается от его вероятности р не более, чем на величину Δ > 0 (по абсолютной величине), т.е. .
□ 1) Неравенство равносильно двойному неравенству пр - Е ~ т ~ пр + Е. Поэтому по интегральной формуле :
.
2) Неравенство равносильно неравенству a ≤ m ≤ b при a = nα и b = nβ. Заменяя в формулах и , величины а и b полученными выражениями, получим доказываемые формулы и , .
3) Неравенство равносильно неравенству . Заменяя в формуле , получим доказываемую формулу .
Пример. По статистическим данным в среднем 87% новорожденных доживают до 50 лет. Найти вероятность того, что из 1000 новорожденных доля (частость) доживших до 50 лет будет: а) заключена в пределах от 0,9 до 0,95; б) будет отличаться от вероятности этого события не более, чем на 0,04 (по абсолютной величине)?
Решение. а) Вероятность р того, что новорожденный доживет до 50 лет, равна 0,87. Т.к. n = 1000 велико (условие npq = 1000·0,87·0,13 = 113,1 ≥ 20 выполнено), то используем следствие интегральной теоремы Муавра-Лапласа. Вначале определим:
, . Теперь по формуле :
.
Б) По формуле :
. Так как неравенство равносильно неравенству , полученный результат означает, что практически достоверно, что от 0,83 до 0,91 числа новорожденных из 1000 доживут до 50 лет.
Под случайной величиной понимается переменная, которая в рез-те испытания в зав-ти от случая принимает одно из возможного множества своих значений (какое именно - заранее не известно).
Примеры случайных величин: 1) число родившихся детей в течение суток в г. Москве; 2) количество бракованных изделий в данной партии; 3) число произведенных выстрелов до первого попадания; 4) дальность полета артиллерийского снаряда; 5) расход электроэнергии на пр-тии за месяц.
Случайная величина называется дискретной (прерывной), если множество ее значений конечное, или бесконечное, но счетное.
Под непрерывной случайной величиной будем понимать величину, бесконечное несчетное множество значений которой - некоторый интервал (конечный или бесконечный) числовой оси.
Так, в приведенных выше примерах 1-3 имеем дискретные случайные величины (в примерах 1 и 2 - с конечным множеством значений; в примере 3 - с бесконечным, но счетным множеством значений); а в примерах 4 и 5 - непрерывные случайные величины.
Определение. Случайной величиной Х называется функция, заданная на множестве элементарных исходов (или в пространстве элементарных событий), т.е. , где где ω - элементарный исход (или элементарное событие, принадлежащее пространству Ω, т.е. . |
Для дискретной случайной величины множество возможных значений случайной величины, т.е. функции , конечно или счетно, для непрерывной - бесконечно и несчетно.
Случайные величины обозначаются прописными буквами латинского алфавита Х,У,Z,..., а их значения - соответствующими строчными буквами х,у,z,....
Определение. Законом распределения случайной величины называется всякое соотношение, устанавливающее связь между возможными значениями случайной величины и соответствующими им вероятностями. |
Про случайную величину говорят, что она «распределена» по данному закону распределения или «подчинена» этому закону распределения.
Для дискретной случайной величины закон распределения м.б. задан в виде таблицы, аналитически (в виде формулы) и графически.
Простейшей формой задания закона распределения дискретной случайной величины Х является таблица (матрица), в которой перечислены в порядке возрастания все возможные значения случайной величины и соответствующие их вероятности, т.е.
х1 |
х2 |
… |
xi |
… |
хn |
p1 |
p2 |
… |
pi |
… |
pn |
Или.
Такая таблица называется рядом распределения дискретной случайной величины.
События Х=х1, Х=x2,…,Х=xn, состоящие в том, что в результате испытания случайная величина Х примет соответственно значения х1, x2, ..., xn являются несовместными и единственно возможными (ибо в таблице перечислены все возможные значения случайной величины), Т.е. образуют полную группу. Следовательно, сумма их вероятностей равна 1. Т.о., для любой дискретной случайной величины .
Ряд распределения м.б. изображен графически, если по оси абсцисс откладывать значения случайной величины, а по оси ординат - соответствующие их вероятности. Соединение полученных точек образует ломаную, называемую многоугольником или полигоном распределения вероятностей.
Две случайные величины называются независимыми, если закон распределения одной из них не меняется от того, какие возможные значения приняла другая величина. Так, если дискретная случайная величина Х может принимать значения xi (i = 1, 2, ..., n), а случайная величина У - значения yj (j = 1, 2, ..., m), то независимость дискретных случайных величин Х и У означает независимость событий Х = xi и У = y при любых i = 1, 2, ... , n и j = 1, 2, ..., m. В противном случае случайные величины называются зависимыми.
Например, если имеются билеты двух различных денежных лотерей, то случайные величины Х и Y, выражающие соответственно выигрыш по каждому билету (в денежных единицах), будут независимыми, т.к. при любом выигрыше по билету одной лотереи (например, при Х = xi) закон распределения выигрыша по другому билету (У) не изменится.
Если же случайные величины Х и У выражают выигрыш по билетам одной денежной лотереи, то в этом случае Х и У являются зависимыми, ибо любой выигрыш по одному билету (Х = xi) приводит к изменению вероятностей выигрыша по другому билету (У), т.е. к изменению закона распределения У.
Определим математические операции над дискретными случайными величинами.
Пусть даны две случайные величины:
Х:
xi |
х1 |
х2 |
… |
хn |
pi |
p1 |
p2 |
… |
pn |
У:
уj |
y1 |
y2 |
… |
ym |
Pj |
p1 |
p2 |
… |
pm |
Произведением kX случайной величины Х на постоянную величину k называется случайная величина, которая принимает значения kxi с теми же вероятностями рi (i = 1,2,...,n).
m-й степенью случайной величины Х, т.е. , называется случайная величина, которая принимает значения с теми же вероятностями рi (i = 1,2,...,n).
Суммой (разностью или произведением) случайных величин Х и У называется случайная величина, которая принимает все возможные значения вида хi+уj (хj-уj или хj·уj), где i = l,2,...,n; j =1,2,...,m, с вероятностями pij того, что случайная величина Х примет значение xi, а у - значение yj:
.
Если случайные величины Х и У независимы, т.е. независимы любые события Х=хi, Y=yj то по теореме умножения вероятностей для независимых событий
.
3амечание. Приведенные выше определения операций над дискретными случайными величинами нуждаются в уточнении: так как в ряде случаев одни и те же значения , , могут получаться разными способами при различных xi, yj с вероятностями pi, pij, то вероятности таких повторяющихся значений находятся сложением полученных вероятностей pi или pij.
Вид операции |
Выражение знач. Сл\в |
Выр знач вер-ти |
не изм-ся |
||
x² |
x² |
не изм-ся |
x+y |
||
xy |
Закон (ряд) распределения дискретной случайной величины дает исчерпывающую информацию о ней, т.к. позволяет вычислить вероятности любых событий, связанных со случайной величиной. Однако такой закон (ряд) распределения бывает трудно обозримым, не всегда удобным (и даже необходимым) для анализа. Рассмотрим, например, задачу.
Задача. Известны законы распределения случайных величин Х и У - числа очков, выбиваемых l-м и 2-м стрелками.
Необходимо выяснить, какой из двух стрелков стреляет лучше.
Рассматривая ряды распределения случайных величин Х и У, ответить на этот вопрос далеко не просто из-за обилия числовых значений. К тому же у первого стрелка достаточно большие вероятности (например, больше 0,1) имеют крайние значения числа выбиваемых очков (Х = 0;1 и Х = 9;10), а у второго стрелка - промежуточные значения (У = 4;5;6) (см. многоугольники распределения вероятностей Х и У на рис).
Очевидно, что из двух стрелков лучше стреляет тот, кто в среднем выбивает большее количество очков. Таким средним значением случайной величины является ее математическое ожидание.
Определение. Математическим ожиданием, или средним значением, М(Х) дискретной случайной величины Х называется сумма произведений всех ее значений на соответствующие им вероятности: |
Обратим внимание на механическую интерпретацию математического ожидания. Если предположить, что каждая материальная точка с абсциссой xi имеет массу, равную pi (i = 1,2,...,n), а вся единичная массараспределена между этими точками, то математичекое ожидание представляет собой абсциссу центра масс системы материальных точек. Так, для систем материальных точек, соответствующим распределениям Х и У в примере, центры масс совпадают: М(Х) = М(У) = 5,36 (см. рис.).
Если дискретная случайная величина Х принимает бесконечное, но счетное множество значений x1,x2,...,xn,..., то математическим ожиданием, или средним значением, такой дискретной случайной величины называется сумма ряда (если он абсолютно сходится): |
Так как данный ряд может и расходиться, то соответствующая случайная величина может и не иметь математического ожидания. Например, случайная величина Х с рядом распределения
не имеет математического ожидания, ибо сумма рядаравна ∞. На практике, как правило, множество возможных значений случайной величины распространяется лишь на ограниченный участок оси абсцисс и, значит, математическое ожидание существует.
Рассмотрим свойства математического ожидания.
□ Постоянную величину С можно рассматривать как величину, принимающую значение С с вероятностью 1. Поэтому М(С) = С·1 = 1.■
2. Постоянный множитель можно выносить за знак математического ожидания, т.е. M(kX) = kM(X).
□ Так как случайная величина kX принимает значения kxi (i = 1,2,...,n), то■
3. Математическое ожидание алгебраической суммы конечного числа случайных величин равно такой же сумме их математических ожиданий, т.e. М (Х ± У) = М(Х) ± М(У).
□ В соответствии с определением суммы и разности случайных величин Х+У (Х-У) представляют случайную величину, которая принимает значения xi+yj (xi-yj) (i = 1,2,...,n) (j = 1,2,...,m) с вероятностями рij = Р[(Х = хi)(У = yj)].
Поэтому .
Так как в первой двойной сумме xi не зависит от индекса j, по которому ведется суммирование во второй сумме, и аналогично во второй двойной сумме yj не зависит от индекса i, то
.■
4. Математическое ожидание произведения конечного числа независимых случайных величин равно произведению их математических ожиданий: М(ХУ) = М(Х)М(У).
□ В соответствии с определением произведения случайных величин, ХУ представляет собой случайную величину, которая принимает значения xiyi (i = 1,2,...,n) (j = 1,2,...,m) с вероятностями Рij = P[(Х = хi)(У = yj)], причем в силу независимости Х и У pij = pipj. Поэтому .■
5. Если все значения случайной величины увеличить (уменьшить) на постоянную С, то на эту же постоянную С увеличится (уменьшится) математическое ожидание этой случайной величины: М(Х ± С) = М(Х) ± С.
□ Учитывая свойства 3 и 1 математического ожидания, получим М(Х ± С) = М(Х) ± М(С) = М(Х) ± С.■
6. Математическое ожидание отклонения случайной величины от ее математического ожидания равно нулю: М[Х-М(Х)] =0.
□ Пусть постоянная С есть математическое ожидание а = М(Х), т.е. С = а. Тогда, используя свойство 5, получим
М(Х - а) = М(Х) - а = а - а = о. ■
Определение. Дисперсией D(Х) случайной величины Х называется математическое ожидание квадрата ее отклонения от математического ожидания: или , где |
Доказательство. С учетом того, что мат ожид М(Х) и квадрат мат-го ожид М2(Х) величины постоянные, можно записать:
В качестве характеристики рассеяния нельзя брать математическое ожидание отклонения случайной величины от ее математического ожидания , ибо согласно свойству 6 математического ожидания эта величина равна нулю для любой случайной величины.
Выбор дисперсии, определяемой по формуле, в качестве характеристики рассеяния значений случайной величины Х оправдывается также тем, что, как можно показать, математическое ожидание квадрата отклонения случайной величины Х от постоянной величины С минимально именно тогда, когда эта постоянная С равна математическому ожиданию , т.е. .
Если случайная величина Х - дискретная с конечным числом значений, то (3.11).
Если случайная величина Х - дискретная с бесконечным, но счетным множеством значений, то (если ряд в правой части равенства сходится).
Дисперсия D(Х) имеет размерность квадрата случайной величины, что не всегда удобно. Поэтому в качестве показателя рассеяния используют также величину .
Определение. Средним квадратическим отклонением (стандартным отклонением или стандартом) случайной величины Х называется арифметическое значение корня квадратного из ее дисперсии: |
Свойства дисперсии случайной величины.
□ . ■
2. Постоянный множитель можно выносить за знак дисперсии, возведя его при этом в квадрат: .
□ Учитывая свойство 2 математического ожидания, получим . ■
3. Дисперсия случайной величины равна разности между математическим ожиданием квадрата случайной величины и квадратом ее математического ожидания: (3.16) или где .
□ Пусть М(Х) = а. Тогда D(Х) = М(Х - а)2 = М(Х2 - 2аХ + а2). Учитывая, что а - величина постоянная, неслучайная, найдем
D(Х) = М(Х)2 - 2аМ(Х) + а2 = М(Х2) - 2а·а + а2 = M(X2) - a2.
Это свойство часто используют при вычислении дисперсии. Вычисление по формуле (3.16) дает, например, упрощение расчетов по сравнению с основной формулой (3.11), если значения xi случайной величины - целые, а математическое ожидание, а значит, и разности (xi - а) - нецелые числа.
4. Дисперсия алгебраической суммы конечного числа независимых случайных величин равна сумме их дисперсий: .
□ По свойству 3: . Обозначая , и учитывая, что для независимых случайных величин М(ХУ)=М(Х)М(У), получим
.■
Обращаем внимание на то, что дисперсия как суммы, так и разности независимых случайных величин Х и У равна сумме их дисперсий, т.е. .
Если использовать механическую интерпретацию распределения случайной величины, то ее дисперсия представляет собой момент инерции распределения масс относительно центра масс (математического ожидания).
3амечание. Обратим внимание на интерпретацию математического ожидания и дисперсии в финансовом анализе. Пусть, например, известно распределение доходности Х некоторого актива (например, акции), т.е. известны значения доходности xi и соответствующие их вероятности pi за рассматриваемый промежуток времени. Тогда, очевидно, математическое ожидание М(Х) выражает среднюю (прогнозную) доходность актива, а дисперсия D(X) или среднее квадратическое отклонение - меру отклонения, колеблемости доходности от ожидаемого среднего значения, т.е. риск данного актива.
Математическое ожидание, дисперсия, среднее квадратическое отклонение и другие числа, призванные в сжатой форме выразить наиболее существенные черты распределения, называются числовыми характеристиками случайной величины.
Обращаем внимание на то, что сама величина Х - случайная, а ее числовые характеристики являются величинами неслучайными, постоянными.
Определение. Функцией распределения случайной величины Х называется функция F(х), выражающая для каждого х вероятность того, что случайная величина Х примет значение, меньшее х: . |
Функцию F(x) иногда называют интегральной функцией распределения или интегральным законом распределения.
Геометрически функция распределения интерпретируется как вероятность того, что случайная точка Х попадет левее за данной точки х.
Функция распределения любой дискретной случайной величины есть разрывная ступенчатая функция, скачки которой происходят в точках, соответствующих возможным значениям случайной величины и равны вероятностям этих значений. Сумма всех скачков функции F(х) равна 1.
Общие свойства функции распределения.
1. Функция распределения случайной величины есть неотрицательная функция, заключенная между нулем и единицей: .
☺ Утверждение следует из того, что функция распределения это вероятность. ☻
☺ Пусть и - точки числовой оси, причем >. Покажем, что . Рассмотрим 2 несовместных события , . Тогда .
Это соотношение между событиями легко усматривается из их геометрической интерпретации (рис.3.6). По теореме сложения
:
или откуда .
Так как вероятность, то , т.е. - неубывающая функция. ☻
.
☺ как вероятность невозможного события .
как вероятность достоверного события . ☻
.
☺ Формула следует непосредственно из формулы . ☻
Определение. Случайная величина Х называется непрерывной, если ее функция распределения непрерывна в любой точке и дифференцируема всюду, кроме, быть может, отдельных точек (точки излома). |
На рис. 3.7 показана Функция распределения непрерывной случайной величины Х, дифференцируемая во всех точках, кроме трех точек излома.
Теорема. Вероятность любого отдельно взятого значения непрерывной случайной величины равна нулю.
☺ Покажем, что для любого значения случайной величины Х вероятность . Представим в виде .
Применяя свойство функции распределения случайной величины Х и учитывая непрерывность F(x), получим:
. ☻
Из приведенной выше теоремы следует, что нулевой вероятностью могут обладать и возможные события, так как событие, состоящее в том, что случайная величина Х приняла конкретное значение , является возможным.
Следствие. Если Х - непрерывная случайная величина, то вероятность попадания случайной величины в интервал не зависит от того, является этот интервал открытым или закрытым, т.е.
.
Математическим ожиданием непрерывной случайной величины Х, возможные значения которой принадлежат отрезку [a,b], называется определенный интеграл . Если возможные значения случайной величины рассматриваются на всей числовой оси, то математическое ожидание находится по формуле:. При этом предполагается, что интеграл абсолютно сходится.
Дисперсией непрерывной случайной величины называется математическое ожидание квадрата ее отклонения. .
По аналогии с дисперсией дискретной случайной величины, для практического вычисления дисперсии используется формула: .
Определение. Плотностью вероятности (плотностью распределения или просто плотностью) непрерывной случайной величины Х называется производная ее функции распределения |
Про случайную величину Х говорят, что она имеет распределение (распределена) с плотностью на определенном участке оси абсцисс. Плотность вероятности , как и функция распределения F(x), является одной из форм закона распределения, но в отличие от функции распределения она существует только для непрерывных случайных величин. Плотность вероятности иногда называют дифференциальной функцией или дифференциальным законом распределения. График плотности вероятности называется кривой распределения.
Свойства плотности вероятности непрерывной случайной величины.
☺ как производная монотонно неубывающей функции F(х). ☻
☺ Согласно свойству 4 функции распределения . Так как F(x) - первообразная для плотности вероятности (т.к. , то по формуле Ньютона-Лейбница приращение первообразной на отрезке [а,b] определенный интеграл . ☻
Геометрически полученная вероятность равна площади фигуры, ограниченной сверху кривой распределения и опирающейся на отрезок [а,b] (рис. 3.8).
.
Геометрически функция распределения равна площади фигуры, ограниченной сверху кривой распределения и лежащей левее точки х (рис. 3.9).
Геометрически свойства 1 и 4 плотности вероятности означают, что ее график - кривая распределения - лежит не ниже оси абсцисс, и полная площадь фигуры, ограниченной кривой распределения и осью абсцисс, равна единице.
Определение. Дискретная случайная величина Х имеет биномиальный закон распределения с параметрами npq, если она принимает значения 0, 1, 2,..., m,... ,n с вероятностями
,
где 0<р<l, q=1-p.
Как видим, вероятности Р(Х=m) находятся по формуле Бернулли, следовательно, биномиальный закон распределения представляет собой закон распределения числа Х=m наступлений события А в n независимых испытаниях, в каждом из которых оно может произойти с одной и той же вероятностью р.
Ряд распределения биномиального закона имеет вид:
Очевидно, что определение биномиального закона корректно, т.к. основное свойство ряда распределения выполнено, ибо есть не что иное, как сумма всех членов разложения бинома Ньютона:
Математическое ожидание случайной величины Х, распределенной по биноминальному закону,
а ее дисперсия
Определение. Дискретная случайная величина Х имеет закон распределения Пуассона с параметром λ > 0, если она принимает значения 0, 1, 2,..., m, ... (бесконечное, но счетное множество значений) с вероятностями
,
Ряд распределения закона Пуассона имеет вид:
Очевидно, что определение закона Пуассона корректно, так как основное свойство ряда распределения выполнено, ибо сумма ряда .
На рис. 4.1 показан многоугольник (полигон) распределения случайной величины, распределенной по закону Пуассона Р(Х=m)=Рm(λ) с параметрами λ = 0,5, λ = 1, λ = 2, λ = 3,5.
Теорема. Математическое oжидaниe и дисперсия случайной величины, распределенной по закону Пуассона, совпадают и равны параметру λ этого закона, т.е.
и
Математическое ожидание частости события в n независимых испытаниях, в каждом из которых оно может наступить с одной и той же вероятностью р, равно р, т.е. а ее дисперсия .
□ Частость события есть , т.е. , где Х - случайная величина, распределенная по биномиальному закону. Поэтому
. ■
Определение. Непрерывная случайная величина Х имеет нормальный закон распределения (закон Гаусса) с параметрами а и , если ее плотность вероятности имеет вид:
Термин «нормальный» не совсем удачный. Многие признаки подчиняются нормальному закону, например, рост человека, дальность полета снаряда и т.п. Но если какой-либо признак подчиняется другому, отличному от нормального, закону распределения, то это вовсе не говорит о «ненормальности» явления, связанного с этим признаком.
Кривую нормального закона распределения называют нормальной или гауссовой кривой. На рис. 4.5 а, б приведены нормальная кривая с параметрами а и , т.е. , и график функции распределения случайной величины Х, имеющей нормальный закон.
Обратим внимание на то, что нормальная кривая симметрична относительно прямой х=а, имеет максимум в точке х=а, равный , т.е. , и две точки перегиба с ординатой .
Можно заметить, что в выражении плотности нормального закона параметры обозначены буквами а и , которыми мы обозначаем математическое ожидание М(Х) и дисперсию D(Х). Такое совпадение неслучайно. Рассмотрим теорему, устанавливающую теоретико-вероятностный смысл параметров нормального закона.
Теорема. Математическое ожидание случайной величины Х, распределенной по нормальному закону, равно параметру а этого закона, т.е. , а ее дисперсия - параметру , т.е. .
□ Математическое ожидание случайной величины Х:
. Произведем замену переменной, положив . Тогда и , пределы интегрирования не меняются и, следовательно, .
(первый интеграл равен нулю как интеграл от нечетной функции по симметричному относительно начала координат промежутку, а второй интеграл - интеграл ЭйлераПуассона).
Дисперсия случайной величины Х:
.
Сделаем ту же замену переменной , как и при вычислении предыдущего интеграла. Тогда
.
Применяя метод интегрирования по частям, получим:
.■
Выясним, как будет меняться нормальная кривая при изменении параметров а и (или ). Если , и меняется параметр а (), т.е. центр симметрии распределения, то нормальная кривая будет смещаться вдоль оси абсцисс, не меняя формы (рис. 4.6).
Если a=const и меняется параметр (или ), то меняется ордината максимума кривой . При увеличении ордината максимума кривой уменьшается, но так как площадь под любой кривой распределения должна оставаться равной единице, то кривая становится более плоской, растягиваясь вдоль оси абсцисс; при уменьшении а, напротив, нормальная кривая вытягивается вверх, одновременно сжимаясь с боков. На рис. 4.7 показаны нормальные кривые с параметрами , где . Т.о., параметр а (он же математическое ожидание) характеризует положение Центра, а параметр (он же дисперсия) - форму нормальной кривой.
Нормальный закон распределения случайной величины с параметрами а=0, =1, т.е. N(0;l), называется стандартным или нормированным, а соответствующая нормальная кривая - стандартной или нормированной.
Сложность непосредственного нахождения функции распределения случайной величины, распределенной по нормальному закону, и вероятности ее попадания на некоторый промежуток связана с тем, что интеграл является «неберущимся». В элементарных функциях. Поэтому их выражают через функцию:
.
- функцию (интеграл вероятностей) Лапласа, для которой составлены таблицы. Геометрически функция Лапласа представляет собой площадь под стандартной нормальной кривой на отрезке [-х; х] (рис. 4.8).
Теорема. Функция распределения случайной величины Х, распределенной по нормальному закону, выражается через функцию Лапласа Ф(х) по формуле:
.
□ По формуле функция распределения: .
Сделаем замену переменной, полагая , , при , , поэтому
.
Первый интеграл
.
(В силу четности подынтегральной функции и того, что интеграл Эйлера-Пуассона равен ).
Второй интеграл с учетом составляет .
Итак, . ■
Свойства случайной величины, распределенной по нормальному закону:
1. Вероятность попадания случайной величины Х, распределенной по нормальному закону, в интервал , равна ,
Где , .
□ Учитывая, что вероятность есть приращение функции распределения на отрезке и учитывая формулу получим:
. ■
2. Вероятность того, что отклонение случайной величины Х, распределенной по нормальному закону, от математического ожидания а не превысит величину (по абсолютной величине), равна , где .
□ . Учитывая свойство 1, а также свойство нечетности функции Лапласа, получим
. ■
«правило трех сигм»:
Если случайная величина Х имеет нормальный закон распределения с параметрами а и , т.е. N(a;), то практически достоверно, что ее значения заключены в интервале ().
Нарушение «правила трех сигм», т.е. отклонение нормально распределенной случайной величины Х больше, чем на (по абсолютной величине), является событием практически невозможным, так как его вероятность весьма мала:
.
Очень часто результат испытания характеризуется не одной СВ, а некоторой системой случайных величин , которую называют также многомерной (n-мерной) случайной величиной или случайным вектором Х = (). Приведем примеры многомерных случайных величин.
Любая СВ (i = 1,2,...,n) есть функция элементарных событий ω, входящих в пространство элементарных событий Ω (). Поэтому и многомерная случайная величина есть функция элементарных событий ω:
т.е. каждому элементарному событию ω ставится в соответствие несколько действительных чисел , которые приняли случайные величины в результате испытания. В этом случае вектор х = () называется реализацией случайного вектора Х = ().
Случайные величины , входящие в систему, могут быть как дискретными (см. выше пример 1), так и непрерывными (пример 2).
Наиболее полным описанием многомерной СВ является закон ее распределения. При конечном множестве возможных значений многомерной СВ такой закон может быть задан в форме таблицы (матрицы), содержащей всевозможные сочетания значений каждой из одномерных случайных величин, входящих в систему, и соответствующие им вероятности. Так, если рассматривается двумерная дискретная случайная величина (X,Y), то ее двумерное распределение можно представить в виде таблицы (матрицы) распределения (табл. 5.1), в каждой клетке (i,j) которой располагаются вероятности произведения событий .
Так как события (i = 1,2,...,n; j = 1,2,...,m), состоящие в том, что СВ Х примет значение , а СВ Y - значение , несовместны и единственно возможны, т.е. образуют полную группу, то сумма их вероятностей равна единице, т.е.:
Распределение одномерной случайной величины Х можно получить, вычислив вероятность события (i = 1,2,...,n) как сумму вероятностей несовместных событий:
.
Аналогично .
Т.о., чтобы по таблице распределения (табл. 5.1) найти вероятность того, что одномерная случайная величина примет определенное значение, надо просуммировать вероятности из соответствующей этому значению строки (столбца) данной таблицы.
Если зафиксировать значение одного из аргументов, например, положить , то полученное распределение случайной СВ Х называется условным распределением Х при условии . Вероятности этого распределения будут условными вероятностями события , найденными в предположении, что событие произошло. Из определения условной вероятности:
.
Аналогично условное распределение СВ У при условии задается с помощью условных вероятностей: .
Пусть имеется двумерная СВ (Х,Y), распределение которой известно, т.е. известна табл. 5.1 или совместная плотность вероятности . Тогда можно найти математические ожидания М(Х) = ах, М(Y) = ау и дисперсии и одномерных составляющих Х и Y. Однако математические ожидания и дисперсии случайных величин Х и Y недостаточно полно характеризуют двумерную случайную величину (Х,Y), т.к. не выражают степени зависимости ее составляющих Х и Y эту роль выполняют ковариация и коэффициент корреляции.
Определение. Ковариацией (или корреляционным моментом) Кху случайных величин Х и Y называется математическое ожидание произведения отклонений этих величин от своих математических ожиданий, т.е.
, Или ,
Где , .
Из определения следует, что . Кроме того, .
т.е. ковариация СВ с самой собой есть ее дисперсия.
Для дискретных случайных величин: .
Для непрерывных случайных величин: .
Ковариация двух случайных величин характеризует как степень зависимости случайных величин, так и их рассеяние вокруг точки . Об этом, в частности, свидетельствуют свойства ковариации случайных величин.
Ковариация, как уже отмечено, характеризует не только степень зависимости двух случайных величин, но и их разброс, рассеяние. Кроме того, она - величина размерная, ее размерность определяется произведением размерностей случайных величин. Это затрудняет использование ковариации для оценки степени зависимости для различных случайных величин. Этих недостатков лишен коэффициент корреляции.
Определение. Коэффициентом корреляции двух случайных величин называется отношение их ковариации к произведению средних квадратических отклонений этих величин:
.
Из определения следует, что . Очевидно также, что коэффициент корреляции есть безразмерная величина.
Свойства коэффициента корреляции:
Случайные величины называются некоррелированными, если их коэффициент корреляции равен нулю. Т.о., из независимости случайных величин следует их некоррелированность. Обратное утверждение, вообще говоря, неверно: из некоррелированности двух случайных величин еще не следует их независимость.
Определение. Случайная величина (Х,Y) называется распределенной по двумерному нормальному закону, если ее совместная плотность имеет вид:
Где
Из определения следует, что двумерный нормальный закон распределения определяется пятью параметрами: .
и аналогично .;
и аналогично .;
.
Т.о., параметры и выражают математические ожидания случайных величин Х и Y, параметры и - их дисперсии, а - коэффициент корреляции между случайными величинами Х и Y.
Нетрудно убедиться в том, что каждый из условных законов распределения случайных величин Х и Y является нормальным с условным математическим ожиданием и условной дисперсией, определяемыми по формулам:
, ,
, .
Теорема. Если две нормально распределенные случайные величины Х и Y некоррелированы, то они независимы.
Т.о., для нормально распределенных случайных величин термины «некоррелированность» и «независимость» равносильны.
Теорема. Если СВ Х принимает только неотрицательные значения и имеет математическое ожидание, то для любого положительного числа А верно неравенство:
☺ Доказательство проведем для дискретной СВ Х. Расположим ее значения в порядке возрастания, из которых часть значений будут не более числа А, а другая часть - будут больше А, т.е.
(рис. 6.1) .
Запишем выражение для математического ожидания М(Х): ,
где - вероятности того, что СВ Х примет значения соответственно .
Отбрасывая первые k неотрицательных слагаемых (напомним, что все ), получим: .
Заменяя в неравенстве значения меньшим числом А, получим более сильное неравенство: или .
Cумма вероятностей в левой части полученного неравенства представляет собой сумму вероятностей событий , т.е. вероятность события Х>А. Поэтому .☻
Т.к. события Х > А и Х ≤ А противоположные, то заменяя Р(Х > А) выражением 1 - Р(Х ≤ А), придем к другой форме неравенства Маркова:
.
Неравенство Маркова применимо к любым неотрицательным случайным величинам.
Пример. Среднее количество вызовов, поступающих на коммутатор завода в течение часа, равно 300. Оценить вероятность того, что в течение следующего часа число вызовов на коммутатор: а) превысит 400; б) будет не более 500.
Решение. а) По условию М(Х) = 300. По формуле : т.е. вероятность того, что число вызовов превысит 400, будет не более 0,75.
б) По формуле : т.е. вероятность того, что число вызовов не более 500, будет не менее 0,4.
Теорема. Для любой случайной величины, имеющей математическое ожидание и дисперсию, справедливо неравенство Чебышева: ,
где а = М(Х), е > 0.
☺ Применим неравенство Маркова в форме к случайной величине , взяв в качестве положительного числа . Получим: .
Т.к. неравенство равносильно неравенству, а есть дисперсия случайной величины Х, то из неравенства получаем доказываемое неравенство. ☻
Учитывая, что события и противоположны, неравенство Чебышева можно записать и в другой форме: .
Неравенство Чебышева применимо для любых случайных величин. В форме оно устанавливает верхнюю границу, а в форме - нижнюю границу вероятности рассматриваемого события.
Запишем неравенство Чебышева в форме для некоторых случайных величин:
а) для СВ Х = m, имеющей биноминальный закон распределения с математическим ожиданием а = М(Х) = nр и дисперсией D(X) = npq: .
б) для частости события в n независимых испытаниях, в каждом из которых оно может произойти с одной и той же вероятностью и имеющей дисперсию : .
3амечание. Если М(Х) > А или , то правые части неравенств Маркова и Чебышева в форме соответственно и будут отрицательными а в форме и будут больше 1.
Это означает, что применение указанных неравенств в этих случаях приведет к тривиальному результату: вероятность события больше отрицательного числа либо меньше числа, превосходящего 1.
Теорема. Если дисперсии n независимых случайных величин ограничены одной и той же постоянной, то при неограниченном увеличении числа n средняя арифметическая случайных величин сходится по вероятности к средней арифметической их математических ожиданий , т.е.
Или
☺ По условию , , где С - постоянное число.
Получим неравенство Чебышева в форме для средней арифметической случайных величин, т.е. для .
Найдем математическое ожидание М(Х) и оценку дисперсии D(Х):
;
.
(Здесь использованы свойства математического ожидания и дисперсии и, в частности, то, что случайные величины независимы, а следовательно, дисперсия их суммы равна сумме дисперсий.)
Запишем неравенство для случайной величины :
.
Т.к. по доказанному , то ,
Следовательно .
в пределе при n → ∞ величина стремится к нулю, и получим доказываемую формулу. ☻
Подчеркнем смысл теоремы Чебышева. При большом числе n случайных величин практически достоверно, что их средняя величина случайная, как угодно мало отличается от неслучайной величины, т.е. практически перестает быть случайной.
Следствие. Если независимые случайные величины имеют одинаковые математические ожидания, равные а, а их дисперсии ограничены одной и той же постоянной, то:
,
Или
Теорема Чебышева и ее следствие имеют большое практическое значение. Например, страховой компании необходимо установить размер страхового взноса, который должен уплачивать страхователь; при этом страховая компания обязуется выплатить при наступлении страхового случая определенную страховую сумму. Рассматривая частоту/убытки страхователя при наступлении страхового случая как величину случайную и обладая известной статистикой таких случаев, можно определить среднее число/средние убытки при наступлении страховых случаев, которое на основании теоремы Чебышева с большой степенью уверенности можно считать величиной почти не случайной. Тогда на основании этих данных и предполагаемой страховой суммы определяется размер страхового взноса. Без учета действия закона больших чисел (теоремы Чебышева) возможны существенные убытки страховой компании (при занижении размера страхового взноса), либо потеря привлекательности страховых услуг (при завышении размера взноса).
Под законам больших чисел в широком смысле понимается общий принцип, согласно которому, по формулировке академика Колмогорова, совокупное действие большого числа случайных факторов приводит (при некоторых весьма общих условиях) к результату, почти не зависящему от случая. Другими словами, при большом числе случайных величин их средний результат перестает быть случайным и может быть предсказан с большой степенью определенности.
Теорема. Частость события в n повторных независимых испытаниях, в каждом из которых оно может произойти с одной и той же вероятностью p, при неограниченном увеличении числа n сходится по вероятности к вероятности р этого события в отдельном испытании:
Или
☺ Заключение теоремы непосредственно вытекает из неравенства Чебышева для частости события при n → ∞. ☻
Смысл теоремы Бернулли состоит в том, что при большом числе n повторных независимых испытаний практически достоверно, что частость (или статистическая вероятность) события m/n - величина случайная, как угодно мало отличается от неслучайной величины р - вероятности события, т.е. практически перестает быть случайной.
Теорема Бернулли является следствием теоремы Чебышева.
Центральная предельная теорема представляет собой группу теорем, посвященных установлению условий, при к-ых возникает нормальный закон распределения. Среди этих теорем важнейшее место принадлежит теореме Ляпунова.
Теорема Ляпунова. Если независимые случайные величины, у каждой из которых существует матем-кое ожидание , дисперсия , абсолютный центральный момент третьего порядка и
(6.20)
то закон распределения суммы при n → ∞ неограниченно приближается к нормальному с матем-ким ожиданием и дисперсией .
Например, потребление электроэнергии для бытовых нужд за месяц в каждой квартире многоквартирного дома можно представить в виде n различных случайных величин. Если потребление электроэнергии в каждой квартире по своему значению резко не выделяется среди остальных, то на основании теоремы Ляпунова можно считать, что потребление электроэнергии всего дома, т.е. сумма n независимых случайных величин будет случайной величиной, имеющей приближенно нормальный закон распределения. Если, например, в одном из помещений дома разместится вычислительный центр, у которого уровень потребления электроэнергии несравнимо выше, чем в каждой квартире для бытовых нужд, то вывод о приближенно нормальном распределении потребления электроэнергии всего дома будет неправомерен, так как нарушено условие (6.20), ибо потребление электроэнергии вычислительного центра будет играть превалирующую роль в образовании всей суммы потребления.
Следствие. Если - независимые случайные величины, у которых существуют равные математические ожидания , дисперсии и абсолютные центральные моменты третьего порядка (i = 1, 2,...n), то закон распределения суммы при n → ∞ неограниченно приближается к нормальному закону.
В частности, если все случайные величины одинаково распределены, то закон распределения их суммы неограниченно приближается к нормальному закону при n → ∞.
Вариационным рядом называется ранжированный в порядке возрастания (или убывания) ряд вариантов с соответствующими им весами (частотами или частостями).
При изучении вариационных рядов наряду с понятием частоты используется понятие накопленной частоты (обозначаем ). Накопленная частота показывает, ск-ко наблюдалось вариантов со значением признака, меньшим х. Отношение на копленной частоты к общему числу наблюдений n назовем накопленной частостью .
Накопленные частоты (частости) для каждого интервала находятся последовательным суммированием частот (частостей) всех предшествующих интервалов, включая данный.
Для задания вариационного ряда достаточно указать варианты и соответствующие им частоты (частости) или накопленные частоты (частости).
Вариационный ряд называется дискретным, если любые его варианты отличаются на постоянную величину, и - непрерывным (интервальными), если варианты могут отличаться один от другого на сколь угодно малую величину.
Для графического изображения вариационных рядов наиболее часто используются полигон, гистограмма, кумулятивная кривая:
Полигон, как правило, служит для изображения дискретного вариационного ряда и представляет собой ломаную, в которой концы отрезков прямой имеют координаты (), i = 1, 2,..., m.
Гистограмма служит только для изображения интервальных вариационных рядов и представляет собой ступенчатую фигуру из прямоугольников с основаниями, равными интервалам значений признака , i = 1, 2, ..., m, и высотами, равными частотам (частостям) () интервалов. Если соединить середины верхних оснований прямоугольников отрезками прямой, то можно получить полигон того же распределения.
Кумулятивная кривая (кумулята) - кривая накопленных частот (частостей). Для дискретного ряда кумулята представляет ломаную, соединяющую точки (,) или (,), i = 1, 2, ..., m. Для интервального вариационного ряда ломаная начинается с точки, абсцисса к-ой равна началу первого интервала, а ордината - накопленной частоте (частости), равной нулю. Другие точки этой ломаной соответствуют концам интервалов.
Эмпирической функцией pacпpeдeлeнuя называется относительная частота (частость) того, что признак (случайная величина х) примет значение, меньшее заданного х, т.е.
Другими словами, для данного х эмпирическая функция распределения представляет накопленную частость: .
Вариационный ряд является статистическим аналогом (реализацией) распределения признака (случайной величины Х).
Вариационный ряд содержит достаточно полную информацию об изменчивости (вариации) признака. Однако обилие числовых данных, с помощью которых он задается, усложняет их использование. В то же время на практике часто оказывается достаточным знание лишь сводных характеристик вариационных рядов: средних или характеристик центральной тенденции; характеристик изменчивости (вариации) и др.
Средней арифметической вариационного ряда называется сумма произведений всех вариантов на соответствующие частоты, деленная на сумму частот:
где - варианты дискретного ряда или середины интервалов интервального вариационного ряда; - соответствующие им частоты; m - число неповторяющихся вариантов или число интервалов; .
Очевидно, что , где - частости вариантов или интервалов.
Основные свойства средней арифметической.
1. Средняя арифметическая постоянной равна самой постоянной.
2. Если все варианты увеличить (уменьшить) в одно и то же число раз, то средняя арифметическая увеличится (уменьшится) во столько же раз:
.
3. Если все варианты увеличить (уменьшить) на одно и то же число, то средняя арифметическая увеличится (уменьшится) на то же число:
.
4. Средняя арифметическая отклонений вариантов от средней арифметической равна нулю:
.
5. Средняя арифметическая алгебраической суммы нескольких признаков равна такой же сумме средних арифметических этих признаков:
.
6. Если ряд состоит из нескольких групп, общая средняя равна средней арифметической групповых средних, причем весами являются объемы групп:
где - общая средняя (средняя арифметическая всего ряда); - групповая средняя i-й группы, объем которой равен ; l - число групп.
Дисперсией вариационного ряда называется средняя арифметическая квадратов отклонений вариантов от их средней арифметической:
.
Формулу для дисперсии вариационного ряда можно записать в виде:
где .
Для несгруппированного ряда : .
Дисперсию часто называют эмпирической или выборочной, подчеркивая, что она (в отличие от дисперсии СВ) находится по опытным или статистическим данным.
Вычисление средней арифметической и дисперсии вариационного ряда можно упростить, если использовать не первоначальные варианты (i = 1, 2, ..., m), а новые варианты:
, (1)
где с и k - специально подобранные постоянные.
Согласно свойствам 2 и 3 средней арифметической и дисперсии:
, (2)
, (3)
Откуда
(4)
. (5)
Затем, получим (6)
Теперь, заменяя в (4) и (5) и их выражениями и через варианты , получим
, (7)
, (8)
где определяются по (1).
Формулы (7) и (8) дадут заметное упрощение расчетов, если в качестве постоянной k взять величину (ширину) интервала по x, а в качестве с - середину серединного интервала. Если серединных интервалов два (при четном числе интервалов), то в качестве с рекомендуется взять середину одного из этих интервалов, например, имеющего большую частоту.
Вся подлежащая изучению совокупность объектов (наблюдений) называется генеральной совокупностью. В матем-кой статистике понятие генеральной совокупности трактуется как совокупность всех мыслимых наблюдений, к-ые могли бы быть произведены при данном реальном комплексе условий, и в этом смысле его не следует смешивать с реальными совокупностями, подлежащими статистическому изучению. Так, обследовав даже все пр-тия подотрасли по определенным технико-эк-ким показателям, мы можем рассматривать обследованную совокупность лишь как представителя гипотетически возможной более широкой совокупности пр-тий, к-е могли бы функционировать в рамках того же реального комплекса условий.
Понятие генеральной совокупности в определенном смысле аналогично понятию случайной величины (закону распределения вер-тей, вероятностному пространству), т.к. полностью обусловлено определенным комплексом условий.
Та часть объектов, к-ая отобрана для непосредственного изучения из генеральной совокупности, называется выборочной совокупностью, или выборкой. Числа объектов (наблюдений) в генеральной или выборочной совокупности называются их объёмами. Генеральная совокупность может иметь как конечный, так и бесконечный объем.
Выборку можно рассматривать как некий эмпирический аналог генеральной совокупности. Сущность выборочного метода состоит в том, чтобы по некоторой части генеральной совокупности (по выборке) выносить суждение о ее свойствах в целом.
Преимущества выборочного метода наблюдения по сравнению со сплошным:
1) позволяет существенно экономить затраты ресурсов (материальных, трудовых, временных);
2) является единственно возможным в случае бесконечной генеральной совокупности или в случае, когда исследование связано с уничтожением наблюдаемых объектов (напр, исследование долговечности электрических лампочек, предельных режимов работы приборов и т.п.);
3) при тех же затратах ресурсов дает возможность проведения углубленного исследования за счет расширения программы исследования;
4) позволяет снизить ошибки регистрации, т.е. расхождения между истинным и зарегистрированным значениями признака.
Основной недостаток выборочною метода - ошибки исследования, называемые ошибками репрезентативности (представительства).
Однако неизбежные ошибки, возникающие при выборочном методе исследования в связи с изучением только части объектов, могут быть заранее оценены и посредством правильной организации выборки сведены к практически незначимым величинам. Между тем использование сплошного наблюдения даже там, где это принципиально возможно, не говоря уже о росте трудоемкости, стоимости и увеличении необходимого времени, часто приводит к тому, что каждое отдельное наблюдение поневоле проводится с меньшей точностью. А это уже сопряжено с неустранимыми ошибками и в конечном счете может привести к снижению точности сплошного наблюдения по сравнению с выборочным.
Чтобы по данным выборки иметь возможность судить о генеральной совокупности, она д.б. отобрана случайно. Случайность отбора элементов в выборку достигается соблюдением принципа равной возможности всем элементам генеральной совокупности быть отобранными в выборку. На практике это достигается тем, что извлечение элементов в выборку проводится путем жеребьевки (лотереи) или с помощью случайных чисел, имеющихся в специальных таблицах или вырабатываемых ЭВМ с помощью датчика случайных чисел.
Выборка называется репрезентативной (представительной), если она достаточно хорошо воспроизводит генеральную совокупность.
Различают следующие виды выборок:
1) собственно-случайная выборка, образованная случайным выбором элементов без расчленения на части или группы;
2) механическая выборка, в к-ую элементы из генеральной совокупности отбираются через определенный интервал. На пример, если объем выборки должен составлять 10% (10%-ная выборка), то отбирается каждый l0-й ее элемент и т.д.;
3) типическая (стратифицированная) выборка, в к-ую случайным образом отбираются элементы из типических групп, на к-ые по нек-му признаку разбивается генеральная совокупность;
4) серийная (гнездовая) выборка, в к-ую случайным образом отбираются не элементы, а целые группы совокупности (серии), а сами серии подвергаются сплошному наблюдению.
Используют два способа образования выборки:
1) повторный отбор (по схеме возвращенного шара), когда каждый элемент, случайно отобранный и обследованный, возвращается в общую совокупность и м.б. повторно отобран;
2) бесповторный отбор (по схеме невозвращенного шара), когда отобранный элемент не возвращается в общую совокупность.
Мат-кая теория выборочного метода основывается на анализе собственно-случайной выборки.
Обозначим:
- значения признака (случайной величины Х);
N и n - объемы генеральной и выборочной совокупностей;
- число элементов генеральной и выборочной совокупностей со значением признака ;
М и m - число элементов генеральной и выборочной совокупностей, обладающих данным признаком.
Средние арифметические распределения признака в генеральной и выборочной совокупностях называются соответственно генеральной и выборочной средними, а дисперсии этих распределений - генеральной и выборочной дисперсиями. Отношение числа элементов генеральной и выборочной совокупностей, обладающих нек-ым признаком А, к их объемам, называются соответственно генеральной и выборочной долями. Все формулы сведем в таблицу.
Замечание. В случае бесконечной генеральной совокупности (N = ∞) под генеральными средней и дисперсией понимается соответственно математическое ожидание и дисперсия распределения признака Х (генеральной совокупности), а под генеральной долей р - вероятность данного события.
Важнейшей задачей выборочного метода является оценка параметров (характеристик) генеральной совокупности по данным выборки.
Теоретическую основу применимости выборочного метода составляет закон больших чисел, согласно к-му при неограниченном увеличении объема выборки практически достоверно, что случайные выборочные характеристики как угодно близко приближаются (сходятся по вероятности) к определенным параметрам генеральной совокупности.
Сформулируем задачу оценки параметров в общем виде. Пусть распределение признака Х - генеральной совокупности - задается функцией вер-тей (для дискретной СВ Х) или плотностью вер-ти (для непрерывной СВ Х), к-ая содержит неизвестный параметр . Напр, это параметр λ в распределении Пуассона или параметры а и для нормального закона распределения и т.д.
Для вычисления параметра исследовать все элементы генеральной совокупности не представляется возможным. Поэтому о параметре пытаются судить по выборке, состоящей из значений (вариантов) . Эти значения можно рассматривать как частные значения (реализации) n независимых случайных величин каждая из к-ых имеет тот же закон распределения, что и сама СВ Х.
Определение. Оценкой параметра называют всякую функцию результатов наблюдений над СВ Х (иначе - статистику), с помощью к-ой судят о значении параметра :
.
Поскольку - случайные величины, то и оценка (в отличие от оцениваемого параметра - величины неслучайной, детерминированной) является случайной величиной, зависящей от закона распределения СВ Х и числа n.
О качестве оценки следует судить не по индивидуальным ее значениям, а лишь по распределению ее значений в большой сети испытаний, т.е. по выборочному распределению оценки.
Если значения оценки концентрируются около истинного значения параметра , т.е. основная часть массы выборочного распределения оценки сосредоточена в малой окрестности оцениваемого параметра , то с большой вер-тью можно считать, что оценка отличается от параметра лишь на малую величину. Поэтому, чтобы значение было близко к , надо, очевидно, потребовать, чтобы рассеяние случайной величины относительно , выражаемое, например, матем-ким ожиданием квадрата отклонения оценки от оцениваемого параметра , было по возможности меньшим. Таково основное условие, к-му должна удовлетворять «наилучшая» оценка.
Свойства оценок.
Определение. Оценка параметра называется несмещенной, если ее мат-кое ожидание равно оцениваемому параметру, т.е. .
в противном случае оценка называется смещенной.
Если это равенство не выполняется, то оценка , полученная по разным выборкам, будет в среднем либо завышать значение (если , либо занижать его (если ). Требование несмещенности гарантирует отсутствие систематических ошибок при оценивании.
Если при конечном объеме выборки n , т.е. смещение оценки , но , то такая оценка называется асимптотически несмещенной.
Определение. Оценка параметра называется состоятельной, если она удовлетворяет закону больших чисел, т.е. сходится по вер-ти к оцениваемому параметру:
, или .
В случае использования состоятельных оценок оправдывается увеличение объема выборки, т.к. при этом становятся маловероятными значительные ошибки при оценивании. Поэтому практический смысл имеют только состоятельные оценки. Если оценка состоятельна, то практически достоверно, что при достаточно большом n .
Если оценка параметра является несмещенной, а ее дисперсия при n → ∞, то оценка является и состоятельной. Это непосредственно вытекает из неравенства Чебышева:
.
Определение. Несмещенная оценка параметра сназывается эффективной, если она имеет наименьшую дисперсию среди всех возможных несмещенных оценок параметра , вычисленных по выборкам одного и того же объема n.
Т.к. для не смещенной оценки есть ее дисперсия , то эф-ть является решающим свойством, определяющим качество оценки.
Эффективность оценки определяют отношением: .
где и - соот-но дисперсии эффективной и данной оценок. Чем ближе е к 1, тем эффективнее оценка. Если е → 1 при n → ∞, то такая оценка называется асuмптотически эффективной.
Пусть генеральная совок-ть содержит N элементов, из к-ых М обладает нек-ым признаком А. Следует найти «наилучшую» оценку генеральной доли . Рассмотрим в качестве такой возможной оценки параметра р его статистический аналог - выборочную долю .
а) Выборка повторная.
Выборочную долю можно представить как среднюю арифметическую n альтернативных случайных величин , т.е. , где каждая СВ (k=1,2,…,n) выражает число появлений признака в k-м элементе выборки (т.е. при наличии признака , при его отсутствии ) и имеет один и тот же закон распределения:
Случайные величины независимы.
Теорема. Выборочная доля повторной выборки есть несмещенная и состоятельная оценка генеральной доли причем ее дисперсия: , Где q = 1 p.
☺ Докажем вначале несмещенность оценки w.
Матем-кое ожидание и дисперсия частости события в n независимых испытаниях, в каждом из к-рых оно может наступить с одной и той же вероятностью р, равны соответственно
, .
Т.к. вер-ть того, что любой отобранный в выборку элемент обладает признаком А, есть генеральная доля р, то из 1 равенства вытекает, что частость или выборочная доля w есть несмещенная оценка генеральной доли р.
Осталось доказать состоятельность оценки , к-ая следует из теоремы Бернулли: , или . ☻
б) Выборка бесповторная.
В случае бесповторной выборки СВ будут зависимыми.
Теорема. Выборочная доля бесповторной выборки есть несмещенная и состоятельная оценка генеральной доли , причем ее дисперсия:
.
☺ Очевидно, что и для бесповторной выборки , т.е. w - несмещенная оценка для генеральной доли . Это связано с тем, что мат-кое ожидание суммы любых случайных величин равно сумме их мат-ких ожиданий (в том числе суммы зависимых случайных величин, каковой является выборочная доля w бесповторной выборки).
Найдем дисперсию выборочной доли для бесповторной выборки:
,
При выводе формулы использовали то, что СВ Х = m в случае бесповтoрной выборки имеет гипергеометрическое распределение, и ее дисперсия определяется по формуле .
Пусть из генеральной совокупности объема N отобрана случайная выборка , где Xk - СВ, выражающая значение признака у k-гo элемента выборки (k=1,2, ...,n). Следует найти «наилучшую» оценку для генеральной средней.
Рассмотрим в качестве такой возможной оценки выборочнyю среднюю х, т.е. .
а) Выборка повторная.
Закон распределения для каждой случайной величины (k=1,2,...,n) имеет вид:
Случайные величины независимы, т.к. независимы любые события (k=1,2,...n; i=1,2,...,m) и их комбинации.
Найдем числовые характеристики СВ :
, (1)
. (2)
т.е. мат-кое ожидание и дисперсия каждой СВ - это соот-но генеральная средняя и генеральная дисперсия.
Теорема. Выборочная средняя повторной выборки есть несмещенная и состоятельная оценка генеральной средней причем .
□ Докажем вначале несмещенность оценки. Найдем мат-кое ожидание выборочной средней , учитывая (2) и то, что - независимые случайные величины:
.
Осталось доказать состоятельность оценки , которая следует непосредственно из теоремы Чебышева: или
б) Выборка бесповторная
В этом случае случайные величины будут зависимыми.
Теорема. Выборочная средняя бесповторной выборки есть несмещенная и состоятельная оценка генеральной средней , причем
.
На первый взгляд, наиболее подходящей оценкой для генеральной дисперсии является выборочная дисперсия . Следующая теорема свидетельствует о том, что не является «наилучшей» оценкой.
Теорема. Выборочная дисперсия повторной и бесповторной выборок есть смещенная и состоятельная оценка генеральной дисперсии .
Δ Принимая без док-ва состоятельность оценки , докажем, что она - смещенная оценка. В соответствии с 4 свойством дисперсии: . На основании свойства 3 средней арифметической и дисперсии , если все значения признака уменьшить на одно и то же число С, то средняя уменьшится на это число, т.е. , а дисперсия не изменится:
.
Полагая , получим .
а) Выборка повторная
Для повторной выборки выборочные значения рассматриваем как независимые случайные величины , каждая из к-ых имеет один и тот же закон распределения, что и у оценки генеральной средней с числовыми характеристиками (1) и (2), т.е. M, , k = 1,2,...,n.
Найдем мат-кое ожидание оценки :
.
Первый член в правой части .
Второй член с учетом того, что есть несмещенная оценка , т.е. , .
Поэтому .
б) Выборка бесповторная
Для бесповторной выборки - зависимые случайные величины. Можно показать, что
(т.к. объем генеральной совокупности N, как правило, большой и N ≈ N -1).
Итак, и для повторной выборки, и для бесповторной , т.е - смещенная оценка . ▲
Т.к. и , то выборочная дисперсия (в n среднем, полученная по разным выборкам) занижает генеральную дисперсию. Поэтому, заменяя на , мы допускаем систематическую погрешность в меньшую сторону. Чтобы ее ликвидировать, достаточно ввести поправку, умножив на . Тогда с учетом () получим «исправленную» выборочную дисперсию:
.
Очевидно, что .
Т.е. является несмещенной и состоятельной оценкой генеральной дисперсии .
Интервальной оценкой параметра θ называется числовой интервал , к-ый с заданной вероятностью γ накрывает неизвестное значение параметра θ.
Обращаем внимание на то, что границы интервала и его величина находятся по выборочным данным и потому являются случайными величинами в отличие от оцениваемого параметра θ - величины неслучайной, поэтому правильнее говорить о том, что интервал «накрывает», а не «содержит» значение θ.
Такой интервал называется доверительным, а вер-ть γ - доверительной вер-тью, уровнем доверия или надежностью оценки.
Величина доверительного интервала существенно зависит от объема выборки n (уменьшается с ростом n) и от значения доверительной вер-ти γ (увеличивается с приближением γ к 1).
Очень часто (но не всегда) доверительный интервал выбирается симметричным относительно параметра θ, т.е. (θ-Δ,θ+Δ).
Наибольшее отклонение Δ оценки от оцениваемого параметра θ, в частности, выборочной средней (или доли) от генеральной средней (или доли), к-ое возможно с заданной доверительной вер-тью γ, называется предельной ошибкой выборки.
Ошибка Δ является ошибкой репрезентативности (представительства) выборки. Она возникает только вследствие того, что исследуется не вся совок-ть, а лишь часть, ее (выборка), отобранная случайно. Эту ошибку часто называют случайной ошибкой репрезентативности. Ее не следует путать с систематической ошибкой репрезентативности, появляющейся в рез-те нарушения принципа случайности при отборе элементов в выборку.
Построение доверительного интервала для гeнеральной средней и гeнеральной доли по большим выборкам. Для построения доверительных интервалов для параметров генеральных совокупностей м.б. реализованы 2 подхода, основанных на знании точного (при данном объеме выборки n) или асимптотического (при n → ∞) распределения выборочных характеристик (или некоторых функций от них). Первый подход реализован далее при построении интервальных оценок параметров для малых выборок. В данном параграфе рассматривается второй подход, применимый для больших выборок (порядка сотен наблюдений).
Теорема. Вер-ть того, что отклонение выборочной средней (или доли) от генеральной средней (или доли) не превзойдет число Δ > 0 (по абсолютной величине), равна:
Где |
, Где . |
Ф(t) - функция (интеграл вероятностей) Лапласа.
Формулы получили название формул доверительной вер-ти для средней и доли.
Среднее квадратическое отклонение выборочной средней и выборочной доли собственно-случайной выборки называется средней квадратической (стандартной) ошибкой выборки (для бесповторной выборки обозначаем соответственно и ).
Следствие 1. При заданной доверительной вер-ти γ предельная ошибка выборки равна t-кратной величине средней квадратической ошибки, где Ф(t) = γ, т.е.
,
.
Следствие 2. Интервальные оценки (доверительные интервалы) для генеральной средней и генеральной доли могут быть найдены по формулам:
,
.
Для проведения выборочного наблюдения весьма важно правильно установить объем выборки n, к-ый в значительной степени определяет необходимые при этом временные, трудовые и стоимостные затраты для определения n необходимо задать надежность (доверительную вер-ть) оценки γ и точность (предельную ошибку выборки) Δ.
Если найден объем повторной выборки n, то объем соответствующей бесповторной выборки n' можно определить по формуле:
.
Т.к. , то при одних и тех же точности и надежности оценок объем бесповторной выборки n' всегда меньше объема повторной выборки n.
Определение. Статистической гипотезой называется любое предположение о виде или параметрах неизвестного закона распределения.
Различают простую и сложную статистические гипотезы. Простая гипотеза, в отличие от сложной, полностью определяет теоретическую функцию распределения СВ.
Проверяемую гипотезу обычно называют нулевой (или основной) и обозначают Н0. Наряду с нулевой гипотезой рассматривают альтернативную, или конкурирующую, гипотезу H1, являющуюся логическим отрицанием Н0. Нулевая и альтернативная гипотезы представляют собой 2 возможности выбора, осуществляемого в задачах проверки статистических гипотез.
Суть проверки статистической гипотезы заключается в том, что используется специально составленная выборочная характеристика (статистика) , полученная по выборке , точное или приближенное распределение которой известно.
Затем по этому выборочному распределению определяется критическое значение - такое, что если гипотеза Н0 верна, то вер-ть мала; так что в соответствии с принципом практической уверенности в условиях данного исследования событие можно (с некоторым риском) считать практически невозможным. Поэтому, если в данном конкретном случае обнаруживается отклонение , то гипотеза Н0 отвергается, в то время как появление значения , считается совместимым с гипотезой Н0, которая тогда принимается (точнее, не отвергается). Правило, по которому гипотеза Н0 отвергается или принимается, называется статистическим критерием или статистическим тестом.
Принцип практической уверенности:
Если вер-ть события А в данном испытании очень мала, то при однократном выполнении испытания можно быть уверенным в том, что событие А не произойдет, и в практической д-ти вести себя так, как будто событие А вообще невозможно.
Т.о., множество возможных значений статистики - критерия (критической статистики) разбивается на 2 непересекающихся подмножества: критическую область (область отклонения гипотезы) W и область допустимых значений (область принятия гипотезы) . Если фактически наблюдаемое значение статистики критерия попадает в критическую область W, то гипотезу Н0 отвергают. При этом возможны четыре случая:
Определение. Вероятность α допустить ошибку l-го рода, т.е. отвергнуть гипотезу Н0, когда она верна, называется уровнем значимости, или размером критерия.
Вероятность допустить ошибку 2-го рода, т.е. принять гипотезу Н0, когда она неверна, обычно обозначают β.
Определение. Вероятность (1-β) не допустить ошибку 2-го рода, т.е. отвергнуть гипотезу Н0, когда она неверна, называется мощностью (или функцией мощности) критерия.
Следует предпочесть ту критическую область, при которой мощность критерия будет наибольшей.
Одной из важнейших задач матем-кой статистики является установление теоретического закона распределения случайной величины, характеризующей изучаемый признак по опытному (эмпирическому) распределению, представляющему вариационный ряд.
Для решения этой задачи необходимо определить вид и параметры закона распределения.
Критерии согласия отвечают на вопрос: объясняются ли расхождения между эмпирическим и теоретическим распределениями только случайными обстоятельствами, связанными с ограниченным числом наблюдений, или они являются существенными и связаны с тем, что теоретический закон распределения подобран неудачно.
Пусть необходимо проверить нулевую гипотезу Н0 о том, что исследуемая СВ Х подчиняется определенному закону распределения. Для проверки гипотезы Н0 выбирают некоторую СВ U, характеризующую степень расхождения теоретического и эмпирического распределений, закон распределения которой при достаточно больших n известен и практически не зависит от закона распределения СВ Х.
Зная закон распределения U, можно найти вероятность того, что U приняла значение не меньше, чем фактически наблюдаемое в опыте u, т.е. U ≥ u.
Если Р(U ≥ u) = α мала, то это означает в соответствии с принципом практической уверенности, что такие, как в опыте, и большие отклонения практически невозможны. В этом случае гипотезу Н0 отвергают.
Если же вероятность Р(U ≥ u) = α не мала, расхождение между эмпирическим и теоретическим распределениями несущественно и гипотезу Н0 можно считать правдоподобной или по крайней мере не противоречащей опытным данным.
Критерии - Пирсона в качестве меры расхождения U берется величина , равная сумме квадратов отклонений частостей (статистических вер-тей) от гипотетических , рассчитанных по предполагаемому распределению, взятых с некоторыми весами :
.
Веса вводятся т.о., чтобы при одних и тех же отклонениях больший вес имели отклонения, при которых мала, и меньший вес - при которых велика. Очевидно, этого удается достичь, если взять обратно пропорциональными вер-тям . Взяв в качестве весов , можно доказать, что при n → ∞ статистика.
, или .
имеет -распределение с k = m - r - 1 степенями свободы, где m - число интервалов эмпирического распределения (вариационного ряда); r - число параметров теоретического распределения, вычисленных по экспериментальным данным.
Числа и называются соответственно эмпирическими и теоретическими частотами.
Схема применения критерия для проверки гипотезы Н0 сводится к следующему:
3амечание. Статистика имеет -распределение лишь при n → ∞, поэтому необходимо, чтобы в каждом интервале было достаточное количество наблюдений, по крайней мере 5 наблюдений. Если в каком-нибудь интервале число наблюдений ni< 5, имеет смысл объединить соседние интервалы, чтобы в объединенных интервалах было не меньше 5.
Функциональная зависимость (связь), когда каждому значению одной переменной соответствует вполне определенное значение другой.
Функциональная зависимость может иметь место как между детерминированными (неслучайными) переменными, так и между случайными величинами.
Статистическая (или стохастическая, вероятностная) зависимость - каждому значению одной переменной соответствует определенное (условное) распределение другой переменной.
Т.е. когда каждому значению одной переменной соответствует не какое-то определенное, а множество возможных значений другой переменной.
Возникновение понятия статистической связи обусловливается тем, что зависимая переменная подвержена влиянию ряда неконтролируемых или неучтенных факторов, а также тем, что измерение значений переменных неизбежно сопровождается некоторыми случайными ошибками.
В силу неоднозначности статистической зависимости между Y и Х для исследователя, в частности, представляет интерес усредненная по х схема зависимости, т.е. закономерность в изменении среднего значения - условного математического ожидания (математического ожидания случайной переменной Y, вычисленного в предположении, что переменная Х приняла значение х) в зависимости от х.
Определение. Статистическая зависимость между 2мя переменными, при которой каждому значению 1 переменной соответствует определенное условное математическое ожидание (среднее значение) другой, называется корреляционной.
Иначе, корреляционной зависимостью между двумя переменными величинами называется функциональная зависимость между значениями одной из них и условным математическим ожиданием другой.
Корреляционная зависимость м.б. представлена в виде:
(1)
(2)
Предполагается, что и , т.е. если при изменении х или у условные математические ожидания и не изменяются, то говорят, что корреляционная зависимость между переменными Х и Y отсутствует.
Сравнивая различные виды зависимости между Х и Y, можно сказать, что с изменением значений переменной Х при функциональной зависимости однозначно изменяется определенное значение переменной Y, при корреляционной - определенное среднее значение (условное математическое ожидание) Y, а при статистической - определенное (условное) распределение переменной Y. Т.о., из рассмотренных зависимостей наиболее общей выступает статистическая зависимость. Каждая корреляционная зависимость является статистической, но не каждая статистическая зависимость является корреляционной. Функциональная зависимость представляет частный случай корреляционной.
Уравнения (1) и (1) называются модельными уравнениями регрессии (или просто уравнениями регрессии) соответственно Y по Х и Х по Y, функции и - модельными функциями регрессии (или функциями регрессии), а их графики - модельными линиями регрессии (или линиями регрессии).
Данные о статистической зав-ти удобно задавать в виде корреляционной таблицы.
(В таблице через и обозначены середины соответствующих интервалов, а и - соответственно их частоты).
Изобразим полученную зав-ть графически точками координатной плоскости. Такое изображение статистической зав-ти наз-ся полем корреляции.
Для каждого значения (i = 1,2,...,l), т.е. для каждой строки корреляционной таблицы вычислим групповые средние
где - частоты пар (,) и ; m - число интервалов по переменной Y.
Вычисленные групповые средние графически в виде ломаной, называемой эмпирической линией регрессии У по Х.
Аналогично для каждого значения (j = 1,2,...,m):
.
где ; l- число интервалов по переменной Х.
По виду ломаной можно предположить наличие линейной корреляционной зав-ти У по Х между двумя рассматриваемыми переменными, которая графически выражается тем точнее, чем больше объем выборки n:
Поэтому уравнение регрессии будем искать в виде:
.
Применим метод наименьших квадратов, согласно которому неизвестные параметры и выбираются таким образом, чтобы сумма квадратов отклонений эмпирических групповых средних , от значений , найденных по уравнению регрессии, был минимальной:
Система нормальных уравнений для определения параметров линейной регрессии:
Или
.
где соответствующие средние определяются по формулам:
, , .
.
Подставляя значение из первого уравнения системы в уравнение регрессии, получим:
, или .
Коэффициент в уравнении регрессии, называемый выборочным коэффициентом регрессии (или просто коэффициентом регрессии) Y по Х, будем обозначать символом . Теперь уравнение регрессии У по Х запишется так:
.
Коэффициент регрессии У по Х показывает, на сколько единиц в среднем изменяется переменная У при увеличении переменной Х на одну единицу.
Решая систему, найдем
где - выборочная дисперсия переменной Х:
μ - выборочный корреляционный момент или выборочная ковариация:
Рассуждая аналогично и полагая уравнение регрессии линейным, можно привести его к виду:
.
Где - выборочный коэффициент регрессии (или просто коэффициент регрессии) Х по Y, показывающий, на сколько единиц в среднем изменяется переменная Х при увеличении переменной У на одну единицу;
- выборочная дисперсия переменной У.
Упрощенный способ:
От значений переменных и переходят к новым значениям
и
где k и k' - величины интервалов, а с и с' - середины серединных интервалов соответственно по переменной Х или У. Тогда:
В этом случае формула для ковариации примет вид: