Будь умным!


У вас вопросы?
У нас ответы:) SamZan.net

тематическая дисциплина благодаря работам выдающегося русского ученого П.html

Работа добавлена на сайт samzan.net:


При m = l (см. рис. 4.1) вероятность достигает максимального значения. Вероятнейшей частотой наступления события называется та частота, при которой вероятность достигает своего наибольшего значения и обозначается m0. Для определения наивероятнейшего числа используем формулу:

пp q m0  np + p.                                       (4.9)

В этом неравенстве т0 может быть только целым числом. Если пр – целое число, то m0 = пр.

Пример 4.5. Вероятность того, что выписанный продавцом чек будет оплачен, равна 0,9. Какое наивероятнейшее число чеков будет оплачено, если выписано 40 чеков?

Решение. Находим произведение пр = 40∙0,9 = 36 (целое число), значит, т0 = 36. Найдем т0 по формуле (4.9) 40∙0,9–0,1 ≤ т0 ≤ 40∙0,9 + + 0,9; 35,9 ≤ m0 ≥ 36.9. Этому двойному неравенству удовлетворяет целое число т0  = 36.

4.5.  Распределение  Пуассона

Распределение Пуассона (закон распределения редких событий) часто используется тогда, когда мы имеем дело с числом событий, появляющихся в промежутке времени или пространства (число машин, прибывших на автомойку в течение часа, число дефектов на новом отрезке шоссе длиной в 10 км, число мест утечки воды на 100 км водопровода, число остановок станков в неделю, число дорожных происшествии).

Если вероятность появления события А в п отдельных независимых испытаниях очень мала < q), то применяется формула Пуассона:

                                       (4.10)

где λ = пр; п – число независимых испытаний с постоянной малой вероятностью р; е – основание натурального логарифма (е = 2,71828);
т – число появлений события = 0, 1, 2, 3, ...).

При помощи формулы (4.10) можно записать закон распределения Пуассона. Его можно написать в виде ряда распределения (табл. 4.6), если, придавая m целые неотрицательные значения т = 0, 1, 2,..., n, вычислить соответствующие им вероятности Рn,т.

Таблица  4.6

Закон распределения Пуассона

т

0

1

2

3

k

n

Рn,т

eλ

λeλ

λ2eλ/2!

λ3eλ/3!

λkeλ/k!

λneλ/n!

Закон распределения Пуассона можно записать в виде функции распределения: λkeλ/k!

F(X) = P(m < x) = Рn,т =λm/k! eλ,

                                    (4.11)

где знак  означает сумму  вероятностей  Рп,т  для всех т, мень-
ших
п.

Применяя формулу (4.11), можно определить вероятность появления события хотя бы один раз в п независимых испытаниях. Поскольку вероятности Рп,т ≥ 1 и Рп,0 есть вероятности противоположных событий, то

                    (4.12)

По формуле (4.12) вычисляются вероятности появления события хотя бы один раз в п независимых испытаниях, если вероятность появления события в отдельных испытаниях постоянна и очень мала, а число испытаний достаточно велико (n ≥ 20), т. е. при условии применимости формулы Пуассона (4.10).

Математическое ожидание и дисперсия случайной величины, распределенной по закону Пуассона, совпадают и равны параметру λ, который определяет этот закон, т. е.

M(Х) = D(Х) = λ.                                         (4.13)

Формула (4.13) устанавливает важный теоретико-вероятностный смысл параметра λ. Последовательность событий, которые наступают в случайные моменты времени, называется потоком событий (например, вызов на АТС).

При этом должны выполняться следующие условия.

Вероятность появления события одна и та же для любых двух интервалов равной длины.

Вероятность того, что событие появится в короткий интервал времени (или пространства), пропорциональна величине интервала.

В очень коротком интервале вероятность того, что два события появятся, близка к нулю.

Вероятность того, что любое число событий появится в интервале, не зависит от начала интервала.

Появление или непоявление события в определенном интервале не зависит от появления или непоявления события в любом другом интервале.

Пример 4.6. Предположим, нас интересует число инкассаторов, прибывающих утром на автомобиле в банк в течение 15 мин. Если мы предположим, что вероятность прибытия автомобиля одинакова в любые два периода времени равной длины и что прибытие или неприбытие автомобиля в любой период времени не зависит от прибытия или неприбытия в любой другой период времени, то последовательность прибытия инкассаторов в банк может быть описана распределением Пуассона.

Анализ предыдущих данных показал, что среднее число инкассаторов, прибывающих в 15-минутный период, равно 10, тогда при
λ = 10 получаем:
Р(т) = λme–λ/m! = 10me–10/m! при т = 0, 1, 2, .…

Если мы хотим узнать вероятность прибытия пяти инкассаторов в течение 15 мин, то при m = 5 получим: Р(5) = 105e–10/5! = 0,0378.

Вероятности распределения Пуассона легче рассчитать, пользуясь специальными таблицами вероятностей распределения Пуассона. В них содержатся значения вероятностей при заданных т и λ.

Пример 4.7. Предположим, нас интересует число дефектов, появившихся на определенном участке шоссе через месяц после его асфальтирования. Мы предполагаем, что вероятность появления дефектов одна и та же на любых двух участках равной длины и что появление или непоявление дефектов на любом промежутке шоссе не зависит от появления дефектов на любом другом участке. Следовательно, для решения задачи можно использовать распределение Пуассона.

Предположим, мы выяснили, что количество дефектов спустя месяц после асфальтирования в среднем равно двум на километр. Найдем вероятность того, что на определенном участке шоссе длиной в
3 км мы не найдем ни одного дефекта спустя месяц после асфальтирования. Поскольку нас интересует интервал длиной в 3 км, то λ =

= (2 деф/км)·(3 км) = 6.

Это – ожидаемое число дефектов на трехкилометровом участке шоссе. Отсюда, используя формулу (4.10) или таблицы распределения Пуассона с λ = 6 и т = 0, получаем, что вероятность отсутствия
дефектов на трех километрах дороги равна 0,0025. Результат говорит о том, что отсутствие дефектов на изучаемом участке дороги весьма маловероятно. Вероятность того, что хотя бы один дефект появится на трех километрах вновь асфальтированной дороги, равна 1–0,0025 =
= 0,9975.

Рассмотрим пример, в котором вероятности будут вычислены точно по формуле Бернулли (4.1) и приближенно по формуле Пуассона (4.10).

Пример 4.8. Проведено 25 независимых испытаний с вероятностью появления события А в каждом из них 0,01. Построим ряд распределения для случайной величины Х = т – числа появлений события А. Вероятность Рn,m вычисляем двумя способами: по формуле Бернулли и по формуле Пуассона. Полученные результаты сравним и оценим погрешности приближенной формулы. По условию п = 25;
р = 0,01; q = 0,99. Вычислим Рn,m и сведем их в табл. 4.7.

Таблица  4.7

Сравнение вероятностей, полученных по формулам

Бернулли и Пуассона

m

0

1

2

3

4

5

6

Рn,m=Cnmpmqn–m

0,778

0,196

0,024

0,002

0,000

0,000

0,000

0,779

0,195

0,022

0,001

0,000

0,000

0,000

|∆|

0,001

0,001

0,002

0,001

0,000

0,000

0,000

Сопоставление вероятностей показывает, что рассчитанные по формуле Пуассона вероятности почти совпадают с их значениями, вычисленными по формуле Бернулли. Максимальная погрешность результатов, вычисленных по формуле Пуассона, равна 0,002.

4.6.  Гипергеометрическое  распределение

Выше мы рассмотрели способы вычисления вероятностей появления события ровно т раз в п независимых повторных испытаниях (по формулам Бернулли и Пуассона). Теперь познакомимся с вычислением вероятности появления события ровно т раз в п зависимых повторных испытаниях. Случайная величина, определяющая число успехов в п повторных зависимых испытаниях, подчиняется гипергеометрическому закону распределения.

Пример 4.9. В урне N шаров, среди которых К белых и (N–K) черных. Без возвращения извлечены п шаров. Определим вероятность того, что в выборке из п шаров окажется т белых (и соответственно n–m черных) шаров. Изобразим ситуацию на схеме:

Случайная величина, интересующая нас, X = т – число белых шаров в выборке объемом в п шаров. Число всех возможных случаев отбора п шаров из N равно числу сочетаний из N по n (CNn), а число случаев отбора т белых шаров из имеющихся К белых шаров (и значит, п–m черных шаров из N–K имеющихся черных) равно произведению CKmCN–Kn–m (отбор каждого из т белых шаров может сочетаться с отбором любого из nт черных). Событие, вероятность которого мы хотим определить, состоит в том, что в выборке из п шаров окажется ровно т белых шаров. По формуле для вероятности события в классической модели вероятность получения в выборке т белых шаров (т. е. вероятность того, что случайная величина X примет значение т) равна

,                                        (4.14)

где CNn – обшее число всех единственно возможных, равновозможных и несовместных исходов, CKmCN–Kn–m – число исходов, благоприятствующих интересующему нас событию.

Итак, вероятность появления интересующего нас события ровно т раз в п зависимых испытаниях вычисляется по формуле (4.14), которая задает значения гипергеометрического закона распределения для т = 0, 1, 2,..., п (табл. 4.8).

Таблица  4.8

Гипергеометрический закон распределения

т

0

1

2

n

Р(X=m)

CK0CN–k n/

CNn 

CK1CN–Kn–1/

CNn

CK2CN–Kn–2/

CNn

CKmCN–K0/

CNn

M(т) = n,                                           (4.15)

D(m) = n (1–)[1– (n–1)/(N–1)],                           (4.16)

где доля единиц с интересующим нас признаком в совокупности N, т. е.  = K/N, а 1–(n–1)/(N–1) называется поправкой для бесповторной выборки.

Пример 4.10. Разыгрывается тираж выигрышного денежного займа, в котором выпушено N облигаций, из которых К – выигрышные. Некто приобрел п облигаций. Найдем вероятность того, что т из них – выигрышные.

Рассуждая в соответствии с изложенной схемой, по формуле (4.14) получим интересующую покупателя облигаций вероятность выигрыша.

Пример 4.11. Автомобили поступают в торговый салон с завода партиями по 10 штук. По соглашению сторон для экономии времени и ресурсов в торговом салоне подвергаются контролю качества и безопасности только 5 из 10 поступающих автомобилей. Обычно 2 из 10 поступивших машин не удовлетворяют стандартам качества. Определим, чему равна вероятность того, что хотя бы одна из 5 проверяемых машин будет забракована.

Решение. Здесь имеет место выборка без возвращения, следовательно, случайная величина – число бракованных автомобилей – подчиняется гипергеометрическому распределению: N = 10, К = 2,
NК = 8  и  n = 5,  т = 1, 2.

                                                      Р10,1 = C21C84/C105 = 0,5556,

2                 5                8

                                                      Р10,2 = C22C83/C105 = 0,2222.

        1                                  4

        2                                   3     

        Р10,1+P10,2 = 0,5556 + 0,2222 = 0,7778.

Пример 4.12. На станцию под погрузку поступило 20 вагонов, среди которых один с дефектом. Из них случайным образом отобраны 2 вагона. Требуется:

1) построить закон распределения числа вагонов с дефектом;

2) построить биномиальное распределение, приняв в качестве постоянной вероятности р = 0,05, а числа испытаний – n = 2.

Решение:

1. По условию задачи N = 20, К = 1, п = 2. Случайная величина – число вагонов с дефектом т может принимать два значения; 0 и 1. По формуле (4.14) вычислим вероятности этих значений: P2,0 = C10C192/ /C202 = 0,9000; P2,1=C11C191/C201 = 0,1000. Полученные результаты сведем в табл. 4.9, что и будет гипергеометрическим законом распределения т.

                         Таблица  4.9

Гипергеометрический закон распределения

т

0

1

P2,m

0,900

0,100

2. По условию задачи n = 2, р = 1/20 = 0,05, q = 0,95, случайная величина т имеет возможные значения: 0, 1, 2. По формуле Бернулли вычислим вероятности Pn,m: P2,0 = C200,0500,952 = 110,952 = 0,9025, P2,1=C210.050,95 = 20,050,95 = 0,0950, P2,2 = C200.0520,950 =10,052 = = 0,0025 (табл. 4.10).

                         Таблица  4.10

Биномиальный закон распределения

т

0

1

2

P2,m

0,9025

0,0950

0,0025

Пример 4.13. Из 20 лотерейных билетов выигрышными являются 4. Наудачу извлекаются 4 билета. Требуется:

1) построить закон распределения числа выигрышных билетов среди отобранных;

2) построить биномиальное распределение выигрышных билетов, для р = 0,2, п = 4;

3) сопоставить результаты решения примеров 4.12 и 4.13.

Решение:

1. По условию задачи N = 20, К = 4, n = 4. По формуле (4.14) вычисляем вероятности Р4,т= 0, 1, 2, 3, 4) и строим гипергеометрическое распределение (табл. 4.11):

P4,0 = C40C164/C204 = 0,3756;      P4,1 = C41C163/C204 = 0,4623;

P4,2=C42C162/C204 = 0,1486;        P4,3 = C43C161/C204 = 0,0132;

P4,4 = C44C160/C204 = 0,0002.

                                          Таблица  4.11

Гипергеометрическое распределение

т

0

1

2

3

4

P4,m

0,3756

0,4623

0,1486

0,0132

0,0002

2. По условию задачи п = 4; за постоянное значение вероятности p принимаем долю выигрышных билетов: р = 4/20 = 0,2; q = 16/20 = 0,8. По формуле Бернулли вычисляем вероятности для всех возможных значений т (0, 1, 2, 3, 4) и строим биномиальный закон распределения (табл. 4.12)

P4,0 = C400.20 0,84 = 0,4096,        P4,1 = C410.21 0,83 = 0,4096,

P4,2 = C42 0.22 0,82 = 0,1536,      P4,3 = C43 0.23 0,81 = 0,0256,

P4,4 = C44 0.44 0,80 = 0,0016.

     Таблица  4.12

Гипергеометрическое распределение

m

0

1

2

3

4

P4,m

0,4096

0,4096

0,1536

0,0256

0,0016

3. В примере 4.12, где отношение n/N мало (n/N = 2/20 = 0,1), расхождение вероятностей, вычисленных двумя способами (табл. 4.11 и 4.12), невелико. Его максимальное значение равно 0,005 (0,100–0,095). В примере 4.13, где отношение n/N в два раза больше (n/N = 4/20 =
= 0,2), максимальное расхождение достигает значительной величины – 0,052 (табл. 4.11 и 4.12).

В случае выбора из большой генеральной совокупности биномиальное распределение более удобно, чем гипергеометрическое. Важно понять, однако, что гипергеометрическое распределение – более корректно для выборок без возврата.

Вообще при достаточно большом значении N и малом объеме выборки п (когда ) гипергеометрическое распределение практически совпадает с биномиальным. Кроме того, при условии  гипергеометрическое распределение является трехпараметрическим (N, К, п), табулирование которого затруднено, и его можно аппроксимировать двухпараметрическим (n, р) биномиальным.

4.7.  Производящая  функция

Выше были рассмотрены способы определения вероятности Рn,m для случаев, когда вероятность события А во всех п независимых испытаниях одна и та же. На практике приходится встречаться и с такими случаями, когда вероятность наступления события А от испытания к испытанию меняется.

Пример 4.14. Устройство состоит из трех независимо работающих элементов. Вероятность безотказной работы (за время t) первого элемента равна 0,9, второго – 0,8 и третьего – 0,7. Составим закон распределения числа элементов, вышедших из строя.

Пусть проведено два независимых испытания. Вероятность появления события А в первом из них – p1, во втором – р2; вероятности непоявления события А соответственно равны q1 = 1– p1; q2 = 1– р2. Требуется определить вероятности P2,0, P2,1, P2,2, т. е. вероятности появления события А ровно 0 раз, ровно 1 раз и ровно 2 раза в двух независимых испытаниях.

Решение. Применяя теорему сложения вероятностей для несовместных событий и теорему умножения для независимых событий, получим: P2,0 = q1q2; P2,1 = p1q2  + q1p2; P2,2 = p1p 2. Пусть теперь проведено три независимых испытания с вероятностями появления события А: p1, p2, p3. Вероятности непоявления события А в первом, во втором и третьем опытах соответственно равны q1 = 1– p1, q2 = 1– р2, q3 = 1– р3. Определим вероятности P3,0, P3,1, P3,2, P3,3, т.е. вероятности появления события А ровно 0 раз, ровно 1 раз, ровно 2 раза и ровно 3 раза в трех независимых испытаниях.

Применяя теорему сложения вероятностей несовместных событий и теорему умножения вероятностей для независимых событий, получим: P3,0 = q1q2 q3; P3,1 = p1q2q3 + q1p2q3 + q1q2p3;  P3,2 = p1p2q3 + p1q2p3 +
+
q1p2p3;  P3,3 = p1p2p3.

Эти вероятности можно получить, если перемножить три бинома

и привести подобные члены. Тогда коэффициенты при zm будут соответствовать вероятностям P3,m(m =
= 0, 1, 2, 3). Здесь
z произвольный параметр. Для n независимых испытаний получим

·

Выражение    обозначают

и называют производящей функцией.

4.8.  Мультиномиальное  распределение

Напомним, что в биномиальном эксперименте мы классифицируем исходы как успехи и неуспехи. Если обобщить ситуацию, то исходы можно классифицировать более чем по двум категориям. Предположим, есть k категорий исходов: «покупка товара А», «покупка товара В», «покупка товара К». Обозначим Х1число проданных единиц товара A, Х2число проданных единиц товара В,...., Хkчисло проданных единиц товара К. Вероятностное распределение Х1, Х2,..., Хk в выборке объемом п есть мультиномиальное распределение с параметрами п и вероятностями р1, р2,…, рk, где рi – вероятность появления категории i (рi = 1 – qi), и они остаются неизменными от испытания к испытанию и испытания независимы.

Формула мультиноминального распределения имеет следующий вид:

P(Х1, Х2,., Хk) = n!/(Х1! Х2! ...Хk!)∙р1x1р2x2 ·рkxk.             (4.17)

Пример 4.15. Предположим, что из общего числа семей, живущих на данной территории, 25 % имеют душевые доходы ниже прожиточного минимума (черты бедности), 35 % имеют доходы, равные среднедушевым доходам, у 20 % доходы в полтора раза выше средних, а у остальных 20 % семей доходы в два и более раза превышают средний душевой доход для данной территории. Пусть А1 – случайное событие, состоящее в случайном отборе семьи, которая принадлежит к первой группе. А2, А3 и А4 – аналогичные события, состоящие в случайном отборе семей, которые принадлежат соответственно ко второй, третьей и четвертой доходным группам.

По условию p1 = 0,25; р2 = 0,35; р3 = 0,20; р4 = 0,20. Предположим, что для целей обследования необходимо провести случайный повторный отбор 50 семей для обследования уровня жизни населения. Определим вероятность того, что все отобранные семьи будут бедными (с доходом ниже прожиточного минимума).

Решение. По формуле (4.17) имеем:  P(Х1 = 50,  Х2 = 0,  Х3 = 0,
Х4 = 0) = 50!/(50!∙0!∙0!∙0!)∙0,2550∙0,350∙0,200∙0,200 = 0,2550 ≈ 0.

4.9.  Геометрическое  распределение

Рассмотрим биномиальный эксперимент с обычными условиями. Пусть вместо вычисления числа успехов в независимых испытаниях случайная величина определяет число испытаний до первого успеха. Такая случайная величина распределена по закону геометрического распределения. Вероятности геометрического распределения вычисляются по формуле

P(m) = pqm–1,                                             (4.I8)

где т = 1, 2, 3, ...; p и q – биномиальные параметры. Математическое ожидание геометрического распределения

M(m)= 1/p,                                             (4.19)

а дисперсия                       σ2 = D(m) = q/p2 .                                      (4.20)

Например, число деталей, которые мы должны отобрать до того, как найдем первую дефектную деталь, есть случайная величина, распределенная по геометрическому закону. В чем здесь смысл математического ожидания? Если доля дефектных деталей равна 0, 1, то вполне логично, что в среднем мы будем иметь выборки, состоящие из 10 деталей до тех пор, пока не встретим дефектную деталь.

Пример 4.16. Исследования в некотором регионе показали, что пепси-кола занимает 33,2 % рынка безалкогольных напитков, а кока-кола 40,9 %. Исследователи рынка собираются провести новое исследование, чтобы проверить вкусы и предпочтения потребителей пепси-колы. Потенциальные участники отбираются случайным образом среди потребителей безалкогольных напитков. Определим вероятность того, что случайно отобранный потребитель пьет пепси-колу. Рассчитаем вероятность того, что среди (двух, трех, четырех) отобранных потребителей безалкогольных напитков первым будет найден потребитель пепси-колы.

Решение. Пусть «успех» в единичном испытании с вероятностью 0,332 есть событие «первый случайно отобранный потребитель предпочитает пепси-колу». Используя геометрическое распределение при т=1, найдем из формулы (4.18): Р(1) = 0,332∙0,6880 = 0,332. Точно так же первый выбранный человек не будет, а второй будет потребителем пепси-колы с вероятностью P(2) = 0,332∙0,6881 = 0,2218. Вероятность того, что двое потребителей, не употребляющих пепси-колу, будут проинтервьюированы до того, как первый потребитель пепси-колы будет найден, равна P(3) = 0,332∙0,6882 = 0,1481. И окончательно
P(4) = 0,332∙0.6883 = 0,099.

5.  Непрерывные  случайные  величины

5.1.  Определение  непрерывной  случайной  величины. Функция  распределения  непрерывной  случайной

величины

Непрерывной случайной величиной называют случайную величину, которая может принимать любые значения на числовом интервале.

Примеры непрерывных случайных величин: возраст студентов, длина ступни ноги человека, масса детали и т. д. Это положение относится ко всем случайным величинам, измеряемым на непрерывной шкале, таким как меры веса, длины, времени, температуры, расстояния. Измерение может быть проведено с точностью до какого-нибудь десятичного знака, но случайная величина – теоретически непрерывная величина. В экономическом анализе находят широкое применение относительные величины, различные индексы экономического состояния, которые также вычисляются с определенной точностью, скажем, до двух знаков после запятой, хотя теоретически их значения – непрерывные случайные величины.

У непрерывной случайной величины возможные значения заполняют некоторый интервал (или сегмент) с конечными или бесконечными границами.

Закон распределения непрерывной случайной величины можно задать в виде интегральной функции распределения, являющейся наиболее общей формой задания закона распределения случайной величины, а также в виде дифференциальной функции (плотности распределения вероятностей), которая используется для описания распределения вероятностей только непрерывной случайной величины.

Функция распределения (или интегральная функция) F(x) универсальная форма задания закона распределения случайной величины. Для непрерывной случайной величины функция распределения также определяет вероятность того, что случайная величина X примет значение, меньшее фиксированного действительного числа х, т. е.

F(x) = F(X < x).                                        (5.1)

При изменении х меняются вероятности Р(Х < x) = F(x). Поэтому F(x) и рассматривают как функцию переменной величины. Принято считать, что случайная величина X известна, если известна ее функция распределения F(x).

Теперь можно дать более точное определение непрерывной случайной величины: случайную величину называют непрерывной, если ее функция распределения есть непрерывная, кусочно-дифференци-руемая функция с непрерывной производной.

5.2.  Свойства  функции  распределения

(для  дискретных  и  непрерывных

случайных  величин)

1. Функция распределения есть неотрицательная функция, заключенная между 0 и 1, т.е. 0 ≤ F(x) ≤ 1.

2. Функция распределения есть неубывающая функция, т. е. F(x2) F(x1), если х2 > х1. Тогда P(x1 ≤ Х < х2) = P(Х < х2) – P(Х < х1) = F(x2)
– F
(x1).

Так как любая вероятность есть число неотрицательное, то P(x1 ≤ ≤ Х < х2) 0, а следовательно, F(x2) – F(x1) ≥ 0 и F(x2) ≥ F(x1).

Следствие 1. Вероятность того, что случайная величина X примет значение, заключенное в интервале (α, β), равна приращению функции распределения на этом интервале, т. е.

P(α ≤ Х < β) = F(β) – F(α).                                (5.2)

Следствие 2. Вероятность того, что непрерывная случайная величина X примет одно определенное значение, равна нулю.

Р(Х = х1) = 0.                                          (5.3)

Согласно сказанному, равенство нулю вероятности Р(Х = х1) не всегда означает, что событие Х = х1 невозможно. Говоря о вероятности события Х = х1, априорно пытаются угадать, какое значение примет случайная величина в опыте.

Если х1 лежит в области возможных значений непрерывной случайной величины X, то с некоторой уверенностью можно предсказать область, в которую случайная величина может попасть. В то же время невозможно хотя бы с малейшей степенью уверенности угадать, какое конкретное значение из бесконечного числа возможных примет непрерывная случайная величина.

Например, если метеослужба объявляет, что температура воздуха в полдень составила 5 °С, то это не означает, что температура будет точно равна этому значению. Вероятность такого события равна нулю.

3. Если все возможные значения случайной величины принадлежат интервалу (α, β), то

F(х) = 0 при х ≤ α;  F(х) = 1 при х > β.                       (5.4)

В самом деле, F(x) = 0 для всех значений х ≤ α и F(х) = 1 при х > β, поскольку события X < х для любого значения х  α, являются в этом случае невозможными, а для любого значения х > β – достоверными.

Следствие. Если возможные значения непрерывной случайной личины расположены на всей оси ОХ, то справедливы следующие предельные соотношения:

,                              (5.5)

или F(– ∞) = 0;  F(+ ∞) = 1. Это следствие справедливо и для дискретных случайных величин.

5.3.  График  функции  распределения

для  непрерывной  случайной  величины

Из перечисленных выше свойств F(х) может быть представлен график функции распределения (рис. 5.1).

Рис. 5.1. График функции распределения

непрерывной случайной величины

График функции распределения смешанной случайной величины – кусочно-непрерывная функция (рис. 5.2).

Рис. 5.2. График кусочно-непрерывной

функции распределения

5.4.  Плотность  распределения  вероятностей непрерывной  случайной  величины

(дифференциальная  функция)

Плотностью распределения вероятностей непрерывной случайной величины X называется функция W(x), равная первой производной от функции распределения F(x),

W(x) = F(x),                                          (5.6)

где W(x) – дифференциальная функция распределения. Дифференциальная функция применяется только для описания распределения вероятностей непрерывных случайных величин.

5.5.  Вероятность  попадания  непрерывной  случайной величины  в  заданный  интервал

Вероятность того, что непрерывная случайная величина примет значение, принадлежащее интервалу (α, β), равна определенному интегралу от дифференциальной функции, взятому в пределах от α до β,

P(α < X < β) = .                                   (5.7)

Используя соотношения (5.2) и (5.1), получим P(α ≤ X < β) = P(α < < X < < β) = .

Геометрически этот результат равен площади криволинейной трапеции, ограниченной осью ОХ, кривой распределения W(x) и прямыми х = α, х = β.

5.6.  Нахождение  функции  распределения  

по  известной  плотности  распределения

Зная плотность распределения W(x), можно найти функцию распределения F(x) по формуле

F(x) = .                                     (5.8)

В самом деле, так как неравенство X < х можно записать в виде двойного неравенства – ∞ < X < х, то F(x) = P(∞ < X < х) = (рис. 5.3).

Рис. 5.3. Связь функции распределения с плотностью

распределения вероятностей

Таким образом, для полной характеристики непрерывной случайной величины достаточно задать функцию распределения или плотность ее вероятности.

5.7.  Свойства  дифференциальной  функции распределения

1. Дифференциальная функция – неотрицательная функция:

W(x) ≥ 0.                                                (5.9)

Это следует из того, что F(x) неубывающая функция, а значит, ее производная неотрицательна.

2. Несобственный интеграл от дифференциальной функции в пределах от – ∞ до + ∞ равен 1

.                                        (5.10)

Очевидно, что этот интеграл выражает вероятность достоверного события – ∞ < Х + ∞.

5.8.  Числовые  характеристики  непрерывных случайных  величин

Математическим ожиданием непрерывной случайной величины называется несобственный интеграл вида

М(Х) =.                              (5.11)

Дисперсией непрерывной случайной величины называется несобственный интеграл вида

D(x) = σ2 =.                     (5.12)

Средним квадратическим отклонением непрерывной случайной величины называется квадратный корень из дисперсии

σ = .                                            (5.13)

Для числовых характеристик непрерывных случайных величин справедливы те же свойства, что и для дискретных. В частности, для дисперсии непрерывной случайной величины справедлива формула

D(X)=.    (5.14)

Начальным моментом k-го порядка (mk) случайной величины X называется математическое ожидание ее k-й степени:

для дискретной случайной величины  mk=;

для непрерывной случайной величины  mk = .     (5.15)

Центральным моментом k-го порядка к) случайной величины X называют математическое ожидание k-й степени отклонения случайной величины X от ее математического ожидания:

для дискретной случайной величины μk =;

для непрерывной случайной величины

μk =.                          (5.16)

Заметим, что начальный момент первого порядка m1 представляет собой математическое ожидание случайной величины, а центральный момент второго порядка μ2 – дисперсию случайной величины.

Центральный момент третьего порядка применяется для характеристики скошенности или асимметрии распределения (коэффициент асимметрии):

β1 = μ3/σ3.                                          (5.17)

Для симметричных распределений β1 = 0. Центральный момент 4-го порядка применяется для характеристики крутости (эксцесса) распределения (неприведенный коэффициент эксцесса):

β2 = μ4/σ4.                                          (5.18)

Часто в практических ситуациях используют квадрат коэффициента асимметрии и приведенный коэффициент эксцесса. 

γ1 = β12 = μ23/σ6;   γ2 = β2 –3 = μ4/σ4–3.

Величина хр, определяемая равенством F(xp) = Р(Х < хр), называется квантилью уровня p. Квантиль х0,5 называется медианой. Значение х, при котором W(x) принимает максимальное значение, называется модой.

6. Законы распределения непрерывных случайных величин

6.1. Нормальное распределение

Наиболее важным распределением непрерывных СВ является нормальное распределение. Множество явлений в практической жизни можно описать с его помощью, например, высоту деревьев, площади садовых участков, массу людей, дневную температуру и т.д. Оно используется для решения многих проблем в экономической жизни, например, число дневных продаж, число посетителей универмага в неделю, число работников в некоторой отрасли, объемы выпуска продукции на предприятии и т. д.

Нормальное распределение находит широкое применение и для аппроксимации распределения дискретных СВ, например, доходы от определенных видов рискованного бизнеса.

Нормальное распределение иногда называют законом ошибок, например, отклонения в размерах деталей от установленного.

Нормальная СВ имеет плотность распределения:

                                               (6.1)

где | х‌‌‌<∞, а=М(Х), λ=σ(Х).

Основные свойства W(x):

а) W(x)>0 и существует при любых действительных значениях х;

б) при | х|→∞ limW(x)=0;

в) W(x=а)=Wmax(x).

г) W(x) симметрична относительно прямой х=а.

д) W(x) имеет две точки перегиба, симметричные относительно прямой х=а; с  абсциссами а–λ и а+λ и ординатами 1/(λ√2π).

Формула (6.1) содержит два параметра: математическое ожидание а=М(Х) и стандартное отклонение λ=σ. Существует бесконечно много нормально распределенных СВ с разными M(Х) и σ(X).

Математическое ожидание а характеризует положение кривой распределения на оси абсцисс. Изменение параметра а при неизменном σ приводит к перемещению оси симметрии (х=а) вдоль оси абсцисс и, следовательно, к соответствующему перемещению кривой распределения. М(Х)=а иногда называют центрам распределения или параметром сдвига.

Изменение среднего квадратического отклонения при фиксированном значении математического ожидания приводит к изменению формы кривой распределения. С уменьшением λ вершина кривой распределения будет подниматься, кривая будет более «островершинной». С увеличением λ кривая распределения менее островершинная и более растянута вдоль оси абсцисс.

Одновременное изменение параметров a и λ приведет к изменению и формы, и положения кривой нормального распределения.

Условимся о форме записи СВ X~D(X;М(Х),σ2), что означает: СВ X подчиняется закону распределения D с математическим ожиданием М(Х) и стандартным отклонением, либо дисперсией σ2.

6.2. Стандартное (нормированное) нормальное распределение

Если в формуле (6.1) а=0; λ=1, то

=     (6.2)

стандартное (нормированное) нормальное распределение.

Стандартная нормальная СВ обозначается Z~N(X;0,12). Оно табулировано.

Свойства функции φ(z):

а) функция ω(z) – четная, т. е. ω(z)= ω(–z);

б) при |z|→∞ W(z)→0; при |z|>5 можно считать, что ω(z)=0. В связи с этим таблицы ограничиваются аргументами z=4 или z=5;

г) максимальное значение функция ω(z) принимает при z=0.

Любая нормально распределенная СВ может быть преобразована в стандартную (нормированную) нормально распределенную СВ действием:

Z=(X-a)/ λ.      (6.3)

Обратное преобразование стандартной нормальной СВ Х~N (X;a,λ2):

X=a+Zλ.      (6.4)

6.3. Вероятность попадания в интервал нормально распределенной СВ. Интегральная функция Лапласа–Гаусса и ее свойства. Связь нормальной функции распределения с интегральной функцией Лапласа–Гаусса

Если СВ задана плотностью распределения W(x), то вероятность того, что X примет значение, принадлежащее интервалу (α, ), определяется:

P(X).

Если СВ X~N(X; a, λ2), то

P(X)=dx.

Чтобы пользоваться таблицами для вычисления вероятностей, преобразуем X в Z и найдем новые пределы интегрирования. При х=, z=(–а)/λ; при х=, z=(а)/λ, x=az, dxdz. Тогда

P(X)=

Функция вида 

  (6.5)

называется интегралом вероятностей или функцией Лапласа.

 Функция Лапласа в общем виде не берется. Ее можно вычислить одним из способов численного интегрирования. Эта функция табулирована. Пользуясь функцией Лапласа, окончательно получим:

P(X)=.    (6.6)

Формула (6.6) называется интегральной теоремой Лапласа.

Свойства 0(z):

а) 0(z) – нечетная; т.е. 0(–z)=-0(z);

б) при z=0 =0;

в) при z+∞ 0(z) 0,5; при z–∞ 0(z) –0,5. Ф0(4)=0,499997,

Ф0(–4) = –0,499997, т.е. при z4 можно считать, что Ф0(z)±0,5.

Следовательно, все возможные значения интегральной функции Лапласа-Гаусса принадлежат интервалу (0,5; +0,5).

Итак, функция распределения СВ, подчиняющейся нормальному закону распределения, представленная через функцию Лапласа есть:

F(x)=0,5+Фо[(xa)/λ].      (6.7)

Во многих ситуациях может быть рассмотрена задача обратная предыдущей: определение z по заданной вероятности попадания случайной величины в интервал.

6.4. Правило «трех сигм»

Если обозначить (Xa)/σ=Z, Δ=(Xa)=σZ, то:

P(|Xa|<)=2Ф0(z),     (6.8)

где 2Ф0(z) – вероятность того, что отклонение СВ от ее математического ожидания М(Х)=а по абсолютной величине будет меньше z сигм.

Пусть z равно: 1; 2; 3. Пользуясь формулой (6.8) и таблицей интеграла вероятностей, вычислим вероятность того, что отклонение по абсолютной величине будет меньше σ, 2σ и Зσ:

при z=1, Δ=σ и P(|Xa|< σ)=2Ф0(1)=0,6826;

при z=2, Δ=2σ и P(|Xa|<2σ)=2Ф0(2)=0,9544;

при z=3, Δ=3σ и P(|Xa|<3σ)=2Ф0(3)=0,9973.

Вероятность того, что СВ попадет в интервал (а–3σ; а+3) равна 0,9973.

Т.е. вероятность того, что отклонение СВ от математического ожидания по абсолютной величине превысит утроенное σ, очень мала и равна 0,0027. В этом состоит правило «трех сигм»: если СВ распределена по нормальному закону, то ее отклонение от математического ожидания практически не превышает ±3σ.

6.5. Понятие о теоремах, относящихся к группе «центральной предельной теоремы»

В теоремах этой группы выясняются условия, при которых возникает нормальное распределение. Общим для этих теорем является следующее: закон распределения суммы достаточно большого числа независимых СВ при некоторых условиях неограниченно приближается к нормальному.

Познакомимся с содержанием (без доказательства) с одной из теорем.

  •  Центральная предельная теорема для одинаково распределенных слагаемых (теорема П. Леви).

Теорема.  Если независимые СВ Х1, Х2,… Хn, имеют один и тот же закон распределения с математическим ожиданием а и дисперсией σ2, то при неограниченном увеличении n закон распределения суммы Х12+…+Хn неограниченно приближается к нормальному.

Теорема Ляпунова. Если СВ Y представляет собой сумму большого числа независимых СВ Y1, Y2,… Yn, влияние каждой из которых на всю сумму равномерно мало, то величина Y имеет распределение, близкое к нормальному, и тем ближе, чем больше п.

Ценно то, что законы распределения суммируемых СВ могут быть любыми, заранее не известными исследователю. Практически данной теоремой можно пользоваться и тогда, когда речь идет о сумме сравнительно небольшого числа СВ. Опыт показывает, что при числе слагаемых около 10 закон распределения суммы близок к нормальному.

Теорема Ляпунова имеет важное практическое значение, поскольку многие СВ можно рассматривать как сумму независимых слагаемых (ошибки измерений, отклонения размеров деталей, распределение числа продаж некоторого товара, валютные курсы и т.д.)

6.6. Показательное (экспоненциальное) распределение

Экспоненциальное (показательное) распределение связано с распределением Пуассона, используемым для вычисления вероятности появления события в некоторый период времени. Распределение Пуассона – это распределение числа появления событий в заданный интервал времени длиной t. Параметр распределения Пуассона λ характеризует интенсивность процесса, с его помощью вычисляют среднее число появления события.

Например, в банк в среднем входит пять посетителей в час. Предположим теперь, что вместо числа появления события в заданный промежуток времени нас интересует длина промежутка времени до появления первого посетителя в банке. Такая задача решается при помощи экспоненциального распределения, а не распределения Пуассона.

Другие примеры. Интервалы времени до первого телефонного звонка на станцию, время ожидания такси – подчиняются экспоненциальному закону.

Обозначив среднее значение появления событий в некоторый промежуток времени через λ, а время до появления первого события х=t, можно получить дифференциальную функцию экспоненциального распределения:

     (6.9)

где х0, λ>0параметр. Функция экспоненциального закона:

.     (6.10)

Числовые характеристики экспоненциально распределенной СВ X: М(Х)=1/λ, D(x)=1/λ2,(x)=1/λ.

6.7. Закон равномерного распределения (равномерной плотности)

Если известно, что значения непрерывной СВ принадлежат определенному интервалу, а ее плотность распределения на интервале постоянна, то СВ распределена по равномерному закону.

В равномерном распределении вероятность того, что СВ будет принимать значения внутри заданного интервала, пропорциональна длине этого интервала.

Пусть непрерывная СВ X распределена на интервале (α;β) с равномерной плотностью. Ее плотность W(х) на этом участке постоянна и равна C. Вне этого интервала она равна нулю, так как СВ X за пределами интервала (α; β) значений не имеет. Найдем значение постоянной С. Площадь, ограниченная кривой плотности распределения вероятностей и осью абсцисс, должна быть равна единице, т.е. С(β–α)=1.

Следовательно, С=1/(β–α) и плотность для равномерного распределения:

    (6.14)

Функция распределения    (6.15)

Числовые характеристики равномерно распределенной СВ: М(Х)=(α+β)/2, D(x)=(βα)2/12, (x)=√D(x)=(βα)/2√3.

Для непрерывной равномерно распределенной СВ X, заданной на интервале (a<X<b)

P(a<X<b)=(ba)/(βα).      (6.19)

7.  Закон  больших  чисел

7.1. Принцип практической уверенности.

Формулировка закона больших чисел

в литературе этот принцип иногда называется принципом практической невозможности маловероятных событий. Известно, что если событие имеет очень малую вероятность, то в единичном испытании это событие может наступить и не наступить. Но так рассуждаем мы только теоретически, а на практике считаем, что событие, имеющее малую вероятность, не наступает, и поэтому мы, не задумываясь, пренебрегаем им.

Но нельзя дать ответ в рамках математической теории на вопрос, какой должна быть верхняя граница вероятности, чтобы можно было назвать «практически невозможными» события, вероятности которых не будут превышать найденной верхней границы.

Пример. Рабочий изготавливает на станке 100 изделий, из которых одно в среднем оказывается бракованным. Вероятность брака равна 0,01, но ею можно пренебречь и считать рабочего неплохим специалистом. Но если строители будут строить дома так, что из 100 домов (в среднем) в одном доме будет происходить разрушение крыши, то вряд ли можно пренебречь вероятностью такого события.

Итак, в каждом отдельном случае мы должны исходить из того, насколько важны последствия в результате наступления события. При «практически достоверных» событиях, вероятность которых близка к единице, также встает вопрос о степени этой близости. Вероятность, которой можно пренебречь в исследовании, называется уровнем значимости.

Принцип практической уверенности. Если какое-нибудь событие имеет малую вероятность (например, р < 0.01), то при единичном испытании можно практически считать, что это событие не произойдет, а если событие имеет вероятность, близкую к единице > 0,99), то практически при единичном испытании можно считать, что событие произойдет наверняка.

Таким образом, исследователя всегда должен интересовать вопрос, в каком случае можно гарантировать, что вероятность события будет как угодно близка к 0 или как угодно близка к 1. Основной закономерностью случайных массовых явлений является свойство устойчивости средних результатов.

В широком смысле слова под «законом больших чисел» понимают свойство устойчивости случайных массовых явлений. Это свойство состоит в том, что средний результат действия большого числа случайных явлений практически перерастает быть случайным и может быть предсказан с достаточной определенностью. Свойство вытекает из того, что индивидуальные особенности отдельных случайных явлений, их отклонения от среднего результата в массе своей взаимно погашаются, выравниваются.

В узком смысле слова под «законом больших чисел» понимают совокупность теорем, в которых устанавливается факт приближения средних характеристик к некоторым постоянным величинам в результате большого числа наблюдений.

Различные формы закона больших чисел дают возможность уверенно оперировать случайными величинами, осуществлять научные прогнозы случайных явлений и оценивать точность этих прогнозов.

Формулировка закона больших чисел, развитие идеи и методов доказательства теорем, относящихся к этому закону, принадлежат русским ученым: П. Л. Чебышеву, А. А. Маркову и A. M. Ляпунову. В нашей работе некоторые формы закона больших чисел приводятся без доказательства.

7.2.  Неравенства Маркова и Чебышева

Доказательство закона больших чисел основано на неравенстве Чебышева. Неравенство Маркова в литературе иногда называется леммой Маркова или леммой Чебышева, так как оно является частным случаем неравенства Чебышева.

Лемма Маркова. Если случайная величина Х не принимает отрицательных значений, то для любого положительного числа α справедливо неравенство

P(Х ≥ α ) ≤ М(Х/α).                                      (7.1)

События Х < α  и Х ≥ α противоположные, поэтому, используя (7.1), получаем

Р(Х < α ) = 1–Р(Х ≥ α ) ≥ 1– М(Х)/α .                   (7.2)

Выражения (7.1–7.2) справедливы для дискретных и непрерывных случайных величин.

Пример 7.1. Дана случайная величина X:

Xi

2

4

6

8

10

12

Pi

0,1

0,2

0,25

0,15

0,15

0,15

Пользуясь неравенством Маркова, оценим вероятность того, что случайная величина X примет значение, меньшее 11.

Решение. Исходя из условия, будем рассуждать так:

(Х < 11) = Р(X = 2) + Р(Х = 4)+ Р(Х = 6) + Р(Х = 8)+Р(Х = 10) =

= 0,1 + 0,2 + 0,25 + 0,15 + 0,15 = 0,85.

Используя неравенство Маркова (7.2), получаем

Р(Х < 11) ≥1 – М(Х)/11 = 1–(2·0,1 + 4·0,2 + 6·0,25 + 8·0,15 + 10·0,15 +

      + 12·0,15)/11 = 1– (0,2 + 0,8 + 1,5 + 1,2 + 1,8)/11 = 1 – 7/11 =

                      = 1 – 0,636 = 0,364.   Р(Х < 11) ≥ 0,364.

Пример 7.2. Сумма всех вкладов в некоторой сберегательной кассе составляет 20 000 000 руб., а вероятность того, что случайно взятый вклад меньше 100 000, равна 0,8. Определим число вкладчиков сберегательной кассы.

Решение. Пусть X – величина случайно взятого вклада, а n – число всех вкладчиков. Тогда из условия задачи следует, что М(Х) =
= 20 000 000/
n; Р(X < 100 000) = 0,8, и по неравенству Маркова Р(X <
< 100 000) ≥ 1–
М(Х)/100 000.

Таким образом, 0,8 ≥ 1 – 20 000 000 / (100 000); 20 000 000 /
/ (
100 000) ≥ 0,2; 200 ≥ 0,2; n ≤ 1000.

Неравенство Чебышева. Вероятность того, что отклонение X от ее математического ожидания по абсолютной величине будет меньше данного положительного числа ε, ограничена снизу величиной

1–D(X)/ε2,   т.е.   Р(|X M(X)|< ε) 1–D(X)/ε2.         (7.3)

Из (7.3) переходом к противоположному событию можно получить:

Р(|X–M(X) | ≥ ε) D(X)/ε2.                                (7.4)

Пример 7.3. Вероятность наступления некоторого события
р = 0,3 в каждом из n = 900 независимых испытаний. Используя неравенство Чебышева, оценим вероятность того, что событие повторится число раз, заключенное в пределах от m1 = 240 до m2 = 300.

Решение. Здесь по условиям задачи имеет место биномиальный эксперимент. Следовательно, М(X) = а = пр = 900∙0,3 = 270;

ε = |240–270| = |300–270| = 30;    D(X) = npq = 900∙0,3∙0,7 = 189;

Р(|X–270| < 30) 1 – D(X)/ε2 = 1–189/302 = 1–0,21 = 0,79,

т.е. Р(|X–270| < 30 ≥ 0,79.

7.3.  Теорема Чебышева (частный случай)

Теорема устанавливает в количественной форме связь  между средней арифметической  наблюдаемых значений случайной величины X и М(X) = а.

Теорема. При неограниченном увеличении числа n независимых испытаний средняя арифметическая наблюдаемых значений случайной величины сходится по вероятности к ее математическому ожиданию, т. е. для любого положительного ε

Р(|а| < ε) = 1.                                  (7.5)

Смысл выражения « сходится по вероятности к a» состоит в вероятности того, что  будет сколь угодно мало отличаться от a, неограниченно приближаясь к 1 с ростом n. Для конечного n

Р(|– M(X)| < ε) 1 –D(X)/(n∙ε2).                        (7.6)

Если в (7.6) взять сколь угодно малое ε >0 и n , то

что и доказывает теорему Чебышева.

Из рассмотренной теоремы вытекает важный практический вывод. Он состоит в том, что неизвестное нам значение математического ожидания случайной величины мы вправе заменить средним арифметическим значением, полученным по достаточно большому числу опытов. При этом чем больше опытов для вычисления, тем с большей вероятностью (надежностью) можно ожидать, что связанная с этой заменой ошибка (  а) не превзойдет заданную величину ε.

Кроме того, можно решать другие практические задачи. Например, по значениям вероятности (надежности) Р = Р(|а|< ε и максимальной допустимой ошибке ε, определить необходимое число опытов n; по Р и п определить ε; по ε и п определить границу вероятности события |а|<ε.

Пример 7.4. Дисперсия случайной величины X равна 4. Определим, сколько потребуется произвести независимых опытов, чтобы с вероятностью не менее 0,9 можно было ожидать, что среднее арифметическое значение этой случайной величины будет отличаться от математического ожидания менее чем на 0,5?

Решение. По условию задачи ε = 0,5; Р(|а| < 0,5) 0,9;
n = ? Применив формулу (7.6), получим P(|– M(X)| < ε) ≥
≥ 1
D(X)/(n∙ε2). Из соотношения 1D(X)/(nε2) = 0.9 определяем
п = D(X)/(0,1ε2) = 4/(0,10,25) = 160.

Если использовать утверждение, что в любом случае средняя арифметическая распределена примерно нормально, то получаем:

Р(|а|< ε) = 2Φ0(≥ 0,9. Откуда, воспользовавшись таблицей интеграла вероятностей, получим 1,645, или  ≥ 6,58, т. е. n  49.

Пример 7.5. Дисперсия случайной величины D(X) = 5. Произведено 100 независимых опытов, по которым вычислено . Вместо неизвестного значения математического ожидания а принята . Определим максимальную величину ошибки, допускаемой при этом, с вероятностью не менее 0,8.

Решение. По условию n = 100, Р(|– а|< ε) ≥ 0,8. ε = ? Применяем формулу (7.6)

Р(||< ε) ≥ 1D(X)/(nε2).

Из соотношения 1D(X)/(nε2) = 0,8 определяем ε

ε2 = D(X)/(0,2∙n) = 5/(0,2∙100) = 0,25; ε = 0,5.

7.4.  Теорема  Бернулли

Пусть произведено п независимых испытаний, в каждом из которых вероятность появления некоторого события А постоянна и равна Р.

Теорема Бернулли. При неограниченном возрастании числа независимых испытаний п относительная частота m/n появления события А сходится по вероятности к вероятности p события А, т. е.

где ε – сколь угодно малое положительное число. Для конечного n при условии, что , неравенство Чебышева для случайной величины m/n будет иметь вид

P(|m/np|< ε) ≥1pq/(n ε2).                            (7.8)

Каким бы малым ни было число ε, при n → ∞ величина дроби pq/(n∙ε2)→0, а P(|m/n–p|< ε)→1.

Из теоремы Бернулли следует, что при достаточно большом числе испытаний относительная частота т/п появления события практически утрачивает свой случайный характер, приближаясь к постоянной величине p – вероятности данного события. В этом и состоит принцип практической уверенности.

Пример 7.6. С целью установления доли брака по схеме возвратной выборки было проверено 1000 единиц продукции. Какова вероятность того, что установленная этой выборкой доля брака по абсолютной величине будет отличаться от доли брака по всей партии не более чем на 0,01, если что в среднем на каждые 10 000 изделий приходится 500 бракованных?

Решение. По условию задачи число независимых испытаний
n = 1000.

p = 500/10 000 = 0,05;  q = 1 p = 0,95;  ε = 0,01. P(|m/np| < 0,01?

Применив формулу (7.8), получим

P(|m/np| < 0,01) 1pq/(nε2) = 1–0,050,95/(10000,0001) = 0,527.

Итак, с вероятностью не менее 0,527 можно ожидать, что выборочная доля брака (относительная частота появления брака) будет отличаться от доли брака во всей продукции (от вероятности брака) не более чем на 0,01.

Пример 7.7. При штамповке деталей вероятность брака составляет 0,05. Сколько нужно проверить деталей, чтобы с вероятностью не менее 0,95 можно было ожидать, что относительная частота бракованных изделий будет отличаться от вероятности брака менее чем на 0,01?

Решение. По условию задачи р = 0,05;  q = 0,95;  ε = 0,01.

P(|m/n–p|< 0,01) 0,95; n = ? Из равенства 1pq/(nε2) = 0,95

находим:

n = pq/(0,05ε2) = 0,05∙0,95/(0,05∙0,0001) = 9500.

Замечание. Оценки необходимого числа наблюдений, получаемые при применении теоремы Бернулли (или Чебышева) очень преувеличены. Существуют более точные оценки, предложенные Бернштейном и Хинчиным, но требующие применения более сложного математического аппарата. Чтобы избежать преувеличения оценок, иногда пользуются формулой Лапласа

P(|m/n–p|<ε) ≈ 2Φ0 .

Недостатком этой формулы является отсутствие оценки допускаемой погрешности.

7.5.  Теорема Пуассона

В теореме Бернулли устанавливается связь между относительной частотой появлений события и его вероятностью p при условии, что последняя от опыта к опыту не изменяется. Теорема Пуассона устанавливает связь между относительной частотой появления события и некоторой постоянной величиной при переменных условиях опыта.

Теорема Пуассона. Если производится n независимых опытов и вероятность появления события А в i-м опыте равна pi, то при увеличении n относительная частота появления события m/n сходится по вероятности к среднему арифметическому значению вероятностей pi, т. е.

                                    (7.9)

Для конечного n будем иметь:

                (7.10)

Каким бы ни было ε, при n→ ∞ величина дроби , а вероятность

Пример 8.9. Одинаковые партии изделий размешены в 11 ящиках, причем доли первосортных изделий в них составляют 0,0; 0,1; 0,2; 0,3; 0,4; 0,5; 0,6; 0,7; 0.8; 0,9; 1,0. Из каждого ящика наудачу извлечено по одному изделию. Определим вероятность того, что доля первосортных изделий в выборке будет отличаться от средней арифметической доли менее чем на 0,2.

Решение. По условию задачи: n = 11; p1 = 0,0; p2 = 0,1; p3 = 0,2; p4 = = 0,3; p5 = 0,4; р6 = 0,5; p7 = 0,6; p8 = 0,7; p9 = 0,8; p10 = 0,9; p11 = 1,0; ε = 0,2.

Применив формулу (7.10), получим

=

= 1–0,0 + 0,09 + 0,16 + 0,21 + 0,24 + 0,25 + 0,24 + 0,21 + 0,16 + 0,09 +

+ 0,0)/(121∙0,04) = 1–1,165/4,84 = 0,64.


   а                                               б

   в                                               г

АВ = Ø

 

A∩H

 A∩  

 А

 

  H

(3.1)

xi

F(x)

10

0

 S = F()         P( < < ) = F () – F()

F()

F()

W(x)

* Конспект лекций подготовлен на материале учебного пособия: Теория статистики с основами теории вероятностей: учеб. пособие для втузов / И. И. Елисеева, В. С. Князевский, Л. И. Ниворожкина, З. А. Морозова; под ред. И. И. Елисеевой. – М.: Изд-во ЮНИТИ, 2001.




1. Правила гри Виконав- Учень группи ТВ КВППУ Науменко Ілля
2. Реферат- Ценообразование на рынке ценных бумаг
3. Антигона (Antigone)
4. по теме Архимедова сила
5. Остров Сааремаа
6. Коды Форма по ОКУД 0710001 Дата число месяц год
7. Данные конечно сильно разняться и точно не могу сказать сколько там было людей но на мой взгляд около 50 т
8. Реклама 1. Определение понятия реклама и функции рекламы в обществе
9. Страхование товара и коммерческого риска
10. .1. История становления вексельного обращения.
11. Что предполагает затратный подход в оценочной деятельностианализ балансовых счетов предприятия и их корре
12. Мобильный Бюджет mx 100 номеров Что необходимо проверить при подключении нового клиента без ГВ
13. Методы Dt Mining
14. Космогонічні українські народні погляди та вірування Українські легенди про створення світу
15. во тактов Описание движения Организационный момент Выход-
16. НЕФОРМАТ РЕТРО Девчонка Е
17. Лекция 12 Основные принципы построения и применения стандартов на статистический приемочный контроль по ко
18. Судьбу Мартина определила встреча с Рут девушкой из богатой семьи неземным существом которая горячо полю
19. Реферат- Методы сварки
20.  2013 року ПАКЕТ КОМПЛЕКСНОЇ КОНТРОЛЬНОЇ РОБОТИ дисципліни Основи філософ.