Поможем написать учебную работу
Если у вас возникли сложности с курсовой, контрольной, дипломной, рефератом, отчетом по практике, научно-исследовательской и любой другой работой - мы готовы помочь.

Предоплата всего

Подписываем
Если у вас возникли сложности с курсовой, контрольной, дипломной, рефератом, отчетом по практике, научно-исследовательской и любой другой работой - мы готовы помочь.
Предоплата всего
Подписываем
Познание действительности в естественных науках происходит в результате испытаний (эксперимента, наблюдений, опыта).
Испытанием или опытом называется осуществление какого-нибудь определенного комплекса условий, который может быть воспроизведен сколь угодно большое число раз.
Случайным называется событие, которое может произойти или не произойти в результате некоторого испытания (опыта).
Таким образом, событие рассматривается как результат испытания.
Пример. Бросание монеты – это испытание. Появление орла при бросании – событие.
Наблюдаемые нами события различаются по степени возможности их появления и по характеру их взаимосвязи.
Событие называется достоверным, если оно обязательно произойдет в результате данного испытания.
Пример. Получение студентом положительной или отрицательной оценки на экзамене есть событие достоверное, если экзамен протекает согласно обычным правилам.
Событие называется невозможным, если оно не может произойти в результате данного испытания.
Пример. Извлечение из урны белого шара, в которой находятся лишь цветные (небелые) шары, есть событие невозможное. Отметим, что при других условиях опыта появления белого шара не исключается; таким образом, это событие невозможно лишь в условиях нашего опыта.
Далее случайные события будем обозначать большими латинскими буквами A,B,C... Достоверное событие обозначим буквой Ω, невозможное – Ø.
Два или несколько событий называются равновозможными в данном испытании, если имеются основания считать, что ни одно из этих событий не является более возможным или менее возможным, чем другие.
Пример. При одном бросании игральной кости появление 1, 2, 3, 4, 5 и 6 очков - все это события равновозможные. Предполагается, конечно, что игральная кость изготовлена из однородного материала и имеет правильную форму.
Два события называются несовместными в данном испытании, если появление одного из них исключает появление другого, и совместными в противном случае.
Пример. В ящике имеются стандартные и нестандартные детали. Берем на удачу одну деталь. Появление стандартной детали исключает появление нестандартной детали. Эти события несовместные.
Несколько событий образуют полную группу событий в данном испытании, если в результате этого испытания обязательно наступит хотя бы одно из них.
Пример. События из примера образуют полную группу равновозможных и попарно несовместных событий.
Два несовместных события, образующих полную группу событий в данном испытании, называются противоположными событиями.
Если одно из них обозначено через A, то другое принято обозначать через (читается «не A»).
Пример. Попадание и промах при одном выстреле по цели - события противоположные.
Вероятность события – численная мера возможности его наступления.
Событие А называется благоприятствующим событию В, если всякий раз, когда наступает событие А, наступает и событие В.
События А1, А2, ..., Аn образуют схему случаев, если они:
1) равновозможны;
2) попарно несовместны;
3) образуют полную группу.
В схеме случаев (и только в этой схеме) имеет место классическое определение вероятности P(A) события А. Здесь случаем называют каждое из событий, принадлежащих выделенной полной группе равновозможных и попарно несовместных событий.
Если n – число всех случаев в схеме, а m – число случаев, благоприятствующих событию А, то вероятность события А определяется равенством:
Из определения вероятности вытекают следующие ее свойства:
1. Вероятность достоверного события равна единице.
Действительно, если событие достоверно, то каждый случай в схеме случаев благоприятствует событию. В этом случае m = n и, следовательно,
2. Вероятность невозможного события равна нулю.
Действительно, если событие невозможно, то ни один случай из схемы случаев не благоприятствует событию. Поэтому m=0 и, следовательно,
Вероятность случайного события есть положительное число, заключенное между нулем и единицей.
Действительно, случайному событию благоприятствует лишь часть из общего числа случаев в схеме случаев. Поэтому 0<m<n, а, значит, 0<m/n<1 и, следовательно, 0 < P(A) < 1.
Итак, вероятность любого события удовлетворяет неравенствам
0 ≤ P(A) ≤ 1.
В настоящее время свойства вероятности определяются в виде аксиом, сформулированных А.Н. Колмогоровым.
Одним из основных достоинств классического определения вероятности является возможность вычислить вероятность события непосредственно, т.е. не прибегая к опытам, которые заменяют логическими рассуждениями.
Операции над событиями
Часто бывает полезно наглядно представить события в виде диаграммы Эйлера — Венна. Изобразим все пространство элементарных исходов прямоугольником (рис. 1). При этом, каждый элементарный исход ω соответствует точке внутри прямоугольника, а каждое событие A — некоторому множеству точек, этого прямоугольника.
Рис. 1. Изображение диаграммы Эйлера-Венна
Рассмотрим теперь операции над событиями, которые совпадают с операциями над множествами.
Определение
Пересечением (произведением) двух событий A и B называют событие, обозначаемое A∩B или AB, происходящее тогда и только тогда, когда одновременно происходят оба события A и B, т.е. событие, состоящее из тех и только тех элементарных исходов, которые принадлежат и событию A, и событию B.
События A и B называются несовместными, или непересекающимися, если их пересечение является невозможным событием, т.е. если A∩B=∅.
События A1,A2,…,An называют попарно несовместными, если для любых i≠j, где i,j=1,n¯¯¯¯¯, события Ai и Aj несовместны.
В противном случае события называют совместными, или пересекающимися.
Определение
Объединением (суммой) двух событий A и B называют событие, обозначаемое A∪B, происходящее тогда и только тогда, когда происходит хотя бы одно из событий A или B, т.е. событие состоит из элементарных исходов, которые принадлежат хотя бы одному из множеств A или B.
Если события A и B несовместимы, то для обозначения могут использововать символ «+».
Например, поскольку невозможное событие ∅ несовместно с любым событием A, то
∅∪A=∅+A=A.
Аналогично определяют понятия произведения и суммы событий для любого конечного числа событий и даже для бесконечных последовательностей событий. Так, событие
A1A2…An=∩ni=1Ai
состоит из элементарных исходов, принадлежащих всем событиям Ai,i=1,n¯¯¯¯¯, а событие
A1∪A2∪…∪An=∪ni=1Ai
состоит из элементарных исходов, принадлежащих хотя бы одному из событий Ai,i=1,n¯¯¯¯¯.
В частности, события A1,A2,…,An называют попарно несовместными, если
AiAj=∅
для любых i,j=1,n¯¯¯¯¯,i≠j, и несовместными в совокупности, если
A1A2…An=∅.
Определение
Разностью двух событий A и B называют событие, обозначаемое A∖B, происходящее тогда и только тогда, когда происходит событие A и не происходит событие B, т.е. состоит из тех элементарных исходов, которые принадлежат событию A и не принадлежат событию B
Определение
Дополнением события A называют новое событие, обозначаемое A¯¯¯, происходящее тогда и только тогда, когда не происходит событие A. Так событие A¯¯¯можно записать в виде:
A¯¯¯=Ω∖A.
Событие A¯¯¯ называют событием, противоположным событию A.
Определение
Событие A включено в событие B, если появление за собой события A обязательно влечет за собой наступление события B, или каждый элементарный исход события A принадлежит и событию B.
Приоритеты операций
Если некоторое событие записано в виде нескольких операций над различными событиями, то сначала выполняется операция дополнения, затем умножения, и, наконец, сложение и вычитание (слева направо).
Скобки могут увеличить приоритет любой из операций.
Пример
Рассмотрим устройство из n элементов. Элементы соединены последовательно, если устройство прекращает функционировать при отказе любого из элементов, и соединены параллельно, если прекращение функционирования наступает только при отказе n элементов (рис. 1а, 1б соответственно).
Рис 1. Последовательное и параллельное соединения
Обозначим A событие означающее отказ системы, а Ai — отказ i-го элемента (i=1,n¯¯¯¯¯). Тогда для последовательного соединения событие A представимо в виде:
A=A1∪A2∪…An,
а для параллельного соединения
A=A1∩A2∩…An.
Очевидно, что при параллельном соединении элементов событие A включено в каждое из событий Ai,i=1,n¯¯¯¯¯, а при последовательном соединении любое событие Ai,i=1,n¯¯¯¯¯ включено в событие A.
Итак, статистическая вероятность случайного события А равна относительной частоте появления этого события в ряде испытаний, т.е.
,
где m – число испытаний, в которых появилось событие А;
n – общее число испытаний.
Согласно геометрическому определению,
вероятность случайного события А равна отношению меры области, благоприятствующей появлению события А, к мере всей области, т.е.
.
Классическая формула вероятности
Если множество элементарных событий Ω={ω1,ω2,…ωN},конечно и все элементарные события равновозможны, то такая вероятностная схема носит название классической. В этом случае вероятность Р{А} наступления события А, состоящего из М элементарных событий, входящих в Ω, определяется как отношение числа М элементарных событий, благоприятствующих наступлению события А, к общему числу N элементарных событий. Эта формула носит название классической формулы вероятности: Р{А}= M/N.
В частности, согласно классической формуле вероятности:
Р{ωi }=1/N (i=1,2,... , N)
Р{Ω}= N/N =1
P{}=0/N =0
|
|||
|
|||
|
Условной вероятностью Р(В/А) называется вероятность события В, вычисленная в предположении, что событие А уже наступило.
Теорема. Вероятность совместного появления двух событий равна произведению вероятностей одного из них на условную вероятность другого, вычисленную в предположении, что первое событие уже наступило:
Р(А∙В) = Р(А)∙Р(В/А). (2.2)
Два события называются независимыми, если появление любого из них не изменяет вероятность появления другого, т.е.
Р(А) = Р(А/В) или Р(В) = Р(В/А). (2.3)
Если события А и В независимы, то из формул (2.2) и (2.3) следует
Р(А∙В) = Р(А)∙Р(В). (2.4)
Справедливо и обратное утверждение, т.е. если для двух событий выполняется равенство (2.4), то эти события независимы. В самом деле, из формул (2.4) и (2.2) вытекает
Р(А∙В) = Р(А)∙Р(В) = Р(А) ×Р(В/А), откуда Р(А) = Р(В/А).
Формула (2.2) допускает обобщение на случай конечного числа событий А1, А2,…,А n:
Р(А1∙А2∙…∙А n)=Р(А1)∙Р(А2/А1)∙Р(А3/А1А2)∙…∙Р(А n/А1А2…А n-1).
Теорема. Вероятность совместного появления двух событий равна произведению вероятностей одного из них на условную вероятность другого, вычисленную в предположении, что первое событие уже наступило:
Р(А∙В) = Р(А)∙Р(В/А). (2.2)
Два события называются независимыми, если появление любого из них не изменяет вероятность появления другого, т.е.
Р(А) = Р(А/В) или Р(В) = Р(В/А). (2.3)
Если события А и В независимы, то из формул (2.2) и (2.3) следует
Р(А∙В) = Р(А)∙Р(В). (2.4)
Справедливо и обратное утверждение, т.е. если для двух событий выполняется равенство (2.4), то эти события независимы. В самом деле, из формул (2.4) и (2.2) вытекает
Р(А∙В) = Р(А)∙Р(В) = Р(А) ×Р(В/А), откуда Р(А) = Р(В/А).
Формула (2.2) допускает обобщение на случай конечного числа событий А1, А2,…,А n:
Р(А1∙А2∙…∙А n)=Р(А1)∙Р(А2/А1)∙Р(А3/А1А2)∙…∙Р(А n/А1А2…А n-1).
Теоремы сложения вероятностей
Найдем вероятность суммы событий и (в предположении их совместности либо несовместности).
Теорема 2.1. Вероятность суммы конечного числа несовместных событий равна сумме их вероятностей:
поскольку , как это было найдено в примере 1.
Теорема 2.1 сложения вероятностей справедлива только для несовместных событий. Использование ее для нахождения вероятности совместных событий может привести к неправильным, а иногда и абсурдным выводам, что наглядно видно на следующем примере. Пусть выполнение заказа в срок фирмой "Electra Ltd" оценивается вероятностью 0,7. Какова вероятность того, что из трех заказов фирма выполнит в срок хотя бы какой-нибудь один? События, состоящие в том, что фирма выполнит в срок первый, второй, третий заказы обозначим соответственно . Если для отыскания искомой вероятности применить теорему 2.1 сложения вероятностей, то получим . Вероятность события оказалась больше единицы, что невозможно. Это объясняется тем, что события являются совместными. Действительно, выполнение в срок первого заказа не исключает выполнения в срок двух других.
Сформулируем теорему сложения вероятностей в случае двух совместных событий (будет учитываться вероятность их совместного появления).
Теорема 2.2. Вероятность суммы двух совместных событий равна сумме вероятностей этих двух событий без вероятности их совместного появления:
Зависимые и независимые события. Условная вероятность
Различают события зависимые и независимые. Два события называются независимыми, если появление одного из них не изменяет вероятность появления другого. Например, если в цехе работают две автоматические линии, по условиям производства не взаимосвязанные, то остановки этих линий являются независимыми событиями.
Несколько событий называются независимыми в совокупности, если любое из них не зависит от любого другого события и от любой комбинации остальных.
События называются зависимыми, если одно из них влияет на вероятность появления другого. Например, две производственные установки связаны единым технологическим циклом. Тогда вероятность выхода из строя одной из них зависит от того, в каком состоянии находится другая. Вероятность одного события , вычисленная в предположении осуществления другого события , называется условной вероятностью события и обозначается .
Условие независимости события от события записывают в виде , а условие его зависимости — в виде . Рассмотрим пример вычисления условной вероятности события.
Формулы умножения вероятностей
Пусть события и независимые, причем вероятности этих событий известны. Найдем вероятность совмещения событий и .
Теорема 2.3. Вероятность совместного появления двух независимых событий равна произведению вероятностей этих событий:
Следствие 2.1. Вероятность совместного появления нескольких событий, независимых в совокупности, равна произведению вероятностей этих событий:
Пусть события и зависимые, причем вероятности и известны. Найдем вероятность произведения этих событий, т. е. вероятность того, что появится и событие , и событие .
Теорема 2.4. Вероятность совместного появления двух зависимых событий равна произведению вероятности одного из них на условную вероятность другого, вычисленную в предположении, что первое событие уже наступило:
Следствие 2.2. Вероятность совместного появления нескольких зависимых событий равна произведению вероятности одного из них на условные вероятности всех остальных, причем вероятность каждого последующего события вычисляется в предположении, что все предыдущие события уже появились.
Формула полной вероятности
Теорема 2.5. Если событие наступает только при условии появления одного из событий , образующих полную группу несовместных событий, то вероятность события равна сумме произведений вероятностей каждого из событий на соответствующую условную вероятность события :
(2.1) |
При этом события называются гипотезами, а вероятности — априорными. Эта формула называется формулой полной вероятности.
Формула Байеса
Эта формула применяется при решении практических задач, когда событие , появляющееся совместно с каким-либо из событий , образующих полную группу событий, произошло и требуется провести количественную переоценку вероятностей гипотез . Априорные (до опыта) вероятности известны. Требуется вычислить апостериорные (после опыта) вероятности, т. е., по существу, нужно найти условные вероятности . Для гипотезы формула Байеса выглядит так:
Раскрывая в этом равенстве по формуле полной вероятности (2.1), получаем
Пусть событие А может произойти в результате осуществления одного
события из некоторой полной группы событий:
События этой группы обычно называют гипотезами.
Тогда
(формула полной вероятности), причем
формула Байеса. Пусть — полная группа событий, и — некоторое событие, вероятность которого положительна. Тогда условная вероятность того, что имело место событие , если в результате эксперимента наблюдалось событие , может быть вычислена по формуле:
Дискретные и непрерывные случайные величины. Функции распределения случайных величин. |
Одним из основных в теории вероятностей является понятие случайной величины. Случайная величина - это величина, принимающая те или иные значения в зависимости от случая. Примерами случайных величин могут быть: число выпавших очков, при подбрасывании игральной кости; число попаданий в цель при k выстрелах и т.д. Множества всех случайных величин в зависимости от типа их распределения делится на три класса: дискретные случайные величины, непрерывные случайные величины исингулярные случайные величины. В этой статье мы рассмотрим первые два класса:дискретные случайные величины и непрерывные случайные величины. Дискретные случайные величины Определение1: Случайная величина называется дискретной случайной величиной, если она принимает не более чем счетное число значений. Задание дискретной случайной величины по определению равносильно заданию закона распределения случайной величины в следующем виде:
где Следующее утверждение отражает связь между функцией распределения дискретной случайной величины и законом распределения случайной величины. Утверждение 1: Закон распределения и функция распределения дискретной случайной величины взаимно однозначно определяют друг друга.
Примеры дискретных случайных величин: 1) дискретная случайная величина Бернулли(закон распределения Бернулли). Закон распределения дискретной случайной величины Бернулли имеет следующий вид: 0<p<1 Такому распределению соответствует бросание монеты, на одной стороне которой - 0, а на второй - 1.
2) дискретная биномиальная случайная величина(биномиальное распределение). Закон распределения данной дискретной случайной величины запишется следующим образом: где Число успехов в n испытаниях схемы Бернулли имеет биномиальное распределение.
3) дискретная случайная величина Пуассона(пуассоновское распределение с параметром ). Закон распределения дискретной случайной величины Пуассона задается следующим образом: где - параметр. Закон распределения случайной величины Пуассона носит название закона редких событий, поскольку оно всегда появляется там, где производится большое число испытаний, в каждом из которых с малой вероятностью происходит "редкое" событие. По закону Пуассона распределены, например, число вызовов, поступивших на телефонную станцию, число распавшихся нестабильных частиц и т.д.
4) дискретная геометрическая случайная величина (геометрическое распределение). Закон распределения геометрической дискретной случайной величины имеет вид Пусть производятся независимые испытания, причем в каждом испытании возможны два исхода - "успех" с вероятностью p или "неуспех" с вероятностью 1 - p , 0 < p < 1 . Обозначим через число испытаний до первого появления "успеха", тогда будет дискретной геометрической случайной величиной.
Непрерывные случайные величины
Определение 2: Распределение случайной величины называется непрерывным, а сама случайная величина - непрерывной случайной величиной, если для любого , где - интегрируемая по Лебегу функция. Функция называется плотностью распределения случайной величины . Теорема 1: Для того чтобы случайная величина была непрерывной случайной величиной, необходимо и достаточно, чтобы для любого (1) Замечание 1: Из представления (1) видно, что функция распределения непрерывной случайной величины является непрерывной функцией.
Свойства плотности распределения: 1) 2) почти всюду. 3) для любых х, являющихся точками непрерывности плотности.
Теорема 2: Для того, чтобы функция p = p(x) была плотностью распределения некоторой случайной величины , необходимо и достаточно, чтобы она удовлетворяла свойствам 1) и 2) плотности.
Примеры непрерывных случайных величин:
1) нормальная непрерывная случайная величина, или непрерывная случайная величина Гаусса(нормальное распределение). Непрерывная случайная величина имеет нормальное (гауссовское) распределение, если её плотность распределения имеет вид Если , то распределение называется стандартным нормальным распределением. Важная роль этого распределения объясняется тем, что оно обычно возникает в явлениях, подверженных действию большого числа малых случайных величин. Так, математическая теория выборочного метода в статистике для расчета некоторых показателей широко использует нормальное распределение.
2)экспоненциальная (показательная) непрерывная случайная величина(экспоненциальное распределение). Непрерывная случайная величина имеет экспоненциальное(показательное) распределение с параметром , если её плотность имеет вид Экспоненциальному распределению подчиняется время распада ядер атомов различных элементов. Оно обладает важным свойством - отсутствием последствия. Несложно убедиться в том, что вероятность распада ядра за время при условии, что перед этим оно уже прожило время , совпадает с безусловной вероятностью распада того же самого ядра за время. Именно это свойство и представляет собой отсутствие последствия.
3) Равномерная на [a;b] непрерывная случайная величина(равномерное на отрезке [a;b] распределение). Равномерно распределенная на отрезке [a;b] непрерывная случайная величина имеет плотность распределения Равномерное распределение реализует принцип геометрической вероятности при бросании точки на отрезок [a;b]. |
Суммой, или объединением, нескольких событий называется событие, состоящее в наступлении хотя бы одного из этих событий (в одном и том же испытании).
Сумма А1 + А2 + … + Аn обозначается так:
или .
Пример. Бросаются две игральные кости. Пусть событие А состоит в выпадении 4 очков на 1 кости, а событие В – в выпадении 5 очков на другой кости. События А и В совместны. Поэтому событие А +В состоит в выпадении 4 очков на первой кости, или 5 очков на второй кости, или 4 очков на первой кости и 5 очков на второй одновременно.
Пример. СобытиеА – выигрыш по 1 займу, событие В – выигрыш по 2 займу. Тогда событие А+В – выигрыш хотя бы по одному займу (возможно по двум сразу).
Произведением или пересечением нескольких событий называется событие, состоящее в совместном появлении всех этих событий (в одном и том же испытании).
Произведение В событий А1, А2, …, Аn обозначается так:
.
Пример. События А и В состоят в успешном прохождении I и II туров соответственно при поступлении в институт. Тогда событие А×В состоит в успешном прохождении обоих туров.
Понятия суммы и произведения событий имеют наглядную геометрическую интерпретацию. Пусть событие А есть попадание точки в область А, а событие В – попадание точки в область В. Тогда событие А+В есть попадание точки в объединение этих областей (рис. 2.1), а событие АВ есть попадание точки в пересечение этих областей (рис. 2.2).
Рис. 2.1 Рис. 2.2
Теорема. Если события Ai(i = 1, 2, …, n) попарно несовместны, то вероятность суммы событий равна сумме вероятностей этих событий:
.
Пусть А и Ā – противоположные события, т.е. А + Ā = Ω, где Ω – достоверное событие. Из теоремы сложения вытекает, что
Р(Ω) = Р(А) + Р(Ā) = 1, поэтому
Р(Ā) = 1 – Р(А).
Если события А1 и А2 совместны, то вероятность суммы двух совместных событий равна:
Р(А1 + А2) = Р(А1) + Р(А2) – Р(А1×А2).
Теоремы сложения вероятностей позволяют перейти от непосредственного подсчета вероятностей к определению вероятностей наступления сложных событий.
10. Ряд распределения случайной величины. Многоугольник распределения вероятностей. Закон распределения дискретной случайной величины.
Достаточно часто на практике рассматриваются такие испытания, в результате реализации которых случайным образом получается некоторое число. Например, при бросании игрального кубика выпадает число очков от 1 до 6, при взятии 6 карт из колоды можно получить от 0 до 4 тузов. За определенный промежуток времени (скажем, день или месяц) в городе регистрируется то или иное количество преступлений, происходит какое-то количество дорожно-транспортных происшествий. Из орудия производится выстрел. Дальность полета снаряда также принимает какое-либо значение случайным образом.
Во всех перечисленных испытаниях мы сталкиваемся с так называемыми случайными величинами.
Числовая величина, принимающая то или иное значение в результате реализации испытания случайным образом, называетсяслучайной величиной.
Понятие случайной величины играет весьма важную роль в теории вероятностей. Если «классическая» теория вероятностей изучала главным образом случайные события, то современная теория вероятностей преимущественно имеет дело со случайными величинами.
Далее будем обозначать случайные величины прописными латинскими буквами X, Y, Z и т.д., а их возможные значения – соответствующими строчными x, y, z. Например, если случайная величина имеет три возможных значения, то будем обозначать их так:, , .
Итак, примерами случайных величин могут быть:
1) количество очков, выпавших на верхней грани игрального кубика:
2) число тузов, при взятии из колоды 6 карт;
3) количество зарегистрированных преступлений за день или месяц;
4) число попаданий в мишень при четырех выстрелов из пистолета;
5) расстояние, которое пролетит снаряд при выстреле из орудия;
6) рост случайно взятого человека.
Можно заметить, что в первом примере случайная величина может принять одно из шести возможных значений: 1, 2, 3, 4, 5 и 6. Во втором и четвертом примерах число возможных значений случайной величины пять: 0, 1, 2, 3, 4. В третьем примере значением случайной величины может быть любое (теоретически) натуральное число или 0. В пятом и шестом примерах случайная величина может принимать любое действительное значение из определенного промежутка (а, b).
Если случайная величина может принимать конечное или счетное множество значений, то она называется дискретной(дискретно распределенной).
Непрерывной случайной величиной называется такая случайная величина, которая может принимать все значения из некоторого конечного или бесконечного промежутка.
Для задания случайной величины недостаточно перечислить ее всевозможные значения. Например, во втором и в третьем примерах случайные величины могли принимать одни и те же значения: 0, 1, 2, 3 и 4. Однако вероятности, с которыми эти случайные величины принимают свои значения, будут совершенно разными. Поэтому для задания дискретной случайной величины кроме перечня ее всех возможных значений нужно еще указать их вероятности.
Соответствие между возможными значениями случайной величины и их вероятностями называют законом распределениядискретной случайной величины.
Закон распределения можно задать в виде таблицы, формулы или графически.
При табличном задании закона распределения в первой строке таблицы записываются возможные значения случайной величины, а во второй – соответствующие значениям вероятности:
X |
… |
|||
p |
… |
Такая таблица называется рядом распределения дискретной случайной величины X.
Так как случайная величина в результате испытания примет одно и только одно значение, то события: Х=, Х=, …, Х=образуют полную группу. Следовательно, из следствия 1 теоремы сложения вероятностей сумма вероятностей этих событий равна единице:
++…+==1.
Для наглядности ряд распределения случайной величины можно изобразить графически. Для этого в прямоугольной системе координат по оси абсцисс ОХ будем откладывать значения случайной величины , k=1, 2, …, n, а по оси ординат OY – соответствующие им вероятности . Полученные точки соединяются отрезками прямых. Построенная таким образом фигура называется многоугольником распределения(рис.6.1).
Рис. 6.1
Многоугольник распределения, также как и ряд распределения, полностью характеризует случайную величину. Он является одним из форм закона распределения.
Пример 6.1. Случайным образом бросается монета. Построить ряд и многоугольник распределения числа выпавших гербов.
Случайная величина, равная количеству выпавших гербов, может принимать два значения: 0 и 1. Значение 1 соответствует событию - выпадение герба, значение 0 – выпадению решки. Вероятности выпадения герба и выпадения решки одинаковы и равны. Т.е. вероятности, с которыми случайная величина принимает значения 0 и 1, равны . Ряд распределения имеет вид:
X |
0 |
1 |
p |
Многоугольник распределения изображен на рис.6.2.
Рис. 6.2
Пример 6.2. Построить ряд распределения числа очков, выпавших при броске кубика.
Случайная величина Х принимает следующие значения: Х=1, 2, 3, 4, 5, 6, соответствующие выпадениям «единицы», «двойки», «тройки», «четверки», «пятерки», «шестерки» на верхней грани кубика. Так как все эти события равновозможны, то соответствующие значениям случайной величины вероятности равны . Значит, ряд распределения запишется в таком виде:
X |
1 |
2 |
3 |
4 |
5 |
6 |
p |
Биномиальное распределение
Пример 6.3. Построить ряд распределения числа выпавших гербов при двух бросках монеты.
Случайная величина – количество выпавших гербов при двух подбрасываниях монеты, в отличие от примера 6.1, может принимать три значения: 0, 1 и 2. Значение =0 соответствует тому, что герб не выпал ни разу, значение =1 соответствует выпадению герба ирешки или решки и герба, значение =2 – выпадению двух гербов. Соответствующие вероятности можно найти по формуле Бернулли, но еще легче по теоремам умножения и сложения вероятностей: ; ; . .
Ряд распределения запишется в виде:
X |
0 |
1 |
2 |
p |
Пример 6.4. Стрелок производит три выстрела по мишени. Вероятность попадания при каждом выстреле равна 0,6. Построить ряд и многоугольник распределения числа попаданий в мишень.
Случайная величина Х – число попаданий в мишень при трех выстрелах. Возможные значения Х: =0, =1, =2, =3. Вероятность того, что произойдут k попаданий (k=0, 1, 2, 3) при трех выстрелах подсчитывается по формуле Бернулли (5.7):
(0 k 3),
где вероятность попадания при одном выстреле p=0,6 , q - вероятность промаха, q=1–0,6=0,4.
===0,064;
===3=0,288;
===3=0,432;
===0,216.
Ряд распределения случайной величины Х имеет вид:
X |
0 |
1 |
2 |
3 |
p |
0,064 |
0,288 |
0,432 |
0,216 |
Можно проверить, что, действительно, =0,064+0,288+0,432+ +0,216=1.
Многоугольник распределения числа попаданий при трех выстрелах изображен на рис.6.3.
Рис. 6.3
Распределения случайных величин в примерах 6.3 и 6.4 являются частными случаями биномиального распределения вероятностей при n=2 и n=3.
Биномиальным называется распределение вероятностей, определяемое формулой Бернулли:
(0 k n). (6.1)
Формула (6.1) является аналитическим выражением биномиального закона распределения.
По биномиальному закону распределена случайная величина Хчисла появлений события А при проведении n независимых испытаний, если вероятность появления события А в каждом испытании одинакова и равна p (q=1–p). В n испытаниях событие Аможет вообще не появиться, появиться 1 раз, 2 раза, 3 раза, …, n раз. Таким образом, возможные значения Х таковы: =0, =1, =2, =3, …, =n. А соответствующие им вероятности подсчитываются по формуле Бернулли (6.1). Ряд распределения в этом случае будет таким:
X |
0 |
1 |
2 |
… |
k |
… |
|
p |
… |
… |
Cумма вероятностей, соответствующих возможным значениям случайной величины, записывается в виде бинома Ньютона:
+++…++…+==. (6.2)
Естественно, что в формуле (6.2) p+q=1 и поэтому =1.
Геометрическое распределение
Пример 6.5. Стрелком производятся выстрелы по мишени до первого попадания. Вероятность попадания в каждом выстреле равнаp=0,6. Построить ряд распределения количества произведенных выстрелов.
Обозначим через Х дискретную случайную величину – число произведенных выстрелов до первого попадания. Возможными значениями Х являются натуральные числа =1, =2, =3, …. Множество значений Х является бесконечным счетным множеством, как и ряд натуральных чисел.
Вероятность того, что случайная величина принимает значение =1, т.е. попадание происходит при 1-м выстреле, по условию задачи равна =p=0,6. Вероятность принятия случайной величиной значения =2 (попадание происходит при 2-м выстреле) подсчитывается как вероятность сложного события по теореме умножения вероятностей. Непопадание в мишень в первом выстреле и попадание во втором – события независимые. Поэтому =(1–p)p=(1–0,6)0,6=0,40,6=0,24. Аналогичным образом находятся вероятность значения случайной величины =3: =(1–p)(1–p)p=(1–0,6) (1–0,6)0,6=0,40,40,6=0,096, вероятность =0,6=0,6=0,0384, =0,6=0,6=0,01536 и т.д.
Подсчитаем вероятность того, что случайная величина принимает значение =k. Это означает, что попадание произошло лишь в k-м выстреле, а до этого был k-1 промах. Так как все выстрелы независимы друг от друга, то по теореме умножения вероятностей =.
Таким образом, ряд распределения случайной величины запишется так:
X |
1 |
2 |
3 |
4 |
5 |
… |
k |
… |
p |
0,6 |
0,24 |
0,096 |
0,0384 |
0,01536 |
… |
… |
Многоугольник распределения случайной величины построен на рис.6.4 до значения =5 (множество значений дискретной случайной величины – бесконечное)
Рис. 6.4
Можно заметить, что ряд вероятностей, соответствующих значениям случайной величины, образует бесконечную убывающую геометрическую прогрессию со знаменателем q=0,4 и первым членом p=0,6:
0,6; 0,60,4; 0,6; 0,6; 0,6; … .
Поэтому распределение случайной величины в примере (6.5) называют геометрическим.
Геометрическим называется распределение вероятностей случайной величины Х, которое определяется следующим законом:
, k1.
Здесь p – вероятность наступления события А, q - вероятность того, что событие А не произойдет: q=1–p. Случайная величина Х определяется как число независимых испытаний, которые нужно произвести до первого появления события А.
Очевидно, что возможными значениями Х является множество натуральных чисел xN. То, что случайная величина принимает значение =k, означает, что в первых k-1 испытаниях А не наступило, а в k-м появилось. Вероятность этого подсчитывается по теореме умножения вероятностей для независимых событий: =. Сумма вероятностей всех значений определяется по формуле суммы членов убывающей геометрической прогрессии со знаменателем q и первым членом p:
++…++…====1.
Выборочным коэффициентом асимметрии называется число, определяемое формулой
.
Выборочный коэффициент асимметрии служит для характеристики асимметрии полигона (см. далее) вариационного ряда. Если полигон асимметричен, то одна из ветвей его, начиная с вершины, имеет более пологий «спуск», чем другая.
В случае отрицательного коэффициента асимметрии более пологий «спуск» полигона наблюдается слева, в противном случае – справа. В первом случае асимметрию называют левосторонней, а во втором – правосторонней.
Выборочным эксцессом или коэффициентом крутизны называется число E˜k, определяемое формулой
.
Выборочный эксцесс служит для сравнения на «крутость» выборочного распределения с нормальным распределением. Ранее подчеркивалось, что эксцесс для случайной величины, распределенной нормально, равен нулю. Поэтому за стандартное значение выборочного эксцесса принимают E˜k = 0. Если выборочному распределению соответствует отрицательный эксцесс, то соответствующий полигон имеет более пологую вершину по сравнению с нормальной кривой. В случае положительного эксцесса полигон более крутой по сравнению с нормальной кривой.
Равномерным распределением называют такое распределение случайной величины, когда она с одинаковой вероятностью может принимать любое значение в заданных пределах.
Равномерное распределение случайной величины показано на рис. 1
Рис. 1. Плотность вероятности (дифференциальная функция) равномерного распределения
Очевидно, что площадь под графиком этой функции равна единице и . Поэтому является плотностью распределения.
Плотность вероятности равномерного распределения имеет вид:
где а и Ь - параметры закона, определяющие пределы изменения случайной величины X.
Непрерывная функция распределения в этом случае имеет вид:
Математическое ожидание и дисперсия случайной непрерывной величины X вычисляется следующим образом:
M(X)= |
a+b |
|
2 |
D(X)= |
(b-a)^2 |
|
12 |
откуда сразу же следует, что среднее квадратическое отклонение:
Найдем теперь вероятность попадания значения случайной величины, имеющей равномерное распределение, на интервал (a,b), принадлежащий целиком отрезку [a, b]:
Геометрически эта вероятность представляет собой площадь заштрихованного прямоугольника. Числа а и b называются параметрами распределения и однозначно определяют равномерное распределение.
Пример1. Автобусы некоторого маршрута идут строго по расписанию. Интервал движения 5 минут. Найти вероятность того, что пассажир, подошедший к остановке. Будет ожидать очередной автобус менее 3 минут.
Решение:
СВ- время ожидания автобуса имеет равномерное распределение. Тогда искомая вероятность будет равна:
Пример2. Ребро куба х измерено приближенно. Причем
Рассматривая ребро куба как случайную величину, распределенную равномерно в интервале (a, b), найти математическое ожидание и дисперсию объема куба.
Решение:
Объем куба- случайная величина, определяемая выражением У= Х3. Тогда математическое ожидание равно:
Дисперсия:
«Хи-квадрат» распределение Пирсона с f степенями свободы, распределение вероятностей суммы квадратов c^2 = X1^2+...+Xf^2, независимых случайных величин X1,..., Xf, подчиняющихся нормальному распределению с нулевым математическим ожиданием и единичной дисперсией. Функция «Х.-к.» р. выражается интегралом
Первые три момента (математическое ожидание дисперсия и третий центральный момент) суммы c2 равны соответственно f, 2f, 8f. Сумма двух независимых случайных величин c1^2 и c2^2, с f^1 и f^2 степенями свободы подчиняется «Х.-к.» р. с f^1 + f^2 степенями свободы. Примерами «Х.-к.» р. могут служить распределения квадратов случайных величин, подчиняющихся Рэлея распределению и Максвелла распределению. В терминах «Х.-к.» р. с чётным числом степеней свободы выражается Пуассона распределение: Если количество слагаемых f суммы c2 неограниченно увеличивается, то согласно центральной предельной теореме распределение нормированного отношения сходится к стандартному нормальному распределению: где
Следствием этого факта является другое предельное соотношение, удобное для вычисления Ff (x) при больших значениях f:
Распределение Стьюдента - распределение получило свое название от псевдонима Student, которым английский ученый Госсет подписывал свои работы по статистике. Пусть -- независимые стандартные нормальные случайные величины. Распределением Стьюдента с степенями свободы называется распределениеследующей случайной величины: (46) Если вспомнить введенную формулой (44) случайную величину , то можно сказать, что отношение имеет распределение Стьюдента. Плотность этого распределения представляет собой симметричную функцию, задаваемую формулой По форме график функции напоминает график плотности стандартного нормального закона, но с более медленным убыванием ``хвостов''. При последовательность функций сходится к функции , которая есть плотность распределения . Чтобы понять, почему этот факт имеет место, следует обратить внимание на то, что по закону больших чисел знаменатель выражения (46) при стремится к
Теорема Фишера для нормальных выборок В этом параграфе мы приводим теорему, впервые доказанную Р.А. Фишером в 1925 г. Она существенно облегчает статистический анализ независимых выборок из нормального распределения. Теорема Фишера. Пусть независимая выборка из распределенияТогда 1. выборочное среднееи выборочная дисперсия независимы;
2.имеет-распределение сстепенью свободы.
Примечание: (1-p)=q это стандартное обозначение вероятности неудачи.
Определение
Биномиальное распределение — дискретное распределение вероятностей одной случайной величины принимающей целочисленные значения с вероятностями:
Данное распределение характеризуется двумя параметрами: целым числом называемым числом испытаний, и вещественным числом называемом вероятностью успеха в одном испытании. Биномиальное распределение — одно из основных распределений вероятностей, связанных с последовательностью независимых испытаний. Если проводится серия из независимых испытаний, в каждом из которых может произойти "успех" с вероятностью то случайная величина, равная числу успехов во всей серии, имеет указанное распределение. Эта величина также может быть представлена в виде суммы независимых слагаемых, имеющих распределение Бернулли.
Основные свойства
Характеристическая функция:
Моменты:
Математическое ожидание:
Дисперсия:
Асимметрия: при распределение симметрично относительно центра
Пример
Пусть Оценим вероятность того, что число успехов будет отличаться от наиболее вероятного значения не более чем на . Заметим, что значение очень мало, поэтому применение нормального приближения здесь довольно ненадежно.
Точная вероятность рассматриваемого события равна
Применим нормальное приближение с той расстановкой неравенств, которая дана выше (снизу строгое, сверху нестрогое):
Ошибка приближения равна .
Теперь построим приближение, используя интервал с концами в полуцелых точках:
Ошибка приближения равна — примерно в 5 раз меньше, чем в предыдущем подходе.
Показательное распределение - распределение вероятностей на действительной прямой с плотностью вероятностей fξ (х), равной при х ≥ 0 показательной функции αe-αx, λ > 0 и при х < 0 — нулю. Вероятность того, что случайная величина X, имеющая П. р., примет значения, превосходящие некоторое произвольное число х, будет при этом равна eαx
Говорят, что имеет показательное (экспоненциальное) распределение с параметром , и пишут: , если имеет следующую плотность распределения:
Функция распределения случайной величины непрерывна:
Генеральная совокупность и выборка.
Генеральная совокупность – совокупность элементов, удовлетворяющих неким заданным условиям; именуется также изучаемой совокупностью. Генеральная совокупность (Universe) - все множество объектов (субъектов) исследования, из которого выбираются (могут выбираться) объекты (субъекты) для обследования (опроса).
ВЫБОРКА или выборочная совокупность (Sample) — это множество объектов (субъектов), отобранных специальным образом для обследования (опроса). Любые данные, полученные на основании выборочного обследования (опроса), имеют вероятностный характер. На практике это означает, что в ходе исследования определяется не конкретное значение, а интервал, в котором определяемое значение находится.
Характеристики выборки:
- Качественная характеристика выборки – что именно мы выбираем и какие способы построения выборки мы для этого используем.
- Количественная характеристика выборки – сколько случаев выбираем, другими словами объём выборки.
Необходимость выборки:
- Объект исследования очень обширный. Например, потребители продукции глобальной компании – огромное количество территориально разбросанных рынков.
- Существует необходимость в сборе первичной информации.
Объём выборки — число случаев, включённых в выборочную совокупность.
Зависимые и независимые выборки.
При сравнении двух (и более) выборок важным параметром является их зависимость. Если можно установить гомоморфную пару (то есть, когда одному случаю из выборки X соответствует один и только один случай из выборки Y и наоборот) для каждого случая в двух выборках (и это основание взаимосвязи является важным для измеряемого на выборках признака), такие выборки называются зависимыми.
В случае, если такая взаимосвязь между выборками отсутствует, то эти выборки считаются независимыми.
Типы выборки.
Выборки делятся на два типа:
- вероятностные;
- не вероятностные;
Репрезентативная выборка — выборочная совокупность, в которой основные характеристики совпадают с характеристиками генеральной совокупности. Только для этого типа выборки результаты обследования части единиц (объектов) можно распространять на всю генеральную совокупность. Необходимое условие для построения репрезентативной выборки — наличие информации о генеральной совокупности, т.е. либо полный список единиц (субъектов) генеральной совокупности, либо информация о структуре по характеристикам, существенно влияющим на отношение к предмету исследования.
Вариационным рядом (статистическим рядом) – называется последовательность вариант, записанных в порядке возрастания и соответствующих им весов.
Вариационный ряд может быть дискретным (выборка значений дискретной случайной величины) и непрерывным (интервальным) (выборка значений непрерывной случайной величины).
Дискретный вариационный ряд имеет вид:
Наблюдаемые значения случайной величины х1, х2, …, хk называются вариантами, а изменение этих значений называются варьированием.
Выборка (выборочная совокупность) – совокупность наблюдений, отобранных случайным образом из генеральной совокупности.
Число наблюдений в совокупности называется ее объемом.
N – объем генеральной совокупности.
n– объем выборки(сумма всех частот ряда).
Частотой варианты хi называется число ni (i=1,…,k), показывающее, сколько раз эта варианта встречается в выборке.
Частостью (относительной частотой, долей) варианты хi (i=1,…,k) называется отношение ее частоты ni к объему выборки n.
wi=ni/n
Ранжирование опытных данных - операция, заключающаяся в том, что результаты наблюдений над случайной величиной, т. е. наблюдаемые значения случайной величины, располагают в порядке неубывания.
Дискретным вариационным рядом распределения называется ранжированная совокупность вариантов хi с соответствующими им частотами или частностями.
18 Интервальный вариационный ряд
Если изучаемая случайная величина является непрерывной, то ранжирование и группировка наблюдаемых значений зачастую не позволяют выделить характерные черты варьирования ее значений. Это объясняется тем, что отдельные значения случайной величины могут как угодно мало отличаться друг от друга и поэтому в совокупности наблюдаемых данных одинаковые значения величины могут встречаться редко, а частоты вариантов мало отличаются друг от друга.
Нецелесообразно также построение дискретного ряда для дискретной случайной величины, число возможных значений которой велико. В подобных случаях следует строить интервальный вариационный ряд распределения.
Для построения такого ряда весь интервал варьирования наблюдаемых значений случайной величины разбивают на ряд частичных интервалов и подсчитывают частоту попадания значений величины в каждый частичный интервал.
Интервальным вариационным рядом называют упорядоченную совокупность интервалов варьирования значений случайной величины с соответствующими частотами или относительными частотами попаданий в каждый из них значений величины.
Для построения интервального ряда необходимо:
1. Вопрос о выборе числа и ширины интервалов группировки приходится решать в каждом конкретном случае исходя из целей исследования, объема выборки и степени варьирования признака в выборке.
Приблизительно число интервалов k можно оценить исходя только из объема выборки n одним из следующих способов:
Таблица 1
Объем выборки, n |
25-40 |
40-60 |
60-100 |
100-200 |
Больше 200 |
Число интервалов, k |
5-6 |
6-8 |
7-10 |
8-12 |
10-15 |
2. Обычно предпочтительны интервалы одинаковой ширины. Для определения ширины интервалов h вычисляют:
где xmax и xmin - максимальная и минимальная варианты выборки;
3. Нижняя граница первого интервала xh1 выбирается так, чтобы минимальная варианта выборки xmin попадала примерно в середину этого интервала: xh1 = xmin - 0,5·h .
Промежуточные интервалы получают прибавляя к концу предыдущего интервала длину частичного интервала h:
xhi = xhi-1 +h .
Построение шкалы интервалов на основе вычисления границ интервалов продолжается до тех пор, пока величина xhi удовлетворяет соотношению:
xhi < xmax + 0,5·h .
4. В соответствии со шкалой интервалов производится группирование значений признака - для каждого частичного интервала вычисляется сумма частот ni вариант, попавших в i-й интервал. При этом в интервал включают значения случайной величины, большие или равные нижней границе и меньшие верхней границы интервала.
19 Выборочные аналоги интегральной и дифференциальной функций распределения
4.1. Эмпирическая функция распределения.
Пусть известно статистическое распределение частот количественного признака X. Введем обозначения:
mx- число наблюдений, при которых наблюдалось значение признака, меньшее х; п- общее число наблюдений (объем выборки). Ясно, что относительная частота события Х < х равна. mx/n. Если х изменяется, то изменяется и относительная частота, т. е. относительная частота есть функция от х. Так как эта функция находится эмпирическим (опытным) путем, то ее называют эмпирической.
Эмпирической функцией распределения (функцией распределения выборки) называют функцию определяющую для каждого значения х относительную частоту события Х < х, т.е.
В отличие от эмпирической функции распределения выборки функцию распределения F (х) генеральной совокупности называют теоретической функцией распределения. Различие между эмпирической и теоретической функциями состоит в том, что теоретическая функция F (х) определяет вероятность события Х < х, а эмпирическая функция определяет относительную частоту этого же события. Из теоремы Бернулли следует, что относительная частота события Х < х, т. е. эмпирическая функция стремится по вероятности к вероятности F (х) этого события. Отсюда следует целесообразность использования эмпирической функции распределения выборки для приближенного представления теоретической (интегральной) функции распределения генеральной совокупности.
Эмпирическая функция обладает всеми свойствами F(x):
1) ее значения принадлежат отрезку [0, 1];
2) неубывающая;
3) если хi -наименьшая варианта, то
если x k - наибольшая варианта, то
Итак, эмпирическая функция распределения выборки служит для оценки теоретической функции распределения генеральной совокупности.
Пример. Построить эмпирическую функцию по данному распределению выборки:
xi |
2 |
6 |
10 |
mi |
12 |
18 |
30 |
Объем выборки n = 12+ 18+ 30 =60. Хнаим= 2, значит при Х 2,
Х<6 наблюдалось 12 раз, следовательно, при Х< 6
.
Значение Х<10 наблюдалось 12+18= 30 раз, значит при Х<10
Так как хнаиб =10, то при Х 10
Искомая эмпирическая функция имеет вид:
График строится так же, как и график интегральной функции распределения.
Если результаты наблюдений представлены в виде интервального вариационного ряда, то в качестве х принимают концы частичных интервалов и , пользуясь данным выше определением вычисляют значения эмпирической функции. Причем, при Х< хнач
,
а при Х хкон
.
Для рассмотренного примера получим таблицу:
х |
6,67 |
6,69 |
6,71 |
6,73 |
6,75 |
6,77 |
6,79 |
6,81 |
6,83 |
6,85 |
0 |
0,01 |
0,085 |
0,17 |
0,39 |
0,65 |
0,87 |
0,94 |
0,995 |
1 |
Так как таблица определяет функцию не полностью, то при изображении графика доопределяем функцию, соединяя точки графика, соответствующие концам интервалов, отрезками. График эмпирической функции для интервального вариационного ряда есть непрерывная линия.
4.2. Выборочная дифференциальная функция.
Выборочным аналогом дифференциальной функции f(x) является функция
, где
есть частость попадания наблюдаемых значений СВХ в интервал [x, x + x), следовательно,
характеризует плотность частости на этом интервале.
- частость попадания наблюдаемых значений СВХ в частичный интервал , длина которого h, тогда выборочная дифференциальная функция
.
При х хнач и х хкон
.
При построении графика выборочной функции плотности в качестве х принимают середину каждого частичного интервала. Удобно совмещать на одной координатной плоскости гистограмму частостей с графиком выборочной плотности.
Для рассматриваемого примера гистограмма частостей и график выборочной плотности имеют вид:
20 Полигон и гистограмма
Для наглядности строят различные графики статистического распределения.
По данным дискретного вариационного ряда строят полигон частот или относительных частот.
Полигоном частот называют ломанную, отрезки которой соединяют точки (x1; n1), (x2; n2), ..., (xk; nk). Для построения полигона частот на оси абсцисс откладывают варианты xi, а на оси ординат - соответствующие им частоты ni. Точки ( xi; ni) соединяют отрезками прямых и получают полигон частот (Рис. 1).
Полигоном относительных частот называют ломанную, отрезки которой соединяют точки (x1; W1), (x2; W2), ..., (xk; Wk). Для построения полигона относительных частот на оси абсцисс откладывают варианты xi, а на оси ординат - соответствующие им относительные частоты Wi. Точки ( xi; Wi) соединяют отрезками прямых и получают полигон относительных частот.
В случае непрерывного признака целесообразно строить гистограмму.
Гистограммой частот называют ступенчатую фигуру, состоящую из прямоугольников, основаниями которых служат частичные интервалы длиной h, а высоты равны отношению ni / h (плотность частоты).
Для построения гистограммы частот на оси абсцисс откладывают частичные интервалы, а над ними проводят отрезки, параллельные оси абсцисс на расстоянии ni / h.
Площадь i - го частичного прямоугольника равна hni / h = ni - сумме частот вариант i - го интервала; следовательно, площадь гистограммы частот равна сумме всех частот, т.е. объему выборки.
Гистограммой относительных частот называют ступенчатую фигуру, состоящую из прямоугольников, основаниями которых служат частичные интервалы длиной h, а высоты равны отношению Wi / h (плотность относительной частоты).
Для построения гистограммы относительных частот на оси абсцисс откладывают частичные интервалы, а над ними проводят отрезки, параллельные оси абсцисс на расстоянии Wi / h (Рис. 2).
Площадь i - го частичного прямоугольника равна hWi / h = Wi - относительной частоте вариант попавших в i - й интервал. Следовательно, площадь гистограммы относительных частот равна сумме всех относительных частот, т.е. единице.
Рис. 1. Полигон частот |
Рис. 2. Гистограмма относительных частот |
Понятие средней арифметической
Средняя арифметическая — такое среднее значение признака, при вычислении которого общий объем признака в совокупности сохраняется неизменным. Для того чтобы вычислить среднюю арифметическую, необходимо сумму всех значений признаков разделить на их число.
Она применяется в тех случаях, когда объем варьирующего признака для всей совокупности является суммой значений признаков отдельных ее единиц. Примером средней арифметической может служить общий фонд заработной платы — это сумма заработных плат всех работников.
Средняя арифметическая может быть вычислена по формуле:
где n — численность совокупности.
Средняя арифметическая величина используется в форме простой средней и взвешенной средней. Средняя арифметическая простая равна простой сумме отдельно взятых значений осредняемого признака, разделенная на общее число этих значений. В различных контрольных по статистике она используется тогда, когда имеются несгруппированные индивидуальные значения признака, и может быть вычислена по формуле:
где n — общая численность совокупности значений х.
Средняя арифметическая взвешенная — это средняя из вариантов, которые повторяются разное число раз или имеют различный вес. Она может быть рассчитана по формуле:
Это сокращенное обозначение суммы обладает следующими простыми свойствами, вытекающими из известных свойств сложения:
1. .
2. , так как общий множитель можно выносить за знак суммы.
3. , так как для сложения справедливо сочетательное свойство.
4. на основе одновременного применения сочетательного и переместительного свойств сложения.
Часто приходится вычислять среднюю по групповым средним или по средним отдельных частей совокупности. Например, средняя рождаемость в стране представляет собой среднее из средних рождаемости по отдельным регионам страны. Средние из средних определяются так же, как и средние из первоначальных значений признака.
Пример. Рассмотрим среднюю месячную зарплату работников некоторого предприятия. Пусть, например, в фирме работает 20 человек, зарплата 19 из них составляет 10 000 рублей, а зарплата 10-го, руководителя, - 1 000 000 рублей. Тогда средняя зарплата одного работника на этой фирме будет равна . Хотя среднее и сохранило общую сумму заработной платы, но оно является в данном случае плохим обобщающим показателем: оно плохо характеризует зарплату одного работника на этой фирме. Причина этого кроется в том, что набор данных содержит выброс - 1 000 000 рублей. Среднее оказалось слишком большим для большинства работников и слишком малым для высокооплачиваемого руководителя.
Рассмотрим некоторые свойства среднего арифметического, которые позволяют упростить его вычисление и которые понадобятся при дальнейшем изучении математической статистики.
Свойство 1. Среднее арифметическое постоянной величины равно этой постоянной.
Пусть при исследовании признака x он n раз принимал одно и то же значение c. Тогда
Свойство 2. Если каждое значение признака Z равно сумме (разности) значений признаков X и Y, то среднее арифметическое признака Z равно сумме (разности) средних арифметических признаков X и Y.
Обозначим i-е варианты признаков X, Y, Z через xi, yi, zi. По условию xi + yi = zi. Тогда
Аналогично доказывается свойство и в случае разности.
Например, из этого свойства вытекает, что если контрольная работа по геометрии состоит из двух сюжетных задач, то среднее время, которое идет на выполнение контрольной работы, равно сумме средних времен, которые расходуются на выполнение первой и второй задач.
Свойство 3. Если ко всем вариантам прибавить одно и то же число, то и к среднему арифметическому будет прибавлено то же число.
Пусть - новые варианты, полученные после прибавления к каждой первоначальной варианте xi одного и того же числа c. Тогда
Рассмотренное свойство позволяет значительно упростить вычисление среднего арифметического без использования вычислительных средств, особенно тогда, когда варианты принимают большие значения.
Это свойство обосновывает произвольный выбор начала отсчета.
Свойство 4. Если все варианты умножить (разделить) на одно и то же число, то среднее арифметическое умножится (разделится) на то же число.
Пусть - новые варианты, полученные после умножения каждой первоначальной варианты xi на одно и то же число c. Тогда
На основании этого свойства можно изменять единицы, в которых выражаются данные.
Свойство 5. Если все частоты умножить (разделить) на одно и то же число, то среднее арифметическое не изменится.
Пусть - новые частоты, полученные после умножения каждой первоначальной частоты ni на одно и то же число c. Тогда
На основании этого свойства при вычислении среднего частоты можно заменять, например, относительными частотами.
Свойство 6. Сумма отклонений вариант от их среднего арифметического равна нулю.
Отклонение варианты xi от среднего арифметического равно разности . Тогда
Свойство 7. Сумма квадратов отклонений вариант от их среднего арифметического меньше суммы квадратов отклонений вариант от произвольного числа c на величину .
В самом деле,
Разность оказалась положительной (при ), поэтому сумма больше суммы .
Свойство 8. Среднее арифметическое, вычисленное по данным всех элементов совокупности, равно взвешенному среднему для так называемых частичных средних, т. е. средних, найденных для отдельных частей совокупности, причем частота для каждого частичного среднего равна количеству элементов в соответствующей части совокупности.
Пусть совокупность состоит из таких элементов:
x1, x2, ..., xk, y1, y2, ..., yl, z1, z2, ..., zm,
причем k + l +m = n.
Поскольку частичные средние соответственно равны
то общее среднее равно
Например, это свойство дает возможность упростить вычисление среднего арифметического результатов тестирования учащихся классов одной параллели нескольких школ. Для этого достаточно вычислить среднее арифметическое для каждого класса, а затем вычислить среднее этих частичных средних, приняв в качестве их частот количество учащихся в соответствующих классах.
Среднее арифметическое позволяет решать задачи, связанные с проверкой гипотез.
Выборочная дисперсия и выборочное средне квадратичное отклонение. Выборочная дисперсия и её свойства (с доказательством).
Выборочная дисперсия в математической статистике — это оценка теоретической дисперсии распределения на основе выборки. Различают выборочную дисперсию и несмещённую, или исправленную, выборочные дисперсии.
Выборочной дисперсией значений случайной величины Х называется среднее арифметическое квадратов отклонений наблюдаемых значений этой величины от их среднего арифметического (обозначение ĎХ или ˜σх²):
ĎХ=Σ(хi -˜Х)²/n, где i=1,…,n.
Если данные наблюдений представлены в виде дискретного вариационного ряда, причем х1, х2, х3,…, хν – наблюдаемые варианты, а m1 , m2, , m3,…, , mν – соответствующие им частоты, то выборочная дисперсия определяется формулой:
ĎХ=Σ((хi -˜Х)² mi)/n, где i=1,…,n.
Где n=Σ mi – объем выборки.
Вычисленная по данной формуле дисперсия называется взвешенной выборочной дисперсией.
Выборочная дисперсия обладает одним существенным достатком: если среднее арифметическое выражается в тех единицах, что и значения случайной величины, то, как следует из формул, задающих дисперсию, последняя выражается уже в квадратных единицах. Этого недостатка можно избежать, взяв в качестве меры рассеивания арифметический квадратный корень из дисперсии.
Определение. Выборочным средним квадратическим отклонением называется арифметический квадратный корень из выборочной дисперсии (обозначение ˜σх).
Среднее квадратическое отклонение можно выразить следующей формулой:
˜σх=√ ĎХ
Рассмотрим основные свойства выборочной дисперсии, считая при этом, что наблюдаемые .данные представлены в виде дискретного вариационного ряда.
1°. Дисперсия постоянной величины равна нулю
2°. Если все результаты наблюдений увеличить (уменьшить) на одно и то же число С, то дисперсия и среднее квадратическое отклонение не изменятся
3°. Если все результаты наблюдений умножить на одно и то же число, то имеет место равенство Ď(СХ)=С²ĎХ
4°. Если все частоты вариантов умножить на одно и то же число, то выборочные дисперсия и среднее квадратическое отклонение не изменятся.
5°. Выборочная дисперсия равна разности между средним арифметическим квадратов наблюдений над случайной величиной и квадратом ее среднего арифметического, т. е.
ĎХ=˜Х²-(˜Х)²
Выборочные моменты
Выборочные моменты в математической статистике — это оценка теоретических моментов распределения на основе выборки.
Определение
Пусть — выборка из распределения вероятности. Тогда
,
где символ обозначает выборочное среднее.
Коэффициент асимметрии:
.
^ Показатель асимметрии Пирсона:
.
Таким образом, данное распределение имеет правостороннюю асимметрию, причем в крайних значениях признака асимметрия более значительная, чем в средней части распределения.
Центральный момент четвертого порядка:
.
^ Коэффициент эксцесса:
.
Таким образом, вершина данного распределения ниже вершины соответствующего теоретического нормального распределения.
^ 2 ВЫБОРОЧНОЕ НАБЛЮДЕНИЕ
2.1 Определение выборочного наблюдения
Выборочным наблюдением называют такое несплошное наблюдение, при котором характеристику всей совокупности единиц (генеральной совокупности) дают по некоторой части единиц (выборочной совокупности), отобранных в определенном порядке.
Выборочное наблюдение используется в связи с тем, что оно позволяет:
— экономить силы и средства, необходимые для статистического исследования;
— быстрее (оперативнее) получать результаты;
— проводить исследования в случаях, когда сплошное наблюдение невозможно (например, для определения качества предметов, связанного с физическим уничтожением образцов);
— уточнять результаты сплошного наблюдения (например, для проверки сплошной переписи населения организуют контрольные выборочные обследования).
Генеральная и выборочная совокупности характеризуются соответственно генеральными и выборочными показателями (средние величины, показатели доли, показатели вариации).
Возможные случайные отклонения между выборочными и генеральными показателями называют ошибкой выборки.
Выборочная совокупность формируется различными способами отбора. Применительно к способу отбора используют и свои методы расчета средней ошибки выборки.
^ 2.2 Способы отбора
1. Собственно случайный отбор – отбор на удачу (по жребию, лотерее). Случайный отбор может быть повторный и бесповторный. В экономических исследованиях повторный отбор практически не применяется. Важнейшее правило случайного отбора – каждой единице генеральной совокупности должна обеспечиваться равная вероятность быть отобранной.
2. Механический отбор (порядковый).
Например, генеральная совокупность составляет 600 единиц (т.е. N=600), из которых нужно отобрать выборочную совокупность, состоящую из 50 единиц (т.е. n=50). Единицам генеральной совокупности присваиваются порядковые номера от 1 до 600. Находится интервал отбора: 600/50=12. Из первых 12-ти единиц отбирают единицу случайным отбором. Допустим, что первой оказалась единица под номером 7. Далее с интервалом 12 в выборку будут отобраны единицы под номерами 19, 31, 43 и т.д.
3. Серийный (гнездовой) отбор.
Допустим, генеральная совокупность из 500 единиц разделяется на 100 серий по 5 единиц в серии. В выборку нужно отобрать 50 единиц, т.е. 10 серий. Тогда каждая серия отбирается в выборку собственно случайным бесповторным отбором.
4. Типический (расслоенный) отбор.
При этом отборе генеральная совокупность делится на группы по какому-либо признаку. Затем пропорционально доли каждой группы в генеральной совокупности отбирают единицы из групп в выборочную совокупность в случайном порядке.
5. Комбинированный отбор предполагает использование нескольких способов отбора в их комбинации.
^ 2.3 Статистическая оценка
Статистическая оценка – приближенное значение искомой величины по результатам выборочного наблюдения.
Например, выборочная средняя является оценкой генеральной средней. Различают понятия точечной и интервальной оценки.
Точечной называют статистическую оценку, которая определяется одним числом.
Несмещенной называют точечную оценку, математическое ожидание которой равно оцениваемому параметру при любом объеме выборки.
Смещенной называют точечную оценку, математическое ожидание которой не равно оцениваемому параметру.
^ Несмещенной оценкой генеральной средней служит выборочная средняя.
Смещенной оценкой генеральной дисперсии служит выборочная дисперсия.
Несмещенной оценкой генеральной дисперсии служит исправленная выборочная дисперсия:
,
где – выборочная дисперсия,
– число единиц выборочной совокупности.
Интервальной называют оценку, которая определяется двумя числами – концами интервала, покрывающего оцениваемый параметр.
Доверительным называют интервал, который с заданной надежностью (вероятностью) покрывает оцениваемый параметр.
Обозначим:
– генеральная средняя,
– выборочная средняя,
– предельная ошибка выборочной средней для заданной доверительно вероятности .
Тогда интервальная оценка генеральной средней примет вид:
^ Предельная ошибка выборочной средней
а) для повторного собственно случайного отбора:
,
б) для бесповторного собственно случайного отбора:
,
где – дисперсия генеральной совокупности,
– число единиц выборочной совокупности,
– число единиц генеральной совокупности,
– коэффициент доверия, величина которого зависит от заданной доверительной вероятности .
Приведем значения некоторых коэффициентов доверия (см. табл. 2.1)
Таблица 2.1
|
|
|
|
|
|
|
|
|
|
|
|
Замечание. Если генеральная дисперсия неизвестна, то вместо нее можно взять исправленную выборочную дисперсию. При больших выборках
(>30) отношение , и вместо генеральной дисперсии можно использовать выборочную дисперсию.
24 Мода и медиана
Мода – величина признака, которая чаще всего встречается в данной совокупности. Применительно к вариационному ряду модой является наиболее часто встречающееся значение ранжированного ряда. Она показывает размер признака, свойственный значи–тельной части совокупности, и определяется по фор–муле:
где х0 – нижняя граница интервала;
h – величина интервала;
fm – частота интервала;
fm-1 – частота предшествующего интервала;
fm+1 – частота следующего интервала.
Медианой называется вариант, расположенный в центре ранжированного ряда. Медиана делит ряд на две равные части таким образом, что по обе стороны от нее находится одинаковое количество единиц со–вокупности. При этом у одной половины единиц сово–купности значение варьирующего признака меньше ме–дианы, у другой – больше.
Описательный характер медианы проявляется в том, что она характеризует количественную границу значений варьирующего признака, которыми облада–ет половина единиц совокупности.
При определении медианы в интервальных ва–риационных рядах сначала определяется интервал, в котором она находится (медианный интервал). Этот интервал характерен тем, что его накопленная сумма частот равна или превышает полусумму всех ча–стот ряда. Расчет медианы интервального ва–риационного ряда производится по формуле:
где х0 – нижняя граница интервала;
h – величина интервала;
fm – частота интервала;
f – число членов ряда;
?m- 1 – сумма накопленных членов ряда, предше–ствующих данному.
Наряду с медианой для более полной характери–стики структуры изучаемой совокупности применяют и другие значения вариантов, занимающих в ранжи–рованном ряду вполне определенное положение. К ним относятся квартили и децили. Квартили делят ряд по сумме частот на четыре равные части, а деци-ли – на десять равных частей. Квартилей насчитыва–ется три, а децилей – девять.
Медиана и мода в отличие от средней арифмети–ческой не погашают индивидуальных различий в зна–чениях варьирующего признака и поэтому являются дополнительными и очень важными характеристика–ми статистической совокупности. На практике они ча–сто используются вместо средней либо наряду с ней. Особенно целесообразно вычислять медиану и моду в тех случаях, когда изучаемая совокупность содер–жит некоторое количество единиц с очень большим или очень малым значением варьирующего признака.
25 Дисперсионный анализ
Дисперсионный анализ – анализ изменчивости признака под влиянием каких-либо контролируемых переменных факторов.
(В зарубежной литературе именуется ANOVA – «Analisis of Variance»)
Обобщенно задача дисперсионного анализа состоит в том, чтобы из общей вариативности признака выделить три частные вариативности:
- Вариативность, обусловленную действием каждой из исследуемых независимых переменных.
- Вариативность, обусловленную взаимодействием исследуемых независмых переменных.
- Вариативность случайную, обусловленную всеми неучтенными обстоятельствами.
Вариативность, обусловленная действием исследуемых переменных и их взаимодействием соотносится со случайной вариативностью. Показателем этого соотношения является F – критерий Фишера (метод, не имеющий ничего общего, кроме автора, с «угловым преобразованием Фишера»).
FэмпА = Вариативность, обусловленная действием переменной А / Случайная вариативность
FэмпБ = Вариативность, обусловленная действием переменной Б / Случайная вариативность
FэмпАБ = Вариативность, обусловленная взаимодействием А и Б / Случайная вариативность
В формулу расчета критерия F взодят оценки дисперсий, и, следовательно, этот метод относится к разряду параметрических. Чем в большей степени вариативность признака обусловлена исследуемыми переменными или их взаимодействием, тем выше эмпирические значения критерия F.
В отличие от корреляционного анализа, в дисперсионном исследователь исходит из предположения, что одни переменные выступают как влияющие (именуемые факторами или независимыми переменными), а другие (результативные признаки или зависимые переменные) – подвержены влиянию этих факторов. Хотя такое допущение и лежит в основе математических процедур расчета, оно, однако, требует осторожности рассуждений об источнике и объекте влияния.
Например, если мы выдвигаем гипотезу о зависимости успешности работы должностного лица от фактора Н (социальной смелости по Кэттелу), то не исключено обратное: социальная смелость респондента как раз и может возникнуть (усилиться) вследствие успешности его работы – это с одной стороны. С другой: следует отдать себе отчет в том, как именно измерялась «успешность»? Если за ее основу взяты были не объективные характеристики (модные нынче «объемы продаж» и проч.), а экспертные оценки сослуживцев, то имеется вероятность того, что «успешность» может быть подменена поведенческими или личностными характеристиками (волевыми, коммуникативными, внешними проявлениями агрессивности etc.)
Представим смысл дисперсионного анализа графически.
В примере, взятом из (1), иллюстрируется исследование зависимости учебной успеваемости школьников от развития кратковременной памяти. В качестве фактора рассматривался уровень развития кратковременной памяти, а в качестве результативных признаков – успеваемость по предмету. Видно, например, что фактор, по-видимому, оказывает существенное влияние при обучении иностранному языку, и незначим для чистописания, что, впрочем, вполне согласуется со здравым смыслом.
Приведенный пример обращает внимание также и на то, какими именно должны быть факторы?
Здесь фактор имел градации, то есть его величина изменялась при переходе от одной градации к другой. Следует знать, что такое условие отнюдь не обязательно: фактор может иметь градации, никак не связанные между собой количественным отношением, и может быть представлен хоть в номинальной шкале. В общем (и это точнее) говорят не о градациях фактора, а о различных условиях его действия. Возможность количественной градации фактора, таким образом, лишь частный случай.
В качестве иллюстрации этого положения скажем, что если отыщется исследователь, желающий определить зависимость яйценоскости от цвета курицы, то ничто не помешает ему применить дисперсионный анализ, и в качестве условий действия фактора «цвет» избрать, скажем, черных, белых и пестрых кур.
Формулировка гипотез в дисперсионном анализе.
Нулевая гипотеза:
«Средние величины результативного признака во всех условиях действия фактора (или градациях фактора) одинаковы».
Альтернативная гипотеза:
«Средние величины результативного признака в разных условиях действия фактора различны».
Виды дисперсионного анализа.
Дисперсионный анализ схематически можно подразделить на несколько категорий. Это деление осуществляется, смотря по тому, сколько, во-первых, факторов принимает участие в рассмотрении, во-вторых, - сколько переменных подвержены действию факторов, и, в-третьих, - по тому, как соотносятся друг с другом выборки значений.
При наличии одного фактора, влияние которого исследуется, дисперсионный анализ именуется однофакторным, и распадается на две разновидности:
- Анализ несвязанных (то есть – различных) выборок. Например, одна группа респондентов решает задачу в условиях тишины, вторая – в шумной комнате. (В этом случае, к слову, нулевая гипотеза звучала бы так: «среднее время решения задач такого-то типа будет одинаково в тишине и в шумном помещении», то есть не зависит от фактора шума.)
- Анализ связанных выборок. То есть: двух замеров, проведенных на одной и той же группе респондентов в разных условиях. Тот же пример: в первый раз задача решалась в тишине, второй – сходная задача – в условиях шумовых помех. (На практике к подобным опытам следует подходить с осторожностью, поскольку в действие может вступить неучтенный фактор «научаемость», влияние которого исследователь рискует приписать изменению условий, а именно, - шуму.)
В случае, если исследуется одновременное воздействие двух или более факторов, мы имеем дело с многофакторным дисперсионным анализом, который также можно подразделить по типу выборки.
Если же воздействию факторов подвержено несколько переменных, - речь идет о многомерном анализе.
Ограничения дисперсионного анализа и подготовка данных.
Дисперсионный анализ следует применять тогда, когда известно (установлено), что распределение результативного признака является нормальным.
Для проверки следует провести расчеты ассимметрии и эксцесса по следующим формулам:
A = Σ (xi – xср)3 / n3
mA= √6/n
E = (Σ (xi – xср)4 / n4 ) - 3
mE= 2√6/n ,
где А и Е – ассимметрия и эксцесс, а mA и mE – их ошибки репрезентативности. После подстановки значений не должно оказаться так, чтобы ассимметрия и эксцесс превышали более, чем втрое свои ошибки репрезентативности. При соблюдении этого требования, распределение можно считать нормальным.
Будем называть данные, относящиеся к одному условию действия фактора (к одной градации) дисперсионным комплексом.
Дисперсионный анализ требует также, чтобы между комплексами соблюдалось равенство дисперсий. В литературе по этому вопросу предлагается (и доказана правомочность предложения) удовлетворять такое требование уравниванием числа значений в каждом из комплексов. Иными словами, если в тихой аудитории решали задачу 10 человек, то и в шумную мы должны посадить столько же; если белых кур набралось 100, черных – 80, а пестрых – 70, - мы обязаны взять только по 70 кур каждого цвета. Причем, отбор следует осуществлять случайным образом.
(В SPSS эта возможность представлена так: Данные – Выбор регистров – Случайный образец регистров (радиокнопка) – Образец… (кнопка)).
Однофакторный дисперсионный анализ для несвязанных выборок.
Назначение метода.
Метод однофакторного дисперсионного анализа применяется в тех случаях, когда исследуются изменения результативного признака (зависимой переменной) под влиянием изменяющихся условий или градаций какого-либо фактора.
Влиянию каждой из градаций фактора подвержены разные выборки.
Должно быть не менее трех градаций фактора и не менее двух наблюдений в каждой градации.
Описание метода.
Расчеты начинаются с расстановки всех данных по столбцам, относящимся к каждому из факторов соответственно.
Следующим действием будет нахождение сумм значений по столбцам (то есть – градациям) и возведение их в квадрат.
Фактически метод состоит в сопоставлении каждой из полученных и возведенных в квадрат сумм с суммой квадратов всех значений, полученных во всем эксперименте.
Графическое представление метода.
На рисунке схематически представлены три градации какого-либо фактора. Дисперсионный анализ позволяет определить, что преобладает: влияние фактора или случайная вариативность внутри групп (тенденция, выраженная кривой или размах отрезков, ограниченных кружками)?
Алгоритм расчета.
Промежуточные величины.
Tc |
суммы индивидуальных значений по каждому из условий |
Σ(T2c) |
сумма квадратов суммарных значений по каждому из условий |
с |
количество условий (градаций фактора) |
n |
количество значений в каждом комплексе (испытуемых в каждой группе) |
N |
общее количество индивидуальных значений |
(Σxi)2 |
квадрат общей суммы индивидуальных значений |
Σ(xi)2 / N |
константа, необходимая для вычитания из каждой суммы квадратов |
xi |
каждое индивидуальное значение |
Σ(xi)2 |
сумма квадратов индивидуальных значений |
Принятые в литературе сокращения:
СК или SS – сумма квадратов
SSфакт. – вариативность, обусловленная действием исследуемого фактора
SSобщ. – общая вариативность
SSсл. – случайная вариативность
MS – «средний квадрат» (математическое ожидание суммы квадратов, усредненная величина соответствующих SS)
df – число степеней свободы.
Основные вычисления.
Подсчитать SSфакт. |
SSфакт. = 1/n ΣT2c – 1/n (Σxi)2 |
Подсчитать SSобщ. |
SSобщ. = Σx2i – 1/N (Σxi)2 |
Подсчитать случайную остаточную величину SSсл. |
SSсл. = SSобщ. – SSфакт. |
Определить число степеней свободы |
dfфакт. = с – 1 dfобщ. = N – 1 dfсл. = dfобщ. – dfфакт. |
Разделить каждую SS на соответствующее число степеней свободы |
MSфакт. = SSфакт. / dfфакт. MS сл. = SS сл. / df сл. |
Подсчитать значение Fэмп. |
Fэмп. = MSфакт. / MS сл. |
Определить по таблицам критические значения F и сопоставить с ним полученное эмпирическое значение |
При Fэмп. >= Fкр. H0 отклоняется. |
Однофакторный дисперсионный анализ для связанных выборок.
Назначение метода.
Метод применяется в тех случаях, когда исследуется влияние разных условий действия фактора (градаций фактора) на одну и ту же выборку. (Одни и те же респонденты в разных условиях.)
Условий (градаций) должно быть не менее трех.
Индивидуальных значений по каждому условию должно быть не менее двух.
Описание метода.
В этом случае различия могут быть вызваны не только влиянием фактора, но и индивидуальными различиями между испытуемыми. При анализе несвязанных выборок это обстоятельство не оказывало воздействия за счет того, что выборки были различны, и сводилось к случайным причинам различий, - здесь же индивидуальные различия между элементами выборки (респондентами) необходимо особо учитывать. (Индивидуальные различия могут оказаться более значимыми, чем изменение условий действия фактора.) Исходя из сказанного, в расчеты вводятся дополнительные компоненты – суммы квадратов сумм индивидуальных значений.
Графическое представление.
Рисунок иллюстрирует пример решения анаграмм различной длины одними и теми же респондентами. Исследователей интересовало влияние длины анаграммы на время ее решения. (Выяснилось, что наибольшие трудности, что видно из диапазона времени, затраченного на решение, и его среднего значения, вызвала анаграмма из пяти букв.)
Расчет промежуточных величин.
Tc |
Суммы индивидуальных значений по каждому из условий |
ΣT2c |
Сумма квадратов суммарных значений по каждому из условий |
с |
Количество значений у каждого респондента, то есть – количество условий |
n |
Количество респондентов |
N |
общее количество значений |
Tn |
Суммы индивидуальных значений по каждому респонденту |
ΣT2n |
Сумма квадратов сумм индивидуальных значений по респондентам |
xi |
каждое индивидуальное значение |
(Σxi)2 |
квадрат общей суммы индивидуальных значений |
1/N(Σxi)2 |
константа, необходимая для вычитания из каждой суммы квадратов |
Σ(xi)2 |
сумма квадратов индивидуальных значений |
Основные вычисления.
Подсчитать SSфакт. |
SSфакт. = 1/n ΣT2c – 1/n (Σxi)2 |
Подсчитать SSресп. |
SSресп. =1/c ΣT2n – 1/N (Σxi)2 |
Подсчитать SSобщ. |
SSобщ. = Σx2i – 1/N (Σxi)2 |
Подсчитать случайную остаточную величину SSсл. |
SSсл. = SSобщ. – SSфакт. – SSресп. |
Определить число степеней свободы |
dfфакт. = с – 1 dfресп. = n – 1 dfобщ. = N – 1 dfсл. = dfобщ. – dfфакт. – dfресп. |
Разделить каждую SS на соответствующее число степеней свободы |
MSфакт. = SSфакт. / dfфакт. MS респ. = SS респ. / df респ. MS сл. = SS сл. / df сл. |
Подсчитать значения F |
Fфакт.= MSфакт. / MS сл. Fресп.= MSресп. / MS сл. |
Определить по таблицам критические значения F и сопоставить с ними полученные эмпирические значения |
При Fэмп. >= Fкр. H0 отклоняется. |
26 Неравенство Маркова
Нера́венство Ма́ркова- в теории вероятностей даёт оценку вероятности, что случайная величина превзойдёт по модулю фиксированную положительную константу, в терминах её математического ожидания. Получаемая оценка обычно достаточно груба. Однако, она позволяет получить определенное представление о распределении, когда последнее не известно явным образом.
Пусть случайная величина определена на вероятностном пространстве , и её математическое ожидание конечно. Тогда
,
где .
Пусть — неотрицательная случайная величина. Тогда, взяв , получаем
.
Нера́венство Чебышёва в теории вероятностей утверждает, что случайная величина в основном принимает значения близкие к своемусреднему. Более точно, оно даёт оценку вероятности, что случайная величина примет значение далёкое от своего среднего. Неравенство Чебышёва является следствием неравенства Маркова.
Пусть случайная величина определена на вероятностном пространстве , и её математическое ожидание и дисперсия конечны. Тогда
,
где .
Если , где - стандартное отклонение и , то получаем
.
В частности, случайная величина с конечной дисперсией отклоняется от среднего больше, чем на стандартных отклонения с вероятностью меньше . Она отклоняется от среднего на стандартных отклонения с вероятностью меньше .
При доказательстве неравенства была использована числовая характеристика – математическое ожидание. Эта неслучайное число определяется природой наблюдаемых случайных величин и не зависит от того, как были проведены испытания. На практике почти всегда отсутствует возможность найти математическое ожидание и приходится вместо него использовать среднее арифметическое наблюдаемых значений. Разумеется, что это случайное число , которое все-таки меньше отличается от математического ожидания, чем отдельный результат испытания.
Средним арифметическим величины X называется случайная величина , которая определяется выражением
.
Теорема Чебышева (закон больших чисел) устанавливает связь между средним арифметическим и математическим ожиданием случайной величины.
Теорема Бернулли в теории вероятностей утверждает, что при многократном повторении случайного эксперимента с двумя исходами относительная частота успехов приближается к вероятности успеха в одном испытании.
Рассмотрим схему Бернулли с вероятностью успеха то есть пусть дана последовательность независимых случайных величин где
Определим как число успехов в первых испытаниях:
Тогда
при
то есть
Теорема Ляпунова — теорема в теории вероятностей, устанавливающая некоторые общие достаточные условия для сходимости распределения сумм независимых случайных величин к нормальному закону.
Часто приходится иметь дело с такими случайными величинами, которые являются суммами большого числа независимых случайных величин. При некоторых весьма общих условиях оказывается, что эта сумма имеет распределение, близкое к нормальному, хотя каждое из слагаемых может не подчиняться нормальному закону распределения вероятностей. Эти условия были найдены Ляпуновым и составляют содержание теоремы, названной его именем.
Пусть с ,… последовательность попарно независимых случайных величин с математическими ожиданиями M и дисперсиями D , причём эти величины обладают следующими двумя свойствами:
1) Cуществует такое число L, что для любого i имеет место неравенство , т, е. все значения случайных величин, как говорят, равномерно ограничены, относительно математических ожиданий;
2) Сумма неограниченно растёт при
Тогда при достаточно большом n сумма имеет распределение, близкое к нормальному.
Пусть и математическое ожидание и дисперсия случайной величины . Тогда
Где — интеграл вероятности.
Центра́льные преде́льные теоре́мы (Ц. П. Т.) — класс теорем в теории вероятностей, утверждающих, что сумма достаточно большого количества слабо зависимых случайных величин, имеющих примерно одинаковые масштабы (ни одно из слагаемых не доминирует, не вносит в сумму определяющего вклада), имеет распределение, близкое к нормальному.
Так как многие случайные величины в приложениях формируются под влиянием нескольких слабо зависимых случайных факторов, их распределение считают нормальным. При этом должно соблюдаться условие, что ни один из факторов не является доминирующим. Центральные предельные теоремы в этих случаях обосновывают применение нормального распределения.
Классическая Ц. П. Т
Пусть есть бесконечная последовательность независимых одинаково распределённых случайных величин, имеющих конечное математическое ожидание идисперсию. Обозначим последние и , соответственно. Пусть также
.
Тогда
по распределению при ,
где — нормальное распределение с нулевым математическим ожиданием и стандартным отклонением, равным единице. Обозначив символом выборочное среднеепервых величин, то есть , мы можем переписать результат центральной предельной теоремы в следующем виде:
по распределению при .
В предположениях классической формулировки, допустим в дополнение, что распределение случайных величин абсолютно непрерывно, то есть оно имеет плотность. Тогда распределение также абсолютно непрерывно, и более того,
при ,
где — плотность случайной величины , а в правой части стоит плотность стандартного нормального распределения.
Случайным процессом X(t) называется процесс, значение которого при любом значении аргумента tявляется случайной величиной.
Другими словами, случайный процесс представляет собой функцию, которая в результате испытания может принять тот или иной конкретный вид, неизвестный заранее. При фиксированном t=t0 X(t0) представляет собой обычную случайную величину, т.е. сечение случайного процесса в момент t0.
Примеры случайных процессов:
Случайный процесс можно записать в виде функции двух переменных X(t,ω), где ω€Ω, t€T, X(t, ω) € ≡ и ω – элементарное событие, Ω - пространство элементарных событий, Т – множество значений аргумента t, ≡ - множество возможных значений случайного процесса X(t, ω).
Реализацией случайного процесса X(t, ω) называется неслучайная функция x(t), в которую превращается случайный процесс X(t) в результате испытания (при фиксированном ω), т.е. конкретный вид, принимаемый случайным процессом X(t), его траектория.
Таким образом, случайный процесс X(t, ω) совмещает в себе черты случайной величины и функции. Если зафиксировать значение аргумента t, случайный процесс превращается в обычную случайную величину, если зафиксировать ω, то в результате каждого испытания он превращается в обычную неслучайную функцию. В дальнейшем изложении опустим аргумент ω, но он будет подразумеваться по умолчанию.
Говорят, что случайный процесс имеет порядок n, если он полностью определяется плотностью совместного распределения φ(x1, x2, …, xn; t1, t2, …, tn) n произвольных сечений процесса, т.е. плотностью n-мерной случайной величины (X(t1), X(t2), …, X(tn)), где X(ti) – сочетание случайного процесса X(t) в момент времени ti, i=1, 2, …, n.
Как и случайная величина, случайный процесс может быть описан числовыми характеристиками. Если для случайной величины эти характеристики являются постоянными числами, то для случайного процесса – неслучайными функциями.
Математическим ожиданием случайного процесса X(t) называется неслучайная функция ax(t), которая при любом значении переменной t равна математическому ожиданию соответствующего сечения случайного процесса X(t), т.е. ax(t)=М [X(t)].
Дисперсией случайного процесса X(t) называется неслучайная функция Dx(t), при любом значении переменной t равная дисперсии соответствующего сочетания случайного процесса X(t), т.е. Dx(t)= D[X(t)].
Средним квадратическим отклонением σx(t) случайного процесса X(t) называется арифметическое значение корня квадратного из его дисперсии, т.е. σx(t)= Dx(t).
Математическое ожидание случайного процесса характеризует среднюю траекторию всех возможных его реализаций, а его дисперсия или среднее квадратическое отклонение - разброс реализаций относительно средней траектории.
Введённых выше характеристик случайного процесса оказывается недостаточно, так как они определяются только одномерным законом распределения. Если для случайного процесса Х1(t) характерно медленное изменение значений реализаций с изменением t, то для случайного процесса Х2(t) это изменение проходит значительно быстрее. Другими словами, для случайного процесса Х1(t) характерна тесная вероятностная зависимость между двумя его сочетаниями Х1(t1) и Х1(t2), в то время как для случайного процесса Х2(t) эта зависимость между сочетаниями Х2(t1) и Х2(t2) практически отсутствует. Указанная зависимость между сочетаниями характеризуется корреляционной функцией.
Корреляционной функцией случайного процесса Х(t) называется неслучайная функция
Kx(t1, t2) = M[(X(t1) – ax(t1))(X(t2) – ax(t2))] (1.)
двух переменных t1 и t2 , которая при каждой паре переменных t1 и t2 равна ковариации соответствующих сочетаний Х(t1) и Х(t2) случайного процесса.
Очевидно, для случайного процесса Х(t1) корреляционная функция Kx1(t1, t2) убывает по мере увеличения разности t2 - t1значительно медленнее, чем Kx2(t1, t2) для случайного процесса Х(t2).
Корреляционная функция Kx(t1, t2) характеризует не только степень тесноты линейной зависимости между двумя сочетаниями, но и разброс этих сочетаний относительно математического ожидания ax(t). Поэтому рассматривается также нормированная корреляционная функция случайного процесса.
Нормированной корреляционной функцией случайного процесса Х(t) называется функция:
Px(t1, t2) = Kx(t1, t2) / σx(t1)σx(t2) (2)
Пуассоновский процесс — это случайный процесс с непрерывным временем, выходящий из нуля и имеющий кусочно-постоянные траектории, возрастающие скачками величины 1 таким образом, что вероятность 0, 1, ..., k, ... скачков на отрезке времени [t1, t2] имеет распределение Пуассона с параметром λ*(t2-t1) и не зависит от того, как процесс вел себя до момента времени t1. Параметр λ называется интенсивностью процесса.
Свойства:
1). Если вероятность числа событий на интервале зависит только от и не зависит от положения интервала на временной оси, то такой случайный процесс обладает свойством стационарности.
2). Если события, происходящие на непересекающихся интервалах времени суть независимые случайные величины, то такой случайный процесс обладает свойством отсутствия последствия.
3). Если вероятность того, что в малом интервале времени произойдет не более одного события, есть величина бесконечно малая порядка при , то случайный процесс обладает свойством ординарности.
4). Поток событий , удовлетворяющий условиям: стационарности, отсутствия последействия и ординарности называется пуассоновским, или простейшим.
5). Пуассоновский процесс является непрерывным процессом с дискретным временем.
6). Простейший поток событий описывается одномерным распределением , . Параметр называется интенсивностью пуассоновского потока событий.
7). Простейший поток событий описывается многомерным распределением и характеризуется интенсивностью .
8). Пусть (, ) – моменты появления пуассоновских событий. Тогда случайные величины независимы в совокупности и .
9). Все траектории пуассоновского процесса представляют собой непрерывные монотонные функции.
10). Траектории пуассоновского процесса могут содержать конечное множество точек разрыва второго рода.
Если ξ(t,ω),tϵT=[0,∞) – n-мерный случайный процесс, то его называют винеровским процессом, выходящим из 0, если выполнены три условия:
1)ξ(0, ω)≡0
2)для любых N>1 и tk ϵ T, таких что 0<t1<t2<…<tN, случайные векторы ξ(t1, ω), ξ(t2, ω)- ξ(t1, ω),…, ξ(tN, ω)- ξ(tN-1, ω) являются независимыми
3) для любых t1,t2 ϵ T, таких, что 0≤t1<t2, случайный вектор ξ(t2, ω)- ξ(t1, ω) распределен по нормальному закону с нулевым математическим ожиданием ковариационной матрицей
Замечание 1
Если в определении винеровского процесса условие заменить условием , где, то получим определение винеровского процесса, выходящего из точки x
Замечание 2
Если - винеровский процесс с коэффициентом диффузии , то случайный процесс , называют стандартным винеровским процессом. Для любых , случайный вектор распределен по нормальному закону с нулевым математическим ожиданием и ковариационной матрицей
Следует отметить также два характерных свойства винеровских процессов.
1) Винеровский процесс является процессом со стационарными приращениями.
2) Если –винеровский процесс и –его коэффициент диффузии, то для любых , таких, что , ковариационная функция равна так как винеровский процесс является процессом с независимыми приращениями
Случайный процесс называется стационарным в строгом (узком) смысле, если его функция распределения любого порядка не изменяется при сдвиге совокупности точек на величину , т.е. Другими словами, для стационарного процесса функция распределения любого порядка и, следовательно, его характеристики не зависят от положения начала отсчета времени. Стационарность означает статистическую однородность процесса во времени. Физически стационарный случайный процесс представляет собой случайный процесс в установившемся режиме. Физически стационарный случайный процесс представляет собой случайный процесс в установившемся режиме, каковым является, например, шум на выходе усилителя через достаточно большой промежуток времени после его включения.
Если приведенное выше условие не выполняется, то процесс называется нестационарным. Нестационарный процесс будет наблюдаться, например, на выходе какого-либо генератора шумов непосредственно после его включения.
Из определения стационарного процесса следует, что
т.е. одномерная функция распределения вообще не зависит от времени, а двумерная функция распределения зависят только от разностей времен . Отсюда следует, что для стационарного случайного процесса среднее значение и дисперсия являются постоянными величинами, т.е. не зависит от времени
а корреляционная функция такого процесса зависит только от одной переменной :
случайный процесс называют стационарным в широком смысле, если его среднее значение и дисперсия не зависят от времени, а корреляционная функция зависит только от разности времен . Стационарность в широком смысле не тождественна строгому определению стационарности. Случайные процессы, стационарные в строгом смысле, всегда стационарны в широком смысле, но не наоборот.
36. Марковский случайный процесс. и его свойства.
Способы описания марковского случайного процесса, протекающего в системе с дискретными состояниями, зависят от того, в какие моменты времени — заранее известные или случайные — могут происходить переходы («перескоки») системы из состояния в состояние.
Случайный процесс называется процессом с дискретным временем, если переходы системы из состояния в состояние возможны только в строго определенные, заранее фиксированные моменты времени:и т. д. В промежутки времени между этими моментами система S сохраняет свое состояние.
Случайный процесс называется процессом с непрерывным временем, если переход системы из состояния в состояние возможен в любой, наперед неизвестный, случайный момент t.
Рассмотрим прежде всего марковский случайный процесс с дискретными состояниями и дискретным временем.
Пусть имеется система S, которая может находиться в состояниях:
причем изменения состояния системы возможны только в моменты:
Будем называть эти моменты «шагами» или «этапами» процесса и рассматривать случайный процесс, происходящий в системе S, как функцию целочисленного аргумента: 1, 2, ..., k, ... (номера шага).
Случайный процесс, происходящий в системе, состоит в том, что в последовательные моменты времени... система S оказывается в тех или иных состояниях, ведя себя, например, следующим образом (в общем случае система может не только менять состояние, но и сохранять прежнее):
Условимся обозначатьсобытие, состоящее в том, что после k шагов система находится в состоянииПри любом k события
образуют полную группу и несовместны.
Процесс, происходящий в системе, можно представить как последовательность (цепочку) событий, например:
Такая случайная последовательность событий называется марковской цепью, если для каждого шага вероятность перехода из любого состоянияв любоене зависит от того, когда и как система пришла в состояние
Марковскую цепь можно описать с помощью вероятностей состояний. Пусть в любой момент времени (после любого k-го шага) система S может быть в одном из состояний:
т. е. осуществится одно из полной группы несовместных событий:
Обозначим вероятности этих событий для k-го шага через:
Легко видеть, что для каждого номера шага k
так как это — вероятности несовместных событий, образующих полную группу.
Вероятности будем называть вероятностями состояния.
В совокупности они образуют вектор:
(5.1)
Случайный процессе (марковскую цепь) можно представить себе так, как будто точка, изображающая систему S, случайным образом перемещается (блуждает) по графу состояний, перескакивая из состояния в состояние в моментыа иногда (в общем случае) задерживаясь на какое-то число шагов в одном и том же состоянии.
Для любого шага (момента времениили номера
существуют некоторые вероятности перехода системы из любого состояния в любое другое (некоторые из них равны нулю, если непосредственный переход за один шаг невозможен), а также вероятность задержки системы в данном состоянии. Будем называть эти вероятности переходными вероятностями марковской цепи.
Марковская цепь называется однородной, если переходные вероятности не зависят от номера шага. В противном случае марковская цепь является неоднородной.
Рассмотрим однородную марковскую цепь. Обозначим через вероятность перехода за один шаг из состоянияв состояние будет вероятность задержки системы в состоянииЗапишем данные вероятности в форме квадратной матрицы:
(5.2)
Некоторые из переходных вероятностеймогут быть равны нулю, что означает невозможность перехода системы изсостояния вза один шаг. По главной диагонали матрицы переходных вероятностей стоят вероятноститого, что система не выйдет из состоянияа останется в нем.
Сумма членов, стоящих в каждой строке матрицы (5.2), должна быть равна единице, так как в каком бы состоянии система ни была перед к-м шагом события несовместны и образуют полную группу.
При рассмотрении марковских цепей часто бывает удобно пользоваться ГСП, на котором у стрелок проставлены соответствующие переходные вероятности (см. рис. 5.1, б), или размеченным графом состояний.
Заметим, что на рис. 5.1, 6 проставлены не все переходные вероятности, а только те из них, которые не равны нулю и меняют состояние системы, т. е.при«вероятности задержки» и т. д. проставлять на графе излишне, так как каждая из них дополняет до единицы сумму переходных вероятностей, соответствующих всем стрелкам, исходящим из данного состояния. Например, для графа рис. 5.1, б:
Если из состоянияне исходит ни одной стрелки (переход из него ни в какое другое состояние невозможен), соответствующая вероятность задержкиравна единице.
Имея в распоряжении размеченный ГСП (или, что равносильно, матрицу переходных вероятностей) и зная начальное состояние системы, можно найти вероятности состояний после любого (k-го) шага.
Предположим, что в начальный момент (перед первым шагом) система находится в каком-то определенном состоянии, напримерТогда для начального момента (0) будем иметь:
т. е. вероятности всех состояний равны нулю, кроме вероятности начального состоянияравной единице.
Найдем вероятности состояний после первого шага. Мы знаем, что перед первым шагом система заведомо находится в состоянииЗначит, за первый шаг она перейдет в состояния с вероятностями
находящимися в m-й строке матрицы переходных вероятностей. Таким образом, вероятности состояний после первого шага будут:
. (5.3)
Найдем вероятности состояний после второго шага:
Будем вычислять их по формуле полной вероятности с гипотезами:
после первого шага система была в состоянии; после первого шага система была в состоянии;
после первого шага система была в состоянии;
после первого шага система была в состоянии Вероятности гипотез известны (5.3); условные вероятности перехода в состояниепри каждой гипотезе тоже известны и записаны в матрице переходных вероятностей. По формуле полной вероятности получим:
(5.4)
или
(5.5)
Данное выражение может быть записано в вектор-матричной форме:
(5.6)
где— транспонированная матрица (5.2).
В формулах (5.4)—(5.5) суммирование распространяется формально на все состояния фактически учитывать надо только те из них, для которых переходные вероятностиотличны от нуля, т. е. те состояния, из которых может совершиться переход в состояние(или задержка в нем).
Таким образом, вероятности состояний после второго шага известны. Очевидно, после третьего шага они определяются аналогично:
и вообще после k-го шага:
(5.8)
или в матричной форме
(5.9)
Итак, вероятности состоянийпосле k-го шага определяются рекуррентной формулой (5.8) через вероятности состояний после (k - 1)-го шага; те, в свою очередь, — через вероятности состояний после (k - 2)-го шага, и т. д.
ПРИМЕР
Пример 5.1. По некоторой цели ведется стрельба четырьмя выстрелами в моменты времени Возможные состояния цели:
— цель невредима;
— цель незначительно повреждена;
— цель получила существенные повреждения;
—цель полностью поражена (не может функционировать). Размеченный ГСП системы показан на рис. 5.2, а. В начальный момент цель находится в состоянии(не повреждена). Определить вероятности состояний цели после четырех выстрелов.
Рис. 5.2. Пример графа состояний и переходов (а), размеченные графы непрерывных цепей Маркова (б. в)
Из графа состояний имеем:
= 0,4;=0,2;=0,1 и= 1- (++) = 0,3.
Аналогично находим:
= 0;=0,4;=0,4;=0,2;
= 0;=0;=0,3;=0,7;
= 0;=0;=0;=1.
Таким образом, матрица переходных вероятностей имеет вид:
Так как в начальный момент цель S находится в состоянии то= 1.
Вероятности состояний после первого шага (выстрела) берутся из первой строки матрицы:
Вероятности состояний после второго шага:
= 0,09; = 0,3 0,4+ 0,4 0,4 = 0,28;
= 0,3 0,2+ 0,4-0,4 + + 0,2 0,3 = 0,28;
= 0,3 0,1 + + 0,4 - 0,2 + 0,2 - 0,7 + 0,1 - 1 = 0,35.
Вероятности состояний после третьего шага: = 0,09 - 0,3 = 0,027;
= 0,09 - 0,4 + 0,28 - 0,4 = 0,148;
= 0,09 - 0,2 + 0,28 - 0,4 + + 0,28 - 0,3 = 0,214;
= 0,09 - 0,1 + + 0,28 - 0,2 + 0,28 - 0,7 + 0,35 - 1 = 0,611.
Вероятности состояний после четвертого шага: = 0,0081;
= 0,027 - 0,4 + 0,148 - 0,4 = 0,07; = 0,027 - 0,2 + + 0,148 - 0,4 + 0,214 - 0,3 = 0,1288;
= 0,027 - 0,1 + 0,148 - 0,2 + 0,214 - 0,7 + 0,611 - 1 =0,7931.
Таким образом, получены вероятности всех исходов обстрела цели (четырех выстрелов):
- цель не повреждена: 0,008;
- цель получила незначительные повреждения:0,070;
- цель получила существенные повреждения:0,129;
- цель поражена полностью:0,793.
Кроме однородных марковских цепей, в которых вероятности перехода от шага к шагу не меняются, известны динамические или неоднородные цепи, в которых вероятности переходаменяются от шага к шагу (зависят от номера шага k).
В этом случае выражения (5.8), (5.9) приобретают вид:
(5.10)
37. Дискретные процессы Маркова с непрерывным временем.
Пусть имеется некоторая система S , переходы системы из состояния в состояние происходят в случайные моменты времени под воздействием каких-либо потоков событий (например, поток отказов, поток восстановлений). Для системы такими событиями могут быть: поступление очередной заявки (событие вход ного потока); окончание обслуживания очередной заявке (событие потока обслуживания заявок) и т.д.
Процесс, протекающий в системе S , называется Марковским процессом с дискретными состояниями и непрерывным временем (или непрерывной Марковской цепью ), если выполняется условие: для любого фиксированного момента времени условные вероятности состояния системы в будущем зависят только от состояния системы в настоящем и не зависят от того, когда (на каком шаге) и откуда система перешла в это состояние [5, 16].
Схематично систему удобно представлять в виде размеченного графа состояний. Граф состояний – это схема, отражающая переход системы из состояния в состояние. Вершины графа соответствуют состояниям, дуги – переходам из состояния в состояние. Размеченный граф состояний – граф состояний с проставленными у стрелок интенсивностями соответствующих потоков событий, переводящих систему из состояния в состояние.
Определение
Семейство дискретных случайных величин называется цепью Маркова (с непрерывным временем), если
.
Цепь Маркова с непрерывным временем называется однородной, если
.
38. Теорема о спектральном представлении случайного процесса.
детерминированных сигналов и случайных процессов широко используется их спектральное представление в виде спектральной плотности, которая базируется на преобразовании Фурье.
Если процесс имеет конечную энергию и квадратично интегрируем (а это нестационарный процесс), то для одной реализации процесса можно определить преобразование Фурье как случайную комплексную функцию частоты:
(1) |
Однако она оказывается почти бесполезной для описания ансамбля. Выходом из этой ситуации является отбрасывание некоторых параметров спектра, а именно спектра фаз, и построении функции, характеризующей распределение энергии процесса по оси частот. Тогда согласно теореме Парсеваля энергия
(2) |
Функция характеризует, таким образом, распределение энергии реализации по оси частот и называется спектральной плотностью реализации. Усреднив эту функцию по всем реализациям можно получить спектральную плотность процесса.
Перейдем теперь к стационарному в широком смысле центрированному случайному процессу , реализации которого с вероятностью 1 имеют бесконечную энергию и, следовательно, не имеют преобразования Фурье. Спектральная плотность такого процесса может быть найдена на основании теоремы Винера-Хинчина как преобразование Фурье от корреляционной функции:
(3) |
Если существует прямое преобразование, то существует и обратное преобразование Фурье, которое по известной определяет :
(4) |
Если полагать в формулах (3) и (4) соответственно и , имеем
(5) |
(6) |
Формула (6) с учетом (2) показывает, что дисперсия определяет полную энергию стационарного случайного процесса, которая равна площади под кривой спектральной плотности. Размерную величину можно трактовать как долю энергии, сосредоточенную в малом интервале частот от до . Если понимать под случайный (флуктуационный) ток или напряжение, то величина будет иметь размерность энергии [В2/Гц] = [В2с]. Поэтому иногда называют энергетическим спектром. В литературе часто можно встретить другую интерпретацию: – рассматривается как средняя мощность, выделяемая током или напряжением на сопротивлении 1 Ом. При этом величину называют спектром мощности случайного процесса.
. |
(7) |
. |
(8) |
13.8. Центральная предельная теорема для одинаково распределенных слагаемых
Различные формы центральной предельной теоремы отличаются между собой условиями, накладываемыми на распределения образующих сумму случайных слагаемых. Здесь мы сформулируем и докажем одну из самых простых форм центральной предельной теоремы, относящуюся к случаю одинаково распределенных слагаемых.
Теорема. Если - независимые случайные величины, имеющие один и тот же закон распределения с математическим ожиданием и дисперсией , то при неограниченном увеличении закон распределения суммы
(13.8.1)
неограниченно приближается к нормальному.
Доказательство.
Проведем доказательство для случая непрерывных случайных величин (для прерывных оно будет аналогичным).
Согласно второму свойству характеристических функций, доказанному в предыдущем , характеристическая функция величины представляет собой произведение характеристических функций слагаемых. Случайные величины имеют один и тот же закон распределения с плотностью и, следовательно, одну и ту же характеристическую функцию
. (13.8.2)
Следовательно, характеристическая функция случайной величины будет
. (13.8.3)
Исследуем более подробно функцию . Представим ее в окрестности точки по формуле Маклорена с тремя членами:
, (13.8.4)
где при .
Найдем величины , , . Полагая в формуле (13.8.2) имеем:
. (13.8.5)
Продифференцируем (13.8.2) по :
. (13.8.6)
Полагая в (13.8.6) , получим:
. (13.8.7)
Очевидно, не ограничивая общности, можно положить (для этого достаточно перенести начало отсчета в точку ). Тогда
.
Продифференцируем (13.8.6) еще раз:
,
отсюда
. (13.8.8)
При интеграл в выражении (13.8.8) есть не что иное, как дисперсия величины с плотностью , следовательно
. (13.8.9)
Подставляя в (13.8.4) , и , получим:
. (13.8.10)
Обратимся к случайной величине . Мы хотим доказать, что ее закон распределения при увеличении приближается к нормальному. Для этого перейдем от величины к другой («нормированной») случайной величине
. (13.8.11)
Эта величина удобна тем, что ее дисперсия не зависит от и равна единице при любом . В этом нетрудно убедиться, рассматривая величину как линейную функцию независимых случайных величин , каждая из которых имеет дисперсию . Если мы докажем, что закон распределения величины приближается к нормальному, то, очевидно, это будет справедливо и для величины , связанной с линейной зависимостью (13.8.11).
Вместо того чтобы доказывать, что закон распределения величины при увеличении приближается к нормальному, покажем, что ее характеристическая функция приближается к характеристической функции нормального закона.
Найдем характеристическую функцию величины . Из соотношения (13.8.11), согласно первому свойству характеристических функций (13.7.8), получим
, (13.8.12)
где - характеристическая функция случайной величины .
Из формул (13.8.12) и (13.8.3) получим
(13.8.13)
или, пользуясь формулой (13.8.10),
. (13.8.14)
Прологарифмируем выражение (13.8.14):
.
Введем обозначение
. (13.8.15)
Тогда
. (13.8.16)
Будем неограниченно увеличивать . При этом величина , согласно формуле (13.8.15), стремится к нулю. При значительном ее можно считать весьма малой. Разложим, в ряд и ограничимся одним членом разложения (остальные при станут пренебрежимо малыми):
.
Тогда получим
.
По определению функция стремится к нулю при ; следовательно,
и
,
откуда
. (13.8.17)
Это есть не что иное, как характеристическая функция нормального закона с параметрами , (см. пример 2, 13.7).
Таким образом, доказано, что при увеличении характеристическая функция случайной величины неограниченно приближается к характеристической функции нормального закона; отсюда заключаем что и закон распределения величины (а значит и величины ) неограниченно приближается к нормальному закону. Теорема доказана.
Мы доказали центральную предельную теорему для частного, но важного случая одинаково распределенных слагаемых. Однако в достаточно широком классе условий она справедлива и для неодинаково распределенных слагаемых. Например, А. М. Ляпунов доказал центральную предельную теорему для следующих условий:
, (13.8.18)
где - третий абсолютный центральный момент величины :
.
- дисперсия величины .
Наиболее общим (необходимым и достаточным) условием справедливости центральной предельной теоремы является условие Линдеберга: при любом
,
где - математическое ожидание, - плотность распределения случайной величины , .
Под статистической гипотезой понимают всякое высказывание о генеральной совокупности (случайной величине), проверяемое по выборке (по результатам наблюдений).
Не располагая сведениями о всей генеральной совокупности, высказанную гипотезу сопоставляют по определенным правилам, с выборочными сведениями и делают вывод о том, можно принять гипотезу или нет.
Процедура сопоставления высказанной гипотезы с выборочными данными называется проверкой гипотезы.
Рассмотрим этапы проверки гипотезы и используемые при этом понятия.
Этап 1. Располагая выборочными данными и руководствуясь конкретными условиями рассматриваемой задачи, формулируют гипотезу Но, которую называют основной или нулевой, и гипотезу Н1конкурирующую с гипотезой Н0. Термин «конкурирующая» означает, что являются противоположными следующие два события:
по выборке будет принято решение о справедливости для генеральной совокупности гипотезы Н0;
по выборке будет принято решение о справедливости для генеральной совокупности гипотезы Н1.
Гипотезу H1 называют также альтернативной. Например, если нулевая гипотеза такова: математическое ожидание равно 5,- то альтернативная гипотеза может быть следующей: математическое ожидание меньше 5, что записывается следующим образом:
Этап 2. Задаются вероятностью a , которую называют уровнем значимости. Поясним ее смысл.
Решение о том, можно ли считать высказывание Н0 справедливым для генеральной совокупности, принимается по выборочным данным, т. е. по ограниченному ряду наблюдений, следовательно, это решение может быть ошибочным. При этом может иметь место ошибка двух родов:
отвергают гипотезу Но, или, иначе, принимают альтернативную гипотезу H1, тогда как на самом деле гипотеза Н0 верна; это ошибка первого рода;
принимают гипотезу Н0 , тогда как на самом деле высказывание Но неверно, т. е. верной является гипотеза Н1 это ошибка второго рода.
Так вот уровень значимости a—это вероятность ошибки первого рода, т. е.
вероятность того, что будет принята гипотеза Н1 , если на самом деле в генеральной совокупности верна гипотеза Но. Вероятность a задается заранее малым числом, используют некоторые стандартные значения: 0,05; 0,01; 0,005; 0,001. Например, a=0,05 означает следующее: если гипотезу Но проверять по каждой из 100 выборок одинакового объема, то в среднем в 5 случаях из 100 мы совершим ошибку первого рода.
Вероятность ошибки второго рода обозначают b, т. е.
—вероятность того, что будет принята гипотеза Но, если на самом деле верна гипотеза Н1.
Этап 3. Находят величину j такую, что:
ее значения зависят от выборочных данных, т. е. для которой справедливо равенство
- ее значения позволяют судить о «расхождении выборки с гипотезой Н0»;
- и которая, будучи величиной случайной в силу случайности выборки, подчиняется при выполнении гипотезы Но некоторому известному закону распределения.
Величину j называют критерием.
Этап 4. Далее рассуждают так. Так как значения критерия позволяют судить о «расхождении выборки с гипотезой Но», то из области допустимых значений критерия j следует выделить подобласть wтаких значений, которые свидетельствовали бы о существенном расхождении выборки с гипотезой Но и, следовательно, о невозможности принять гипотезу Но.
Подобласть w называют критической областью.
Допустим, что критическая область выделена. Тогда руководствуются следующим правилом: если вычисленное по выборке значение критерия j попадает в критическую область, то гипотеза Но отвергается и принимается гипотеза Н1. При этом следует понимать, что такое решение может оказаться ошибочным:
на самом деле гипотеза Но может быть справедливой. Таким образом, ориентируясь на критическую область, можно совершить ошибку первого рода, вероятность которой задана заранее и равна a. Отсюда вытекает следующее требование к критической области w:
вероятность того, что критерий j примет значение из критической области w , должна быть равна заданному числу a, т. е.
Но критическая область данным равенством определяется неоднозначно. Действительно, представив себе график функции плотности fj (х) критерия j , нетрудно понять, что на оси абсцисс существует бесчисленное множество областей-интервалов таких, что площади построенных на них криволинейных трапеций равны a. Поэтому кроме требования
выдвигается следующее требование: критическая область w должна быть расположена так, чтобы при заданной вероятности a ошибки первого рода вероятность b ошибки второго рода была минимальной.
Возможны три вида расположения критической области (в зависимости от вида нулевой и альтернативной гипотез, вида и распределения критерия j):
правосторонняя критическая область (рис.а) , где критическая точка
определяется из условия:
левосторонняя критическая область(рис.б) , где критическая точка
определяется из условия :
двусторонняя критическая область (рис.в), где критические точки
,
называемые двусторонними, определяются из условий
И называются двусторонними критическими точками.
Этап 5. В формулу критерия
вместо Х1, Хг, …, Хп подставляют конкретные числа, полученные в результате п наблюдений, и подсчитывают числовое значение jчис критерия.
Если jчис попадает в критическую область w, то гипотеза Но отвергается и принимается гипотеза Н1.
Если jчис не попадает в критическую область, гипотеза Но не отвергается.
Проверка гипотез о числовом значении мат. ожидания нормального распределения
Полагаем, что Х является случайной величиной, имеющей нормальное распределение с параметрами и , т.е. , причем числовое значение а неизвестно.
Дать точный ответ на вопрос, каково численное значение неизвестного параметра а по выборочной совокупности нельзя. Поэтому поступают следующим образом. Полагая, что наблюдения независимы, вычисляют значение выборочной оценки , которое дает приближенные представления об . Затем приступают к проверке гипотез о числовых значениях неизвестного параметра а.
Проверка гипотезы о числовом значении математического ожидания при известной дисперсии.
Предполагается, что , причем значение математического ожидания а неизвестно, а числовое значение дисперсии известно.
Выдвинем гипотезу о том, что неизвестный параметр а равен числу . Возможны три случая: 1) параметр а равен числу , которое больше числа (т.е. ); 2) параметр а равен числу , которое меньше (т.е ); 3) параметр а равен числу , которое не равно (т.е. ).
Проверка гипотезы о числовом значении математического ожидания при неизвестной дисперсии.
В этом случае за основу проверки гипотезы
, (5.19)
где – заранее заданное число, положен критерий
, (5.20)
где , – случайные величины, вычисляемые по формулам (2.9) и (3.12). Этот критерий при выполнении гипотезы (5.19) имеет -распределение с числом степеней свободы , т.е.
, (5.21)
где – случайная величина, подчиняющаяся распределению Стьюдента
Проверка гипотез о числовом значении дисперсии нормального распределения
Полагаем, что является случайной величиной, имеющей нормальное распределение , причем числовое значение дисперсии неизвестно. Выборочная оценка дает приближенное представление о . Используя эту оценку, проверим гипотезу
, (5.29)
где – заранее заданное число.
В качестве критерия возьмем случайную величину
. (5.30)
При выполнении гипотезы (5.29) эта величина подчиняется -распределению с числом степени свободы , т.е.