Поможем написать учебную работу
Если у вас возникли сложности с курсовой, контрольной, дипломной, рефератом, отчетом по практике, научно-исследовательской и любой другой работой - мы готовы помочь.

Предоплата всего

Подписываем
Если у вас возникли сложности с курсовой, контрольной, дипломной, рефератом, отчетом по практике, научно-исследовательской и любой другой работой - мы готовы помочь.
Предоплата всего
Подписываем
ТЕОРИЯ ВЕРОЯТНОСТЕЙ И МАТЕМАТИЧЕСКАЯ СТАТИСТИКА
Лекции
1. Основные понятия, определения и теоремы теории вероятностей
В основу современной теории вероятностей легли результаты работ Б. Паскаля (16231662), П. де Ферма (16011665), Г. Галилея (15641642), Я. Бернулли (16541705), П. С. Лапласа (17491827), А. де Муавра (16671754) и других ученых. В XIX в. теория вероятностей сформировалась как стройная математическая дисциплина благодаря работам выдающегося русского ученого П. Л. Чебышева (18211894) и его учеников А. А. Маркова (18561922) и А. М. Ляпунова (18571918). В ХХ в. значительный вклад в развитие современной теории вероятностей внесли отечественные ученые: С.Н. Бернштейн, Б. В. Гнеденко, А. Н. Колмогоров, B. C. Пугачев, В. И. Романовский, Н. В. Смирнов, А. Я. Хинчин и др. Широкую известность приобрели фундаментальные работы зарубежных ученых: Г. Крамера, Д. Неймана, Р. Фишера, М. Кендалла, А. Стьюарта и др. Остановимся на основных понятиях теории вероятностей.
Теория вероятностей раздел математики, изучающий случайные величины и их распределения.
Вероятность количественная мера неопределенности, число, которое выражает степень уверенности в наступлении того или иного события.
Вероятность число Р(А)Є[0;1], характеризующее степень возможности появления определенного события А.
Теория вероятностей обязательный инструмент анализа ситуаций, включающих неопределенность.
Основная задача теории вероятностей установление математических законов для исследования случайных явлений массового характера и предвидения их на основании отдельных фактов. В окружающем нас мире мы имеем дело с различными случайными явлениями, большое число которых подчиняется определенным закономерностям, проявляющимся только при большом числе наблюдений.
Теория вероятностей формирует основу для статистического вывода, а также для количественной оценки наступления или ненаступления некоторых событий, включая контроль качества, принятие управленческих решений, в инженерных расчетах в экономике и пр.
1.1. Алгебра событий.Основые понятия теории множеств
Математическим описанием связей между событиями занимается алгебра событий. Алгебру событий называют алгеброй Буля по имени английского математика Дж. Буля (18151864).
Для того чтобы понять смысл вероятности, напомним некоторые понятия теории множеств и операции над множествами.
Множество это совокупность, набор, коллекция, собрание каких-либо элементов, объединенных по определенному признаку. Число элементов в множестве может быть конечным и бесконечным (например, все числа, лежащие между 0 и 1).
Полное множество Х набор, содержащий все элементы в заданном контексте.
Пустое множество Ø набор, не содержащий элементов. Всякое подмножество X есть множество (например, множество А, Ā и Ø). Задав набор А, можно определить его дополнение. Дополнением Ā множества А является набор, содержащий все элементы из полного набора X, которые не являются элементами набора А.
Диаграммы Венна, названные по имени английского логика
Дж. Венна, наглядно представляют операции множеств и связанные с ними соотношения. На диаграммах Венна множество обозначается кругом, эллипсом или другой геометрической фигурой внутри прямоугольника, обозначающего полное множество.
Взаимоотношение между набором А и его дополнением показано на рис. 1.1, а.
Пример 1.1. Пусть полный набор все студенты института. Определим А множество студентов, сдавших летнюю сессию только на «отлично». Дополнение А есть множество студентов неотличников. В сумме А и все студенты института.
Рассмотрим подмножества А и В внутри полного множества X. Определим пересечение А и В.
Пересечение А и В (обозначается как А∩В) есть набор, содержащий все элементы, которые являются членами и А и В (см. рис. 1.1, б).
Объединение А и В (обозначается АВ) есть набор, содержащий все элементы, которые являются членами или А, или В, или А и В вместе (см. рис. 1.1, в).
Продолжим рассмотрение примера со студентами. Определим В как множество студентов, сдавших зимнюю сессию на «отлично». Тогда пересечение А и В подмножество студентов, сдавших на «отлично» и летнюю, и зимнюю сессии.
Рис. 1.1. Диаграммы Венна
Объединение А и В подмножество студентов, которые сдали на «отлично» или летнюю, или зимнюю, или обе сессии.
Два набора могут не иметь пересечения. В этом случае мы говорим, что пересечение А и В есть пустое множество (см. рис. 1.1, г). В примере с успеваемостью студентов подмножество студентов, получивших двойки в летнюю сессию, не пересекается с подмножеством отличников.
1.2. Основные определения: испытание, событие. Классификация событий
Опыт (эксперимент, испытание) это ситуация с более чем одним возможным исходом, из которых всегда имеет место точно одно так называемое элементарное событие. Исходом опыта может быть результат наблюдения или измерения.
Извлечение карты из колоды эксперимент. Один из исходов эксперимента извлечение дамы бубен. Бубновую даму можно извлечь из колоды, содержащей 36 карт и 52 карты. Число карт условие испытания.
Единичный, отдельный исход эксперимента называется элементарным событием. Набор всех элементарных событий пространство событий (множество).
Извлечение любой карты из колоды элементарное событие. Полному набору событий соответствует полное множество X, относящееся к заданному эксперименту. Полный набор событий набор всех возможных исходов эксперимента. Элементарному событию соответствует только одна точка пространства событий. Аналогом элементарного события является элемент множества.
Теория вероятностей изучает случайные события. Случайным событием называется событие, которое может произойти или не произойти в результате некоторого эксперимента (далее будем опускать термин «случайный»).
Событие это любое подмножество пространства событий, набор элементарных исходов. В диаграммах Венна событию соответствует подмножество элементарных событий. Событие произошло, если в результате эксперимента произошло элементарное событие, принадлежащее этому поднабору. Например, элементарные события «туз конкретной масти» благоприятствуют случайному событию «туз».
События обычно обозначаются заглавными буквами латинского алфавита: А, В, С, D, Е, F и т. д. События можно классифицировать.
Достоверное событие это событие, которое обязательно произойдет в результате испытания (подброшенный камень обязательно упадет на Землю вследствие действия закона притяжения). Достоверные события условимся обозначать символом Ω.
Невозможное событие это событие, которое не может произойти в результате данного опыта (извлечение черного шара из урны с белыми шарами есть событие невозможное). Невозможное событие обозначим Ø.
Достоверные и невозможные события не являются случайными.
Совместные события несколько событий называют совместными, если в результате эксперимента наступление одного из них не исключает появления других. (в магазин вошел покупатель. События «в магазин вошел покупатель старше 60 лет» и «в магазин вошла женщина» совместные, так как в магазин может войти женщина старше 60 лет.)
Несовместные события несколько событий называют несовместными в данном опыте, если появление одного из них исключает появление других (выигрыш, ничейный исход и проигрыш при игре в шахматы как результат одной партии три несовместных события).
События называют единственно возможными, если в результате испытания хотя бы одно из них обязательно произойдет. Некоторая фирма рекламирует свой товар по радио и в газете. Обязательно произойдет одно и только одно из следующих событий: «потребитель услышал о товаре по радио», «потребитель прочитал о товаре в газете», «потребитель получил информацию о товаре по радио и из газеты», «потребитель не слышал о товаре по радио и не читал газеты». Это четыре единственно возможных события.
Несколько событий называют равновозможными, если в результате испытания ни одно из них не имеет объективно большей возможности появления, чем другие (при бросании игральной кости выпадение каждой из ее граней события равновозможные).
Два единственно возможных и несовместных события называются противоположными (купля и продажа определенного вида товара есть события противоположные).
Полная группа событий совокупность всех единственно возможных и несовместных событий.
Полную группу можно определить так: если = Ω и Аi∩Аj = Ø для любой пары , тогда {A1, A2, ..., Аn} полная группа событий.
1.3. Классическое определение вероятности. Свойства, вытекающие из этого определения
Игровые модели дают хорошие примеры вероятностей и иллюстрируют методы оценки вероятностей. азартные игры обычно включают механические схемы кости, карты, рулетку. Если предположить отсутствие мошенничества, то эти «механические схемы» имеют тенденцию выдавать набор выходных результатов, которые равновозможны, что позволяет вычислять вероятность выигрыша в игре.
Пример 1.2. Предположим, подбрасывают кость и выигрывают, если появляется 1 или 2. каковы шансы на выигрыш?
Решение. Так как существует шесть равновозможных чисел и выигрыш наступает, если появится любой из двух исходов (двух чисел), то вероятность выигрыша вычисляется как отношение двух выигрышных шансов к шести возможным и будет равна 2/6.
Объективная вероятность, классическая вероятность вероятность, базирующаяся на симметричной игре шансов или одинаковых ситуациях и исходящая из того, что определенные явления бывают равновозможными (числа 1, 2, 3, 4, 5, 6 в честной игре в кости имеют равную возможность появления).
Вероятностью появления события А называют отношение числа исходов, благоприятствующих наступлению этого события, к общему числу всех единственно возможных и несовместных элементарных исходов.
Обозначим число благоприятствующих событию А исходов через М, а число всех исходов N, тогда
Р(А) =, (1.1)
где М целое неотрицательное число; 0 ≤ М ≤ N.
Другой тип вероятности определяется исходя из относительной частоты (частости) появления события. Если, к примеру, некоторая фирма в течение определенного времени провела опрос 1000 покупателей о новом сорте напитка и 20 из них оценили его как вкусный, то мы можем оценить вероятность того, что потребителям понравится новый напиток, как 20/1000 = 0,02. В этом примере 20 частота наступления события, а 20/1000 = 0,02 относительная частота.
Относительная частота события отношение числа испытаний т, при которых событие появилось, к общему числу проведенных испытаний п:
ω(A) = , (1.2)
где m целое неотрицательное число; 0 ≤ m ≤ п.
Чем же отличается относительная частота от вероятности? Относительная частота результат многократных испытаний. С увеличением числа испытаний относительная частота проявляет тенденцию стабилизироваться, проявляет устойчивость, а именно приближается с затухающими отклонениями к постоянному числу, называемому статистической вероятностью. В качестве статистической вероятности события принимают относительную частоту или число, близкое к ней.
Статистической вероятностью события А называется относительная частота (частость) этого события, вычисленная по результатам большого числа испытаний. Будем обозначать ее Р*(А). Следовательно,
(1.3)
Но, как мы уже видели в приведенных примерах, статистическая вероятность приближенно равна классической вероятности, т. е. Р*(А) ≈ ≈ Р(А).
Для определения вероятности выпадения «1» или «2» при подбрасывании кости нам необходимо знать только «модель игры», в данном случае кость с шестью гранями. Мы можем определить наши шансы теоретически, без подбрасывания кости это априорная вероятность (т. е. вероятность до опыта). Во втором примере мы можем определить вероятность только по результатам опыта, это апостериорная (после опыта) вероятность. Таким образом, классическая вероятность априорная, а статистическая апостериорная.
Пример 1.3. Аналитик следит за движением йен на акции фирмы IBM в определенном промежутке времени и желает оценить вероятность того, что акции поднимутся в цене на следующей неделе. У аналитика нет столь ясного набора равновероятных исходов, где «акции компании IBM поднимутся в цене на следующей неделе», есть один из заданного числа исходов этих равновероятных возможностей. Следовательно, аналитическое оценивание вероятностей наступления события будет субъективным, основанным на его собственных оценках вероятности.
Субъективная вероятность включает индивидуальные сужде-ния, информацию, интуицию и другие критерии. Субъективная вероятность одного эксперта может существенно отличаться от субъективной вероятности другого при оценке одного и того же события.
Какой бы вид вероятности ни был выбран, для их вычисления и анализа используется один и тот же набор математических правил.
Свойства вероятности, вытекающие из классического определения:
1. Вероятность достоверного события равна 1, т. е. Р(Ω) = 1. Действительно, если событие А = Ω, то М = N, значит, P(Ω) = = 1.
2. Если событие невозможное, то его вероятность равна 0, т.е. Р(Ø) = 0. Если А = Ø, то оно не осуществится ни при одном испытании, т. е. М = 0 и Р(Ø) = = 0.
3. Вероятность случайного события есть положительное число, заключенное между 0 и 1. В самом деле, так как 0 ≤ М ≤ N, то 0 ≤ М // 0 ≤ 1, т. е. 0 ≤ P(A) ≤ 1.
4. Сумма вероятностей противоположных событий равна 1, т. е.
Р(А) + Р(Ā) = 1, Р(Ā) = (N M) / N = 1 M/N = 1 Р(А),
а отсюда
Р(А) + Р(Ā) = 1. (1.4)
Например, если вероятность извлечения туза равна 4/52, то вероятность извлечения карты, не являющейся тузом, равна 14/52 = 48/52.
Чем больше значение вероятности внутри интервала от 0 до 1, тем более мы уверены в наступлении случайного события. Неформальную интерпретацию вероятности наступления случайного события иллюстрирует рис. 1.2.
В обыденной жизни мы часто употребляем термин «вероятность» в менее формальном значении. Так, люди часто оценивают шансы. Если шансы 1 к 1, то вероятность равна 1/2; если шансы 1 к 2, то вероятность равна 1/3, и т. д. Люди также иногда говорят: «Вероятность равна 30 %». Следует избегать подобных определений и всегда иметь дело с вероятностью как с числом между 0 и 1. Такая интерпретация гораздо яснее.
0,000,25 |
0,250,5 |
0,5 |
0,50,75 |
0,751,00 |
Событиескореевсегоне произойдет |
Событиескорее всего не произойдет, чем произойдет |
Событие имеет одинаковую вероятность произойти и не произойти |
Событиескореевсего произойдет, чем не произойдет |
Событиескорее всего произойдет |
Алгоритм решения задач по определению вероятности события:
Пример 1.4. Монета подбрасывается три раза, найти вероятность того, что при этом (безразлично, в каком порядке) выпадет два раза герб и один раз цифра.
Решение:
1. Опыт (испытание, эксперимент) состоит в трехкратном подбрасывании монеты (или однократном подбрасывании трех монет).
2. Элементарным событием является любое сочетание последовательности выпадений сторон на трех подбрасываемых монетах.
1.4. Основные теоремы теории вероятностей
■ Теорема сложения вероятностей. Вероятность суммы двух событий равна сумме вероятностей этих событий без вероятности их совместного наступления:
P(A + B) = P(A) + P(B) P(AB)
или P(AB) + P(A) + P(B) P(A∩B). (1.5)
Сумму событий А + В называют событием, состоящим в появлении события А, или события В, или обоих событий А и В.
Смысл правила (1.5) очень прост и понятен интуитивно: когда мы складываем вероятности событий А, В, то измеряем, или взвешиваем, вероятность их пересечения дважды первый раз, когда измеряем относительный размер события А внутри пространства событий, и еще раз, когда делаем то же самое с событием В. Отсюда, поскольку относительный размер, или вероятность пересечения двух наборов, взвешивается дважды, мы вычитаем одно из них и, следовательно, получаем истинную вероятность объединения двух событий.
Пример 1.5. Определим, чему равна вероятность извлечения либо карты масти «трефы», либо карты масти «бубны». Обозначив С «извлечение карты бубновой масти», получим
P(B + С) = P(BC) = P(B) + Р(C) = 13/52 + 13/52 = 26/52 = 1/2.
Мы не должны вычитать вероятность пересечения этих событий, поскольку нет карт, имеющих масти «трефы» и «бубны» одновременно.
Правило сложения вероятностей справедливо и для конечного числа п попарно несовместных событий, т. е.
P(A1 + A2+ … + An) = P(A1) + P(A2) + P(A3) +…+ P(An)
или
. (1.6)
В случае нескольких совместных событий по аналогии с рассуждениями о пересечении двух совместных событий необходимо исключить повторный учет областей пересечения событий. Рассмотрим три совместных события (рис. 1.3).
Рис. 1.3. Три совместных события
Для случая трех совместных событий можно записать:
Р(A + В + C) = P(A) + P(B) + P(C) P(AB) P(AC) P(BC) + P(ABC).
Сумма вероятностей событий A1, A2,…, An, образующих полную группу, равна 1:
P(A1) + P(A2) + P(A3) +…+ P(An) = (1.7)
В самом деле, так как события A1, A2,…, An образуют полную группу, т. е. они единственно возможные и попарно несовместные, то появление одного из них есть событие достоверное, т. е. А1+А2+…+
+ Аn = Ω, тогда
Р(А1 + А2 +...+ Аn) = P(А1) + P(А2) + P(А3) +…+ P(Аn) = P(Ω) = 1.
1.5. Зависимые и независимые события
Рассмотрим пример с двумя событиями. Пусть событие А «извлечение короля», В «извлечение карты с картинкой». Тогда вероятность появления короля равна 4/52, а вероятность появления короля, если извлеченная карта картинка, равна 4/16.
Другой пример. В урне два белых и три черных шара. Чему равна вероятность появления белого шара при первом извлечении из урны? При втором извлечении из урны? Здесь возможны два случая.
Первый случай. Схема возвращенного шара, т. е. шар после первого испытания возвращается в урну.
Пусть событие А «появление белого шара при первом испытании». Так как N = 5, а М = 2, то Р(А) = 2/5.
Пусть событие В «появление белого шара при втором извлечении». Так как шар после первого испытания возвратился в урну, то N = 5, а М = 2 и Р(В) = 2/5.
Таким образом, вероятность каждого из событий не зависит от того, произошло или не произошло другое событие. События А и В в этом случае называются независимыми. Итак, события А и В называются независимыми, если вероятность каждого из них не зависит от того, произошло или нет другое событие. Вероятности независимых событий называются безусловными.
Второй случай. Схема невозвращенного шара, т. е. шар после первого испытания в урну не возвращается.
Вероятность появления белого шара при первом испытании Р(А) = 2/5. Белый шар в урну не возвращается, следовательно, в урне остались один белый и три черных шара. Чему равна вероятность события В при условии, что событие А произошло? N = 4, М = 1.
Искомую вероятность обозначают Р(В/А) или Р(В)A или РA(В). Итак, Р(В/А) = 1/4 называют условной вероятностью, а события А и В зависимыми. В предыдущем примере с картами Р(А) = 4/52; Р(А/В) = 4/16.
Итак, события А и В называются зависимыми, если вероятность каждого из них зависит от того, произошло или нет другое событие. Вероятность события В, вычисленная в предположении, что другое событие А уже осуществилось, называется условной вероятностью. Очевидно, что если два события А и В независимые, то справедливы равенства:
Р(В) = Р(В/А), Р(А) = Р(А/В), или Р(В/А) Р(В) = 0.
■ Теорема умножения вероятностей. Вероятность произведения двух зависимых событий А и В равна произведению вероятности одного из них на условную вероятность другого:
Р(А·В) = Р(А∩В) = Р(В)∙Р(А/В) = Р(A)∙Р(B/A). (1.8)
Произведением событий А и В называют событие, состоящее в одновременном появлении и события А, и события В.
Доказательство. Проиллюстрируем понятие условной вероятности для случая равновозможных элементарных исходов, где применимо классическое определение вероятности. Пусть даны два события А, В, такие, что Р(А) ≠ 0 и P(B) ≠ 0, и пусть из всех возможных N исходов событию А благоприятствуют М исходов, событию В благоприятствуют К исходов, событию А и В благоприятствуют L исходов. Вероятности событий А, В, А·В соответственно равны Р(А) = M/N, Р(В) = K/N, Р(А·В) = L/N.
Подсчитаем условную вероятность события В/А. Событию В/А будут благоприятствовать L исходов из М исходов. Тогда Р(В/А) = L/M. Разделим числитель и знаменатель дроби на N и получим
, (1.9)
где Р(А) ≠ 0.
Вероятность наступления события В, вычисленная при условии, что событие А уже произошло, равна вероятности пересечения событий А и В, деленной на вероятность события А. Из формулы (1.10) следует (1.9).
Пример. Проиллюстрируем формулу (1.9). Предположим, мы подбросили игральную кость. Пусть событие А «появилось число 6». Мы знаем, что Р(А) = 1/6. Предположим, мы не знаем, какое именно число выпало при подбрасывании, но знаем, что оно четное (событие Е). Информация о событии Е уменьшает наше пространство событий, изменяет вероятность появления события А.
Пространство событий (полная группа событий) для первоначального события А выглядит как набор точек от 1 до 6. Пространство событий, корреспондирующее с событием В, уменьшилось сразу в два раза. Новое пространство имеет три равновозможные точки, отсюда вероятность выпадения «6» при условии, что выпавшее число четное, возрастает от 1/6 до 1/3. Этот пример хорошо показывает обоснованность принятого определения вероятности. Из уравнения (1.9) имеем P(A/E) = P(A∩E) / P(E) = (1/6) / (1/2) = 1/3.
Полученный результат согласуется с тем, что мы поняли из рассмотренного примера, когда уменьшали пространство событий до трех точек.
Пример 1.6. Консультационная фирма претендует на два заказа от двух крупных корпораций. Эксперты фирмы считают, что вероятность получения консультационной работы в корпорации А (событие А) равна 0,45. По предположению экспертов, если фирма получит заказ у корпорации А, то вероятность того, что и корпорация В обратится к ним, равна 0,9. Какова вероятность получения консультационной фирмой обоих заказов?
Решение. Согласно условиям Р(А) = 0,45, Р(В/А) = 0,9.
Необходимо найти P(A·B), которая является вероятностью того, что оба события (и событие А, и событие В) произойдут. Из формулы (1.8) имеем:
Р(А·В) = Р(А)∙Р(В/А) = 0,45∙0,9 = 0,405.
Пример 1.7. В большой рекламной фирме 21 % работников получают высокую заработную плату. Известно также, что 40 % работников фирмы женщины, а 6.4 % работников женщины, получающие высокую заработную плату. Можем ли мы утверждать, что на фирме существует дискриминация женщин в оплате труда?
Решение. Сформулируем решение этой задачи в терминах теории вероятностей и спросим: «Чему равна вероятность того, что случайно выбранный работник будет женщиной, имеющей высокую заработную плату?». Определим событие А «случайно выбранный работник имеет высокую зарплату», событие В «случайно выбранный работник женщина», тогда:
Р(А/В) = P(A·B)/P(B) = 0,064/0,40 = 0,16.
Поскольку 0,16 меньше, чем 0,21, то можно заключить, что женщины, работающие в рекламной фирме, имеют меньше шансов получить высокую заработную плату по сравнению с мужчинами. Если события А и В независимы, то имеет место следующая теорема. Вероятность произведения двух независимых событий А и В равна произведению их вероятностей:
Р(А·В) = Р(A∩В) = P(A)·P(B). (1.10)
■ Независимость событий в совокупности. Если несколько событий попарно независимы, то отсюда еще не следует их независимость в совокупности. Поэтому введем понятие независимых событий в совокупности.
События А1, А2,..., Аn (п > 2) называются независимыми в совокупности, если вероятность каждого из них не зависит от того, произошли или нет любые события из числа остальных. Распространим теоремы умножения на случай п независимых и зависимых в совокупности событий.
Вероятность совместного появления нескольких событий, независимых в совокупности, равна произведению вероятностей этих событий:
P(A1·A2·A3·…·An) = P(А1)· P(A2)·P(A3)·…·P(An). (1.11)
Вероятность совместного наступления конечного числа зависимых событий равна произведению вероятности одного из них на условные вероятности всех остальных, причем условная вероятность каждого последующего события вычисляется в предположении, что все предыдущие уже наступили:
P(A1·A2·A3·…·An) = P(А1)·P(A2/A1)·P(A3/A1·A2)·…·P(An/A1·A2·A3·…·An1). (1.12)
Пример 1.8. Студент пришел на экзамен, изучив только 20 из 25 вопросов программы. Экзаменатор задал студенту три вопроса. Вычислить вероятность того, что студент ответит на все три вопроса.
Решение. Определим следующие события: А «студент знает все три вопроса»; A1 «студент знает первый вопрос»; А2 «студент знает второй вопрос»; А3 «студент знает третий вопрос». События A1, А2, А3 зависимые:
P(A) = P(А1)·P(A2/A1)·P(A3/A1·A2) = (20/25) ·(19/24)·(18/23) = 57/115 = 0,496.
Пример 1.9. Вероятность того, что потребитель увидит рекламу определенного продукта по телевидению, равна 0,04. Вероятность того, что потребитель увидит рекламу того же продукта на рекламном стенде, равна 0,06. Предполагается, что оба события независимы. Чему равна вероятность того, что потребитель увидит обе рекламы?
Решение. Поскольку оба события независимы, то вероятность пересечения двух событий (потребитель увидит рекламу и по телевидению и на стенде) есть
Р(АB) = Р(А)·Р(В) = 0,04·0,06 = 0,0024.
Вероятность появления хотя бы одного события из п независимых в совокупности равна разности между 1 и произведением вероятностей событий, противоположных данным:
. (1.13)
Доказательство. Пусть A1, A2,…, An события независимые в совокупности, а противоположные им события и тоже независимые в совокупности. Обозначим событием А «наступление хотя бы одного из событий A1, A2,…, An». Рассмотрим событие (). Оно является противоположным событием по отношению к А. Следовательно,
Отсюда
.
Если обозначить P(A1) = р1, Р(А2) = р2, ..., Р(Аn) = рn; то P(A) = 1 q1·q2…·qn. Если события А1, А2,..., Аn имеют одинаковую вероятность, равную p, то вероятность наступления хотя бы одного из них равна: P(A) = 1 qn.
Если события A1 А2, ..., Аn зависимые в совокупности, то вероятность наступления хотя бы одного из них соответственно равна:
Возвратимся к условию примера 1.9, определим вероятность того, что потребитель увидит хотя бы одну рекламу.
Решение. Пусть событие С «потребитель увидит хотя бы одну рекламу». Это значит, что потребитель увидит рекламу или по телевидению, или на стенде, или по телевидению и на стенде. По правилу определения вероятности объединения (суммы) двух событий находим:
P(С) = Р(А + B) = P(A) + P(B) P(AB) = 0,04 + 0,060,0024 = 0,0976.
По теореме о вероятности наступления хотя бы одного из и независимых событий P(C) = = 1 0,96·0,94 = 0,0976.
Вычисление вероятностей событий такого типа характеризует эффективность рекламы. Эта вероятность может означать долю (процент) населения, охватываемого рекламой с разной частотой, и отсюда следует оценка рекламных усилий.
2. Формула полной вероятности и формула Бейеса
2.1. Формула полной вероятности
Рассмотрим два события А и Н. Каковы бы ни были взаимоотношения между событиями А и Н, всегда можно сказать, что вероятность события А равна вероятности пересечения событий А и Н плюс вероятность пересечения А и дополнения Н (событие ). Поясним сказанное на диаграмме Венна (рис. 2.1). Разложение А на части зависит от и .
Р(А) = Р(АН) + Р(А∩). (2.1)
Рис. 2.1. Диаграмма Венна к формуле (2.1)
Наборы и форма расчленения набора A на два подмножества взаимно несовместных событий. События Н и взаимно противоположны. Событие А может произойти либо с Н, либо с , но не с двумя вместе (см. рис. 2.1).
Рассмотрим более сложный случай. Пусть событие А может осуществляться лишь вместе с одним из событий Н1, H2, H3,..., Hn, образующих полную группу, т. е. эти события являются единственно возможными и несовместными (рис. 2.2). Так как заранее неизвестно, какое из событий Н1, H2, H3,..., Hn наступит, то их называют гипотезами. Пусть также известны вероятности гипотез Р(Н1), Р(Н2),…, Р(Hn) и условные вероятности события А, а именно: Р(А/Н1), Р(А/Н2),…, Р(А/Нn).
Так как гипотезы образуют полную группу, то
Рассмотрим событие А это или Н1·А, или … Нn·А. События Н1·А, Н2·А, …, Нn·А несовместные попарно, так как события Н1, H2, H3,..., Hn попарно несовместны. К этим событиям применяем теорему сложения вероятностей для несовместных событий:
Р(А)=Р(Н1·А)+Р(Н2·А) +…+ Р(Нn ·А) =. (2.2)
События Н1 и А, Н2 и А,..., Нn и А зависимые. Применив теорему умножения вероятностей для зависимых событий, получим (рис. 2.2):
Р(А) = Р(Н1)∙Р(А/Н1)+ Р(Н2)∙Р(А/Н2) +...+Р(Нn)∙Р(А/Нn) = .
Рис. 2.2. Событие А может осуществляться лишь с одним
из событий Н1, Н2, ..., Нn, образующих полную группу событий
Проиллюстрируем сказанное на примере с колодой карт (рис. 2.3). Определим А как событие, состоящее в извлечении карты с картинкой (т. е. карты с изображением или туза, или короля, или дамы, или валета). Пусть события В, С, D, Е означают извлечение карт различной масти («трефы», «бубны», «черви», «пики»). Мы можем сказать, что вероятность извлечь из колоды карту с изображением туза, короля, дамы или валета есть Р(А) = Р(А∩В) + Р(А∩С) + Р(А∩D) + Р(А∩Е) = 4/52 + 4/52 + 4/52+4/52 = 16/52. Это означает, как мы уже знаем, вероятность извлечения карты с картинкой из колоды в 52 карты. Событие А представляет собой набор, составленный из пересечений А с наборами В, С, D, Е (рис. 2.3).
Рис. 2.3. Пример с колодой карт
Вывод. Если событие А может наступить только вместе с одним из событий Н1, Н2, Н3, ..., Нn, образующих полную группу несовместных событий и называемых гипотезами, то вероятность события А равна сумме произведений вероятностей каждого из событий Н1, Н2, Н3, ..., Нn на соответствующую условную вероятность события А.
Случай двух событий:
. (2.3)
Случай более чем двух событий:
, (2.4)
где i = 1, 2, ..., п.
Пример 2.1. Экономист полагает, что вероятность роста стоимости акций некоторой компании в следующем году будет равна 0,75, в случае успешного развития экономики страны, и эта же вероятность составит 0,30, если произойдет спад экономики. По его мнению, вероятность экономического подъема в будущем году равна 0,80. Используя предположения экономиста, оцените вероятность того, что акции компании поднимутся в цене в следующем году.
Решение. Событие А «акции компании поднимутся в цене в будущем году». Составим рабочую таблицу:
Hi |
Гипотезы Hi |
Р(Hi) |
P(А/Hi) |
Р(Hi)P(А/Hi) |
1 |
H1 «подъем экономики» |
0,80 |
0,75 |
0,60 |
2 |
H2 «спад экономики» |
0,20 |
0,30 |
0,06 |
∑ |
1,00 |
|
P(А) = 0,66 |
Пример 2.2. В каждой из двух урн содержится 6 черных и 4 белых шара. Из урны 1 в урну 2 наудачу переложен один шар. Найти вероятность того, что шар, извлеченный из урны 2 после перекладывания, окажется черным.
Решение. Событие А «шар, извлеченный из урны 2, черный». Составим рабочую таблицу:
Hi |
Гипотезы Hi |
Р(Hi) |
P(А/Hi) |
Р(Hi)P(А/Hi) |
1 |
H1 «из урны 1 в урну 2 переложили черный шар» |
6/10 |
7/11 |
42/110 |
2 |
H2 «из урны 1 в урну 2 переложили белый шар» |
4/10 |
6/11 |
24/110 |
∑ |
1,00 |
|
Р(А) = 0,60 |
2.2. Вычисление вероятностей гипотез формула Бейеса
Представим, что существует несколько предположений (несовместных гипотез) для объяснения некоторого события. Эти предположения проверяются с помощью опыта. До проведения опыта бывает сложно точно определить вероятность этих предположений, поэтому им часто приписывают некоторые вероятности, которые называют априорными (доопытными). Затем проводят опыт и получают информацию, на основании которой корректируют априорные вероятности. После проведения эксперимента вероятность гипотез может измениться. Таким образом, доопытные вероятности заменяют послеопытными (апостериорными).
В тех случаях, когда стало известно, что событие А произошло, возникает потребность в определении условной вероятности P(Hi/A). Пусть событие А может осуществляться лишь вместе с одной из гипотез Hi, (i = 1, 2,..., n). Известны вероятности гипотез Р(Н1), ..., Р(Нп) и условные вероятности А, т. е. Р(А/Н1), Р(А/Н2),…, Р(А/Нn). Так как A·Hi = Нi·А, то Р(А·Нi) = P(Нi·А) или , а отсюда по правилу пропорций:
.
Итак можно записать формулы Бейеса:
случай двух событий:
; (2.5)
случай более чем двух событий:
. (2.6)
Формулы Бейеса позволяют переоценить вероятности гипотез после того, как становится известным результат испытания, в итоге которого появилось событие А.
Как видим из выражения (2.5), вероятность события H, задаваемая при условии появления события А, получается из вероятностей событий и и из условной вероятности события А при заданном Н. Вероятности событий и называют априорными (предшествующими), вероятность Р(Н/А) называют апостериорной (последующей).
Пример 2.3. Экономист полагает, что в течение периода активного экономического роста американский доллар будет расти в цене с вероятностью 0,7, в период умеренного экономического роста доллар подорожает с вероятностью 0,4, и при низких темпах экономического роста доллар подорожает с вероятностью 0,2. В течение любого периода времени вероятность активного экономического роста равна 0,3, в периоды умеренного экономического роста 0,5 и низкого роста 0,2. Предположим, доллар дорожает в течение текущего периода, чему равна вероятность того, что анализируемый период совпал с периодом активного экономического роста?
Решение. Определим гипотезы: Н1 «активный экономический рост»; H2 «умеренный экономический рост»; H3 «низкий экономический рост».
Определим событие А «доллар дорожает». Имеем: Р(Н1) = 0,3; Р(Н2) = 0,5; Р(Н3) = 0,2; Р(А/Н1) = 0,7; Р(А/Н2) = 0,4 и Р(A/Н3) = 0,2. Найти: Р(Н1/А).
Используя формулу Бейеса (2.6) и подставляя заданные значения вероятностей, получаем:
Можно получить тот же результат при помощи таблицы:
Гипотезы Hi |
Априорные вероятности P(Hi) |
Условные вероятности P(A/Hi) |
Совместные вероятности Р(A∩Hi) |
Апостериорные вероятности P(Hi/А) |
H1 |
0,30 |
0,70 |
0,21 |
0,21/0,45 = 0,467 |
H2 |
0,50 |
0,40 |
0,20 |
0,20/0,45 = 0,444 |
H3 |
0,20 |
0,20 |
0,04 |
0,04/0,45 = 0,089 |
Сумма |
1,00 |
|
0,45 |
1 |
3. Случайные величины
3.1. Дискретные случайные величины
В этом разделе теории вероятностей мы познакомимся с числовыми оценками, соответствующими исходам испытаний, например таким, как подбрасывание кости. Отсюда исходы испытаний, определяемые случаем, случайные величины (СВ). Определим случайную величину следующим образом.
Случайная величина это величина, которая в результате эксперимента (опыта, испытания) принимает одно из своих возможных значений, причем заранее неизвестно, какое именно. Примеры случайных величин:
Случайные величины обозначаются заглавными латинскими буквами: X, Y, Z и т. п. Строчные буквы используются для обозначения определенных значений случайной величины. Например, случайная величина X принимает значения х1, х2, ..., хn. различают случайные, дискретные и непрерывные величины.
Дискретной (прерывной) случайной величиной называют случайную величину, которая принимает конечное или бесконечное (но счетное) число отдельных, изолированных возможных значений с определенными вероятностями. Число студентов на лекции дискретная случайная величина.
Совокупность значений может быть задана таблицей, функцией или графиком. Соотношение, устанавливающее связь между отдельными возможными значениями случайной величины и соответствующими им вероятностями, называется законом распределения дискретной случайной величины.
Простейшей формой закона распределения для дискретных случайных величин является ряд распределений.
Рядом распределения дискретной случайной величины X называется таблица, в которой перечислены возможные (различные) значения этой случайной величины х1, х2, ..., хп с соответствующими им вероятностями р1, р2, ..., рn.
хi |
х1 |
х2 |
… |
хп |
рi |
р1 |
р2 |
… |
рn |
Таким образом, случайная величина X в результате испытания может принять одно из возможных значений х1, х2, ..., хп с вероятностями
Р (Х = х1) = р1; Р(Х = х2) = р2; Р(Х = хп) = рn.
Можно использовать более короткую запись: Р(х) = Р(5) = 0,2. Так как события (Х = х1), (Х = х2), …, (Х = хп) составляют полную группу событий, то сумма вероятностей р1, р2, ..., рn равна единице:
.
Ряд распределения случайной дискретной величины должен удовлетворять следующим условиям:
,
.
Пример 3.1. Каждый день местная газета получает заказы на новые рекламные объявления, которые будут напечатаны в завтрашнем номере. Число рекламных объявлений в газете зависит от многих факторов: дня недели, сезона, общего состояния экономики, активности местного бизнеса и т. д. Пусть X число новых рекламных объявлений, напечатанных в местной газете в определенный день. X случайная величина, которая может быть только целым числом. В нашем примере случайная величина X принимает значения 0; 1; 2; 3; 4; 5 с вероятностями 0,1; 0,2; 0,3; 0,2; 0,1; 0,1 соответственно (табл. 3.1).
Таблица 3.1
Ряд распределения случайной величины X
xi |
0 |
1 |
2 |
3 |
4 |
5 |
P(xi)= pi |
0,1 |
0,2 |
0,3 |
0,2 |
0,1 |
0,1 |
Поскольку появления различных значений случайной величины X несовместные события, то вероятность того, что в газету будут помещены или 2 или 3 рекламных объявления, равна сумме вероятностей P(2) + P(3) = 0,3 + 0,2 = 0,5. Вероятность же того, что их число будет находиться в пределах от 1 до 4 (включая 1 и 4), равна 0,8, т. е. P(1 ≤ X ≤ 4) = 0,8; a P(X = 0) = 0,1. Ряд распределения можно изобразить графически. Для этого по оси абсцисс откладывают возможные значения случайной величины, а по оси ординат соответствующие им вероятности. Если точки (xi, pi) соединить отрезками прямых, то полученная ломаная линия есть многоугольник (или полигон) распределения.
Рис. 3.1. Полигон распределения для данных примера 3.1
Пример 3.2. В книжном магазине организована лотерея. Разыгрываются две книги стоимостью по 10 руб. и одна стоимостью в 30 руб. Составить закон распределения случайной величины X суммы чистого (возможного) выигрыша для того, кто приобрел один билет за 1 руб., если всего продано 50 билетов.
Решение. Случайная величина X может принимать три значения: 1 руб. (если владелец билета не выиграет, а фактически проиграет 1 руб., уплаченный им за билет); 9 руб.; 29 руб. (фактический выигрыш уменьшается на стоимость билета 1 руб.). Первому результату благоприятствуют 47 исходов из 50, второму два, а третьему один. Поэтому их вероятности таковы: P(X = 1) = 47/50 = 0,94; P(X =9) = 2/50 = 0,04; P(X = 29) = 1/50 = 0,02;
Закон распределения случайной величины X имеет вид:
Сумма выигрыша, X |
1 |
9 |
29 |
Вероятность, Р |
0,94 |
0,04 |
0,02 |
Контроль: = 0,94 + 0,04 + 0,02 = 1.
3.2. Функция распределения. Интегральная функция распределения
При анализе экономических явлений определенный смысл имеют кумулятивные (накопленные) вероятности случайных величин. Нас может интересовать вероятность того, что число проданных единиц некоторого товара окажется не меньше некоторого определенного числа, гарантирующего прибыль продавцу, вероятность того, что суммы возможных убытков от рискованных инвестиций окажутся не выше (или только меньше) некоторого определенного значения, и т. д. Зная закон распределения дискретной случайной величины, можно составить функцию накопленных вероятностей. Определим интегральную (кумулятивную) функцию распределения.
Функцией распределения дискретной случайной величины называется функция F(x), определяющая для каждого значения х вероятность того, что случайная величина X не превзойдет некоторого х, т. е.
, (3.2)
где суммирование распространяется на все значения индекса i, для которых хi < x.
Функцию F(x) называют также накопленным (кумулятивным) распределением вероятностей. Иногда вместо термина «функция распределения» используют термин «интегральная функция распределения».
Пример 3.3. Для примера 3.1 найти функцию распределения случайной величины X числа рекламных объявлений.
Решение. Случайная величина Х не принимает значений, меньших 0. Следовательно, если х < 0, то событие X < х невозможно, а вероятность его равна нулю. Для всех х, удовлетворяющих двойному неравенству 0 ≤ x < 1, функция F(х) означает вероятность события X < 1. Но случайная величина X принимает значение, меньшее 1, лишь в одном случае: значение 0 с вероятностью 0,1.
Покажем, что для всех х, удовлетворяющих двойному неравенству, 0 ≤ х < 2,
F(х) = 0,1 + 0,2 = 0,3.
Пусть, например, х = 2. Тогда F(2) выражает вероятность события X < 2. Это возможно в двух случаях: случайная величина X принимает значение или 0 (с вероятностью 0,1), или 1 (с вероятностью 0,2). Применив теорему сложения вероятностей, получим указанное значение функции F(х) при х = 2. Аналогичные рассуждения позволяют найти функцию распределения (табл. 3.2).
Таблица 3.2
Функция распределения (интегральная функция распределения для примера 3.1
x |
x < 0 |
х 5 |
|||||
P(хi) |
0 |
0,1 |
0,2 |
0,3 |
0,2 |
0,1 |
0,1 |
F(х) |
0 |
0,1 |
0,3 |
0,6 |
0,8 |
0,9 |
1,0 |
Построим график функции распределения F(x) (рис. 3.2).
Рис. 3.2. График интегральной функции числа рекламных
объявлений
Интегральная функция неубывающая и равна единице при х, большем наибольшего возможного значения случайной величины или равном ему (см. рис. 3.2). График F(x) имеет ступенчатый вид. Функция распределения каждой дискретной случайной величины постоянна на интервалах и имеет скачки на границах, соответствующих ее значениям. Величина скачков равна вероятностям, с которыми случайная величина принимает свои значения.
Исходя из условия примера 3.1 вероятность того, что число рекламных объявлений, помещенных в завтрашней газете, будет меньше трех, Р(Х < 3) = F(3) = 0,6. Вероятность того, что в газете будет помещено более одной рекламы, P(X > 1) = 1F(1) =1 0,1 = 0,9. Вероятность того, что в газете появится от одного до трех рекламных объявлений, Р(1 ≤ Х ≤ 3) = F(4)F(1) = 0,8 0,1 = 0,7.
3.3. Независимость случайных величин и математические операции над случайными величинами
Введем понятие независимости случайных величин. Если рассматривать не одну, а две или более случайные величины (системы случайных величин), то необходимо знать, изменяется или не изменяется закон распределения одной из них в зависимости от того, какое значение принимают другие случайные величины.
Если закон распределения одной случайной величины не зависит от того, какие возможные значения приняли другие случайные величины, то такие случайные величины называются независимыми в совокупности.
Если закон распределения одной случайной величины зависит от того, какие возможные значения приняли другие случайные величины, то такие случайные величины называются зависимыми в совокупности.
Например, приобретены два лотерейных билета различных выпусков. Пусть X размер выигрыша по первому билету, а Y по второму билету. Случайные величины X и Y независимы. В самом деле, если на первый билет выпал выигрыш, то закон распределения Y не изменится. Но если лотерейные билеты одного и того же выпуска, то X и Y зависимые случайные величины.
Пусть случайная величина X принимает значения: x1, x2,..., хп с вероятностями р1, p2,…, рп, а случайная величина Y принимает значения у1, у2,…, ут с вероятностями q1, q2, ..., qт.
Определим некоторые операции над случайными величинами:
3.4. Ожидаемое среднее значение дискретной случайной величины
Рассмотрим основные характеристики дискретной случайной величины при конечном числе значений.
Каждому значению дискретной случайной величины отвечает его вероятность. Как отмечалось выше, последовательность таких пар образует ряд распределения дискретной случайной величины:
где , , i = 1,…, n, .
Если случайная дискретная величина является случайной альтернативной величиной, т. е. задается двумя значениями 0 и 1 и соответствующими им вероятностями исходов q = 1 р и р, то ряд распределения принимает форму:
,
где 0 ≤ p ≤ 1, p + q = 1.
На основе ряда распределения можно определить среднее значение случайной дискретной величины как меру, которая объединяет значения случайной дискретной величины и их вероятности. Среднее значение есть взвешенная средняя всех возможных значений случайной величины, роль весов (частот) играют вероятности.
Ожидаемое среднее значение случайной величины называется математическим ожиданием М(Х) (оценкой, которую ожидают получить).
Математическое ожидание случайной дискретной величины X (т. е. принимающей только конечное или счетное множество значений x1, x2,..., хп соответственно с вероятностями р1, p2,…, рп) равно сумме произведений значений случайной величины на соответствующие им вероятности:
. (3.3)
Найдем математическое ожидание случайной величины X числа рекламных объявлений в газете в заданный день для примера 3.1. Расчет ожидаемого среднего значения случайной величины удобно производить, пользуясь табл. 3.3.
Таблица 3.3
Вычисление математического ожидания числа рекламных
объявлений (пример 3.1)
хi |
0 |
1 |
2 |
3 |
4 |
5 |
n |
P(хi) |
0,1 |
0,2 |
0,3 |
0,2 |
0,1 |
0,1 |
|
хiP(хi) |
0,0 |
0,2 |
0,6 |
0,6 |
0,4 |
0,5 |
М(Х) = 2,3 |
Можно сказать, что в среднем 2,3 рекламных объявления ежедневно помещаются в газете. Это ожидаемое среднее число рекламных объявлений в заданный день.
3.5. Свойства математического ожидания случайной дискретной величины
Математическое ожидание случайной дискретной величины обладает следующими свойствами:
1. M(C) = С,
где С постоянная величина.
2. М(С·Х) = С·М(Х),
где С постоянная величина.
3. М(Х1 ± Х2 ±…± Хn) = М(Х1) ± М(Х2) ±…± М(Хn). (3.4)
4. Для конечного числа п независимых случайных величин:
М(Х1∙ Х2∙…∙Хn) = М(Х1) ∙М(Х2) ∙…∙М(Хn). (3.5)
5. М(ХC) = М(Х) C.
Следствие. Математическое ожидание отклонения значений случайной величины X от ее математического ожидания равно нулю:
М[Х М(Х)] = 0. (3.6)
6. Математическое ожидание среднего арифметического значения п одинаково распределенных взаимно независимых случайных величин равно математическому ожиданию каждой из величин:
. (3.11)
Случайные дискретные величины называются одинаково распределенными, если у них одинаковые ряды распределения, а следовательно, и одинаковые числовые характеристики.
Пусть Х1, Х2,..., Хn одинаково распределенные случайные величины, математические ожидания каждой из которых одинаковы и равны а. Тогда математическое ожидание их суммы равно nа и математическое ожидание средней арифметической равно а:
.
Пример 3.4. Для лотереи, описанной в примере 3.2, составим закон распределения суммы выигрыша посетителя магазина, который приобрел два билета стоимостью по 1 руб. Найдем математическое ожидание суммы выигрыша и убедимся в справедливости формулы М(Х + Y) = М(Х) + М(Y).
Решение. Суммы выигрышей на первый и второй билеты лотереи с учетом затрат на их приобретение являются случайными величинами, которые обозначим соответственно X и Y. Это одинаково распределенные случайные величины, а их законы распределения получены в примере 3.2. Сумма выигрыша для посетителя, который приобрел два билета, является случайной величиной. Она представляет собой сумму случайных величин Х и Y, которые являются зависимыми. Для нахождения закона распределения случайной величины X+Y рассмотрим возможные различные исходы лотереи (табл. 3.4).
Таблица 3.4
Возможные исходы лотереи
X |
Y |
X+Y |
Вероятность результата |
1 |
1 |
2 |
(47/50) (46/49) = 1081/1225 |
1 |
9 |
8 |
(47/50) (2/49) = 47/1225 |
1 |
29 |
28 |
(47/50) (1/49) = 47/2450 |
9 |
1 |
8 |
(2/50) (47/49) = 47/1225 |
9 |
9 |
18 |
(2/50) (1/49) = 1/1225 |
9 |
29 |
38 |
(2/50) (1/49) = 1/1225 |
29 |
1 |
28 |
(1/50) (47/49) = 47/2450 |
29 |
9 |
38 |
(1/50) (2/49) = 1/1225 |
29 |
29 |
58 |
(1/50) (0/49) = 0 |
При нахождении вероятностей соответствующих результатов применяется теорема умножения вероятностей для зависимых событий. Например, случайная величина X+Y примет значение, равное 2 руб., если выигрыш не выпадает ни на первый, ни на второй билеты. Вероятность проиграть по первому билету лотереи равна 47/50, по второму при условии, что первый билет не выиграл, 46/49.
По теореме умножения получаем вероятность проигрыша по обоим билетам. Вероятность выиграть на оба билета книги по 30 руб. оказывается равной 0, так как возможен лишь один такой выигрыш. Таким образом, случайная величина X+Y может принимать следующие значения: 2, 8, 18, 28 и 38 руб.
Закон распределения случайной величины:
Сумма выигрыша, руб. |
2 |
8 |
18 |
28 |
38 |
Вероятность |
1081/1225 |
94/1225 |
1/1225 |
47/1225 |
2/1225 |
Вероятности P(X + Y = 8), Р(Х + Y = 28) и Р(Х + Y = 38) получаем, используя теорему сложения вероятностей. Найдем математическое ожидание Х + Y:
Следовательно, М(Х + Y) = М(Х) + М(Y).
3.6. Ожидаемое среднее значение функции случайной величины
ожидаемое среднее значение можно вычислять как функцию случайной величины. Пусть h(X) функция случайной величины X. Ожидаемое значение функции дискретной случайной величины:
(3.7)
Функция h(X) может быть любой, например X 2, 3Х 4, logX. Разберем простой пример, когда h(X) линейная функция от X, т. е. h(X) = аХ + b, где а, b числовые параметры.
Пример 3.5. Компания продает некоторый продукт, учет продаж которого ведется в тысячах штук. Закон распределения объема ежемесячных продаж продукта представлен в табл. 3.5. Найдем ожидаемое среднее значение числа месячных продаж.
Таблица 3.5
Ряд распределения числа месячных продаж
Число единиц товара х, тыс, шт. |
Р(х) |
5000 6000 7000 8000 9000 |
0,2 0,3 0,2 0,2 0,1 |
1,0 |
Решение. Из формулы (3.4) следует, что М(Х) = 5000∙0,2 + 6000∙0,3+ + 7000∙ 0,2 + 8000∙ 0,2 + 9000∙ 0,1 = 1000 + 1800 + 1400 + 1600 + 900 = 6700.
Пример 3.6. На данных примера 3.5 предположим, что стоимость фиксированного месячного выпуска продукции составляет 8000 условных денежных единиц, а доход от реализации каждой единицы товара 2 денежные единицы. Найдем ожидаемый месячный доход от продажи продукции.
Решение. Функция дохода от продажи продукции компании есть h(X) = 2X 8000. Формула (3.12) свидетельствует, что ожидаемое значение h(X) есть сумма произведений h(X) на соответствующие вероятности. Результаты расчета представлены в табл. 3.6.
Таблица 3.6
К вычислению среднего ожидаемого значения
Число единиц товара х, тыс. шт. |
h(хi) |
P(хi) |
М[h(X)] = h(xi) P(xi) |
5000 6000 7000 8000 9000 |
2000 4000 6000 8000 10000 |
0,2 0,3 0,2 0,2 0,1 |
400 1200 1200 1600 1000 |
М[h(X)] = 5400 |
Ожидаемый ежемесячный доход от продаж продукции составляет 5400 условных денежных единиц (см. табл. 3.6). Для линейной функции случайной величины (см. пример 3.6) вычисления M[(h(x)] можно упростить, так как из свойств математического ожидания следует, что
M(аХ + b) = аM(Х) + b,
где a, b числовые параметры.
Формула (3.7) подходит для любых случайных величин как дискретных, так и непрерывных.
В примере 3.6 можно вычислить ожидаемый доход. для этого сначала следует рассчитать ожидаемое среднее значение X, затем умножить полученное значение на 2 и вычесть из полученного произведения стоимость фиксированного выпуска 8000. Ожидаемое значение X есть 6700, следовательно, и ожидаемый доход равен М[h(Х)] = М(2Х 8000) = 2М(Х) 8000 = 2∙6700 8000 = 5400, что и получено раньше.
3.7. Дисперсия дискретной случайной величины
Дисперсия случайной величины есть математическое ожидание квадрата отклонения значений случайной величины от ее математического ожидания.
σ2 = D(X) = M{[X M(X)]2} = [xi M(X)]2P(xi). (3.8)
Вероятности значений случайной величины играют роль весов (частот) при вычислении ожидаемых значений квадратов отклонений дискретной случайной величины от средней. По формуле (3.8) дисперсия вычисляется путем вычитания математического ожидания из каждого значения случайной величины, затем возведения в квадрат результатов, умножения их на вероятности Р(хi) и сложения результатов для всех хi.
Для примера 3.1 (о рекламных объявлениях, размещаемых в газете в определенный день) дисперсия вычисляется так:
σ2 = [xiM(X)]2P(xi) = (02,3)2 + (12,3)2 + (22,3)2 + (32,3)2 + (42,3)2 + (5 2,3)2 = 2,01.
3.8. Свойства дисперсии дискретной случайной величины
Дисперсия дискретной случайной величины обладает следующими свойствами.
1. D(C) = 0,
где C постоянная величина.
2. D(C∙X) = C∙D(X),
где C постоянный множитель.
3. Для конечного числа п независимых случайных величин:
D(X1 ± Х2 ±...± Xn) = D(X1) + D(X2)+...+D(Xn). (3.9)
4. Если Х1, Х2,..., Хn одинаково распределенные независимые случайные величины, дисперсия каждой из которых равна σ2(Хi), то дисперсия их суммы равна пσ2, а дисперсия средней арифметической равна σ2/п:
σ2/п. (3.10)
Для вычисления дисперсии проще пользоваться другой формулой, полученной путем несложных математических выкладок:
D(X) = M[X M(X)] 2 = M[X 2 2M(X)X + M(X)2] = M(X) 2 2M(X)M(X) + [M(X)] 2 = M(X2) [M(X)] 2 = M(X 2) М 2(Х).
Таким образом, σ2 = D(X) = M(X2) М2(Х). (3.11)
При вычислении дисперсии с помощью формулы (3.11) используют определение ожидаемого среднего значения функции случайной дискретной величины из формулы (3.7) для специального случая h(X) = X2. Вычисляют х2 для каждого хi, умножают его на Р(х) и складывают для всех xi. Это дает М(Х2). Для получения дисперсии из M(X2) вычитают квадрат математического ожидания случайной величины X. Используя этот способ, вычислим дисперсию случайной величины для примера 3.1. Результаты оформим в виде рабочей таблицы (табл. 3.7).
Таблица 3.7
К вычислению дисперсии случайной величины
x |
P(x) |
хР(х) |
х2Р(х) |
0 1 2 3 4 5 |
0,1 0,2 0,3 0,2 0,1 0,1 |
0,0 0,2 0,6 0,6 0,4 0,5 |
0,0 0,2 1,2 1,8 1,6 2,5 |
1,0 |
М(X) = 2,3 |
М(X2) = 7,3 |
Чтобы получить дисперсию X, вычислим разность M(X2) [М(Х)]2:
D(X) = M(X2) [М(Х)]2 = 7.3 (2,3)2 = 2,01.
Результат совпал с полученным при помощи формулы (3.8).
Среднее квадратическое отклонение (стандартное) отклонение дискретной случайной величины равно корню квадратному из дисперсии
. (3.12)
Для примера 3.1 среднее квадратическое отклонение
В чем смысл дисперсии и среднего квадратического отклонения? Как можно интерпретировать их значения? По определению σ2 средний квадрат отклонения значений случайной величины от математического ожидания. Отсюда следует, что это мера рассеяния всех возможных значений случайной величины относительно среднего ожидаемого значения. Дисперсия характеризует колеблемость, изменчивость случайной величины: чем больше вариация, тем дальше от средней находятся возможные значения случайной величины. Для содержательной интерпретации зачастую полезно применять значение, которое дает корень квадратный из дисперсии среднее квадратическое отклонение (стандартное отклонение). Если сравнивают две случайные величины, то та из них, которая имеет большую дисперсию и среднее квадратическое отклонение, более вариабельна. Риск, ассоциируемый с инвестициями, часто измеряют стандартным отклонением возврата инвестиций. Если сравниваются два типа инвестиций с одинаковой ожидаемой средней возврата, то инвестиции с более высоким средним квадратическим отклонением считаются более рискованными (хотя более высокое стандартное отклонение предполагает более вариабельный возврат с обеих сторон как ниже, так и выше средней).
3.9. Дисперсия линейной функции случайной величины
Для случайной величины, заданной линейной функцией аХ+b, имеем
D(a∙X + b) = a2∙D(X) = a2∙σ2. (3.13)
По формуле (3.13) найдем дисперсию ожидаемого дохода для примера 3.5. Доход задан функцией 2Х 8000. Находим M(X2) = 50002∙0,2 + 60002∙0,3 + 70002∙0,2 + 80002∙0,2 + 90002∙0,1 = 4650000. М(Х) = 6700. Отсюда дисперсия D(X) = M(X2) [М(Х)]2 = 46500000 67002 = 1610000. Используя формулу (3.13), вычислим дисперсию ожидаемого дохода: D(Х) = σ2 = 22∙1610000 = 6440000. Среднее квадратическое отклонение дохода равно
4. Законы распределения дискретных случайных величин
4.1. Схема повторных испытаний. Биномиальное распределение
Пример 4.1. Монета подбрасывается 4 раза, пусть X число появившихся гербов.
Пример 4.2. Известно, что в определенном городе 30 % горожан предпочитают добираться на работу личным автотранспортом. Случайно выбраны 8 человек. Пусть Y число людей в выборке, предпочитающих личный автотранспорт.
Пример 4.3. Известно, что 15 % деталей, произведенных автоматом, бракованные. В порядке случайного отбора взято 12 деталей. Пусть Z число дефектных деталей.
В примерах X, Y, Z дискретные случайные величин, подчиняющиеся биномиальному распределению. Биномиальное распределение базируется на эксперименте, состоящем в последовательности испытаний Бернулли (схеме повторных испытаний).
Испытания Бернулли это последовательность n идентичных испытаний, удовлетворяющих следующим условиям:
1. Каждое испытание имеет два исхода: успех и неуспех взаимно несовместные и противоположные события.
2 Вероятность успеха р остается постоянной от испытания к испытанию. Вероятность неуспеха q = 1р.
3. Все п испытаний независимы. Вероятность наступления события в любом из испытаний не зависит от результатов других испытаний.
Успех и неуспех статистические термины. Например, когда имеют дело с производственным процессом, то исход испытания «деталь дефектная» определяют как успех. Успех относится к появлению определенного события «деталь дефектная», а неуспех относится к непоявлению события. Определим случайную величину как биномиальную, если для нее мы рассчитываем число успехов и неуспехов в последовательности п испытаний Бернулли.
Случайная величина, для которой вычисляется число успехов в n повторных испытаниях, где р вероятность успеха в любом из заданных испытаний, a q = (1р) соответствующая вероятность неуспеха, подчиняется закону биномиального распределения с параметрами n и р.
В примере 4.1 п = 4, р = 0,5 параметры биномиального распределения случайной величины X. Последовательные подбрасывания монеты независимые эксперименты; исходы «цифра» или «герб» (успех неуспех) и вероятности их выпадения постоянны от испытания к испытанию.
В примере 4.2 п = 8, р = 0,3 параметры биномиального распределения случайной величины Y. Заметим, что случайная выборка из большой генеральной совокупности предполагает независимость испытаний. Мы полагаем, что число людей в городе (генеральная совокупность) намного больше, чем число испытаний, и случайный отбор небольшого числа людей не влияет на ту часть оставшихся горожан, которые предпочитают добираться до работы на личном транспорте (события «предпочитают личный транспорт» для любых отобранных горожан независимы). Если в генеральной совокупности только 10 человек, трое из которых предпочитают личный транспорт, то ситуация меняется. Вероятность того, что следующий отобранный горожанин предпочтет также личный транспорт, составит уже только 2/9 0,22 или 3/9 0,33 в зависимости от того, предпочитает ли он личный транспорт или нет. В этом случае условия 2 и 3 испытаний Бернулли будут нарушены и Y не будет биномиальной случайной величиной. Чем больше объем генеральной совокупности в сравнении с выборкой, тем менее серьезно нарушение условий 2 и 3. На практике пользуются правилом: если N/п > 10 (N объем генеральной совокупности, n объем выборки), то можно предположить независимость исходов.
В примере 4.3 Z подчиняется биномиальному распределению с параметрами n = 12, р = 0,15. Полагаем, что автомат произвел большое количество деталей, выборка выполнена случайным образом из большого числа сходных деталей по наличию или отсутствию дефектов.
Вычислим вероятности значений случайной величины, подчиняющиеся закону биномиального распределения.
При четырех подбрасываниях монеты случайная величина X, определяющая число выпадений герба, принимает возможные значения Xi = 0; 1; 2; 3; 4. Рассмотрим определенное событие, когда X = 2. Это событие состоит в том, что при четырех подбрасываниях монеты 2 раза выпадет герб. Определим вероятность Р(Х = 2). Для этого подсчитаем, сколькими способами может осуществиться данное подбрасывание.
При четырех бросаниях монеты герб появится два раза в одной из следующих шести последовательностей: ГГЦЦ, ГЦГЦ, ГЦЦГ, ЦГГЦ, ЦГЦГ, ЦЦГГ. Исходя из независимости четырех испытаний вероятность определенной последовательности, скажем ЦЦГГ, есть ppqq. Порядок появления цифры или герба не влияет на вероятность. Вероятность р2q2 вероятность для любой из шести перечисленных комбинаций. Поскольку все шесть возможных комбинаций ведут к событию Х = 2, то умножим результат на шесть и получим 6р2q2. Для идеальной монеты р = q = 0,5; отсюда P(X = 2) = 6(0,5)4 = 0,375. Точно так же можно вычислить другие вероятности Р(Х = 0), Р(Х = 1), Р(Х = 3), Р(Х = 4). процедуру вычисления вероятности появлений некоторого события точно т раз в n последовательных испытаниях, удовлетворяющую условиям повторных испытаний, удобнее обобщить при помощи специальной формулы. Отметим следующее
1. Вероятность любой заданной последовательности, в которой событие появляется т раз и в n испытаниях с вероятностью успеха в каждом отдельном испытании р и с вероятностью неуспеха q, равна pmqnm. Заметим, что для опыта с подбрасыванием монеты при р = q = = 0,5, n = 4 и т = 2, получим P(X = 2) = (0,5)2(0,5)2 = (0,5)4.
2. Число различных комбинаций в испытаниях, в результате которых наступит точно т успехов, равно числу сочетаний из n элементов по т элементов в каждом Сnm = Anm/Pm = n!/[m!(nm)!].
Для примера 4.1 с подбрасыванием монеты Сnm = 4∙3/(1∙2) = 6. Этот результат совпадает с полученным путем непосредственного подсчета.
3. Поскольку существует Сnm комбинаций и каждая комбинация имеет вероятность рmqn-m, то вероятность т успехов в n испытаниях есть результат двух описанных выше действий. Будем использовать символ Рп,т для обозначения вероятности Р(Х = т) в n испытаниях с вероятностью успеха в каждом отдельном испытании р:
Р(Х = т) = Рп,т = Сnmрmqn-m = (4.1)
где q = 1 p; n число испытаний; m число успешных испытаний, а формула (4.1) называется формулой Бернулли.
4.3. Биномиальный закон распределения
В формуле (4.1) т может принимать значения от 0 до n. Подставим m = 0; 1; 2; ...; n в формулу (4.1):
(q + p)п = qn + nрqn1 + Сn2р2qп2 +...+ Сnk рkqпk +…+ nрn1q + рn. (4.2)
Так как (q + р) = 1, то Рn,0 + Рп,1 +...+ Рп,m = 1 (табл. 4.1).
Таблица 4.1
Биномиальное распределение
Число успехов, m |
Вероятность, P(n, m) |
0 |
Сn0 р0qп |
1 |
Сn1 р1qп1 |
2 |
Сn2 р2qп--2 |
3 |
Сn3 р3qп3 |
… |
… |
k |
Сnk рkqпk |
… |
… |
n |
Сnn рnq0 |
1,00 |
В табл. 4.2 представлены биномиальные вероятности случайной величины X для примера 4.1, рассчитанные при помощи формулы (4.1).
Таблица 4.2
Биномиальное распределение X числа гербов, появляющихся
при четырех подбрасываниях монеты
X = m |
0 |
1 |
2 |
3 |
4 |
P(x) = P4,m |
0,0625 |
0,2500 |
0,375 |
0,2500 |
0,0625 |
С увеличением числа испытаний расчет вероятностей по формуле (4.1) становится все более громоздким. Существуют специальные таблицы, в которых табулированы значения вероятностей биномиального распределения для различных п и р. Иногда в литературе предлагаются таблицы, в которых табулированы значения интегральной функции 1F(x) = Р(Х ≥ х). Табл. 4.3 воспроизводит значения функции при п = 4. Найдем кумулятивную вероятность, которой соответствует распределение, представленное в табл. 4.2. Заметим, что для p = 0,5
т. е. в общем виде
Р(Х) = F(x) F(x1). (4.3)
Вероятность, равная 0,3750, корреспондирует с вероятностью при т = 2 в табл. 4.3.
Таблица 4.3
Фрагмент таблицы F(x) = Р(Х ≤ х) биномиального распределения
т |
0 |
1 |
2 |
3 |
4 |
P(X ≤ x)= = F(x) |
0,06250 |
0,3125 = 0,0625 + + 0,2500 |
0,6875 = 0,3125 + + 0,3750 |
0,9375 = 0,6875 + + 0,2500 |
1,0000 = 0,9375 + + 0,0625 |
Для случайной величины Y (пример 4.2) найдем вероятности того, что предпочтут личный транспорт: а) 5 человек из 8; б) не более 5 человек; в) не менее 5 человек. По условию р = 0,3. Значит, надо определить P(Х = 5), Р(Х ≤ 5), Р(Х ≥ 5).
Таблица 4.4
Фрагмент таблиц ряда и функции биномиального распределения
Х = т |
Р(Х = т) = = Сnm рmqпm |
Р(Х ≤ m) = = F1(x) |
Р(Х < х) = = F(x) |
Р(Х ≥ x) = = 1F(x) |
0 1 2 3 4 |
0,058 0,198 0,296 0,254 0,136 |
0,058 0,256 0,552 0,806 0,942 |
0 0,058 0,256 0,552 0,806 |
1 0,942 0,745 0,448 0.194 |
5 |
0,047 |
0,989 |
0,942 |
0,058 |
И тогда P(X = 5) = 0,047; Р(Х ≤ 5) = 0,989; P(X ≥ 5) = 0,058.
4.4. Математическое ожидание, дисперсия и график биномиального распределения
Пусть случайная величина X число т наступления некоторого события в n независимых испытаниях. Общее число X появлений этого события в испытаниях Xi = т = Х1 + Х2 +...+ Хп, где Xi число появлений события в i-м испытании (i = 1, 2, ..., п). Так как вероятность наступления события в каждом испытании постоянна и равна р (q вероятность ненаступления события), то для каждой случайной величины Xi имеем распределение вероятностей:
xi |
0 |
1 |
pi |
q |
p |
Следовательно, М(Х1) = М(Х2) =...= М(Хn); М(Хi) = 0∙q + 1p = p. Из (3.4), получим:
Математическое ожидание случайной величины X (частоты появления события в п независимых испытаниях), подчиняющейся биномиальному распределению, равно произведению числа испытаний п на постоянную вероятность успеха р в каждом отдельном испытании. Следует отметить, что частость (m/n) также можно рассматривать как случайную величину, и тогда
М(т/п) = 1/n∙М(т) = 1/n∙(np) = р. (4.4)
Математическое ожидание частоты биномиального распределения
М(X) = n/p. (4.5)
Аналогично рассуждая, получим D(Xi) = М(Xi2) М2(Xi) = 02∙q + 12∙p p2 = p∙(1 p) = p∙q;
D(X) = σ2 = D(X1) + D(X2) +…+ D(Xn) =D(Xi) = n∙p∙q. (4.6)
Если роль случайной величины играет т/п, то
D(m/n) = 1/п2∙D(m) = 1/n2∙n∙p∙q = p∙q/n. (4.7)
Стандартное отклонение биномиального распределения
σ = . (4.8)
Используя формулы (4.4) и (4.5), найдем математическое ожидание и дисперсию случайной величины X числа появления гербов при четырех подбрасываниях монеты, М(Х) = пр = 4∙0,5 = 2. При достаточно большой серии испытаний по четыре подбрасывания монеты можно ожидать, что в среднем при четырех подбрасываниях монеты выпадет два герба. D(X) = n∙p∙q = 4∙0,5∙0,5 = 1,00, а σ = 1,00.
Пример 4.4. В отдел верхней одежды универмага один за другим входят трое посетителей. По оценкам менеджера, вероятность того, что вошедший посетитель совершит покупку, равна 0,3. Чему равна вероятность того, что ни один из посетителей ничего не купит? Один из посетителей купит что-либо? Двое из трех вошедших в магазин людей совершат покупку? Все трое купят что-нибудь в отделе?
Решение. Проверим задачу на соответствие условиям биномиального эксперимента.
1. Эксперимент описан как последовательность трех идентичных испытаний по одному испытанию для каждого из трех посетителей, входящих в универмаг.
2. Два исхода посетитель совершает покупку (успех) или не совершает покупку (неуспех) возможны для каждого отдельного испытания.
3. Вероятность каждой покупки равна 0,3, вероятность непокупки 0,7.
4. Решение о покупке для каждого из покупателей не зависит от решений других покупателей.
Рассчитаем вероятности биномиального распределения, применяя формулу (4.1), и результаты представим в виде таблицы (табл. 4.5).
Таблица 45
Биномиальное распределение числа покупателей
m = xi |
Pn,m = pi |
xipi |
xi2pI |
0 1 2 3 |
0,343 0,441 0,189 0,027 |
0 0,441 0,378 0,081 |
0 0,441 0,756 0,2643 |
1 |
0,9 |
Математическое ожидание биномиального распределения проще вычислить по формуле (4.4) М(Х) = пр = 3∙0,3 = 0,9. Дисперсия σ2 = D(X) = = npq =3∙0,3∙0,7 = 0,63. Построим график распределения (рис. 4.1).
При m = l (см. рис. 4.1) вероятность достигает максимального значения. Вероятнейшей частотой наступления события называется та частота, при которой вероятность достигает своего наибольшего значения и обозначается m0. Для определения наивероятнейшего числа используем формулу:
пp q ≤ m0 ≤ np + p. (4.9)
В этом неравенстве т0 может быть только целым числом. Если пр целое число, то m0 = пр.
Пример 4.5. Вероятность того, что выписанный продавцом чек будет оплачен, равна 0,9. Какое наивероятнейшее число чеков будет оплачено, если выписано 40 чеков?
Решение. Находим произведение пр = 40∙0,9 = 36 (целое число), значит, т0 = 36. Найдем т0 по формуле (4.9) 40∙0,90,1 ≤ т0 ≤ 40∙0,9 + + 0,9; 35,9 ≤ m0 ≥ 36.9. Этому двойному неравенству удовлетворяет целое число т0 = 36.
4.5. Распределение Пуассона
Распределение Пуассона (закон распределения редких событий) часто используется тогда, когда мы имеем дело с числом событий, появляющихся в промежутке времени или пространства (число машин, прибывших на автомойку в течение часа, число дефектов на новом отрезке шоссе длиной в 10 км, число мест утечки воды на 100 км водопровода, число остановок станков в неделю, число дорожных происшествии).
Если вероятность появления события А в п отдельных независимых испытаниях очень мала (р < q), то применяется формула Пуассона:
(4.10)
где λ = пр; п число независимых испытаний с постоянной малой вероятностью р; е основание натурального логарифма (е = 2,71828); т число появлений события (т = 0, 1, 2, 3, ...).
При помощи формулы (4.10) можно записать закон распределения Пуассона. Его можно написать в виде ряда распределения (табл. 4.6), если, придавая m целые неотрицательные значения т = 0, 1, 2,..., n, вычислить соответствующие им вероятности Рn,т.
Таблица 4.6
Закон распределения Пуассона
т |
0 |
1 |
2 |
3 |
… |
k |
… |
n |
Рn,т |
eλ |
λeλ |
λ2eλ/2! |
λ3eλ/3! |
… |
λkeλ/k! |
… |
λneλ/n! |
Закон распределения Пуассона можно записать в виде функции распределения: λkeλ/k!
F(X) = P(m < x) = Рn,т =λm/k! eλ, (4.11)
где знак означает сумму вероятностей Рп,т для всех т, меньших п.
Применяя формулу (4.11), можно определить вероятность появления события хотя бы один раз в п независимых испытаниях. Поскольку вероятности Рп,т ≥ 1 и Рп,0 есть вероятности противоположных событий, то
(4.12)
По формуле (4.12) вычисляются вероятности появления события хотя бы один раз в п независимых испытаниях, если вероятность появления события в отдельных испытаниях постоянна и очень мала, а число испытаний достаточно велико (n ≥ 20), т. е. при условии применимости формулы Пуассона (4.10).
Математическое ожидание и дисперсия случайной величины, распределенной по закону Пуассона, совпадают и равны параметру λ, который определяет этот закон, т. е.
M(Х) = D(Х) = λ. (4.13)
Формула (4.13) устанавливает важный теоретико-вероятностный смысл параметра λ. Последовательность событий, которые наступают в случайные моменты времени, называется потоком событий (например, вызов на АТС).
При этом должны выполняться следующие условия.
Вероятность появления события одна и та же для любых двух интервалов равной длины.
Вероятность того, что событие появится в короткий интервал времени (или пространства), пропорциональна величине интервала.
В очень коротком интервале вероятность того, что два события появятся, близка к нулю.
Вероятность того, что любое число событий появится в интервале, не зависит от начала интервала.
Появление или непоявление события в определенном интервале не зависит от появления или непоявления события в любом другом интервале.
Пример 4.6. Предположим, нас интересует число инкассаторов, прибывающих утром на автомобиле в банк в течение 15 мин. Если мы предположим, что вероятность прибытия автомобиля одинакова в любые два периода времени равной длины и что прибытие или неприбытие автомобиля в любой период времени не зависит от прибытия или неприбытия в любой другой период времени, то последовательность прибытия инкассаторов в банк может быть описана распределением Пуассона.
Анализ предыдущих данных показал, что среднее число инкассаторов, прибывающих в 15-минутный период, равно 10, тогда при λ = 10 получаем: Р(т) = λmeλ/m! = 10me10/m! при т = 0, 1, 2, .…
Если мы хотим узнать вероятность прибытия пяти инкассаторов в течение 15 мин, то при m = 5 получим: Р(5) = 105e10/5! = 0,0378.
Вероятности распределения Пуассона легче рассчитать, пользуясь специальными таблицами вероятностей распределения Пуассона. В них содержатся значения вероятностей при заданных т и λ.
Пример 4.7. Предположим, нас интересует число дефектов, появившихся на определенном участке шоссе через месяц после его асфальтирования. Мы предполагаем, что вероятность появления дефектов одна и та же на любых двух участках равной длины и что появление или непоявление дефектов на любом промежутке шоссе не зависит от появления дефектов на любом другом участке. Следовательно, для решения задачи можно использовать распределение Пуассона.
Предположим, мы выяснили, что количество дефектов спустя месяц после асфальтирования в среднем равно двум на километр. Найдем вероятность того, что на определенном участке шоссе длиной в 3 км мы не найдем ни одного дефекта спустя месяц после асфальтирования. Поскольку нас интересует интервал длиной в 3 км, то λ = = (2 деф/км)·(3 км) = 6.
Это ожидаемое число дефектов на трехкилометровом участке шоссе. Отсюда, используя формулу (4.10) или таблицы распределения Пуассона с λ = 6 и т = 0, получаем, что вероятность отсутствия
дефектов на трех километрах дороги равна 0,0025. Результат говорит о том, что отсутствие дефектов на изучаемом участке дороги весьма маловероятно. Вероятность того, что хотя бы один дефект появится на трех километрах вновь асфальтированной дороги, равна 10,0025 = 0,9975.
Рассмотрим пример, в котором вероятности будут вычислены точно по формуле Бернулли (4.1) и приближенно по формуле Пуассона (4.10).
Пример 4.8. Проведено 25 независимых испытаний с вероятностью появления события А в каждом из них 0,01. Построим ряд распределения для случайной величины Х = т числа появлений события А. Вероятность Рn,m вычисляем двумя способами: по формуле Бернулли и по формуле Пуассона. Полученные результаты сравним и оценим погрешности приближенной формулы. По условию п = 25; р = 0,01; q = 0,99. Вычислим Рn,m и сведем их в табл. 4.7.
Таблица 4.7
Сравнение вероятностей, полученных по формулам
Бернулли и Пуассона
m |
0 |
1 |
2 |
3 |
4 |
5 |
6 |
Рn,m=Cnmpmqnm |
0,778 |
0,196 |
0,024 |
0,002 |
0,000 |
0,000 |
0,000 |
0,779 |
0,195 |
0,022 |
0,001 |
0,000 |
0,000 |
0,000 |
|
|∆| |
0,001 |
0,001 |
0,002 |
0,001 |
0,000 |
0,000 |
0,000 |
Сопоставление вероятностей показывает, что рассчитанные по формуле Пуассона вероятности почти совпадают с их значениями, вычисленными по формуле Бернулли. Максимальная погрешность результатов, вычисленных по формуле Пуассона, равна 0,002.
4.6. Гипергеометрическое распределение
Выше мы рассмотрели способы вычисления вероятностей появления события ровно т раз в п независимых повторных испытаниях (по формулам Бернулли и Пуассона). Теперь познакомимся с вычислением вероятности появления события ровно т раз в п зависимых повторных испытаниях. Случайная величина, определяющая число успехов в п повторных зависимых испытаниях, подчиняется гипергеометрическому закону распределения.
Пример 4.9. В урне N шаров, среди которых К белых и (NK) черных. Без возвращения извлечены п шаров. Определим вероятность того, что в выборке из п шаров окажется т белых (и соответственно nm черных) шаров. Изобразим ситуацию на схеме:
Случайная величина, интересующая нас, X = т число белых шаров в выборке объемом в п шаров. Число всех возможных случаев отбора п шаров из N равно числу сочетаний из N по n (CNn), а число случаев отбора т белых шаров из имеющихся К белых шаров (и значит, пm черных шаров из NK имеющихся черных) равно произведению CKmCNKnm (отбор каждого из т белых шаров может сочетаться с отбором любого из nт черных). Событие, вероятность которого мы хотим определить, состоит в том, что в выборке из п шаров окажется ровно т белых шаров. По формуле для вероятности события в классической модели вероятность получения в выборке т белых шаров (т. е. вероятность того, что случайная величина X примет значение т) равна
, (4.14)
где CNn обшее число всех единственно возможных, равновозможных и несовместных исходов, CKmCNKnm число исходов, благоприятствующих интересующему нас событию.
Итак, вероятность появления интересующего нас события ровно т раз в п зависимых испытаниях вычисляется по формуле (4.14), которая задает значения гипергеометрического закона распределения для т = 0, 1, 2,..., п (табл. 4.8).
Таблица 4.8
Гипергеометрический закон распределения
т |
0 |
1 |
2 |
… |
n |
Р(X=m) |
CK0CNk n/ CNn |
CK1CNKn1/ CNn |
CK2CNKn2/ CNn |
… |
CKmCNK0/ CNn |
M(т) = n, (4.15)
D(m) = n (1)[1 (n1)/(N1)], (4.16)
где доля единиц с интересующим нас признаком в совокупности N, т. е. = K/N, а 1(n1)/(N1) называется поправкой для бесповторной выборки.
Пример 4.10. Разыгрывается тираж выигрышного денежного займа, в котором выпушено N облигаций, из которых К выигрышные. Некто приобрел п облигаций. Найдем вероятность того, что т из них выигрышные.
Рассуждая в соответствии с изложенной схемой, по формуле (4.14) получим интересующую покупателя облигаций вероятность выигрыша.
Пример 4.11. Автомобили поступают в торговый салон с завода партиями по 10 штук. По соглашению сторон для экономии времени и ресурсов в торговом салоне подвергаются контролю качества и безопасности только 5 из 10 поступающих автомобилей. Обычно 2 из 10 поступивших машин не удовлетворяют стандартам качества. Определим, чему равна вероятность того, что хотя бы одна из 5 проверяемых машин будет забракована.
Решение. Здесь имеет место выборка без возвращения, следовательно, случайная величина число бракованных автомобилей подчиняется гипергеометрическому распределению: N = 10, К = 2,
NК = 8 и n = 5, т = 1, 2.
Р10,1 = C21C84/C105 = 0,5556,
2 5 8
Р10,2 = C22C83/C105 = 0,2222.
1 4
2 3
Р10,1+P10,2 = 0,5556 + 0,2222 = 0,7778.
Пример 4.12. На станцию под погрузку поступило 20 вагонов, среди которых один с дефектом. Из них случайным образом отобраны 2 вагона. Требуется:
1) построить закон распределения числа вагонов с дефектом;
2) построить биномиальное распределение, приняв в качестве постоянной вероятности р = 0,05, а числа испытаний n = 2.
Решение:
1. По условию задачи N = 20, К = 1, п = 2. Случайная величина число вагонов с дефектом т может принимать два значения; 0 и 1. По формуле (4.14) вычислим вероятности этих значений: P2,0 = C10C192/ /C202 = 0,9000; P2,1=C11C191/C201 = 0,1000. Полученные результаты сведем в табл. 4.9, что и будет гипергеометрическим законом распределения т.
Таблица 4.9
Гипергеометрический закон распределения
т |
0 |
1 |
P2,m |
0,900 |
0,100 |
2. По условию задачи n = 2, р = 1/20 = 0,05, q = 0,95, случайная величина т имеет возможные значения: 0, 1, 2. По формуле Бернулли вычислим вероятности Pn,m: P2,0 = C200,0500,952 = 110,952 = 0,9025, P2,1=C210.050,95 = 20,050,95 = 0,0950, P2,2 = C200.0520,950 =10,052 = = 0,0025 (табл. 4.10).
Таблица 4.10
Биномиальный закон распределения
т |
0 |
1 |
2 |
P2,m |
0,9025 |
0,0950 |
0,0025 |
Пример 4.13. Из 20 лотерейных билетов выигрышными являются 4. Наудачу извлекаются 4 билета. Требуется:
1) построить закон распределения числа выигрышных билетов среди отобранных;
2) построить биномиальное распределение выигрышных билетов, для р = 0,2, п = 4;
3) сопоставить результаты решения примеров 4.12 и 4.13.
Решение:
1. По условию задачи N = 20, К = 4, n = 4. По формуле (4.14) вычисляем вероятности Р4,т (т = 0, 1, 2, 3, 4) и строим гипергеометрическое распределение (табл. 4.11):
P4,0 = C40C164/C204 = 0,3756; P4,1 = C41C163/C204 = 0,4623;
P4,2=C42C162/C204 = 0,1486; P4,3 = C43C161/C204 = 0,0132;
P4,4 = C44C160/C204 = 0,0002.
Таблица 4.11
Гипергеометрическое распределение
т |
0 |
1 |
2 |
3 |
4 |
P4,m |
0,3756 |
0,4623 |
0,1486 |
0,0132 |
0,0002 |
2. По условию задачи п = 4; за постоянное значение вероятности p принимаем долю выигрышных билетов: р = 4/20 = 0,2; q = 16/20 = 0,8. По формуле Бернулли вычисляем вероятности для всех возможных значений т (0, 1, 2, 3, 4) и строим биномиальный закон распределения (табл. 4.12)
P4,0 = C400.20 0,84 = 0,4096, P4,1 = C410.21 0,83 = 0,4096,
P4,2 = C42 0.22 0,82 = 0,1536, P4,3 = C43 0.23 0,81 = 0,0256,
P4,4 = C44 0.44 0,80 = 0,0016.
Таблица 4.12
Гипергеометрическое распределение
m |
0 |
1 |
2 |
3 |
4 |
P4,m |
0,4096 |
0,4096 |
0,1536 |
0,0256 |
0,0016 |
3. В примере 4.12, где отношение n/N мало (n/N = 2/20 = 0,1), расхождение вероятностей, вычисленных двумя способами (табл. 4.11 и 4.12), невелико. Его максимальное значение равно 0,005 (0,1000,095). В примере 4.13, где отношение n/N в два раза больше (n/N = 4/20 = 0,2), максимальное расхождение достигает значительной величины 0,052 (табл. 4.11 и 4.12).
В случае выбора из большой генеральной совокупности биномиальное распределение более удобно, чем гипергеометрическое. Важно понять, однако, что гипергеометрическое распределение более корректно для выборок без возврата.
Вообще при достаточно большом значении N и малом объеме выборки п (когда ) гипергеометрическое распределение практически совпадает с биномиальным. Кроме того, при условии гипергеометрическое распределение является трехпараметрическим (N, К, п), табулирование которого затруднено, и его можно аппроксимировать двухпараметрическим (n, р) биномиальным.
4.7. Производящая функция
Выше были рассмотрены способы определения вероятности Рn,m для случаев, когда вероятность события А во всех п независимых испытаниях одна и та же. На практике приходится встречаться и с такими случаями, когда вероятность наступления события А от испытания к испытанию меняется.
Пример 4.14. Устройство состоит из трех независимо работающих элементов. Вероятность безотказной работы (за время t) первого элемента равна 0,9, второго 0,8 и третьего 0,7. Составим закон распределения числа элементов, вышедших из строя.
Пусть проведено два независимых испытания. Вероятность появления события А в первом из них p1, во втором р2; вероятности непоявления события А соответственно равны q1 = 1 p1; q2 = 1 р2. Требуется определить вероятности P2,0, P2,1, P2,2, т. е. вероятности появления события А ровно 0 раз, ровно 1 раз и ровно 2 раза в двух независимых испытаниях.
Решение. Применяя теорему сложения вероятностей для несовместных событий и теорему умножения для независимых событий, получим: P2,0 = q1q2; P2,1 = p1q2 + q1p2; P2,2 = p1p 2. Пусть теперь проведено три независимых испытания с вероятностями появления события А: p1, p2, p3. Вероятности непоявления события А в первом, во втором и третьем опытах соответственно равны q1 = 1 p1, q2 = 1 р2, q3 = 1 р3. Определим вероятности P3,0, P3,1, P3,2, P3,3, т.е. вероятности появления события А ровно 0 раз, ровно 1 раз, ровно 2 раза и ровно 3 раза в трех независимых испытаниях.
Применяя теорему сложения вероятностей несовместных событий и теорему умножения вероятностей для независимых событий, получим: P3,0 = q1q2 q3; P3,1 = p1q2q3 + q1p2q3 + q1q2p3; P3,2 = p1p2q3 + p1q2p3 + q1p2p3; P3,3 = p1p2p3.
Эти вероятности можно получить, если перемножить три бинома
и привести подобные члены. Тогда коэффициенты при zm будут соответствовать вероятностям P3,m(m = 0, 1, 2, 3). Здесь z произвольный параметр. Для n независимых испытаний получим
·
Выражение обозначают
и называют производящей функцией.
4.8. Мультиномиальное распределение
Напомним, что в биномиальном эксперименте мы классифицируем исходы как успехи и неуспехи. Если обобщить ситуацию, то исходы можно классифицировать более чем по двум категориям. Предположим, есть k категорий исходов: «покупка товара А», «покупка товара В», «покупка товара К». Обозначим Х1 число проданных единиц товара A, Х2 число проданных единиц товара В,...., Хk число проданных единиц товара К. Вероятностное распределение Х1, Х2,..., Хk в выборке объемом п есть мультиномиальное распределение с параметрами п и вероятностями р1, р2,…, рk, где рi вероятность появления категории i (рi = 1 qi), и они остаются неизменными от испытания к испытанию и испытания независимы.
Формула мультиноминального распределения имеет следующий вид:
P(Х1, Х2,., Хk) = n!/(Х1! Х2! ...∙Хk!)∙р1x1∙р2x2 ·…∙рkxk. (4.17)
Пример 4.15. Предположим, что из общего числа семей, живущих на данной территории, 25 % имеют душевые доходы ниже прожиточного минимума (черты бедности), 35 % имеют доходы, равные среднедушевым доходам, у 20 % доходы в полтора раза выше средних, а у остальных 20 % семей доходы в два и более раза превышают средний душевой доход для данной территории. Пусть А1 случайное событие, состоящее в случайном отборе семьи, которая принадлежит к первой группе. А2, А3 и А4 аналогичные события, состоящие в случайном отборе семей, которые принадлежат соответственно ко второй, третьей и четвертой доходным группам.
По условию p1 = 0,25; р2 = 0,35; р3 = 0,20; р4 = 0,20. Предположим, что для целей обследования необходимо провести случайный повторный отбор 50 семей для обследования уровня жизни населения. Определим вероятность того, что все отобранные семьи будут бедными (с доходом ниже прожиточного минимума).
Решение. По формуле (4.17) имеем: P(Х1 = 50, Х2 = 0, Х3 = 0, Х4 = 0) = 50!/(50!∙0!∙0!∙0!)∙0,2550∙0,350∙0,200∙0,200 = 0,2550 ≈ 0.
4.9. Геометрическое распределение
Рассмотрим биномиальный эксперимент с обычными условиями. Пусть вместо вычисления числа успехов в независимых испытаниях случайная величина определяет число испытаний до первого успеха. Такая случайная величина распределена по закону геометрического распределения. Вероятности геометрического распределения вычисляются по формуле
P(m) = pqm1, (4.I8)
где т = 1, 2, 3, ...; p и q биномиальные параметры. Математическое ожидание геометрического распределения
M(m)= 1/p, (4.19)
а дисперсия σ2 = D(m) = q/p2 . (4.20)
Например, число деталей, которые мы должны отобрать до того, как найдем первую дефектную деталь, есть случайная величина, распределенная по геометрическому закону. В чем здесь смысл математического ожидания? Если доля дефектных деталей равна 0, 1, то вполне логично, что в среднем мы будем иметь выборки, состоящие из 10 деталей до тех пор, пока не встретим дефектную деталь.
Пример 4.16. Исследования в некотором регионе показали, что пепси-кола занимает 33,2 % рынка безалкогольных напитков, а кока-кола 40,9 %. Исследователи рынка собираются провести новое исследование, чтобы проверить вкусы и предпочтения потребителей пепси-колы. Потенциальные участники отбираются случайным образом среди потребителей безалкогольных напитков. Определим вероятность того, что случайно отобранный потребитель пьет пепси-колу. Рассчитаем вероятность того, что среди (двух, трех, четырех) отобранных потребителей безалкогольных напитков первым будет найден потребитель пепси-колы.
Решение. Пусть «успех» в единичном испытании с вероятностью 0,332 есть событие «первый случайно отобранный потребитель предпочитает пепси-колу». Используя геометрическое распределение при т=1, найдем из формулы (4.18): Р(1) = 0,332∙0,6880 = 0,332. Точно так же первый выбранный человек не будет, а второй будет потребителем пепси-колы с вероятностью P(2) = 0,332∙0,6881 = 0,2218. Вероятность того, что двое потребителей, не употребляющих пепси-колу, будут проинтервьюированы до того, как первый потребитель пепси-колы будет найден, равна P(3) = 0,332∙0,6882 = 0,1481. И окончательно P(4) = 0,332∙0.6883 = 0,099.
5. Непрерывные случайные величины
5.1. Определение непрерывной случайной величины. Функция распределения непрерывной случайной величины
Непрерывной случайной величиной называют случайную величину, которая может принимать любые значения на числовом интервале.
Примеры непрерывных случайных величин: возраст студентов, длина ступни ноги человека, масса детали и т. д. Это положение относится ко всем случайным величинам, измеряемым на непрерывной шкале, таким как меры веса, длины, времени, температуры, расстояния. Измерение может быть проведено с точностью до какого-нибудь десятичного знака, но случайная величина теоретически непрерывная величина. В экономическом анализе находят широкое применение относительные величины, различные индексы экономического состояния, которые также вычисляются с определенной точностью, скажем, до двух знаков после запятой, хотя теоретически их значения непрерывные случайные величины.
У непрерывной случайной величины возможные значения заполняют некоторый интервал (или сегмент) с конечными или бесконечными границами.
Закон распределения непрерывной случайной величины можно задать в виде интегральной функции распределения, являющейся наиболее общей формой задания закона распределения случайной величины, а также в виде дифференциальной функции (плотности распределения вероятностей), которая используется для описания распределения вероятностей только непрерывной случайной величины.
Функция распределения (или интегральная функция) F(x) универсальная форма задания закона распределения случайной величины. Для непрерывной случайной величины функция распределения также определяет вероятность того, что случайная величина X примет значение, меньшее фиксированного действительного числа х, т. е.
F(x) = F(X < x). (5.1)
При изменении х меняются вероятности Р(Х < x) = F(x). Поэтому F(x) и рассматривают как функцию переменной величины. Принято считать, что случайная величина X известна, если известна ее функция распределения F(x).
Теперь можно дать более точное определение непрерывной случайной величины: случайную величину называют непрерывной, если ее функция распределения есть непрерывная, кусочно-дифференци-руемая функция с непрерывной производной.
5.2. Свойства функции распределения (для дискретных и непрерывных случайных величин)
1. Функция распределения есть неотрицательная функция, заключенная между 0 и 1, т.е. 0 ≤ F(x) ≤ 1.
2. Функция распределения есть неубывающая функция, т. е. F(x2) ≥ F(x1), если х2 > х1. Тогда P(x1 ≤ Х < х2) = P(Х < х2) P(Х < х1) = F(x2) F(x1).
Так как любая вероятность есть число неотрицательное, то P(x1 ≤ ≤ Х < х2) 0, а следовательно, F(x2) F(x1) ≥ 0 и F(x2) ≥ F(x1).
Следствие 1. Вероятность того, что случайная величина X примет значение, заключенное в интервале (α, β), равна приращению функции распределения на этом интервале, т. е.
P(α ≤ Х < β) = F(β) F(α). (5.2)
Следствие 2. Вероятность того, что непрерывная случайная величина X примет одно определенное значение, равна нулю.
Р(Х = х1) = 0. (5.3)
Согласно сказанному, равенство нулю вероятности Р(Х = х1) не всегда означает, что событие Х = х1 невозможно. Говоря о вероятности события Х = х1, априорно пытаются угадать, какое значение примет случайная величина в опыте.
Если х1 лежит в области возможных значений непрерывной случайной величины X, то с некоторой уверенностью можно предсказать область, в которую случайная величина может попасть. В то же время невозможно хотя бы с малейшей степенью уверенности угадать, какое конкретное значение из бесконечного числа возможных примет непрерывная случайная величина.
Например, если метеослужба объявляет, что температура воздуха в полдень составила 5 °С, то это не означает, что температура будет точно равна этому значению. Вероятность такого события равна нулю.
3. Если все возможные значения случайной величины принадлежат интервалу (α, β), то
F(х) = 0 при х ≤ α; F(х) = 1 при х > β. (5.4)
В самом деле, F(x) = 0 для всех значений х ≤ α и F(х) = 1 при х > β, поскольку события X < х для любого значения х ≤ α, являются в этом случае невозможными, а для любого значения х > β достоверными.
Следствие. Если возможные значения непрерывной случайной личины расположены на всей оси ОХ, то справедливы следующие предельные соотношения:
, (5.5)
или F( ∞) = 0; F(+ ∞) = 1. Это следствие справедливо и для дискретных случайных величин.
5.3. График функции распределения для непрерывной случайной величины
Из перечисленных выше свойств F(х) может быть представлен график функции распределения (рис. 5.1).
Рис. 5.1. График функции распределения непрерывной случайной величины
График функции распределения смешанной случайной величины кусочно-непрерывная функция (рис. 5.2).
Рис. 5.2. График кусочно-непрерывной функции распределения
5.4. Плотность распределения вероятностей непрерывной случайной величины
(дифференциальная функция)
Плотностью распределения вероятностей непрерывной случайной величины X называется функция W(x), равная первой производной от функции распределения F(x),
W(x) = F ′(x), (5.6)
где W(x) дифференциальная функция распределения. Дифференциальная функция применяется только для описания распределения вероятностей непрерывных случайных величин.
5.5. Вероятность попадания непрерывной случайной величины в заданный интервал
Вероятность того, что непрерывная случайная величина примет значение, принадлежащее интервалу (α, β), равна определенному интегралу от дифференциальной функции, взятому в пределах от α до β,
P(α < X < β) = . (5.7)
Используя соотношения (5.2) и (5.1), получим P(α ≤ X < β) = P(α < < X < < β) = .
Геометрически этот результат равен площади криволинейной трапеции, ограниченной осью ОХ, кривой распределения W(x) и прямыми х = α, х = β.
5.6. Нахождение функции распределения по известной плотности распределения
Зная плотность распределения W(x), можно найти функцию распределения F(x) по формуле
F(x) = . (5.8)
В самом деле, так как неравенство X < х можно записать в виде двойного неравенства ∞ < X < х, то F(x) = P( ∞ < X < х) = (рис. 5.3).
Рис. 5.3. Связь функции распределения с плотностью распределения вероятностей
Таким образом, для полной характеристики непрерывной случайной величины достаточно задать функцию распределения или плотность ее вероятности.
5.7. Свойства дифференциальной функции распределения
1. Дифференциальная функция неотрицательная функция:
W(x) ≥ 0. (5.9)
Это следует из того, что F(x) неубывающая функция, а значит, ее производная неотрицательна.
2. Несобственный интеграл от дифференциальной функции в пределах от ∞ до + ∞ равен 1
. (5.10)
Очевидно, что этот интеграл выражает вероятность достоверного события ∞ < Х + ∞.
5.8. Числовые характеристики непрерывных случайных величин
Математическим ожиданием непрерывной случайной величины называется несобственный интеграл вида
М(Х) =. (5.11)
Дисперсией непрерывной случайной величины называется несобственный интеграл вида
D(x) = σ2 =. (5.12)
Средним квадратическим отклонением непрерывной случайной величины называется квадратный корень из дисперсии
σ = . (5.13)
Для числовых характеристик непрерывных случайных величин справедливы те же свойства, что и для дискретных. В частности, для дисперсии непрерывной случайной величины справедлива формула
D(X)=. (5.14)
Начальным моментом k-го порядка (mk) случайной величины X называется математическое ожидание ее k-й степени:
для дискретной случайной величины mk=;
для непрерывной случайной величины mk = . (5.15)
Центральным моментом k-го порядка (μк) случайной величины X называют математическое ожидание k-й степени отклонения случайной величины X от ее математического ожидания:
для дискретной случайной величины μk =;
для непрерывной случайной величины
μk =. (5.16)
Заметим, что начальный момент первого порядка m1 представляет собой математическое ожидание случайной величины, а центральный момент второго порядка μ2 дисперсию случайной величины.
Центральный момент третьего порядка применяется для характеристики скошенности или асимметрии распределения (коэффициент асимметрии):
β1 = μ3/σ3. (5.17)
Для симметричных распределений β1 = 0. Центральный момент 4-го порядка применяется для характеристики крутости (эксцесса) распределения (неприведенный коэффициент эксцесса):
β2 = μ4/σ4. (5.18)
Часто в практических ситуациях используют квадрат коэффициента асимметрии и приведенный коэффициент эксцесса.
γ1 = β12 = μ23/σ6; γ2 = β2 3 = μ4/σ43.
Величина хр, определяемая равенством F(xp) = Р(Х < хр), называется квантилью уровня p. Квантиль х0,5 называется медианой. Значение х, при котором W(x) принимает максимальное значение, называется модой.
6. Законы распределения непрерывных случайных величин
6.1. Нормальное распределение
Наиболее важным распределением непрерывных СВ является нормальное распределение. Множество явлений в практической жизни можно описать с его помощью, например, высоту деревьев, площади садовых участков, массу людей, дневную температуру и т.д. Оно используется для решения многих проблем в экономической жизни, например, число дневных продаж, число посетителей универмага в неделю, число работников в некоторой отрасли, объемы выпуска продукции на предприятии и т. д.
Нормальное распределение находит широкое применение и для аппроксимации распределения дискретных СВ, например, доходы от определенных видов рискованного бизнеса.
Нормальное распределение иногда называют законом ошибок, например, отклонения в размерах деталей от установленного.
Нормальная СВ имеет плотность распределения:
(6.1)
где | х<∞, а=М(Х), λ=σ(Х).
Основные свойства W(x):
а) W(x)>0 и существует при любых действительных значениях х;
б) при | х|→∞ limW(x)=0;
в) W(x=а)=Wmax(x).
г) W(x) симметрична относительно прямой х=а.
д) W(x) имеет две точки перегиба, симметричные относительно прямой х=а; с абсциссами аλ и а+λ и ординатами 1/(λ√2π).
Формула (6.1) содержит два параметра: математическое ожидание а=М(Х) и стандартное отклонение λ=σ. Существует бесконечно много нормально распределенных СВ с разными M(Х) и σ(X).
Математическое ожидание а характеризует положение кривой распределения на оси абсцисс. Изменение параметра а при неизменном σ приводит к перемещению оси симметрии (х=а) вдоль оси абсцисс и, следовательно, к соответствующему перемещению кривой распределения. М(Х)=а иногда называют центрам распределения или параметром сдвига.
Изменение среднего квадратического отклонения при фиксированном значении математического ожидания приводит к изменению формы кривой распределения. С уменьшением λ вершина кривой распределения будет подниматься, кривая будет более «островершинной». С увеличением λ кривая распределения менее островершинная и более растянута вдоль оси абсцисс.
Одновременное изменение параметров a и λ приведет к изменению и формы, и положения кривой нормального распределения.
Условимся о форме записи СВ X~D(X;М(Х),σ2), что означает: СВ X подчиняется закону распределения D с математическим ожиданием М(Х) и стандартным отклонением, либо дисперсией σ2.
6.2. Стандартное (нормированное) нормальное распределение
Если в формуле (6.1) а=0; λ=1, то
= (6.2)
стандартное (нормированное) нормальное распределение.
Стандартная нормальная СВ обозначается Z~N(X;0,12). Оно табулировано.
Свойства функции φ(z):
а) функция ω(z) четная, т. е. ω(z)= ω(z);
б) при |z|→∞ W(z)→0; при |z|>5 можно считать, что ω(z)=0. В связи с этим таблицы ограничиваются аргументами z=4 или z=5;
г) максимальное значение функция ω(z) принимает при z=0.
Любая нормально распределенная СВ может быть преобразована в стандартную (нормированную) нормально распределенную СВ действием:
Z=(X-a)/ λ. (6.3)
Обратное преобразование стандартной нормальной СВ Х~N (X;a,λ2):
X=a+Z∙λ. (6.4)
6.3. Вероятность попадания в интервал нормально распределенной СВ. Интегральная функция ЛапласаГаусса и ее свойства. Связь нормальной функции распределения с интегральной функцией ЛапласаГаусса
Если СВ задана плотностью распределения W(x), то вероятность того, что X примет значение, принадлежащее интервалу (α, ), определяется:
P(X).
Если СВ X~N(X; a, λ2), то
P(X)=dx.
Чтобы пользоваться таблицами для вычисления вероятностей, преобразуем X в Z и найдем новые пределы интегрирования. При х=, z=(а)/λ; при х=, z=(а)/λ, x=a+λz, dx=λdz. Тогда
P(X)=
Функция вида
(6.5)
называется интегралом вероятностей или функцией Лапласа.
Функция Лапласа в общем виде не берется. Ее можно вычислить одним из способов численного интегрирования. Эта функция табулирована. Пользуясь функцией Лапласа, окончательно получим:
P(X)=. (6.6)
Формула (6.6) называется интегральной теоремой Лапласа.
Свойства 0(z):
а) 0(z) нечетная; т.е. 0(z)=-0(z);
б) при z=0 =0;
в) при z+∞ 0(z) 0,5; при z∞ 0(z) 0,5. Ф0(4)=0,499997,
Ф0(4) = 0,499997, т.е. при z4 можно считать, что Ф0(z)±0,5.
Следовательно, все возможные значения интегральной функции Лапласа-Гаусса принадлежат интервалу (0,5; +0,5).
Итак, функция распределения СВ, подчиняющейся нормальному закону распределения, представленная через функцию Лапласа есть:
F(x)=0,5+Фо[(xa)/λ]. (6.7)
Во многих ситуациях может быть рассмотрена задача обратная предыдущей: определение z по заданной вероятности попадания случайной величины в интервал.
6.4. Правило «трех сигм»
Если обозначить (Xa)/σ=Z, Δ=(Xa)=σZ, то:
P(|Xa|<Zσ)=2Ф0(z), (6.8)
где 2Ф0(z) вероятность того, что отклонение СВ от ее математического ожидания М(Х)=а по абсолютной величине будет меньше z сигм.
Пусть z равно: 1; 2; 3. Пользуясь формулой (6.8) и таблицей интеграла вероятностей, вычислим вероятность того, что отклонение по абсолютной величине будет меньше σ, 2σ и Зσ:
при z=1, Δ=σ и P(|Xa|< σ)=2Ф0(1)=0,6826;
при z=2, Δ=2σ и P(|Xa|<2σ)=2Ф0(2)=0,9544;
при z=3, Δ=3σ и P(|Xa|<3σ)=2Ф0(3)=0,9973.
Вероятность того, что СВ попадет в интервал (а3σ; а+3) равна 0,9973.
Т.е. вероятность того, что отклонение СВ от математического ожидания по абсолютной величине превысит утроенное σ, очень мала и равна 0,0027. В этом состоит правило «трех сигм»: если СВ распределена по нормальному закону, то ее отклонение от математического ожидания практически не превышает ±3σ.
6.5. Понятие о теоремах, относящихся к группе «центральной предельной теоремы»
В теоремах этой группы выясняются условия, при которых возникает нормальное распределение. Общим для этих теорем является следующее: закон распределения суммы достаточно большого числа независимых СВ при некоторых условиях неограниченно приближается к нормальному.
Познакомимся с содержанием (без доказательства) с одной из теорем.
Теорема. Если независимые СВ Х1, Х2,… Хn, имеют один и тот же закон распределения с математическим ожиданием а и дисперсией σ2, то при неограниченном увеличении n закон распределения суммы Х1+Х2+…+Хn неограниченно приближается к нормальному.
Теорема Ляпунова. Если СВ Y представляет собой сумму большого числа независимых СВ Y1, Y2,… Yn, влияние каждой из которых на всю сумму равномерно мало, то величина Y имеет распределение, близкое к нормальному, и тем ближе, чем больше п.
Ценно то, что законы распределения суммируемых СВ могут быть любыми, заранее не известными исследователю. Практически данной теоремой можно пользоваться и тогда, когда речь идет о сумме сравнительно небольшого числа СВ. Опыт показывает, что при числе слагаемых около 10 закон распределения суммы близок к нормальному.
Теорема Ляпунова имеет важное практическое значение, поскольку многие СВ можно рассматривать как сумму независимых слагаемых (ошибки измерений, отклонения размеров деталей, распределение числа продаж некоторого товара, валютные курсы и т.д.)
6.6. Показательное (экспоненциальное) распределение
Экспоненциальное (показательное) распределение связано с распределением Пуассона, используемым для вычисления вероятности появления события в некоторый период времени. Распределение Пуассона это распределение числа появления событий в заданный интервал времени длиной t. Параметр распределения Пуассона λ характеризует интенсивность процесса, с его помощью вычисляют среднее число появления события.
Например, в банк в среднем входит пять посетителей в час. Предположим теперь, что вместо числа появления события в заданный промежуток времени нас интересует длина промежутка времени до появления первого посетителя в банке. Такая задача решается при помощи экспоненциального распределения, а не распределения Пуассона.
Другие примеры. Интервалы времени до первого телефонного звонка на станцию, время ожидания такси подчиняются экспоненциальному закону.
Обозначив среднее значение появления событий в некоторый промежуток времени через λ, а время до появления первого события х=t, можно получить дифференциальную функцию экспоненциального распределения:
(6.9)
где х0, λ>0 параметр. Функция экспоненциального закона:
. (6.10)
Числовые характеристики экспоненциально распределенной СВ X: М(Х)=1/λ, D(x)=1/λ2,(x)=1/λ.
6.7. Закон равномерного распределения (равномерной плотности)
Если известно, что значения непрерывной СВ принадлежат определенному интервалу, а ее плотность распределения на интервале постоянна, то СВ распределена по равномерному закону.
В равномерном распределении вероятность того, что СВ будет принимать значения внутри заданного интервала, пропорциональна длине этого интервала.
Пусть непрерывная СВ X распределена на интервале (α;β) с равномерной плотностью. Ее плотность W(х) на этом участке постоянна и равна C. Вне этого интервала она равна нулю, так как СВ X за пределами интервала (α; β) значений не имеет. Найдем значение постоянной С. Площадь, ограниченная кривой плотности распределения вероятностей и осью абсцисс, должна быть равна единице, т.е. С(βα)=1.
Следовательно, С=1/(βα) и плотность для равномерного распределения:
(6.14)
Функция распределения (6.15)
Числовые характеристики равномерно распределенной СВ: М(Х)=(α+β)/2, D(x)=(βα)2/12, (x)=√D(x)=(βα)/2√3.
Для непрерывной равномерно распределенной СВ X, заданной на интервале (a<X<b)
P(a<X<b)=(ba)/(βα). (6.19)
7. Закон больших чисел
7.1. Принцип практической уверенности. Формулировка закона больших чисел
в литературе этот принцип иногда называется принципом практической невозможности маловероятных событий. Известно, что если событие имеет очень малую вероятность, то в единичном испытании это событие может наступить и не наступить. Но так рассуждаем мы только теоретически, а на практике считаем, что событие, имеющее малую вероятность, не наступает, и поэтому мы, не задумываясь, пренебрегаем им.
Но нельзя дать ответ в рамках математической теории на вопрос, какой должна быть верхняя граница вероятности, чтобы можно было назвать «практически невозможными» события, вероятности которых не будут превышать найденной верхней границы.
Пример. Рабочий изготавливает на станке 100 изделий, из которых одно в среднем оказывается бракованным. Вероятность брака равна 0,01, но ею можно пренебречь и считать рабочего неплохим специалистом. Но если строители будут строить дома так, что из 100 домов (в среднем) в одном доме будет происходить разрушение крыши, то вряд ли можно пренебречь вероятностью такого события.
Итак, в каждом отдельном случае мы должны исходить из того, насколько важны последствия в результате наступления события. При «практически достоверных» событиях, вероятность которых близка к единице, также встает вопрос о степени этой близости. Вероятность, которой можно пренебречь в исследовании, называется уровнем значимости.
Принцип практической уверенности. Если какое-нибудь событие имеет малую вероятность (например, р < 0.01), то при единичном испытании можно практически считать, что это событие не произойдет, а если событие имеет вероятность, близкую к единице (р > 0,99), то практически при единичном испытании можно считать, что событие произойдет наверняка.
Таким образом, исследователя всегда должен интересовать вопрос, в каком случае можно гарантировать, что вероятность события будет как угодно близка к 0 или как угодно близка к 1. Основной закономерностью случайных массовых явлений является свойство устойчивости средних результатов.
В широком смысле слова под «законом больших чисел» понимают свойство устойчивости случайных массовых явлений. Это свойство состоит в том, что средний результат действия большого числа случайных явлений практически перерастает быть случайным и может быть предсказан с достаточной определенностью. Свойство вытекает из того, что индивидуальные особенности отдельных случайных явлений, их отклонения от среднего результата в массе своей взаимно погашаются, выравниваются.
В узком смысле слова под «законом больших чисел» понимают совокупность теорем, в которых устанавливается факт приближения средних характеристик к некоторым постоянным величинам в результате большого числа наблюдений.
Различные формы закона больших чисел дают возможность уверенно оперировать случайными величинами, осуществлять научные прогнозы случайных явлений и оценивать точность этих прогнозов.
Формулировка закона больших чисел, развитие идеи и методов доказательства теорем, относящихся к этому закону, принадлежат русским ученым: П. Л. Чебышеву, А. А. Маркову и A. M. Ляпунову. В нашей работе некоторые формы закона больших чисел приводятся без доказательства.
7.2. Неравенства Маркова и Чебышева
Доказательство закона больших чисел основано на неравенстве Чебышева. Неравенство Маркова в литературе иногда называется леммой Маркова или леммой Чебышева, так как оно является частным случаем неравенства Чебышева.
Лемма Маркова. Если случайная величина Х не принимает отрицательных значений, то для любого положительного числа α справедливо неравенство
P(Х ≥ α ) ≤ М(Х/α). (7.1)
События Х < α и Х ≥ α противоположные, поэтому, используя (7.1), получаем
Р(Х < α ) = 1Р(Х ≥ α ) ≥ 1 М(Х)/α . (7.2)
Пример 7.1. Дана случайная величина X:
Xi |
2 |
4 |
6 |
8 |
10 |
12 |
Pi |
0,1 |
0,2 |
0,25 |
0,15 |
0,15 |
0,15 |
Пользуясь неравенством Маркова, оценим вероятность того, что случайная величина X примет значение, меньшее 11.
Решение. Исходя из условия, будем рассуждать так:
(Х < 11) = Р(X = 2) + Р(Х = 4)+ Р(Х = 6) + Р(Х = 8)+Р(Х = 10) =
= 0,1 + 0,2 + 0,25 + 0,15 + 0,15 = 0,85.
Используя неравенство Маркова (7.2), получаем
Р(Х < 11) ≥1 М(Х)/11 = 1(2·0,1 + 4·0,2 + 6·0,25 + 8·0,15 + 10·0,15 + 12·0,15)/11 = 1 (0,2 + 0,8 + 1,5 + 1,2 + 1,8)/11 = 1 7/11 = 1 0,636 = 0,364. Р(Х < 11) ≥ 0,364.
Пример 7.2. Сумма всех вкладов в некоторой сберегательной кассе составляет 20 000 000 руб., а вероятность того, что случайно взятый вклад меньше 100 000, равна 0,8. Определим число вкладчиков сберегательной кассы.
Решение. Пусть X величина случайно взятого вклада, а n число всех вкладчиков. Тогда из условия задачи следует, что М(Х) = 20 000 000/n; Р(X < 100 000) = 0,8, и по неравенству Маркова Р(X < 100 000) ≥ 1 М(Х)/100 000.
Таким образом, 0,8 ≥ 1 20 000 000 / (n·100 000); 20 000 000 / (n·100 000) ≥ 0,2; 200 ≥ n·0,2; n ≤ 1000.
Неравенство Чебышева. Вероятность того, что отклонение X от ее математического ожидания по абсолютной величине будет меньше данного положительного числа ε, ограничена снизу величиной
1D(X)/ε2, т.е. Р(|X M(X)|< ε) ≥ 1D(X)/ε2. (7.3)
Из (7.3) переходом к противоположному событию можно получить:
Р(|XM(X) | ≥ ε) ≤ D(X)/ε2. (7.4)
Пример 7.3. Вероятность наступления некоторого события р = 0,3 в каждом из n = 900 независимых испытаний. Используя неравенство Чебышева, оценим вероятность того, что событие повторится число раз, заключенное в пределах от m1 = 240 до m2 = 300.
Решение. Здесь по условиям задачи имеет место биномиальный эксперимент. Следовательно, М(X) = а = пр = 900∙0,3 = 270;
ε = |240270| = |300270| = 30; D(X) = npq = 900∙0,3∙0,7 = 189;
Р(|X270| < 30) ≥ 1 D(X)/ε2 = 1189/302 = 10,21 = 0,79,
т.е. Р(|X270| < 30 ≥ 0,79.
7.3. Теорема Чебышева (частный случай)
Теорема устанавливает в количественной форме связь между средней арифметической наблюдаемых значений случайной величины X и М(X) = а.
Теорема. При неограниченном увеличении числа n независимых испытаний средняя арифметическая наблюдаемых значений случайной величины сходится по вероятности к ее математическому ожиданию, т. е. для любого положительного ε
Р(| а| < ε) = 1. (7.5)
Смысл выражения « сходится по вероятности к a» состоит в вероятности того, что будет сколь угодно мало отличаться от a, неограниченно приближаясь к 1 с ростом n. Для конечного n
Р(| M(X)| < ε) ≥ 1 D(X)/(n∙ε2 (7.6)
Если в (7.6) взять сколь угодно малое ε >0 и n , то
что и доказывает теорему Чебышева.
Из рассмотренной теоремы вытекает важный практический вывод. Он состоит в том, что неизвестное нам значение математического ожидания случайной величины мы вправе заменить средним арифметическим значением, полученным по достаточно большому числу опытов. При этом чем больше опытов для вычисления, тем с большей вероятностью (надежностью) можно ожидать, что связанная с этой заменой ошибка ( а) не превзойдет заданную величину ε.
Кроме того, можно решать другие практические задачи. Например, по значениям вероятности (надежности) Р = Р(| а|< ε и максимальной допустимой ошибке ε, определить необходимое число опытов n; по Р и п определить ε; по ε и п определить границу вероятности события |а|<ε.
Пример 7.4. Дисперсия случайной величины X равна 4. Опредеим, сколько потребуется произвести независимых опытов, чтобы с вероятностью не менее 0,9 можно было ожидать, что среднее арифметическое значение этой случайной величины будет отличаться от математического ожидания менее чем на 0,5?
Решение. По условию задачи ε = 0,5; Р(| а| < 0,5) ≥ 0,9; n = ? Применив формулу (7.6), получим P(| M(X)| < ε) ≥ 1D(X)/(n∙ε2). Из соотношения 1D(X)/(nε2) = 0.9 определяем п = D(X)/(0,1ε2) = 4/(0,1∙0,25) = 160.
Если использовать утверждение, что в любом случае средняя арифметическая распределена примерно нормально, то получаем:
Р(|а|< ε) = 2Φ0(≥ 0,9. Откуда, воспользовавшись таблицей интеграла вероятностей, получим ≥ 1,645, или ≥ 6,58, т. е. n ≥ 49.
Пример 7.5. Дисперсия случайной величины D(X) = 5. Произведено 100 независимых опытов, по которым вычислено . Вместо неизвестного значения математического ожидания а принята . Определим максимальную величину ошибки, допускаемой при этом, с вероятностью не менее 0,8.
Решение. По условию n = 100, Р(| а|< ε) ≥ 0,8. ε = ? Применяем формулу (7.6)
Р(|-а|< ε) ≥ 1D(X)/(nε2).
Из соотношения 1D(X)/(nε2) = 0,8 определяем ε
ε2 = D(X)/(0,2∙n) = 5/(0,2∙100) = 0,25; ε = 0,5.
7.4. Теорема Бернулли
Пусть произведено п независимых испытаний, в каждом из которых вероятность появления некоторого события А постоянна и равна Р.
Теорема Бернулли. При неограниченном возрастании числа независимых испытаний п относительная частота m/n появления события А сходится по вероятности к вероятности p события А, т. е.
где ε сколь угодно малое положительное число. Для конечного n при условии, что , неравенство Чебышева для случайной величины m/n будет иметь вид
P(|m/np|< ε) ≥1 pq/(n ε2). (7.8)
Каким бы малым ни было число ε, при n → ∞ величина дроби pq/(n∙ε2)→0, а P(|m/np|< ε)→1.
Из теоремы Бернулли следует, что при достаточно большом числе испытаний относительная частота т/п появления события практически утрачивает свой случайный характер, приближаясь к постоянной величине p вероятности данного события. В этом и состоит принцип практической уверенности.
Пример 7.6. С целью установления доли брака по схеме возвратной выборки было проверено 1000 единиц продукции. Какова вероятность того, что установленная этой выборкой доля брака по абсолютной величине будет отличаться от доли брака по всей партии не более чем на 0,01, если что в среднем на каждые 10 000 изделий приходится 500 бракованных?
Решение. По условию задачи число независимых испытаний n = 1000.
p = 500/10 000 = 0,05; q = 1 p = 0,95; ε = 0,01. P(|m/np| < 0,01?
Применив формулу (7.8), получим
P(|m/np| < 0,01) ≥ 1pq/(nε2) = 10,05∙0,95/(1000∙0,0001) = 0,527.
Итак, с вероятностью не менее 0,527 можно ожидать, что выборочная доля брака (относительная частота появления брака) будет отличаться от доли брака во всей продукции (от вероятности брака) не более чем на 0,01.
Пример 7.7. При штамповке деталей вероятность брака составляет 0,05. Сколько нужно проверить деталей, чтобы с вероятностью не менее 0,95 можно было ожидать, что относительная частота бракованных изделий будет отличаться от вероятности брака менее чем на 0,01?
Решение. По условию задачи р = 0,05; q = 0,95; ε = 0,01.
P(|m/np|< 0,01) ≥ 0,95; n = ? Из равенства 1pq/(nε2) = 0,95
находим:
n = pq/(0,05ε2) = 0,05∙0,95/(0,05∙0,0001) = 9500.
Замечание. Оценки необходимого числа наблюдений, получаемые при применении теоремы Бернулли (или Чебышева) очень преувеличены. Существуют более точные оценки, предложенные Бернштейном и Хинчиным, но требующие применения более сложного математического аппарата. Чтобы избежать преувеличения оценок, иногда пользуются формулой Лапласа
P(|m/np|<ε) ≈ 2Φ0 .
Недостатком этой формулы является отсутствие оценки допускаемой погрешности.
7.5. Теорема Пуассона
В теореме Бернулли устанавливается связь между относительной частотой появлений события и его вероятностью p при условии, что последняя от опыта к опыту не изменяется. Теорема Пуассона устанавливает связь между относительной частотой появления события и некоторой постоянной величиной при переменных условиях опыта.
Теорема Пуассона. Если производится n независимых опытов и вероятность появления события А в i-м опыте равна pi, то при увеличении n относительная частота появления события m/n сходится по вероятности к среднему арифметическому значению вероятностей pi, т. е.
(7.9)
Для конечного n будем иметь:
(7.10)
Каким бы ни было ε, при n→ ∞ величина дроби , а вероятность
Пример 8.9. Одинаковые партии изделий размешены в 11 ящиках, причем доли первосортных изделий в них составляют 0,0; 0,1; 0,2; 0,3; 0,4; 0,5; 0,6; 0,7; 0.8; 0,9; 1,0. Из каждого ящика наудачу извлечено по одному изделию. Определим вероятность того, что доля первосортных изделий в выборке будет отличаться от средней арифметической доли менее чем на 0,2.
Решение. По условию задачи: n = 11; p1 = 0,0; p2 = 0,1; p3 = 0,2; p4 = = 0,3; p5 = 0,4; р6 = 0,5; p7 = 0,6; p8 = 0,7; p9 = 0,8; p10 = 0,9; p11 = 1,0; ε = 0,2.
Применив формулу (7.10), получим
= 10,0 + 0,09 + 0,16 + 0,21 + 0,24 + 0,25 + 0,24 + 0,21 + 0,16 + 0,09 + 0,0)/(121∙0,04) = 11,165/4,84 = 0,64.
8. Первичная обработка данных.
Случайная величина переменная величина, принимающая одно из возможных значений в зависимости от случайных обстоятельств. Случайная величина считается полностью заданной своим распределением, если указан закон, по которому можно вычислить вероятность попадания случайной величины в любое подмножество ее возможных значений.
Распределение вероятностей совокупность всех возможных значений случайной величины и соответствующих им вероятностей.
Случайная величина называется дискретной, если она принимает конечное или счетной число значений. Дискретная величина задается с помощью ряда распределения функции, ставящей в соответствие каждому возможному значению случайной величины определенную вероятность. Таким образом, ряд распределения - это конечное или счетное множество пар элементов:
Так как случайная величина Х примет обязательно какое-нибудь из своих значений , сумма вероятностей всех возможных значений равно единице, т.е. для случайной величины, принимающей конечное число n возможных значений, и для дискретной случайной величины, принимающей счетное число значений.
Обычно ряд распределения удобно изображать в виде таблицы, где в верхней строке указаны возможные значения дискретной случайной величины Х, в нижней соответствующие вероятности того, что Х примет значение .
Х= .
Полигоном (многоугольником) распределения называется графическое изображение ряда распределения. Для того чтобы построить полигон распределения необходимо отложить возможные значения случайной величины по оси абсцисс, а соответствующие им вероятности по оси ординат.
Множество значений непрерывной случайной величины несчетно и обычно представляет собой некоторый промежуток, конечный или бесконечный. Непрерывная величина принимает возможные значения, заполняющие сплошь заданный интервал, причем для любого х из этого интервала существует предел:
Функция называется плотностью распределения или дифференциальным законом распределения.
Плотность распределения обладает следующими свойствами:
1) ;
График плотности распределения носит название кривой распределения.
Функцией распределения F(x) случайной величины Х, принимающей любое действительное значение x, называется вероятность того, что случайная величина Х приимет значение меньшее чем х, то есть . Функцию распределения F(x) называют также интегральным законом распределения.
Для дискретной случайной величины функция F(x) вычисляется по формуле:
,
где суммирование осуществляется по всем значениям i, для которых .
Для непрерывной случайной величины интегральный закон выражается формулой: , где функция - плотность распределения.
Функцией распределения F(x) обладает следующими свойствами:
1) = F(x2) F(x1);
2) , если ;
3) ;
4) ;
5) (для непрерывной случайной величины).
График функции распределения F(x) для непрерывных случайных величин называется интегральной кривой распределения.
Числовые характеристики случайных величин. Функция распределения дает полную информацию о законе распределения случайной величины. Однако часто бывает достаточно знать одну или несколько числовых характеристик случайной величины, дающих наглядное представление о ней, например, некоторое «среднее» число, вокруг которого группируются значения случайной величины (центр группирования распределения), и ту или иную характеристику вариации значений случайной величины (степень рассеивания ее значений).
Основной характеристикой центра группирования случайной величины в генеральной совокупности является ее математическое ожидание. Выборочным аналогом математического ожидания является среднее значение .
Математическое ожидание М(х) дискретной случайной величины определяется по формуле: (8.1)
Если случайная величина Х непрерывна и - ее плотность распределения, то математическим ожиданием называется интеграл:
, (8.2)
в тех случаях, когда существует интеграл .
Приведем без доказательств основные свойства математического ожидания.
1. Математическое ожидание постоянной равно этой постоянной, т.е. если с постоянная, то М(Х)=с .
2. Постоянную величину можно выносить за знак математического ожидания, т.е. если Х случайная величина, а с постоянная, то М(сХ)=с*М(Х).
3. Математическое ожидание суммы случайных величин равно сумме математических ожиданий этих случайных величин, т.е. если определены МХ и МY, то определено математическое ожидание М(Х+Y), причем М(Х+Y)= МХ+ МY. Это свойство верно как для зависимых, так и независимых случайных величин.
4. Математическое ожидание произведения независимых случайных величин равно произведению математических ожиданий этих случайных величин, т.е. если Х и Y независимые случайные величины, то М(ХY)= МХ* МY.
Модальное значение (или просто мода) Мо случайной величины определяется как такое возможное значение исследуемого признака, при котором значение плотности вероятности (в непрерывном случае) или вероятности (в дискретном случае) достигает своего максимума. Мода представляет собой наиболее часто встречающееся значение случайной величины.
и медиану можно определить как такое значение на оси абсцисс, при котором прямая, параллельная оси ординат и проходящая через точку делит площадь под кривой плотности на две равные части. В некоторых случаях дискретных распределений может не существовать величины, точно удовлетворяющей сформулированному требованию. Поэтому для дискретных величин медиану можно определить как любое , лежащее между соседними возможными значениями и , такими, что <0,5 и 0,5.
Характеристики вариации уточняют представление о распределении вероятностей случайной величины. Они дают представление о степени рассеивания случайной величины относительно центра группирования. Наиболее часто используемыми характеристиками вариации являются дисперсия случайной величины и ее среднеквадратическое отклонение.
Если известен закон распределения случайной величины Х, то для дискретной и непрерывной случайных величин дисперсию можно вычислить соответственно по формулам:
(8.5)
, (8.6)
В качестве меры рассеивания случайной величины наряду с дисперсией используют среднеквадратическое отклонение , равное квадратному корню из дисперсии случайной величины: =. (8.7)
Среднеквадратическое отклонение случайной величины выражается в тех же единицах, что и сама случайная величина и ее математическое ожидание.
Приведем без доказательств основные свойства дисперсии. Свойства среднеквадратического отклонения непосредственно вытекают из соответствующих свойств дисперсии.
2) Дисперсия произведения случайной величины Х на постоянную с равна произведению дисперсии случайной величины Х на квадрат постоянной: .
4) Дисперсия случайной величины Х не изменится, если к ней прибавить постоянную с, т.е. .
Моменты случайной величины обобщают понятия математического ожидания и дисперсии.
Моментом k порядка называется математическое ожидание k й степени отклонения случайной величины Х от некоторой постоянной с.
Если в качестве с берется нуль, моменты называют начальными, то есть
. (8.8)
Если с=М(Х), то моменты называются центральными, то есть
. (8.9)
Таким образом, математическое ожидание ни что иное, как первый начальный момент, а дисперсия второй центральный момент.
Существует формула, связывающая центральные моменты с начальными:
. (8.10)
Для первых четырех моментов эта формула дает следующие равенства:
(8.11)
Формула может быть использована для нахождения дисперсии случайной величины: (8.12)
В теории и практических приложениях используют две числовые характеристики случайной величины, основанные на центральных моментах третьего и четвертого порядков соответственно коэффициент асимметрии и эксцесс . Данные коэффициенты дают представление о форме плотности распределения или многоугольника распределения.
Коэффициентом асимметрии случайной величины Х называется число, равное отношению третьего центрального момента к кубу среднеквадратического отклонения случайной величины Х:
(8.13)
Коэффициент асимметрии случайной величины, закон распределения которой симметричен относительно математического ожидания, равен нулю, поскольку в этом случае . Если распределение вероятностей несимметрично, причем «длинная часть» распределения расположена справа от центра группирования, то >0 и асимметрию называют положительной, если же «длинная часть» расположена слева, то <0 и асимметрию называют отрицательной.
В качестве характеристики большей или меньшей степени «сглаженности» плотности или многоугольника распределения по сравнению с нормальной плотностью используют понятие эксцесса. Эксцессом случайной величины Х называется число, равное разности отношения четвертого центрального момента к четвертой степени среднеквадратического отклонения случайной величины и числа 3:
(8.14)
Эксцесс нормального закона распределения вероятностей равен нулю. Если распределение вероятностей случайной величины Х одномодально и плотность распределения более «островершинна», чем плотность распределения нормальной случайной величины с той же дисперсией, то >0, если же менее «островершинна» и более «сглажена» по сравнению с плотностью соответствующего нормального распределения, то <0.
В математической статистике широко используются понятия q-квантилей и Q-процентных точек распределения F(x).
Квантилью уровня q (или q-квантилью) непрерывной случайной величины Х, обладающей непрерывной функцией распределения F(x), называется такое возможное значение этой случайной величины, для которого вероятность события Х <равна заданной величине q, т.е.
. (8.15)
Очевидно, чем больше заданное значение q (0<q<1), тем больше будет и соответствующая величина квантили . Частным случаем квантили - 0.5 квантилью является характеристика центра группирования - медиана.
Для дискретной случайной величины функция q-квантиль определяется как любое число , лежащее между двумя значениями и , такими, что < q, но q.
Под Q-процентной точкой (0< Q<100) случайной величины Х понимается такое ее возможное значение , для которого вероятность события Х, равна Q/100:
. (8.16)
Для дискретной случайной величины это определение корректируется аналогично тому, как это делалось при определении квантилей.
Между квантилями и процентами точками существует следующее соотношение: .
Нормальное распределение (закон Гаусса) занимает центральное место в теории и практике статистических исследований. Распределение задается плотностью:
, (8.17)
где - математическое ожидание; - среднеквадратическое отклонение.
Кривая нормального распределения симметрична относительно прямой, параллельной оси ординат и проходящей через точку , и имеет в этой точке единственный максимум, равный. С уменьшением кривая становится более вытянутой по отношению к прямой . Изменение при постоянном не меняет формы кривой, а вызывает лишь ее смещение вдоль оси абсцисс. Таким образом, нормальное распределение зависит от двух параметров: и . Площадь, заключенная под кривой нормального распределения, равна единице. Коэффициент асимметрии и эксцесс равны нулю.
Логарифмически-нормальное распределение (логнормальное распределение) распределение положительной случайной величины, логарифм которой распределен по нормальному закону. Таким образом, если случайная величина Х распределена по нормальному закону, то случайная величина имеет логнормальное распределение. Распределение является асимметричным.
Плотность вероятности задается следующим выражением:
. (8.18)
Математическое ожидание и дисперсия определяются по следующим формулам:
; (8.19)
, (8.20)
где - математическое ожидание Х; - среднеквадратическое отклонение Х.
Биномиальное распределение распределение вероятностей дискретной случайной величины X=m, принимающей значение 0,1,2,…, n и задаваемой функцией вероятностей :
, (8.20)
где - вероятность появления события А m раз в n независимых испытаниях, в каждом из которых событие А появляется с одно и той же вероятностью p и не появляется с вероятностью ;
- число сочетаний из n по m.
Параметрами распределения являются величины n и р. Математическое ожидание и дисперсия задаются следующим образом:
(8.21)
Равномерное распределение распределение вероятностей непрерывной случайной величины на каком-либо отрезке , где , имеющее плотность:
при (8.22)
Математическое ожидание и дисперсия соответственно равны:
(8.23)
9. Описательная статистика
В самом общем смысле статистическое оценивание параметров можно рассматривать как совокупность методов, позволяющих делать научно обоснованные выводы о числовых параметрах генеральной совокупности по случайной выборке из нее.
Генеральной совокупностью называют множество результатов всех мыслимых наблюдений, которые могут быть получены при данном комплексе условий.
Выборочной совокупностью (выборкой) называют множество результатов, случайно отобранных из генеральной совокупности.
Задачи математической статистики практически сводятся к обоснованному суждению об объективных свойствах генеральной совокупности по результатам случайной выборки.
Любая функция θ(Х1, Х2,…,Хn) от результатов наблюдения Х1, Х2,…,Хn случайной величины Х называется статистикой.
Статистика , используемая в качестве приближенного значения неизвестного параметра θ, называется статистической оценкой. Основная задача теории оценивания состоит в том, чтобы произвести выбор оценки параметра θ, позволяющей получить хорошее приближение оцениваемого параметра.
Все статистики и статистические оценки являются случайными величинами: при переходе от одной выборки к другой (даже в рамках одной и той же генеральной совокупности) конкретные значения статистической оценки будут подвержены неконтролируемому разбросу. Параметры генеральной совокупности есть постоянные величины.
Методы статистического оценивания состоят из двух больших разделов: точечное оценивание параметров и интервальное оценивание.
Точечной оценкой называют некоторую функцию результатов наблюдения θ(Х1, Х2,…,Хn), значение которой принимается за наиболее приближенное в данных условиях к значению параметра θ генеральной совокупности. Точечная оценка должна отвечать требованиям состоятельности, несмещенности и эффективности.
Существуют следующие основные методы точечного оценивания случайных величин: метод максимального (наибольшего) правдоподобия; метод моментов; метод наименьших квадратов.
L(Х1, Х2,…,Хn; мп )=L(Х1, Х2,…,Хn; ) (9.1)
где L функция правдоподобия.
Если переписать функцию L в виде L = , (9.2)
тогда логарифм этой функции L = - (9.3)
есть логарифмическая функция максимального правдоподобия.
Функция максимального правдоподобия максимизирует количественную оценку для оценки истинного параметра θ. При этом оценка выбирается таким образом, что реализация функции (2.2) или эквивалентной ей функции (2.3) будет иметь наибольшее значение. Доказано, что оценки максимального правдоподобия являются состоятельными, асимптотически-несмещенными, асимпточески-нормальными и асимптотически-эффективными.
Метод моментов. Метод моментов заключается в приравнивании определенного количества выборочных моментов к соответствующим теоретическим (т.е. вычисленным с использованием функции f (X,)) моментам исследуемой случайной величины, причем последние являются функциями от неизвестных параметров θ(1),…, θ(k). Рассматривая количество моментов, равное числу k подлежащих оценки параметров, и решая полученные уравнения относительно этих параметров, получаются искомые оценки. Доказывается, что оценки неизвестных параметров, полученные методом моментов, являются состоятельными. В силу сравнительно простой вычислительной реализации метод моментов удобен на практике.
min , (9.4)
где xi результаты выборочных наблюдений.
Можно показать, что данный функционал достигает своего минимума при таком значении , при котором обращается в нуль первая производная: .
В случае линейных связей, когда наблюдения содержат лишь случайные ошибки (без систематических), оценки, полученные методом наименьших квадратов, являются несмещенными линейными функциями от наблюденных значений. Если ошибки наблюдения независимы и подчиняются нормальному распределению, оценки, полученные данным методом, являются также эффективными.
Выполнение требования несмещенности гарантирует отсутствие систематической ошибки в оценке параметра. Разность М и θ называется смещением оценки.
Оценка называется асимптотически несмещенной, если ее смещенность исчезает при условии n,т.е. справедливо следующее равенство
(М) = θ. (9.6)
Эффективность. Эффективной оценкой неизвестного параметра θ называется такая несмещенная оценка, которая обладает наименьшей дисперсией среди всех возможных несмещенных оценок параметра θ для данного объема выборки n.
Данное выше определение опирается на понятие абсолютной эффективности. Несмещенная оценка является абсолютно эффективной, если она достигает нижнюю границу эффективности, задаваемую неравенством Крамера-Рао.
Var M, (9.7)
где M - количество информации, содержащейся в выборке. - несмещенная оценка параметра θ, L функция правдоподобия, Var знак дисперсии, M знак математического ожидания.
Очевидно, что для абсолютно эффективной оценки неравенство (2.7) превращается в равенство. Можно также ввести понятие относительной эффективности.
Для двух несмещенных оценок 1 и 2 оценка 1 будет более эффективной, если при прочих равных условиях выполняется неравенство:
var(1 ) < var(2) (9.8)
Мерой эффективности оценки служит средняя квадратическая ошибка, задаваемая следующей формулой: σ = М{(- θ)2} (2.9)
Оценку 1 называют асимптотически более эффективной, чем оценка 2, если:
var(1)var(2) (9.10)
Cостоятельность. Оценка неизвестного параметра θ называется состоятельной, если по мере роста числа наблюдений n (т.е. при n) она стремится по вероятности к оцениваемому значению θ, т.е. если для любого сколь угодно малого ε>0 выполняется условие P> ε . (9.11)
В теории доказывается, что средняя арифметическая является несмещенной, состоятельной и эффективной оценкой математического ожидания .
Выборочная дисперсия является состоятельной, эффективной, но смещенной оценкой генеральной дисперсии . Несмещенной оценкой дисперсии генеральной совокупности будет исправленная выборочная дисперсия :
=, (9.12)
где дробь - является поправкой Бесселя. C ростом поправка стремится к нулю и уже при >50 практически нет никакой разницы между и .
Законы распределения выборочных характеристик
Распределение Пирсона (распределение). Если Х1, Х2,…,Хn есть ряд независимых, нормированных, нормально распределенных случайных величин , т.е.и для , то случайная величина
(9.13)
имеет распределение с степенями свободы, где -единственный параметр распределения, характеризующий число случайных величин в выражении ().
Математическое ожидание и дисперсия (распределения) задаются следующими выражениями: (9.14)
Распределение Стьюдента (- распределение). Если случайная величина Z имеет нормированное нормальное распределение , а величина имеет распределение с степенями свободы, причем Z и U взаимно независимы, то случайная величина
(9.15)
имеет - распределение с степенями свободы.
Математическое ожидание и дисперсия (-распределения) задаются следующими выражениями: (9.16)
Распределение Фишера-Снедекора. Пусть имеется две независимые случайные величины X и Y, подчиняющиеся нормальному закону распределения. Произведены две независимые выборки объемами ии вычислены выборочные дисперсии и. Известно, что случайные величины и имеют распределение с соответственно и степенями свободы. Случайная величина
(2.17)
имеет F-распределение с и , причем .
F-распределение не зависит от неизвестных параметров и , а зависит от числа наблюдений в выборках и.
Математическое ожидание и дисперсия (-распределения) задаются следующими выражениями: (9.18)
Интервальной оценкой называют доверительный интервал (-,+), определяемый по результатам выборки, относительно которого можно утверждать с определенной, близкой к единице вероятностью, что он заключает в себе истинное значение оцениваемого параметра генеральной совокупности, т.е.
Р(-θ +) =γ, (9.19)
где - и + и соответственно нижняя и верхняя границы доверительного интервала. Вероятность γ называется доверительной вероятностью.
Параметр задает точность интервальной оценки. Ширина доверительного интервала h определяется по формуле: h = 2. (9.20)
Доверительный интервал по своей природе случаен. Ширина доверительного интервала существенно зависит от объема выборки n (уменьшается с ростом n) и от величины доверительной вероятности (увеличивается с приближением доверительной вероятности к единице).
Интервальные оценки для генеральной средней
Дисперсия генеральной совокупности известна. Пусть из генеральной совокупности Х с нормальным законом распределения N(μ;σ) и известным генеральным средним квадратическим отклонением взята случайная выборка Х1, Х2,…,Хn объемом n . Для нахождения интервальной оценки μ используем среднюю арифметическую, которая имеет нормальное распределение с параметрами N(μ;).
Статистика имеет нормированное нормальное распределение с параметрами N(0;1). Вероятность любого отклонения может быть вычислена по интегральной теореме Лапласа для интервала, симметричного относительно μ по формуле:
Р{()<t γ }=Ф(t) (9.21)
Задавая определенную доверительную вероятность γ по таблице интегральной функции Лапласа Ф(t), можно определить значение t γ.
Преобразовав формулу (1.13), будем иметь доверительный интервал для математического ожидания: Р{t γ + t γ }= Ф(t) (9.22)
Точность оценки равна = t γ (9.23)
Дисперсия генеральной совокупности неизвестна. Пусть имеется генеральная совокупность Х, распределенная по нормальному закону N(μ;σ), c неизвестным средним квадратическим отклонением σ. По результатам выборки объема n из генеральной совокупности вычислены средняя арифметическая х и выборочное среднее квадратическое отклонение S. В этом случае для построения интервальной оценки генеральной средней μ используется статистика , имеющая распределение Стьюдента с числом степеней свободы ν=n-1.
По таблице t распределения Стьюдента для ν=n-1 степеней свободы находим значение tα,η , для которого справедливо равенство
Р{ tα,η + tα,η }= γ (9.24)
Точность оценки равна = tα,η (9.25)
Интервальные оценки для генеральной дисперсии и среднего квадратического отклонения
Пусть из генеральной совокупности Х, распределенной по нормальному закону N(μ;σ), взята случайная выборка объемом n и вычислена выборочная дисперсия S2. Требуется определить с надежностью γ интервальные оценки для генеральной дисперсии σ2 и среднего квадратического отклонения σ.
Для построения доверительного интервала при объеме выборки nобычно используется статистика , имеющая распределение Пирсона с ν=n-1.
Выбирая уровень доверительной вероятности γ можно записать
Р{}=1- α (9.26)
Далее по таблице - распределения можно выбрать такие два значения и , чтобы площадь, заключенная под дифференциальной функцией распределения между и , была равна γ=1- α.
Обычно и выбирают так, чтобы Р(<)=Р(>)=, (9.27)
Проведя соответствующие преобразования и учитывая то, что таблица -распределения содержит значения только для Р(>), окончательно получаем:
, (9.28)
причем Р()=Р(>)=1-; (9.29)
Р()=Р(>)=.
Доверительный интервал для генерального среднего квадратического отклонения равен . (9.30)
При достаточно больших объемах выборки (n>30) доверительный интервал для генерального среднего квадратического отклонения определяется по формуле:
. (9.31)
При достаточно больших n (n ) можно считать, что частость ω= имеет приближенно нормальное распределение с параметрами N(р; ). В этом случае доверительный интервал для генеральной доли р определяется соотношением
-+, (9.32)
где определяется по таблице интегральной функции Лапласа Ф(t),
- частость события А;
(1-) - частость противоположного события А.
Точность оценки равна =. (9.33)
10 Предварительный анализ данных
Статистической называют гипотезу (предположение) о виде неизвестного распределения или о параметрах известных распределений.
Нулевой (основной) называют выдвинутую гипотезу Н0, которую необходимо проверить. Конкурирующей (альтернативной) гипотезой Н1 называют гипотезу, противоположную нулевой гипотезе.
Если проверяемое утверждение сводится к гипотезе о том, что значение некоторого параметра θ в точности равно заданной величине θ0, то это гипотеза называется простой, в других случаях гипотеза будет называться сложной.
Статистическим критерием называют случайную величину , которая служит для проверки гипотезы. Статистический критерий однозначно определяет правило, устанавливающее условия, при которых выдвинутую гипотезу Н0 следует либо отвергнуть, либо принять.
Наблюдаемым (эмпирическим) значением называют то значение критерия, которое вычислено по выборке.
Критической областью (W) называют совокупность значений критерия, при которых нулевую гипотезу Н0 отвергают. Областью принятия гипотезы (областью допустимых значений, Q) называют совокупность значения критерия, при которых нулевую гипотезу Н0 принимают. Критическими точками (границами) qкр называют точки, отделяющие критическую область от области принятия гипотезы.
В зависимости от содержания конкурирующей гипотезы Н1 выбирают правостороннюю, левостороннюю или двустороннюю критические области.
Правосторонней называют критическую область, определяемую неравенством > qкр , где qкр - положительное число. Левосторонней называют критическую область, определяемую неравенством < qкр , где qкр - отрицательное число. Двусторонней называют критическую область, определяемую неравенствами < q1 и > q2 , где q2 > q1 .
В частности, если критические точки симметричны относительно нуля, то двустороння критическая область определяется неравенствами (в предположении, что qкр>0): <- qкр, > qкр, или равносильным неравенством > qкр.
Основной принцип проверки статистических гипотез: если наблюдаемое значение критерия принадлежит критической области, то нулевую гипотезу отвергают; если наблюдаемое значения критерия принадлежит области принятия гипотез, то гипотезу принимают. При использовании этого принципа возможны четыре случая:
- гипотеза Н0 верна и ее принимают согласно критерию;
- гипотеза Н0 неверна и ее отвергают согласно критерию;
- гипотеза Н0 верна но ее отвергают согласно критерию, т.е. допускается ошибка, которую принято называть ошибкой первого рода.
- гипотеза Н0 неверна и ее принимают согласно критерию, т.е. допускается ошибка второго рода.
Уровнем значимости α = 1-γ называют вероятность совершить ошибку первого рода. С уменьшением α возрастает вероятность ошибки второго рода β.
Мощностью критерия (1- β) называют вероятность попадания критерия в критическую область при условии, что справедлива конкурирующая гипотеза. Другими словами, мощность критерия есть вероятность того, что нулевая гипотеза Н0 будет отвергнута, если верна конкурирующая гипотеза.
Пусть Р(W/Н) вероятность попадания статистики критерия в критическую область W, если верна соответствующая гипотеза Н.
Тогда требования к критической области можно записать следующим образом:
(10.1)
Из условия (3.1) следует, что критическую область нужно выбирать так, чтобы вероятность попадания в нее была бы минимальной (равной α), если верна нулевая гипотеза и максимальной в противоположном случае.
Границы критической области при заданном уровне α находят из соотношений:
при правосторонней критической области: Р(>qкр) = α; (10.2)
при левосторонней критической области: Р(<qкр) = α; (10.3)
при двусторонней критической области: Р(>qкр.пр) =;
Р(<qкр.лев) =. (10.4)
1. Выдвигается гипотеза Н0.
2. Задается величина уровня значимости критерия α. К стандартным значениям можно отнести величины α =0,1; 0,05; 0,025; 0,01; 0,005; 0,001. Особенно распространенной является величина уровня значимости α, равная 0,05. Она означает, что в среднем, в пяти случаях из ста выдвинутая гипотеза будет ошибочно отвергнута.
3. Задаются некоторым статистическим критерием, который в предположении справедливости выдвинутой гипотезы Н0 подчинен некоторому хорошо изученному (табулированному) закону распределения. Статистический критерий служит мерой расхождения имеющихся в распоряжении выборочных данных с проверяемой гипотезой Н0.
4. В зависимости от вида критической области (двусторонняя или односторонняя) по таблице плотности распределения статистического критерия находят 100(1-)% - ные точки распределения для двусторонней области или 100(1- α)% - ную точку распределения для односторонней области. Указанные токи разделяют всю область мыслимых значений на три части: область неправдоподобно малых, область неправдоподобно больших и правдоподобных значений. В терминах данных выше определений области неправдоподобно больших и неправдоподобно малых значений составляют критическую область. Область правдоподобных значений составляет область принятия гипотезы.
5. По имеющимся выборочным данным подсчитывают численное значение статистического критерия. Если вычисленное значение критерия принадлежит области правдоподобных значений (области принятия гипотезы), гипотеза Н0 считается не противоречащей выборочным данным.
К основным типам гипотез, проверяемых в ходе статистической обработки данных можно отнести следующие: гипотезы о числовых значениях параметров исследуемой генеральной совокупности; гипотезы об однородности двух или нескольких выборок или некоторых характеристик анализируемых совокупностей; гипотезы о типе закона распределения исследуемой случайной величины.
Проверка гипотезы о значении генеральной средней
Дисперсия генеральной совокупности известна.
Правило 1. Для того чтобы при заданном уровне значимости α проверить нулевую гипотезу Н0: μ= μ0 о равенстве генеральной средней μ гипотетическому значению μ0 при конкурирующей гипотезе Н1: μ μ0 , надо вычислить наблюдаемое значение критерия tн = (10.5)
и по таблице функции Лапласа найти критическую точку tкр двусторонней критической области из равенства Ф(tкр) = 1-α. (10.6)
Если < tкр нет оснований отвергнуть нулевую гипотезу. Если > tкр нулевую гипотезу отвергают.
Правило 2. При конкурирующей гипотезе Н1: μ> μ0 критическую точку правосторонней области находят из равенства Ф(tкр) = 1-2α. (10.7)
Если tн < tкр нет оснований отвергнуть нулевую гипотезу, если tн> tкр нулевую гипотезу отвергают.
Правило 3. При конкурирующей гипотезе Н1: μ< μ0 сначала находят вспомогательную критическую точку tкр по правилу 2, а затем полагают границу левосторонней критической области = - tкр. Если tн > -tкр нет оснований отвергнуть нулевую гипотезу, если tн<- tкр нулевую гипотезу отвергают.
Дисперсия генеральной совокупности неизвестна. В качестве критерия проверки нулевой гипотезы Н0: μ= μ0 используют выборочную характеристику
tн = . (10.8)
Величина tн имеет распределение Стьюдента с ν=n-1 степенями свободы.
Правило 1. Для того чтобы при заданном уровне значимости α проверить нулевую гипотезу о равенстве генеральной средней μ гипотетическому значению μ0 при конкурирующей гипотезе Н1: μ μ0, надо вычислить наблюдаемое значение критерия и по таблице распределения Стьюдента найти критическую точку tкр(α; ν), исходя из условия St(tкр; ν)=Р(>tкр)= α. (10.9)
Если < tкр(α; ν) нет оснований отвергнуть нулевую гипотезу. Если > tкр(α; ν) нулевую гипотезу отвергают.
Правило 2. При конкурирующей гипотезе Н1: μ> μ0 критическую точку правосторонней области находят из равенства St(tкр; ν)=Р(>tкр)= 2α. (10.10)
Если tн < tкр(2α; ν) нет оснований отвергнуть нулевую гипотезу. Если tн > tкр(2α; ν) нулевую гипотезу отвергают.
Правило 3. При конкурирующей Н1: μ< μ0 сначала находят вспомогательную критическую точку tкр по правилу 2, а затем полагают границу левосторонней критической области = - tкр. Если tн >- tкр(2α; ν) - нет оснований отвергнуть нулевую гипотезу, если tн<- tкр(2α; ν) нулевую гипотезу отвергают.
В качестве критерия проверки нулевой гипотезы Н0: σ2= σ02 принимают случайную величину , (10.11)
которая имеет распределение с ν=n-1 степенями свободы.
Правило 1. Если Н1:, то строят двустороннюю критическую область. Левую () и правую () границы критической области находят из условий:
Р(χ2>(1-; ν))=1-, (10.12)
Р(χ2>(1-; ν))=.
В этом случае правило проверки гипотезы сводится к следующему: если , то у нас нет основания отвергнуть гипотезу. Если же < или >, то гипотезу отвергают.
Правило 2. Если Н1: , то строят правостороннюю критическую область и находят из условия: Р(χ2>(α; ν))= α. (10.13)
Если >, то нулевую гипотезу отвергают, если же <, то нулевая гипотеза не противоречит опытным данным.
Правило 3. Если Н1: , то строят левостороннюю критическую область и находят из условия: Р(χ2>(1-α; ν))= 1-α. (10.14)
Если <, то нулевую гипотезу отвергают, если же , то нулевая гипотеза не отвергается.
Сравнение наблюдаемой относительной частоты с гипотетической
вероятностью появления события
Пусть по достаточно большому числу n независимых испытаний, в каждом из которых вероятность р появления события А постоянна, но неизвестна, найдена относительная частота . Требуется при заданном уровне значимости α проверить нулевую гипотезу Н0: р= р0.
Для проверки нулевой гипотезы используется статистика
tн = , (10.15)
при больших n (n>0), имеющей приближенно нормальное распределение.
Правило 1. При конкурирующей гипотезе Н1: рр0 критическую точку tкр двусторонней критической области находят из условия: Ф(tкр)= 1- α. (10.16)
Если < tкр нет оснований отвергнуть нулевую гипотезу, если > tкр - нулевую гипотезу отвергают.
Правило 2. При конкурирующей гипотезе Н1: р>р0 критическую точку tкр правосторонней критической области находят из условия: Ф(tкр)= 1- 2α. (10.17)
Если tн < tкр нет оснований отвергнуть нулевую гипотезу, если tн > tкр - нулевую гипотезу отвергают.
Правило 3. При конкурирующей гипотезе Н1: р<р0 находят критическую точку tкр по правилу 2, затем полагают границу левосторонней критической области = - tкр . Если tн >- tкр нет оснований отвергнуть нулевую гипотезу, если tн <- tкр - нулевую гипотезу отвергают.
При использовании вышеприведенных правил следует иметь ввиду, что удовлетворительные результаты обеспечивает выполнение неравенства np0q0 >9.
Сравнение двух средних нормальных генеральных совокупностей
Дисперсии генеральных совокупностей известны. Пусть X и Y - нормальные генеральные совокупности с известными дисперсиями ии неизвестными математическими ожиданиями μх и μу.
Из генеральных совокупностей взяты две независимые выборки объемом nх и nу. Пусть - средние арифметические выборочных совокупностей. Требуется проверить нулевую гипотезу Н0: μх= μу на уровне значимости α.
Для проверки нулевой гипотезы используется следующая статистика:
tн = , (10.17)
имеющая нормальное нормированное распределение с параметрами N(0;1)
Правило 1. При конкурирующей гипотезе Н1: μхμу критическую точку tкр двусторонней критической области находят из условия: Ф(tкр)=1- α. (10.18)
Если < tкр нет оснований отвергнуть нулевую гипотезу, если > tкр - нулевую гипотезу отвергают.
Правило 2. При конкурирующей гипотезе Н1: μх > μу критическую точку tкр правосторонней критической области находят из условия: Ф(tкр)=1- 2α. (10.19)
Если tн < tкр нет оснований отвергнуть нулевую гипотезу, если tн > tкр - нулевую гипотезу отвергают.
Правило 3. При конкурирующей гипотезе Н1: μх < μу находят критическую точку tкр по правилу 2, затем полагают границу левосторонней критической области = - tкр . Если tн >- tкр нет оснований отвергнуть нулевую гипотезу, если tн <- tкр - нулевую гипотезу отвергают.
Дисперсии генеральных совокупностей неизвестны. Для проверки нулевой гипотезы Н0: μх= μу на уровне значимости α используют статистику:
tн = , (10.20)
имеющую распределение Стьюдента с числом степеней свободы ν= nх+ nу 2.
Правило 1. При конкурирующей гипотезе Н1: μхμу критическую точку tкр(α;ν) двусторонней критической области находят из условия:
St(tкр; ν)=Р(>tкр)= α (10.21)
Если < tкр(α; ν) нет оснований отвергнуть нулевую гипотезу. Если > tкр(α; ν) нулевую гипотезу отвергают.
Правило 2. При конкурирующей гипотезе Н1: μх > μу критическую точку правосторонней области находят из равенства St(tкр; ν)=Р(>tкр)= 2α. (3.22)
Если tн < tкр(2α; ν) нет оснований отвергнуть нулевую гипотезу. Если tн > tкр(2α; ν) нулевую гипотезу отвергают.
Правило 3. При конкурирующей гипотезе Н1: μх < μу сначала находят вспомогательную критическую точку tкр по правилу 2, а затем полагают границу левосторонней критической области = - tкр. Если tн > -tкр(2α; ν) - нет оснований отвергнуть нулевую гипотезу, если tн< -tкр(2α; ν) нулевую гипотезу отвергают.
Проверка гипотезы о равенстве генеральных дисперсий двух нормальных совокупностей
Пусть X и Y генеральные совокупности, значения признаков которых распределены по нормальному закону с дисперсиями и. Из этих совокупностей взяты независимые случайные выборки объемом nх и nу , и пусть и , причем >. Требуется на заданном уровне значимости α проверить нулевую гипотезу Н0: = . Для проверки нулевой гипотезы используется статистика
Fн = , (10.23)
подчиняющаяся распределению Фишера-Снедекора (F-распределение) с ν1=nх1 и ν2= nу 1.
Правило 1. При конкурирующей гипотезе Н1: критическую точку Fкр двусторонней критической области находят из условия:
P (F> Fкр(α/2; ν1; ν2))= α/2. (10.24)
Если Fн < Fкр - нет оснований отвергнуть нулевую гипотезу, если Fн > Fкр - нулевую гипотезу отвергают.
Правило 2. При конкурирующей гипотезе Н1: > критическую точку Fкр двусторонней критической области находят из условия:
P (F> Fкр(α; ν1; ν2))= α. (10.25)
Если Fн < Fкр - нет оснований отвергнуть нулевую гипотезу, если Fн > Fкр - нулевую гипотезу отвергают.
Проверка гипотезы об однородности ряда дисперсий.
При сравнении более двух генеральных дисперсий применяют два наиболее часто употребляемых критерия: критерий Бартлета и критерий Кохрана.
Критерий Бартлета. Пусть генеральные совокупности Х1, Х2,…,Хl распределены нормально. Из этих совокупностей извлечены независимые выборки различных объемов ni . По выборкам найдены исправленные дисперсии ,,…,. Требуется на уровне значимости α проверить нулевую гипотезу:
Н0: ==….=.
В качестве выборочной характеристики используется статистика, предложенная Бартлетом: =, (10.26)
При >3 величина приближенно имеет распределение с ν= l-1 степенями свободы, где l - число выборок; -исправленная выборочная дисперсия i ой выборки; = - среднее значение исправленной дисперсии по всем l выборкам.
Правило. Для проверки нулевой гипотезы строят правостороннюю критическую область, границы которой находят по таблице распределения из условия: P (>(α; ν=l-1)= α. (10.27)
Если < - нет оснований отвергнуть нулевую гипотезу, если > - нулевую гипотезу отвергают.
Критерий Кохрана. Данный критерий применяется для проверки на уровне значимости α нулевой гипотезы Н0: ==….=по выборкам разных объемов ni. В качестве выборочной характеристики используется статистика, предложенная Кохраном: G=, (10.28)
имеющая G распределение с числом степеней свободы ν1= n 1 и ν2= l, где l число сравниваемых совокупностей.
Для проверки нулевой гипотезы строят правостороннюю критическую область, границу которой Gкр определяют по таблице G распределения, исходя из условия:
P (Gн > Gкр (α; ν))= α. (10.29)
Если Gн < Gкр - то нулевая гипотеза не отвергается.
Пусть Х1, Х2,…,Хl - l генеральных совокупностей, каждая из которых характеризуется неизвестным параметром Рi , где Рi - вероятность появления события А в соответствующей выборке. Требуется на уровне значимости α проверить нулевую гипотезу Н0: р1= p2 =… = pl .
Для проверки гипотезы используется статистика
= , (10.30)
которая имеет асимптотическое распределение с ν= l-1 степенями свободы, l - число выборок;
где = - частость появления события А в iой выборке;
- частота появления события А в iой выборке;
- объем iой выборки;
= частость появления события А во всех выборках;
=(1-) частость появления события , противоположного событию A, во всех выборках.
Для проверки нулевой гипотезы строят правостороннюю критическую область, границу которой определяют из условия: P (>(α; ν))= α. (10.31)
Если < - нет оснований отвергнуть нулевую гипотезу, если > - нулевую гипотезу отвергают.
Проверка гипотез о виде законов распределения генеральной совокупности осуществляется с помощью критериев согласия.
Критерием согласия называется статистический критерий, предназначенный для проверки гипотезы Н0 о том, что ряд наблюдений х1, х2,…хn образует случайную выборку, извлеченную из генеральной совокупности Х с функцией распределения F(x)=F(x;θ1; θ2;… θk), где общий вид функции F(x) считается заданным, а параметры θ1; θ2;… θk , от которых она зависит могут быть, как известными, так и неизвестными. Критерии согласия основаны на использовании различных мер расстояний между анализируемой эмпирической функцией распределения Fn(x), определяемой по выборке, и функцией распределения F (x) генеральной совокупности Х.
Математически, нулевую гипотезу можно записать в следующем виде:
Н0: =р1, = р2, = рl,
- относительная частота i-го интервала вариационного ряда или i-го варианта, принимаемого случайной величиной Х;
рl вероятность попадания случайной величины в i-тый интервала или вероятность того, что дискретная величина примет i-тое значение (Х=хi).
Критерий Пирсона (критерий - ) имеет наибольшее применение при проверке согласования теоретической и эмпирической функций распределения.
Процедура проверки статистической гипотезы о виде распределения с помощью критерия согласия Пирсона состоит из следующих этапов.
1. Весь диапазон значений исследуемой случайной величины разбивается на ряд интервалов группирования Δ1, Δ2, …,Δl, необязательно одинаковой длины.
2. Подсчитывается число точек, попавших в каждый из интервалов группирования Δi .
3. На основе сгруппированных данных вычисляются оценки k неизвестных параметров распределения θ k.
4. Вычисляется вероятность рi попадания случайной величины Х в каждый из интервалов группирования Δi.
5. Вычисляется наблюдаемое значение статистики критерия
=, (10.32)
сравнивается с табличным значением , найденным для уровня значимости α и числа степеней свободы ν = l-k-1, где l - число интервалов, k число параметров, которыми определяется функция распределения.
Если , то гипотеза о том, что генеральная совокупность Х подчиняется закону распределения F (x) принимается.
В случае нормального закона распределения вероятность попадания случайной величины Х в соответствующие интервалы вычисляется по интегральной теореме Лапласа: рi = Р(аi<x<bi) =, (10.33)
где t1i = , t2i = ; аi ,bi нижняя и верхняя граница соответствующего интервала i.
11 Анализ статистической связи
Корреляционный анализ является методом исследования взаимозависимости признаков в генеральной совокупности. Основная задача корреляционного анализа состоит в оценке корреляционной матрицы генеральной совокупности по выборке и определении на ее основе оценок коэффициентов корреляции.
В рамках реализации статистических процедур корреляционного анализа необходимо: выбрать (с учетом специфики и природы анализируемых переменных) подходящий измеритель статистической связи (коэффициент корреляции, корреляционное отношение, ранговый); оценить с помощью точечной и интервальной оценок его числовое значение по выборочным данным; проверить гипотезу о том, что полученное числовое значение анализируемого измерителя связи действительно свидетельствует о наличии статистической связи.
Парная корреляция занимается изучением характеристик взаимосвязи двух случайных величин. Корреляционная зависимость двух случайных величин задается моделью X=X(Y,Z) и Y= Y(Х,Z), где Z набор внешних случайных факторов.
Основой получения этих характеристик служит совместное распределение случайных величин F(x,y) = P.
Плотность двумерного нормального закона распределения определяется пятью параметрами: - математическое ожидание Х; - математическое ожидание Y; - дисперсия Х; - дисперсия Y; - парный коэффициент корреляции между Х и Y.
Парный коэффициент корреляции характеризует тесноту линейной связи между двумя переменными. Выборочное значение парного коэффициента корреляции ρ подсчитывается по исходным статистическим данным по формуле:
. (11.1)
Коэффициент корреляции не имеет размерности и изменяется в диапазоне
-1 ρ+1. Положительность коэффициента корреляции означает одинаковый характер тенденции взаимосвязанного изменения случайных величин Х и Y: с увеличением Х наблюдается тенденция увеличения соответствующих индивидуальных значений Y. Отрицательное значение говорит о противоположной тенденции взаимосвязанного изменения случайных величин Х и Y. Если ρ=0, можно сделать вывод, что линейная связь между Х и Y отсутствует. Однако это не означает, что Х и Y статистически независимы, так как не отрицается возможность существования нелинейной связи между Х и Y. Значение ρ=говорит о функциональном характере связи между Х и Y.
В рамках корреляционного анализа можно построить линии условных математических ожиданий (линий регрессии у по х и х по у)
у(х)=М(Y/X=x), x(y)=М(X/Y=y) ; (11.2)
а также линии условных дисперсий, которые характеризует, насколько точно линии регрессии передают изменение одной случайной величины при изменении другой,
= М, (11.3)
= М.
Точные (или приближенные) прямолинейные регрессии
y(x) = , x(y) = (11.4)
задаются следующими коэффициентами:
;, (11.5)
,.
Если случайные величины Х и Y независимы, ρ=0 , то все условные математические ожидания и дисперсии не зависят от фиксированного значения другой случайной величины и совпадают с безусловными.
Стоит отметить, что выборочные коэффициенты корреляции могут быть формально вычислены для любой двумерной системы наблюдений.
Для проверки значимости парного коэффициента корреляции выдвигается гипотеза Н0: ρ=0. При проверки нулевой гипотезы используется статистика:
, (11.6)
имеющая распределение Стьдента с ν=n-2 числом степеней свободы.
Если <, нулевая гипотеза не отвергается, следовательно, случайные величины Х и Y независимы. Если >, коэффициент корреляции считается значимым.
На практике для проверки нулевой гипотезы пользуются также распределением Фишера-Йетса. На уровне значимости α по таблице распределения Фишера-Йетса находят (α, ν=n-2). Если , гипотеза отвергается, коэффициент корреляции считается значимым. - взятое по модулю значение выборочного коэффициента корреляции.
Для значимых параметров связи можно построить интервальную оценку.
При определении границ доверительного интервала коэффициента корреляции ρ используется преобразование Фишера: . (11.7)
Предварительно устанавливают интервальную оценку для из условия:
Р() ==Ф(), (11.8)
где находят по таблице интегральной функции Лапласа для данного уровня .
Получив доверительный интервал для , , при помощи таблицы z- преобразования Фишера делают обратный переход от и к и . Таким образом окончательно получаем:.
При выборе и следует учитывать нечетность z- функции.
Трехмерная корреляционная модель является частным случаем множественной корреляционной модели. На примере анализа трехмерной корреляционной модели удобно показать все свойства множественной корреляции. Трехмерная нормально распределенная генеральная совокупность, образуемая тремя признаками X, Y, Z, определяется девятью параметрами: тремя математическими ожиданиями, тремя дисперсиями и тремя парными коэффициентами корреляции:
,, - математические ожидания Х, Y и Z соответственно;
,, - дисперсии Х, Y и Z соответственно;
- парный коэффициент корреляции между Х и Y ,
- парный коэффициент корреляции между Х и Z ,
- парный коэффициент корреляции между Z и Y .
При изучении корреляционной зависимости между более чем двумя случайными величинами с заданным совместным многомерным распределением используют множественные и частные коэффициенты корреляции.
Частный коэффициент корреляции это мера линейной зависимости между двумя случайными величинами из некоторой совокупности Х1, Х2,…,Хn, когда исключено влияние остальных случайных величин. Частный коэффициент корреляции обладает всеми свойствами парного коэффициента корреляции. В общем случае частный коэффициент корреляции выражается через элементы корреляционной матрицы R =, составленной из коэффициентов парной корреляции.
В рамках простой трехмерной корреляционной модели могут быть рассчитаны три частных коэффициента корреляции:
; ; . (11.9)
Для проверки значимости частного коэффициента корреляции выдвигается гипотеза Н0: =0. При проверки нулевой гипотезы используется статистика:
, (11.10)
имеющая распределение Стьюдента с ν=n-3 числом степеней свободы.
Если <, нулевая гипотеза не отвергается, следовательно, случайные величины Х и Y независимы. Если >, коэффициент корреляции считается значимым.
Как и в случае парной корреляции на практике для проверки нулевой гипотезы чаще пользуются распределением Фишера-Йейтса. На уровне значимости α по таблице распределения Фишера-Йейтса находят (α, ν=n-3). Если , гипотеза отвергается, частный коэффициент корреляции считается значимым. - взятое по модулю значение выборочного частного коэффициента корреляции.
При определении границ доверительного интервала коэффициента корреляции ρ используется преобразование Фишера: (11.11)
Предварительно устанавливают интервальную оценку для из условия:
Р() ==Ф(), (11.12)
где находят по таблице интегральной функции Лапласа для данного уровня .
Получив доверительный интервал для , , при помощи таблицы z- преобразования Фишера делают обратный переход от и к и . Таким образом окончательно получаем:.
Множественный коэффициент корреляции R служит мерой линейной зависимости между случайной величиной Х1 и набором случайных величин Х2,…,Хn. В общем случае множественные коэффициенты корреляции выражаются через элементы корреляционной матрицы. Для трехмерной модели может быть рассчитано три множественных коэффициента корреляции:
;
; (11.13)
.
Множественный коэффициент корреляции изменяется в диапазоне 0R+1. Если, например, = 1, то связь между случайной величиной Х и двумерной случайной величиной (Х,Z) является функциональной; если = 0, то случайная величина Х и двумерная случайная величина (Х,Z) независимы.
Множественный коэффициент детерминации показывает долю дисперсии случайной величины Х1, обусловленную влиянием остальных факторов Х2,…,Хn, входящих в многомерную модель. Множественный коэффициент детерминации может увеличиваться при введении в модель дополнительных признаков и не увеличиваться при исключении некоторых признаков из модели. Для двухмерной корреляционной модели коэффициент детерминации равен квадрату парного коэффициента корреляции.
При проверке значимости множественного коэффициента корреляции (множественного коэффициента детерминации) выдвигается гипотеза Н0: =0 (или=0 ). При проверке нулевой гипотезы используется статистика:
, (11.14)
имеющая распределение Фишера-Снедекора с числом степеней свободы =2 и n-2.
Если (α,,), нулевая гипотеза отвергается, следовательно, множественный коэффициент корреляции (множественный коэффициент детерминации) считается значимым.
Корреляционное отношение. Как уже отмечалось выше коэффициент корреляции является адекватной мерой статистической взаимозависимости только в случае линейного характера связи между признаками. Для изучения связи между признаками, выражаемой нелинейной функцией, применяется более общий показатель тесноты связи корреляционное отношение. В теории статистики разработан специальный критерий оценки нелинейности связи между двумя переменными:
, (11.15)
где - корреляционное отношение между X и Y,
- коэффициент корреляции между X и Y.
Если >2,5, то корреляционную связь можно считать нелинейной.
Использование корреляционного отношения основано на разложении общей дисперсии зависимой переменной на составляющие: дисперсию, характеризующую влияние объясняющей переменной, и дисперсию, характеризующую влияние неучтенных факторов:
, (11.16)
где - общая дисперсия зависимой переменной,
- дисперсия функции регрессии относительно среднего значения зависимой переменной, характеризующая влияние объясняющей переменной.
- остаточная дисперсия.
Корреляционное отношение определяется по формуле:
= (11.17)
Корреляционное отношение не имеет размерности и изменяется в диапазоне 0 +1.
Для проверки значимости корреляционного отношения выдвигается гипотеза Н0: =0. При проверке нулевой гипотезы используется статистика:
, (11.18)
которая имеет распределение Стьюдента с числом степеней свободы ν=n-2. Если <, нулевая гипотеза не отвергается, следовательно, случайные величины Х и Y независимы. Если >, коэффициент корреляции считается значимым.
Доверительный интервал имеет вид: , (11.19)
где находят по таблице интегральной функции Лапласа для данного уровня .
Ранговая корреляция. Для изучения взаимосвязи признаков, не поддающихся количественному измерению, используются различные показатели ранговой корреляции. Под ранговой корреляцией понимается статистическая связь между порядковыми переменными. В статистической практике эта связь анализируется на основании исходных статистических данных, представленных упорядочениями (ранжировками) n рассматриваемых объектов. Методы ранговой корреляции широко используются, в частности, при организации и статистической обработке различного рода систем экспертных обследований.
Для измерения тесноты связи между порядковыми переменными используются различные показатели, такие как коэффициент Спирмена, коэффициент Кэнделла, коэффициенты конкордации, ассоциации, контингенции.
Рассмотрим пример расчета рангового коэффициента корреляции Спирмена.
, (11.20)
где - разность значений рангов, расположенных в двух рядах у одного и того же объекта.
Если два ряда полностью совпадают, то =0, и следовательно, =1. При полной обратной связи ранги двух рядов расположены в обратном порядке и =-1. При отсутствии корреляции между рангами =0.
Для проверки значимости рангового коэффициента корреляции Спирмена выдвигается гипотеза Н0: =0. При проверке нулевой гипотезы вычисляется критическая точка:
, (11.21)
где определяется по таблице распределения Стьюдента для уровня значимости α и числа степеней свободы ν=n-2. Если нулевая гипотеза не отвергается, следовательно, случайные величины Х и Y независимы. В противном случае ранговый коэффициент корреляции считается значимым.
Регрессионный анализ статистический метод исследования зависимости случайной величины Y от переменных Х1, Х2,…,Хm , рассматриваемых как неслучайные величины, независимо от истинного закона распределения Хi .
Регрессия функция f(Х1, Х2,…,Хm), описывающая зависимость условного математического ожидания зависимой переменной Y (вычисленного при условии, что независимые переменные зафиксированы на уровнях Х1, Х2,…, Хm) от заданных фиксированных значений независимых переменных.
В рамках регрессионного анализа решаются следующие задачи: выбор математической модели, описывающей изучаемый процесс; отбор наиболее информативных объясняющих переменных (регрессоров); вычисление оценок для неизвестных значений параметров, участвующих в записи уравнения искомой зависимости; анализ точности полученного уравнения связи.
Выбор конкретной формы уравнения регрессии зависит от экономической сущности изучаемого явления или процесса. На практике чаще всего встречаются следующие виды уравнений регрессии:
1) - двумерное линейное;
2) - многомерной линейное;
3) - полиномиальное;
4) - гиперболическое;
5) - степенное.
Так как аппарат исследования линейных функций разработан наиболее полно, на практике чаще всего прибегают к линейному преобразованию (линеаризации) степенных, полиномиальных, гиперболических, а также любых других нелинейных функций, поддающихся такому преобразованию. Например, степенное регрессионное уравнение может быть приведено к линейной форме путем логарифмирования:
,
и далее
,
где = lg, = lg, =.
Общая модель линейной относительно оцениваемых параметров регрессии может быть представлена следующим образом:
+ε,
где - некоторая функция переменных ,
- неизвестные параметры уравнения регрессии, которые необходимо оценить по выборочным данным,
- случайное слагаемое или ошибка модели (возмущение), с нулевым математическим ожиданием и дисперсией .
Для оценки неизвестных параметров модели используются уже описанные выше статистические методы оценивания: метод максимального правдоподобия (ММП), метод наименьших квадратов (ММП) и метод моментов. В теории регрессионного анализа доказывается, что ММП и МНКоценки являются наилучшими линейными оценками неизвестных параметров уравнения регрессии, обладающими свойствами несмещенности и эффективности.
Ввиду относительной простоты реализации в практических приложениях чаще всего используется метод наименьших квадратов. Для получения несмещенных и эффективных МНК-оценок неизвестных параметров необходимо выполнение некоторых предпосылок, касающихся как всего уравнения в целом, так и его отдельных составляющих.
Основные предпосылки формулируются следующим образом:
1. Объем наблюдений n больше числа оцениваемых параметров m.
2. Между объясняющими переменными не должно существовать строгой линейной зависимости, т.е. предполагается отсутствие мультиколлинеарности.
3. Зависимая переменная Y и объясняющие параметры Хi распределены нормально.
4. Регрессоры являются неслучайными величинами.
5. При построении функции регрессии предполагается, что результативный признак Y зависит только от объясняющих переменных Хi, которые включены в регрессию. Таким образом, предполагается, что на переменную Y не оказывают влияния никакие другие систематически действующие факторы. Суммарный эффект от воздействия на зависимую переменную неучтенных факторов учитывается возмущающей переменной ε. При этом предполагается, что математическое ожидание возмущающей переменной ε равно .
6. Объясняющие переменные не коррелируют с возмущающей переменной ε, т.е. =0. Отсюда следует, что переменные Хi объясняют переменную Y, а переменная Y не объясняет переменные Хi.
7. Распределение возмущающей переменной подчиняется нормальному закону распределения.
8. Возмущаюшая переменная ε имеет постоянную дисперсию . Это свойство возмущающей переменной называется гомоскедастичностью.
9. Значения возмущающей переменной ε попарно некоррелированы, т.е. для s≠0. Иначе это свойство называется отсутствием автокорреляции возмущающей переменной ε.
Для нахождения оценок неизвестных параметров и двумерного линейного уравнения регрессии используется метод наименьших квадратов. В соответствии с МНК оценки и можно получить из условия минимизации суммы квадратов ошибок оцениваемых параметров, т.е. суммой квадратов отклонений фактических значений зависимой переменной от ее расчетных значений, полученных на основе уравнения регрессии:
, (11.22)
где и - оценки неизвестных параметров и соответственно;
- расчетные значения зависимой переменной .
Разность называется остатком и дает количественную оценку воздействия возмущающей переменной ε.
Дифференцируя функционал S по и и приравнивая нулю частные производные, получаем следующую систему уравнений:
(11.23)
После соответствующих преобразований имеем:
(11.24)
Решив данную систему относительнои , окончательно получим:
; (11.25)
. (11.26)
Свободный член уравнения регрессии определяет точку пересечения линии регрессии с осью ординат. является средним значением Y в точке Х=0 и задает масштаб изменения зависимой переменной Y. Коэффициент имеет размерность зависимой переменной. Его экономическая интерпретация очень затруднительна или вообще невозможна. Коэффициент показывает среднюю величину изменения зависимой переменной Y при изменении объясняющей переменной Х на одну единицу своего измерения. Знак при показывает направление изменения. При положительном коэффициенте регрессии увеличение значений объясняющей переменной ведет к увеличению значений зависимой переменной. При отрицательном коэффициенте увеличение значений объясняющей переменной ведет к убыванию значений зависимой переменной.
После нахождения оценок и неизвестных параметров и необходимо осуществить проверку значимости параметров регрессии и всего уравнения в целом, а также построить доверительные интервалы для оцениваемых параметров и интервал прогнозирования для независимой переменной.
Для проверки значимости уравнения регрессии в случае двумерной модели выдвигается гипотеза Н0: =0. В основе проверки лежит идея дисперсионного анализа, состоящая в разложении дисперсии на составляющие. Общая сумма Sобщ квадратов отклонений зависимой переменной разлагается на сумму квадратов SR отклонений, обусловленных регрессией, которая характеризует воздействие объясняющей переменной, и сумму квадратов Sост отклонений относительно плоскости регрессии, характеризующую воздействие неучтенных в модели факторов.
Sобщ = SR + Sост, (11.27)
где Sобщ = ; SR = ; Sост .
Проверка гипотеза основана на критерии , (11.28)
имеющем распределение Фишера-Снедекора.
Нулевая гипотеза отвергается, если оказывается больше, чем значение , найденное для уровня значимости α и числа степеней свободы =2 и n-2. В противном случае гипотеза принимается.
Стоит отметить, что только для частного случая двумерной модели проверка значимости уравнения регрессии фактически сводится к проверке значимости единственного коэффициента регрессии (проверка значимости свободного члена, как правило, не проводится). В случае же многомерной модели, необходимо проверять как значимость отдельных коэффициентов, так и всего уравнения.
Используя значение Sост, можно получить оценку остаточной дисперсии по формуле: . (11.29)
Остаточная дисперсия является одной из важных характеристик качества регрессионной модели. Чем меньше значение , тем ближе расчетные значения к фактическим, и, следовательно, тем точнее модель описывает изучаемый процесс.
Еще одним важным показателем качества регрессионной модели является коэффициент детерминации, который для двухмерной рассчитывается по формуле:
. (11.30)
Если уравнение регрессии значимо, то представляет интерес определение с надежностью γ доверительных интервалов для ,и .
; (11.31)
; (11.32)
. (11.33)
где определяется по таблице распределения Стьюдента для уровня значимости α=1-γ и числа степеней свободы =2; - заданное значение Х, для которого находится интервальная оценка параметра .
Доверительную оценку для интервала предсказания в точке Х= х0 определяют из условия , (11.34)
где определяется по таблице распределения Стьюдента для уровня значимости α=1-γ и числа степеней свободы =n-2.
На практике для сравнительного анализа влияния разных факторов, входящих в регрессионную модель, используют коэффициенты эластичности и стандартизованные - коэффициенты. Их применение помогает устранить различие в единицах измерения объясняющих переменных. В многомерных моделях с большим количеством регрессоров с помощью данных коэффициентов можно ранжировать объясняющие переменные по степени их относительного влияния на зависимую переменную.
Коэффициент эластичности вычисляется по формуле: . (11.35)
и показывает, на сколько процентов в среднем изменится результативный признак, если факторный признак (объясняющая переменная) увеличится на один процент при условии, что все другие факторные признаки равны своим средним значениям.
Стандартизованные коэффициенты помогают устранить различия в степени колеблемости объясняющих переменных: = . (11.36)
Величина показывает, на сколько среднеквадратических отклонений изменится зависимая переменная при изменении объясняющей переменной на одно среднеквадратическое отклонение.
Множественная линейная модель. Для оценки неизвестных параметров линейной многомерной модели методом наименьших квадратов используется аппарат матричной алгебры.
В матричной форме уравнение имеет вид ,
где - вектор-столбец наблюдений размерности n;
- матрица факторных признаков размерности (n(m+1));
- вектор неизвестных параметров размерности (m+1).
Оценка наименьших квадратов вектора имеет вид
, (11.37)
где - вектор-столбец оценок размерности (m+1);
- транспонированная матрица Х;
- матрица, обратная матрице .
Вектор является несмещенной оценкой , т.е. .
Дисперсия оценки определяется из выражения
, (11.38)
где - диагональной элемент матрицы , соответствующий l-строке и l-столбцу, l= +1.
Значимость уравнения регрессии, т.е. гипотеза , проверяется с помощью критерия, основанного на статистике: , (11.39)
имеющей распределение Фишера-Снедекора с числом степеней свободы =m+1 и n m 1,
где - сумма квадратов отклонений, обусловленных регрессией;
- сумма квадратов отклонений, характеризующая воздействие неучтенных в модели факторов.
Нулевая гипотеза отвергается, если оказывается больше чем , найденное для уровня значимости α и числа степеней свободы и . В противном случае гипотеза принимается.
Значимость отдельных коэффициентов можно проверить с помощью критерия, основанного на статистике
, где =, (11.40)
имеющей распределение Фишера-Снедекора с числом степеней свободы = и n m 1.
Доверительный интервал для параметра имеет вид: , (11.41)
где определяется по таблице распределения Стьюдента для уровня значимости α=1-γ и числа степеней свободы = n m 1.
Интервальная оценка для в точке, определяемой вектором начальных условий, равна
, (11.42)
где определяется по таблице распределения Стьюдента для уровня значимости α=1-γ и числа степеней свободы = n m 1.
Доверительная оценка для интервала предсказания определяется как
, (11.43)
где определяется по таблице распределения Стьюдента для уровня значимости α=1-γ и числа степеней свободы = n m 1.
12 Корреляционный анализ
Многомерный статистический анализ раздел математической статистики, посвященный математическим методам построения оптимальных планов сбора, систематизации и обработки многомерных статистических данных, направленным на выявление характера и структуры взаимосвязей между компонентами исследуемого многомерного признака и предназначенным для получения научных и практических выводов. Под многомерным признаком понимается р-мерный вектор признаков, среди которых могут быть количественные, порядковые и классификационные. Результаты измерения этих показателей на каждом из n объектов исследуемой совокупности образуют последовательность многомерных наблюдений, или исходный массив многомерных данных для проведения многомерного статистического анализа. В рамках многомерного статистического анализа многомерный признак х интерпретируется как многомерная случайная величина, и соответственно, последовательность многомерных наблюдений как выборка из генеральной совокупности.
К основным методам многомерного статистического анализа можно отнести кластерный анализ, дискриминантный анализ, компонентный анализ, факторный анализ и метод канонических корреляций. Данные методы имеют достаточно сложный математический аппарат и обычно являются частью статистических пакетов прикладных программ.
Кластерный анализ это совокупность методов классификации многомерных наблюдений или объектов, основанных на определении понятия расстояния между объектами с последующим выделением из них групп, «сгустков» наблюдений (кластеров, таксонов). При этом не требуется априорной информации о распределении генеральной совокупности. Выбор конкретного метода кластерного анализа зависит от цели классификации. Кластерный анализ используется при исследовании структуры совокупностей социально-экономических показателей или объектов: предприятий, регионов, социологических анкет и т.д.
От матрицы исходных данных (12.1)
переходим к матрице нормированных значений Z c элементами , (12.2)
где j =1,2,…,k номер показателя, i=1,2,…,n номер наблюдения;
==. (12.3)
В качестве расстояния между двумя наблюдениями и используют «взвешенное» евклидово расстояние, определяемое по формуле:
, где -«вес» показателя; .
Если =1 для всех l=1,2,.k, то получаем обычное евклидово расстояние:
(12.4)
Полученные значения удобно представить в виде матрицы расстояний
(12.5)
Так как матрица R симметрическая, т.е. , то достаточно ограничиться записью наддиагональных элементов матрицы.
Используя матрицу расстояний, можно реализовать агломеративную иерархическую процедуру кластерного анализа. Расстояния между кластерами определяют по принципу «ближайшего соседа» или «дальнего соседа». В первом случае за расстояние между кластерами принимают расстояние между ближайшими элементами этих кластеров, а во втором- между наиболее удаленными друг от друга.
Принцип работы иерархических агломеративных процедур состоит в последовательном объединении групп элементов сначала самых близких, а затем все более отдаленных друг от друга. На первом шаге алгоритма каждое наблюдение , , рассматривается как отдельный кластер. В дальнейшем на каждом шаге работы алгоритма происходит объединение двух самых близких кластеров, и вновь строится матрица расстояний, размерность которой снижается на единицу.
Компонентный анализ предназначен для преобразования системы k исходных признаков в систему k новых показателей (главных компонент). Главные компоненты не коррелированны между собой и упорядочены по величине их дисперсий, причем первая главная компонента имеет наибольшую дисперсию, а последняя, k я, - наименьшую.
В задачах снижения размерности и классификации обычно используется m первых компонент (). При наличии результативного показателя Y может быть построено уравнение регрессии на главных компонентах.
Для простоты изложения алгоритма ограничимся случаем трех переменных.
На основании матрицы исходных данных
, (12.6)
вычисляем оценки параметров распределения трехмерной генеральной совокупности , , , где =; ;
; . (12.7)
Получаем оценку матрицы парных коэффициентов корреляции: .
Преобразуем матрицу R в диагональную матрицу собственных значений характеристического многочлена .
Характеристический многочлен имеет вид
= =, (12.8)
где E единичная матрица.
Приняв , получим неполное кубическое уравнение , (12.9)
где , .
Решая это уравнение и учитывая выполнение неравенства <0, получим: , , (12.10)
где . (12.11)
Отсюда получаем собственные значения , причем и матрицу собственных значений . (12.12)
Собственные значения характеризуют вклады соответствующих главных компонент в суммарную дисперсию исходных признаков . Таким образом, первая главная компонента оказывает наибольшее влияние на общую вариацию, а третья наименьшее. При этом должно выполняться равенство . Вклад l-й главной компоненты в суммарную дисперсию определяется по формуле .
Найдем теперь матрицу преобразования V - ортогональную матрицу, составленную из собственных векторов матрицы R. Собственный вектор , отвечающий собственному числу , находим как отличное от нуля решение уравнения . Так как определитель =0, то можно считать, что третья строка есть линейная комбинация первых двух строк. Составим два уравнения
(12.13)
Примем и получим решение системы двух уравнений с двумя неизвестными.
(12.14)
Тогда окончательно собственный вектор имеет вид
для j=1,2,3. (12.15)
Находим норму вектора . Тогда матрица V, составленная из нормированных векторов , (12.16)
имеет вид (12.17)
и является ортогональной .
Матрица факторных нагрузок получается по формуле
, (12.18)
где - диагональная матрица: (12.19)
Таким образом, нагрузка l-й главной компоненты на j-ю переменную вычисляется по формуле: ; j =1,2,3; l=1,2,3.
Элемент матрицы факторных нагрузок есть коэффициент корреляции, который измеряет тесноту связи между l-й главной компонентой и -м признаком . При этом имеет место соотношение: .
Матрица факторных нагрузок A используется для экономической интерпретации главных компонент, которые представляют собой линейный функции исходных признаков. Значения главных компонент для каждого i-объекта задаются матрицей F. Матрицу значений главных компонент можно получить по формуле:
, где (12.20)
Z- матрица нормированных значений наблюдаемых переменных размером .
Таким образом, значения главных компонент получаем из выражения
, (12.21)
где , ; l=1,2,3.
Полученные главные компоненты позволяют классифицировать множество исходных признаков на группы, обобщающими показателями которых и являются главные компоненты. В силу ортогональности (независимости) главные компоненты удобны для построения на них уравнения регрессии ввиду отсутствия мультиколлинеарности главных компонент. Для построения уравнения регрессии на главных компонентах в качестве исходных данных следует взять вектор наблюдаемых значений результативного признака y и вместо матрицы значений исходных показателей X матрицу вычисленных значений главных компонент F.
PAGE \* MERGEFORMAT 124