Поможем написать учебную работу
Если у вас возникли сложности с курсовой, контрольной, дипломной, рефератом, отчетом по практике, научно-исследовательской и любой другой работой - мы готовы помочь.
Если у вас возникли сложности с курсовой, контрольной, дипломной, рефератом, отчетом по практике, научно-исследовательской и любой другой работой - мы готовы помочь.
ТЕОРИЯ ВЕРОЯТНОСТЕЙ
И МАТЕМАТИЧЕСКАЯ СТАТИСТИКА.
Краткие методические указания
и задания к контрольной работе
2013г.
ОБЩИЕ МЕТОДИЧЕСКИЕ УКАЗАНИЯ
Необходимость освоения будущими бакалаврами экономики теории вероятностей и математической статистики продиктована широким использованием математических методов в современной экономической практике. Полученные математические знания делают возможным изучение прикладных и экономических наук, грамотное общение с компьютером.
Теоретический материал приведен только тот и в том объеме, который необходим для решения предлагаемых в лабораторной работе задач. Каждая тема иллюстрирована большим количеством примеров, контрольная работа снабжена образцом ее выполнения.
Лабораторная работа должна быть выполнена в срок (по графику учебного процесса до начала экзаменационной сессии) и оформлена в тетради в клетку. Титульный лист оформляется согласно приложению 4.
При выполнении лабораторной работы студент должен придерживаться следующих требований:
Перед решением заданий лабораторной работы рекомендуется ознакомиться со всеми примерами, рассмотренными в данной работе. По каждому заданию лабораторной работы в методических указаниях приводится основной теоретический материал и разбирается несколько типовых примеров.
Содержание
[1] ПРЕДМЕТ ТЕОРИИ ВЕРОЯТНОСТЕЙ И МАТЕМАТИЧЕСКОЙ СТАТИСТИКИ [2] СЛУЧАЙНЫЕ СОБЫТИЯ [3] СЛУЧАЙНЫЕ ВЕЛИЧИНЫ |
Теория вероятностей это математическая дисциплина, изучающая закономерности массовых случайных явлений.
Теория вероятностей не может предсказать результат отдельного опыта со случайными исходами, но она достаточно надежно предсказывает результат большого числа таких опытов.
Основными объектами изучения в теории вероятностей являются случайные события и случайные величины.
Случайное событие это качественное понятие. Событие либо происходит, либо не происходит. Случайная величина понятие количественное: в результате опыта случайная величина принимает одно из множества своих возможных значений.
Не все случайные явления (эксперименты) можно изучать методами теории вероятностей, а лишь те, которые могут быть воспроизведены в одних и тех же условиях. Случайность и хаос не одно и то же. Оказывается, что и в случайных экспериментах наблюдаются некоторые закономерности, например, свойство статистической устойчивости: доля экспериментов, в которых рассматриваемое событие произошло, имеет тенденцию стабилизироваться с ростом общего числа экспериментов, приближаясь к некоторому числу. Это число служит объективной характеристикой степени возможности событию произойти.
Математической статистикой называется раздел прикладной математики, изучающий методы сбора, обработки и анализа статистических данных для научных и практических целей. Математическая статистика занимается изучением закономерностей, которым подчиняются массовые явления, на основе результатов наблюдений.
Предметом исследования в математической статистике является совокупность объектов, однородных относительно некоторых признаков, например, мальчики 12 лет г.Томска; бегуны мастера спорта России.
Приведем примеры применения теории вероятностей и математической статистики.
Пример 1.1. Из разговора заводских менеджеров: «мастерская дает двадцать три процента брака». Одна единица продукции не может быть дефектна на 23%. Она может быть либо годной, либо дефектной. Видимо, имеется в виду, что в партии большого объема содержится примерно 23% дефектных единиц продукции. Тогда возникает вопрос, а что значит «примерно»? Если из 100 проверенных единиц продукции 30 окажутся дефектными, или из 1000 300, или из 100000 30000 и т.д., то как оценить это «примерно»?
Пример 1.2. Контроль качества любой продукции. Чтобы решить, соответствует или не соответствует контролируемая партия продукции установленным требованиям, из нее отбирается выборка. По результатам контроля выборки делается заключение о всей партии. В этом случае очень важно избежать субъективизма при формировании выборки, т.е. необходимо, чтобы каждая единица продукции в контролируемой партии имела одинаковую вероятность быть отобранной в выборку. В производственных условиях отбор единиц продукции в выборку обычно осуществляют не с помощью жребия, а по специальным таблицам случайных чисел или с помощью компьютерных датчиков случайных чисел.
Похожие проблемы обеспечения объективности сравнения возникают при сопоставлении различных схем организации производства, оплаты труда, при проведении тендеров и конкурсов, подбора кандидатов на вакантные должности и т.п. Всюду нужна жеребьевка или подобные ей процедуры.
Пример 1.3. При любом измерении единиц продукции (с помощью штангенциркуля, микрометра, амперметра и т.п.) имеются погрешности. Чтобы выяснить, есть ли систематические погрешности, необходимо сделать многократные измерения единицы продукции, характеристики которой известны (например, стандартного образца). При этом следует помнить, что кроме систематической погрешности присутствует и случайная погрешность.
Поэтому встает вопрос, как по результатам измерений узнать, есть ли систематическая погрешность. Если отмечать только, является ли полученная при очередном измерении погрешность положительной или отрицательной, то, сопоставив измерение с бросанием монеты (положительную погрешность с выпадением герба, отрицательную решетки (нулевая погрешность при достаточном числе делений шкалы практически никогда не встречается)), сведем задачу проверки отсутствия систематической погрешности к проверке симметричности монеты.
Пример 1.4. При статистическом регулировании технологических процессов на основе методов математической статистики разрабатываются правила и планы статистического контроля процессов, направленные на своевременное обнаружение разладки технологических процессов и принятия мер к их наладке и предотвращению выпуска продукции, не соответствующей установленным требованиям. Эти меры нацелены на сокращение издержек производства и потерь от поставки некачественных единиц продукции. При статистическом приемочном контроле на основе методов математической статистики разрабатываются планы контроля качества путем анализа выборок из партий продукции. Сложность заключается в том, чтобы уметь правильно строить вероятностно-статистические модели принятия решений. В математической статистике для этого разработаны вероятностные модели и методы проверки гипотез, в частности, гипотез о том, что доля дефектных единиц продукции равна определенному числу р0, например, р0 = 0.23 (см. пример 1.1).
Случайным событием (или просто событием) называется любой факт, который может иметь место при наличии определенной совокупности условий.
Каждое осуществление требуемой совокупности условий называется испытанием или опытом.
События, которые могут произойти в результате испытания, называются исходами данного испытания. События принято обозначать заглавными (прописными) буквами начала латинского алфавита: А, В, С и т.д. Словесное описание события часто дается в такой форме:
А = {выпадение "орла" при бросании монеты}.
В теории вероятностей различают виды событий.
Достоверное событие. Так называют событие, которое обязательно происходит в результате испытания.
Невозможное событие событие, которое не может произойти в данном испытании.
Совместные и несовместные события. Два события называются несовместными, если они не могут произойти вместе в одном испытании, в противном случае их называют совместными. События А1, А2, ..., Аn , называют попарно несовместными, если никакие два из них не могут произойти вместе в одном испытании.
Противоположным событию А называется событие А, состоящее в непоявлении события А. Очевидно, что события А и А являются несовместными.
Говорят, что события А1, А2 ,...,Аn в некотором испытании образуют полную группу, если в результате испытания обязательно должно произойти хотя бы одно из них.
Условимся полную группу несовместных исходов называть пространством элементарных событий.
Пример 2.1. Достоверным является событие А = {извлечение белого шара из урны, где все шары белые}.
Невозможным является событие B = {извлечение белого шара из урны, где все шары черные}.
Практически невозможное событие: C1={найти иголку в стоге сена}; C2=={вытащить белый шар из урны, где 1000 шаров черные, а 1 белый}
Практически достоверное событие: D={вытащить белый шар из урны, где 999 шаров белые, а 1 черный};
Пример 2.2. Испытание состоит в бросании игральной кости. Рассматриваем события:
А = {выпадение двух очков};
В = {выпадение трех очков};
С = {выпадение четного числа очков}.
События А и В, а также В и С являются несовместными. События А и С совместные. Попарно несовместными события А, В, С не являются.
Пример 2.3. Производится бросание игральной кости.
А = {выпадение шести очков};
А = {выпадение любого числа очков, кроме шести}.
Говорят, что события А1, А2 ,...,Аn в некотором испытании образуют полную группу, если в результате испытания обязательно должно произойти хотя бы одно из них.
Пример 2.4. Производится бросание монеты. Полную группу образуют события А = {выпадение "орла"}, В = {выпадение "решки"}.
Исходы испытания называют равновозможными, если нет объективных причин считать, что какиелибо из них могут происходить чаще, чем другие.
Событие В называется благоприятствующим событию А, если появление события В означает одновременно появление события А.
Пример 2.5. Событие В={выпадение двух очков на игральной кости} благоприятствует событию А={выпадение четного числа очков}.
Определение (классическое). Вероятностью события А в данном опыте называется отношение числа т исходов опыта, благоприятствующих событию А, к общему числу п исходов опыта, образующих полную группу попарно несовместных равновозможных событий:
Пример 2.6. Опыт бросание игральной кости. Событие А={выпадение четного числа очков}. Исходы опыта выпадение того или иного числа очков. Очевидно, что шесть возможных исходов опыта образуют полную группу попарно несовместных равновозможных событий (n=6) Благоприятствуют событию А три исхода: выпадение 2х, 3х и 6и очков (m=3). Следовательно, Р(А)= m/n =3/6= 1/2.
Из классического определения вероятности следует, что 0Р(А)1, причем вероятность невозможного события равна нулю (практически невозможного события близка к нулю), а вероятность достоверного единице (практически достоверного события близка к единице).
Комбинаторика это раздел математики, посвященный решению задач выбора и расположения элементов конечного множества в соответствии с заданными правилами. В теории вероятностей формулы комбинаторики широко используются для подсчета числа исходов опыта.
Основной принцип комбинаторики. Пусть требуется выполнить одно за другим k действий, причем первое действие можно выполнить п1, способами, второе п2 способами и т.д., тогда все k действий можно выполнить следующим числом способов:
п = п1п2..пk.
Все приводимые ниже формулы комбинаторики выводятся как следствия из этого основного правила.
Сочетания. Пусть множество из п элементов. Произвольное (неупорядоченное) тэлементное подмножество множества из п элементов называется сочетанием из п элементов по т. Сочетаниями из трёх элементов по два являются следующие неупорядоченные подмножества множества {а, b, c}: {a,b},{a,c},{b,c}.
Число сочетаний из п элементов по т
Определение 2.1. Множество называется упорядоченным, если каждому элементу этого множества поставлено в соответствие некоторое число (номер элемента) от 1 до п (п число элементов множества) так, что различным элементам соответствуют различные числа.
Перестановки. Различные упорядоченные множества, которые отличаются лишь порядком элементов (т. е. могут быть получены из того же самого множества), называются перестановками этого множества. Например, перестановками множества {а, b, с} являются упорядоченные множества (а, b, с), (а, с, b), (b, а, с), (b, с, а), (с, а, b), (с, b, а).
Число перестановок из п элементов
Рп =12... (n1) n = n!
Размещения. Упорядоченное mэлементное подмножество множества из п элементов называется размещением из п элементов по т. Например, размещениями из трёх элементов по два являются следующие упорядоченные подмножества множества (а, b, с): (а, b), (b, а), (а, с), (с, а), (b, с), (с, b).
Число размещений из п элементов по т
Пример 2.7. Набирая номер телефона, абонент забыл последние две цифры и, помня, что эти цифры различны, набрал их наудачу. Найти вероятность того, что набран правильный номер.
Решение. Воспользуемся классическим определением вероятности. Общее число исходов испытания (выбор в определенном порядке двух цифр из десяти) равно числу вариантов извлечения двух элементов из десяти с учетом порядка следования их, т.е. числу размещений из десяти элементов по два:
Благоприятный исход испытания только один, т=1. Следовательно, искомая вероятность равна p=1|90.
Пример 2.8. В партии из десяти деталей 7 стандартных. Найти вероятность того, что среди 6 взятых наудачу изделий 4 стандартных.
Решение. Общее число исходов испытания равно числу вариантов извлечения шести деталей из десяти без учета порядка извлечения, т.е. равно числу сочетаний из десяти элементов по шесть:
Число благоприятных исходов согласно основному правилу комбинаторики равно произведению числа вариантов извлечения четырех деталей из семи стандартных на число вариантов извлечения двух деталей из трех нестандартных:
Искомая вероятность равна р= 105/210= 1/2.
Произведением двух событий А я В называется событие АВ, состоящее в том, что происходит каждое из этих событий.
Произведением нескольких событий называется событие, состоящее в появлении всех этих событий.
Суммой двух событий А и В называется событие А+В, состоящее в том, что происходит хотя бы одно из этих событий.
Суммой нескольких событий называется событие, состоящее в появлении хотя бы одного из этих событий.
Пример 2.9. Из урны, содержащей не менее двух белых и двух черных шаров, последовательно извлекаются два шара.
А = {белый шар при первом извлечении};
В = {белый шар при втором извлечении};
АВ = {белые шары при первом и втором извлечениях};
А+В = {первый шар белый, второй черный, или первый шар черный, второй белый, или первый и второй шары белые}.
Определение 2.2. Вероятность события А, вычисленная при условии, что произошло событие В, называется условной вероятностью события А при наличии события В и обозначается Р(А|В).
Пример 2.10. Опыт: подбрасывание двух монет. События:
А = {выпадение «орла» на обеих монетах};
В = {выпадение «орла» на одной из монет}.
Найти вероятность Р(А). Общее число возможных исходов опыта n=4 (оо, ор, рр, ро), благоприятствующий исход один (оо), следовательно, Р(А)=1/4.
Найти теперь условную вероятность Р(А|В). Поскольку известно, что произошло событие В, число возможных исходов испытания п1 (оо, ор, ро), благоприятствующий исход попрежнему один, следовательно, Р(А|В)=1/3.
Теорема. Вероятность произведения двух событий А и В, равна произведению вероятности одного из этих событий на условную вероятность другого при наличии первого:
Р(АВ) = Р(А)Р(В|А) или Р(АВ) = Р(В)Р(А|В). (2.1)
Эта теорема обобщается на любое конечное число событий следующим образом:
(2.2)
Определение 2.3. Два события называются независимыми, если появление любого из них не изменяет вероятности другого, т.е. события А и В независимы, если Р(А|В)=Р(А).
Из формул (2.1) следует, что если выполняется равенство Р(А|В)=Р(А),.то выполняется и равенство Р(В\А)=Р(В).
Определение 2.4. Несколько событий, А1, А2, ..., Ап, называются независимыми в совокупности (или просто независимыми), если появление любых из них не изменяет вероятностей остальных. Для независимых событий формула (2.2) принимает вид:
Р(А1 А2 ...Ап) = Р(А1)Р(А2...Р(Ап).
Пример 2.11. Из урны, содержащей 3 белых и 7 черных шаров, наудачу извлекают два шара. Найти вероятность того, что оба шара белые.
Решение. Считаем, что шары извлекаются поочередно. Пусть
А = {первый шар белый}, В = {второй шар белый}, тогда АВ {оба шара белые}.
По теореме умножения вероятностей Р(АВ)=Р(А)Р(В|А). Согласно классическому определению вероятности Р(А)=3/10, Р(В|А)=2/9. Следовательно, Р(АВ)= (3/10)(2/9).
Пример 2.12. Два стрелка стреляют по одной мишени. Вероятность поражения мишени первым стрелком равна 0.6, вторым 0.8. Найти вероятность того, что в мишени будет две пробоины.
Решение. Введем в рассмотрение события, вероятности которых известны:
А = {поражение мишени первым стрелком},
В {поражение мишени вторым стрелком}.
Интересующее нас событие выразим через эти события. Для того, чтобы имело место событие С={две пробоины в мишени}, надо, чтобы произошли вместе события А и В, т.е. С=АВ.
Естественно считать события А и В независимыми, поэтому
Р(С)=Р(А)Р(В)=0.60.8.
Теорема 2.1. Вероятность суммы двух несовместных событий равна сумме вероятностей этих событий:
Теорема 2.2. Для любого события А вероятность противоположного события А выражается равенством
Р(А) = 1 Р(А)
Теорема 2.3. Вероятность суммы двух совместных событий равна сумме вероятностей этих событий минус вероятность их совместного появления:
Р(А + В) = Р(А)+ Р(В) Р(АВ).
Теорема сложения обобщается на любое конечное число событий следующим образом:
(2.3)
Если события А1, А2, ..., Ап попарно несовместные, то формула (2.3) принимает вид:
Замечание. При решении задач с использованием формулы (2.3) приходится производить громоздкие вычисления, поэтому часто выгоднее перейти к противоположным событиям, т.е. вместо вероятности суммы событий А1+А2+...+Ап находить вероятность произведения противоположного события . Очевидно, что эти два события противоположны, поэтому
(2.4)
Пример 2.13. В условиях примера 2 предыдущего пункта найти вероятность появления хотя бы одной пробоины.
Решение. Данное событие есть сумма событий А и В, причем эти события совместные, поэтому вероятность интересующего нас события равна Р(А + В) = Р(А) + Р(В) Р(АВ). Ранее было найдено, что Р(АВ)=0.48, следовательно, Р(А + В) = 0.6 + 0.8 0.48 = 0.92.
Пример 2.14. Устройство содержит четыре независимо работающих элемента и сохраняет работоспособность, если работает хотя бы один из элементов. Вероятности безотказной работы элементов в течение определенного срока соответственно равны 0.9, 0.8, 0.7 и 0.6. Найти вероятность безотказной работы устройства.
Решение. Пусть события А1 А2, А3 и А4 означают безотказную работу соответственно первого, второго, третьего и четвертого элементов. Событие А={безотказная работа устройства} есть сумма событий: А=А1+А2+А3+А4. События А1 А2, А3 и А4 совместные, поэтому вероятность Р(А) надо вычислять по формуле (2.3). Чтобы упростить вычисления, воспользуемся формулой (2.4):
.
Так как события А1 А2, А3 и А4 независимые, то противоположные события также независимы, поэтому
= (1 0.9)(1 0.8)(1 0.7)(1 0.6) = 0.0024; и
Р(А) = 1 0.0024 = 0.9976.
Пример 2.15. Производится три независимых выстрела по мишени. Вероятности попадания в мишень при первом, втором и третьем выстрелах соответственно равны 0.2, 0.5, 0.4. Найти вероятность того, что будет ровно два попадания в мишень.
Решение. Событие А={ровно два попадания в мишень} выражается через события А1={попадание при первом выстреле}, А2={попадание при втором выстреле), А3={попадание при третьем выстреле} следующим образом:
Отсюда, учитывая несовместность суммируемых произведений событий и независимость событий А1, А2, А3, находим
Пример 2.16. В двух урнах находятся шары, отличающиеся только цветом: в первой урне 5 белых шаров, 11 черных и 8 красных, во второй 10 белых, 8 черных и 6 красных. Из обеих урн наудачу извлекают по одному шару. Найти вероятность того, что оба шара одного цвета.
Решение. Введем в рассмотрение следующие события:
В1={извлечение белого шара из первой урны},
В2={извлечение белого шара из второй урны},
С1={извлечение черного шара из первой урны},
С2={извлечение черного шара из второй урны},
D1={извлечение красного шара из первой урны},
D2={извлечение красного шара из второй урны}.
Выразим событие А= {извлечение шаров одного цвета} через эти события:
А= В1 В2+ С1 С2+ D1 D2
Следовательно,
Р(А) = Р(В1)Р(В2) + Р(С1)Р(С2) + Р(D1)P(D2).
Вероятности событий В, С, D найдем из классического определения: Р(В1)=5/24, Р(В2)=10/24, Р(С1)=11/24, Р(С2)=8/24, Р(D1)=8/24, P(D2)=6/24.
Таким образом, получаем
Пусть А некоторое событие, которое может появиться совместно с одним из ряда попарно несовместных событий Н1, Н2,…,Нn образующих полную группу (). Будем называть события Н гипотезами.
Теорема 2.4. Вероятность события А, которое может произойти вместе с одной из гипотез Н1, Н2,…,Нn, равна сумме парных произведений вероятностей этих гипотез на соответствующие им условные вероятности события А:
Эта формула называется формулой полной вероятности.
Пример 2.17. Первый станок производит 25%, второй 35%, третий 40% всех изделий. Брак в их продукции составляет соответственно 5%, 4% и 2%. Найти вероятность того, что взятое наугад изделие окажется бракованным.
Решение. Введем гипотезы:
Н1={взятое изделие изготовлено на первом станке},
Н2={взятое изделие изготовлено на втором станке},
Н3={взятое изделие изготовлено на третьем станке}.
События Н1, Н2 и Н3 несовместные, образуют полную группу, и событие А ={взятое изделие брак} происходит вместе с одним из них, следовательно, они действительно могут быть взяты в качестве гипотез для события А. Согласно формуле полной вероятности
По условию задачи
Р(Н1)= 0.25, Р(Н2)=0.35, Р(Н3)=0.40, =0.05,
=0.04, =0.02,
следовательно, Р(А) = 0.25 • 0.05 + 0.35 • 0.04 + 0.40 • 0.02 = 0.0345.
Замечание. Вероятности характеризуют возможность осуществления некоторых условий , а возможность появления А при этих условиях.
Пусть событие А может произойти совместно с одной из гипотез Н1, Н2,…, Нn . Если до проведения опыта были известны вероятности гипотез , а в результате опыта произошло событие А, то условные вероятности гипотез вычисляются по формуле Байеса:
Пример 2.18. Первый станок производит 20%, а второй 80% всех деталей. Брак в их производстве составляет соответственно 4% и 2%. Взятая наугад деталь оказалась бракованной. Найти вероятность того, что эта деталь изготовлена на первом станке.
Решение. Введем две гипотезы для события А={взятая деталь оказалась бракованной}:
Н1={взятая деталь изготовлена на первом станке},
Н2={взятая деталь изготовлена на втором станке}.
Из условия задачи известно: Р(Н1)= 0.2, Р(Н2)=0.8, =0.04, =0.02.. По формуле Байеса находим
Замечание. Формула Байеса указывает путь использования новых экспериментальных данных для коррекции априорных (доопытных) вероятностных представлений об исследуемом объекте.
Пусть производится ряд испытаний, в каждом из которых с определенной вероятностью р может произойти событие А. Если вероятность события А в каждом испытании не зависит от исходов предыдущих испытаний, то такие испытания называют независимыми относительно события А. Если при этом вероятность события А в каждом испытании одна и та же, то последовательность испытаний называют схемой Бернулли. Вероятность того, что в п испытаниях по схеме Бернулли событие А произойдет т раз в любой последовательности, вычисляется по формуле Бернулли:
где
Значение m = m0 появлений события А в п испытаниях, при котором вероятность принимает наибольшее значение, называется наивероятнейшим числом успехов и определяется из неравенств:
np q m0 np + p.
Разность граничных значений в этом двойном неравенстве равна 1. Если np + p не является целым числом, то наивероятнейшее число одно и равно m0 . Если np + p целое число, то имеется два наивероятнейших числа m0 : np q и np + p.
Пример 2.19. Вероятность попадания в цель при одном выстреле равна 0.6. Найти вероятность двух попаданий при трех выстрелах.
Решение. Имеем дело с тремя независимыми испытаниями, в каждом из которых с вероятностью p=0.6 может произойти событие А={попадание в цель}. Вероятность двух попаданий (в любой последовательности) при трех выстрелах находим по формуле Бернулли:
Пример 2.20. Испытывается 15 одинаковых изделий. Вероятность того, что изделие выдержит испытание, равна 0.9. Найти наивероятнейшее число изделий, выдержавших испытание.
Решение. По условию имеем: Подставим эти данные в неравенства для m0:
150.90.1 m0 <150.9+ 0.9 => 13.4 < m0 < 14.4.
Отсюда следует, что m0=14.
Если число испытаний п велико, то вычисления по формуле Бернулли становятся затруднительными. В то же время большие значения п позволяют заменять эту формулу приближенными асимптотическими формулами. Рассмотрим три такие формулы.
Теорема 2.5. (формула Пуассона) Если так, что , то
(2.5)
Формула (2.5) дает хорошие результаты, если npq<9. Если же npq>9, то для вычисления вероятности можно воспользоваться локальной теоремой Лапласа.
Теорема 2.6. (локальная теорема МуавраЛапласа). Вероятность появления события т раз в п независимых испытаниях при больших значениях п приближенно определяется по формуле
(2.6)
где
Теорема 2.7. (интегральная теорема МуавраЛапласа). Вероятность того, что число появлений события в п независимых испытаниях находится в пределах т1 т т2 и при больших значениях п приближенно определяется по формуле
(2.7)
где
Функция Ф(х) называется функцией Лапласа. Для функций имеются таблицы ее значений. Функция является четной, а функция Ф(х) нечетной, т.е. ; Ф( х)= Ф(х);
Из интегральной теоремы Лапласа можно вывести формулу для вероятности отклонения относительной частоты т/п события в серии испытаний от постоянной вероятности р этого события в одном испытании:
(2.8)
Пример 2.21. Завод отправил на базу 500 изделий. Вероятность повреждения изделия в пути равна 0.002. Найти вероятность того, что в пути будут повреждены три изделия.
Решение. Можно считать, что имеем дело со схемой Бернулли, в которой испытания проводятся 500 раз. Так как число п=500 достаточно велико, а вероятность p=0.002 мала (причем npq=5000.0020.9982<9), то воспользуемся приближенной формулой (2.5), где =np =5000.002=1:
Пример 2.22. Найти вероятность того, что событие происходит 80 раз в 400х испытаниях, если вероятность этого события в каждом испытании равна 0.2.
Решение. Здесь п=400 достаточно велико, но величина npq также велика (npq=4000.20.8=64>9), поэтому воспользуемся формулой (2.6). Вычисляем
По таблице функции находим (0)=0.3989. Окончательно получаем:
Пример 2.23. Найти вероятность того, что в 400х испытаниях событие произойдет не более 70ти раз, если вероятность появления этого события в каждом испытании равна 0.2.
Решение. Воспользуемся интегральной теоремой Лапласа для вычисления вероятности :
Пример 2.24. Определим, сколько надо провести испытаний, чтобы с вероятностью 0.95 относительная частота выпадения «орла» отличалась от вероятности р=0.5 этого события не более чем на 5%.
Решение. Воспользуемся формулой (2.8). В нашем случае р=0.5, q=0.5, =0.5 0.05=0.025. По условию задачи
или Пользуясь таблицей функции Лапласа, по значению функции находим значение аргумента:
т.е.
Отсюда находим, что п=1536.64. Таким образом, надо провести не менее чем 1537 испытаний.
Случайной величиной называется величина, которая в результате испытаний, проводимых в одних и тех же условиях, принимает различные, вообще говоря, значения, зависящие от не учитываемых случайных факторов. Примеры случайных величин: число выпавших очков на игральной кости, число дефектных изделий в партии, отклонение точки падения снаряда от цели, время безотказной работы устройства и т.п. Различают дискретные и непрерывные случайные величины. Дискретной называется случайная величина, возможные значения которой образуют счетное множество, конечное или бесконечное (т.е. такое множество, элементы которого могут быть занумерованы).
Непрерывной называется случайная величина, возможные значения которой непрерывным образом заполняют некоторый конечный или бесконечный интервал числовой оси. Число значений непрерывной случайной величины всегда бесконечно.
Случайные величины будем обозначать заглавными буквами конца латинского алфавита: X, Y, ...; значения случайной величины строчными буквами: х, у, ... . Таким образом, X обозначает всю совокупность возможных значений случайной величины, а х некоторое ее конкретное значение.
Законом распределения дискретной случайной величины называется задаваемое в любой форме соответствие между возможными значениями случайной величины и их вероятностями.
Пусть возможными значениями случайной величины X являются . В результате испытания случайная величина примет одно из этих значений, т.е. произойдет одно событие из полной группы попарно несовместных событий.
Пусть также известны вероятности этих событий:
Закон распределения случайной величины X может быть записан в виде таблицы, которую называют рядом распределения дискретной случайной величины:
X |
x1 |
x2 |
… |
x3 |
p |
p1 |
p2 |
… |
p3 |
Для ряда распределения имеет место равенство (условие нормировки).
Пример 3.1. Найти закон распределения дискретной случайной величины X числа появлений «орла» при двух бросаниях монеты.
Решение. Возможные значения случайной величины: 0, 1, 2. Вероятности этих значений находим по формуле Бернулли:
Записываем ряд распределения:
X |
0 |
1 |
2 |
p |
0.25 |
0.50 |
0.25 |
Функция распределения является универсальной формой задания закона распределения как дискретных, так и непрерывных случайных величин.
Функцией распределения случайной величины X называется функция F(x), определенная на всей числовой оси следующим образом:
F(x)= Р(Х < х),
т.е. F(x) есть вероятность того, что случайная величина X примет значение меньшее, чем x.
Функцию распределения можно представить графически. Для дискретной случайной величины график имеет ступенчатый вид. Построим, например, график функции распределения случайной величины, заданной следующим рядом (рис. 3.1):
X |
0 |
1 |
2 |
p |
0.3 |
0.5 |
0.2 |
Рис. 3.1. График функции распределения дискретной случайной величины
Скачки функции происходят в точках, соответствующих возможным значениям случайной величины, и равны вероятностям этих значений. В точках разрыва функция F(x) непрерывна слева.
График функции распределения непрерывной случайной величины представляет собой непрерывную кривую.
x |
Рис. 3.2. График функции распределения непрерывной случайной величины
Функция распределения обладает следующими очевидными свойствами:
1) , 2) , 3) ,
4) при .
Будем называть событие, состоящее в том, что случайная величина X принимает значение х, принадлежащее некоторому полузамкнутому интервалу х <, попаданием случайной величины на интервал [, ).
Теорема 3.1. Вероятность попадания случайной величины на интервал [, ) равна приращению функции распределения на этом интервале:
(3.1)
Если уменьшать интервал [, ), полагая, что , то в пределе формула (3.1) вместо вероятности попадания на интервал дает вероятность попадания в точку, т.е. вероятность того, что случайная величина примет значение :
(3.2)
Если функция распределения имеет разрыв в точке , то предел (3.2) равен значению скачка функции F(x) в точке х=, т.е. вероятности того, что случайная величина примет значение (рис. 3.3, а). Если же случайная величина непрерывна, т.е. непрерывна функция F(x), то предел (3.2) равен нулю (рис. 3.3, б)
Таким образом, вероятность любого конкретного значения непрерывной случайной величины равна нулю. Однако это не означает невозможности события Х=, а лишь говорит о том, что относительная частота этого события будет стремиться к нулю при неограниченном увеличении числа испытаний.
а) б) |
Рис. 3.3. Скачок функции распределения
Для непрерывных случайных величин наряду с функцией распределения используется еще одна форма задания закона распределения плотность распределения.
Если вероятность попадания на интервал , то отношение характеризует плотность, с которой вероятность распределена в окрестности точки x . Предел этого отношения при ,т.е. производная , называется плотностью распределения (плотностью распределения вероятностей, плотностью вероятности) случайной величины X. Условимся плотность распределения обозначить
.
Таким образом, плотность распределения характеризует вероятность попадания случайной величины в окрестность точки х.
График плотности распределения называют кривой распределения (Рис. 3.4).
Рис. 3.4. Вид плотности распределения
Исходя из определения и свойств функции распределения F(x), нетрудно установить следующие свойства плотности распределения f(x):
1) f(x)0
2)
3)
4)
Для непрерывной случайной величины в силу того, что вероятность попадания в точку равна нулю, имеют место следующие равенства:
Пример 3.2. Случайная величина X задана плотностью распределения
Требуется:
а) найти значение коэффициента а;
б) найти функцию распределения;
в) найти вероятность попадания случайной величины на интервал (0, ).
Решение, а) Воспользуемся свойством 3:
Отсюда получаем: а=1/2.
б) Если , то
если то
если , то
Таким образом,
в) По свойству 4:
Функция распределения или плотность распределения полностью описывают случайную величину. Часто, однако, при решении практических задач нет необходимости в полном знании закона распределения, достаточно знать лишь некоторые его характерные черты. Для этого в теории вероятностей используются числовые характеристики случайной величины, выражающие различные свойства закона распределения. Основными числовыми характеристиками являются математическое ожидание, дисперсия и среднее квадратическое отклонение.
Математическое ожидание характеризует положение случайной величины на числовой оси. Это некоторое среднее значение случайной величины, около которого группируются все ее возможные значения.
Математическое ожидание случайной величины X обозначают символами М(Х) или т. Математическим ожиданием дискретной случайной величины называется сумма парных произведений всех возможных значений случайной величины на вероятности этих значений:
Математическое ожидание непрерывной случайной величины определяется с помощью несобственного интеграла:
Исходя из определений, нетрудно убедиться в справедливости следующих свойств математического ожидания:
Пример 3.3. Найти математическое ожидание дискретной случайной величины, заданной рядом распределения:
X |
0 |
1 |
2 |
3 |
p |
0.2 |
0.4 |
0.3 |
0.1 |
Решение.
=00.2 + 10.4 + 20.3 + 30.1=1.3.
Пример 3.4. Найти математическое ожидание случайной величины, заданной плотностью распределения:
.
Решение.
Дисперсия и среднее квадратическое отклонение являются характеристиками рассеивания случайной величины, они характеризуют разброс ее возможных значений относительно математического ожидания.
Дисперсией D(X) случайной величины X называется математическое ожидание квадрата отклонения случайной величины от ее математического ожидания Для дискретной случайной величины дисперсия выражается суммой:
(3.3)
а для непрерывной интегралом
(3.4)
Дисперсия имеет размерность квадрата случайной величины. Характеристикой рассеивания, совпадающей по размерности со случайной величиной, служит среднее квадратическое отклонение.
Свойства дисперсии:
1) постоянные. В частности,
2)
3)
В частности,
(3.5)
Заметим, что вычисление дисперсии по формуле (3.5) часто оказывается более удобным, чем по формуле (3.3) или (3.4).
Величина называется ковариацией случайных величин .
Если , то величина
называется коэффициентом корреляции случайных величин .
Можно показать, что если , то величины линейно зависимы: где
Отметим, что если независимы, то
и
Пример 3.5. Найти дисперсию случайной величины, заданной рядом распределения из примера 1.
Решение. Чтобы вычислить дисперсию, необходимо знать математическое ожидание. Для данной случайной величины выше было найдено: m=1.3. Вычисляем дисперсию по формуле (3.5):
Пример 3.6. Случайная величина задана плотностью распределения
Найти дисперсию и среднее квадратическое отклонение.
Решение. Находим сначала математическое ожидание:
(как интеграл от нечетной функции по симметричному промежутку).
Теперь вычисляем дисперсию и среднее квадратическое отклонение:
1. Биномиальное распределение. Случайная величина , равная числу «УСПЕХОВ» в схеме Бернулли, имеет биномиальное распределение: , .
Математическое ожидание случайной величины, распределённой по биноминальному закону, равно
.
Дисперсия этого распределения равна .
2. Распределение Пуассона ,
Математическое ожидание и дисперсия случайной величины с распределением Пуассона , .
Распределение Пуассона часто используется, когда мы имеем дело с числом событий, появляющихся в промежутке времени или пространства, например: число машин, прибывших на автомойку в течении часа, число остановок станков в неделю, число дорожных происшествий и т.д.
3. Геометрическое распределение
Случайная величина имеет геометрическое распределение с параметром , если принимает значения с вероятностями . Случайная величина с таким распределением имеет смысл номера первого успешного испытания в схеме Бернулли с вероятностью успеха . Таблица распределения имеет вид:
,
т.е. вероятности всех возможных значений случайной величины одинаковы и равны .
Математическое ожидание случайной величины с равномерным распределением равно
,
дисперсия .
Функция распределения имеет вид , (рис. 3.5).
Рис. 3.5. Графики плотности и функции равномерного распределения
Функция распределения показательного закона имеет вид:
Математическое ожидание и дисперсия случайной величины, распределенной по показательному закону, равны соответственно , .
Рис. 3.6. Графики плотности и функции показательного распределения
Плотность вероятности нормально распределенной случайной величины имеет вид: , где и вещественные параметры распределения, имеющие конечные значения, при этом часто используют обозначение .
Функция распределения записывается в виде
,
Здесь табулированный интеграл вероятности (значения интеграла можно найти во всех учебниках и задачниках по теории вероятностей). Функция и плотность нормального распределения изображены на рис. 3.7.
Рис. 3.7. Графики плотности и функции нормального распределения
Математическое ожидание нормально распределенной случайной величины равно , дисперсия . Таким образом, параметры и имеют смысл математического ожидания и среднеквадратического значения (отклонения) случайной величины.
Распределение, описываемое функцией , называется нормальным или распределением Гаусса.
На рис.3.8 изображены кривые нормального распределения случайных погрешностей для различных значений среднеквадратического отклонения .
Рис. 3.8. Кривые нормального распределения, .
Из рис. 3.8 видно, что по мере увеличения среднеквадратического отклонения распределение все более и более расплывается, вероятность появления больших значений погрешностей возрастает, а вероятность меньших погрешностей сокращается, т.е. увеличивается рассеивание результатов наблюдений.
Широкое распространение нормального распределения погрешностей в практике измерений объясняется центральной предельной теоремой теории вероятностей, являющейся одной из самых замечательных математических теорем, в разработке которой принимали участие многие крупнейшие математики Муавр, Лаплас, Гаусс, Чебышев и Ляпунов.
Центральная предельная теорема утверждает, что распределение случайных погрешностей будет близко в нормальному всякий раз, когда результаты наблюдения формируются под влиянием большого числа независимо действующих факторов, каждый из которых оказывает лишь незначительное действие по сравнению с суммарным действием всех остальных.
Свойства нормального распределения.
А. Если случайная величина .
В. Если случайная величина то
В частности, .
Таким образом, вычисление любых вероятностей для нормально распределённой случайной величины сводится к вычислению функции распределения . Она обладает следующими свойствами:
С. Если , то для любого
D. Правило трех сигм. Если то
Большого смысла в запоминании числа 0.0027 нет, но полезно помнить, что почти вся масса нормального распределения сосредоточена в границах от до .
Пример 3.7. Дана случайная величина . Найти .
Решение. По формуле свойства В при получаем По таблице для функции Лапласа находим .
Пример 3.8. Случайная величина X отклонение размера изделия от нормы нормально распределенная, причём М (Х)= 0. Найти (Х), если известно, что Р( 3 < X < 3) = 0.7.
Решение. Р( 3 < X < 3) = Р( | X | < 3) = = 0.7. Отсюда следует, что , и, используя табличные данные (приложение 1), получаем 3/ =1.4, или = 3/1.4 2.14.
Основные задачи математической статистики:
Статистические данные представляют собой данные, полученные в результате обследования большого числа объектов или явлений.
Экспериментальные данные - это результаты измерения некоторых признаков объектов, выбранных из большой совокупности объектов.
Часть объектов исследования, определенным образом выбранная из более обширной совокупности, называется выборкой, а вся исходная совокупность, из которой взята выборка,- генеральной (основной) совокупностью.
Исследования, в которых участвуют все без исключения объекты, составляющие генеральную совокупность, называются сплошными исследованиями. Может использоваться выборочный метод, суть которого в том, что для обследования привлекается часть генеральной совокупности (выборка), но по результатам этого обследования судят о свойствах всей генеральной совокупности.
Предметом изучения в статистике являются варьирующиеся признаки (называемые статистическими). Они делятся на качественные и количественные.
Качественными признаками объект обладает либо не обладает. Они не поддаются непосредственному измерению (спортивная специализация, квалификация, национальность, территориальная принадлежность и т. п.).
Количественные признаки представляют собой результаты подсчета или измерения. В соответствии с этим они делятся на дискретные и непрерывные.
Например, измеряемая температура воздуха в некотором пункте непрерывная случайная величина (может меняться на сколь угодно малую величину), и соответствующая генеральная совокупность представляет собой бесконечное множество значений.
Повторной называют выборку, при которой объект перед отбором следующего возвращается в генеральную совокупность. Бесповторной называют выборку, при которой отобранный объект в генеральную совокупность не возвращается.
Если выборка правильно отражает соотношения в генеральной совокупности, то ее называют репрезентативной (представительной). Например, результаты социологического опроса населения будут зависеть от того, в каком месте он проводится, среди каких групп.
Пусть Х некоторый признак изучаемого объекта или явления (срок службы электролампы, вес студента, диаметр шарика для подшипника и т.п.). Генеральной совокупностью является множество всех возможных значений этого признака, а результаты n наблюдений над признаком Х дадут нам выборку объема n первоначальные статистические данные, значения (простая выборка, не сгруппированные данные)
При этом значение получено при первом наблюдении случайной величины Х, при втором наблюдении той же случайной величины и т.д.
Выборку преобразуют в вариационный ряд, располагая результаты наблюдений в порядке возрастания: Каждый член вариационного ряда называется вариантой.
Пример 4.1.
1. Измерена масса тела 10-ти детей 6-ти лет. Полученные данные образуют простой статистический ряд: 24 22 23 28 24 23 25 27 25 25.
2. Из 10000 выпущенных на конвейере электрических лампочек отобрано 300 штук для проверки качества всей партии. Здесь а
Отдельные значения статистического ряда называются вариантами. Если варианта хi появилась m раз, то число m называют частотой, а ее отношение к объему выборки m/n относительной частотой.
Последовательность вариант, записанная в возрастающем (убывающем) порядке, называется ранжированным рядом.
Пример 4.2. Для ранжированного ряда: 23 23 24 24 25 25 25 27 28 в нижеприведенной таблице в первой строке записаны все значения величины (варианты), во второй соответствующие им частоты (безынтервальный вариационный ряд), в третьей накопленные частоты, в четвертой относительные частоты (табл.4.1).
Таблица 4.1. Значения вариант и их частот
Х |
22 |
23 |
24 |
25 |
27 |
28 |
ni |
1 |
2 |
2 |
3 |
1 |
1 |
nн |
1 |
3 |
5 |
8 |
9 |
10 |
0.1 |
0.2 |
0.2 |
0.3 |
0.1 |
0.1 |
Полигоном частот называют ломаную линию, отрезки которой соединяют точки с координатами (хi; ni) (рис. 4.1).
Отметим, что сумма частот статистического ряда равна объему выборки. Часто статистический ряд составляют, используя относительные частоты вариант: (m количество различных вариант). Сумма относительных частот равна единице.
Полигоном относительных частот называют ломаную линию, отрезки которой соединяют точки с координатами (хi; hi).
а) |
б) |
Рисунок 4.1. Полигон частот а), кумулятивная кривая б)
Эмпирическим аналогом графика интегральной функции распределения является кумулятивная кривая (кумулята). Для ее построения на оси ОХ откладывают значения вариант, на оси ОY накопленные частоты или относительные частоты. Полученная плавная кривая называется кумулятой.
В том случае, если выборка представлена большим количеством различных значений непрерывной случайной величины, то группировку данных проводят в виде интервального вариационного ряда (ИВР). Для этого диапазон варьирования признака разбивают на несколько (510) равных интервалов и указывают количество вариант, попавших в каждый интервал.
Алгоритм построения интервального вариационного ряда.
Таблица 4.2.Рекомендуемое соотношение объем выборкичисло интервалов
n |
2540 |
4060 |
60100 |
100200 |
>200 |
k |
56 |
68 |
710 |
812 |
1015 |
2. Вычислить размах ряда: R=Xmax Xmin
3. Определить ширину интервала: h=R/(k1)
4. Найти начало первого интервала X0 = Xmin h/2
5. Составить интервальный вариационный ряд.
Графическим изображением ИВР является гистограмма. Для ее построения на оси ОХ откладывают интервалы шириной h, на каждом интервале строят прямоугольник высотой m/h. Величина m/h называется плотностью частоты. Гистограмма является эмпирическим аналогом графика дифференциальной функции распределения.
Пример 4.3. Измерена масса тела 100 женщин 30 лет, получены значения от 60 до 90 кг. Построить интервальный вариационный ряд (табл. 4.3) и гистограмму.
Таблица 4.3. Интервальный вариационный ряд
Интервал |
Середина интервала |
m |
m/h |
6065 |
62.5 |
14 |
2.8 |
6570 |
67.5 |
32 |
6.4 |
7075 |
72.5 |
28 |
5.6 |
7580 |
77.5 |
14 |
2.8 |
8085 |
82.5 |
7 |
1.4 |
8590 |
87.5 |
2 |
0.4 |
Рисунок 4.2. Гистограмма
Эмпирическая функция распределения находится по следующей формуле (отношение накопленных частот к объему выборки):
(4.1)
Числовые характеристики генеральной совокупности называются параметрами генеральной совокупности.
Например, для нормального распределения это математическое ожидание и среднее квадратическое отклонение (СКО), для равномерного распределения это границы интервала, в котором наблюдаются значения этой случайной величины
Оценка параметра соответствующая числовая характеристика, рассчитанная по выборке. Если оценка определяется одним числом, она называется точечной оценкой.
Например, среднее арифметическое выборочных значений служит оценкой математического ожидания. Выборочные значения случайны, поэтому оценки можно рассматривать как случайные величины. Построим точечную оценку параметра по выборке как значение некоторой функции и перечислим «желаемые» свойства оценки .
Определение 4.1. Оценка называется несмещенной, если ее математическое ожидание равно истинному значению оцениваемого параметра: .
Данное свойство характеризует отсутствие систематической ошибки, т.е. при многократном использовании вместо параметра его оценки среднее значение ошибки приближения равно нулю.
Так, выборочное среднее арифметическое является несмещенной оценкой математического ожидания, а выборочная дисперсия смещенная оценка генеральной дисперсии D. Несмещенной оценкой генеральной дисперсии является оценка («исправленная дисперсия»)
Определение 4.2. Оценка называется состоятельной, если она сходится по вероятности к оцениваемому параметру при
Данное свойство характеризует улучшение оценки с увеличением объема выборки.
Сходимость по вероятности означает, что при большом объеме выборки вероятность больших отклонений оценки от истинного значения мала.
Определение 4.3.. Несмещенная оценка является эффективной, если она имеет наименьшую среди всех несмещенных оценок дисперсию.
Пример 4.4.:
1. Вычислить среднее значение массы тела детей 6 лет.
2. Если выборочное среднее вычисляется по вариационному ряду, то находят сумму произведений вариант на соответствующие частоты, и делят на количество элементов в выборке: .
3. В том случае, когда статистические данные представлены в виде интервального вариационного ряда, при вычислении выборочного среднего значениями вариант считают середины интервалов. Так, для вычисления среднего значения массы тела женщин 30 лет из примера 4.3. используют формулу:
.
Другими характеристиками являются мода и медиана.
В теории вероятностей модой Мо дискретной случайной величины называется ее значение, которое имеет максимальную вероятность. Модой непрерывной случайной величины называется такое ее значение, при котором достигается максимум плотности распределения Закон распределения называется унимодальным, если мода единственна. В математической статистике мода Мо определяется по выборке, как варианта с наибольшей частотой.
Медианой называется варианта, расположенная в центре ранжированного ряда. Если ряд состоит из четного числа вариант, то медианой считают среднее арифметическое двух вариант, расположенных в центре ранжированного ряда.
Пример 4.5. Найти моду и медиану выборочной совокупности по массе тела детей 6 лет.
Ответ: Мо = 24; Ме = 24.
Основные числовые характеристики выборочной совокупности:
1) размах вариационного ряда R=Xmax Xmin. Этот показатель является наиболее простой характеристикой рассеяния и показывает диапазон варьирования величины. Этой характеристикой пользуются при работе с малыми выборками;
2) выборочное среднее находится как взвешенное среднее арифметическое , которое характеризует среднее значение признака X в пределах рассматриваемой выборки;
3) выборочная дисперсия определяется по формуле: , которая является мерой рассеяния возможных значений показателя X вокруг своего среднего значения, и ее размерность совпадает с квадратом размерности варианты;
4) выборочное среднее квадратическое отклонение описывает абсолютный разброс значений показателя X. Его размерность совпадает с размерностью варианты;
5) «исправленная» дисперсия (вычисляют при малых n, n<30) и «исправленное» стандартное отклонение ;
6) коэффициент вариации характеризует относительную изменчивость показателя X, то есть относительный разброс вокруг его среднего значения . Коэффициент вариации является безразмерной величиной, поэтому он пригоден для сравнения рассеяния вариационных рядов, варианты которых имеют различную размерность.
Пример 4.6.: Измерена длина (Х) и масса тела (Y) девочек 10-ти лет. Получены следующие показатели: Х=130 см, Х = 5 см, Y = 32 кг, Y = 4 кг. Какая величина имеет большую вариативность?
Так как длина и масса тела измеряются в разных единицах, то вариативность нельзя сравнить при помощи СКО. Необходимо вычислить относительный показатель вариации.
Таким образом, масса тела имеет большую вариативность, чем длина тела.
Оценка параметров с помощью интервалов заключается в нахождении интервалов, называемых доверительными, между границами которых с определенными вероятностями (доверительными) находятся истинные значения оцениваемых параметров. Интервальная оценка определяется двумя числами концами интервала.
Пусть найденная по данным выборки величина * служит оценкой неизвестного параметра . Оценка * определяется тем точнее, чем меньше
| *|, т. е. чем меньше в неравенстве | *|< , > 0.
Доверительной вероятностью (надежностью) оценки * параметра называется вероятность , с которой оценивается неравенство | *|< .
Число =1 называется уровнем значимости, определяющим вероятность того, что оцениваемый параметр не попадет в доверительный интервал.
Обычно задается надежность и определяется . Чаще всего вероятность задается значениями от 0.95 и выше. Неравенство | *|< можно записать в виде
< * < или * < < * + .
Доверительным интервалом называется интервал (* , * + ), который покрывает неизвестный параметр с заданной надежностью.
Определение доверительного интервала для среднего значения нормально распределенной измеряемой случайной величины Х при известной дисперсии .
Нам уже известно, что . Можно показать [1-5], что (сумма нормально распределенных случайных величин сама является нормальной).
Зададим доверительную вероятность и найдем доверительный интервал ( , + ), который покрывал бы неизвестный параметр с заданной надежностью .
Согласно формуле В (свойства нормального распределения, раздел 3)
. (4.1)
Таким образом, для отыскания величины доверительной границы случайного отклонения результатов наблюдений по доверительной вероятности имеем уравнение:
, где ,
где значение находим по таблице Лапласа (приложение 1), .
Пример 4.7. По результатам наблюдений была найдена оценка неизвестного математического ожидания m случайной величины если точечная оценка =10.2, а дисперсия оценки =4. Требуется оценить доверительный интервал для оценки математического ожидания по 36-ти наблюдениям с заданной надежностью =0.99.
Решение. Из (4.1) следует, что . Отсюда получаем, что =2.58 и половина искомого интервала . Так как , то с вероятностью 0.99 доверительный интервал для оценки математического ожидания: .
Со случаем, когда распределение результатов наблюдений нормально, но их дисперсия неизвестна, можно ознакомится в [3, 4, 6].
Статистическая гипотеза это предположение
о виде закона распределения («данная генеральная совокупность нормально распределена»);
о значениях его параметров («генеральное среднее равно нулю»);
об однородности данных («эти две выборки извлечены из одной генеральной совокупности»).
Статистическая проверка гипотезы состоит в выяснении того, согласуются ли результаты наблюдений (выборочные данные) с нашим предположением.
Результатом проверки может быть отрицательный ответ: выборочные данные противоречат высказанной гипотезе, поэтому от нее следует отказаться. В случае ответа неотрицательного (выборочные данные не противоречат гипотезе) гипотезу принимают в качестве одного из допустимых решений (не единственно верного).
Различают основную (нулевую) гипотезу (гипотеза, которая проверяется, ) и альтернативную (конкурирующую, противопоставленную основной, ). Например, если нулевая гипотеза : МХ= 10 (т. е. математическое ожидание нормально распределенной величины равно 10), тогда гипотеза , может иметь вид : МХ ≠10.
Цель статистической проверки гипотез: на основании выборочных данных принять решение о справедливости основной гипотезы или отклонить в ее пользу альтернативной.
Так как проверка осуществляется на основании выборки, а не всей генеральной совокупности, то существует вероятность, возможно, очень малая, ошибочного заключения.
Так, нулевая гипотеза может быть отвергнута, в то время как в действительности в генеральной совокупности она является справедливой. Такую ошибку называют ошибкой первого рода, а её вероятность уровнем значимости и обозначают (стандартные значения : 0.1, 0.05, 0.01, 0.001). Возможно, что нулевая гипотеза принимается, в то время как в генеральной совокупности справедлива альтернативная гипотеза. Такую ошибку называют ошибкой второго рода, а её вероятность обозначают Проверка статистических гипотез осуществляется с помощью статистического критерия K правила (функции от результатов наблюдений), определяющего меру расхождения результатов наблюдений с нулевой гипотезой. Вероятность называют мощностью критерия.
Замечание. Ошибка первого рода состоит в том, что будет отвергнута правильная гипотеза. Ошибка второго рода состоит в том, что будет принята неправильная гипотеза.
Например, основная гипотеза состоит в том, что предприятие получает прибыль. Если это правильная гипотеза, то ошибка первого рода состоит в том, что данная гипотеза отвергается. Если принимается решение о том, что прибыль предприятие не получает, то это ошибка второго рода.
Иногда ошибку первого рода называют «альфа-риск» (-риск) а ошибку второго рода «бета-риск» (-риск).
Из двух критериев, характеризующихся одной и той же вероятностью выбирают тот, которому соответствует меньшая ошибка 2-го рода, т.е. большая мощность. Уменьшить вероятности обеих ошибок и одновременно можно, увеличив объем выборки.
Значения критерия K разделяются на две части: область допустимых значений (область принятия гипотезы ) и критическую область (область принятия гипотезы ). Критическая область состоит из тех же значений критерия К, которые маловероятны при справедливости гипотезы . Если значение критерия K, рассчитанное по выборочным данным, попадает в критическую область, то гипотеза отвергается в пользу альтернативной в противном случае мы утверждаем, что нет оснований отклонять гипотезу .
Пример 4.7. Для подготовки к зачету преподаватель сформулировал 100 вопросов (генеральная совокупность) и считает, что студенту можно поставить «зачтено», если тот знает 60 % вопросов (критерий). Преподаватель задает студенту 5 вопросов (выборка из генеральной совокупности) и ставит «зачтено», если правильных ответов не меньше трех. Гипотеза : «студент курс усвоил», а множество область принятия этой гипотезы. Критической областью является множество правильных ответов меньше трех, в этом случае основная гипотеза отвергается в пользу альтернативной «студент курс не усвоил, знает меньше 60 % вопросов».
Студент А выучил 70 вопросов из 100, но ответил правильно только на два из пяти, предложенных преподавателем, зачет не сдан. В этом случае преподаватель совершает ошибку первого рода.
Студент Б выучил 50 вопросов из 100, но ему повезло, и он ответил правильно на 3 вопроса зачет сдан, но совершена ошибка второго рода.
Преподаватель может уменьшить вероятность этих ошибок, увеличив количество задаваемых на зачете вопросов.
Алгоритм проверки статистических гипотез сводится к следующему:
1) сформулировать основную и альтернативную гипотезы;
2) выбрать уровень значимости ;
3) в соответствии с видом гипотезы выбрать статистический критерий для ее проверки, т.е. случайную величину K, распределение которой известно;
4) по таблицам распределения случайной величины K найти границу критической области (вид критической области определить по виду альтернативной гипотезы );
5) по выборочным данным вычислить наблюдаемое значение критерия
6) принять статистическое решение: если попадает в критическую область отклонить гипотезу в пользу альтернативной ; если попадает в область допустимых значений, то нет оснований отклонять основную гипотезу.
Одной из важных задач математической статистики является установление теоретического закона распределения случайной величины, характеризующей изучаемый признак по эмпирическому распределению, представляющему вариационный ряд. Предположение о виде закона распределения можно сделать по гистограмме или полигону (Рис. 4.3)
а) |
б) |
в) |
Рис. 4.3. Возможные виды гистограмм:
а) нормального, б) показательного, в) равномерного распределений
Например, по гистограмме (рис. 4.3, а)) можно сделать предположение о том, что генеральная совокупность распределена по нормальному закону.
Для проверки гипотез о виде распределения служат специальные критерии критерии согласия. Они отвечают на вопрос: согласуются ли результаты экспериментов с предположением о том, что генеральная совокупность имеет заданное распределение.
Проверим это предположение с помощью критерия согласия Пирсона. В этом критерии мерой расхождения между гипотетическим (предполагаемым) и эмпирическим распределением служит статистика
где n объем выборки;
k количество интервалов (групп наблюдений);
количество наблюдений, попавших в j-й интервал;
вероятность попадания в j-й интервал случайной величины, распределенной по гипотетическому закону.
Если предположение о виде закона распределения справедливо, то статистика Пирсона распределена по закону «хи-квадрат» с числом степеней свободы (r число параметров распределения, оцениваемых по выборке):
Оцениваются неизвестные параметры с использованием теории точечных оценок (см. источник [3], гл.16 и раздел 3.8. настоящего пособия), некоторые оценки приведены в табл. 4.4.
Таблица 4.4. Оцениваемые параметры и их точечные оценки
Вид распределения |
Оцениваемые параметры |
Точечные оценки параметров |
Здесь .
Количество интервалов k рекомендуется рассчитывать по формуле Старджеса где n объем выборки. Длину i-го интервала принимают равной где наибольшее, а наименьшее значение в вариационном ряду.
Пример 4.8. Для среднего балла среди 30-ти групп (с точностью до сотых долей балла) получили выборку
3.7, 3.85, 3.7, 3.78, 3.6, 4.45, 4.2, 3.87, 3.33, 3.76, 3.75, 4.03, 3.8, 4.75, 3.25, 4.1, 3.55, 3.35, 3.38, 3.05, 3.56, 4.05, 3.24, 4.08, 3.58, 3.98, 3.4, 3.8, 3.06, 4.38. Проверить гипотезу о нормальном распределении среднего балла на уровне значимости .
Решение. Сгруппируем эту выборку. Наименьший средний балл равен 3.05, наибольший 4.75. Интервал [3; 4.8] разобьем на 6 частей длиной , применяя формулу Старджеса (). Подсчитаем частоту (относительную частоту ) для каждого интервала и получим сгруппированный статистический ряд (табл. 4.5).
Таблица 4.5. Статистический ряд
Интервалы |
[3;3.3) |
[3.3;3.6) |
[3.6;3.9) |
[3.9;4.2) |
[4.2;4.5) |
[4.5;4.8) |
Частоты |
4 |
7 |
10 |
5 |
3 |
1 |
Относительные частоты |
0.133 |
0.233 |
0.3 |
0.167 |
0.1 |
0.033 |
Сформулируем основную и альтернативную гипотезы.
случайная величина X (средний балл) подчиняется нормальному закону с параметрами . Так как истинных значений параметров мы не знаем, возьмем их оценки, рассчитанные по выборке:
случайная величина X не подчиняется нормальному закону с данными параметрами.
Рассчитаем наблюдаемое значение статистики Пирсона. Эмпирические частоты уже известны (табл. 4.5), а для вычисления вероятностей (в предположении, что гипотеза справедлива) применим уже известную формулу (свойство В):
и таблицу функции Лапласа (приложение 1). Полученные результаты сведем в таблицу (табл. 4.6). Наблюдаемое значение статистики Пирсона равно
Определим границу критической области. Так как статистика Пирсона измеряет разницу между эмпирическим и теоретическим распределениями, то чем больше ее наблюдаемое значение , тем сильнее довод против основной гипотезы. Поэтому критическая область для этой статистики всегда правосторонняя: Её границу находим по таблицам распределения «хи-квадрат» (приложение 3) и заданным значениям (число интервалов), (параметры и оценены по выборке):
Наблюдаемое значение статистики Пирсона не попадает в критическую область: поэтому нет оснований отвергать основную гипотезу.
Вывод: на уровне значимости 0.025 справедливо предположение о том, что средний балл имеет нормальное распределение.
Таблица 4.6. Сравнение наблюдаемых и ожидаемых частот
№ п/п |
Интервалы группировки |
Наблюдаемая частота |
Вероятность попадания в j-й интервал |
Ожидаемая частота |
Слагаемые статистики Пирсона |
1. |
[3; 3.3) |
4 |
0.101 |
3.032 |
0.309 |
2. |
[3.3; 3.6) |
7 |
0.225 |
6.761 |
0.008 |
3. |
[3.6; 3.9) |
10 |
0.295 |
8.79 |
0.166 |
4. |
[3.9; 4.2) |
5 |
0.222 |
6.665 |
0.416 |
5. |
[4.2; 4.5) |
3 |
0.098 |
2.946 |
0.001 |
6. |
[4.5; 4.8) |
1 |
0.025 |
0.758 |
0.077 |
|
30 |
0.965 |
28.95 |
Указания. «Показательные» типовые задачи и примеры находятся по указанным разделам.
Задача №1 |
Тема 2.3 |
Задача №2 |
Тема 2.4 |
Задача №3 |
Темы 2.52.7 |
Задача №4 |
Темы 2.82.9 |
Задача №5 |
Тема 2.10 |
Задача №6 |
Тема 2.11 |
Задачи №79 |
Темы 3.13.8 |
Лабораторная работа. Часть 1
Вариант 1
Вариант 2
Вариант 3
Вариант 4
Вариант 5
Вариант 6
Вариант 7
Вариант 8
Лабораторная работа. Часть 2
Задача 2.1. Путем опроса получены данные (n=80):
Выполнить задания:
а) получить дискретный вариационный ряд и статистическое распределение выборки;
б) построить полигон частот;
в) составить ряд распределения относительных частот;
г) составить эмпирическую функцию распределения;
д) построить график эмпирической функции распределения;
е) найти основные числовые характеристики вариационного ряда (по возможности использовать упрощающие формулы для их нахождения):
1) выборочное среднее ;
2) выборочную дисперсию D(X);
3) выборочное среднее квадратическое отклонение ;
4) коэффициент вариации V;
5) интерпретировать полученные результаты.
Задача 2.2. В таблице (исходные данные для задания 2) приведены размеры диаметров головок 100 заклепок (в мм), изготовленных станком (который делает их тысячами). Все контролируемые условия, в которых работал станок, оставались неизменными. В тоже время диаметры головок раз от разу несколько изменялись. Характерная черта случайных колебаний: изменения выглядят бессистемными, хаотичными.
Выполнить задания:
Вариант 2.1
Исходные данные для задания 1 варианта 2.1
1 4 1 4 3 3 3 1 0 6 |
1 2 3 5 1 4 3 3 5 1 |
5 2 4 3 2 2 3 3 1 3 |
2 3 1 1 4 3 1 4 3 1 |
6 4 3 4 2 3 2 3 3 1 |
4 6 1 4 5 3 4 2 4 5 |
2 6 4 1 3 3 4 1 3 1 |
0 1 4 6 4 7 4 1 3 5 |
Исходные данные для задания 2 варианта 2.1
13,53 |
13,34 |
13,45 |
13,42 |
13,29 |
13,38 |
13,45 |
13,50 |
13,55 |
13,33 |
13,32 |
13,69 |
13,46 |
13,32 |
13,32 |
13,48 |
13,29 |
13,25 |
13,44 |
13,60 |
13,43 |
13,51 |
13,43 |
13,38 |
13,24 |
13,28 |
13,58 |
13,31 |
13,31 |
13,45 |
13,43 |
13,44 |
13,34 |
13,49 |
13,50 |
13,38 |
13,48 |
13,43 |
13,37 |
13,29 |
13,54 |
13,33 |
13,36 |
13,46 |
13,23 |
13,44 |
13,38 |
13,27 |
13,66 |
13,26 |
13,40 |
13,52 |
13,59 |
13,48 |
13,46 |
13,40 |
13,43 |
13,26 |
13,50 |
13,38 |
13,43 |
13,34 |
13,41 |
13,24 |
13,42 |
13,55 |
13,37 |
13,41 |
13,38 |
13,14 |
13,42 |
13,52 |
13,38 |
13,54 |
13,30 |
13,18 |
13,32 |
13,46 |
13,39 |
13,35 |
13,34 |
13,37 |
13,50 |
13,61 |
13,42 |
13,32 |
13,35 |
13,40 |
13,57 |
13,31 |
13,40 |
13,36 |
13,28 |
13,58 |
13,58 |
13,38 |
13,32 |
13,20 |
13,43 |
13,34 |
Вариант 2.2
Исходные данные для задания 1 варианта 2.2
1 5 1 4 2 2 3 1 0 6 |
5 2 3 5 1 4 1 1 5 1 |
5 2 4 3 2 2 3 0 1 3 |
2 3 2 3 4 3 1 4 3 1 |
3 4 3 4 2 3 2 3 3 1 |
3 6 1 4 5 3 4 2 4 5 |
1 2 4 1 3 3 4 1 3 1 |
0 1 4 6 4 7 4 1 0 5 |
Исходные данные для задания 2 варианта 2.2
13,33 |
13,33 |
13,31 |
13,45 |
13,39 |
13,45 |
13,41 |
13,45 |
13,39 |
13,43 |
13,54 |
13,64 |
13,40 |
13,55 |
13,40 |
13,26 |
13,42 |
13,50 |
13,32 |
13,31 |
13,28 |
13,52 |
13,46 |
13,63 |
13,38 |
13,44 |
13,52 |
13,53 |
13,37 |
13,33 |
13,24 |
13,13 |
13,53 |
13,53 |
13,39 |
13,57 |
13,51 |
13,34 |
13,39 |
13,47 |
13,51 |
13,48 |
13,62 |
13,58 |
13,57 |
13,33 |
13,51 |
13,40 |
13,30 |
13,48 |
13,40 |
13,57 |
13,51 |
13,40 |
13,52 |
13,56 |
13,40 |
13,34 |
13,23 |
13,37 |
13,48 |
13,48 |
13,62 |
13,35 |
13,40 |
13,36 |
13,45 |
13,48 |
13,29 |
13,58 |
13,44 |
13,56 |
13,28 |
13,59 |
13,47 |
13,46 |
13,62 |
13,54 |
13,20 |
13,38 |
13,43 |
13,36 |
13,56 |
13,51 |
13,47 |
13,40 |
13,29 |
13,20 |
13,46 |
13,44 |
13,42 |
13,29 |
13,41 |
13,39 |
13,50 |
13,48 |
13,26 |
13,37 |
13,28 |
13,39 |
Вариант 2.3
Исходные данные для задания 1 варианта 2.3
2 1 1 3 2 2 3 1 0 5 |
6 2 3 5 0 4 1 1 5 0 |
1 2 4 3 2 2 3 0 1 3 |
1 3 2 4 4 3 1 4 3 6 |
1 4 3 4 2 3 2 3 3 1 |
2 6 1 4 5 3 4 2 4 5 |
0 2 4 1 3 3 4 1 3 6 |
1 0 4 6 4 7 4 1 0 6 |
Исходные данные для задания 2 варианта 2.3
12,52 |
12,34 |
12,45 |
12,42 |
12,39 |
12,38 |
12,45 |
12,50 |
12,55 |
12,22 |
12,02 |
12,69 |
12,46 |
12,22 |
12,22 |
12,48 |
12,39 |
12,35 |
12,44 |
12,60 |
12,42 |
12,51 |
12,42 |
12,28 |
12,24 |
12,28 |
12,58 |
12,21 |
12,21 |
12,45 |
12,42 |
12,44 |
12,24 |
12,49 |
12,50 |
12,28 |
12,48 |
12,42 |
12,27 |
12,29 |
12,54 |
12,22 |
12,26 |
12,46 |
12,32 |
12,44 |
12,28 |
12,37 |
12,66 |
12,26 |
12,40 |
12,52 |
12,59 |
12,48 |
12,46 |
12,40 |
12,42 |
12,26 |
12,50 |
12,28 |
12,42 |
12,24 |
12,41 |
12,24 |
12,42 |
12,55 |
12,27 |
12,41 |
12,28 |
12,14 |
12,42 |
12,52 |
12,28 |
12,54 |
12,10 |
12,18 |
12,22 |
12,46 |
12,29 |
12,25 |
12,24 |
12,37 |
12,50 |
12,61 |
12,42 |
12,32 |
12,25 |
12,40 |
12,57 |
12,21 |
12,40 |
12,26 |
12,18 |
12,58 |
12,58 |
12,38 |
12,22 |
12,20 |
12,42 |
12,24 |
Вариант 2.4
Исходные данные для задания 1 варианта 2.4
2 0 0 3 2 2 3 1 0 5 |
5 4 3 5 0 4 1 1 5 0 |
0 1 3 3 2 2 3 0 1 3 |
1 3 2 4 4 3 1 4 3 6 |
1 5 4 5 2 3 2 3 3 1 |
2 6 1 4 5 3 4 2 4 5 |
1 1 2 1 3 3 4 1 3 6 |
6 6 7 6 4 7 4 1 0 6 |
Исходные данные для задания 2 варианта 2.4
14,14 |
14,54 |
14,41 |
14,45 |
14,19 |
14,45 |
14,41 |
14,45 |
14,29 |
14,24 |
14,54 |
14,64 |
14,40 |
14,55 |
14,20 |
14,26 |
14,42 |
14,50 |
14,42 |
14,21 |
14,28 |
14,52 |
14,76 |
14,64 |
14,48 |
14,60 |
14,52 |
14,54 |
14,47 |
14,12 |
14,23 |
14,15 |
14,54 |
14,54 |
14,49 |
14,57 |
14,51 |
14,34 |
14,49 |
14,47 |
14,51 |
14,48 |
14,62 |
14,58 |
14,57 |
14,33 |
14,51 |
14,40 |
14,40 |
14,48 |
14,40 |
14,57 |
14,51 |
14,40 |
14,52 |
14,56 |
14,40 |
14,44 |
14,24 |
14,47 |
14,48 |
14,48 |
14,62 |
14,35 |
14,40 |
14,46 |
14,45 |
14,48 |
14,29 |
14,58 |
14,33 |
14,56 |
14,28 |
14,59 |
14,47 |
14,46 |
14,62 |
14,54 |
14,20 |
14,38 |
14,44 |
14,46 |
14,56 |
14,51 |
14,47 |
14,40 |
14,29 |
14,20 |
14,46 |
14,44 |
14,42 |
14,29 |
14,41 |
14,49 |
14,50 |
14,18 |
14,26 |
14,47 |
14,28 |
14,49 |
Вариант 2.5
Исходные данные для задания 1 варианта 2.5
2 0 0 3 2 2 3 1 0 5 |
5 4 3 5 0 4 1 1 5 0 |
0 1 3 3 2 2 3 0 1 3 |
1 3 2 4 4 3 1 4 3 6 |
1 5 4 5 2 3 2 3 3 1 |
2 6 1 4 5 3 4 2 4 5 |
1 1 2 1 3 3 4 1 3 6 |
6 6 7 6 4 7 4 1 0 6 |
Исходные данные для задания 2 варианта 2.5
11,58 |
11,14 |
11,45 |
11,42 |
11,29 |
11,38 |
11,45 |
11,50 |
11,55 |
11,11 |
11,12 |
11,69 |
11,46 |
11,12 |
11,12 |
11,48 |
11,29 |
11,25 |
11,44 |
11,60 |
11,41 |
11,51 |
11,41 |
11,18 |
11,24 |
11,28 |
11,58 |
11,61 |
11,33 |
11,45 |
11,41 |
11,44 |
11,14 |
11,49 |
11,50 |
11,28 |
11,48 |
11,41 |
11,17 |
11,39 |
11,54 |
11,11 |
11,16 |
11,46 |
11,21 |
11,44 |
11,18 |
11,17 |
11,66 |
11,26 |
11,40 |
11,52 |
11,59 |
11,48 |
11,46 |
11,40 |
11,41 |
11,26 |
11,50 |
11,18 |
11,42 |
11,14 |
11,41 |
11,24 |
11,42 |
11,55 |
11,17 |
11,41 |
11,38 |
11,24 |
11,42 |
11,52 |
11,18 |
11,54 |
11,10 |
11,18 |
11,22 |
11,46 |
11,19 |
11,25 |
11,24 |
11,17 |
11,50 |
11,63 |
11,42 |
11,12 |
11,25 |
11,40 |
11,57 |
11,11 |
11,40 |
11,16 |
11,28 |
11,58 |
11,58 |
11,18 |
11,12 |
11,20 |
11,42 |
11,14 |
Вариант 2.6
Исходные данные для задания 1 варианта 2.6
0 4 1 4 3 3 3 0 0 6 |
1 2 3 5 1 4 3 3 5 1 |
1 2 4 3 2 2 3 3 0 3 |
1 3 1 1 4 0 1 4 3 1 |
1 4 3 1 2 3 2 3 3 1 |
4 1 1 4 5 3 4 2 4 5 |
2 6 4 1 3 3 4 1 3 1 |
0 1 4 6 4 7 4 0 3 5 |
Исходные данные для задания 2 варианта 2.6
10,51 |
10,24 |
10,45 |
10,42 |
10,29 |
10,08 |
10,45 |
10,50 |
10,55 |
10,10 |
10,02 |
10,69 |
10,46 |
10,02 |
10,02 |
10,48 |
10,29 |
10,25 |
10,44 |
10,60 |
10,40 |
10,51 |
10,40 |
10,08 |
10,24 |
10,28 |
10,58 |
10,01 |
10,61 |
10,45 |
10,43 |
10,44 |
10,14 |
10,49 |
10,50 |
10,08 |
10,48 |
10,40 |
10,07 |
10,29 |
10,54 |
10,00 |
10,06 |
10,46 |
10,23 |
10,44 |
10,08 |
10,27 |
10,66 |
10,26 |
10,40 |
10,52 |
10,59 |
10,48 |
10,46 |
10,43 |
10,43 |
10,26 |
10,50 |
10,08 |
10,40 |
10,04 |
10,41 |
10,24 |
10,42 |
10,55 |
10,47 |
10,41 |
10,08 |
10,14 |
10,42 |
10,52 |
10,68 |
10,54 |
10,64 |
10,18 |
10,02 |
10,46 |
10,19 |
10,15 |
10,14 |
10,07 |
10,57 |
10,61 |
10,42 |
10,12 |
10,15 |
10,43 |
10,57 |
10,01 |
10,44 |
10,06 |
10,28 |
10,58 |
10,58 |
10,08 |
10,02 |
10,20 |
10,45 |
10,04 |
Вариант 2.7
Исходные данные для задания 1 варианта 2.7
2 5 1 4 3 3 4 1 0 6 |
5 1 4 1 2 3 3 3 5 1 |
5 2 4 3 2 0 3 3 1 3 |
3 2 1 1 4 3 1 4 3 0 |
2 3 3 1 6 4 3 4 2 3 |
1 6 1 4 5 3 4 2 4 1 |
6 3 3 4 1 6 4 1 3 0 |
0 1 4 6 1 0 1 1 3 2 |
Исходные данные для задания 2 варианта 2.7
18,51 |
18,04 |
18,45 |
18,42 |
18,29 |
18,10 |
18,45 |
18,50 |
18,55 |
18,08 |
18,02 |
18,69 |
18,46 |
18,02 |
18,12 |
18,40 |
18,29 |
18,25 |
18,44 |
18,60 |
18,41 |
18,51 |
18,41 |
18,10 |
18,24 |
18,28 |
18,58 |
18,11 |
18,01 |
18,45 |
18,48 |
18,44 |
18,04 |
18,49 |
18,50 |
18,08 |
18,48 |
18,40 |
18,07 |
18,29 |
18,54 |
18,08 |
18,86 |
18,46 |
18,28 |
18,44 |
18,08 |
18,27 |
18,66 |
18,26 |
18,40 |
18,52 |
18,59 |
18,48 |
18,46 |
18,40 |
18,48 |
18,26 |
18,50 |
18,88 |
18,48 |
18,84 |
18,41 |
18,24 |
18,42 |
18,55 |
18,87 |
18,41 |
18,88 |
18,14 |
18,42 |
18,52 |
18,88 |
18,54 |
18,80 |
18,18 |
18,82 |
18,46 |
18,89 |
18,85 |
18,84 |
18,87 |
18,50 |
18,61 |
18,42 |
18,82 |
18,85 |
18,40 |
18,57 |
18,81 |
18,40 |
18,86 |
18,28 |
18,58 |
18,58 |
18,88 |
18,82 |
18,20 |
18,48 |
18,84 |
Вариант 2.8
Исходные данные для задания 1 варианта 2.8
1 4 7 4 3 3 3 1 0 6 |
1 2 3 5 1 4 7 3 5 1 |
5 2 4 3 7 2 3 7 1 3 |
1 3 1 1 4 3 1 4 7 1 |
1 4 3 4 2 3 2 3 3 1 |
5 6 1 4 5 7 4 2 4 5 |
1 7 4 1 7 3 4 7 3 1 |
0 1 4 6 4 7 4 1 3 5 |
Исходные данные для задания 2 варианта 2.8
11,51 |
11,14 |
11,45 |
11,42 |
11,29 |
11,18 |
11,45 |
11,50 |
11,55 |
11,11 |
11,12 |
11,69 |
11,46 |
11,12 |
11,12 |
11,48 |
11,29 |
11,25 |
11,44 |
11,60 |
11,41 |
11,51 |
11,41 |
11,18 |
11,24 |
11,28 |
11,58 |
11,11 |
11,11 |
11,45 |
11,41 |
11,44 |
11,14 |
11,49 |
11,50 |
11,18 |
11,48 |
11,41 |
11,17 |
11,29 |
11,54 |
11,11 |
11,16 |
11,46 |
11,21 |
11,44 |
11,18 |
11,27 |
11,66 |
11,26 |
11,40 |
11,52 |
11,59 |
11,48 |
11,46 |
11,40 |
11,41 |
11,26 |
11,50 |
11,18 |
11,41 |
11,14 |
11,41 |
11,24 |
11,42 |
11,55 |
11,17 |
11,41 |
11,18 |
11,14 |
11,42 |
11,52 |
11,18 |
11,54 |
11,10 |
11,18 |
11,12 |
11,46 |
11,19 |
11,15 |
11,14 |
11,17 |
11,50 |
11,61 |
11,42 |
11,12 |
11,15 |
11,40 |
11,57 |
11,11 |
11,40 |
11,16 |
11,28 |
11,58 |
11,58 |
11,18 |
11,12 |
11,20 |
11,41 |
11,14 |
Вариант 2.9
Исходные данные для задания 1 варианта 2.9
0 4 1 4 3 3 3 1 0 6 |
1 2 3 5 0 4 3 3 5 1 |
5 2 4 3 2 2 3 3 1 3 |
0 3 1 1 4 0 1 4 3 1 |
6 4 3 4 2 3 2 3 1 1 |
0 1 1 4 5 3 4 2 4 5 |
0 6 4 1 3 3 4 1 3 1 |
1 1 4 6 4 2 4 1 3 5 |
Исходные данные для задания 2 варианта 2.9
19,50 |
19,14 |
19,45 |
19,42 |
19,29 |
19,08 |
19,45 |
19,50 |
19,55 |
19,19 |
19,02 |
19,69 |
19,46 |
19,02 |
19,92 |
19,48 |
19,29 |
19,25 |
19,44 |
19,60 |
19,49 |
19,51 |
19,49 |
19,08 |
19,24 |
19,28 |
19,58 |
19,11 |
19,01 |
19,45 |
19,49 |
19,44 |
19,14 |
19,49 |
19,50 |
19,08 |
19,48 |
19,49 |
19,07 |
19,29 |
19,54 |
19,19 |
19,06 |
19,46 |
19,29 |
19,44 |
19,18 |
19,27 |
19,16 |
19,26 |
19,40 |
19,52 |
19,59 |
19,48 |
19,46 |
19,40 |
19,49 |
19,26 |
19,50 |
19,08 |
19,49 |
19,04 |
19,41 |
19,24 |
19,42 |
19,55 |
19,17 |
19,41 |
19,08 |
19,14 |
19,42 |
19,52 |
19,08 |
19,54 |
19,10 |
19,18 |
19,02 |
19,46 |
19,09 |
19,05 |
19,04 |
19,07 |
19,50 |
19,61 |
19,42 |
19,02 |
19,05 |
19,40 |
19,57 |
19,01 |
19,40 |
19,06 |
19,28 |
19,58 |
19,58 |
19,08 |
19,02 |
19,20 |
19,49 |
19,04 |
Вариант 2.10
Исходные данные для задания 1 варианта 2.10
1 4 1 4 8 8 8 1 0 6 |
1 2 8 5 1 4 8 8 5 1 |
5 2 4 8 2 2 8 8 1 8 |
2 8 1 1 4 8 1 4 8 1 |
6 4 8 4 2 8 2 8 8 1 |
4 6 1 4 5 8 4 2 4 5 |
2 6 4 1 8 8 4 1 8 1 |
0 1 4 6 4 7 4 1 8 5 |
Исходные данные для задания 2 варианта 2.10
17,57 |
17,74 |
17,45 |
17,42 |
17,29 |
17,78 |
17,45 |
17,50 |
17,55 |
17,77 |
17,72 |
17,69 |
17,46 |
17,72 |
17,72 |
17,48 |
17,29 |
17,25 |
17,44 |
17,60 |
17,47 |
17,51 |
17,47 |
17,78 |
17,24 |
17,28 |
17,58 |
17,71 |
17,71 |
17,45 |
17,47 |
17,44 |
17,74 |
17,49 |
17,50 |
17,78 |
17,48 |
17,47 |
17,77 |
17,29 |
17,54 |
17,77 |
17,76 |
17,46 |
17,27 |
17,44 |
17,78 |
17,27 |
17,66 |
17,26 |
17,40 |
17,52 |
17,59 |
17,48 |
17,46 |
17,40 |
17,47 |
17,26 |
17,50 |
17,78 |
17,47 |
17,74 |
17,41 |
17,24 |
17,42 |
17,55 |
17,77 |
17,41 |
17,78 |
17,14 |
17,42 |
17,52 |
17,78 |
17,54 |
17,70 |
17,18 |
17,72 |
17,46 |
17,79 |
17,75 |
17,74 |
17,77 |
17,50 |
17,61 |
17,42 |
17,72 |
17,75 |
17,40 |
17,57 |
17,71 |
17,40 |
17,76 |
17,28 |
17,58 |
17,58 |
17,78 |
17,72 |
17,20 |
17,47 |
17,74 |
Задача 2.1. Путем опроса получены следующие данные (n=80):
2 4 2 4 1 1 1 2 0 6 |
1 2 1 2 2 4 1 1 5 1 |
0 2 4 1 2 2 1 1 1 1 |
1 1 1 1 2 1 1 4 1 1 |
7 4 1 4 2 1 2 1 1 1 |
4 1 1 4 5 1 4 2 4 5 |
1 6 4 1 1 2 4 1 1 1 |
0 0 4 6 4 7 4 1 1 5 |
Выполнить задания:
а) получить дискретный вариационный ряд и статистическое распределение выборки;
б) построить полигон частот;
в) составить ряд распределения относительных частот;
г) составить эмпирическую функцию распределения;
д) построить график эмпирической функции распределения;
е) найти основные числовые характеристики вариационного ряда (по возможности использовать упрощающие формулы для их нахождения):
1) выборочное среднее ;
2) выборочную дисперсию D(X);
1) выборочное среднее квадратическое отклонение ;
4) коэффициент вариации V;
5) интерпретировать полученные результаты.
Решение.
а) Для составления дискретного вариационного ряда отсортируем данные опроса по величине и расположим их в порядке возрастания:
0 0 0 0 1 1 1 1 1 1 1 1 1 1 1 1 1 2 2 2 2 2 2 2 2 2 2 2 2 2 2 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 5 5 5 5 6 6 6 7 7.
Статистическое распределение выборки представлено в таблице 6.1, в которой первая строка варианты (наблюдаемые значение), вторая строка частоты появления этих вариант).
Таблица 6.1. Варианты и их частоты
xi |
0 |
1 |
2 |
1 |
4 |
5 |
6 |
7 |
ni |
4 |
11 |
14 |
24 |
16 |
4 |
1 |
2 |
б) Для построения полигона частот найдем относительные частоты (, где , где m число различных значений признака X () и в данном примере m=8), которые будем вычислять с одинаковой точностью. Полигон частот ломаная линия, соединяющая точки с координатами (Рис. 6.1). Расчеты запишем в табл. 6.2.
Таблица 6.2. Относительные частоты и накопленные частоты
xi |
ni |
Относительные частоты |
Накопленные частоты |
0 |
4 |
0.050 |
0.050 |
1 |
11 |
0.161 |
0.211 |
2 |
14 |
0.175 |
0.188 |
1 |
24 |
0.100 |
0.688 |
4 |
16 |
0.200 |
0.888 |
5 |
4 |
0.050 |
0.918 |
6 |
1 |
0.018 |
0.975 |
7 |
2 |
0.025 |
1.000 |
Сумма |
80 |
1 |
Рис. 6.1. Полигон частот вариационного ряда
в) Запишем ряд распределения (табл. 6.1) относительных частот в виде таблицы 1, в которой первая строка варианты (изучаемый признак), вторая строка относительные частоты (частости).
Таблица 6.1. Распределение относительных частот появления признака
xi |
0 |
1 |
2 |
1 |
4 |
5 |
6 |
7 |
ni |
0.05 |
0.161 |
0.175 |
0.1 |
0.2 |
0.05 |
0.018 |
0.025 |
г) Эмпирическую функцию распределения найдем, используя накопленные частоты (табл. 6.1, столбик 4) и формулу (4.1):
д) Построим график эмпирической функции распределения (рис. 6.2), используя значения, полученные в пункте г).
Рис. 6.2. График эмпирической функции распределения
е) Для вычисления выборочного среднего и выборочной дисперсии с использованием приведенных выше формул, удобно составлять расчетную таблицу 6.2:
Таблица 6.2. Расчетная таблица для вычисления выборочных величин
xi |
ni |
xini |
ni |
|
0 |
4 |
0 |
8.1796 |
12.7184 |
1 |
11 |
11 |
1.4596 |
44.9748 |
2 |
14 |
28 |
0.7196 |
10.1544 |
1 |
24 |
72 |
0.0196 |
0.4704 |
4 |
16 |
64 |
1.2996 |
20.7916 |
5 |
4 |
20 |
4.5796 |
18.1184 |
6 |
1 |
18 |
9.8596 |
29.5788 |
7 |
2 |
14 |
17.1196 |
14.2792 |
Сумма |
80 |
229 |
191.488 |
Используя суммы, полученные в табл. 6.2, определим искомые величины.
1) Выборочную среднюю
2) Выборочную дисперсию
1) Выборочное среднее квадратическое отклонение
4) Коэффициент вариации
5) Интерпретация полученных результатов:
Ответ: ; ; ;
Задача 2. См. задание 2 в КР 3 (часть 2)
Алгоритм выполнения задания по проверке статистической гипотезы о виде распределения1
Так, для нормального распределения существует встроенная функция НОРМРАСПР(), где в качестве последнего аргумента печатаем ИСТИНА.
(выборочная частотатеоретическая частота)^2 / теоретическая частота.
Сумма этих величин является значением выборочного 2выб критерия.
СПИСОК РЕКОМЕНДУЕМОЙ ЛИТЕРАТУРЫ
Основная литература
Интернет-ресурсы
ПРИЛОЖЕНИЕ 1
Таблица значений функции
ПРИЛОЖЕНИЕ 2
Таблица значений функции
Таблица значений функции
(продолжение)
Приложение 3
Критические точки распределения
Число степеней свободы k |
Уровень значимости |
|||||
0.01 |
0.025 |
0.05 |
0.95 |
0.975 |
0.99 |
|
1 |
6.6 |
5.0 |
3.8 |
0.0039 |
0.00098 |
0.00016 |
2 |
9.2 |
7.4 |
6.0 |
0.103 |
0.051 |
0.020 |
3 |
11.3 |
9.4 |
7.8 |
0.352 |
0.216 |
0.115 |
4 |
133 |
11.1 |
9.5 |
0.711 |
0.484 |
0.297 |
5 |
151 |
12.8 |
11.1 |
1.15 |
0.831 |
0.554 |
6 |
16.8 |
14.4 |
12.6 |
1.64 |
1.24 |
0.872 |
7 |
18.5 |
16.0 |
14.1 |
2.17 |
1.69 |
1.24 |
8 |
20.1 |
17.5 |
15.5 |
2.73 |
2.18 |
1.65 |
9 |
21.7 |
19.0 |
16.9 |
3.33 |
2.70 |
2.09 |
10 |
23.2 |
20.5 |
18.3 |
3.94 |
3.25 |
2.56 |
11 |
24.7 |
21.9 |
19.7 |
4.57 |
3.82 |
3.05 |
12 |
26.2 |
23.3 |
21 .0 |
5.23 |
4.40 |
3.57 |
13 |
27.7 |
24.7 |
22.4 |
5.89 |
5.01 |
4.11 |
14 |
29.1 |
26.1 |
23.7 |
6.57 |
5.63 |
4.66 |
15 |
30.6 |
27.5 |
25.0 |
7.26 |
6.26 |
5.23 |
16 |
32.0 |
28.8 |
26.3 |
7.96 |
6.91 |
5.81 |
17 |
33.4 |
30.2 |
27.6 |
8.67 |
7.56 |
6.41 |
18 |
34.8 |
31.5 |
28.9 |
9.39 |
8.23 |
7.01 |
19 |
36.2 |
32.9 |
30.1 |
10.1 |
8.91 |
7.63 |
20 |
37.6 |
34.2 |
31.4 |
10.9 |
9.59 |
8.26 |
21 |
38.9 |
35.5 |
32.7 |
11.6 |
10.3 |
8.90 |
22 |
40.3 |
36.8 |
33.9 |
12.3 |
11.0 |
9.54 |
23 |
41.6 |
38.1 |
35.2 |
13.1 |
11.7 |
10.2 |
24 |
43.0 |
39.4 |
36.4 |
13.8 |
12.4 |
10.9 |
25 |
44.3 |
40.6 |
37.7 |
14.6 |
13.1 |
11.5 |
26 |
45.6 |
41.9 |
38.9 |
15.4 |
13.8 |
12.2 |
27 |
47.0 |
43.2 |
40.1 |
16.2 |
14.6 |
12.9 |
28 |
48.3 |
44.5 |
41.3 |
16.9 |
15.3 |
13.6 |
29 |
49.6 |
45.7 |
42.6 |
17.7 |
16.0 |
14.3 |
30 |
50.9 |
47.0 |
43.8 |
18.5 |
16.8 |
15.0 |
Приложение 4
Критические точки распределения Стьюдента
Число степеней свободы k |
Уровень значимости (двусторонняя критическая область) |
|||||
0.10 |
0.05 |
0.02 |
0.01 |
0.002 |
0.001 |
|
1 |
6.31 |
12.7 |
31.82 |
63.7 |
318.3 |
637.0 |
2 |
2.92 |
4.30 |
6.97 |
9.92 |
22.33 |
31.6 |
3 |
2.35 |
3.18 |
4.54 |
5.84 |
10.22 |
12.9 |
4 |
2.13 |
2.78 |
3.75 |
4.60 |
7.17 |
8.61 |
5 |
2.01 |
2.57 |
3.37 |
4.03 |
5.89 |
6.86 |
6 |
1.94 |
2.45 |
3.14 |
3.71 |
5.21 |
5.96 |
7 |
1.89 |
2.36 |
3.00 |
3.50 |
4.79 |
5.40 |
8 |
1.86 |
2.31 |
2.90 |
3.36 |
4.50 |
5.04 |
9 |
1.83 |
2.26 |
2.82 |
3.25 |
4.30 |
4.78 |
10 |
1.81 |
2.23 |
2.76 |
3.17 |
4.14 |
4.59 |
11 |
1.80 |
2.20 |
2.72 |
3.11 |
4.03 |
4.44 |
12 |
1.78 |
2.18 |
2.68 |
3.05 |
3.93 |
4.32 |
13 |
1.77 |
2.16 |
2.65 |
3.01 |
3.85 |
4.22 |
14 |
1.76 |
2.14 |
2.62 |
2.98 |
3.79 |
4.14 |
15 |
1.75 |
2.13 |
2.60 |
2.95 |
3.73 |
4.07 |
16 |
1.75 |
2.12 |
2.58 |
2.92 |
3.69 |
4.01 |
17 |
1.74 |
2.11 |
2.57 |
2.90 |
3.65 |
3.95 |
18 |
1.73 |
2.10 |
2.55 |
2.88 |
3.61 |
3.92 |
19 |
1.73 |
2.09 |
2.54 |
2.86 |
3.58 |
3.88 |
20 |
1.73 |
2.09 |
2.53 |
2.85 |
3.55 |
3.85 |
21 |
1.72 |
2.08 |
2.52 |
2.83 |
3.53 |
3.82 |
22 |
1.72 |
2.07 |
2.51 |
2.82 |
3.51 |
3.79 |
23 |
1.71 |
2.07 |
2.50 |
2.81 |
3.59 |
3.77 |
24 |
1.71 |
2.06 |
2.49 |
2.80 |
3.47 |
3.74 |
25 |
1.71 |
2.06 |
2.49 |
2.79 |
3.45 |
3.72 |
26 |
1.71 |
2.06 |
2.48 |
2.78 |
3.44 |
3.71 |
27 |
1.71 |
2.05 |
2.47 |
2.77 |
3.42 |
3.69 |
28 |
1.70 |
2.05 |
2.46 |
2.76 |
3.40 |
3.66 |
29 |
1.70 |
2.05 |
2.46 |
2.76 |
3.40 |
3.66 |
30 |
1.70 |
2.04 |
2.46 |
2.75 |
3.39 |
3.65 |
40 |
1.68 |
2.02 |
2.42 |
2.70 |
3.31 |
3.55 |
60 |
1.67 |
2.00 |
2.39 |
2.66 |
3.23 |
3.46 |
120 |
1.66 |
1.98 |
2.36 |
2.62 |
3.17 |
3.37 |
|
1.64 |
1.96 |
2.33 |
2.58 |
3.09 |
3.29 |
Приложение 5
Образец оформления титульного листа
Федеральное государственное образовательное бюджетное учреждение высшего профессионального образования
«Финансовый университет при Правительстве Российской Федерации
(Финуниверситет)
Владикавказский филиал
Финансово-экономический факультет
Кафедра «Математика и информатика»
Отчет по лабораторной работе № 1
Направление подготовки __________________________________________
Дисциплина _____________________________________________________
Вариант №
Выполнил (а) (Ф.И.О.)______________________
Группа____________
Преподаватель _____________________________
Владикавказ
2013
1 Рекомендуется выполнять в пакетах Excel или MathCad, здесь указаны встроенные функции Excel.