Будь умным!


У вас вопросы?
У нас ответы:) SamZan.net

Основные понятия теории вероятностей Событием называется любой исход опыта различают следующие виды соб

Работа добавлена на сайт samzan.net: 2016-03-05

Поможем написать учебную работу

Если у вас возникли сложности с курсовой, контрольной, дипломной, рефератом, отчетом по практике, научно-исследовательской и любой другой работой - мы готовы помочь.

Предоплата всего

от 25%

Подписываем

договор

Выберите тип работы:

Скидка 25% при заказе до 19.5.2024

1. Основные понятия теории вероятностей

Событием называется любой исход опыта, различают следующие виды событий: случайные, достоверные, невозможные. Понятие достоверного и невозможного события используется для количественной оценки возможности появления того или иного явления, а с количественной оценкой связана вероятность. События называется несовместными в данном опыте если появление одного из них исключает появление другого. События называется совместными если появление одного из них не исключает появление остальных. Несколько событий образуют полную группу событий если в результате опыта обязательно появится хотя бы одно из них. Если два несовместных события образуют полную группу они называются противоположными. События называется равновозможными если появление ни одного из них не является объективно более возможным чем другие. События называются неравновозможными  если появление хотя бы одного из них является более возможным чем другие. Случаями называются несовместные равновозможные и образующие полную группу события. Основы теории вероятности. Суммой событий Аi называется событие С состоящее в появлении события А или события В или их обоих вместе. Суммой события А и В называется событие С заключенное в выполнении хотя бы одного из названых событий. Произведением нескольких событий называется событие заключающееся в совместном выполнении всех этих событий.

2. Кл. опр. вероятности.

Вычисление вероятностей: 1. классический способ 2. геометрический 3. статистический. Первые два способа называются способами непосредственного подсчета вероятности, а классический основан на подсчете числа опытов  благоприятствующих данному событию среди всех его возможных исходах. Говорят, что события А1, А2, …, Аn образуют полную систему событий, если их сумма есть достоверное событие

Среди случ. событий выдел. равновозможное событие, кот. имеют одинаковую возможность появления. Пусть с нек. опытом можно связать полную группу попарно несовместных событий А1, А2, …, Аn, и пусть все события Ai равновозможные. Вероятность каждого из событий

 

Пусть событие А связанное с этим опытом может произойти с каждым из m-событий А1, А2, …, Аn. Эти m-событий назыв. благоприятствующими событию А. Вероятностью события А назыв. отношение P(A)=m/n, числа исходов благоприятствующих А к числу всех исходов.

3. Основы комбинаторики.

Комбинаторика это раздел математики в котором изучается вопрос о том  сколько различных комбинаций  подчиненных тем или иным условиям можно составить из конечного числа различных элементов. Комбинации отличающиеся друг от друга составом элементов или их порядком называются соединениями различают три вида соединений. Размещениями называются соединения составленные из n-различных элементов по m-элементам, которые отличаются друг от доуга либо составом эл-тов либо их порядком.

Перестановки называют соединения составленные из одних и тех же n-элементов, которые отличаются друг от друга только их порядком размещения                        

          Сочетаниями называются соединения составленные из n-различных элементов по m-элементам, которые отличаются друг от друга хотя бы одним элементом.

Сочетания с повторениями это такие соединения состоящие из n-различных элементов по m-элементам отличающиеся друг от друга или хотя бы одним элементом или тем что хотя бы один элемент входит различное число раз                   

Правило суммы. Если некоторый объект А может быть выбран из совокупности объектов М способами, а объект В N способами, то выбор либо объекта А либо объекта В может быть осуществлен М+N способами. Правило произведения. Если объект А может быть выбран из совокупности объектов М способами, а после такого выбора объект В может быть выбран N способами, то пара объектов А и В могут быть выбраны А*В способами.

4. Теорема умножения вероятностей.

Событие А называется зависимым от события В если его вероятность меняется в зависимости от того произошло событие В или нет. Для независимых событий условная и безусловная вероятность совпадают. Вероятность появления двух зависимых событий равна произведению вероятностей одного из них на вероятность другого вычисленную при условии, что первое событие имело место.

Р(А*В)=Р(А)*Р(В/А)=Р(В)*Р(В/А)

Вероятность произведения нескольких событий равна произведению вероятностей этих событий причем вероятность каждого следующего события вычисляется при условии, что все предыдущие имели место.

Р(А12…Аn)=Р(А1)*Р(А21)*…*Р(Аn12…Аn-1)

Теорема сложения вероятностей совместных событий. Вероятность суммы двух совместных событий равна сумме вероятностей этих событий без вероятности их совместного появления.

Р(А)+Р(В)=Р(А)+Р(В)-Р(А*В)

Вероятность появления хотя бы одного события. Вероятность появления события А заключающееся в наступлении хотя бы одного из независимых совокупностей событий .А12…Аn равна разности между единицей и произведением вероятности противоположных событий А12…Аn                     Р(А)=1-q1*q2*…*qn

5. Формула полной вероятности

Пусть событие А может появиться вместе с одним из образующих полную группу попарнонесовместных событий Н12…Нn называемых гипотезами, тогда вероятность события А вычисляется как сумма произведений вероятностей каждой гипотезы на вероятность события А при этой гипотезе        

Формула Бейеса. Пусть имеется полная группа попарно несовместных гипотез Н12…Нn с известными вероятностями появления. В результате проведения опыта появилось некоторое события А, требуется переоценить вероятности гипотез при условии, что событие А произошло

6. Повторение опытов

Несколько опытов называются независимыми, если вероятность одного или иного из исходов каждого их опытов не зависит от того какие исходы имели другие опыты. Теорема. Если производится n независимых опытов в каждом из которых событие А появляется с одинаковой вероятностью р, причем то тогда вероятность того, что событие А появится ровно m раз определяется по формуле. Формула Бернулли        

Формула Бернулли применяется в тех случаях, когда число опытов невелико, а вероятности появления достаточно велики. Если число испытаний n стремится к 0, а вероятность появления события А в каждом из опытов р стремится к 0, то для определения вероятности появления события А ровно m раз применяют формулу Пуассона

      a=n*p

Если число опытов достаточно велико но не бесконечно, а вероятность появления события А в каждом опыте не стремится к 0, применяют локальную и интегральную теоремы Лапласа. Локальная теорема Лапласа. Вероятность того, что в n независимых испытаниях в каждом из которых вероятность появления события А равно р причем 1>р>0, то это событие наступает ровно m раз приблизительно равна

Интегральная теорема Лапласа. Вероятность того, что в n независимых испытаниях в каждом  из которых вероятность появления события А равно р, причем 1>р>0, то событие А наступит не менее m1 раз и не более m2 раза приблизительно равно

7. Случайные величины и законы их распределения

Опытом называется всякое осуществление определенных условий и действий при которых наблюдается изучаемое случайное явление. Опыты можно характеризовать качественно и количественно. Случайной называется величина, которая в результате опыта может принимать то или иное значение., причем заранее не известно какое именно. Случайные величины принято обозначать (X,Y,Z), а соответствующие им значения (x,y,z) Дискретными называются  случайные величины принимающие отдельные изолированные друг от друга значения, которые можно переоценить. Непрерывными величины возможные значение которых непрерывно заполняют некоторый диапазон. Законом распределения случайной величины называется всякое соотношение устанавливающее связь между возможными значениями случайных величин и соответствующими им вероятности. Ряд и многоугольник распределения. Простейшей формой закона распределения дискретной величины является ряд распределения.

x

x1

x2

x3

P

P1

P2

P3

Графической интерпретацией ряда распределения является многоугольник распределения.

8. Биномиальное распределение.

Биномиальным называют законы распределения случайной величины Х числа появления некоторого события  в n опытах если вероятность р появления события в каждом опыте постоянна

Сумма вероятностей представляют собой бином Ньютона

Для определения числовых характеристик в биномиальное распределение подставить вероятность которая определяется по формуле Бернули.                

При биномиальном распределении дисперсия равна мат. ожиданию умноженному на вероятность появления события в отдельном опыте. Распределение Пуассона. Когда требуется спрогнозировать ожидаемую очередь и разумно сбалансировать число и производительность точек обслуживания и время ожидания в очереди. Пуассоновским называют закон распределения дискретной случайной величины Х числа появления некоторого события в n-независимых опытах если вероятность того, что событие появится ровно m раз определяется по формуле.

      a=np 

n-число проведенных опытов; р-вероятность появления события в каждом опыте. В теории массового обслуживания параметр пуассоновского распределения определяется по формуле  а=λt , где λ - интенсивность потока сообщений t-время. Необходимо отметить, что пуассоновское распределение является предельным случаем биномиального, когда испытаний стремится к бесконечности, а вероятность появления события в каждом опыте стремится к 0.

 

Пуассоновское распределение является единичным распределением для которого такие характеристики как мат. Ожидание и дисперсия совпадают и они равны параметру этого закона распределения а.

9. Математическое ожидание случайной величины.

Математическим ожиданием случайной величины х (M[x])называется средне взвешенно значение случайной величины причем в качестве весов выступают вероятности появления тех или иных значений. Для дискретной случайной величины    

Для непрерывной    

С механической точки зрения мат. Ожидание это абсцисса центра тяжести системы точек расположенных по одноименной оси. Размерность мат. Ожидания совпадает с размерностью самой случайной величины. Математическое ожидание случайной величины всегда больше наименьшего значения и меньше наибольшего. M(X)=np, n – число независимых испытаний, р – вероятность появл. события.

10. Дисперсия

Дисперсия (D[x]) характеризует рассеивание или разряженность  случайной величины около ее математического ожидания.

Для дискретных

Для непрерывных

Дисперсия случайной величины всегда величина положительная. Размерность дисперсии равна квадрату разности случайной величины.

По опр.: D(X)=M(X2)-(M(X))2. Дисперсия числа появл. события в n-независимых испытаниях: D(X)=npq. Среднеквадратическое (стандартное) отклонение.

11. Невозможно предсказать какое именно возможное значение примет случ. величина в рез-те испытаний. При достаточно широких условиях суммарное поведение достаточно большого числа случ. величин, почти утрачив. случ. характер и становится закономерным. Эти общие условия указыв. в теоремах, кот. носят название закона больших чисел (теоремы Чебышева и Бернулли). Нер-во Чебышева: P(|x-M(x)|<)>=1-D(x)/2. Вторая форма: P(|x-M(x)|>=)=<1-D(x)/2.

Теорема Бернулли:  

На практике:  

12. Функция распределения случайной величины.

Для непрерывных случайных величин применяют такую форму закона распределения, как функция распределения. Функция распределения случайной величины Х, называется функцией аргумента х,  что случайная величина Х принимает любое значение меньшее х (Х<х); F(х)=Р(Х<х). F(х) - иногда называют интегральной функцией распределения или интегральным законом распределения. Функция распределения обладает следующими свойствами:

  1.  0<F(х)<1
  2.  если х12,то  F1)>F2)
  3.  

функция может быть изображена в виде графика. Для непрерывной величины это будет кривая изменяющееся в пределах от 0 до 1, а для дискретной величины - ступенчатая фигура со скачками. С помощью функции распределения легко находится вероятность попадания величины на участок от α до β

Р(α<х<β) рассмотрим 3 события

А - α<Х

В - α<Х<β

С - Х<β

С=А+В

Р(С)=Р(А)+Р(В)

Р(α<х<β)=Р(α)-Р(β)

13. Плотность распр. вер-ти непрерывной случ. величины.

Плотность распределения вероятности непрерывной случайной величины Х называется функция f(х) равная первой производной от функции распределения F(х)

График плотности распределения называется кривой распределения.  

Основные свойства плотности функции распределения:

  1.  f(х)>0
  2.   

Некоторые законы распределения случайных величин. Для дискретных случайных величин - биномиальное распределение и распределение Пуассона. Для непрерывных - равномерное показательное, экспоненциальное и нормальное распределение.

14. Числ. хар-ки непр. случ. величин.

Мат. ожиданием непр. случ. величин Х, все возм. значения кот. принадлежат интервалу [a;b], назыв. определённый интеграл.

Если все возм. значения принадлежат всей числ. оси, то

при этом предполог., что несобственный интеграл - до + сходится.

Дисперсией непр. случ. величины Х, все возм. значения кот принадлеж. интервалу [a;b], назыв. мат. ожидание квадрата её отклонения.

На практике исп. др. формулу

 Среднеквадратическое (стандартное) отклонение.

 

15. Закон равномерной плотности

Равномерным называется распределение непрерывной случайной величины Х все значения которой лежат на отрезке [a;b] и имеют при этом постоянную плотность распределения

площадь под кривой распределения равна 1 и поэтому с(в-а)=1

вероятность попадания случайной величины Х на интервал от (α;β)

α=а, если α<а

β=в, если β>в

основные числовые характеристики закона распределения плотности вычисляются по общим формулам и они равны

16. Нормальный закон распределения (закон Гаусса)

Нормальным называется распределение случайной величины Х если ф-ция плотности распределения  

Полученное выражение через элементарные функции не может быть выражено, такая функция так называемый интеграл вероятности для которой составлены таблицы, чаще всего в качестве такой функции используют

Часто по условию задачи необходимо определить вероятность попадания случайной величины Х на участок симметричный математическому ожиданию.

Правило трех сигм это правило часто используется для подтверждения или отбрасывания гипотезы о нормальном распределении случайной величины.

17. Показательное (экспоненциальное) распределение

Показательным называют распределение непрерывной случайной величины Х которое описывается следующей дифференциальной функцией   

Экспоненциальное распределение для непрерывных случайных величин является аналогом распределения Пуассона для дискретных случайных величин и имеет следующий вид.

вероятность попадания случайной величины Х на интервал (α;β)

Следует отметить, что время безотказной работы удовлетворяется именно показательному закону, а поэтому это понятие часто используется в понятии надежности.

18.   Мат. статистика. 

Пусть для изучения колич. признака Х из ген. совок-ти извлечена выборка х1, х2…хк объёма n. Наблюдавшиеся значения xi признака х называют вариантами, а послед-ть вариантов записанных в возраст. порядке – вариац. рядом. Стат. распред-ем выборки называют перечень вариантов xi вариац. ряда и соот-х им частот ni (сумма всех частот равна объёму выборки n) или относит. частот Wi (сумма всех относит. частот = 1). Стат. распр-е выборки можно задать также в виде посл-ти интервалов и соот-х им частот (в кач-ве частоты интервала принимают сумму частот вариантов, попавших в этот интервал). Стат. оценкой неизвестного параметра теор. распр-я назыв. функцию f(x1,x2xn) от наблюдаемых СВ x1,x2xn. Несмещён. назыв. точечную оценку, мат. ожидание кот. = оцениваемому параметру при любом объёме выборки. Смещ. назыв-ют точечную оценку, мат. ожидание кот. не = оцениваемому параметру. Несмещён. оценкой генер. средн (мат. ож.) служит выборочная средняя

где xi - варианта выборки, ni – частота варианты xi .Объём выборки:

Замечание 1: Если первонач. варианты xi большие числа, то для упрощ. расчёта можно вычесть из кажд. варианты одно и то же число С, т.е. перейти к условн. вариантам ui=xi-C. Тогда

Замечание 2:

Замечание 3: Если первонач. варианты явл. десятич. дробями с R десятич. знаками после запятой, то умножают первонач. варианты на постоян. число С, т.е. переходят к усл. вариантам ui=Cxi. При этом дисперсия увелич. в С2 раз: DB(x)=DB(u)/C2.

19. Эмпирическая ф-я распределения. 

Пусть из-но статистическое распр-е частот кол-ного признака Х.

  xi

  x1

  x2

  xk

ni

n1

n2

nk

nx – число наблюдений при кот. наблюдалось значение признака меньше х (xR). n – общее число наблюдений.

Очевидно, что отн. частота события Х<x равно nx/n. Если меняется х, то очевидно меняется и относительная частота. Эмпирической  ф. распр-я назыв. ф-ю F*(x) опр. для каждого действ-ного Х<x. Из опр. следует F*(x)= nx/n. В отличии от эмпирич. ф-ии распр-я, функцию распр-я F(x) генеральной совокупности назыв. теор. функцией распр-я. Различие между F* и F сост. в том, что F(x) опр. вер-ть события, а F*(x) опр. относит. частоту события. Из т. Бернулли сл., что при больших n F и F* мало отлич. Отсюда сл., что ф-ю F*(x) можно исп. для приближённого представления теор. ф-ии распр-я. Св-ва эмпир. ф-ии распр.: 1) 0<F*(x)<1 2) F*(x) . 3) F*(x)=0, x<xнаим.; F*(x)=1, x>xнаиб.

20.

Различают точечные и интервальные статистические оценки. Точечная – оценка, определяемая одним числом. При малом объеме  точечн. оценка неизвестного параметрара может значительно отличатся от оцениваемого параметра, что является грубой ошибкой. При малых объемах, производится интервальная оценка. Интервальная – оценка, определяемая 2 числами – концами интеграла. Интервальная оценка позволяет установить точность и надежность оценки. Пусть найдено по выборочным данным  стат. Q+ служит оценкой для теор. Оценки параметра Q. Q+ тем точнее приближает Q, чем меньше Q+ - Q. Т.о. если б>0 и Q – Q+<б, то чем меньше б, тем лучше Q+ следовательно число б характерезует точность оценки. Статистические методы не могут утверждать, что Q=Q+, а лишь с некоторой вероятностью P(Q+ - Q<б) можно говорить лишь о вероятности выполнения такого неравенства. Доверительной вероятностью оценки Q+ наз-ся P() с которой осуществляется неравенство P(Q+ - Q<б), т.е. P(Q+ - Q<б)= . Обычно выбирают близким к 1-це.

21. Расчёт доверительного интервала для оценки мат. ожид. и дисп.

Доверительным называется интервал (q*-;*+), который покрывает неизвестный параметр , заданный вероятностью .

Доверительный интервал для математического ожидания нормального распределения.

Пусть СВ- количественный признак Х расппределениа в генеральной совокупности нормально, при чём среднее квадратичное отклонение известно. Требуется оценить неизвестное математическое ожидание а. Математическое ожидание а оценим по ХВ. Доверительный интервал для оценки а в этом случае имеет вид:

 n- объём выборки, - точность оценки, t-значение аргумента функции Лапласа Ф(t), при котором  . Если среднее квадратическое отклонение в генеральной совокупности известно, то для оценки  математического ожидания используется доверительный интервал:, где n- объём выборки, S0- исправленное среднее квадратическое отклонение; t находится из приложения 3 по данным n и .

Доверительный интервал для оценки среднего квадратического отклонения нормально распределённого количественного признака Х с принадлежностью .

Оценкой для является исправленное среднее квадратическое отклонение. Доверительный интервал для имеет вид:  S0(1-q)<<S0(1+q), где q<1; 0<<S0(1+q), q>1. q находится по приложению 4 по заданному объёму и . - надёжность.

22. Предположение относительно объектов исследования основанное на общих соображениях и предварительном анализе экспериментальных данных назыв. гипотезой. Стат. гипотезой назыв. гипотеза о виде неизв. распр-я или о параметрах известного рапр-я. Выдвинутая гипотеза может быть правильной или неправильной, поэтому нужна проверка. Т.к. проверку проводят статистич. методами, поэтому её назыв. стат. проверкой. Стат. критерием назыв. случ. величину К, кот. служит для проверки гипотезы. Осн. принцип проверки гипотез: если наблюд. значение критерия принадлежит критической области то гипотеза отвергается. Важное значение им. критерии Пирсона, Фишера, Колмогорова и Романовского. Пирсон:

 

ni' – теор. частоты, ni – фактические, К – число различных значений.

По заданному уровню значимости и числу степеней свободы (r-l-1, r – число интервалов разбиения, l – число параметров распр-я, опр. по выборочным данным) из таб. распр-я Х2 опр. Х2кр. (критическое). Если Х2набл. (наблюдённое)> Х2кр, то Н0 отвергается. Если <, то принимается.




1. РЫНОК ЦЕННЫХ БУМАГ 4 Понятие ценных бумаг
2. Контрольная работа- Особенности правового положения индивидуальных предпринимателей в системе обязательного социального страхования
3. тематическими способностями пришлось поступать в лесотехнический вуз
4. Государственное и местное управление в России
5. Курсовая работа- Теоретические методы познания в школьном курсе физики
6. инкубатор НИУ ВШЭ.
7. Курсовая работа - Технология создания фирменного стиля организации
8. ПРАКТИКУМ Направление подготовки 081100 Государственное и муниципальное управление Профиль Муниципа
9. История и городское хозяйство Нью-Йорка
10. Сайнспресс nik@xref
11. адаптация стратегических целей развития организации к измененным условиям внешней среды; 2 создание сис.html
12. Образ и значение вина в текстах Пятикнижия Моисеева
13. Организация службы внутреннего аудита на предприятии
14. Будапешт Сентендре Вена Львов Начало тура- март.html
15. Курсовая работа- Методика і техніка складання фінансової звітності
16. РОЛЬ СЕКРЕТАРЯ В ОРГАНИЗАЦИИ ДОКУМЕНТООБОРОТА ПРЕДПРИЯТИЯ
17. Организационный менеджмент
18. Смутного времени начала XVII в
19. ОТЧЕТ ПО ЛАБОРАТОРНОЙ РАБОТЕ М08 Определение момента инерции из крутильных колебаний Исполни
20. одно из главных направлений влияющих на рост экономики в том числе на развитие таких сфер экономической де