Будь умным!


У вас вопросы?
У нас ответы:) SamZan.net

Основные понятия и формулы комбинаторики

Работа добавлена на сайт samzan.net:

Поможем написать учебную работу

Если у вас возникли сложности с курсовой, контрольной, дипломной, рефератом, отчетом по практике, научно-исследовательской и любой другой работой - мы готовы помочь.

Предоплата всего

от 25%

Подписываем

договор

Выберите тип работы:

Скидка 25% при заказе до 30.5.2024

1.Основные понятия и формулы комбинаторики.

Комбинаторика изучает количества комбинаций, подчиненных определенным условиям, которые можно составить из элементов, безразлично какой природы, заданного конечного множества. При непосредственном вычислении вероятностей часто используют формулы комбинаторики. Приведем наиболее употребительные из них.

Перестановками называют комбинации, состоящие из одних и тех же n различных элементов и отличающиеся только порядком их расположения. Число всех возможных перестановок

Pn = n!,

где n! = 1 * 2 * 3 ... n.

Заметим, что удобно рассматривать 0!, полагая, по определению, 0! = 1.

Размещениями называют комбинации, составленные из n различных элементов по m элементов, которые отличаются либо составом элементов, либо их порядком. Число всех возможных размещений

Amn = n (n - 1)(n - 2) ... (n - m + 1).

Сочетаниями называют комбинации, составленные из n различных элементов по m элементов, которые отличаются хотя бы одним элементом. Число сочетаний

С mn = n! / (m! (n - m)!).

Подчеркнем, что числа размещений, перестановок и сочетаний связаны равенством

Amn = Pmmn.

З а м е ч а н и е. Выше предполагалось, что все n элементов различны. Если же некоторые элементы повторяются, то в этом случае комбинации с повторениями вычисляют по другим формулам. Например, если среди n элементов есть n1 элементов одного вида, n2 элементов другого вида и т.д., то число перестановок с повторениями

Pn (n1, n2, ...) = n! / (n1! n2! ... ),

где n1 + n2 + ... = n.

При решении задач комбинаторики используют следующие правила:

П р а в и л о   с у м м ы. Если некоторый объект А может быть выбран из совокупности объектов m способами, а другой объект В может быть выбран n способами, то выбрать либо А, либо В можно m + n способами.

П р а в и л о   п р о и з в е д е н и я. Если объект А можно выбрать из совокупности объектов m способами и после каждого такого выбора объект В можно выбрать n способами, то пара объектов (А, В) в указанном порядке может быть выбрана mn способами.

2.Случайные события и действия над ними. Виды событий

Под испытанием будем понимать реализацию комплекса условий. Эту реализацию называют также опытом. Классическим примером испытания в теории вероятностей является извлечение шара из урны, содержащей большое число шаров.

Явление, возникшее в результате испытания, называется исходом испытания, или событием. События обозначаются буквами .

События бывают  трех типов:

Одни из них неизбежно возникают при каждом  испытании данного вида. Это достоверные события .

Другие, наоборот, никогда не появляются. Это невозможные
события
.

События третьего типа характеризуются тем, что они в данном испытании могут произойти, а могут и не произойти. В каких случаях они произойдут, а в каких нет – заранее сказать нельзя. Такие события называются случайными.

События бывают простые и сложные. Простое событие не разлагается на другие.

Сложные события представляют собой комбинации простых событий. Если наступление события  обязательно влечет за собой наступление события , то событие  является сложным.

События бывают совместными и несовместными. Два или более событий называются совместными, если они могут одновременно наступить при осуществлении одного испытания. Иными словами, это события, которые содержат одни и те же простые события. Например, событие  состоит из событий ; событие – из , то события  и будут совместными, поскольку в каждое из них входит событие .

Несовместными называют такие события, которые не могут наступить одновременно при одном опыте, т.е. они не содержат ни одного общего события. Если событие  состоит из событий ; а событие – из таких, что ни одно из событий в  не совпадает с событиями из , то события  и – несовместные.

Назовем суммой событий  и такое событие, которое наступает тогда и только тогда, когда наступает хотя бы одно из этих событий ( или ). Определение суммы распространяется на любое число слагаемых.

Событие, состоящее в наступлении обоих событий  и будем называть произведением событий  и и обозначать или .

Событие, которое наступает тогда и только тогда, когда событие не наступает называется противоположным событию  и обозначается . Из определения следует, что два события противоположны тогда и только тогда, когда они несовместимы: сумма их образует вcе выборочное пространство, т. е.

.

Разностью двух событий (или ) называется событие, которое наступает тогда и только тогда, когда наступает и не наступает

Графическая интерпретация соотношений между событиями может

быть сделана с помощью диаграммы Эйлера – Венна:

Полной группой событий называется совокупность событий такая, что в результате опыта наступит одно и только одно из этих событий.

3. Аксиоматическое определение вероятности

Пусть - пространство элементарных исходов некоторого испытания, а - -алгебра событий, определенная на этом пространстве. Каждому событию множества ставится в соответствие величина , называемая вероятностью события и удовлетворяющая следующим условиям:

А1. .

А2. Вероятность достоверного события .

А3. Если в последовательности событий события попарно несовместны (т.е. ),  то .

Таким образом, вероятность есть функция , удовлетворяющая условиям А1-А3, или, как говорят, нормированная (вероятностная) мера, заданная на множестве . Аксиомы А1-А3 называются аксиомами теории вероятностей.

Заметим, что аксиома А3 эквивалентна двум следующим аксиомам (без доказательства):

А4. Если и  несовместны, то .

А5. Если и , или и , то .

Определение 3. Тройка , где - пространство элементарных исходов, - -алгебра его подмножеств, а вероятностная мера на называется вероятностным пространством.
4.Теорема сложения и умножения вероятностей. Независимые события. Условная вероятность

Теорема 1. (Сложения вероятностей)

Вероятность суммы двух совместных событий и равна сумме вероятностей этих событий  без вероятности их совместного наступления

.

Вероятность суммы несовместных событий рвана сумме их вероятностей, т.е.

.

.

События  и называются независимыми, если вероятность  не зависит от того, произошло событие или нет.

Событие называется зависимым от события , если вероятность события зависит от того, произошло или не произошло событие .

Вероятность события , вычисленная при условии, что имело место, называется условной вероятностью .

Теорема 2. (Умножения вероятностей)

Вероятность произведения двух зависимых событий и равна произведению вероятности одного их этих событий на условную вероятность другого, при условии, что первое наступило:

.

Вероятность произведения двух независимых событий равна произведению вероятностей этих событий:

.

Определение 1. Вероятность события , вычисленная при условии, что имело место событие , называется условной вероятностью события относительно события и обозначается .

Легко заметить, используя классическое или геометрическое определение вероятности, что (см. рис14), однако для произвольного пространства , доказать это невозможно, поэтому в аксиоматической теории понятие условной вероятности дается как определение.

Определение 2. Условной вероятностью события относительно события называется величина, равная

,

(при  условии  .
5.Формула полной вероятности

Если событие А может произойти только при выполнении одного из событий , которые образуют полную группу несовместных событий, то вероятность события Авычисляется по формуле

.

Эта формула называется формулой полной вероятности.

Вновь рассмотрим полную группу несовместных событий , вероятности появления которых . Событие А может произойти только вместе с каким-либо из событий , которые будем называть гипотезами. Тогда по формуле полной вероятности

Если событие А произошло, то это может изменить вероятности гипотез .

По теореме умножения вероятностей

,

откуда

.

Аналогично, для остальных гипотез

Полученная формула называется формулой Байеса (формулой Бейеса). Вероятности гипотез называются апостериорными вероятностями, тогда как  - априорными вероятностями.

6.Понятие дискретной случайной величины. Закон распределения дискретной одномерной случайной величины. Функция распределения F(X), ее свойства.

Величина, которая в результате испытания может принять то или иное значение, заранее неизвестно какое именно, считается случайной.
  Дискретной случайной величиной называется такая переменная величина, которая может принимать конечную или бесконечную совокупность значений, причем принятие ею каждого из значений есть случайное событие с определенной вероятностью.
  Сотношение, устанавливающее связь мужду отдельными возможными значениями случайной величины и соответствующими им вероятностями, называется законом распределения дискретной случайной величины.Если обозначить возможные числовые значения случайной величины Х через х
1, х2, ..., хn,..., а через рi = Р(Х = хi) вероятность появления значения хi, то дискретная случайная величинаполностью определяется таблицей:

xi

х1

x2

...

xn

pi

p1

p2

...

pn

Таблица называется законом распределения дискретной случайной величины Х.


  Дискретная случайная величина может быть задана 
функцией распределения.
  Функцией распределения случайной величины Х называется функция F(х), выражающая вероятность того, что Х примет значение, меньшее чем х:

F(x) = P(X < x) =  p
i, где суммирование по хi < x


  Вероятность попадания случайной величины Х в промежуток от  до  выражается формулой 

Р( <= X < ) =F( ) - F()

Фу́нкция  распределе́ния в теории  вероятностей —  функция, характеризующая распределение случайной величины или случайного вектора. При соблюдении известных условий (см. ниже) полностью определяет случайную величину.

Пусть дано вероятностное пространство , и на нём определена случайная величина  с распределением . Тогда функцией распределения случайной величины называется функция , задаваемая формулой:

.

То есть функцией распределения (вероятностей) случайной величины  называют функцию , значение которой в точке  равно вероятности события , то есть события, состоящего только из тех элементарных исходов, для которых .

  1.   непрерывна справа:[1]
  2.  
  3.   не убывает на всей числовой прямой.
  4.  .
  5.  .
  6.  Распределение случайной величины  однозначно определяет функцию распределения.
  7.  Верно и обратное: если функция  удовлетворяет четырём перечисленным выше свойствам, то существует вероятностное пространство и определённая на нём случайная величина, такая что  является её функцией распределения.
  8.  По определению непрерывности справа, функция  имеет правый предел  в любой точке , и он совпадает со значением функции  в этой точке.
  9.  В силу неубывания, функция  также имеет и левый предел  в любой точке , который может не совпадать со значением функции. Таким образом, функция  либо непрерывна в точке, либо имеет в ней разрыв первого рода.

7.Числовые характеристики дискретной случайной величины.

Закон распределения полностью характеризует случайную величину. Однако часто построение закона или ряда распределения представляет весьма трудоемкую задачу, либо закон распределения неизвестен вовсе. На практике иногда бывает достаточно описать случайную величину «суммарно», указав ее отдельные числовые параметры, до некоторойстепени характеризующие существенные черты распределения случайной величины. К таким параметрам можно отнести среднее значение, около которого группируются возможные значения случайной величины; число, характеризующее степень разбросанности значений случайной величины относительно среднего и др. Назначение таких характеристик – выразить компактно, в сжатой форме наиболее существенные особенности распределения. Все эти характеристики называются числовыми характеристиками случайной величины.

Так, для полной характеристики успеваемости учащегося и прогнозирования получения им оценки в будущем можно построить ряд распределения его оценок. Однако достаточно часто успеваемость характеризуется лишь одной, средней оценкой.

Числовые характеристики играют большую роль в теории вероятностей, поскольку, оперируя ими, можно значительно упростить ряд практических вероятностных задач и получить важные результаты. Например, в тех случаях, когда на численный результат эксперимента оказывают влияние отдельные случайные величины и их достаточно много, то закон распределения результирующей случайной величины, оказывается, не будет зависеть от законов распределения составляющих величин. В этих случаях для анализа результирующей величины необходимо лишь знать некоторые числовые характеристики отдельных случайных величин.

Рассмотрим наиболее важные числовые характеристики случайной величины.

6.2.1. Математическое ожидание дискретной случайной величины

Рассмотрим дискретную случайную величину Х, принимающую значения , …,  с вероятностями , …,.

Сумма произведений всех возможных значений случайной величины на вероятности этих значений называетсяматематическим ожиданием случайной величины и обозначается М[X].

M[X] = ×+×+…+×=                         (6.3)

         Математическое ожидание приближенно равно среднему арифметическому наблюдаемых значений случайной величины. Равенство будет тем точнее, чем больше число испытаний.

         Математическое ожидание больше наименьшего и меньше наибольшего возможных значений. Поэтому можно сказать, что математическое ожидание характеризует положение случайной величины на числовой оси, т.е. указывает некоторое среднее значение, около которого группируются все возможные значения случайной величины. Такое среднее значение является «представителем» случайной величины и может замещать ее при грубых оценочных расчетах.

         Свойства математического ожидания случайной величины:

1.                Математическое ожидание постоянной величины равно самой величине:

М[C]=C.

2.                Постоянный множитель можно выносить за знак математического ожидания:

М[C×Х]=C×M[X].

3.                Математическое ожидание суммы двух случайных величин равно сумме математических ожиданий этих величин:

М[Х+Y]=M[X]+M[Y].

4.                Математическое ожидание произведения двух независимых случайных величин равно произведению математических ожиданий этих величин:

М[Х×Y]=M[XM[Y].

(Две случайные величины называются независимыми, если закон распределения одной из них не зависит от того, какие возможные значения принимает другая величина.)

         Итак, математическое ожидание числа появлений события в одном испытании равно вероятности этого события.

          Математическое ожидание M[X] числа появлений события А в n независимых испытаниях, в каждом из которых вероятность p появления события одинакова,  равно произведению числа испытаний на вероятность появления события в одном испытании:

M[X]=np.

         Действительно, в примере 6.4 n=3, а p=0,6 и M[X]= n×p=3×0,6=1,8.

6.2.2. Дисперсия дискретной случайной величины

         Можно привести пример двух дискретных случайных величин Х и Y, которые имеют различные возможные значения и при этом одинаковые математические ожидания. Рассмотрим следующие ряды распределения Х и Y

X

-100

100

 

Y

-1

1

p

0,5

0,5

 

p

0,5

0,5

Математические ожидания величин Х и Y равны друг другу:

M[X] = -100×0,5+100×0,5 = -50+50 = 0

M[Y] = -1×0,5+1×0,5 = -0,5+0,5 = 0

         Возможные значения величин Х и Y значительно отличаются. Таким образом, зная лишь математическое ожидание случайной величины, нельзя судить ни о ее возможных значениях, ни о рассеянии значений около математического ожидания.

         Зададимся вопросом, как можно задать величину разброса возможных значений величины. На практике эта величина чрезвычайно важна. Например, ее необходимо знать, оценивая кучность поражения мишени при стрельбе из пистолета. На первый взгляд, кажется, что необходимо проанализировать отклонение случайной величины от M[X].

         Отклонением называют разность между случайной величиной и ее математическим ожиданием: Х – М[Х].

         Однако оказывается, что математическое ожидание отклонения случайной величины равно 0:

М[Х – М[Х]]=0.

         Действительно, М[Х – М[Х]]= М[Х] – M[М[Х]]= М[Х] – M[Х]=0.

         Это объясняется тем, что одни отклонения положительны, а другие – отрицательны. И в результате их взаимного сложения значение отклонение будет равно 0. Поэтому отклонение случайной величины нельзя использовать для оценки ее рассеяния. Для этого чаще всего вычисляют среднее значение квадрата отклонения, называемое дисперсией.

         Дисперсией случайной величины называется математическое ожидание квадрата отклонения случайной величины от ее математического ожидания:

D[Х] = М[(Х – М[Х])2].                                       (6.4)

Рассмотрим дискретную случайную величину Х, принимающую значения , …,  с вероятностями , …,. Используя в выражении (6.4) определение математического ожидания (6.3), получим следующую формулу для вычисления дисперсии:

D[Х] = =

×+×+…+×.              (6.5)

         Для вычисления дисперсии также можно пользоваться следующей формулой:

D[Х] = М[Х2] – (М[Х])2.                                       (6.6)

Докажем формулу (6.6). Раскрыв квадрат разности, получим:

 D[Х] = М[(Х – М[Х])2] = М[Х2 – 2×Х×М[Х]+ М[Х]2].

Учитывая, что М[Х] – это некоторое постоянное число, раскроем предыдущее равенство так: D[Х] = М[Х2]–M[2×Х×М[Х]]+M[М[Х]2] = М[Х2]– 2×(М[Х])+(М[Х])2  = М[Х2] – (М[Х])2.

Таким образом, D[Х] = М[Х2] – (М[Х])– (М[Х]) =× +× + … + ×– (М[Х])2.

Свойства дисперсии случайной величины:

1.                Дисперсия постоянной величины равна нулю:

D[C]=0.

2.                Постоянный множитель можно выносить за знак дисперсии, возводя его в квадрат:

D[C×Х]=C2×M[X].

3.                Дисперсия суммы двух независимых случайных величин равна сумме дисперсий этих величин:

D[Х+Y]=D[X]+D[Y].

4.                Дисперсия разности двух независимых случайных величин равна сумме дисперсий этих величин:

D[Х–Y]=D[X]+D[Y].        

         Рассмотрим случайную величину X – число появления события А в n независимых испытаниях и найдем ее дисперсию. Вероятность появления события А в каждом испытании постоянна. По прежнему будем обозначать ее через p, а вероятность непоявления события А через q=1–p.

Дисперсия D[X] числа появлений события А в n независимых испытаниях, в каждом из которых вероятность появления события одинакова, равна произведению числа испытаний на вероятности появления и непоявления события в одном испытании:

M[X]=npq.

 Средним квадратическим отклонением случайной величины X  называется квадратный корень из дисперсии:

.

         6.2.4. Одинаково распределенные взаимно независимые случайные величины

         Рассмотрим n взаимно независимых случайных величин , …, , которые имеют одинаковые распределения, и следовательно, одинаковые характеристики (математическое ожидание М, дисперсию D, среднееквадратическое отклонение s. Введем новую случайную величину — среднее арифметическое рассматриваемых величин:

и изучим числовые характеристики .

Математическое ожидание среднего арифметического одинаково распределенных взаимно независимых случайных величин равно математическому ожиданию каждой из этих величин:

М()=М.

Дисперсия среднего арифметического одинаково распределенных взаимно независимых случайных величин в nраз меньше дисперсии каждой из этих величин:

D()=D/n.

Среднее квадратическое отклонение среднего арифметического n одинаково распределенных взаимно независимых случайных величин в  раз меньше среднего квадратического отклонения каждой из этих величин:

s()=s/.

Таким образом, среднее арифметическое достаточно большого числа взаимно независимых случайных величин имеет значительно меньшее рассеяние, чем каждая отдельная величина. С увеличением n величина  почти перестает быть случайной и приближается к постоянной М. Тем самым оправдывается рекомендуемый в практической деятельности способ получения более точных результатов измерений: одна и та же величина измеряется многократно, и в качестве ее значения берется среднее арифметическое полученных результатов измерений.

8.Схема Бернулли. Формула Бернулли. Локальная и интегральная теорема Муавра-Лапласа

Проводятся  опытов, в каждом из которых может произойти определенное событие («успех») с вероятностью  (или не произойти — «неудача» — ). Задача — найти вероятность получения ровно  успехов в опыте.

Решение:

Количество успехов — величина случайная, которая имеет биномиальное распределение.

Теперь рассмотрим эту задачу подробнее. Возьмём самый простой стохастический эксперимент с двухэлементным пространством элементарных событий. Одно назовём «успехом», обозначим «1», другое — «неудачей», обозначим «0».

Пусть вероятность успеха , тогда вероятность неудачи .

Рассмотрим новый стохастический эксперимент, который состоит в -кратном повторении этого простейшего стохастического эксперимента.

Понятно, что пространство элементарных событий , которое отвечает этому новому стохастическому эксперименту будет  (1), . За -алгебру событий  возьмём булеан пространства элементарных событий  (2). Каждому элементарному событию  поставим в соответствие число . Если в элементарном событии  успех наблюдается  раз, а неудача —  раз, то . Пусть , тогда . Также является очевидной нормированность вероятности: .

Поставив в соответствие каждому событию  числовое значение  (3), мы найдём вероятность . Построенное пространство , где Ω — пространство элементарных событий, определено равенством (1), — -алгебра, определена равенством (2), P — вероятность, определена равенством (3), называетсясхемой Бернулли для  испытаний.

Набор чисел  называется биномиальным распределением.

Теоремы Муавра-Лапласа. На практике приближенные формулы Муавра-Лапласа применяются в случае, когда pи q не малы , а npq>9.

Локальная теорема Муавра-Лапласа. Если вероятность появления события А в каждом из n независимых испытаний равна одной и той же постоянной р=const (0<р<1), то вероятность  того, что во всех этих испытаниях событие А появится ровно k раз, приближенно вычисляется формулой:

, (4.8)

где:  , -- кривая Гаусса.

Таблицы значений функции  даны в приложениях к учебникам по теории вероятностей

Интегральная теорема Муавра-Лапласа. Пусть вероятность появления события А в каждом из (n→∞)независимых испытаний равна одной и той же постоянной р (0<р<1), то вероятность  того, что во всех этих испытаниях событие А появится не менее k1 и не более k2 раз, приближенно вычисляется формулой:

, (4.9)

где

 - функция Лапласа,

Значения аргументов функции Лапласа для х Î[0,5] даны в приложениях к учебникам по теории вероятностей (Приложение 2 настоящего методического пособия), для x>5 F(x)=1/2.Функция нечетная - F(x)= F(-x).

9.Биномиальное  распределение.

Биномиальное распределение — дискретное распределение вероятностей одной случайной величины  принимающей целочисленные значения  с вероятностями:

Данное распределение характеризуется двумя параметрами: целым числом  называемым числом испытаний, и вещественным числом   называемом вероятностью успеха в одном испытании. Биномиальное распределение — одно из основных распределений вероятностей, связанных с последовательностью независимых испытаний. Если проводится серия из  независимых испытаний, в каждом из которых может произойти "успех" с вероятностью  то случайная величина, равная числу успехов во всей серии, имеет указанное распределение. Эта величина также может быть представлена в виде суммы  независимых слагаемых, имеющих распределение Бернулли.

Основные свойства

Характеристическая функция

Моменты:

  1.  Математическое ожидание: 
  2.  Дисперсия: 
  3.  Асимметрия при  распределение симметрично относительно центра 

10.Понятие непрерывной случайной величины. Функция распределения, ее свойства. Функция плотности распределения вероятностей, ее свойства. Числовые характеристики непрерывных случайных величин.

В отличие от дискретной случайной величины непрерывные случайные величины невозможно задать в виде таблицы ее закона распределения поскольку невозможно перечислить и выписать в определенной последовательностей все ее значения. Одним из возможных способов задания непрерывной случайной величины является использование функции распределения.

ОПРЕДЕЛЕНИЕ. Функцией распределения называют функцию , определяющую вероятность того, что случайная величина примет значение, которое изображается на числовой оси точкой, лежащей левее точки х, т.е.

F(x)=P(X<x)

Иногда вместо термина «Функция распределения» используют термин «Интегральная функция».

Свойства функции распределения:

1. Значения функции распределения принадлежит отрезку [0;1]: 0F(x)
2. F(x) - неубывающая функция, т.е. F(x
2)F(x1), если x2>x1

Следствие 1. Вероятность того, что случайная величина примет значение, заключенное в интервале (a,b), равна приращению функции распределения на этом интервале:

P(aX<b)=F(b)-F(a) (7)

ОПРЕДЕЛЕНИЕ: Плотностью распределения вероятностей непрерывной случайной величины Х называют функцию f(x) - первую производную от функции распределения F(x): f(x)=F'(x)

Из этого определения следует, что функция распределения является первообразной для плотности распределения.

Теорема. Вероятность того, что непрерывная случайная величина Х примет значение, принадлежащее интервалу (а;b) равна определенному интегралу от плотности распределения, взятому в пределах от а до b:

 (8)

Свойства плотности распределения вероятностей:

  1.  Плотность вероятностей является неотрицательной функцией: f(x)0. . \
  2.  Определенный интеграл от -∞ до +∞ от плотности распределения вероятностей непрерывной случайной величины равен 1: f(x)dx=1. 
  3.   Определенный интеграл от -∞ до x от плотности распределения вероятностей непрерывной случайной величины равен функции распределения этой величины: f(x)dx=F(x)

Определение. Математическим ожиданием  непрерывной случайной величины Х, возможные значения которой принадлежат отрезку [a,b], называется определенный интеграл

Если возможные значения случайной величины рассматриваются на всей числовой оси, то математическое ожидание находится по формуле:

При этом, конечно, предполагается, что несобственный интеграл сходится.

Определение. Дисперсией непрерывной случайной величины называется математическое ожидание квадрата ее отклонения.

По аналогии с дисперсией дискретной случайной величины, для практического вычисления дисперсии используется формула:

Определение. Средним квадратичным отклонением называется квадратный корень из дисперсии.

Определение. Модой М0 дискретной случайной величины называется ее наиболее вероятное значение. Для непрерывной случайной величины мода – такое значение случайной величины, при которой плотность распределения имеет максимум.

            Если многоугольник распределения для дискретной случайной величины или кривая распределения для непрерывной случайной величины имеет два или несколько максимумов, то такое распределение называется двухмодальным или многомодальным.

            Если распределение имеет минимум, но не имеет максимума, то оно называется антимодальным.

  Определение. Медианой MD случайной величины Х  называется такое ее значение, относительно которого равновероятно получение большего или меньшего значения случайной величины.

            Геометрически медиана – абсцисса точки, в которой площадь, ограниченная кривой распределения делится пополам.

            Отметим, что если распределение одномодальное, то мода и медиана совпадают с математическим ожиданием.

Определение. Начальным моментом порядка случайной величины Х называется математическое ожидание величины Хk.

Для дискретной случайной величины: .

Для непрерывной случайной величины: .

Начальный момент первого порядка равен математическому ожиданию.

 Определение. Центральным моментом порядка случайной величины Х называется математическое ожидание величины

            Центральный момент первого порядка всегда равен нулю, а центральный момент второго порядка равен дисперсии. Центральный момент третьего порядка характеризует асимметрию распределения.

Определение. Отношение центрального момента третьего порядка к среднему квадратическому отклонению в третьей степени называется коэффициентом асимметрии.

Определение. Для характеристики островершинности и плосковершинности распределения используется величина, называемая эксцессом.

            Кроме рассмотренных величин используются также так называемые абсолютные моменты:

  1.  Абсолютный начальный момент: .
  2.  Абсолютный центральный момент: .

Абсолютный центральный момент первого порядка называется средним арифметическим отклонением.

11.Распределение Пуассона

Третье широко используемое дискретное распределение – распределение Пуассона. Случайная величина Y имеет распределение Пуассона, если

,

где λ – параметр распределения Пуассона, и P(Y=y)=0 для всех прочих y (при y=0 обозначено 0! =1). Для распределения Пуассона

M(Y) = λ, D(Y) = λ.

Это распределение названо в честь французского математика С.Д.Пуассона (1781-1840), впервые получившего его в 1837 г. Распределение Пуассона является предельным случаем биномиального распределения, когда вероятность р осуществления события мала, но число испытаний n велико, причем np = λ. Точнее, справедливо предельное соотношение

Поэтому распределение Пуассона (в старой терминологии «закон распределения») часто называют также «законом редких событий».

Распределение Пуассона возникает в теории потоков событий (см. выше). Доказано, что для простейшего потока с постоянной интенсивностью Λ число событий (вызовов), происшедших за время t, имеет распределение Пуассона с параметром λ = Λt. Следовательно, вероятность того, что за время t не произойдет ни одного события, равна e-Λt, т.е. функция распределения длины промежутка между событиями является экспоненциальной.

Распределение Пуассона используется при анализе результатов выборочных маркетинговых обследований потребителей, расчете оперативных характеристик планов статистического приемочного контроля в случае малых значений приемочного уровня дефектности, для описания числа разладок статистически управляемого технологического процесса в единицу времени, числа «требований на обслуживание», поступающих в единицу времени в систему массового обслуживания, статистических закономерностей несчастных случаев и редких заболеваний, и т.д.

Описание иных параметрических семейств дискретных распределений и возможности их практического использования рассматриваются в обширной (более миллиона названий статей и книг на десятках языков) литературе по вероятностно-статистическим методам.

12.Нормальный закон распределения. Числовые характеристики нормального закона. Свойства нормальной кривой. Правило 3-х сигм, его практическое применение.

 Нормальным называется распределение вероятностей непрерывной случайной величины, которое описывается плотностью вероятности

Нормальный закон распределения также называется законом Гаусса.

            Нормальный закон распределения занимает центральное место в теории вероятностей. Это обусловлено тем, что этот закон проявляется во всех случаях, когда случайная величина является результатом действия большого числа различных факторов. К нормальному закону приближаются все остальные законы распределения.

Можно легко показать, что параметры  и , входящие в плотность распределения являются соответственно математическим ожиданием и средним квадратическим отклонением случайной величины Х.

            Найдем функцию распределения F(x).

            График плотности нормального распределения называется нормальной кривой или кривой Гаусса.

            Нормальная кривая обладает следующими свойствами:

            1) Функция определена на всей числовой оси.

            2) При всех х функция распределения принимает только положительные значения.

            3) Ось ОХ является горизонтальной асимптотой графика плотности вероятности, т.к. при неограниченном возрастании по абсолютной величине аргумента х, значение функции стремится к нулю.

            4) Найдем экстремум функции.

            Т.к. при y’ > 0 при x < m и y’ < 0 при x > m , то в точке х = т функция имеет максимум, равный .

            5) Функция является симметричной относительно прямой х = а, т.к. разность

(х – а)  входит в функцию плотности распределения в квадрате.

            6) Для нахождения точек перегиба графика найдем вторую производную функции плотности.

            При x = m + и x = m - вторая производная равна нулю, а при переходе через эти точки меняет знак, т.е. в этих точках функция имеет перегиб.

            В этих точках значение функции равно .

            Построим график функции плотности распределения.

            Построены графики при т =0 и трех возможных значениях среднего квадратичного отклонения s= 1, s = 2 и s = 7. Как видно, при увеличении значения среднего квадратичного отклонения график становится более пологим, а максимальное значение уменьшается..

            Если а > 0, то график сместится в положительном направлении, если а < 0 – в отрицательном.

            При а = 0 и s = 1 кривая называется нормированной.


13.Понятие генеральной совокупности. Понятие случайной выборки. Вариационные ряды распределения.  Виды  рядов
Генеральная совокупность, генеральная выборка (от лат. generis — общий, родовой)(в англ. терминологии — population) — совокупность всех объектов (единиц), относительно которых учёный намерен делать выводы при изучении конкретной проблемы.

Генеральная совокупность состоит из всех объектов, которые имеют качества, свойства, интересующие исследователя. Иногда генеральная совокупность — это все взрослое население определённого региона (например, когда изучается отношение потенциальных избирателей к кандидату), чаще всего задаётся несколько критериев, определяющих объекты исследования. Например, женщины 10-89 лет, использующие крем для рук определённой марки не реже одного раза в неделю, и имеющие доход не ниже 5 тысяч рублей на одного члена семьи.

ПРОСТАЯ СЛУЧАЙНАЯ ВЫБОРКА

При проведении простой случайной выборки (Simple Random Sampling — SRS) каждый элемент совокупности имеет известную и равную вероятность отбора. Более того, каждая возможная выборка данного объема (n) имеет известную и равную вероятность того, что она станет выборочной совокупностью. Это означает, что каждый элемент отбирается независимо от другога. Выборка формируется произвольным отбором элементов из основы выборки. Этот метод похож на розыгрыш лотереи, когда таблички с именами участников помещаются в барабан, который встряхивается, и из него произвольным образом извлекают отдельные таблички, в результате объективно определяются имена победителей.

ПРОСТАЯ СЛУЧАЙНАЯ ВЫБОРКА (SIMPLE RANDOM SAMPLING — SRS) - Вероятностный метод выборки, согласно которому каждый элемент генеральной совокупности имеет известную и равную вероятность отбора. Каждый элемент выбирается независимо от каждого другого элемента, и выборка формируется произвольным отбором элементов из основы выборки.

При простой случайной выборке исследователь сначала формирует основу выборочного наблюдения, в которой каждому элементу присваивается уникальный идентификационный номер. Затем генерируются случайные числа, чтобы определить номера элементов, которые будут включены в выборку. Эти случайные числа могут генерироваться компьютерной программой.

Простая случайная выборка имеет очевидные преимущества. Этот метод крайне прост для понимания. Результаты исследования можно распространять на изучаемую совокупность. Большинство подходов к получению статистических выводов предусматривают сбор информации с помощью простой случайной выборки. Однако метод простой случайной выборки имеет как минимум четыре существенных ограничения. Во-первых, часто сложно создать основу выборочногo наблюдения, которая позволила бы провести простую случайную выборку.

Во-вторых, результатом применения простой случайной выборки может стать большая совокупность, либо совокупность, распределенная по большой географической территории, что значительно увеличивает время и стоимость сбора данных. В-третьих, результаты применения простой случайной выборки часто характеризуются низкой точностью и большей стандартной ошибкой, чем результаты применения других вероятностных методов. В-четвертых, в результате применения SRS может сформироваться нерепрезентативная выборка. Хотя выборки, полученные простым случайным отбором, в среднем адекватно представляют генеральную совокупность, некоторые из них крайне некорректно представляют изучаемую совокупность. Вероятность этого особенно велика при небольшом объеме выборки. Простая случайная выборка не часто используется в маркетинговых исследованиях. Более популярен метод систематической выборки.

Вариационными рядами называют ряды распределения, построенные по количественному признаку. Любой вариационный ряд состоит из двух элементов: вариантов и частот. 
Вариантами считаются отдельные значения признака, которые он принимает в вариационном ряду. 
Частоты – это численности отдельных вариантов или каждой группы вариационного ряда, т.е. это числа, показывающие, как часто встречаются те или иные варианты в ряду распределения. Сумма всех частот определяет численность всей совокупности, её объём. 
Частостями называются частоты, выраженные в долях единицы или в процентах к итогу. Соответственно сумма частостей равна 1 или 100 %.

В зависимости от характера вариации признака различают дискретные и интервальные вариационные ряды
Пример дискретного вариационного ряда приведен в табл. 2.9. 
Таблица 2.9 - Распределение семей по числу занимаемых комнат в отдельных квартирах в 1989 г. в РФ.

N П/п

Группы семей, проживающих в квартирах с числом комнат

Число семей

всего, тыс.ед.

в % к итогу

1

1

4064

16,3

2

2

12399

49,7

3

3

7659

30,7

4

4 и более

832

3,3

ВСЕГО

24954

100,00

Часто встречаются группировки, где известна численность единиц в группах или удельный вес каждой группы в общем итоге. Такая группировка называется рядом распределения. Ряд распределения характеризуется двумя элементами:

1.    Обозначение группы

2.    Численность единиц в группах

Численность каждой группы называется частотами ряда распределения. Сумма всех частот определяет численность всей совокупности. Численность групп, выраженная в долях от общей численности единиц называется частостями и выражается в процентах.

Ряды распределения могут быть образованы по атрибутивному или количественному признакам. При группировке по атрибутивному признаку ряд распределения составляют отдельные группы, указываемые их наименованием и численность или удельный вес каждой группы в процентах к итогу.

При группировке данных по количественному признаку получаются ряды, называемые вариационными. В статистике различают вариационные ряды прерывные (дискретные) и непрерывные. Вариационный ряд будет дискретным, если его группы составлены по признаку изменяющемуся прерывно. Вариационный ряд называется непрерывным если группировочный признак, составляющий основание группировки может принимать в определенном интервале любые значения.

14.Дискретный вариационный ряд и его числовые характеристики

Обычно полученные наблюдаемые данные представляют собой множество расположенных в беспорядке чисел. Просматривая это множество чисел, трудно выявить какую-либо закономерность их варьирования (изменения). Для изучения закономерностей варьирования значений случайной величины опытные данные подвергают обработке.

Пример 1. Проводились наблюдения над числом Х оценок полученных студентами ВУЗа на экзаменах. Наблюдения в течение часа дали следующие результаты: 3; 4; 3; 5; 4; 2; 2; 4; 4; 3; 5; 2; 4; 5; 4; 3; 4; 3; 3; 4; 4; 2; 2; 5; 5; 4; 5; 2; 3; 4; 4; 3; 4; 5; 2; 5; 5; 4; 3; 3; 4; 2; 4; 4; 5; 4; 3; 5; 3; 5; 4; 4; 5; 4; 4; 5; 4; 5; 5; 5. Здесь число Х является дискретной случайной величиной, а полученные о ней сведения представляют собой статистические (наблюдаемые) данные.

Расположив приведенные выше данные в порядке неубывания и сгруппировав их так, что в каждой отдельной группе значения случайной величины будут одинаковы, получают ранжированный ряд данных наблюдения.

В примере 1 имеем четыре группы со следующими значениями случайной величины: 2; 3; 4; 5. Значение случайной величины, соответствующее отдельной группе сгруппированного ряда наблюдаемых данных, называют вариантом, а изменение этого значения варьированием.

Варианты обозначают малыми буквами латинского алфавита с соответствующими порядковому номеру группы индексами - xi. Число, которое показывает, сколько раз встречается соответствующий вариант в ряде наблюдений называют частотой варианта и обозначают соответственно - ni.

Сумма всех частот ряда  - объем выборки. Отношение частоты варианта к объему выборки ni / n = wi называют относительной частотой.

Статистическим распределением выборки называют перечень вариантов и соответствующих им частот или относительных частот.

15.Интервальный статистический ряд и его числовые характеристики.

Интервальный статистический ряд строится для непрерывных случайных величин и для дискретных случайных величин с большим числом вариант.

Пусть  – интервал возможных значений случайной величины , в частности .Этот интервал разбивают на частичные интервалы и подсчитывают количество значений из выборочных совокупностей (1), принадлежащих каждому частичному интервалу . Затем составляют таблицу, в верхней строчке которой указаны частичные интервалы, а в нижней – соответствующие им частоты. Полученную таблицу называют интервальным статистическим рядом кратностей (относительных частот). Для графического изображения интервального статистического ряда используют гистограмму. Для этого на оси абсцисс отмечают частичные интервалы, над каждым из которых строится отрезок (горизонтальный) с ординатой или , где  – длина “i” – го частичного интервала. Площадь под гистограммой равна единице, так же как и под графиком , поэтому гистограмма дает представление о графике плотности распределения вероятности изучаемой случайной величины . Можно середины отрезков соединить плавной кривой, дающей представление о графике . Отсюда можно сделать предположение о виде закона распределения. В нашем случае естественно сформировать гипотезу о нормальном законе распределения случайной величины .

5) Эмпирическая функция распределения.

Она служит аппроксимацией (приближением) или количественной оценкой для неизвестной функции распределения: 

Согласно теории Бернулли, относительная частота события А в вероятностном смысле сходится к вероятности этого события:

 при 

. Значит, в качестве оценки функции распределения можно взять относительную частоту 

Def: функцию , где “n” – число независимых опытов или объем выборочной совокупности (1) называют эмпирической функцией распределения. По – другому  можно записать следующим образом: обозначим  – число значений из совокупности (1), удовлетворяющих неравенству  тогда.

Свойства эмпирической функции:

1) 

2)  – неубывающая функция, так как растет с увеличением 

3)  – непрерывна слева.

4) , так как 

5) , так как 

Теорема: эмпирическая функция распределения в вероятностном смысле сходится к обычной функции распределения:

Для больших “n”: 

Доказательство:

16.Статистическое оценивание параметров распределения по выборке. Точечные оценки параметров  распределения

Оценка - это приближение значений искомой величины, полученное на основании результатов выборочного наблюдения. Оценки являются случайными величинами. Они обеспечивают возможность формирования обоснованного суждения о неизвестных параметрах генеральной совокупности. Примером оценки генеральной средней является выборочная средняя генеральной дисперсии – выборочная дисперсия и т.д.
Для того чтобы оценить насколько «хорошо» оценка отвечает соответствующей генеральной характеристике разработаны 4 критерия: состоятельность, несмещенность, эффективность и достаточность. Этот подход основывается на том, что качество оценки определяется не по ее отдельным значениям, а по характеристикам ее распределения как случайной  величины.
Основываясь на положениях теории вероятностей, можно доказать, что из таких выборочных характеристик, как средняя арифметическая, мода и медиана, только средняя арифметическая представляет собой состоятельную, несмещенную, эффективную и достаточную оценку генеральной средней. Этим и обуславливается предпочтение, отдаваемое средней арифметической в ряду остальных выборочных характеристик.
Несмещенность оценки проявляется в том, что ее математическое ожидание при любом объеме выборки равно значению оцениваемого параметра в генеральной совокупности. Если это требование не выполняется, то оценка является смещенной.
Условие несмещенности оценки направлено на устранение систематических ошибок оценивания.
При решении задач оценивания применяют также асимптотически несмещенные оценки, для которых при увеличении объема выборки математическое ожидание стремится к оцениваемому параметру генеральной совокупности.
Состоятельность статистических оценок проявляется в том, что с увеличением объема выборки оценка все больше и больше приближается к истинному значению оцениваемого параметра или, как говорят, оценка сходится по вероятности к искомому параметру, или стремится к своему математическому ожиданию. Лишь состоятельные оценки имеют практическую значимость.
^ Эффективная оценка – это такая оценка несмещенного параметра, которая обладает наименьшей дисперсией при данном объеме выборки. На практике дисперсия оценки обычно отождествляется с ошибкой оценки.
В качестве меры эффективности оценки принимают отношение минимально возможной дисперсии  к  дисперсии  другой  оценки.
Оценка, обеспечивающая полноту использования всей содержащейся в выборке информации о неизвестной характеристике генеральной совокупности, называется достаточной (исчерпывающей).
Соблюдение рассмотренных выше свойств статистических оценок дает возможность считать выборочные характеристики для оценки параметров генеральной совокупности лучшими  из  возможных.
Важнейшая задача математической статистики состоит в том, чтобы по выборочным данным получить наиболее рациональные, «правдивые» статистические оценки искомых параметров генеральной совокупности. Различают два вида статистических выводов: статистическая оценка; проверка статистических гипотез. 
Основная задача получения статистических оценок заключается в выборе и обосновании наилучших оценок, обеспечивающих возможность содержательной оценки неизвестных параметров генеральной совокупности.
Задача оценки неизвестных параметров может быть решена двумя способами:

  1.  неизвестный параметр характеризуется одним числом (точкой) - используется метод точечной оценки;
  2.  интервальная оценка, то есть определяется интервал, в котором с некоторой вероятностью может находиться искомый параметр.

^ Точечная оценка неизвестного параметра заключается в том, что конкретное числовое значение выборочной оценки принимается за наилучшее приближение к истинному параметру генеральной совокупности, то есть неизвестный параметр генеральной совокупности оценивается одним числом (точкой), определенным по выборке. При таком подходе всегда существует риск совершить ошибку, поэтому точечная оценка должна дополняться показателем возможной ошибки при определенном уровне вероятности. 
В качестве средней ошибки оценки принимается ее среднее квадратическое отклонение.

Тогда точечная оценка генеральной средней может быть представлена в виде интервала  где  - выборочная средняя арифметическая.
При точечной оценке применяют несколько методов получения оценок по выборочным данным:

  1.  метод моментов, при котором моменты генеральной совокупности заменяются моментами выборочной совокупности;
  2.  метод наименьших квадратов;
  3.  метод максимального правдоподобия.
    Во многих задачах требуется найти не только числовую оценку параметра генеральной совокупности, но и оценить ее точность и надежность. Особенно это важно для выборок относительно малого объема. Обобщением точечной оценки статистического параметра является его интервальная оценка – нахождение числового интервала, содержащего с определенной  вероятностью  оцениваемый  параметр. 
    17.Понятие интервальной оценки параметров распределения

При оценке вероятностных характеристик по ограниченному числу опытов могут быть допущены ошибки, т. е. отклонения этой оценки от истинного значения характеристики случайной величины.

Чтобы убедиться в том, что мы не допускаем чрезмерно грубой ошибки в оценке какой-то вероятностной характеристики, в теории вероятностей и математической статистике пользуются так называемыми доверительными интервалами и доверительными вероятностями.

Интервальной называют оценку, которая определяется двумя числами – концами интервала.

Допустим, что для изучения некоторой случайной величины X (признака генеральной совокупности) необходимо по статистическим данным произвести оценку неизвестного ее параметра θ (это может быть М(Х), D(Х) или р) с определенной степенью точности и надежности, т. е. надо указать границы, в которых практически достоверно лежит этот неизвестный параметр θ.

Это означает, что надо найти такую выборочную оценку  для искомого параметра θ, при которой с наибольшей вероятностью (надежностью) будет выполняться неравенство:

Отсюда видно, что чем меньше e, тем точнее характеризуется неизвестный параметр θ с помощью выборочной оценки . Следовательно, число eхарактеризует точность оценки параметра θ.

Надежность выполнения неравенства  оценивается числом g (α = 1 – γ), которое называют доверительной вероятностью:

 

g = Р().                                           

 

Итак, число e характеризует точность оценки параметра θ; число g – характеризует надежность оценки параметра θ.

В практических задачах либо заранее задается надежность g (риск α) и надо найти точность оценки, либо, наоборот, задается точность e, а требуется определить надежность оценки.

Как правило, доверительную вероятность g задают числом, близким к единице: 0,95; 0,97; 0,99; 0,999.

Формула (1.11) означает, что с вероятностью g  неизвестное значение параметра θ находится в интервале Ig = ( – e,  + e).

 Очевидно, чем больше требуется точность e (т. е., чем меньше длина интервала), тем меньше вероятность накрыть интервалом Ig искомый параметр θ, и, наоборот, с уменьшением точности e (увеличением длины интервала) увеличивается надежность g накрыть интервалом Ig параметр θ (рис. 1.5).

 

 

Рис. 1.5. Доверительный интервал

Замечание. Если число g = 0,95, это означает, что в среднем в 95 случаях из 100 интервал Ig накроет параметр θ и в 5 случаях из 100 не накроет его.

 Оценка , будучи функцией случайной выборки, является случайной величиной, ε также случайна: ее значение зависит от вероятности γ и, как правило, от выборки. Поэтому доверительный интервал случаен и выражение (1.11) следует читать так: «Интервал (–ε, +ε) накроет параметр θ с вероятностью γ», а не «Параметр θ попадет в интервал (–ε, +ε) с вероятностью γ».

В формуле (1.11) границы доверительного интервала симметричны относительно точечной оценки . Однако не всегда удается построить интервал, обладающий таким свойством. Для получения доверительного интервала наименьшей длины при заданном объеме выборки п и заданной доверительной вероятности γ в качестве оценки  параметра θ следует брать эффективную или асимптотически эффективную оценку.

Существует два подхода к построению доверительных интервалов. Первый подход, если его удается реализовать, позволяет строить доверительные интервалы при каждом конечном объеме выборки п. Он основан на подборе такой функции , называемой в дальнейшем статистикой, чтобы

1)  ее закон распределения был известен и не зависел от θ;

2)  функция  была непрерывной и строго монотонной по θ.

Задавшись доверительной вероятностью γ, связанной с риском α формулой γ = 1 – α, находят двусторонние критические границы  и , отвечающие вероятности α. Тогда с вероятностью γ выполняется неравенство

 

Решив это неравенство относительно θ, находят границы доверительного интервала для θ. Если плотность распределения статистики  симметрична относительно оси Оу, то доверительный интервал симметричен относительно .

Второй подход, получивший название асимптотического подхода, более универсален; однако он использует асимптотические свойства точечных оценок и поэтому пригоден лишь при достаточно больших объемах выборки.

Рассмотрим первый подход на примерах доверительного оценивания параметров нормального распределения.

При выборе уровня значимости необходимо учитывать мощность критерия при альтернативной гипотезе. Иногда большая мощность критерия оказывается существеннее малого уровня значимости, и его значение выбирают относительно большим, например 0,2. Такой выбор оправдан, если последствия ошибок второго рода более существенны, чем ошибок первого рода. Например, если отвергнуто правильное решение "продолжить работу пользователей с текущими паролями", то ошибка первого рода приведет к некоторой задержке в нормальном функционировании системы, связанной со сменой паролей. Если же принято решения не менять пароли, несмотря на опасность несанкционированного доступа посторонних лиц к информации, то эта ошибка повлечет более серьезные последствия.

В зависимости от сущности проверяемой гипотезы и используемых мер расхождения оценки характеристики от ее теоретического значения применяют различные критерии. К числу наиболее часто применяемых критериев для проверки гипотез о законах распределения относят критерии хи-квадрат Пирсона, Колмогорова, Мизеса, Вилкоксона, о значениях параметров – критерии Фишера, Стьюдента.


18.Статистическая проверка гипотез. Мощность критерия. Критические области

Статистическая гипотеза представляет собой некоторое предположение о законе распределения случайной величины или о параметрах этого закона, формулируемое на основе выборки [3, 5, 11]. Примерами статистических гипотез являются предположения: генеральная совокупность распределена по экспоненциальному закону; математические ожидания двух экспоненциально распределенных выборок равны друг другу. В первой из них высказано предположение о виде закона распределения, а во второй – о параметрах двух распределений. Гипотезы, в основе которых нет никаких допущений о конкретном виде закона распределения, называютнепараметрическими, в противном случае – параметрическими.

Гипотезу, утверждающую, что различие между сравниваемыми характеристиками отсутствует, а наблюдаемые отклонения объясняются лишь случайными колебаниями в выборках, на основании которых производится сравнение, называют нулевой (основной) гипотезой и обозначают Н0. Наряду с основной гипотезой рассматривают иальтернативную (конкурирующую, противоречащую) ей гипотезу Н1. И если нулевая гипотеза будет отвергнута, то будет иметь место альтернативная гипотеза.

Различают простые и сложные гипотезы. Гипотезу называют простой, если она однозначно характеризует параметр распределения случайной величины. Например, если является параметром экспоненциального распределения, то гипотеза Н0 о равенстве  =10 – простая гипотеза. Сложной называют гипотезу, которая состоит из конечного или бесконечного множества простых гипотез. Сложная гипотеза Н0 о неравенстве  >10 состоит из бесконечного множества простых гипотез Н0 о равенстве =b, где bi – любое число, большее 10. Гипотеза Н0 о том, что математическое ожидание нормального распределения равно двум при неизвестной дисперсии, тоже является сложной. Сложной гипотезой будет предположение о распределении случайной величины Х по нормальному закону, если не фиксируются конкретные значения математического ожидания и дисперсии.

Проверка гипотезы основывается на вычислении некоторой случайной величины – критерия, точное или приближенное распределение которого известно. Обозначим эту величину через z, ее значение является функцией от элементов выборки z=z(x1, x2, …, xn). Процедура проверки гипотезы предписывает каждому значению критерия одно из двух решений – принять или отвергнуть гипотезу. Тем самым все выборочное пространство и соответственно множество значений критерия делятся на два непересекающихся подмножества S0 и S1. Если значение критерия z попадает в область S0, то гипотеза принимается, а если в область S1, – гипотеза отклоняется. Множество S0 называется областью принятия гипотезы или областью допустимых значений, а множество S1 – областью отклонения гипотезы или критической областью. Выбор одной области однозначно определяет и другую область.

Принятие или отклонение гипотезы Н0 по случайной выборке соответствует истине с некоторой вероятностью и, соответственно, возможны два рода ошибок. Ошибка первого рода возникает с вероятностью  тогда, когда отвергается верная гипотеза Н0 и принимается конкурирующая гипотеза Н1. Ошибка второго рода возникает с вероятностью  в том случае, когда принимается неверная гипотеза Н0, в то время как справедлива конкурирующая гипотеза Н1. Доверительная вероятность – это вероятность не совершить ошибку первого рода и принять верную гипотезу Н0. Вероятность отвергнуть ложную гипотезу Н0 называется мощностью критерия. Следовательно, при проверке гипотезы возможны четыре варианта исходов, табл. 3.1.

Гипотеза Н0

Решение

Вероятность

Примечание

Верна

Принимается

1–

Доверительная вероятность

Отвергается

Вероятность ошибки первого рода

Неверна

Принимается

Вероятность ошибки второго рода

Отвергается

1–

Мощность критерия

После выбора определенного критерия множество всех его возможных значений разбивают на два непересекающихся подмножества, одно из которых содержит значения критерия, при которых нулевая гипотеза отвергается, а другое – при которых она принимается.

Критической областью называют совокупность значений критерия, при которых нулевую гипотезу отвергают.

Областью принятия гипотезы (областью допустимых значений) называют совокупность значений критерия, при которых гипотезу принимают.

Основной принцип проверки статистических гипотез можно сформулировать так: если наблюдаемое значение критерия принадлежит критической области – гипотезу отвергают, если области принятия гипотезы – гипотезу принимают.

Так как критерий K – одномерная случайная величина, то все ее возможные значения принадлежат некоторому интервалу и, соответственно, должны существовать точки, разделяющие критическую область и область принятия гипотезы. Такие точки называются критическими точками.

Различают одностороннюю (правостороннюю и левостороннюю) и двустороннюю критические области.

Правосторонней называют критическую область, определяемую неравенством , где  – положительное число.

Левосторонней называют критическую область, определяемую неравенством , где  – отрицательное число.

Двусторонней называют критическую область, определяемую неравенствами , где . В частности, если критические точки симметричны относительно нуля, двусторонняя критическая область определяется неравенствами  или равносильным неравенством 


19.Статистическая проверка гипотез. Ошибки первого и второго родов.

Ошибки при проверке стат гипотез могут быть двух родов. Ошибка первого рода заключается в отрицании основной гипотезы, когда на самом деле она верна. Ошибка второго рода состоит в том, что отрицаетсяконкурирующая гипотеза, когда она верна.

Чтобы лучше понять определения ошибок, проиллюстрируем введенные понятия с помощью аналогии. В больнице врач принимает решение, направлять пациента на операцию, или нет. Его проблему можно переформулировать и так: ему нужно выбрать между основной гипотезой, что операция необходима, и альтернативной гипотезой, утверждающей, что операция не нужна. При этом врач может ошибиться. Допустим, операция нужна, а она не делается. Скажем то же самое в статистических терминах: основная гипотеза верна, но она отвергается. Как ни говори, в этом случае врач делает ошибку первого рода. Если операция не нужна, а она делается, то есть принимается основная гипотеза, когда она не верна, то врач делает ошибку второго рода.

Может ли врач свести частоту (вероятность) ошибок первого рода к нулю? Да, если всегда будет принимать основную гипотезу. В этом случае все пациенты будут направляться на операцию. Чтобы свести к нулю ошибку второго рода, надо вовсе не делать операций. Понятно, что оба крайних варианта неприемлемы. Хотя есть исключения. Например, если мы будем вакцинацию считать операцией (все же укол, введение прививки, это маленькая, но операция), то получается, что врачи действуют по первому сценарию: делать маленькую "превентивную" операцию всем, чтобы в будущем свести ошибку первого рода к нулю.

«Последствия ошибок могут быть различными" – каков смысл этого утверждения в контексте рассмотренного примера? Если пациенту операция не нужна, но она сделана, (ошибка второго рода) это очень неприятно. Если нужна, но не сделана (ошибка первого рода), то возможен и смертельный исход.

Итак, ошибка первого рода опаснее, но полностью избежать ее не удастся. Кстати, это так не только в медицине, при проверке статистических гипотез ситуация такая же.

Уровень значимости

При проверке статистических гипотез ошибку первого рода ограничивают числом, называемым уровень значимости. Исторически сложилось так, что в качестве уровня значимости чаще всего выбирают одно из чисел 0.005, 0.01, 0.05.

Проиллюстрируем предыдущие рассуждения, продолжив рассматривать "медицинский" пример. Задав уровень значимости 0.005, мы указываем врачу, что в среднем на 1000 больных, нуждающихся в операции, он может ошибиться пять раз. Не больше. Если он ошибается реже, то он великий диагност, либо, чаще всего, перестраховщик. Во втором случае, увеличивается доля операций, которые были не нужны  (к увеличению частоты ошибок второго рода).

Вы считаете, что соглашаться на пять смертельных случаев бесчеловечно? Согласны. А сколько можно? К нулю ведь не свести… Один на 10000? Значит, Вы задаете уровень значимости 0.0001, – напоминаем, уровень значимости задаете именно Вы, но чем он меньше, тем чаще Вы будете принимать гипотезу. Подобная перестраховка неизбежно приведет к тому, что чаще будут делаться ненужные операции.

Мощность и ошибка второго рода

Снизить вероятность ошибки второго рода заметно труднее. Как правило, ее можно уменьшить, если увеличить число анализируемых наблюдений. Поэтому так необходимы большие выборки. Методы проверки гипотезы, обладающие таким свойством, называют состоятельными. Статистики добиваются такого результата математическими средствами, разрабатывая специальные алгоритмы проверки гипотезы.  .

Если выборка маленькая (часто в качестве границы между большой и маленькой выборкой берут пороговое значение 30 наблюдений), проверить гипотезу удастся. Платой за малый размер будет неприемлемо большая вероятность ошибки второго рода. Большинство практиков, работающих с маленькими выборками, думают, что смогут преодолеть эту трудность, если будут игнорировать ошибку второго рода, вовсе не обращать внимания на нее. Профессиональные статистики в таких ситуациях часто увеличивают уровень значимости (например, до 0.15 или 0.2), чтобы сделать вероятности ошибок первого и второго рода сопоставимыми.

20.Двумерная случайная величина. Закон распределения. Условные законы распределения.

Пусть на вероятностном пространстве  заданы две случайные величины: . Каждому элементарному событию ставится в соответствие упорядоченная пара значений  случайных величин .

Упорядоченную пару  двух одномерных случайных величин  называют двумерной случайной величиной.

Двумерную случайную величину называют также случайным двумерным вектором, случайной двумерной точкой, системой двух случайных величин. Одномерные случайные величины  называются компонентами двумерной случайной величины .

Функцией распределения  двумерной случайной величины  называется вероятность произведения событий  и , определенная для любых вещественных : . (1)

Функция  для краткости называется двумерной функцией распределения.

Геометрический смысл равенства (1): функция  есть вероятность того, что случайная точка  попадет в бесконечный квадрат с вершиной в точке ; точка  будет левее и ниже этой вершины.

Свойства двумерной функции распределения

1. .

2. .

3. .

4. ;

. (2)

5.  неубывающая функция по каждому из своих аргументов при фиксированном другом аргументе.

Формулы (2) означают, что из функции распределения двумерной случайной величины можно получить функции распределения ее одномерных компонент.

Используя функцию распределения, можно найти вероятность попадания случайной точки в прямоугольник :

.

Дискретная двумерная случайная величина

Двумерная случайная величина  называется дискретнойесли множество ее значений  – конечное или счетное.

Закон распределения вероятностей двумерной дискретной случайной величины  можно задать формулой

. (3)

События  образуют полную группу событий, поэтому сумма всех вероятностей

  равна 1, т.е. 

Условным законом распределения дискретной случайной величины  при  называется множество значений  () и условных вероятностей , …, , вычисленных по формулам

.

Аналогично строится условный закон распределения дискретной случайной величины  при , где условные вероятности  () вычисляются по формулам

.

Сумма вероятностей условного распределения равна единице.

21.Двумерная случайная величина. Числовые характеристики двумерной случайной величины.

Пусть (x , h ) - двумерная случайная величина, тогда M(x , h )=(M(x ), M(h )), т.е. математическое ожидание случайного вектора - это вектор из математических ожиданий компонент вектора.

Если (x , h ) - дискретный случайный вектор с распределением

 

 

y1

y2

...

ym

x1

p11

p12

...

p1m

x2

p12

p12

...

p2m

...

...

...

pij

...

xn

pn1

pn2

...

pnm

 

то математические ожидания компонент вычисляются по формулам:

.

Эти формулы можно записать в сокращенном виде.

Обозначим  и , тогда  и .

Если p(x , h )(x, y)- совместная плотность распределения непрерывной двумерной случайной величины (x , h ), то

 и .

Поскольку  -плотность распределения случайной величины x , то и, аналогично, .

Дисперсия

 Понятие дисперсии обобщается на многомерные случайные величины нетривиальным образом. Это обобщение будет сделано в следующем разделе. Здесь лишь приведем формулы для вычисления дисперсии компонент двумерного случайного вектора.

Если (x , h ) - двумерная случайная величина, то

Dx = M(x - Mx )= Mx 2 - M(x )2, Dh = M(h - Mh )= Mh 2 - M(h )2.

Входящие в эту формулу математические ожидания вычисляются по приведенным выше формулам.

 Условное математическое ожидание

 Между случайными величинами может существовать функциональная зависимость. Например, если x - случайная величина и h =x 2, то h - тоже случайная величина, связанная с xфункциональной зависимостью. В то же время между случайными величинами может существовать зависимость другого рода, называемая стохастической. В разделе, посвященном условным распределениям уже обсуждалась такая зависимость. Из рассмотренных там примеров видно, что информация о значении одной случайной величины (одной компоненты случайного вектора) изменяет распределение другой случайной величины (другой компоненты случайного вектора), а это может, вообще говоря, изменить и числовые характеристики случайных величин.

Математическое ожидание, вычисленное по условному распределению, называется условным математическим ожиданием.

Для двумерного дискретного случайного вектора (x , h ) с распределением

Если между случайными величинами x и h существует стохастическая связь, то одним из параметров, характеризующих меру этой связи является ковариация cov(x , h ). Ковариацию вычисляют по формулам cov(x , h )=M[(x - Mx )(h - Mh )] = M(x h) - Mx Mh .

Если случайные величины x и h независимы, то cov(x ,h )=0.

Обратное, вообще говоря, неверно. Из равенства нулю ковариации не следует независимость случайных величин. Случайные величины могут быть зависимыми в то время как их ковариация нулевая! Но зато, если ковариация случайных величин отлична от нуля, то между ними существует стохастическая связь, мерой которой и является величина ковариации.

Свойства ковариации:

cov(x , x ) = Dx ;

Понятно, что значение ковариации зависит не только от “тесноты” связи случайных величин, но и от самих значений этих величин, например, от единиц измерения этих значений. Для исключения этой зависимости вместо ковариации используется безразмерный коэффициент  корреляции .
22.Понятие функции регрессии.

Для количественного описания взаимосвязей между экономическими переменными в статистике используют методы регрессии и корреляции.

Регрессия - величина, выражающая зависимость среднего значения случайной величины у от значений случайной величины х.

Уравнение регрессии выражает среднюю величину одного признака как функцию другого.

Функция регрессии - это модель вида у = л», где у - зависимая переменная (результативный признак); х - независимая, или объясняющая, переменная (признак-фактор).

Линия регрессии - график функции у = f (x).

2 типа взаимосвязей между х и у:

1)  может быть неизвестно, какая из двух переменных является независимой, а какая - зависимой, переменные равноправны, это взаимосвязь корреляционного типа;

2)  если х и у неравноправны и одна из них рассматривается как объясняющая (независимая) переменная, а другая - как зависимая, то это взаимосвязь регрессионного типа.

Виды регрессий:

1)  гиперболическая - регрессия равносторонней гиперболы: у = а + b / х + Е;

2)  линейная - регрессия, применяемая в статистике в виде четкой экономической интерпретации ее параметров: у = а+b*х+Е;

3)  логарифмически линейная - регрессия вида: In у = In а + b * In x + In E

4)  множественная - регрессия между переменными у и х1 , х2 ...xm, т. е. модель вида: у = f(х1 , х2 ...xm)+E, где у - зависимая переменная (результативный признак), х1 , х2 ...xm - независимые, объясняющие переменные (признаки-факторы), Е- возмущение или стохастическая переменная, включающая влияние неучтенных факторов в модели;

5)  нелинейная - регрессия, нелинейная относительно включенных в анализ объясняющих переменных, но линейная по оцениваемым параметрам; или регрессия, нелинейная по оцениваемым параметрам.

6)  обратная - регрессия, приводимая к линейному виду, реализованная в стандартных пакетах прикладных программ вида: у = 1/a + b*х+Е;

7)  парная - регрессия между двумя переменными у и x, т. е, модель вида: у = f (x) + Е, где у -зависимая переменная (результативный признак), x – независимая, объясняющая переменная (признак - фактор), Е - возмущение, или стохастическая переменная, включающая влияние неучтенных факторов в модели.




1. Васильчиков Виктор Илларионович.html
2.  Схемы двухступенчатых редукторов с цилиндрическими зубчатыми колесами- а развернутый; б соосный
3. На тему- ldquo;Індукція магнітного поляrdquo; Виконав Студент 2го курсу Група 213 кафедри приклад.
4. Реферат- Живопись Древнего Рима
5. на тему- Мебель Выполнил- ст.
6. Артефакт http-ndrey
7. Реферат- О смерти и бессмертии человека и человечества
8. Рекурсия Рекурсией программисты на своём мунспике называют вызов функцией самой себя прямо в теле функц
9. 27 Отчёт по лабораторной работе 56
10. це темні гумінові кислоти що в момент утворення розчиняються у воді а при взаємодії з катіонами водню двох
11. до 50 тысяч рублей
12. Порядок регистрации брака Недействительность брака
13. Файл содержит формулы из курса физики которые будут полезны учащимся старших классов школ и младших курсо.html
14. печать в полиграфическом производстве называют вид процесса или способ получения печатных оттисков
15. 1 2 S1 S2 1 2 Производственные риски.
16. ТЕМАТИЧЕСКОГО МОДЕЛИРОВАНИЯ В ЭКОНОМИКЕ КУРСОВАЯ РАБОТА по дисциплине Программирование в
17. Альфа 6 5 0 1 34 16 15 2
18. Copyright 1998
19. Исторический опыт привлечения иностранного капитала
20. тематическое тривиальное Формула