Будь умным!


У вас вопросы?
У нас ответы:) SamZan.net

Понятие испытания

Работа добавлена на сайт samzan.net:

Поможем написать учебную работу

Если у вас возникли сложности с курсовой, контрольной, дипломной, рефератом, отчетом по практике, научно-исследовательской и любой другой работой - мы готовы помочь.

Предоплата всего

от 25%

Подписываем

договор

Выберите тип работы:

Скидка 25% при заказе до 2.6.2024

1.Понятие испытания. Простр-во элементарных событий.

Неопределяемыми понятиями в т. в. является испытание (опыт, наблюдение, эксперимент) и элементарное событие (элементарный исход). Под испытанием понимается реализация определенного комплекса условий, в рез-те которых наступает ровно 1 элементарное событие из общей совокупности, называемой пространством элементарных событий (ПЭС). Ω = {ω123,…} – ПЭС; ωi – элементарное событие (э.с.). В зависимости от числа э. с. в пространстве различают конечное, счетное, несчетное ПЭС. Конечное пространство содержит конечное число э. с.. Счетное – бесконечное число, но такое, кот. можно пересчитать. Несчетное простр-во содержит бесконечное число э. с., не поддающихся нумерации.

2. Определение событий. Виды событий. Действия над событиями.

Событием (или случайным событием) называется любое подмнож-во простр-ва элементарных событий (э.с.), если оно конечно или счетно. Обозначается А,В,С. А={ω123,…}

Опр.: события называются эквивалентными, если они состоят из одних и тех же э. с. Эквивалентные события наступают или не наступают одновременно. Опр.: Событие назыв. невозможным, если оно не содержит ни одного э. с. Невозможное событие никогда не происходит. Опр.: Событие назыв. достоверным, если оно содержит все э. с. простр-ва Ω. Достоверное событие происходит при каждом испытании. Введем операции над событиями: Суммой событий А и В назовем событие А+В, состоящее из э. с. принадлежащих или соб. А, или соб. В. А+В = {ω: ωA или ωB}. Произведением событий А и В назовем событие АВ, состоящее из э. с., принадлежащих и соб. А, и соб. В. АВ = {ω: ωA и ωB}. Разность событий А и В – это событие, состоящее из э. с., входящих в соб. А и не входящих в соб. В. А – В = {ω: ωA и ωB}. Опр.: События назыв. противоположными, если кажд. из них содержит те э. с., кот. не содержит другое событие. Если А – некоторое событие, то противоположное ему соб. Ā, причем оно единственное. Если событие произошло, то противоположное ему соб. не произошло, и наоборот. Ā = {ωΩ, ωA}, AĀ=Ø. Опр: События А и В назыв. несовместными, если они не содержат общих э. с., т.е. одновременно наступить не могут. Произведение несовместных событий есть невозможное соб., т.е. АВ = Ø. Любые 2 противоположные соб. несовместны. Опр.: События А1, А2, …, Ак назыв. попарно несовместными, если никакие 2 из них несовместны. Опр.: Событие А влечет за собой соб. В, если каждое э. с. из А входит в соб. В, т.е. наступление события А влечет наступление соб. В. АВ = А; А+В = В. Опр: События А1, А2, …, Ак образуют полную группу событий,

если: 1) они попарно несовместны; 2) не невозможны; 3) в сумме дают все простр-во э. с.. События полной группы назыв. гипотезами. Неск-ко событий образуют полную группу, если в рез-те испытания появится хотя бы одно из них. Опр.: События назыв. равновозможными, если есть основание считать, что ни одно из них не является более возможным, чем другое.  3.Классическое определение вероятности.

Существует несколько определений понятия вероятности. Приведем классическое определение. Оно связано с понятием благоприятствующего исхода. Те элементарные исходы (э.и.), в кот. интересующее нас событие наступает назовем благоприятствующими этому событию. Опр.: Вер.ю события А назыв. отношение числа благоприятствующих этому событию исходов к общему числу всех равновозможных несовместных э. и., образующих полную группу. P(A) = m/n, где m – число э. и., благоприятствующих событию А; n – число всех возможных э. и. испытания. Из определения вероятности вытекают ее св-ва:1)вер.(в) достоверного события всегда равна 1. Т.к. событие достоверно, то все э. и. испытания благоприятствуют этому событию, т.е. m=n. P(A)=n/n = 1; 2) В. невозможного соб. равна 0. Т.к. событие невозможно, то нет ни одного э. и., благоприятствующего этому событию, значит m=0. P(A) = 0/n = 0; 3) В. случайного события есть неотрицательная вел-на, заключенная между 0 и 1, т.е. 0<P(A)<1. Действительно, случ. событию благоприятствует часть э. и. из общего числа э. и., т.е. 0<m<n, тогда 0<m/n<1. Из этого следует, что 0<P(A)<1. 4) Итак, для любого события 0≤P(A)≤1.

4. Относительная частота. Устойчивость относительной частоты.

Относительной частотой (ОЧ) события называют отношение числа испытаний, в которых событие появилось, к общему числу фактически произведенных испытаний. (НЕ омега!!!). W(A) = m/n, где m – число появления события А, n – общее число испытаний. Определение вероятности не требует, чтобы испытания проводились в действительности. Определение ОЧ предполагает, что испытания были произведены фактически, т.е. вер. вычисляют до опыта, а ОЧ после опыта. Если в одинаковых условиях производят опыты, в каждом из кот. число испытаний достаточно велико, то ОЧ обнаруживает св-во устойчивости. Это св-во состоит в том, что в различных опытах ОЧ изменяется мало, тем меньше, чем больше произведено испытаний, колеблаясь около некоторого постоянного числа. Это число есть вер. появления события. Т.о. опытным путем установлено, что ОЧ можно принять за приближенное значение вероятности.

5.Статистическая вероятность.

Классическое определение вероятности предполагает, что число элементарных исходов испытания конечно. На практике часто встречаются испытания, число возможных исходов кот. бесконечно. В таких случаях классическое определение неприменимо. Наряду с классич. опр. используют статистическое. Опр.: стат. вер. (ст.в.) события – относительная частота (ОЧ) или число близкое к ней. Св-ва вероятности, вытекающие из классич. определения, сохраняются и при статистическом.  Если событие достоверно, то его ОЧ =1, т.е. ст.в. также =1. Если событие невозможно, то ОЧ = 0, т.е. ст.в. тоже = 0. Для любого события 0W(A) 1, сл-но. ст.в. заключена между 0 и 1. Для существования ст.в. требуется: 1) возможность хотя бы принципиально проводить неограничен. число испытаний, в каждом из кот. событие наступает или не наступает; 2) устойчивость ОЧ появления события в различных сериях достаточно большого числа испытаний. Недостатком статистич. определения является неоднозначность ст.в. Например, если в рез-те достаточно большого числа испытаний оказалось, что ОЧ весьма близка к 0,6, то это число можно принять за ст.в. Но в кач-ве вероятности события можно принять не только 0,6, но и 0,59 и 0,61.

6.Геометрическая вер.

Чтобы преодолеть недостаток классич. опр. вер-сти, состоящий в том, что оно не применимо к испытаниям с бесконечным числом исходов, вводят геом.. Вер-сти, т.е. вер-сти попадания точки в область, на отрезок, часть плоскости и т.д. Пусть отрезок длины l составляет часть отрезка L. На отр. L наудачу поставлена точка. Это означает выполнение следующих предположений: Поставленная точка может оказаться в любой точке отр. L. Вер. попадания точки на отр. l пропорциональна длине этого отрезка и не зависит от его расположения относительно отр. L. P=длина l/длина L.

Пусть плоская фигура g составляет часть плоской фигуры G. На ф. G наудачу брошена точка. Это означает выполнение следующих предположений: Брошенная точка может оказаться в любой точке ф. G. В-сть попадания брошенной точки на ф. g пропорциональна площади этой фигуры и не зависит ни от ее расположения относительно G, ни от формы ф. g. В этих предположениях вер. попадания точки в ф. g определяется равенством: P= площадь g/площадь G.

7.Вычисление вер. с использованием комбинаторных схем

Комбинаторика — это область математики, в кот. изучаются вопросы о том, сколько различных комбинаций подчиненных тем или иным условиям можно составить из заданных объектов. Существует 2 правила, кот. применяются при решении комбинаторных задач: 1) правило произведения. Если объект А можно выбрать из совокупности объектов m способами, и после каждого такого выбора объект В можно выбрать n способами, то выбор пары АВ можно осуществить m*n способами; 2) правило суммы. Если некоторый объект А можно выбрать из совокупности объектов m способами, а другой объект В можно выбрать n способами, то выбрать либо А, либо В можно m+n способами.

Выделяют 3 типа выборок.1.Размещения. Если одна выборка отличается от другой порядком следования эл-тов и составом эл-тов, то они называются размещениями. Их число находится по формуле: nm = n!/(n-m)!; размещение с повторениями: nm=nm

2.Перестановки.Если одна выборка отличается от другой только порядком следования эл-тов, то такие выборки называются перестановками. Pn=n!;   

перестановки с повторением: =(k1+k2+…+kn)! / k1!k2!…kn!.  ki – число повторяющихся элементов каждого вида.

3.Сочетания. Если одна выборка отличается от другой составом эл-тов, но не важен порядок следования эл., то такие выборки называются сочетаниями. Cnm=n! / m!(n-m)!; сочетание с повторением: =(n+m-1)! / m!(n-1)!

8.Понятие об алгебре событий

Построим матем. модель, в кот. учитывались бы все возможные исходы эксперимента. Пусть Ω – производное пространство элементарных событий, а F – некоторый класс подмнож-в множества Ω. Класс подмнож-в F называется алгеброй событий, если выполняются следующ. условия: 1)ΩF; 2)ABF, ABF, A-BF; A,BF; 3)AF, тогда ĀF.

Если задано множ-во и какая-нибудь -алгебра F, то говорят, что задано измеримое пространство(обозначается ,F). Для того, чтобы формализовать какую-нибудь вероятностн. задачу, надо соотв. эксперименту приписать измеримое пространство ,F, где обозначает множ-во элементарных исходов эксперимента, а -алгебра F определяет класс событий, среди кот. находятся и интересующие.

9.Аксиомы Колмогорова

Числовая ф-ция Р, определенная на классе событий, F называется вер.ю, если выполняются следующие условия: Аксиома 1. F является алгеброй событий; Аксиома 2. Р(А)0 для любого АF; Аксиома 3. Р()=1; Аксиома 4. Если А,В – несовместные события, то Р(А+В)=Р(А)+Р(В). Для решения задач, связанных с бесконечн. последовательностями событий, требуется дополнить приведен. аксиомы следующ. аксиомой непрерывности: Аксиома 5. Для любой убывающей последоват-и событий из F такой, что произведение этих событий есть невозм. событие, справедливо равенство: lim(при x→∞) P(An)=0, т.е. А1А2…АnAiF, ; .Эти аксиомы называются аксиомами Колмогорова. Система приведенных аксиом не противоречива.

 10.Понятие вероятностного пространства

Тройку(, F, P), в кот. Р удовлетворяет аксиомам Kолмогорова 2-5, а F является σ-алгебр. событий, называют вероятностным простр-вом. Из определения вероятности вытекают след. св-ва вероятности на этом простр-ве: 1) P()=0, вер. невозможного события; 2) P(Ā)=1-P(A); 3) Если AB, то P(A)P(B); 4) 0P(A) 1; 5) P(A+B) =P(A)+P(B)-P(AB); 6) P(A+B) P(A)+P(B).

11.Теорема сложения вер. для несовместных событий.

Пусть события А и В несовместны, причем вероятности этих событий известны. Теорема: Вер. появления одного из 2-ух несовместн. Событий (безразлично какого) равна сумме вер. этих событий, т.е. P(A+B) = P(A)+P(B). Док-во: Пусть n –  число возм. элементарных исходов (Э.И.) испытания. m1 – число исходов, благоприятствующих соб. А; m2 – число исходов, благоприятств. соб. В. Тогда P(A)=m1/n; P(B)=m2/n. Т.к события А и В несовместны, то нет таких исходов, кот. благоприятствовали бы одновремен. и соб. А, и соб. В. Поэтому соб. А+В благоприятствует m1+m2 Э.И. испытания. Тогда P(A+B)=(m1+m2)/n=m1/n+m2/n=P(A)+P(B). Следствие: Вер. появления одного из нескольких попарно несовместных событий равна сумме вер. этих событий, т.е. P(A1+A2+…+An)=P(A1)+P(A2)+…+P(An) или P(i)=

Теорема: Сумма вер. событий А1, А2…Аn, образующих полную группу равна 1, т.е. P(A1)+P(A2)+…+P(An)=1. Док-во: Т.к. появление одного из событий полной группы достоверно, а вер. достоверн. события равна 1, то P(A1+A2+…+An)=1. Любые 2 события полной группы несовместны, поэтому можно применить теорему сложения: P(A1+A2+…+An)= P(A1)+P(A2)+…+P(An)

Теорема: Сумма вер-тей противоположных событий(П.С.) равна 1, т.е. P(A)+P(Ā)=1. Док-во: П.С. образуют полную группу, а сумма вер. событий, образующих полную группу равна 1. Замечание: Если вер. одного из П.С. обозначить за p, а вер. другого через q, то предыдущую формулу можно записать в виде: p+q=1.

12.Теорема сложения вер. для совместных событий

Опр.: События А и В назыв. совместными, если появление одного из них не исключает появления другого в одном и том же испытании, т.е. есть элементарные события, входящие и в соб. А, и в соб. В. Теорема: Вер. появления хотя бы 1 из 2-ух совместных событий равна сумме вер. этих событий без вероятности их совместного наступления, т.е. P(A+B)=P(A)+P(B)-P(AB). Док-во: Пусть в рез-те опыта возможны N равновозможных исходов.  (сделать рис с кружками) Пусть далее соб. А благоприятствует М исходов, а соб. В - К исходов. События А и В совместны, поэтому часть указан. исходов благоприятствует и соб. А, и соб. В. Предположим, что таких исходов L, тогда P(A)=M/N, P(B)=K/N, P(AB)=L/N. Соб. А+В заключается либо в наступлении соб. А, либо соб. В, либо соб. АВ, поэтому ему будет благоприятствовать M+K-L исходов. (сделать рис) Тогда P(A+B)=(M+K-L)/N=M/N+K/N-L/N. Вер. суммы 3-ёх совместных событий вычисляются по формуле: P(A+B+C)=P(A)+P(B)+P(C)-P(AB)-P(BC)-P(AC)+P(ABC)

13.Условная вер.. Теорема умножения вер..

Соб. А называется независимым от события В, если Р(А) не зависит от того, произошло соб. В или нет. Соб. А называется зависимым от соб. В, если Р(А) меняется в зависимости от того, произошло соб. В или нет. Опр.: Вер. соб. А, вычисленная при условии, что имело место другое соб. В, называется условной вер.ю (у.в.) события и обозначается PВ(A) или P(A\B). Условие независимости соб. А от соб. В можно записать в виде PВ(A)=P(A). Условие зависимости соб.: PB(A)≠P(A). Теорема: Вер. произведения 2-ух событий равна произведению вер. одного из них на у.в. другого, вычисленную при условии, что 1-ая имела место, т.е. P(AB)=P(A) * PA(B). Док-во: Пусть возможные исходы опыта сводятся к n случаям. Предположим, что соб. А благоприятствует m случаев, а соб. В – k случаев. Т.к. мы не предполагали соб. А и В несовместными, то существуют случаи благоприяттвующие и соб. А, и соб. В одновременно. Пусть число таких случаев l(эль), тогда вер. соб. АВ будет равна l/n, а P(A)=m/n. Вычислим у.в. соб. В в предположении, что соб. А имело место. Если известно, что соб. А произошло, то из ранее возможных n случаев остаются возможными только те m случаев, кот. благоприятствовали соб. А, а из них только l случаев благоприятствуют соб. В, поэтому PA(B)= l/m. Подставляя в выражения вер. соб. АВ, вер. событ. А и у.в. соб. В, получаем тождество.

Замечание: При применении теоремы безразлично, какое из соб. А и В считать 1-ым, а какое 2-ым, т.е. P(AB)= P(A)* PA(B)= P(B) * PB(A)

14.Независимые события. Теорема умножения для независимых событий.

Опр: 2 события назыв. независимыми, если появление любого из них не изменит вер. появления другого, т.е. P(A)=PB(A) или P(B)=PA(B). Теорема: Вер. совместного появления 2-ух независимых событий равна произведению их вер-тей, т.е. P(AB)= P(A)*P(B). Док-во: Т.к. соб. А и В независимы, то должно выполняться равенство P(B)=PA(B). Тогда по теореме умножения вер-тей P(AB)=P(A)*PA(B)= P(A)*P(B). Следствие: Если соб. А и В независимы, то независимы и соб. А и . Следствие 2: Если 2 события независимы, то независимы и противоположные им события. Теорема: Вер. совместного наступления конечного числа соб. равна произведению вер. одного из них на условные вероятности (у.в.) всех остальных. Причем у.в. каждого последующего соб. вычисляется в предположении, что все предыдущие уже наступили, т.е. P(A1*A2*…An)=P(A1)*PA1(A2) *, где - у.в. соб. Аn , вычисленная  в предположении, что соб. А1, А2… Аn-1 произошли.  Опр.: Соб. называются независимыми в совокупности, если наряду с их попарной независимостью независимо любое из них и произведение любого числа из остальных. В противном случае события назыв. зависимыми.  Теорема: Вер. совместного появления нескольких соб. независимых в совокупности равна произвед. вер-тей этих соб., т.е. P(A1*A2*…An)=P(A1) *P(A2) *…*P(An).

15.Вер. появления хотя бы одного события

Пусть в рез-те испытания могут появиться n событий, независимых в сов-сти, либо некоторые из них. Причем вер-ти появления каждого из соб. известны. Как найти вер. того, что наступит хотя бы одно из них? Теорема: Вер. появления хотя бы одного из событий А1, А2…Аn, независимых в сов-сти равна разности между 1 и произведением вер-тей противоположных соб. , т.е. P(A1+A2+…+An)=1— P(). Док-во: Соб.  (ни одно соб. не произошло) и соб. A1+A2+…+An противоположны, значит P(A1+A2+…+An)+P()=1. Отсюда P(A1+A2+…+An)=1- P()=1- P() (последнее действие - по теореме умножения вер-тей). Частный случай: Если событ. А1, А2…Аn  имеют одинаковую вер. p, то вер.. появления хотя бы 1 из этих соб. вычисляется по формуле 1- qn, где q=1-p.

 16.Формула полной вероятности

Пусть требуется определить вер. некоторого соб. А, которое может произойти вместе с одним из соб. H1,H2,…,Hn, образующих полную группу несовместных соб. Соб. H1,H2,…,Hn будем называть гипотезами. Докажем, что в этом случае P(A) вычисляется как P(A) =++…+=. Т.е. P(A) вычисляется как сумма произведений вер-ти каждой гипотезы на соотв. условную вер. соб. А. Док-во: Т.к. гипотезы H1,H2,…,Hn образуют полную группу, то соб. А может появиться в комбинации с какой-л. из этих гипотез, т.е. A=H1A+H2A+…+HnA. Т.к. гипотезы H1,H2,…,Hn несовместны, то и комбинации H1A,H2A,…,HnA несовместны. Применяя теорему сложения, получаем P(A)= P(H1A)+P(H2A)+…+P(HnA). Применяя к событию HiA теорему умножения вер-тей, получаем P(A)=++…+.

17.Формула Байеса

Следствием теоремы умножения и формулы полной вер. явл. теорема гипотез или формула Байеса. Поставим след. задачу: имеется полная группа несовместных гипотез H1,H2,…,Hn. Вер-ти этих гипотез до опыта известны и равны P(H1), P(H2),…, P(Hn). Произведен опыт, в рез-те кот. появилось некоторое соб. А. Как следует изменить вероятности гипотез в связи с появлением этого события? Т.е. нужно найти усл. вер. PA(Hi) для каждой гипотезы. Из теоремы умножения вер.: P(AHi)=P(A)* PA(Hi)=P(Hi)*, ; PA(Hi)=, . Выражая P(A) с пом. формулы полной в-сти, получаем PA(Hi)=, . Данная формула – формула Байеса или теоремой гипотез.

 18.Формула Бернулли

При решении вер-ых задач часто приходится сталкиваться с ситуациями, в кот. одно и тоже испытание повторяется многократно. В рез-те каждого опыта может появиться или не появиться некоторое соб. А, причем нас интересует не рез-т каждого отдельного опыта, а общее число появлений соб. А в рез-те серии опытов. Модель рассматрив. ситуации выглядит след. образом: проводится n исп-ий, в каждом из кот. соб. А может произойти или нет. Причем вер. соб. в каждом отдельном исп-нии постоянна, т.е. не меняется от исп. к исп. Требуется определить вер. m появлений соб. А в n исп-ях. Подобные задачи решаются довольно легко, если исп-ия явл. независимыми. Опр.: Неск-ко испытаний назыв. независим. относит-но соб. А, если вер. соб. А в кажд. из них не зависит от исходов др. испытаний. Напр, неск-ко последоват. бросаний монет представляют собой независимые опыты. Производится n независимых опытов, в кажд. из кот. может появиться или не появ. некоторое соб.А. Вер. появл. данного соб. в каждом опыте постоянна и равна p, а вер. непоявления=q. Требуется найти вер. Pn(m) того, что соб. А в этих n опытах появится m раз. Рассмотрим событие Bm, состоящ. в том, что соб. А появится в этих n опытах ровно m раз. Разложим соб. Bm на сумму произведения соб., состоящих в появлении или непоявл. соб. А в определ. опыте. Каждый вар-т появл. соб. Bm должен состоять из m появлений соб. А и n-m непоявл. соб. А.  Bm1А2…Аm *… Каждое произв. соб. А должно происходить m раз, а  - n-m раз. Число всех комбинаций такого рода равно , т.е. равно числу способов, какими можно из n опытов выбрать m, в кот. произошло соб. А. Вер. каждой такой комбинации по теор. умнож. для независ. соб. равна . Т.к. комбинации между собой несовместны, то по теор. сложения вер. соб. Bm равна . Т.о., если производится n независим. опытов, в кажд. из кот. соб. А появляется с вер. p, то вер. того, что соб. А появится ровно m раз, выражается формулой

 19.Наивероятнейшее число появления событий в последовательности независимых испытаний

Опр.: Наивероятнейшим числом m0 наступления соб. А в n независим. испытаниях назыв. число, для кот. вер. превышает или по крайней мере не менее вер. каждого из остальных возм. исходов исп. Пусть соб. А наступило m0 раз в n испы. Вер. появл. соб. А обозначим p; P(A)=p, а , тогда по формуле Бернули . По определению: -формула (1); -формула (2). Из нер-ва (1) получаем:  ; ; . Т.к.  q+p=1, то . Из нер-ва (2) получаем: ; ; ; . Т,о. для нахождения наивероятнейшего числа мы получили нер-во: . Замечание 1: Длина интервала, определяемая  нер-вом равна 1; Замечание 2: Если границы интервала – дробные числа, то значение наивероятнейшего числа одно. Если границы – целые числа, то знач. наивер. числа два.

 20.Формула Пуассона

Если вер. события p в отд. испытании близка к 0, то даже при большом числе испытаний n, но небольшой величине  вероятности , получен. по лок. формуле Лапласа недостаточно близки к их ист. знач.м. В таких случаях применяют формулу Пуассона. Теорема: Если вер. p наступления соб. А в кажд. исп постоянна, но близка к 0, число независим. Исп. n достаточн. велико, а , то вер. того, что в n независ. испытаниях соб. А наступит m раз . Это формула Пуассона. Док-во: Для вычисления вер. воспользуемся ф. Бернулли:

(Т.к.,то)= Т.к. по условию n велико, то найдем предел правой части последн. равенства при , при этом будет получено приближен. значение вер.: =  ==    = Пределы всех скобок, кроме предпоследн. равны 1 при . Сл-но вер. того, что в n исп. соб. появится m раз . Замечание: Ф. Пуассона обычно используют, когда , а .

  21.Функция Лапласа.

Интегральная функция Лапласа.

Их применение для решения задач.

Исп-ть ф. Бернулли при достаточно большом кол-ве исп. затруднительно. Поэтому, когда  используют т. Лапласа. Локальная т. Лапласа: Если вер. появления соб. А в каждом исп. постоянна и отлична от 0 и 1, то  того, что соб. А появится в n испытаниях ровно m раз, ≈ равна (тем точнее, чем больше n) значению ф-ции: ,где ,где . Имеются таблицы, в кот. помещены знач. ф-ции. , соответствующие полож. знач-ям аргумента x. Для отриц. знач-ий аргумента пользуются теми же таблицами, т.к. функц.  четная, т.е. . Вер. того, что соб. А появится в n испытаниях ровно m раз , где .

ИНТЕГР теор: Предположим, что производится n испытаний, в кажд. из кот. вер. появл. соб. А постоянна и равна p, . Нужно найти вер того, что соб. А появится в n испытаниях не менее k1  и не более k2  раз, т.е. нужно найти . Теорема.: Если вер. P наступления соб. в каждом исп. постоянна и отлична от 0 и 1, то вер. того, что в n испытаниях соб. А появится от k1 до k2 раз ,где (штрихи наоборот.) . При решении задач, требующих применения интегр. т. Лапласа, пользуются спец. таблицами. В них даны знач. ф-ции  для полож. знач. аргумента x. Для x<0 функц.  нечёт., т.е. . В табл. приведены знач. для . При x>5 значение ф-ции считается пост. и = 0,5. Для того, чтобы можно было исп-ть табл. функций Лапласа. преобразуем последнюю формулу: ; , где . Вер. того, что соб. А появится в n независимых исп. от k1 до k2 раз равна .

 22.Понятие случайной вел-ны. Дискретные и непрерывные случ. вел-ны.

Случайной называется вел-на, кот. в рез-те опыта может принять то или иное возможное значение неизвестное заранее, но обяз-но одно. Пример: число попадений при 5 выстрелах, цена акций на бирже в опр. момент времени. Дискретной случайной вел-ной (с.в.) называют такую с.в., мн-во возм. знач. кот. либо конечное, либо бесконечное, но счетное. Пример: число солнечных дней в году. Непрерывной с.в. называют такую с. в., кот. может принять любое значение из некот. конечного или бесконечного интервала. Пример: расходы горючего на единицу расстояния. с.в. обозначаются большими лат. буквами из конца алфавита(X, Y, Z). х12- соотв. знач. с. в. Введем операции над с.в. Пусть имеется 2 с.в. X и Y, возм. знач. кот. явл.

х12 ….. хn и y1,y2 ….. yn. Опр.: Суммой X+Y с.в. X и Y  называют с.в. Z , возм. знач. кот. равны . Опр.: Произведением XY с.в. X и Y называется с.в. Z, возм. знач. кот. равны .  Опр.: Произведением CX с.в. X на постоян. C называется такая с.в. Z, возм. знач. кот. равны . Аналогично определяются X-Y и X\Y двух с.в.

23.Ряд распр. дискретной случайной вел-ны

Появление тех или иных знач. случайной вел-ны (с.в.) можно рассм. как соб., а различным соб. соотв. различные вер-ти. Поэтому возм. знач. с.в. различаются между собой с вер-ной т. зр. Перечисление всех возм. знач. с.в. не дает достаточно полного представл. о ней. Кроме знач. с.в. необходимо знать, как часто м. появляться те или иные знач. с.в. в рез-те исп-ний, проводящихся в одинаковых условиях. Рассмотрим дискретную с.в. X, возм. знач. кот. х12 ….. хn. Каждое из этих знач. возможно, но не достоверно, и с.в. X м. принять каждое из них с некоторой вер. В рез-те опыта вел. X примет одно их этих знач.: , т.е. произойдет одно из полной группы несовместн. событие. Обозначим вер. этих соб.: Т.к. указ. соб. несовместны и образуют полную группу, то , т.е. сумма вер. всех возм. знач. = 1. Если мн-во знач. с.в. образует бесконечное, но счетное мн-во, то ряд сходится и его сумма = 1. Т.о. суммарная вер. единицы распределена между отд. знач. с.в. С.в. будет полностью описана с вер. т. зр., если мы зададим это распр., т.е. в точности укажем, какой вер. обладает каждое из соб. Опр.: Законом распр. СВ называется всякое соотношение, устанавливающее связь между возм. знач-ми СВ и соотв. им вер-ми. Закон распр. м. задать табличным, графич. или аналит. способами. При табл. способе 1-ая строка табл. содержит возм. значение СВ, а 2-ая -  соотв. вер-ти. Обычно знач. СВ располагают в возраст. порядке. Чтобы придать ряду распр. более нагляднй вид часто прибегают к его граф. изображению. По оси абсцисс откладывают возм. знач. СВ, а по оси ординат вер-ти этих знач.. Получ. точки соединяют отрезками прямых. Получ. фигуру называют многоугольником. распр. Он полностью характеризует СВ и является одной из форм закона распр. Замечание: Ряд р. и многоуг. р. можно построить только для дискретной СВ

 

24.Функция распр. СВ и ее свойства

Ряд распр. не явл. исчерпыв. хар-кой для СВ, т.к. он сущ-ет только для дискретн. СВ. Непрерывная СВ(НСВ) имеет бесчисленное мн-во возм. знач., сплошь заполняющ. некот. промежуток. Составить табл., в кот. были бы перечислены все возм. знач. СВ невозможно. Кроме того в дальнейшем будет показано, что каждое отд. знач. обладает нулевой вер. Однако несмотря на рав-во 0-вых вер. отд. знач. НСВ, нахождение ее возм. знач. в разл. интервалах обладает разл. и отличными от 0 вер. Т.о. для НСВ, так же как и для ДСВ, можно определить закон распр., но в неск-ко ином виде. Для хар-ки поведения НСВ целесообразно использовать не вер. события X=x, а вер. соб. X<x, где x – некот. действит. число. Вер. P(X<x) явл. функцией аргумента x. Будем обозначать эту ф-цию. F(x). Опр.: Ф-цией распр. СВ X - ф-ция F(x), задающая вер. того, что СВ X принимает значение меньшее x, т.е. F(x)=P(X<x). Ф-ция. распр. F(x) назыв. также интегр. ф-цией распр. или интегр. законом распр. Ф-ция распр. существует для всех СВ(как дискр., так и непрерывн.).Она полностью хар-ет СВ с вер. т. зр., т.е. является одной из форм закона распр. Ф-ция распр. допускает простую геом. интерпретацию. Рассмотрим СВ X как случ. точку на оси OX, кот. в рез-те опыта м. занять то или иное положение. Пусть на оси OX выбрана конкр. точка x, тогда в рез-те опыта случ. точка X м. оказаться левее или правее точки x. Вер. того, что случ. точка X оказалась левее точки x и будет являться ф-цией. распр., зависит от положения точки x. (рисунок). Для  ДСВ, кот. может принимать значение х12 ….. хn , ф-ция. распр. имеет вид , где нер-во  означает, что суммирование касается всех тех знач. хi, вел-на кот. <x. Поясним эту формулу исходя из аргумента F(x). Предположим, аргумент x принял какое-то опр. знач., но такое, что выполняется нер-во , тогда левее числа x на числ. оси окажутся только те знач. СВ, кот. имеют индекс 1,2,3…,i. Поэтому нер-во X<x выполняется, если вел-на. X примет знач. хk, где k=1,2,3…,i. Т.о. соб. X<x наступит, если наступит любое из соб. ,,…,. Т.к. эти соб. несовмест., то по теор. слож. вер.P(X<x)= ++…+= . Построим ряд распр. ДСВ Х:

Х

x1

x2

xi

xn

 p

p1

p2

pi

pn

При , F(x)==0; При , F(x)==; при , F(x)===; при , F(x)==  +; при , F(x)= =  +…+  =; при , F(x)=  +…+  =. Для ДСВ график ф-ции распр. представляет собой разрывную ступенчатую фигуру. (нарисовать). Когда перемен. х проходит через какое-ниб. из возм. знач. СВ, знач. Ф-ции распр. меняется скачкообразно,т.е. ф-ция имеет скачок в тех точках, в кот. СВ принимает конкр. знач. согласно ряду распр., причем вел-на скачка равна вер. этого знач.. Замечание: По ф-ции распр. ДСВ всегда м. восстановить ее ряд распр. Св-ва ф-ции распр.: 1) если F(x) –ф-ция распр. СВ Х, то  для всех х. Это св-во вытекает из опр. Ф-ции распр.; 2) F(x) явл. неубывающей, т.е.  при, . Док-во: Пусть  - точки числ. оси, причем . Покажем, что . Рассмотрим 2 несовмест. соб.: соб. А состоит в том, что , а соб. В сост. в том, что . Тогда соб. А+В = . По теор. слож. вер. P(A+B)=P(A)+P(B) или P(X<)= P(X<)+P(). Используя опр. ф-ции распр. получаем F2)=F2)+ P(). Т.к. вер. того, что ()0, то F2)F1), т.е. F(x) – неубыв. ф-ция; 3) если F(x) – ф-ция распр., то =0, =1. Док-во: Т.к. F(x) – монот. Ф-ция и ограниченная (из св-ва 1), то  сущ-ет. В силу предполагаемой непрерывности F(x) можно записать, что == . Т.к. соб.  невозможное, то его вер.=0. Значит =0. Аналогично =  =. Соб.  - достоверное, а его вер. =1. Значит =1.

 25. Плотность распр. вер. непрерывной СВ и ее св-ва.

Ф-ция распр. вер-тей непрерывной СВ (НСВ) дает полную вер-ную хар-ку ее поведения. Однако задание НСВ с пом. ф-ции распр. не является единственным. Ее можно задать с пом. др. ф-ции, кот. называется дифференциальной ф-цией распр. или плотностью распр. вер-тей. Пусть X – НСВ с интегральной ф-цией распр. F(x). F(x) непрерывна и дифференцируема в исследуемом интервале. Рассмотрим вер. попадания знач. СВ в интервал (x; x+x). P(x<X<x+x) = F(x+x) – F(x), т.е. вер. равна приращению ф-ции на этом участке. Определим теперь вер., кот. приходится на единицу длины рассматриваемого участка. Для этого разделим обе части последнего рав-ва на x:  =  Перейдем к пределу  = ; лев часть равна = ;   = f(x). Опр.: Дифференц. ф-цией распр. или плотностью распр. вер. называется 1-ая производная от интегральной ф-ции распр. Замечание: Для хар-ки распр. вер. ДСВ дифференц. ф-ция распр. неприменима. Основные св-ва дифференц. ф-ции распр.: 1) Для  f(x) неотрицательна, т.е. f(x)0. Док-во: Следует из определения ф-ции плотности F(x) – неубыв. ф-ция, значит ее производная неотрицательна, т.е. F’(x) = f(x)0; 2) Для дифференциальной ф-ции распр. имеет место равенство P(<X<) =. Док-во: Т.к. ф-ция F(x) явл. первообразной для функц. f(x), то из формулы () = F()-F() и формулы Ньютона-Лейбница вытекает вер. того, что P(<X<) = F()-F() = ; 3)Для дифференц. ф-ции распр. имеет место рав-во: =1. Док-во: Согласно опр. несобств. интеграла по бескон. пределам и 3-му св-ву ф-ции распр. имеем  =  + = +=  += + =0+1=1; 4) Для интегр. и дифференц. ф-ции распр. имеет место рав-во: F(x) =. Док-во: =  = = F(x) - = F(x)-0=F(x). Замечание: Если СВ Х принимает значение только в некот. интервале (,), то =1.

 26. Вер. попадания СВ в заданный интервал.

Вер. попадания СВ Х в задан. интервал [,)

равна приращению ее ф-ции распр. на этом интервале, т.е. вер. того, что P()= F() - F(). Эта формула следует из формулы F2)=F1)+ P() – вопрос №24, если вместо точек х1, 2 взять точки и . Cв-во : Вер. любого отдельного знач. НСВ равна 0. Док-во: Воспользуемся рав-вом  P()= F() - F() и устремим к . (). Тогда получим  = . В левой части посл. рав-ва в пределе вместо вер. попадания знач. СВ в интервал [,) получим вер. того, что СВ приняла отдельно взятое значение , т.е. P(X=). Значение предела в правой части рав-ва зависит от того, явл. ли ф-ция F(x) непрерывной в точке или имеет в ней разрыв. Если ф-ция имеет разрыв, то предел равен величине скачка ф-ции F(x) в точке . Т.к. по предположению ф-ция F(x) всюду непрерывна, то  = F() - F() = 0. Т.о.  =  = P(X=)=0. При непрерывн. распр. вер-тей, т.е. когда ф-ция распр. непрерывна, вер. попадания знач. НСВ на сколь угодно малый участок отлична от 0, тогда как вер. попадания в строго опр. точку равна 0. Воспользовавшись последним св-вом, докажем, что для НСВ выполняются след. рав-ва: Р() =  =  = . Докажем одно из соотношений. Соб.  представл. собой сумму 2-ух несовместн. соб. X= и . Тогда по теор. слож. вер. имеем Р() = P(X=) + . Согласно посл. св-ву P(X=)=0, тогда P(X=) +  =  = F() - F(). Сл-но = F() - F().

27. Мат. ожидание дсв и нсв. Св-ва мат. ожидания.

Мат. ожидание. Возм. знач. СВ могут быть сосредоточены вокруг некот. центра. Этот центр является некотор. ср. значением, вокруг кот. группируются ост. знач. СВ. Для хар-ки такой особенности распр. СВ служит мат. ожидание, кот. иногда называют центром распр. или ср. знач. СВ. Пусть имеется ДСВ Х, заданная след. рядом распр.:

Х

x1

x2

x3

xn

Р

p1

p2

p3

pn

Опр.: Мат. ожиданием (м.о.) M(X) ДСВ X назыв. сумма произведений всех возм. знач. СВ на соотв. вер. появления этих знач., т.е. M(X)= -форм. (1). Если ДСВ принимает бесконечное счетное мн-во знач., то ее м.о. выражается формулой M(X)= . Причем м.о. в этом случае сущ-ет, если ряд в правой части рав-ва сходится абсолютно. Опр.: м.о. НСВ Х, возм. знач. кот. принадлежат отрезку [a,b] назыв. вел-на равная M(X)= , где f(x) – ф-ция плотности распр. НСВ Х. Если возм. знач. непрерывн. СВ Х принадлежат всей оси ОХ, то M(X)= . Здесь предполагается, что несобств. интеграл сходится абсолютно, т.е. существует. Осн. св-ва м.о.: Опр.: 2 СВ назыв. независимыми, если закон распр. вер. одной из них не зависит от того, какие возм. знач. приняла др. вел-на. В противном случае СВ называют зависимыми. Опр.: Неск-ко СВ назыв. взаимно независим., если закон распр. любой из них не зависит от того, какие знач. приняли какие-л. другие из оставшихся вел-н. 1) м.о. постоянной вел-ны равно самой постоянной, т.е. M(C)=C. Док-во: Пост. C можно рассматривать как м.о ДСВ, кот. принимает знач. C с вер.ю =1. Тогда по формуле (1): M(C) =Cp=C1=C; 2) Пост. множитель можно выносить за знак м.о., т.е. M(kX)=kM(X). Док-во: Возм. знач., кот. принимает СВ kX – это kx1, kx2,…,kxn. Им соответствуют вер. p1, p2,…,pn. Тогда M(kX)=  =  = kM(X); 3) м.о. алг. суммы 2-ух СВ X и Y  равно алг. сумме их м.о., т.е. M(XY)=M(X)  M(Y). Док-во: Пусть X и Y – ДСВ, имеющие след. ряды распр.:

Х

x1

x2

x3

xn

Р

p1

p2

p3

pn

(То же самое для Y, только вместо pq и в конце ym и qm). Пусть X и Y – независимые СВ. Найдем вер. появления знач. , соотв. значению СВ . Для появл. указ. знач. необходимо, чтобы с вер. pi  появилось значение xi  СВ Х, а с вер. qj  - значение СВ Y yj. Значит вер. появл. знач.  = pi qj. Ряд распр. ДСВ  будет иметь вид:

Х+-y1Y

x1+-y1

x2+-y2

xi+-yj

xn+-ym

Р

p1 q1

p2 q2

pi qj

pn qm

Тогда  M(XY)=  =    =    = M(X)  M(Y); 4) м.о. произведения 2-ух независим. СВ X и Y равно произведению их м.о., т.е. M(XY)=M(X)M(Y). Док-во: Пусть ДСВ X и Y заданы рядами распр., приведенными при док-ве св-ва 3. Ряд распр. СВ XY для независим. СВ имеет вид: (такой же как и предыдущий, только x1y1 и т.д.). Тогда м.о. M(XY)=  =  = M(X)M(Y). Замечание: Св-ва, доказанные для ДСВ справедливы и для НСВ; 5) м.о. отклонения СВ от ее м.о. равно 0, т.е. M(XM(X))=0. Док-во: Используя св-ва 3 и 1 и учитывая, что м.о. – вел-на постоянная, получаем, что M(XM(X))= M(X) – M(M(X)) = M(X) – M(X) =0. Замечание: Разность XM(X) показывает, насколько знач. СВ отклонилось от м.о. Эту вел-ну назыв. отклонением СВ Х от ее м.о.

28. Дисперсия дсв и нсв. Св-ва дисперсии.

Дисперсией (Д) D(X) СВ называют м.о. квадрата ее отклонения от м.о., т.е. D(X)=M(X-M(X))2. Выбор Д, определяемой по предыд. формуле в кач-ве хар-ки рассеивания знач. СВ оправдывается тем, что Д обладает св-вом минимальности. Это означает, что Д равна  (под min подписать с). Если X – это ДСВ, то D(X)= . Если X – это НСВ, приним. знач. отрезка [a,b], то D(X)= f(x)dx, где f(x) – ф-ция плотности распр. НСВ X. D(X) имеет размерность квадрата СВ, что не всегда удобно, поэтому в кач-ве пок-ля рассеивания используют также вел-ну . Ее называют средним квадратич. отклонением. Основн. св-ва Д: 1) Д алг. суммы 2-ух независим. СВ X и Y равна сумме Д этих величин, т.е. D(XY)=D(X)+D(Y). Док-во: D(XY)= M[(XY) – M(XY)]2 = M((XY) – (M(X) M(Y)))2 = M((XM(X)  (YM(Y)))2 = M[(XM(X))2  2(XM(X))(YM(Y)) + (YM(Y))]2 = M(XM(X))2  2M(XM(X))M(YM(Y)) + M(YM(Y))2 = D(X) + 0 + D(Y) = D(X)+D(Y); 2) Д пост. вел-ны равна 0, т.е. D(C)=0. Док-во: Т.к. M(C)=C, то D(C)= M(CM(C))2 = M(CC)2 = M(0) = 0; 3) Пост. множитель С можно выносить за знак Д, возводя его в квадрат, т.е. D(CX)= C2D(X). Док-во: D(C)= M(CXM(CX))2 = M(CXCM(X))2 = M(C(XM(X))2) = M(C2(XM(X))2) = M(C2)M(XM(X))2 = C2D(X); 4) Д СВ Х равна разности между м.о. квадрата СВ и квадратом ее м.о., т.е. D(X) = M(X2) – (M(X))2. Док-во: По опр. Д D(X) = M(XM(X))2 = M(X2 – 2X M(X) + (M(X))2) = M(X2) – M(2X M(X)) + M(M(X))2 = M(X2) – 2M(X) M(X) + (M(X))2 = M(X2) – (M(X))2. Замечание: При решении практич. задач для вычисления удобнее использовать формулу св-ва (4). Для ДСВ эта формула будет иметь вид: D(X) =  - (M(X))2. Для НСВ: D(X) =  - (M(X))2.

32. Гипергеометрическое распр.

ДСВ Х = m имеет геом. распр. с параметром p, если она принимает знач. 1, 2, …, m, …(бесконечное, но счетное мн-во знач.) с вер. P(X=m) = pqm-1, где 0<p<1, а q = 1 – p. Ряд геом. распр. имеет вид:

X

1

2

3

m

p

p

Pq

pq2

pqm-1

Определение геом.. распр. корректно, т.к. = p + pq + pq2 + …+ pqm-1 = p(1+ q + q2 +…+ qm-1 +…) = p/(1-q) = p/p = 1.

(сумма в скобках – беск убыв геом прогр)

СВ Х равная m, имеющая геом. распр., представляет собой число m исп., проведенных по схеме Бернулли с вер. p наступления соб. в каждом исп. до первого полож. исхода. Мат. ожидание(м.о.) СВ Х, имеющей геом. распр. с параметром p равно 1/p, а дисперсия равна q/p2.

ДСВ имеет гипергеом. распр. с параметрами n, M, N, если она принимает знач. 0, 1, 2, …, min(n, M) с вер. P(X= m) = , где ; n, N, M — натур. числа. Гипергеом. распр. имеет СВ Х = m, число объектов, обладающих заданным св-вом среди n объектов, случайно извлеченных без возврата из совокупности N объектов, M из кот. обладают этим св-вом. м.о. СВ, имеющей гипергеом. распр. с пар. n, N, M, вычисляется по формуле M(X)=n*M/N;D(X)= n*M/(N-1)*(1-M/N)*(1-n/N) 29. Мода, медиана, ассиметрия, эксцесс.

Опред Модой(Mo(X)) CB X называется ее наиболее вероятное значение, т.е. значение, для кот. вер. pi или плотность вер-ти f(x) достигает максимума. Если вер. или плотность вер-ти достигает максимума не в одной, а в нескольких точках, то распр. называется полимодальным.

Опред Медианой (Me(X)) НСВ Х называется такое ее значение, для кот. вер. того, что X< Me(X) равна вер. того, что X> Me(X) и равна ½, т.е. вер. того, что СВ Х примет значение меньше Me или больше ее одна и таже и равна ½. Геом.ески медиана – это вертик. прямая x= Me(X), проходящая через точку Me(X), кот. делит площадь фигуры кривой распр. на 2 равные части.

Коэффициент ассиметрии(А). A=, где - среднеквадратич. отклонение,  - центральный момент 3-ей степени. Если распр. симметрично относительно мат. ожидания, то А=0.

Эксцессом или коэффициентом эксцесса называют число E= -3. (Служит для характ крутости распр-я – остро или плоско вершинности) Число 3 вычитается из соотношения , т.к. для наиболее часто встречающегося нормальн. распр. вел-на =3. Кривые более островершинные, чем нормальные обладают положительн. эксцессом, а более плосковершинные – отрицат. эксцессом.

30.Начальные и центральные моменты случ. величин.

Начальным моментом к-того порядка СВ Х называется мат. ожидание(м.о.) к-той степени этой вел-ны. Начальн. момент обозначается  = M(X)k. Центральным моментом к-того порядка СВ Х назыв. м.о. к-той степени отклонения СВ Х от ее м.о., т.е.  = (XM(X))k. Для ДСВ и НСВ формулы для вычисления моментов приведены в таблице:

Моменты

ДСВ

НСВ

Начальный

, где f(x) – ф-ция плотности распр.

Цент

Ральн.

При к=1 ; при к=2 . Центр. моменты  могут быть выражены через нач. моменты  по формулам: ;; . м.о. или нач. момент 1-го порядка хар-ет ср. значение СВ.  или дисперсия хар-ет степень рассеивания распр. СВ Х отн-но м.о. M(X).  служит для хар-ки ассиметрии или скошенности распр. Он имеет размерность куба СВ. Чтобы получить безразмерную вел-ну, ее делят на , где - среднеквадратич. отклонение. Коэфф ассиметрии служит для хар-ки крутости, т.е. островершинности или плосковершинности распр. Эти св-ва описываются с помощью эксцесса.

 31. Биномиальный закон распределения.

Пусть проводится n независим. испытаний, в кажд. из которых соб. А может появиться, либо не появиться. Вер. появл. соб. А в единичном испытании постоянна и не меняется от исп. к исп.. Рассмотрим в кач-ве ДСВ Х число появлений соб. А в этих исп. Формула, позволяющая найти вер. появления m раз соб. А в n испытаниях – это форм. Бернулли. Опр.: ДСВ Х, кот. может принимать только целые неотриц. знач. с вер. Pn(m)=P(X=m)=pmqn-m, где p+q=1, p>0, q>0, m= называется распределенной по биномиальному закону, а p – параметром биномиальн. распр. Ряд распр. ДСВ Х распределенной по биномиальному закону можно представить в виде:

X

0

1

K

n

p

Ф-ция распр. в этом случае опр-ся формулой F(x)=. Найдем числовые хар-ки этого распр.. M(X) = (рав-во 1) . Запишем рав-во, являющееся биномом Ньютона: (p+q)n= . Продифференцируем последнее рав-во по p: n(p+q)n-1= . Умножим последнее рав-во на p: np(p+q)n-1= . Сравнивая получен. рав-во с рав-вом (1), получаем, что np(p+q)n-1 = M(X). Т.к. p+q=1, то M(X)= np. Для вычисления дисперсии ДСВ, распределенной по биномиальному закону, воспольз. формулой D(X)= M(X2) – (M(X))2. Для СВ распределенной по биномиальн. закону: M(X2) = . Продифференцируем рав-во (p+q)n =  дважды по p. Получим n(n–1)(p+q)n—2= . Умножим последнее рав-во на p2 и преобразуем правую часть рав-ва: n(n – 1)(p+q)n —2 p2= — ; n2p2np2 = M(X2) — ; n2p2np2 = M(X2) – M(X). Для ДСВ распределенной по биномиальн. закону M(X)= np, т.е. n2p2np2 = M(X2) – np; M(X2)= n2p2np2 + np; D(X)= n2p2np2 + npn2p2 = np(1 – p) = npq. Значит дисперсия ДСВ распределенной по биномиальн. закону вычисляется по формуле: D(X) = npq. .

 33. Закон Пуассона

ДСВ Х, кот. может принимать только целые неотриц. знач. с вер. Pm = P(X=m) = , называется распределенной по закону Пуассона с пар-ом распр. λ, где λ=np. В отличие от биномиального распр. здесь СВ может принимать бесконечное мн-во знач., представляющ. собой бесконечн. посл-сть целых чисел(0, 1, 2, 3, … и т.д.). Закон Пуассона описывает число событий m, происходящих за одинаковые промежутки времени. При этом полагается, что события появляются независимо друг от друга с постоянной ср. интенсивностью, кот. хар-ся параметром λ=np. Ряд распр. закона Пуассона имеет вид:

X

0

1

2

M

p

e—λ

λ e—λ

2 e—λ)/2!

m e—λ)/m!

Определение закона Пуассона корректно, т.к.  выполнена. Действительно функцию ex можно разложить в ряд, кот. сходится для любого Х. Поэтому eλ =  = 1+ λ + λ2/2! + …+ λm/m! +… Тогда  = eλ  = eλ eλ =1. Найдем м.о. и дисперсию СВ Х, распределенной по закону Пуассона. M(X) =  = = =λeλ = λeλ eλ = λ = np. Суммирование начинается с m=1, т.к. 1-ый член суммы соответствующий m=0 равен 0. Дисперсию СВ Х найдем по формуле D(X) = M(X2) – (M(X))2. M(X2) =  = eλ  = eλ  = λ2 eλ  + λ eλ  = λ2 eλ eλ + λ eλ eλ = λ2 +λ. Тогда D(X) = λ2 +λ — λ2 = λ = np. Т.о. мат. ожидание и дисперсия СВ, распределенной по закону Пуассона, совпадают и равны параметру этого распр. λ.

37. Показательное распределение.

Показательным (экспоненциальным) называют распр. вер. НСВ Х, которое описывается ф-цией плотности вер. , где λ>0 постоянна и называется параметром показательного распр. Примером НСВ, распределенной по показательному закону, может служить время между появлениями двух последовательных соб. простейшего потока, где λ – интенсивность потока. Найдем ф-цию распр. F(x) СВ, распределенной по показательному закону: F(x) =  = . Итак,

Определим числовые хар-ки СВ, распределенной по показательному закону. Мат. ожидание: M(X) =  =  = . Дисперсия: D(X) =  =  = 2/λ2 – 1/λ2 = 1/λ2. Среднеквадратическое отклонение σ(Х) = 1/λ  и, следовательно, совпадает с мат. ожиданием.

39. Закон распределения линейной ф-ции от аргумента, подчиненного нормальному закону.

Пусть СВ Х подчинена нормальному закону с плотностью: f(x) = , а СВ Y связана с нею линейной функцианальной зависимостью: Y = aX+b, где a и b – неслуч. коэффициенты. Требуется найти закон распр. вел-ны Y. Т.к. ф-ция y = ax+b мон-на (при a>0 возрастает мон-но, при a<0  убывает мон-но), то плотность распр., согласно формуле  g(y) = f( (y)) |'(y)|, будет равна g(y) = , где x = (y) = (y – b)/a; |'(y)| =1/|a|.   (таблица не обязательна!!!)

Преобразуя выражение g(y), имеем: g(y) = , а это есть не что иное, как нормальный закон с параметрами: . Если перейти от средних квадратических отклонений к пропорциональным им вероятным отклонениям, получим Ey = |a|Ex. Т.о., мы убедились, что лин. ф-ция от аргумента, подчиненному нормальному закону, также подчинена нормальному закону. Чтобы найти центр рассеивания этого закона, нужно в выражение линейной ф-ции вместо аргумента подставить его центр рассеивания. Чтобы найти ср. квадратич. отклонение этого закона, нужно ср. квадратич. отклонение аргумента умножить на модуль коэф. при аргументе в выражении линейной ф-ции. То же правило справедливо и для вероятных отклонений. 38. Закон распределения монотонной ф-ции одного случайного аргумента.

Везде вместо надо писать .

Имеется НСВ Х с плотностью распр. f(x). Другая СВ Y связана с нею функцианальной зависимостью: Y =φ(X). Требуется найти плотность распр. вел-ны Y.  Рассмотрим участок оси абсцисс (a, b), на котором лежат все возм. знач. вел-ны Х, т.е. P(a<X<b) = 1. В частном случае, когда область возм. знач. Х ничем не ограничена, a = —∞; b = +∞. Способ решения поставленной задачи зависит от поведения ф-ции φ на участке (a, b): возрастает ли она на этом участке или убывает, или колеблется. Рассмотрим случай, когда ф-ция y= φ(x) на участке (a, b) монотонна. При этом отдельно проанализируем 2 случая: мон. возрастания и мон. убывания ф-ции.

Ф-ция y= φ(x) на участке (a, b) мон-но возрастает. Когда вел-на Х принимает разл. знач. на участке (a, b), случ. точка (X, Y) перемещается только по кривой y= φ(x); ордината этой точки полностью опр-ся ее абсциссой. Обозначим g(y) плотность распр. вел-ны Y. Для того чтобы определить g(y), найдем сначала ф-цию распр. вел-ны Y: G(y) = P(Y<y). Проведем прямую АВ, параллельную оси абсцисс на расстоянии y от нее. Чтобы выполнить условие Y<y, случ. точка (X, Y) должна попасть на тот участок кривой, который лежит ниже прямой АВ; для этого необходимо и достаточно, чтобы СВ Х попала на участок оси абсцисс от a до x, где х – абсцисса точки пересечения кривой y= φ(x) и прямой АВ. Следовательно, G(y) = P(Y<y) = P(a<X<х) = . Верхний предел интеграла x можно выразить через y: x = (y), где – ф-ция, обратная ф-ции φ. Тогда G(y) = . Дифференцируя последний интеграл по переменной y, входящей в верхний предел, получим: g(y) = G'(y) = f( (y)) '(y) – формула (1).

Ф-ция y= φ(x) на участке (a, b) монотонно убывает. В этом случае G(y) = P(Y<y) = P(x<X<b) = , откуда g(y) = G'(y) = —f( (y)) '(y) – формула (2). Сравнивая формулы (1) и (2), замечаем, что они могут быть объединены в одну: g(y) = f( (y)) |'(y)| - формула (3). Действительно, когда φ возрастает, ее производная (а значит и ') полож. При убыв. ф-ции φ производная ' отрицательна. Сл-но, формула (3), в кот. производная берется по модулю, верна в обоих случаях. Т. о., задача о законе распр. мон. ф-ции решена.

40. Закон распределения ф-ции двух СВ.

Задача опр. закона распр. ф-ции нескольких случ. аргументов значительно сложнее аналогичной задачи для ф-ции одного аргумента.

Имеется система двух непрерывных СВ (X, Y) с плотностью распр. f(x, y). Случ. вел-на Z связана с X и Y функциональной зависимостью: Z = φ(X, Y). Требуется найти закон распр. вел-ны Z. Ф-ция z = φ(x, y) изображается поверхностью, а не кривой, как в случае одного аргумента. Найдем ф-цию распр. вел-ны Z: G(z) = P(Z<z) = P(φ(X, Y)<z) – формула (1). Проведем плоскость Q, параллельную плоскости xOy, на расстоянии z от нее. Эта плоскость пересечет поверхность z = φ(x, y) по некот. кривой K. Спроектируем кривую К на плоскость xOy. Эта проекция, уравнение к-рой φ(x, y) = z, разделит плоскость xOy на две области; для одной из них высота поверхности над плоскостью xOy будет меньше, а для другой – больше z. Обозначим D ту область, для которой эта высота меньше z. Чтобы выполнялось нерав-во (1), случ. точка (X, Y), очевидно, должна попасть в область D; следовательно, G(z) = P((X,Y)D)=  - формула (2). В выражение (2) вел-на z входит неявно, через пределы интегрирования. Дифференцируя G(z) по z, получим плотность распр. вел-ны Z: g(z) = G'(z). Зная конкр. вид ф-ции z = φ(x, y), можно выразить пределы интегрирования через z и написать выражение g(z) в явном виде. Для того, чтобы найти закон распр. ф-ции двух аргументов, нет необходимости каждый раз строить поверхность z = φ(x, y) и пересекать ее плоскостью, параллельной xOy. На практике достаточно построить на плоскости xOy кривую, уравнение к-рой z = φ(x, y), отдать себе отчет, по какую сторону этой кривой Z<z, а по какую Z>z, и интегрировать по области D, для которой Z<z.

41. Понятие закона больших чисел.

Содержание закона больших чисел  в широком смысле: при очень большом числе случ. явлений средний их рез-т практически перестает быть случ. и может быть предсказан с большой степенью опр-сти. В узком смысле слова под законом больших чисел в теории вер. понимается ряд мат. теорем, в каждой из к-рых для тех или иных условий устанавливается факт приближения средних хар-к большого числа опытов к некот. опр. постоянным. Простейшей из этих теорем является т. Бернулли. Она утверждает, что при большом числе опытов частота соб. приближается (точнее – сходится по вер.) к вер. этого соб. Другие, более общие формулировки, устанавливабт факт и условия сходимости по вероятности тех или иных СВ к постоянным, не случайным вел-нам. Закон больших чисел играет важную роль в практических применениях т.в..  Св-во случ. вел-н при опр. условиях вести себя практически как не случ. позволяет уверенно оперировать с этими вел-нами, предсказывать рез-ты массовых случ. явлений (это большое число выполняемых однородных опытов или большое число складывающихся случ. воздействий, порождающих в своей сов-сти случ. вел-ну, подчиненную вполне опр. закону) почти с полной опр-стью.

42. Неравенство Чебышева.

Нер-во Чебышева относится к группе «закона больших чисел».

Пусть имеется СВ Х с мат. ожиданием(м.о.)  mx и Dx. Нер-во Чебышева утверждает, что, каково бы ни было положительное число α, вер. того, что вел-на Х отклонится от своего м.о не меньше чем на α, ограничена сверху вел-ной Dx/ α2: P(|X - mx |≥α)≤ Dx/ α2. Док-во: Пусть вел-на Х прерывная, с рядом распр.:

Х

x1

x2

xn

p

p1

p2

pn

Изобразим возм. знач. вел-ны Х и ее м.о mx в виде точек на числовой оси Ox. Зададим некоторым значением α>0 и вычислим вер. того, что вел-на Х отклонится от своего м.о не меньше, чем на α: P(|X - mx |≥α) – формула (1). Для этого отложим от точки mx вправо и влево по отрезку длиной α; получим отрезок АВ. Вер. (1) есть не что иное, как вер. того, что случ. точка Х попадет не внутрь отрезка АВ, а вовне его: P(|X - mx |≥α) = P(XAB). Для того, чтобы найти эту вер., нужно просуммировать вер. всех тех знач. Х, кот. лежат вне отрезка АВ. Запишем это следующим образом: P(|X - mx |≥α) =  - формула (2), где запись |X - mx |≥α под знаком суммы ознаачет, что суммирование распространяется на все те знач., для которых точки Х лежат вне отрезка АВ. С другой стороны напишем выражение дисперсии вел-ны Х: D(X) = M[(X - mx)2] =  - формула (3). Т.к. все члены суммы (3) неотрицательны, она может только уменьшиться, если мы распространим ее не на все знач. Х, а только на некоторые, в частности на те, кот. лежат вне отрезка АВ: D(X) ≥. Заменим под знаком суммы выражение |X - mx | через α. Т.к. для всех членов суммы |X - mx |≥α, то от такой замены сумма тоже может уменьшиться; значит, D(X) ≥ . Но согласно формуле (2) сумма, стоящая в правой части последнего рав-ва есть не что иное, как вер. попадания случайной точки вовне отрезка АВ; следовательно, D(X) ≥ α2P(|X - mx |≥α), откуда непосредственно вытекает доказываемое нер-во. В случае, когда вел-на Х непрерывна, док-во проводится аналогичным образом с заменой вер. p элементом вер., а конечных сумм – интегралами. Действительно, P(|X - mx |>α) = , где f(x) – плотность распр. вел-ны Х. Далее, имеем: D(X) =   ≥, где знак |X - mx |>α под интегралом означает, что интегрирование распространяется на внешнюю часть отрезка АВ. Заменяя |X - mx | под знаком интеграла через α, получим: D(X) ≥α2*  = α2P(|X - mx |>α), откуда и вытекает нер-во Чебышева для непрерывных величин.

44. Понятие центральной предельной теоремы.

При суммировании достаточно большого числа СВ закон распр. суммы неограниченно приближается к нормальному при соблюдении нек. условий. Эти усл., которые мат. можно сформулировать разл. образом – в более или менее общем виде, - по существу сводятся к требованию, чтобы влияние на сумму отд. слагаемых было равномерно малым, т.е. чтобы в состав суммы не входили члены, явно преобладающие над совокупностью остальных по своему влиянию на рассеивание суммы. Различные формы центральной предельной теоремы(ЦПТ) различаются между собой теми условиями, для кот. устанавливается это предельное св-во суммы СВ. В ЦПТ рассматриваются законы распр. случ. величин. Согласно ЦПТ, закон распр. суммы достаточно большого числа независимых (или слабо зависимых) слагаемых, каждое из которых в отдельности сравнительно мало влияет на сумму, сколь угодно близко к нормальному. В практических задачах ЦПТ часто используют для вычисления вер. того, что сумма нескольких СВ окажется в заданных пределах. Пусть  Х1, Х2, …, Хn – независимые СВ с мат. ожиданиями m1, m2, …,mn и дисперсиями D1, D2, …, Dn. Предположим, что условия ЦПТ выполнены (вел-ны Х1, Х2, …, Хn сравнимы по порядку своего влияния на рассеивание суммы) и число слагаемых n достаточно для того, чтобы закон распр. вел-ны  можно было считать приближенно нормальным. Тогда вер. того, что СВ Y попадает в пределы участка (α, β), выражается формулой P(α <Y<β)= - формула (1), где my, σy – математическое ожидание и среднее квадратическое отклонение вел-ны Y, Φ* – нормальная ф-ция распр..

 Заметим, что ЦПТ может применяться не только к непрерывным, но и к дискретным СВ при усл., что мы будем оперировать не плотностями, а ф-циями распр.. Действительно, если вел-ны Х1, Х2, …, Хn дискретны, то их сумма Х – также дискретная СВ и поэтому, строго говоря не может подчиняться нормальному закону. Однако все формулы типа формулы (1) остаются в силе, так как в них фигурируют не плотности, а ф-ции распр. Частным случаем ЦПТ для ДСВ является теорема Лапласа.

45. Понятие о теореме Ляпунова.

Если Х1, Х2, …, Хn,… - независимые случ. вел-ны, имеющие один и тот же закон распр. с мат. ожиданием m и дисперсией σ 2, то при неограниченном увеличении n закон распр. суммы  неограниченно приближается к нормальному. Док-во: Приведем док-во для случая непрерывных СВ Х1, Х2, …, Хn, кот. имеют один и тот же закон распр. с плотностью f(x) и, следовательно, одну и ту же характеристическую функцию  - формула (1). (Характеристической ф-цией СВ Х называется ф-ция g(t)=M[eitx], где i – мнимая единица). Исследуем более подробно функцию gx(t). gx(t) = gx(0) + g'x(0)t + [g''x(0)/2+α(t)]t2, где α(t)→0 при t→0 – формула (2). Найдем вел-ны gx(0), g'x(0), g''x(0). Полагая в формуле (1) t=0, имеем: gx(0) =. Продифференцируем формулу (1) по t: g'x(0) =  - формула (3). Полагая, что в формуле (3) t=0, имеем: g'x(0) = i  = iM[X] = im. Продифференцируем формулу (3): g''x(t) = , отсюда g''x(0) =  - формула (4). При m=0 интеграл в выражении (4) есть не что иное, как дисперсия вел-ны Х с плотностью f(x), следоват-но: g''x(0) = — σ 2. Подставляя в формулу (2) gx(0) = 1, g'x(0) = 0, g''x(0) = — σ 2, получим: gx(t) = 1 – [σ 2/2 - α(t)]t2 – формула (5). Обратимся к СВ Yn. Мы хотим доказать, что ее закон распр. при увеличении n приближается к нормальному. Для этого перейдем от вел-ны Yn к другой СВ:  - формула (6). Эта вел-на удобна тем, что ее дисперсия не зависит от n и равна 1 при любом n. Если мы докажем, что закон распр. вел-ны Zn приближается к нормальному, то, очевидно, это будет справедливо и для вел-ны  Yn, связанной с Zn линейной зависимостью. Из формулы (6): gzn(t)=gyn(t/σ), где gyn(t) – характеристическая ф-ция СВ Yn. Из формулы (5): gzn(t) = {1- [σ 2/2 – α(t/σ)] (t2 /n σ 2)}n. Прологарифмируем это выражение: ln gzn(t) =n ln {1- [σ 2/2 – α(t/σ)] (t2 /n σ 2)}. Введем обозначение [σ 2/2 – α(t/σ)] (t2 /n σ 2) = χ. Тогда ln gzn(t) =n ln{1- χ}. Будем неограниченно увеличивать n. При этом вел-на χ стремится к 0. Разложим ln{1- χ} в ряд и ограничимся одним членом разложения:  ln{1- χ} = — χ. Тогда получим  ln gzn(t) = n(— χ) = { - t 2/2 + α(t/σ)] (t2 / σ 2)} = - t 2/2 +  (t2 / σ 2) α(t/σ). Ф-ция α(t) стремится к 0 при t→0; значит  α(t/σ) = 0 и  ln gzn(t) = (- t 2/2), откуда  gzn(t) = . Это есть не что иное, как характеристическая ф-ция нормального закона с параметрами m=0, σ =1. Т.о. доказано, что при увеличении n характирестич. ф-ция СВ Zn неограниченно приближается к характ. ф-ции нормального закона; отсюда – закон распр. вел-ны Zn, а значит и вел-ны Yn, неограниченно приближается к нормальн. закону. Теорема доказана.

46. Генеральная совокупность и выборка. Выборочное распределение.

Исходным материалом всякого стат. исследования является сов-сть рез-тов наблюдения. В рез-те наблюдения за случ. явлением или проведения эксперимента получают некоторые числовые данные, кот. записывают в виде таблиц. Все необходимые сведения об эксперименте или изучаемом случ. явлении должны быть зафиксированы. Сов-сть наблюденных или экспериментальных данных представляет собой первичный стат. материал. Эта сов-сть называется простой стат. сов-стью или простым стат. дискретным рядом. Рассмотрим случ. эксперимент, кот. описывается одномерной СВ Х. Мат. моделью эксперимента является тройка (ΩX, FX, F(x)), где ΩX – мн-во возм. знач. СВ Х, FX – σ-алгебра числового мн-ва, F(x) – ф-ция распр. СВ Х. Осуществив n независимых повторений эксперимента, получим посл-сть n наблюденных знач. СВ Х, которые обозначим х1, х2, …, хn. Они принадлежат мн-ву знач. ΩX СВ Х, т.е. {х1, х2, …, хn} ΩX. Мн-во {х1, х2, …, хn}ΩX называют выборкой, а число элементов, входящих в выборку, - объемом выборки. Мн-во ΩX принято называть ген. сов-стью, а число эл-тов ΩX – объемом ген. сов-сти.

Выборочное распределение. Пусть дана выборка {х1, х2, …, хn}, xiΩX, . Числа xi, , образующие выборку, являются наблюденными знач-ми СВ Х (непрерывной или дискретной), полученными при реализации n независимых экспериментов. Эксперименты повторяются при одних и тех же усл. σ. Для придания компактности и наглядности выборке в случае, когда СВ Х – непрерывная, весь диапазон наблюденных данных делят на интервалы или разряды и подсчитывают кол-во знач. mi, входящих в данный интервал, т.е. определяют абс. частоты наблюденных данных. По абс. частотам, входящим в данный интервал, находят отн. частоты Wi=mi/n, причем . Ясно, что сумма всех относит. частот Wi равна 1, т.е. . Полученные интервалы и соотв. отн. частоты записывают в виде таблицы, кот. назывется интервальным рядом распр.. Интервальный стат. ряд будет задавать распр. выборки, кот. однозначно опр-ся самой выборкой.

 

43. Теорема Чебышева.

Эта теорема устанавливает связь между средним арифметическим наблюденных значений СВ и ее мат. ожиданием.

Теор.: При достаточно большом числе независимых опытов среднее арифметическое наблюденных значений СВ сходится по вероятности к ее мат. ожиданию. Запишем теорему Чебышева в виде формулы. Для этого напомним смысл термина «сходится по вероятности». Говорят, что СВ Хn сходится по вероятности к величине а, если при увеличении n вероятность того, что Хn и а будут сколь угодно близки, неограниченно приближается к единице, а это значит, что при достаточно большом n P(|Хna|<ε)>1 – δ, где ε, δ – произвольно малые положительные числа. Запишем в аналогичной форме теорему Чебышева. Она утверждает, что при увеличении n среднее арифметическое  сходится по вероятности к mx, т.е. P(| - mx|<ε)> 1 – δ. Докажем это нер-во. Величина Y =  имеет числовые хар-ки my = mx; Dy = Dx/n. Применим к СВ Y нер-во Чебышева, полагая , что α = ε: P(|Y - my| ≥ε) ≤ Dy2 = Dx/n ε2. Как бы мало ни было число ε, можно взять n таким большим, чтобы выполнялось нер-во Dx/n ε2<δ, где δ – сколь угодно малое число. Тогда P(| - mx|≥ε) <δ, откуда, переходя к противоположному событию, имеем: P(| - mx|<ε)> 1 – δ, что и требовалось доказать.

47. Вариационный ряд, его хар-ки. Гистограмма. Полигон.

Интервальный стат. ряд распр., представленный графически, назыв. гистограммой(Г), которая строится след. образом. По оси абсцисс откладываются интервалы [xi;xi+1[, и на каждом из них строится прямоугольник площадью Wi , т.е. высота hi= Wi /(xi+1 - xi). Из способа построения Г следует, что ее площадь равна 1. В т. вер. Г соответствует график плотности распр. вер.. Если экспериментальный материал описывает реализации дискретной СВ Х, то знач. наблюдений xi располагают в возрастающем порядке. При этом xi называют вариантами, а посл-сть вариант, записанных в возраст. порядке, — вариационным рядом. Число появлений наблюдения xi называют абс. частотой mi. Знач. наблюдений и соотв. абс. частоты можно записать в виде таблицы, кот. называется стат. рядом распр. или частотной таблицей. Если на плоскости нанести точки (xi, mi) и соединить их отрезками прямых линий, то получим полигон частот, который называют еще частотным многоугольником. Если на плоскости нанести точки (xi, mi/n) и соединить их отрезками прямых линий, получим полигон относит. частот. Г. и полигон частот выборочного распр. можно использовать для подбора модели распр. изучаемой случайной вел-ны Х.

48. Эмпирическая ф-ция распределения и ее св-ва.

Опр.: эмпирической ф-цией распр. называется относ. частота события {X<x} в данной выборке знач. СВ Х, т.е. (x) = P(X<x) = mx/n, где mx – число xi, меньших х; n – объем выборки. Вел-на n (x) равна числу элементов выборки, которые меньше х. Из т. Бернулли следует, что эмпирическая ф-ция  (x) при увеличении n (n→∞) сходится по вероятности к подлинной ф-ции распр. F(x). Поэтому  (x) используется для оценки ф-ции распр. F(x). Св-ва эмпирической ф-ции распр.: 1) Знач. эмпирич. ф-ции распр. принадлежат отрезку [0;1]; 2) Эмпирич. ф-ция распр.  (x) – неубывающая ф-ция; 3) Если x< x1, где x1 – наименьшее наблюденное значение, то  (x) = 0; при x> xn, где xn – наибольшее наблюденное значение,  (x) = 1. Эти св-ва следуют из определения эмпирической ф-ции распр..

49. Числовые хар-ки выборочного распр.: выборочное среднее, выборочная дисперсия, медиана, ассиметрия, эксцесс, выборочные моменты.

В этом вопр вмето S надо сигма ???

Пусть случ. эксперимент описывается СВ Х.

Повторяя случ. эксперимент n раз, получим посл-сть наблюденных знач. x1, x2, …, xn СВ Х, называемых выборкой из ген. сов-сти Ωx, описываемой ф-цией распр. F(x). Опр.: Выборочным средним наблюденных знач. выборки назыв. вел-на, определяемая по формуле , где  xi – наблюденное значение с частотой mi, n – число наблюдений, . Частоты mi могут быть равны 1, i = , тогда k=n.         Опр.: Стат. дисперсией  выборочного распр. назыв. среднее арифметическое квадратов отклонений знач. наблюдений от средней арифметической , т.е. , где xi – наблюденное значение с частотой mi', , n – число наблюдений. В кач-ве числовой хар-ки выборки так же применяется медиана. Чтобы вычислить ее все наблюдения располагают в порядке возрастания или убывания. При этом, если число вариант нечетно, т.е. 2m+1, то медианой является  m+1 варианта (); если же число вариант четное, то медиана равна среднему арифметическому двух средних знач.: = (xm+xm+1)/2. Хар-ка ассиметрии выборочного распр. вычисляется по формуле , а эксцесс выборочного распр. определяется характеристикой . Обобщающими хар-ками выборочных распр. являются стат. моменты распр.. Начальные стат. моменты k-того порядка: . Тогда: при k =0  M0 = (mi/n) = 1; при k =1  M1 = ( mi/n) = ; при k =2  M2 = ( mi/n) = 2; при k =3  M3 = ( mi/n) = 3; при k =4  M4 = ( mi/n) = 4 и т.д. Практически используются моменты первых четырех порядков. Центр. стат. моменты k-того порядка: . Тогда: при k =0  =1; при k =1    =0;  при k =2   - стат. дисперсия; при k =3  ;  при k =4   и т.д. Отметим, что центр. стат. момент 3-его порядка служит мерой ассиметрии распр. выборки. Если распр. симметрично, то . На практике моменты порядка выше четвертого почти не применяются, т.к. обладают очень высокой дисперсией и их сколько-нибудь надежное опр. потребовало бы выборок большого объема.

50. Понятие оценки параметра. Св-ва оценок: состоятельность, несмещенность, эффективность.

Пусть требуется подобрать распр. для исследуемой СВ Х по выборке x1, x2, …, xn , извлеченной из ген. сов-сти Ωx с неизвестной ф-цией распр. F(x). Выбрав распр., исходя из анализа выборки, мы по данным выборки должны оценить параметры соотв. распр.. Например, для нормального распр. можно опр. параметры m и σ; для распр. Пуассона — параметр λ и т.д. Решение вопросов о «наилучшей» оценке неизвестного параметра и составляет теорию стат. оценивания. Выборочная числовая хар-ка, применяемая для получения оценки неизвестного параметра ген. сово-сти, называется оценкой параметра. Например, Х – среднее арифм. может служить оценкой мат. ожидания M(X) ген. сов-сти Ωx. В принципе для неизвестного параметра a может существовать много числовых хар-ик выборки, которые вполне подходящи для того, чтобы служить оценками. Например, среднее арифметическое, медиана, мода могут показаться вполне приемлемыми для оценивания мат. ожидания M(X) сово-сти. Чтобы решить, какая из статистик в данном мн-ве наилучшая, необходимо определить некоторые желаемые св-ва таких оценок, т.е. указать условия, которым должны удовлетворять оценки. Опр.: Если M() =a, то  называется несмещенной оценкой а. В других случаях говорят, что оценка смещена. Если существует больше одной несмещенной оценки, то выбирают более эффективную оценку, т.е. ту, для которой вел-на второго момента M( - а)2 меньше. Опр.: Оценка 1 называется более эффективной, чем оценка 2, если M(1 - а)2 <M(2 - а)2 . При использовании той или иной оценки желательно, чтобы точность оценивания увеличилась с возрастанием объема производимой выборки. Предельная точность будет достигнута в том случае, когда численное знач. оценки совпадает со знач. параметра при неограниченном увеличении объема выборки. Такие оценки будем называть состоятельными. Опр.: Оценка  называется состоятельной оценкой а, если при n→∞ она сходится по вероятности к а.

51. Интервальные оценки параметров распр.. Доверительный интервал.

Чтобы получить представление о точности и надежности оценки  для параметра а, в мат. статистике рассматривают вер. нер-ва |-a| <δ: P (|-a| <δ) = P(-δ<-a<δ)= P( - δ<a<+δ) – формула (1). И если вер. близка к единице, т.е. если P( - δ<a<+δ) = 1 – ε, то диапазон практически возможных знач. ошибки, возникающей при замене а на , равен ±δ. Чем меньше для ε>0 будет δ>0, тем точнее оценка . Из формулы (1) видно, что вер. того, что интервал ] -δ; +δ[ со случайными концами накроет неизвестный параметр, равна 1 – ε. Эта вер. называется доверительной вер.ю. Опр.: Случайный интервал, определяемый рез-тами наблюдений, который с заданной вер.ю α = 1 – ε накрывает неизвестный параметр а, называется доверительным интервалом для параметра а, соотв. доверительной вероятности α = 1 – ε. Граничные точки доверительного интервала называются соответственно нижним и верхним доверительными пределами. Заданному α = 1 – ε соответствует не единственный доверительный интервал. Доверительн. интервалы могут изменяться от выборки к выборке. Более того, для данной выборки различные методы построения доверительных интервалов могут привести к различным интервалам. Поэтому выработаны определенные правила. Используя их и эффективные оценки неизвестных параметров, получают кратчайшие интервалы для заданной доверительной вероятности α = 1 – ε.

53. Описание гипотез. Простые и сложные гипотезы. Нулевая и конкурирующая гипотезы.

 Опр.: Стат. гипотезой (Г.), обозначаемой H, называется любое предположение относительно вида или параметров распр. СВ Х, которое может быть проверено по результатам выборки. Любое предположение, однозначно определяющее распр. выборки, называется простой Г. Как следует из определения, могут приниматься различные стат. Г. Пусть дано m+1 распр.  P0, P1, …, Pm и известно, что выборка x1, x2, …, xn принадлежит одному из этих распр.. Необходимо определить, к какому именно распр. Pi , i = , принадлежит выборка. Каждая из Г. Hi (Hi  - выборка принадлежит Pi , i = ) будет простой.

Г. могут формулироваться и о знач.х параметров распр. известного вида. Параметрическая Г. называется простой, если содержит только одно предположение относительно параметра. Параметрическая Г. называется сложной, если состоит из конечного или бесконечного числа простых Г.. При этом одно из таких предположений выбирается в кач-ве основного (исходного) и называется нулевой Г. H0. Другие предположения или возм-сти называют конкурирующими Г. H1, H2, … После формулировки стат. Г-ез ставится задача их проверки по рез-там случайной выборки. Для проверки стат. Г. с помощью стат. критерия устанавливается, соответствуют ли взятые из выборки данные выдвинутой Г. или нет, т.е. нужно ли принять или отвергнуть Г.

54. Критерии проверки статистических гипотез.

Стат. критерием для проверки гипотез (Г.)  H0, H1, …, Hm называют случ. вел-ну δ(Х), принимающую знач. Hi , i = , т.е. это отображение выборочного простр-ва на мн-во рассматриваемых Г. Если δ(Х) = Hк, то принимают Г.  Hк (т.е. считают, что а =к при проверке парамерической Г). Задание стат. критерия эквивалентно разбиению выборочного простр-ва на  m+1 непересекающихся мн-в Ω1, Ω2, …, Ωm , на кот-ых принимаются соответствующие Г. Т.к. стат. критерий формулируется по рез-там конечной случ. выборки и выборка может быть неудачной, то при проверке стат. Г. всегда сущ. риск принять ложное решение. Рассмотрим Г. H0 и конкурирующую Г. H1 и допустим, что во всех случаях, когда H0 – истинна, действие А предпочтительнее действия В, в противном случае предпочтительнее действие В.

55. Уровень значимости и мощность критерия. Ошибки первого и второго рода.

Проверяя гипотезы (Г.) с помощью стат. критерия, может возникнуть одна из четырех ситуаций: 1) Г.  H0  истинна (и поэтому H1 – ложна) и предпринимается действие А; 2) Г. H1  истинна (и поэтому H0 – ложна) и предпринимается действие А; 3) ) Г.  H0  истинна (и поэтому H1 – ложна) и предпринимается действие В; 4) Г. H1  истинна (и поэтому H0 – ложна) и предпринимается действие В. В ситуациях 2 и 3 получается ошибка. Существует 2 типа ошибок. Ошибка, состоящая в принятии Г. H0, когда она ложна (ошибка второго рода), качественно отличается от ошибки, состоящей в отвержении H0, когда она истинна (ошибка первого рода). При этом числа αi = αi(δ) = Pi(δ(X)≠ Hi), характеризующие вер. отвержения Г. Hi, когда она верна, называют вер-ми ошибок (i+1)-го рода критерия δ. Набором вер. αi(δ) ошибочных решений хар-ся кач-вом критерия δ. Правильное решение также может быть принято двумя способами (ситуации 1 и 4): когда Г. H0 принимается, ибо она верна, и когда Г. H0 отвергается, ибо она ложна. В ситуации 1 не совершается ошибка первого рода, в ситуации 4 – второго рода. Уровень значимости критерия не меняет степени риска, связанного с возможностью ошибки второго рода, т.е. с принятием неверной Г.. И при данном уровне значимости можно по-разному определить критическую область. Как правило, ее определяют так, чтобы мощность критерия 1 – α1(δ) была возможно большей: P (X] x1; x2[|H1) = max. Мощностью критерия δ называется вер. 1 – α1(δ) несовершения ошибки второго рода. Чем больше мощность критерия, тем меньше вер. принятия неверной Г.

????Вер. отклонения относит. частоты от постоян. вер. в независим. испытаниях. Будем считать, что производится n независ. испытаний, в кажд. из кот. вер. появл. соб. А постоянна и равна p. Найдем вер. того, что отклонение относит. частоты  от постоян вер. p по абсолютн. величине не превышает задан. числа , т.е. найдем вер. осуществления нер-ва: . Заменим дан. нер-во на равносильн. ему нер-во ; . Умножим последн. нер-во на , получим . Воспользуемся интегральн. теоремой Лапл. Положим ,а , тогда имеем вер. того, что P(). Окончательно получаем




1. Я тебя не понимаю сейчас
2. Курсовая работа- Виробнича програма підприємницької зовнішньоекономічної діяльності
3. Модуль ТСП 0302 ldquo; Військова топографія rdquo; Змістовий модуль 3
4. Доклад Якудза японская мафия
5. КОНТРОЛЬНАЯ РАБОТА по страхованию на тему- Страховые посредники вариант 1
6. ыми людьми. Детей воспитывали без всякой педагогики даже не подозревая о ее существовании
7. тема в музыке и живописи А.html
8. Влияние температуры и магнитного поля на электрическую проводимость и аккумуляцию энергии в кондуктометрической ячейке с магнитной жидкостью
9. Роль эпилога в одном из произведений русской литературы XIX века
10. а. Исторические формы взаимодействия философии и науки
11. Цівітатес Орбіс Террарум
12. Так если о человеке известно что он честен не только перед налоговым инспектором но и перед родителями дет
13. Тема- Изменение трудового договора Вопросы- Понятие изменения трудового договора и классификация
14. Курсовая работа Прямое налогообложение в бюджетной системе Российской Федерации
15. 100 110 в мин Живот мягкий незначительно болезненный в нижних отделах
16. Совместимость двух Крыс в любви и в браке довольно неоднозначная и это связано в первую очередь с осо
17. Сформировался в 7080г.
18.  Первичная обмотка катушка 1 содержит n1 витков
19. Разработка системы адаптации персонала холдинговой компании
20. тема автомобиля предназначено для выработки электрической энергии и питания различных систем и устройств а