Поможем написать учебную работу
Если у вас возникли сложности с курсовой, контрольной, дипломной, рефератом, отчетом по практике, научно-исследовательской и любой другой работой - мы готовы помочь.
Если у вас возникли сложности с курсовой, контрольной, дипломной, рефератом, отчетом по практике, научно-исследовательской и любой другой работой - мы готовы помочь.
Дисципліна: МАТЕМАТИЧНА СТАТИСТИКА ТА ОПРАЦЮВАННЯ
СПОСТЕРЕЖЕНЬ
Модуль 1: ОСНОВНІ ПОЛОЖЕННЯ МАТЕМАТИЧНОЇ СТАТИСТИКИ
Лекція 3. КЛАСИЧНЕ І СТАТИСТИЧНЕ ВИЗНАЧЕННЯ ЙМОВІРНОСТІ
План лекції 3:
3.1. Основні етапи статистичного дослідження.
3.2. Класичне і статистичне означення ймовірності.
3.3. Теорема Бернуллі для статистичної ймовірності.
3.1. Основні етапи статистичного дослідження [1, c. 28-34; 2].
Люди, що займаються бізнесом, вимушені приймати рішення в умовах постійного тиску обставин, не маючи повної і точної інформації. Звичайно будь-яку доступну інформацію слід використовувати макси-мально повно.
Статистичний аналіз дозволяє отримати інформацію з даних і оцінити якість цієї інформації. Ймовірість дозволяє зрозуміти ризики і випадковості та забезпечити оцінки правдоподібності отриманих результатів.
Статистичні методи прийнято вважати як важливу частину процесу прийняття рішень, що дозволяє виробити стратегічні напрямки розвитку, що поєднують інтуїцію фахівця з результатами аналізу наявної інформації.
Вивчивши статистику, менеджер стане більш компетентно працювати з даними і відчуватиме себе набагато упевненіше в невизначених ситуаціях. Часто дані містять багато інформації, яка не є очевидною. Статистика допоможе витягувати і зрозуміти цю інформацію. Потрібна дуже висока кваліфікація, щоб розробляти стратегію на основі знань, досвіду і інтуїції.
Якщо знання представлені у вигляді наборів чисел, статистика допоможе відповісти на такі питання: наскільки можна довіряти цим числам і висновкам з них; як можна узагальнити всі ці дані. Використо-вуючи статистику для отримання знань, можна примножити свій досвід, що, безумовно, допоможе ухвалити правильне стратегічне рішення.
Статистика як наука потребує певної логіки мислення. Щоб освоїти основні концепції статистики, потрібно над ними добре попрацювати. Статистику можна розглядати як один з компонентів процесу ухвалення рішень, котрий враховує досвід минулого, здоровий глузд та інтуїцію.
Основними етапами статистичного аналізу вважаються:
1) планування дослідження даних;
2) попереднє дослідження даних;
3) оцінювання невідомої величини;
4) перевірка статистичних гіпотез.
На початковому етапі статистичного аналізу здійснюється планування збору даних, які слід вивчати. При цьому вирішуються питання, яким чином отримати дійсно корисну інформацію. При наявності даних на етапі дослідження проводиться їх первинний або попередній аналіз. На етапі оцінювання на основі попередньо оброблених даних отримуються числові значення невідомих величин. На останньому етапі здійснюється перевірка гіпотез, яка передбачає ухвалення рішення про відповідність висунутого припущення дійсності. Розглянемо всі ці етапи по черзі.
Планування досліджень щодо збору даних при вивченні маркети-нгу називають плануванням вибіркового дослідження, а при оптимізації хімічного виробництва плануванням експерименту. Етап планування збору даних допомогає визначити необхідний об'єм даних, достатній для проведення аналізу, але щоб не було зайвих витрат. Складений план має укрупнений кошторис проекту, який в розумних рамках гарантує, що стадія аналізу протікатиме достатньо успішно.
Статистична обробка даних особливо корисна за наявності великої групи досліджуваних об'єктів (генеральної сукупності), яка вас цікавить, але за браком часу і коштів ви не можете собі дозволити провести повне дослідження. Щоб отримати корисне, але неідеальне дослідження генеральної сукупністі, можна скористатися невеликою групою вибірковою сукупністю (вибіркою), котра складається з певної кількості (але не всіх) об'єктів генеральної сукупності.
Процес узагальнення результатів дослідження вибірки на всю сукупність називається статистичним висновком. Випадкова вибірка є одним із способів вилучення вибірки з генеральної сукупності, яка дуже велика, щоб її можна було вивчати повністю. Випадкове вилучення вибірки переслідує дві мети.
1. Гарантувати неупередженість вилучення вибірки, тобто всі об'єкти генеральної сукупності мають рівні шанси бути відібраними. У середньому всі вибірки є представницькими для даної генеральної сукупності.
2. Контрольована випадковість на стадії планування проекту гарантує коректність (валідність) подальших статистичних висновків.
Попереднє дослідження даних здійснюється з метою проаналізувати з різних точок зору отримані дані. Це дозволяє переконатися, що дані є саме тими, що необхідні, і немає з ними жодних проблем. Виконане попереднє дослідження готує дослідника до проведення формального аналізу.
1. Перевірити, що очікувані зв'язки в даних дійсно існують, а заплановані методи аналізу адекватні даним.
2. Виявлення в даних структури, яку необхідно взяти до уваги, здійснює внесення змін до плану аналізу.
Незавжди можна покладатися на формальний аналіз, який припус-кає, що прийнятий набір даних "поводиться добре". Всякий раз при нагоді потрібно самостійно переконатися, що все гаразд, тобто немає великих помилок, і спостережувані в даних залежності між параметрами відповідають типу запланованого аналізу. Ця стадія допоможе внести до даних корективи, вибрати відповідний метод аналізу і обґрунтувати використання необхідних надалі статистичних методів.
Оцінювання невідомої величини являє собою процедуру обчислення оцінки величини як найбільш обґрунтованого її значення, отриманого на підставі наявних даних про можливе значення. Цією процедурою оцінюються параметри, які неможливо визначити точно.
Статистика може пролити світло на деяких з цих ситуацій, надавши добре обґрунтоване припущення виходячи з надійних даних. Всі статистичні оцінки є тільки припущеннями, а отже, часто бувають неточними.
Проте вони служать поставленим цілям, якщо достатньо близькі до відповідних невідомих величин. Якщо відомо, наскільки точні ці оцінки, то можна вирішити, якою мірою їх варто брати до уваги.
Статистична оцінка також показує величину невизначеності або помилки в конкретному припущенні, розрахованому для вибірки, випадково узятої з більшої за розміром генеральної сукупності.
Довірчий інтервал дає вірогідне значення верхньої і нижньої меж оцінюваної невідомої величини, що дозволяє заявити: "Я не знаю точне значення невідомої величини, але достатньо упевнений в тому, що воно лежить між цими двома числами".
Зазвичай обчислюють довірчі інтервали, оскільки вони показують, наскільки надійною насправді є оцінка. Довірчі інтервали представляють оцінку в деякій перспективі і дозволяють уникнути необхідності указувати одне число як точне значення, тоді як фактично це число точним не є.
Перевірка статистичних гіпотез полягає у використанні даних для здійснення вибору однієї з двох (або більшої кількості) різних можли-востей при вирішенні питання в неоднозначній ситуації. Перевірка гіпотези на основі даних дає рішення про те, яка з можливостей є вірною.
Процедура перевірки гіпотези включає збір даних, які допомагають здійснити вибір однієї з можливостей, і використання статистичного аналізу для підтвердження прийнятого рішення, якщо це рішення не витікає з прискореного аналізу даних.
Кожна гіпотеза формулюється як твердження, яке може бути або вірним, або невірним. Результатом перевірки гіпотези є висновок про те, що дані або підтверджують гіпотезу, або відкидає її.
3.2. Класичне і статистичне визначення ймовірності.
Наведений вище опис випадкових подій ще не робить їх предме-том математичної теорії. Предметом теорії ймовірностей випадкові події стають тільки тоді, коли вони повязані з певними числовими величинами їхніми ймовірностями [3, с. 10 13].
Означення 2.1. Ймовірність є одним з основних понять теорії ймовірностей це число, що характеризує обєктивну можливість появи події.
Існує велика кількість означень ймовірності, що запропоновані різними вченими. Більшість їх можна віднести до двох груп:
1) класичне означення ймовірністі зводиться до поняття рівно-можливості як більш примітивного (первинного) поняття;
2) статистичне означення ймовірністі зводиться до того, що відправною точкою (первинним поняттям) вважається частота появи події у великій кількості випробувань.
Перш ніж дати визначення ймовірності розглянемо таку задачу.
Нехай в урні міститься 5 однакових куль (рос. шаров), причому 2 з них білі, а 3 чорні. Дамо кількісну оцінку того, що взята навмання (рос. наугад) куля буде чорною (подія А). Кожний з можливих результатів випробування (витягання кулі) є елементарним наслідком. Позначимо їх через Е1, Е2, Е3, Е4 і Е5. Можливі такі наслідки випробування: Е1 і Е2 поява білої кулі та Е3, Е4, Е5 поява чорної кулі.
Ці випадки рівноможливі (рівноймовірні), оскільки з причини тотожності куль жодна не має обєктивної переваги над іншими. Крім того, ці події утворюють повну групу подій. Елементарні випадки, коли настає подія А (поява чорної кулі), називають сприятливими цій події. У нашому прикладі їх три (Е3, Е4, Е5 )з пяти можливих результатів.
Означення 2.2. Відношення числа елементарних випадків сприят-ливих подій до їх загального числа подій називається ймовірністю події А і позначається як Р(А). У нашому прикладі Р(А) = 3/5.
Означення 2.3. Ймовірністю події А у даному випробуванні називають частку (рос. доля, часть) числа наслідків m, що сприяють появі події А, до повного числа n всіх можливих елементарних наслідків, що утворюють повну групу несумісних і рівноможливих подій, тобто:
Р(А) = m/n. (2.1)
Наведене визначення відоме як класичне. З цього визначення ймовірності випливають такі її властивості.
Властивість 1. Ймовірність деякої випадкової події є невідємне число, що не перевищує одиниці.
Дійсно, 0 m n, тому 0 m/n 1, отже:
0 Р(А) 1. (2.2)
Властивість 2. Ймовірність достовірної (вірогідної) події дорівнює одиниці.
Дійсно, оскільки у даному випадку m = n, то
Р(А) = m / n = n / n = 1.
Властивість 3. Ймовірність неможливої події дорівнює нулю.
Дійсно, оскільки m = 0, то
Р(А) = m / n = 0 / n = 0.
Класичне визначення ймовірності при переході до складних задач натикається на принципові труднощі, котрі неможливо подолати. При цьому постає питання про можливість визначення прийнятного способу обробки даних. Тому поряд з основним поняттям ймовірністі часто використовується поняття відносної частоти (частості) як ймовірності.
Означення 2.4. Відносною частотою (частістю) події А називають частку від ділення числа випробувань m, коли подія А відбулася, до загального числа n проведних випробувань і позначають:
Рn(A) = m/n. (2.3)
Після зіставлення означень ймовірності та частості можна зробити висновок, що для обчислення ймовірності не потрібні випробування. І навпаки, обчислення частості передбачає фактичне виконання випробувань. Іншими словами, ймовірність вираховують до початку досліду, а відносну частоту після його проведення.
Приклад 1. У ціль здійснено 24 постріли і зареєстровано 19 влучень. Відносна частота ураження цілі:
Р24(А) = 19/24 = 0,79.
Тривалі експерименти показали, що відносна частота має статис-тичну стійкість у тому розумінні, що у різних дослідах вона мало змінюється, коливаючись навколо деякого числа. Відносна частота багаторазового кидання монети з подією герб або цифра мало відрізняє-ться від 0,5, причому відхилення тим менше, чим більше число випробувань.
Таким чином, стійкість частоти віддзеркалює деяку обєктивну властивість випадкової події у масових явищах, що полягає у певній мірі можливості настання випадкової події А, яку називають її ймовірністю. Поряд з класичним означенням ймовірності застосовують також і статистичне означення ймовірності.
Означення 2.5. Ймовірність випадкової події А дорівнює відносній частоті або числу, що близьке до неї, тобто:
Р(А) Wn(A). (2.4)
Зазначимо, що статистична стійкість відносної частоти і наявність визначеної ймовірності є основою, певною властивістю випадкової події для того, щоб вона стала обєктом вивчення у теорії ймовірностей.
Відмітимо, що відносну частоту крім ймовірності називають також статистичною ймовірністю. У разі застосування статистичного визна-чення ймовірності необхідно вимагати виконання властивостей 2 і 3.
Наведене статистичне визначення ймовірності має скоріше описо-вий характер. Воно не є формально математичним, а лише постулює існування ймовірності та вказує метод наближеного її оцінювання.
Наразі існує формально математичне, аксіоматичне визначення ймовірності. Воно містить в собі як окремі випадки класичне і статис-тичне визначення, які доповнюють одне одного. Саме на цій основі, котру заклали Бернштейн і Колмогоров, побудована сучасна теорія ймовірностей.
Приклад 3. Кинуто правильну гральну кістку. Визначити ймовір-ність того, що випаде чотири вічка.
Розвязок. Можливі шість результатів: 1, 2, 3, 4, 5 і 6 вічок. Вони є єдиноможливі, рівноможливими і несумісні, тому утворюють повну групу подій. Тому можна застосувати класичну формулу для обчислен-ня ймовірності, в якій число сприятливих подій (поява чотирьох вічок) m = 1, а загальна кількість всіх можливих наслідків n = 6. У результаті дістаємо Р(А) = 1/6.
Отже, якщо число елементарних подій скінченне, вони утворюють повну групу подій (тобто є єдино можливими, рівно можливими і несумісними), то таку систему подій можна назвати класичною моделлю і застосувати до неї класичне означення ймовірності.
3.3. Теорема Бернуллі для частотної інтерпретації ймовірностей [4].
Розглянемо два питання частотну інтерпретацію ймовірності та властивість стійкості частот. Спочатку пригадаємо, що ймовірність події це чисельна міра ступеня обєктивної можливості цієї події.
В якості одиниці виміру ймовірності прийнята ймовірність достовірної події Р(А) = 1. Ймовірність неможливої події дорівнює нулю Р(А) = 0, а ймовірність будь-якої іншої події позначається Р(А) та змінюється в межах від нуля до одиниці: 0 ≤ Р(А) ≤ 1.
Вимогою, якою зазвичай обмежується клас випадкових дослідів, що розглядаються в теорії ймовірностей, та відповідних їм випадкових подій є вимога дотримання властивості стійкості частот (частостей).
Вона полягає в наступному. Проведемо серію з n емпериментів (n назвемо довжиною серії), в кожному з яких може відбутися чи не відбутися подія А, та підрахуємо, скільки pазів в цій серії експеримент закінчувався настанням події А.
Позначивши це число через n(А) та поділивши його на загальне число усіх повторень експериментів (довжину серії спостереження) n, отримаємо величину Рn(A) = n(А)/n, яку називають відносною частотою настання події А в серії з n повторень експерименту (частотою події А).
Припустимо, що експеримент можливо повторити при незмінних умовах будь-яку кількість разів. При невеликій кількості експеримантів частота має випадковий характер і може помітно мінятися від однієї групи дослідів до іншої.
При збільшенні кількості експериментів випадкові обставини, притаманні кожному окремому експерименту, в масі взаємно поглина-ються, і частота Р(А) проявляє тенденцію до стабілізації, наближаючись до деякої середньої величини р.
Саме цей емпіричний факт, що спостерігається при скінченній кількості експериментів, покладено в основу теорії ймовірностей. Властивість статистичної стійкості частот в описаній ситуації сформульована в теоремі Бернуллі, яка стверджує, що при необмеже-ному збільшенні числа однорідних та незалежних дослідів відносна частота події А необмежено наближається до деякої сталої величини.
Означення 2.6. Число, до якого наближається відносна частота події при необмеженно зростаючій кількості експериментів, називається ймовірністю події А та позначається Р(А).
Математично ця властивість записується у вигляді границі:
.
Проте наближення частоти події до її ймовірності не є звичайною збіжністю до границі, і вона не доводиться, а лише перевіряється експериментально. Для описання збіжності частоти події до її імовірності вводиться поняття збіжність за імовірністю: послідовність Хn збігається за імовірністю до величини α, якщо при будь-якому як завгодно малому > 0 ймовірність нерівності |Хn α| < зі збільшенням n необмежено наближається до одиниці:
.
Після цього теорему Бернуллі переформулюємо таким чином: при необмеженому збільшенні кількості однорідних та незалежних дослідів частота події збігається за ймовірністю до ймовірністі появи події в окремому досліді:
.
В якості прикладів вкажемо на дослід Бюффона, в якому симетрична монета підкидалась 4040 разі, а герб випадав m = 2048 разів (частота появи горбу у даній серії спостережень дорівнювала т/п = 2048/4040 = 0,508, що є близьким до Інтуїтивно очікуваного значення ймовірності 0.5).
Аналогічно в досліді Пірсона з монетою проведено n1 = 12000, n2 = 24000 дослідів та отримано випадання гербу відповідно m1 = 6020, m2 = 12012, і відповідно частоти дорівнюють т1/n1 = 0,5016; т2/n2 = 0,505. Це об'єктивно існуюче число, що називається імовірністю події.
Частота події А відрізняється від ймовірності цієї події тим, що ймовірність величина детермінована, а частота величина випадкова, котра до проведення досмвіду не відома.
З теореми Бернуллі випливає принцип практичної неможливості малоймовірній подій: якщо випадкова подія має дуже низьку ймовірність, то практично можна вважати, що в одиночному досліді ця подія не настане. Достатньо малу ймовірність, при якій подію можна вважати практично неможливою, називають рівнем значимості.
Висновки
В лекції 4 проілюстровано класифікацію подій за характером та можли-вістю їх появи. Наведено алгебру подій, тобто дії, які можна виконувати над ними. Викладено класичне та статистичне тлумачення ймовірності.
Для виконання лабораторного практикуму пропонуються такі пакети прикладних програм: статистичний пакет STADIA, пакет ЭВРИСТА для аналізу часових рядів та регресійного аналіизу, система STATІSTICA для аналізу даних, SPSS спеціалізований пакет для аналізу часових рядів, включаючи Регресійний аналіз, Моделі авторегресії ковзного середнього, Екс-поненціальне згладжування, Спектральний аналіз, Авторегресійний аналіз.
Завдання і питання для самоперевірки:
1. Що являє собою статистика?
2. Назвіть призначення етапу планування в статичному дослідженні.
3. Що являє собою ймоврність виникнення події?
4. Приведіть два приклади перевірки гіпотези про виникнення ситуации.
5. У чому різниця між ймовірністю і статистикою?
Літературні джерела:
1. Руденко В.М. Математична статистика. Навчальний посібник. К.: Центр учбової літератури, 2012. 304 с.
2. Тюрин Ю.Н., Макаров А.А. Анализ данных на компьютере. М.: ИНФРА-М, 2003. 544 с.
3. Мельник В.М. Тринадцять лекцій з теорії ймовірностей: Текст лекцій / В.М. Мельник, О.П. Созник. Х.: Акад. ВВ МВС України, 2008. 112 с.