У вас вопросы?
У нас ответы:) SamZan.net

стаціонарний по середньому і дисперсії

Работа добавлена на сайт samzan.net: 2016-03-13

Поможем написать учебную работу

Если у вас возникли сложности с курсовой, контрольной, дипломной, рефератом, отчетом по практике, научно-исследовательской и любой другой работой - мы готовы помочь.

Предоплата всего

от 25%

Подписываем

договор

Выберите тип работы:

Скидка 25% при заказе до 11.3.2025

PAGE   \* MERGEFORMAT 8


k

1

ρk

СТАЦІОНАРНІ РЯДИ

 Тепер розглянемо ряд, з якого тренд або виключений, або його в ньому не було. Такий ряд називається стаціонарним. Але той тип  стаціонарності, який ми розглядатимемо, зв'язаний з накладенням обмежень. На рівні інтуїтивних ідей ми вимагаємо, щоб ряд мав постійне середнє і коливався навкруги цього середнього з постійною дисперсією. Тоді можна сказати, що цей ряд «стаціонарний по середньому і дисперсії». В загальнішому випадку, якщо є ряд ut можна зажадати, щоб ut мали одну і ту ж функцію розподілу при будь-якому значенні t, а в ще більш загальному випадку — щоб послідовні групи значень ut + 1..., ut +k  мали однаковий багатовимірний розподіл при будь-яких значеннях t і k. Цим математично було виражено припущення, що механізм, який генерує ряд, і має імовірнісний характер, залишається незмінним в часі.

При цих припущеннях маємо

(1)

 (2)

   k-та  автоковаріація (3)

відповідна автокореляція.  (4)

важливий клас стаціонарних рядів,  відомий як клас авторегресій. Авторегресійний процес порядку k з постійними коефіцієнтами визначається рівнянням

(5)

або еквівалентно

(6)

вираз (6) можна розглядати як регресію на з випадковим залишком . До цього ряду можна відноситися як до того, що генерується механізмом, в якому значення ряду в момент t виражаються через минулі значення — систематична залежність від минулої історії — плюс значення члена «збурення» у момент t. Розглянемо два важливі прості процеси які носять імена Маркова та Юла.

МАРКОВСКИЙ ПРОЦЕС

Марковський процес, найпростіший лінійний авторегресійний процес, відмінний від чисто випадкового ряду, визначається виразом

 (7)

який в зручнішій формі можна записати як

(8)

Оскільки збурення є чисто випадковими, то

        (9)

Знайдемо математичне сподівання , виходячи із співвідношення (7):

(10)

 Оскільки позначає те ж, що й , то із (10) отримуємо:

     (11)

Враховуючи, що ,  із (11) випливає оцінка

     (12),

тобто

     (13).

Обчислимо коефіцієнт кореляції Марковського процесу:

 (14)

 (15)

Тобто коефіцієнт автокореляції першого порядку для процесу Маркова служить його авторегресійним коефіцієнтом. Аналогічно можна вивести представлення для авто регресійних коефіцієнтів довільного порядку.

 (16)

Розділивши останню рівність на , отримаємо:

    (17)

Зокрема при k=2, отримуємо

   (18)

Звідки

    (19)

Оскільки коефіцієнт кореляції  ,  то графічно корелограму можна представити наступним чином:

 Графік показує різке зменшення автокореляції із ростом її порядку, тобто ростом взаємо віддаленості часових точок.

На графіку Марковський процес представляє коливання більш-менш регулярного типу по частоті (подібно до синусоїди). Однак на відміну від регулярної синусоїди збурення в процесі Маркова наростають. Доведемо це за допомогою дослідження його дисперсії.

  (20)

 

Звідси отримуємо:

  (21)

Оскільки , то марковський процес посилює дисперсію супутніх йому випадкових коливань, коли автокореляція близька до одиниці, то амплітуда коливань може різко зростати.

ПРОЦЕС ЮЛА

Авторегресійний процес Юла визначається як:

 (22)

Помножуючи (22) послідовно на  та і беручи математичне сподівання від отриманих добутків зауважуємо, що

 (23)

І

(24)

Остаточно отримуємо

    (25)

Систему (25) можна розв’язувати як відносно ,  так і відносно . При цьому отримуємо представлення:

  (26)

   (27)

Формули (15) і (27) можна використовувати для побудови моделі процесів Маркова та Юла, однак для цього потрібно вміти розраховувати коефіцієнти автокореляції першого та другого порядків по експериментальних даних. Розрахункову формулу можна побудувати виходячи із означення авторегресії:

    (28)

На графіку значення випадкового процесу Юла утворюють коливання із змінною частотою та амплітудою.

КРИТЕРІЙ ДАРБІНА-УОТСОНА

Служить для перевірки застосовності авторегресійних моделей статистичними методами. При цьому основною статистичною гіпотезою Н0 служить твердження про відсутність автокореляції в реалізації випадкового процесу проти альтернативного твердження Н1 про ефективне наближення часового ряду процесом Маркова. Критерієм для перевірки гіпотези служить наступна статистика:

    (29)

де  - похибка прогнозу,  -  значення часового ряду обчислені на  основі моделі Маркова.  

Дарбін та Уотсон побудували таблиці нижніх  та верхніх  критичних значень критерію відповідно до вибраного рівня значимості та обсягу вибірки.

Перевірка висунутих гіпотез здійснюється згідно наступного алгоритму:

  1.  Гіпотеза про випадковість процесу Н0 приймається  у випадку  для , або  в випадку   для
  2.  Гіпотеза про адекватність моделі  Маркова приймається у випадку   для ,  або  в випадку   для
  3.  У випадку  ()  або  ()  немає достатньої інформації для прийняття обґрунтованого рішення. Згідно спрощеного критерію Дарбіна-Уотсона в цьому випадку приймається гіпотеза про адекватність моделі Маркова.

ВИБІР ПОРЯДКУ АВТОРЕГРЕСІЙНОЇ АПРОКСИМАЦІЇ

Коефіцієнтом  детермінації називають відношення поясненої дисперсії до повної:

    (30)

Для вибору порядку авторегресійного процесу послідовно аналізують результати апроксимації авторегресійними процесами та їх коефіцієнти детермінації, послідовно нарощуючи порядок авторегресійних процесів. Коли із ростом порядку авторегресійних процесів не відбувається суттєвого збільшення R2 , то доцільно вибрати попередній порядок регресійного процесу як базовий.

 

УЗАГАЛЬНЕНА АВТОРЕГРЕСІЙНА МОДЕЛЬ ARMAX ПАКЕТУ GARCH TOOLBOX

Комплект інструментів GARCH дозволяє будувати гнучкий опис умовного середнього, використовуючи загальну форму ARMAX. Моделі ARMAX поєднують компоненти авторегресії (AR), ковзаючого середнього залишків (MA), і регресійні моделі (X) по деяких пояснюючих змінних.

  (31)

Як бачимо, авторегресійна модель доповнюється моделлю ковзаючого середнього для залишків, оскільки в реальних даних часто помічаються такі залежності. Для оцінки коефіцієнтів моделі використувається процедура garchfit, ситакс виклику якої наступний:

[Coeff, Errors, LLF, Innovations, Sigma, Summary] = garchfit(Spec, Series, X)

де Spec (необов'язковий параметр) – це структура, яка містить параметри структури моделей авторегресії і ковзаючого середнього а також параметри оптимізації. Поля в цій структурі створюються за допомогою виклику функції garchset, або можна використовувати результуючу структуру Coeff, отриману від попереднього виклику garchfit.

Series - вектор спостережень серії вимірів, для якої garchfit, оцінює параметри моделей Останній елемент вектора містить останнє спостереження.

X(необов'язкова) - матриця значень пояснювальних змінних регресії. Кожен стовпчик X - це індивідуальний часовий ряд відповідної змінної від першого моменту часу до останнього. Якщо X = [ ] або не  вказаний, модель не містить регресійної компоненти.

Coeff -  структура, що містить оцінені коефіцієнти. Coeff має ту ж структуру як вхідна структура Spec.

Errors - структура, що містить стандартні помилки значень коефіцієнтів. Області помилок відповідають полям коефіцієнтів (C, AR, MA, Regress, K, GARCH, ARCH), знайденим в Coeff або в Spec.

LLF  - оптимізоване значення логарифмічної функції правдоподібності, пов'язане з оцінками параметрів.

Innovations - вектор відхилень часового ряду від змодельованих значень.

Sigma - умовний вектор середніх квадратичних відхиленнь, що відповідає  Innovations. Розмір Sigma співпадає з розмірністю Series.

Summary - структура сумарної інформації про процес оптимізації із відповідними значеннями полів.

 

Прогнозування за побудованою моделлю здійснюється за допомогою виклику

[SigmaForecast, MeanForecast] = garchpred(Spec, Series, NumPeriods, X, XF),

який прогнозує як умовне середнє MeanForecast, так і середнє квадратичне відхилення  SigmaForecast ряду на NumPeriods вперед. Ряди  X і XF необов'язкові. Проте, для MeanForecast, якщо ви конкретизуєте X, ви повинні також конкретизувати XF. XF - це тільки прогноз X, і потрібен для того, щоб прогнозувати умовне середнє  MeanForecast.

АВТОПРОЕКЦІЙНІ МЕТОДИ

Традиційним методом прогнозування майбутнього значення показника є усереднювання n його минулих значень. Його формально можна визначити як

     (1)

    (2)

Обчислене значення у разі стаціонарного ряду вважається рівним прогнозу очікуваного значення показника в майбутньому  не тільки на період прогнозу, але і на період, наступний за ним, і далі.  Останнє, звичайно, не означає, що якщо прогноз  робиться на  6 місяців вперед, то прогноз на решту п'яти місяців не може бути модифікований після закінчення першого місяця.

Подібну поправку здійснити деколи не завжди просто, проте ця ідея вельми близька до ідей поточного планування, коли лише  на перші два місяці  складаються конкретні плани, а на третій і четвертий -  наближені. На наступні два місяці після закінчення  двох попередніх плани можуть бути скоректовані з урахуванням додаткової інформації.

Таким чином визначене ковзаюче середнє має ряд особливостей. Для того, щоб почати процес ковзаючого середнього, необхідно мати в запасі   минулих значень спостережень. Прогноз не може бути побудований раніше, ніж через  моментів часу. Даним, включеним в процес ковзаючого середнього, присвоюється однакова вага, всій решті даних присвоюється нульова вага.

Вага окремого спостереження вказує на частку внеску його значення в значення середнього, і у разі ковзаючого середнього частка рівна 1/n для спостережень, що входять в середнє, і нулю для спостережень, відсутніх в ньому. При цьому більш свіжі дані мають ту ж вагу, що і старіші, разом з тим зрозуміло, що свіжі дані мають більш важливе значення і тому повинні мати і більшу вагу. Для усунення цього недоліку можна запропонувати процедуру усереднювання з різними вагами:

   (3)

   (4)

Рівняння (3) і (4) подають два з подібних способів усереднювання: перший заснований на дробових а другий на десяткових вагах. В обох випадках сума ваг рівна одиниці. Ця умова, очевидно, необхідна для того, що відповідні величини були середніми значеннями. Якщо не враховуються старіші дані, то для ковзаючого середнього це може виявитися дуже марнотратним. Чутливість ковзаючого середнього зворотньо nponopційна  n - числу точок, що входять в середнє. Тому без зміни  n  чутливості  змінити неможливо, що ілюструє приклад вибору початку процесу ковзаючого середнього. Більшість з перерахованих недоліків ковзаючого середнього усувається в одній частковій  схемі ковзаючого середнього, коли система ваг  експоненційна.

ЕКСПОНЕНЦІАЛЬНО ЗВАЖЕНЕ СЕРЕДНЄ

Замість однієї з розглянутих вище систем ваг розглянемо цілий ряд ваг, що зменшуються в часі по експоненціальному закону. Цей ряд визначимо як геометричну прогресію, знаменник якої менший одиниці :

    (5)

Така система ваг називається експоненціальною (експонента – степінь в англійській транскрипції). Обчислити суму ваг можна за формулою суми геометричної прогресії:

     (6)

Як бачимо сума ваг не рівна одиниці. Тому  кожен доданок послідовності (5) помножуємо на множник  , отримуючи :

 (7)

Для зручності запису введемо позначення . Тоді сума ряду ваг подасться в наступному виді:

 (8)

Для істинного середнього його сума повинна прагнути до одиниці при необмеженому збільшенні числа доданків. Якщо винести за дужки і використати суму нескінченної геометричної прогресії, то

  (9)

Сума ряду прямує до одиниці, а члени суми зменшуються з часом За допомогою експоненціально зваженого ряду ваг експоненціально зважене середнє yt  запишемо як

  (10)

Тобто остаточно:

    (11)

Формулу (8) можна ще більше спростити, коли ввести позначення похибки прогнозу:

,     (12)

або        .    (13)

Тут вираховується різниця спостереженого значення в поточний момент часу та прогнозованого в попередній момент, оскільки прогноз будується на один крок наперед. Розкриваючи дужки в (11) та враховуючи (13), отримаємо:

 (14)

   (15)

Останнє рівняння описує поведінку найпростішого самоналагоджувального механізму з коефіцієнтом врахування  відхилення  .

Коефіцієнт  визначає скільки попередніх значень реально враховуються прогнозі. В ході практичних експериментів встановлено, що непогані прогнозні результати отримуються при зміні значень  в діапазоні  . З навчальною метою для спрощення можна покладати .

МЕТОД  ХОЛТА

Метод, запропонований Холтом, використовується для прогнозування на  кроків вперед.  Він ґрунтується на оцінці швидкості лінійної зміни  прогнозованого параметра f:

    (16)

де   ytбазовий прогноз.

Цей базовий прогноз будується на основі методу експоненціального згладжування та швидкості зміни :

,   (17)

,    (18)

,    (19)

На основі практичних експериментів встановлені рекомендовані значення параметрів згладжування:

.

МЕТОД ХОЛТА-ВІНТЕРА

Використовується для прогнозування процесів в яких спостерігаються сезонні коливання. Для використання  методу необхідно задати період L та початкові значення коефіцієнтів F сезонності, які в подальшому будуть уточнюватися:

   (20)

    (21)

    (22)

Рекомендовані  значення параметрів згладжування:

.    (23)

Після побудови базового прогнозу можна будувати багатокроковий проноз із врахуванням ефектів сезонності:

     (24)

МЕТОД АДАПТИВНОГО ПРОГНОЗУВАННЯ ТРІГА-ЛІЧА

Під адаптацією розуміється зміна параметрів методу при зміні характеру даних. Для підбору параметру  Ліч використав величину так званого контрольного сигналу введеного Трогом:

     (25)

де Etпрогноз похибки,

Аt – прогноз абсолютної величини похибки.

Для обчислення згаданих прогнозів використовуються співвідношення експоненціального згладжування:

    (26)

   (27)

 .    (28)

При цьому , оскільки величини  та  можуть приймати протилежні знаки, а і  -тільки додатні, то  . Звідси випливає, що .

Вияснимо механізм адаптації методу. При поганому прогнозі виникає систематична похибка методу. При цьому на декількох кроках спостерігається відхилення  одного знаку, що приводить до спів падіння знаку в  та . При цьому модуль  зростає і наближається до . Це приводить до того, що  і , що дозволяє виправити прогноз.

Якщо прогнозна формула дає математичне сподівання прогнозованої величини, то похибка  практично на кожному кроці міняє знак. При цьому величина , внаслідок чого прямує до нуля і . При цьому прогноз може вироджуватися майже в константу .

Авто проекційні методи легко програмуються на MATLABі.




1. Анализ финансовой отчетности ОАО РАО ЕЭС России
2.  В ходе предварительного слушания по уголовному делу в отношении Ляшкина обвиняемого в совершении престу
3. В операционный блок пациента подают на каталке
4. Тема 2.1.Сетевые технологии обработки информации и защита информации Виды компьютерных сетей.
5. 44. Тел-факс- 38 044 2868277 тел- 38 044 4431500 Моб.
6. тема наук изучающих прошлое и настоящее природы и общества
7. ВВЕДЕНИЕ Возникновение и развитие сети Интернет оказало влияние на все сферы жизни общества в том числе и н
8. Тема 1 Предмет философии 1
9. задание зачтено что повлияет на рейтинг Основные Задания на неделю- Книга сделает вас сильнее так что чит
10. Тема 1 ЕСТЕСТВЕННОНАУЧНЫЕ ОСНОВЫ ФИЗИЧЕСКОГО ВОСПИТАНИЯ 1 В связи с усилением синтеза структурных б