Будь умным!


У вас вопросы?
У нас ответы:) SamZan.net

вектор независимых объясняющих переменных; ~ вектор параметров подлежащих определению; ~ случайная оши

Работа добавлена на сайт samzan.net:


Уравнение множественной регрессии.

Уравнение множественной регрессии может быть представлено в виде:

Y = f(β , X) + ε

где X = X(X1, X2, ..., Xm) - вектор независимых (объясняющих) переменных; β - вектор параметров (подлежащих определению); ε - случайная ошибка (отклонение); Y - зависимая (объясняемая) переменная.

теоретическое линейное уравнение множественной регрессии имеет вид:

Y = β0 + β1X1 + β2X2 + ... + βmXm + ε

β0 - свободный член, определяющий значение Y, в случае, когда все объясняющие переменные Xj равны 0.

Прежде чем перейти к определению нахождения оценок коэффициентов регрессии, необходимо проверить ряд предпосылок МНК.

Предпосылки МНК.

1. Математическое ожидание случайного отклонения εi равно 0 для всех наблюдений (M(εi) = 0).

2. Гомоскедастичность (постоянство дисперсий отклонений). Дисперсия случайных отклонений εi постоянна: D(εi) = D(εj) = S2 для любых i и j.

3. отсутствие автокорреляции.

4. Случайное отклонение должно быть независимо от объясняющих переменных: Yeixi = 0.

5. Модель является линейное относительно параметров.

6. отсутствие мультиколлинеарности. Между объясняющими переменными отсутствует строгая (сильная) линейная зависимость.

7. Ошибки εi имеют нормальное распределение. Выполнимость данной предпосылки важна для проверки статистических гипотез и построения доверительных интервалов.

Эмпирическое уравнение множественной регрессии представим в виде:

Y = b0 + b1X1 + b1X1 + ... + bmXm + e

Здесь b0, b1, ..., bm - оценки теоретических значений β0, β1, β2, ..., βm коэффициентов регрессии (эмпирические коэффициенты регрессии); e - оценка отклонения ε.

При выполнении предпосылок МНК относительно ошибок εi, оценки b0, b1, ..., bm параметров β0, β1, β2, ..., βm множественной линейной регрессии по МНК являются несмещенными, эффективными и состоятельными (т.е. BLUE-оценками).

Для оценки параметров уравнения множественной регрессии применяют МНК.

1. Оценка уравнения регрессии.

Определим вектор оценок коэффициентов регрессии. Согласно методу наименьших квадратов, вектор s получается из выражения:

s = (XTX)-1XTY

Матрица X

1

200

3

1

180

3

1

160

4

1

210

2

1

250

4

1

190

4

1

260

4

1

270

3

1

280

4

1

250

5

Матрица Y

20

25

30

30

35

38

40

38

44

50

Матрица XT

1

1

1

1

1

1

1

1

1

1

200

180

160

210

250

190

260

270

280

250

3

3

4

2

4

4

4

3

4

5

Умножаем матрицы, (XTX)

В матрице,  (XTX) число 10, лежащее на пересечении 1-й строки и 1-го столбца, получено как сумма произведений элементов 1-й строки матрицы XT и 1-го столбца матрицы X

Умножаем матрицы,  (XTY)

Находим обратную матрицу (XTX)-1

4.31

-0.0121

-0.41

-0.0121

0.0001

-0.0008

-0.41

-0.0008

0.17

Вектор оценок коэффициентов регрессии равен

s = (XTX)-1XTY =

Уравнение регрессии (оценка уравнения регрессии)

Y = -12.1951 + 0.1153X1 + 5.9023X2

Модель регрессии в стандартном масштабе.

Модель регрессии в стандартном масштабе предполагает, что все значения исследуемых признаков переводятся в стандарты (стандартизованные значения) по формулам:

где хji - значение переменной хji в i-ом наблюдении.

Таким образом, начало отсчета каждой стандартизованной переменной совмещается с ее средним значением, а в качестве единицы изменения принимается ее среднее квадратическое отклонение S.

Если связь между переменными в естественном масштабе линейная, то изменение начала отсчета и единицы измерения этого свойства не нарушат, так что и стандартизованные переменные будут связаны линейным соотношением:

ty = ∑βjtxj

Для оценки β-коэффциентов применим МНК. При этом система нормальных уравнений будет иметь вид:

rx1y1+rx1x2•β2 + ... + rx1xm•βm

rx2y=rx2x1•β1 + β2 + ... + rx2xm•βm

...

rxmy=rxmx1•β1 + rxmx2•β2 + ... + βm

Найденные из данной системы β–коэффициенты позволяют определить значения коэффициентов в регрессии в естественном масштабе по формулам:

2. Матрица парных коэффициентов корреляции.

Число наблюдений n = 10. Число независимых переменных в модели равно 2, а число регрессоров с учетом единичного вектора равно числу неизвестных коэффициентов. С учетом признака Y, размерность матрицы становится равным 4. Матрица, независимых переменных Х имеет размерность (10 х 4). Матрица ХT Х определяется непосредственным умножением или по следующим предварительно вычисленным суммам.

Матрица составленная из Y и X

1

20

200

3

1

25

180

3

1

30

160

4

1

30

210

2

1

35

250

4

1

38

190

4

1

40

260

4

1

38

270

3

1

44

280

4

1

50

250

5

Транспонированная матрица.

1

1

1

1

1

1

1

1

1

1

20

25

30

30

35

38

40

38

44

50

200

180

160

210

250

190

260

270

280

250

3

3

4

2

4

4

4

3

4

5

Матрица ATA.

10

350

2250

36

350

12974

81050

1307

2250

81050

522100

8180

36

1307

8180

136

Полученная матрица имеет следующее соответствие:

∑n

∑y

∑x1 

∑x2 

∑y

∑y2 

∑x1 y

∑x2 y

∑x1 

∑yx1 

∑x1 2 

∑x2 x1 

∑x2 

∑yx2 

∑x1 x2 

∑x2 2 

Найдем парные коэффициенты корреляции.

Для y и x1 

Средние значения

Дисперсия

Среднеквадратическое отклонение

Коэффициент корреляции

Для y и x2 

Средние значения

Дисперсия

Среднеквадратическое отклонение

Коэффициент корреляции

Для x1  и x2 

Средние значения

Дисперсия

Среднеквадратическое отклонение

Коэффициент корреляции

Матрица парных коэффициентов корреляции.

-

y

x1 

x2 

y

1

0.68

0.69

x1 

0.68

1

0.25

x2 

0.69

0.25

1

Анализ первой строки этой матрицы позволяет произвести отбор факторных признаков, которые могут быть включены в модель множественной корреляционной зависимости. Факторные признаки, у которых ryxi < 0.5 исключают из модели.

Коллинеарность – зависимость между факторами. В качестве критерия мультиколлинеарности может быть принято соблюдение следующих неравенств:

r(xjy) > r(xkxj) ; r(xky) > r(xkxj).

Если одно из неравенств не соблюдается, то исключается тот параметр xk или xj, связь которого с результативным показателем Y оказывается наименее тесной.

При оценке мультиколлинеарности факторов следует учитывать, что чем ближе к 0 определитель матрицы межфакторной корреляции, тем сильнее мультиколлинеарность факторов и ненадежнее результаты множественной регрессии.

Для отбора наиболее значимых факторов xi учитываются следующие условия:

- связь между результативным признаком и факторным должна быть выше межфакторной связи;

- связь между факторами должна быть не более 0.7;

- при высокой межфакторной связи признака отбираются факторы с меньшим коэффициентом корреляции между ними.

Более объективную характеристику тесноты связи дают частные коэффициенты корреляции, измеряющие влияние на результат фактора xi при неизменном уровне других факторов.

3. Анализ параметров уравнения регрессии.

Перейдем к статистическому анализу полученного уравнения регрессии: проверке значимости уравнения и его коэффициентов, исследованию абсолютных и относительных ошибок аппроксимации

Для несмещенной оценки дисперсии проделаем следующие вычисления:

Несмещенная ошибка ε = Y - Y(x) = Y - X*s (абсолютная ошибка аппроксимации)

Y

Y(x)

ε

(Y-Yср)2

20

28.58

-8.58

225

25

26.27

-1.27

100

30

29.87

0.13

25

30

23.83

6.17

25

35

40.24

-5.24

0

38

33.32

4.68

9

40

41.4

-1.4

25

38

36.65

1.35

9

44

43.7

0.3

81

50

46.15

3.85

225

 

 

 

724

se2 = (Y - X*s)T(Y - X*s) = 181.36

Несмещенная оценка дисперсии равна:

Оценка среднеквадратичного отклонения равна (стандартная ошибка для оценки Y):

Найдем оценку ковариационной матрицы вектора k = S • (XTX)-1

Дисперсии параметров модели определяются соотношением S 2i = Kii, т.е. это элементы, лежащие на главной диагонали

Показатели тесноты связи факторов с результатом.

Если факторные признаки различны по своей сущности и (или) имеют различные единицы измерения, то коэффициенты регрессии bj при разных факторах являются несопоставимыми. Поэтому уравнение регрессии дополняют соизмеримыми показателями тесноты связи фактора с результатом, позволяющими ранжировать факторы по силе влияния на результат.

К таким показателям тесноты связи относят: частные коэффициенты эластичности, β–коэффициенты, частные коэффициенты корреляции.

Частные коэффициенты эластичности.

С целью расширения возможностей содержательного анализа модели регрессии используются частные коэффициенты эластичности, которые определяются по формуле

Частный коэффициент эластичности |E1| < 1. Следовательно, его влияние на результативный признак Y незначительно.

Частный коэффициент эластичности |E2| < 1. Следовательно, его влияние на результативный признак Y незначительно.

Стандартизированные частные коэффициенты регрессии.

Стандартизированные частные коэффициенты регрессии - β-коэффициенты (βj) показывают, на какую часть своего среднего квадратического отклонения S(у) изменится признак-результат y с изменением соответствующего фактора хj на величину своего среднего квадратического отклонения (Sхj) при неизменном влиянии прочих факторов (входящих в уравнение).

По коэффициентам эластичности и β-коэффициентам могут быть сделаны противоположные выводы. Причины этого: а) вариация одного фактора очень велика; б) разнонаправленное воздействие факторов на результат.

Коэффициент βj может также интерпретироваться как показатель прямого (непосредственного) влияния j-ого фактора (xj) на результат (y). Во множественной регрессии j-ый фактор оказывает не только прямое, но и косвенное (опосредованное) влияние на результат (т.е. влияние через другие факторы модели).

Косвенное влияние измеряется величиной: ∑βirxj,xi, где m - число факторов в модели. Полное влияние j-ого фактора на результат равное сумме прямого и косвенного влияний измеряет  коэффициент линейной парной корреляции данного фактора и результата - rxj,y.

Частные коэффициенты корреляции.

Коэффициент частной корреляции отличается от простого коэффициента линейной парной корреляции тем, что он измеряет парную корреляцию соответствующих признаков (y и xi) при условии, что влияние на них остальных факторов (xj) устранено.

Теснота связи сильная

Теснота связи сильная

Теснота связи сильная

Теснота связи не сильная

Теснота связи сильная

Теснота связи не сильная

Индекс множественной корреляции (множественный коэффициент корреляции).

Тесноту совместного влияния факторов на результат оценивает индекс множественной корреляции.

В отличии от парного коэффициента корреляции, который может принимать отрицательные значения, он принимает значения от 0 до 1.

Поэтому R не может быть использован для интерпретации направления связи. Чем плотнее фактические значения yi располагаются относительно линии регрессии, тем меньше остаточная дисперсия и, следовательно, больше величина Ry(x1,...,xm).

Таким образом, при значении R близком к 1, уравнение регрессии лучше описывает фактические данные и факторы сильнее влияют на результат. При значении R близком к 0 уравнение регрессии плохо описывает фактические данные и факторы оказывают слабое воздействие на результат.

Связь между признаком Y факторами X  сильная

Значимость коэффициента корреляции.

По таблице Стьюдента находим Tтабл

Tкрит(n-m-1;α/2) = (7;0.025) = 2.365

Поскольку Tнабл > Tкрит , то отклоняем гипотезу о равенстве 0 коэффициента корреляции. Другими словами, коэффициент корреляции статистически - значим

Интервальная оценка для коэффициента корреляции (доверительный интервал).

Доверительный интервал для коэффициента корреляции

r(0.6785;1.0531)

Коэффициент детерминации.

R2= 0.872 = 0.7496

т.е. в 74.96 % случаев изменения х приводят к изменению y. Другими словами - точность подбора уравнения регрессии - высокая

4. Оценка значения результативного признака при заданных значениях факторов.

Y(0.0,0.0,) = -12.2 + 0.1153 * 0.0 + 5.9023 * 0.0 = -12.2

Доверительные интервалы с вероятностью 0.95 для среднего значения результативного признака M(Y).

S2 = X0T(XTX)-1X0

где

X0T = [ 1  ; 0.0 ; 0.0]

(XTX)-1

4.31

-0.0121

-0.41

-0.0121

0.0001

-0.0008

-0.41

-0.0008

0.17

X0 

1

0

0

Умножаем матрицы, находим S2 = 4.31

(Y – t*SY ; Y + t*SY )

(-12.2 – 2.365*10.57 ; -12.2 + 2.365*10.57)

(-37.2;12.8)

C вероятностью 0.95 среднее значение Y при X0i находится в указанных пределах.

Доверительные интервалы с вероятностью 0.95 для индивидуального значения результативного признака.

(-12.2 – 2.365*11.73 ; -12.2 + 2.365*11.73)

(-39.94;15.54)

C вероятностью 0.95 индивидуальное значение Y при X0i находится в указанных пределах.

5. Проверка гипотез относительно коэффициентов уравнения регрессии (проверка значимости параметров множественного уравнения регрессии).

v = n - m - 1 называется числом степеней свободы. Считается, что при оценивании множественной линейной регрессии для обеспечения статистической надежности требуется, чтобы число наблюдений, по крайней мере, в 3 раза превосходило число оцениваемых параметров.

1) t-статистика

Tтабл (n-m-1;α) = (7;0.025) = 2.365

Находим стандартную ошибку коэффициента регрессии b0:

Статистическая значимость коэффициента регрессии b0 подтверждается.

Находим стандартную ошибку коэффициента регрессии b1:

Статистическая значимость коэффициента регрессии b1 подтверждается.

Находим стандартную ошибку коэффициента регрессии b2:

Статистическая значимость коэффициента регрессии b2 подтверждается.

Доверительный интервал для коэффициентов уравнения регрессии.

Определим доверительные интервалы коэффициентов регрессии, которые с надежность 95%  будут следующими:

(bi - ti Sbi; bi + ti Sbi)

b0: (-12.1951 - 2.365 • 4.6821 ; -12.1951 + 2.365 • 4.6821) = (-23.2684;-1.1218)

b1: (0.1153 - 2.365 • 0.0185 ; 0.1153 + 2.365 • 0.0185) = (0.0715;0.1591)

b2: (5.9023 - 2.365 • 0.9214 ; 5.9023 + 2.365 • 0.9214) = (3.7232;8.0813)

6. Проверка общего качества уравнения множественной регрессии.

Оценка значимости уравнения множественной регрессии осуществляется путем проверки гипотезы о равенстве нулю коэффициент детерминации рассчитанного по данным генеральной совокупности: R2 или b1 = b2 =... = bm = 0 (гипотеза о незначимости уравнения регрессии, рассчитанного по данным генеральной совокупности).

Для ее проверки используют F-критерий Фишера.

При этом вычисляют фактическое (наблюдаемое) значение F-критерия, через коэффициент детерминации R2, рассчитанный по данным конкретного наблюдения.

По таблицам распределения Фишера-Снедоккора находят критическое значение F-критерия (Fкр). Для этого задаются уровнем значимости α (обычно его берут равным 0,05) и двумя числами степеней свободы k1=m и k2=n-m-1.

2) F-статистика. Критерий Фишера

Чем ближе этот коэффициент к единице, тем больше уравнение регрессии объясняет поведение Y.

Более объективной оценкой является скорректированный коэффициент детерминации:

Добавление в модель новых объясняющих переменных осуществляется до тех пор, пока растет скорректированный коэффициент детерминации.

Проверим гипотезу об общей значимости - гипотезу об одновременном равенстве нулю всех коэффициентов регрессии при объясняющих переменных:

H0: β1 = β2 = ... = βm = 0.

Проверка этой гипотезы осуществляется с помощью F-статистики распределения Фишера.

Если F < Fkp  = Fα ; n-m-1, то нет оснований для отклонения гипотезы H0.

Табличное значение при степенях свободы k1 = 2 и k2 = n-m-1 = 10 - 2 -1 = 7, Fkp(2;7) = 4.74

Поскольку фактическое значение F > Fkp, то коэффициент детерминации статистически значим и уравнение регрессии статистически надежно

7. Проверка на наличие гетероскедастичности.

1) Методом графического анализа остатков.

В этом случае по оси абсцисс откладываются значения объясняющей переменной Xi, а по оси ординат квадраты отклонения εi2.

Если имеется определенная связь между отклонениями, то гетероскедастичность имеет место. Отсутствие зависимости скоре всего будет свидетельствовать об отсутствии гетероскедастичности.

2) При помощи теста ранговой корреляции Спирмена.

Тест ранговой корреляции Спирмена

Задаются два параметра: xi, ε.

y

y(x)

ε = y-y(x)

ε2

20

28.58

-8.58

73.54

25

26.27

-1.27

1.61

30

29.87

0.13

0.0182

30

23.83

6.17

38.11

35

40.24

-5.24

27.5

38

33.32

4.68

21.86

40

41.4

-1.4

1.95

38

36.65

1.35

1.83

44

43.7

0.3

0.0879

50

46.15

3.85

14.85

Проверка на наличие автокорреляции остатков.

Важной предпосылкой построения качественной регрессионной модели по МНК является независимость значений случайных отклонений   от значений отклонений во всех других наблюдениях. Это гарантирует отсутствие коррелированности между любыми отклонениями и, в частности, между соседними отклонениями.

Автокорреляция (последовательная корреляция) определяется как корреляция между наблюдаемыми показателями, упорядоченными во времени (временные ряды) или в пространстве (перекрестные ряды). Автокорреляция остатков (отклонений) обычно встречается в регрессионном анализе при использовании данных временных рядов и очень редко при использовании перекрестных данных.

В экономических задачах значительно чаще встречается положительная автокорреляция, нежели отрицательная автокорреляция. В большинстве случаев положительная автокорреляция вызывается направленным постоянным воздействием некоторых неучтенных в модели факторов.

Отрицательная автокорреляция фактически означает, что за положительным отклонением следует отрицательное и наоборот. Такая ситуация может иметь место, если ту же зависимость между спросом на прохладительные напитки и доходами рассматривать по сезонным данным (зима-лето).

Среди основных причин, вызывающих автокорреляцию, можно выделить следующие:

1. Ошибки спецификации. Неучет в модели какой-либо важной объясняющей переменной либо неправильный выбор формы зависимости обычно приводят к системным отклонениям точек наблюдения от линии регрессии, что может обусловить автокорреляцию.

2. Инерция. Многие экономические показатели (инфляция, безработица, ВНП и т.д.) обладают определенной цикличностью, связанной с волнообразностью деловой активности. Поэтому изменение показателей происходит не мгновенно, а обладает определенной инертностью.

3. Эффект паутины. Во многих производственных и других сферах экономические показатели реагируют на изменение экономических условий с запаздыванием (временным лагом).

4. Сглаживание данных. Зачастую данные по некоторому продолжительному временному периоду получают  усреднением данных по составляющим его интервалам. Это может привести к  определенному сглаживанию колебаний, которые имелись внутри рассматриваемого периода, что в свою очередь может служить причиной автокорреляции.

Последствия автокорреляции схожи с последствиями гетероскедастичности: выводы по t- и F-статистикам, определяющие значимость коэффициента регрессии и коэффициента детерминации, возможно, будут неверными.

Обнаружение автокорреляции

1. Графический метод

Есть ряд вариантов графического определения автокорреляции. Один из них увязывает отклонения εi с моментами их получения i. При этом по оси абсцисс откладывают либо время получения статистических данных, либо порядковый номер наблюдения, а по оси ординат – отклонения εi (либо оценки отклонений).

Естественно предположить, что если имеется определенная связь между отклонениями, то автокорреляция имеет место. Отсутствие зависимости скорее всего будет свидетельствовать об отсутствии автокорреляции.

Автокорреляция становится более наглядной, если построить график зависимости εi от εi-1

2. Коэффициент автокорреляции.

Если коэффициент автокорреляции rei < 0.5, то есть основания утверждать, что автокорреляция отсутствует.

3. Критерий Дарбина-Уотсона.

Этот критерий является наиболее известным для обнаружения автокорреляции.

При статистическом анализе уравнения регрессии на начальном этапе часто проверяют выполнимость одной предпосылки: условия статистической независимости отклонений между собой. При этом проверяется некоррелированность соседних величин ei.

y

y(x)

ei = y-y(x)

e2

(ei - ei-1)2

20

28.58

-8.58

73.54

0

25

26.27

-1.27

1.61

53.38

30

29.87

0.13

0.0182

1.97

30

23.83

6.17

38.11

36.46

35

40.24

-5.24

27.5

130.35

38

33.32

4.68

21.86

98.39

40

41.4

-1.4

1.95

36.87

38

36.65

1.35

1.83

7.56

44

43.7

0.3

0.0879

1.11

50

46.15

3.85

14.85

12.65

 

 

 

181.36

378.76

Для анализа коррелированности отклонений используют статистику Дарбина-Уотсона:

Критические значения d1 и d2 определяются на основе специальных таблиц для требуемого уровня значимости α, числа наблюдений n = 10 и количества объясняющих переменных m=1.

Автокорреляция отсутствует, если выполняется следующее условие:

d1 < DW и d2 < DW < 4 - d2.

Не обращаясь к таблицам, можно пользоваться приблизительным правилом и считать, что автокорреляция остатков отсутствует, если 1.5 < DW < 2.5. Поскольку 1.5 < 2.09 < 2.5, то автокорреляция остатков отсутствует.

Для более надежного вывода целесообразно обращаться к табличным значениям.

По таблице Дарбина-Уотсона для n=10 и k=1 (уровень значимости 5%) находим: d1 = 1.08; d2 = 1.36.

Поскольку 1.08 < 2.09 и 1.36 < 2.09 < 4 - 1.36, то автокорреляция остатков отсутствует.




1. . Загальна характеристика нацистського режиму в Німеччині 2 год
2. реферат дисертації на здобуття наукового ступеня кандидата економічних наук Харків 2001
3. Бухгалтерский учет Разделы и темы для самостоятельного изучения.
4. Бухгалтерский учет в торговле
5. O- lguns vocles se leen en ruso de form diferente cundo est~n centuds y cundo no lo est~n
6. Игра деятельность детей дошкольного возраста
7. методические рекомендации по организации и проведению учебных и производственных практик Учебнометодиче
8. Painting in our Life
9. Предвыборная агитация
10. Банк Открытие
11. римской античности оставила большой след в развитие последующих цивилизаций
12. где фиксированное число а произвольное натуральное число члены некоторой числовой последовате
13. ТЕМАТИКА БАРОКОВА ОБРАЗНІСТЬ 10
14. Статья- Принципы построения системы менеджмента на основе здравого смысла
15. тематичних наук КИЇВ2007 Дисертацією є рукопис
16. На тему- Сегментарная отчетность Выполнил-
17. Страшный праздник Новый Год или Новогодняя ночь мертвецов 2
18. КОНТРОЛЬНА РОБОТА З ДИСЦИПЛІНИ Операційний менеджмент для спеціальностей-
19. Організація міжнародних автомобільних перевезень
20. Билборд и образ современного города