Поможем написать учебную работу
Если у вас возникли сложности с курсовой, контрольной, дипломной, рефератом, отчетом по практике, научно-исследовательской и любой другой работой - мы готовы помочь.
Если у вас возникли сложности с курсовой, контрольной, дипломной, рефератом, отчетом по практике, научно-исследовательской и любой другой работой - мы готовы помочь.
Классическая модель линейной регрессии это простейшая версия представления общего вида функции объясняющих переменных X и регрессионных остатков в общих уравнениях регрессионной связи. Само регрессионное уравнение (для случая множественной регрессии); выглядит так:. Рассматриваемая зависимость не является детерминированной она стохастическая или статистическая, то есть нельзя представить в виде строгой функции от х1,…хк. . Поэтому член ε, называемый регрессионным остатком, или просто остатком, отражает суммарное влияние всех прочих факторов, влияющих на результативный показатель у, но не включенных в модель. Общую логику регрессионного анализа можно представить так:1) По фактическим данным оцениваются b0, b1,…,bp. 2) Рассчитывается ожидаемое значение y, т.е. следовательно для каждого значения Х существует фактическое значение У, появляется также оценочное значение . Разность между У и это ошибка оценки Ui. 3)Полученное на 2-м этапе уравнение подвергается проверке его качества и при положительном результате используется для достижения целей исследования.
Метод наименьших квадратов
В основе данного метода лежит поиск таких значений коэффициентов α и β, при которых сумма квадратов ошибок была бы наименьшей. Найденная с помощью МНК линия регрессии представляет собой прямую, которая минимизирует сумму квадратов, т. е. Для нахождения оценок коэф-в с помощью МНК находят первые произведения по каждому из параметров и приравнивают их к 0. В результате преобразований получается система уравнений.
Допущения лежащие в основе КМЛР:
1) Истинная форма взаимосвязи между эндогенной и экзогенными переменными явл. линейной.
2) Х неслучайная переменная, т.е. мы имеем фиксированный набор значений Х.
3) Мат ожидание регр-х остатков =0, М(Ui)=0
4)Дисперсия регрессионных остатков постоянна и конечна D(Ui)=сигма в квадрате<бесконечности.
5) Регрессионные остатки явл-ся стат. независимыми др. от др. Cov(Ui,Uj)=0
6) Регрессионые остатки и экзогенные переменные не зависимы др. от др. Cov(Ui,Хi)=0. В случае множественной регрессии добавляется еще одно допущение отсутствие совершенной мультиколлинеарности между независимыми переменными, что означает, что ни одна независимая переменная не может быть представлена в виде линейной комбинации остальных.
Свойства оценок МНК
Если выполняются допущения лежащие в основе МНК, то оценки коэффициентов являются BLUE (наилучшая линейная несмещенная оценка)
Наилучшая это оценка имеющая наименьшую дисперсию из всех возможных несмещенных оценок
Линейная это свойство линейной функциональной зависимости оценки от выборочных наблюдений
Несмещенная мат. Ожидание оценки равно параметру генеральной совокупности.
Оценка качества уравнения производится с помощью F-теста. Суть оценки сводится к проверке гипотезы H0 о статистической незначимости уравнения регрессии и показателя тесноты связи. Для этого выполняется сравнение фактического Fфакт и критического (табличного) Fтабл значений F-критерия Фишера
где R2 коэффициент детерминации;
п число наблюдений;
к число оцениваемых параметров.
Или
В случае справедливости гипотезы
статистика Fфакт должна, подчиняться F-распределению с числами степеней свободы числителя и знаменателя, соответственно равными к и п-к-1. Для проверки гипотезы Но по заданному уровню значимости критерия определяют из таблиц точку Fтабл. Если окажется, что
то гипотеза об отсутствии линейной связи между у и х отвергается (с вероятностью ошибиться, равной ) и принимается в противном случае.
Множественная линейная регрессия и оценка ее параметров
Для оценки линейной функции множественной регрессии взята выборка объемом "n". Результаты наблюдений над результативным признаком представлены вектором и матрицей Х типа объект-свойство наблюденных значений признаков х1,…хк:
где хij значение j-го признака на i-м объекте наблюдения (набор объясняющих переменных); столбец из "1" можно считать столбцом "наблюденных" значений для признака .Тогда для конкретных наблюдений уравнения регрессии записывается следующим образом:
,
или, в матричной форме
y nx1
X nxk
B kx1
U nx1
В результате решения матричного уравнения вектор оценок коэф-в можно определить по формуле:
Оценочные значения дисперсии ошибок находятся по формуле:
К число факторов в уравнении регрессии
Оценка дисперсии коэффициентов определяется как