Эконометрические модели

контрольная работа

3. эконометрические модели ПАРНОЙ линейной РЕГРЕССИИ И методы ОЦЕНки их параметров

Задачами регрессионного анализа являются установление формы зависимости между переменными, оценка функции регрессии, оценка неизвестных значений (прогноз значений) зависимой переменной.

Построение модели парной регрессии позволяет количественно оценить взаимосвязь между результативной и факторной переменными.

Основной моделью регрессии является модель парной, или однофакторной, линейной регрессии, которая применяется для характеристики процессов, равномерно развивающихся во времени.

Общий вид модели парной линейной регрессии зависимости переменной от переменной в генеральной совокупности:

,

где уi объясняемые (зависимые) результативные переменные, i = 1,2, …, n, случайные величины;

хi объясняющие (независимые), факторные переменные, неслучайные величины;

а0, а1 неизвестные параметры модели парной регрессии;

еi случайная ошибка регрессионной модели.

Наличие в модели случайного члена (ошибки регрессии) связано с воздействием на переменную других, не учтенных в модели, факторов, с возможной нелинейностью модели и с ошибками измерений.

На основе обработки данных выборочного наблюдения получают модель парной линейной регрессии:

,

где - расчетное значение переменной у.

Случайная ошибка модели парной линейной регрессии возникает на основе объективных условий:

1) нерепрезентативности выборки, при которой в парную регрессионную модель включается только один фактор, не способный полностью объяснить изменение результативной переменной;

2) ошибочного измерения переменных, участвующих в модели.

Параметр в модели парной регрессии - это среднее значение зависимой переменной при условии, что независимая переменная равна нулю (если значение имеет экономический смысл).

Параметр в модели парной регрессии - это коэффициент модели регрессии. Значение параметра характеризует на сколько в среднем изменится зависимая переменная при изменении факторной переменной на единицу своего измерения. Знак коэффициента в модели парной регрессии указывает на направление связи между изучаемыми переменными. Если , то связь между переменными прямая, то есть с увеличением переменной увеличивается и переменная , и наоборот. Если , то связь между переменными обратная, то есть с увеличением переменной переменная уменьшается, и наоборот.

Существуют определенные методы оценки неизвестных параметров и модели парной регрессии:

1. Метод наименьших квадратов (МНК), при котором рассчитывается сумма квадратов отклонений наблюдаемых значений результативной переменной от теоретических значений (рассчитанных на основании функции регрессии ). Согласно методу наименьших квадратов неизвестные параметры и выбираются таким образом, чтобы сумма квадратов отклонений эмпирических значений от теоретических значений была минимальной. С учетом этого параметры уравнения регрессии определяются следующим образом:

,

.

Достоинства МНК: сведение всех вычислительных процедур к простому вычислению неизвестных коэффициентов; доступность математических выводов.

Недостатки МНК: чувствительность оценок к резким выбросам, встречающимся в исходных данных.

Метод наименьших квадратов является наиболее распространенным методом оценки неизвестных параметров модели парной линейной регрессии.

2. Метод наименьших модулей (МНМ), при котором рассчитывается сумма модулей отклонений наблюдаемых значений результативной переменной от теоретических значений . Согласно этому методу неизвестные параметры и выбираются таким образом, чтобы сумма модулей отклонений эмпирических значений от теоретических значений была минимальной.

Достоинства МНМ: нечувствительность оценок к резким выбросам.

Недостатки МНМ: 1) сложность вычислительной процедуры; 2) возможность соответствия различным значениям оцениваемых коэффициентов , одинаковых сумм модулей отклонений.

Таким образом, метод наименьших квадратов существенно проще при проведении вычислительной процедуры и дает хорошие по статистическим свойствам оценки. Этим и объясняется его широкое применение в оценивании параметров эконометрических моделей.

Для того, чтобы регрессионный анализ, основанный на методе наименьших квадратов (МНК), давал наилучшие из всех возможных результаты, должны выполняться условия Гаусса-Маркова. Модель парной линейной регрессии, для которой выполняются условия Гаусса-Маркова, случайный член еi имеет нормальное распределение, его значения некоррелированы и независимы, называется классической нормальной линейной регрессионной моделью.

Наряду с условиями Гаусса-Маркова обычно предполагается, что случайный член имеет нормальное распределение. При этом требование некоррелированности значений случайного члена эквивалентно их независимости.

Условия Гаусса-Маркова:

1. Математическое ожидание случайного члена в любом наблюдении должно быть равно нулю - М(еi)= 0.

2. Дисперсия случайного члена должна быть постоянной для всех наблюдений - D (еi)= 2, - теоретическое значение стандартной ошибки модели.

3. Случайные члены должны быть статистически независимы (некоррелированы) между собой.

4. Объясняющая переменная х должна быть неслучайной.

Первое условие Гаусса-Маркова означает, что случайный член не должен иметь систематического смещения. Если постоянный член включен в уравнение регрессии, то это условие выполняется автоматически.

Второе условие означает, что дисперсия случайного члена в каждом наблюдении имеет только одно значение. Но ее величина заранее неизвестна, и одна из задач регрессионного анализа состоит в ее оценке. Условие независимости дисперсии случайного члена от номера наблюдения называется гомоскедастичностью. Зависимость дисперсии случайного члена от номера наблюдения называется гетероскедастичностью. Если условие гомоскедастичности не выполняется, то оценки коэффициентов регрессии будут неэффективными, хотя и несмещенными.

Третье условие указывает на некоррелированность случайных членов для разных наблюдений. Это условие часто нарушается, когда данные являются временными рядами. В случае, когда третье условие не выполняется, говорят об автокорреляции остатков. Если условие независимости случайных членов не выполняется, то оценки коэффициентов регрессии, полученные по МНК, оказываются неэффективными, хотя и несмещенными.

Четвертое условие. Если условие о неслучайности объясняющей переменной не выполняется, то оценки коэффициентов регрессии оказываются смещенными и несостоятельными.

Теорема Гаусса-Маркова. Если условия Гаусса-Маркова выполняются, то оценки, сделанные с помощью МНК, являются наилучшими оценками. Они обладают свойствами:

- несмещенности, это означает отсутствие систематической ошибки в положении линии регрессии;

- эффективности - имеют наименьшую дисперсию в классе всех линейных несмещенных оценок;

- состоятельности - при достаточно большом объеме данных оценки приближаются к истинным значениям.

Мерой отклонения зависимой переменной от значений, предсказываемых уравнением регрессии, служит остаточная дисперсия:

,

где S2 - остаточная дисперсия;

еi - остаток, т.е. разница между измеренными и рассчитанными с помощью уравнения регрессии значениями зависимой переменной;

n - число пар переменных в выборке;

i - порядковый номер пары переменных в выборке.

Дисперсия коэффициентов регрессии определяется следующим образом:

,

где и - дисперсии коэффициентов и уравнения регрессии;

- i-ое и среднее значения объясняющей переменной ;

- число пар переменных в выборке;

- порядковый номер пары переменных в выборке.

Величины и - стандартные ошибки коэффициентов регрессии.

Весьма важным этапом перед практическим использованием построенной модели регрессии является проверка гипотезы о значимости коэффициентов модели парной регрессии. Значимость коэффициентов означает их значимое отличие от нуля.

Выдвинутые гипотезы проверяются с помощью t-критерия (t-статистики) Стьюдента. При этом наблюдаемое значение t-критерия сравнивают со значением t-критерия, определенным по таблице распределения Стьюдента, или с критическим значением .

Критическое значением t-критерия (; n-k) зависит от уровня значимости и числа степеней свободы. Уровень значимости определяется как , где величина - доверительная вероятность попадания оцениваемого параметра в доверительный интервал. Доверительную вероятность необходимо брать близкую к единице (0,99; 0,95). Число степеней свободы определяется как разность между объемом выборки (n) и числом оцениваемых параметров по данной выборке (k). Для модели парной линейной регрессии число степеней свободы равно (), т.к. по выборке оцениваются только 2 параметра ( и ).

Наблюдаемое значение t-критерия Стьюдента для проверки гипотезы о незначимости коэффициентов модели регрессии:

,

где - оценка коэффициента модели регрессии ,

- величина стандартной ошибки коэффициента модели регрессии .

Если модуль наблюдаемого значения t-критерия больше критического значения t-критерия , то с вероятностью () основная гипотеза о незначимости коэффициентов модели регрессии отвергается (коэффициенты модели регрессии значимо отличаются от нуля).

Если модуль наблюдаемого значения t-критерия меньше или равен критическому значению t-критерия , то с вероятностью основная гипотеза о незначимости коэффициентов модели регрессии принимается (коэффициенты модели регрессии почти не отличаются от нуля или равны нулю).

Проверить значимость уравнения регрессии - значит, установить, соответствует ли полученная модель, выражающая зависимость между переменными, экспериментальным данным и достаточно ли включенных в уравнение объясняющих переменных для описания зависимой переменной. Для этого определяют F - критерий Фишера-Снедекора. В случае парной линейной регрессии уравнение значимо на уровне б, если

,

где ,

- число степеней свободы.

- табличное значение - критерия Фишера-Снедекора, определенное на уровне значимости б при и степенях свободы (при парной линейной регрессии ).

Если , наблюдаемое значение F-критерия больше критического значения данного критерия, определенного по таблице распределения Фишера, то с вероятностью основная гипотеза о незначимости парного коэффициента детерминации или коэффициента модели регрессии отвергается, и модель парной регрессии значимо отличается от нуля.

Если , наблюдаемое значение F-критерия меньше критического значения данного критерия, то с вероятностью основная гипотеза о незначимости парного коэффициента детерминации или коэффициента модели регрессии принимается, и полученная модель парной регрессии является незначимой.

Показателями тесноты связи между результативным и факторным признаками эконометрической модели, характеризующими ее качество, т.е. степень соответствия построенной модели исходным данным, являются:

1) парный линейный коэффициент корреляции, оценивающий качество линейной модели парной регрессии и тесноту связи, определяемый по формуле:

.

Парный линейный коэффициент корреляции изменяется в пределах . Если , то связь между переменными - прямая, если , то связь между переменными обратная. Если , то связь между переменными отсутствует, если , регрессионный анализ между изучаемыми переменными не проводится, т.к. зависимость между ними носит функциональный характер;

2) коэффициент детерминации (), являющийся одной из наиболее эффективных оценок адекватности регрессионной модели, мерой качества уравнения регрессии, характеристикой прогностической силы анализируемой эконометрической модели. Его величина показывает, какая часть (доля вариации) зависимой переменной обусловлена вариацией объясняющей переменной. , чем ближе к единице, тем лучше регрессия аппроксимирует эмпирические данные, тем теснее наблюдения примыкают к линии регрессии и между переменными и существует линейная функциональная зависимость. Если , то вариация зависимой переменной полностью обусловлена воздействием неучтенных в модели переменных, и линия регрессии параллельна оси абсцисс. В случае парной линейной регрессионной модели коэффициент детерминации равен квадрату коэффициента корреляции: .

Делись добром ;)