logo search
Эконометрика МУ / УМК-Эконометрика

Глоссарий

1. Уравнение Y t =  0 +  1 X t +  t , t = 1,….,n,

где

X t -неслучайная (детерминированная) величина, Y t ,  0 и  1 – неизвестные параметры,  t -случайные величины, называется линейным регрессионным уравнением.

Y t называется объясняемой ( зависимой) переменной, а X t -объясняющей (независимой) переменной или регрессором

2. Основные гипотезы:

1. Y t =  0 +  1 X t +  t , t = 1,….,n, - спецификация модели.

2. X t - детерминированная величина;

3.  i - случайная величина, удовлетворяющая следующим предпосылкам

3а). E t = 0, ( ЕY t = 0 +  1 X t ), E ( t2) = V( t) =  2 , (V(Y t ) =  2) - не зависит от t.

3б). E( t s) = 0 (Cov (Y t , Y s)=0), t  s - некоррелированность ошибок для разных наблюдений.

Часто добавляется условие:

3в).  t  N( 0,  2), т.е.  t - нормально распределенная случайная величина со средним 0 и дисперсией  2 .

Условие независимости дисперсии ошибки от номера наблюдений E ( t2) =  2, t = 1,….,n , называется гомоскедастичностью ( а); случай, когда условие гомоскедастичности не выполняется , называется гетероскедастичностью (б).

Теорема Гаусса - Маркова.

Для модели 1 -3ab:

оценки b 0, b 1 параметров регрессии, полученные по методу наименьших квадратов, имеют наименьшую дисперсию в классе всех линейных несмещенных оценок  2 .

3. Коэффициентом детерминации R 2 или долей объясненной дисперсии называется

R 2 = 1 - =.

Q - вся дисперсия , Q e - остаточная дисперсия, Q R - объясненная часть всей дисперсии.

4.Классическая нормальная линейная модель множественной регрессии.

Модель множественной регрессии:

y i =  0 +  1 x i1 +  2 x i3 +  p x i p +  i i = 1,2, … n;

где х tp - значения регрессора х p в наблюдении t.

Основные гипотезы, лежащие в основе модели множественной регрессии, являются естественным обобщением модели парной регрессии:

1. y i =  0 +  1 x i1 +  2 x i3 +  p x i p +  i i = 1,2, … n;

- спецификация модели.

2. x i 1, x i 2,…. x i p -детерминированные величины. Векторы х s = (x 1s, …. x n s)', s = 1,….p линейно независимы в R n.

3.  i - случайная величина, удовлетворяющая следующим предпосылкам:

3a) Е( i ) = 0; D ( i ) =  2 для любого i ;

3б)  i и  j не коррелированы: Е( i,  j) = 0 при i  j ; выводится из условия некоррелированности Cov ( i ,  j) = 0; (Cov ( i ,  j) = Е[( i - 0) (( j - 0)]) = Е( i,  j) = 0).

Часто добавляется условие:

3в).  t ~ N(0,  2), т.е.  t - нормально распределенная случайная величина со средним 0 и дисперсией  2.

В этом случае модель называется нормальной линейной регрессионной.

Все эти условия удобно записать в матричной форме:

У = Х   +  или

у i =  0 + +  i , i = 1,2,….n.

где У = (у 1,…у n) ' - вектор значений зависимой переменной ;

- матрица значений объясняющих переменных, в которую дополнительно введен столбец, все элементы которого равны 1, т.е. условно полагается, что модели (МР1) свободный член  0 умножается на фиктивную переменную х i 0, принимающую значение 1 для всех i :

х i 0 =1 (i = 1,2,….n);

 = ( 0 ,  1 , ……  p)' - вектор параметров размера (р + 1);  = ( 1, 2,….  n) - вектор возмущений (случайных ошибок) размера n.

Теорема Гаусса - Маркова.

Предположим, что:

1. у = Х  +  ;

2. Х - детерминированная n  (p+1) матрица, имеет максимальный ранг (p+1) ;

3. Е( ) = 0; Е(  ') =  2 1 n.

4.  - нормально распределенный случайный вектор  ~ N(0,  21 n);

5. r (X) = p + 1 < n

Тогда при выполнении предпосылок (1-3, 5) оценка МНК b = (X ' X) - 1 X ' y является наиболее эффективной ( в смысле наименьшей дисперсии) оценкой в классе линейных (по у ) несмещенных оценок.

5. Ковариационная матрица и ее выборочная оценка.

Вариации оценок параметров будут определять точность уравнения множественной регрессии. Для их вычисления используют ковариационную матрицу вектора оценок параметров  b .

b = ,

где  ij 2 - ковариации (корреляционные моменты) оценок параметров  i и  j .

ij 2 = Е[ (b i - Е(b i))(b j - Е(b j))]. (МР7)

Ковариация характеризует как степень рассеяния значений двух переменных относительно их математических ожиданий, так и взаимосвязь этих переменных.

Оценка дисперсии ошибок  2. Распределение s 2.

S 2 = =

является несмещенной оценкой дисперсии ошибок (возмущений)  2, т.е. Еs 2 =  2.

6. Оценка значимости коэффициентов регрессии b j .

Значимость коэффициентов регрессии b j можно проверить, если учесть, что статистика (b j -  j0 )/ s b j имеет t - распределение Стьюдента с к = n - p - 1 степенями свободы. Поэтому b j значимо отличается от нуля ( т.е. гипотеза Н 0 о равенстве параметра b j нулю Н 0 :  j0 = 0, отвергается) на уровне значимости  , если , где t 1 - ; n - p -1 - табличное значение t - критерия Стьюдента, определенное на уровне значимости  при числе степеней свободы к = n - p - 1.

7. Доверительный интервал для параметра j есть

b j - t 1 - ; n - p -1 s b j   j  b j + t 1 - ; n - p -1 s b

8. Доверительный интервал для функции регрессии или для условного математического ожидания зависимой переменной Е х(У):

- t 1 - ; k <Е(Y) < + t 1 - ; k

где - групповая средняя, определяемая по уравнению регрессии,

= - ее стандартная ошибка.

9. Доверительный интервал для индивидуальных значений зависимой переменной у *0 примет вид:

- t 1 - ; n - p -1 < у *0 < +t 1 - ; n - p - 1 ,

где = .

10. Доверительный интервал для параметра 2 в множественной регрессии:

.

11.Оценка значимости уравнения регрессии.

Проверить значимость уравнения регрессии - значит установить, соответствует ли математическая модель, выражающая зависимость между переменными и достаточно ли включенных в уравнение объясняющих переменных для описания зависимой переменной.

При отсутствии линейной зависимости между зависимой переменной и объясняющей переменными несмещенные оценки дисперсий s2R = QR/(m - 1) и s2e = Qe/(n - m) имеют  2 -распределение с соответственно к = m - 1 и к = n - m степенями свободы, а их отношение - F -распределение с теми же степенями свободы. Поэтому уравнение регрессии значимо на уровне  , если фактически наблюдаемое значение статистики

F = > F; k1;k2 ,

где F; k1;k2 - табличное значение F - критерия Фишера - Снедекера, определенное на уровне значимости  при к 1 = m - 1 и к 2 = n - m степенях свободы.

Значение F показывает, в какой мере регрессия лучше оценивает значение зависимой переменной по сравнению с ее средней.

12.Оценка значимости коэффициента корреляции при отсутствии корреляционной связи статистика t = имеет распределение Стьюдента с (n - 2) степенями свободы. Коэффициент корреляции r значим на уровне  (т.е. гипотеза Н 0 о равенстве генерального коэффициента корреляции  = 0 отвергается ), если

 t = > t 1 - ; n - 2 .

13. Под мультиколлинеарностью понимается высокая взаимная коррелированность объясняющих переменных.

14. Автокорреляции ошибок, если E( t s) =   0,

15.Стандартизированные коэффициенты регрессии b'j и коэффициенты эластичности Е j (j = 1,….p):

b'j = ;

E j = .

Стандартизированный коэффициент регрессии b'j показывает, на сколько величин s y изменится в среднем зависимая переменная У при увеличении только j -ой объясняющей переменной на s x j , а коэффициент эластичности Е j - на сколько процентов (от средней) изменится в среднем У при увеличении только Х j на 1 %.

16. Временным рядом (динамическим рядом или рядом динамики) в экономике называется последовательность наблюдений некоторого признака (случайной величины) У в последовательные моменты времени. Отдельные наблюдения называются уровнями ряда, которые обозначаются у t (t = 1,2,….n), где n - число уровней.

В общем виде при исследовании экономического временного ряда у t выделяются несколько составляющих:

у t = u t +  t + c t +  t t = 1,2,….n,

где u t - тренд,

t - сезонная компонента,

c t - циклическая компонента,

t - случайная компонента,

u t,  t , c t - закономерные, неслучайные составляющие.

17. Стационарные временные ряды.

Временной ряд у t (t=1,2,…,n) называется строго стационарным, если совместное распределение вероятностей n наблюдений у 1, у 2,…..уn такое же, как и n наблюдений у 1 + , у 2 + ,…у n + при любых n, t и  , т.е. свойства строго стационарных рядов у t (закон распределения и его числовые характеристики) не зависят от момента t .

18. Степень тесноты связи между последовательностями наблюдений временного ряда у 1, у 2,…у n и у 1 + , у 2 + ,….у n + (сдвинутых относительно друг друга на  единиц, т.е. с лагом  ) может быть определена с помощью коэффициента корреляции

так как Е(у t) = Е(у t + ) = a,  y(t) =  y(t + ) = .

Так как коэффициент () измеряет корреляцию между членами одного и того же ряда, его называют коэффициентом автокорреляции, а зависимость () - автокорреляционной функцией. В силу стационарности временного ряда у t автокорреляционная функция () зависит от лага  , причем ( - ) = (), т.е. при () можно ограничиться рассмотрением только положительных значений .

19. Статистической оценкой () является выборочный коэффициент автокорреляции r() , определяемый по формуле

r() = .

Функцию r() называют выборочной автокорреляционной функцией, а ее график - коррелограммой.