Глоссарий
1. Уравнение Y t = 0 + 1 X t + t , t = 1,….,n,
где
X t -неслучайная (детерминированная) величина, Y t , 0 и 1 – неизвестные параметры, t -случайные величины, называется линейным регрессионным уравнением.
Y t называется объясняемой ( зависимой) переменной, а X t -объясняющей (независимой) переменной или регрессором
2. Основные гипотезы:
1. Y t = 0 + 1 X t + t , t = 1,….,n, - спецификация модели.
2. X t - детерминированная величина;
3. i - случайная величина, удовлетворяющая следующим предпосылкам
3а). E t = 0, ( ЕY t = 0 + 1 X t ), E ( t2) = V( t) = 2 , (V(Y t ) = 2) - не зависит от t.
3б). E( t s) = 0 (Cov (Y t , Y s)=0), t s - некоррелированность ошибок для разных наблюдений.
Часто добавляется условие:
3в). t N( 0, 2), т.е. t - нормально распределенная случайная величина со средним 0 и дисперсией 2 .
Условие независимости дисперсии ошибки от номера наблюдений E ( t2) = 2, t = 1,….,n , называется гомоскедастичностью ( а); случай, когда условие гомоскедастичности не выполняется , называется гетероскедастичностью (б).
Теорема Гаусса - Маркова.
Для модели 1 -3ab:
оценки b 0, b 1 параметров регрессии, полученные по методу наименьших квадратов, имеют наименьшую дисперсию в классе всех линейных несмещенных оценок 2 .
3. Коэффициентом детерминации R 2 или долей объясненной дисперсии называется
R 2 = 1 - =.
Q - вся дисперсия , Q e - остаточная дисперсия, Q R - объясненная часть всей дисперсии.
4.Классическая нормальная линейная модель множественной регрессии.
Модель множественной регрессии:
y i = 0 + 1 x i1 + 2 x i3 + p x i p + i i = 1,2, … n;
где х tp - значения регрессора х p в наблюдении t.
Основные гипотезы, лежащие в основе модели множественной регрессии, являются естественным обобщением модели парной регрессии:
1. y i = 0 + 1 x i1 + 2 x i3 + p x i p + i i = 1,2, … n;
- спецификация модели.
2. x i 1, x i 2,…. x i p -детерминированные величины. Векторы х s = (x 1s, …. x n s)', s = 1,….p линейно независимы в R n.
3. i - случайная величина, удовлетворяющая следующим предпосылкам:
3a) Е( i ) = 0; D ( i ) = 2 для любого i ;
3б) i и j не коррелированы: Е( i, j) = 0 при i j ; выводится из условия некоррелированности Cov ( i , j) = 0; (Cov ( i , j) = Е[( i - 0) (( j - 0)]) = Е( i, j) = 0).
Часто добавляется условие:
3в). t ~ N(0, 2), т.е. t - нормально распределенная случайная величина со средним 0 и дисперсией 2.
В этом случае модель называется нормальной линейной регрессионной.
Все эти условия удобно записать в матричной форме:
У = Х + или
у i = 0 + + i , i = 1,2,….n.
где У = (у 1,…у n) ' - вектор значений зависимой переменной ;
- матрица значений объясняющих переменных, в которую дополнительно введен столбец, все элементы которого равны 1, т.е. условно полагается, что модели (МР1) свободный член 0 умножается на фиктивную переменную х i 0, принимающую значение 1 для всех i :
х i 0 =1 (i = 1,2,….n);
= ( 0 , 1 , …… p)' - вектор параметров размера (р + 1); = ( 1, 2,…. n) - вектор возмущений (случайных ошибок) размера n.
Теорема Гаусса - Маркова.
Предположим, что:
1. у = Х + ;
2. Х - детерминированная n (p+1) матрица, имеет максимальный ранг (p+1) ;
3. Е( ) = 0; Е( ') = 2 1 n.
4. - нормально распределенный случайный вектор ~ N(0, 21 n);
5. r (X) = p + 1 < n
Тогда при выполнении предпосылок (1-3, 5) оценка МНК b = (X ' X) - 1 X ' y является наиболее эффективной ( в смысле наименьшей дисперсии) оценкой в классе линейных (по у ) несмещенных оценок.
5. Ковариационная матрица и ее выборочная оценка.
Вариации оценок параметров будут определять точность уравнения множественной регрессии. Для их вычисления используют ковариационную матрицу вектора оценок параметров b .
b = ,
где ij 2 - ковариации (корреляционные моменты) оценок параметров i и j .
ij 2 = Е[ (b i - Е(b i))(b j - Е(b j))]. (МР7)
Ковариация характеризует как степень рассеяния значений двух переменных относительно их математических ожиданий, так и взаимосвязь этих переменных.
Оценка дисперсии ошибок 2. Распределение s 2.
S 2 = =
является несмещенной оценкой дисперсии ошибок (возмущений) 2, т.е. Еs 2 = 2.
6. Оценка значимости коэффициентов регрессии b j .
Значимость коэффициентов регрессии b j можно проверить, если учесть, что статистика (b j - j0 )/ s b j имеет t - распределение Стьюдента с к = n - p - 1 степенями свободы. Поэтому b j значимо отличается от нуля ( т.е. гипотеза Н 0 о равенстве параметра b j нулю Н 0 : j0 = 0, отвергается) на уровне значимости , если , где t 1 - ; n - p -1 - табличное значение t - критерия Стьюдента, определенное на уровне значимости при числе степеней свободы к = n - p - 1.
7. Доверительный интервал для параметра j есть
b j - t 1 - ; n - p -1 s b j j b j + t 1 - ; n - p -1 s b
8. Доверительный интервал для функции регрессии или для условного математического ожидания зависимой переменной Е х(У):
- t 1 - ; k <Е(Y) < + t 1 - ; k
где - групповая средняя, определяемая по уравнению регрессии,
= - ее стандартная ошибка.
9. Доверительный интервал для индивидуальных значений зависимой переменной у *0 примет вид:
- t 1 - ; n - p -1 < у *0 < +t 1 - ; n - p - 1 ,
где = .
10. Доверительный интервал для параметра 2 в множественной регрессии:
.
11.Оценка значимости уравнения регрессии.
Проверить значимость уравнения регрессии - значит установить, соответствует ли математическая модель, выражающая зависимость между переменными и достаточно ли включенных в уравнение объясняющих переменных для описания зависимой переменной.
При отсутствии линейной зависимости между зависимой переменной и объясняющей переменными несмещенные оценки дисперсий s2R = QR/(m - 1) и s2e = Qe/(n - m) имеют 2 -распределение с соответственно к = m - 1 и к = n - m степенями свободы, а их отношение - F -распределение с теми же степенями свободы. Поэтому уравнение регрессии значимо на уровне , если фактически наблюдаемое значение статистики
F = > F; k1;k2 ,
где F; k1;k2 - табличное значение F - критерия Фишера - Снедекера, определенное на уровне значимости при к 1 = m - 1 и к 2 = n - m степенях свободы.
Значение F показывает, в какой мере регрессия лучше оценивает значение зависимой переменной по сравнению с ее средней.
12.Оценка значимости коэффициента корреляции при отсутствии корреляционной связи статистика t = имеет распределение Стьюдента с (n - 2) степенями свободы. Коэффициент корреляции r значим на уровне (т.е. гипотеза Н 0 о равенстве генерального коэффициента корреляции = 0 отвергается ), если
t = > t 1 - ; n - 2 .
13. Под мультиколлинеарностью понимается высокая взаимная коррелированность объясняющих переменных.
14. Автокорреляции ошибок, если E( t s) = 0,
15.Стандартизированные коэффициенты регрессии b'j и коэффициенты эластичности Е j (j = 1,….p):
b'j = ;
E j = .
Стандартизированный коэффициент регрессии b'j показывает, на сколько величин s y изменится в среднем зависимая переменная У при увеличении только j -ой объясняющей переменной на s x j , а коэффициент эластичности Е j - на сколько процентов (от средней) изменится в среднем У при увеличении только Х j на 1 %.
16. Временным рядом (динамическим рядом или рядом динамики) в экономике называется последовательность наблюдений некоторого признака (случайной величины) У в последовательные моменты времени. Отдельные наблюдения называются уровнями ряда, которые обозначаются у t (t = 1,2,….n), где n - число уровней.
В общем виде при исследовании экономического временного ряда у t выделяются несколько составляющих:
у t = u t + t + c t + t t = 1,2,….n,
где u t - тренд,
t - сезонная компонента,
c t - циклическая компонента,
t - случайная компонента,
u t, t , c t - закономерные, неслучайные составляющие.
17. Стационарные временные ряды.
Временной ряд у t (t=1,2,…,n) называется строго стационарным, если совместное распределение вероятностей n наблюдений у 1, у 2,…..уn такое же, как и n наблюдений у 1 + , у 2 + ,…у n + при любых n, t и , т.е. свойства строго стационарных рядов у t (закон распределения и его числовые характеристики) не зависят от момента t .
18. Степень тесноты связи между последовательностями наблюдений временного ряда у 1, у 2,…у n и у 1 + , у 2 + ,….у n + (сдвинутых относительно друг друга на единиц, т.е. с лагом ) может быть определена с помощью коэффициента корреляции
так как Е(у t) = Е(у t + ) = a, y(t) = y(t + ) = .
Так как коэффициент () измеряет корреляцию между членами одного и того же ряда, его называют коэффициентом автокорреляции, а зависимость () - автокорреляционной функцией. В силу стационарности временного ряда у t автокорреляционная функция () зависит от лага , причем ( - ) = (), т.е. при () можно ограничиться рассмотрением только положительных значений .
19. Статистической оценкой () является выборочный коэффициент автокорреляции r() , определяемый по формуле
r() = .
Функцию r() называют выборочной автокорреляционной функцией, а ее график - коррелограммой.
- «Эконометрика»
- Тема 1. Объект, предмет, сущность и основные категории эконометрики. 8
- Цели и задачи курса
- Виды занятий и методика обучения
- Формы контроля
- Учебно-тематический план . Специальность финансы и кредит 080105 (очная форма-5 лет обучения)
- Учебно-тематический план . Специальность финансы и кредит 080105 (очная форма-3.5 года обучения)
- Учебно-тематический план . Специальность финансы и кредит 080105 (очная форма-6 лет обучения)
- Образовательная программа
- Тема 2. Модели парной и множественной регрессии.
- Планы практических занятий
- Глоссарий
- Контрольные вопросы к итоговой аттестации