logo
Нелинейные регрессии

1. Линейная регрессия

Общий принцип. Простейший способ аппроксимации по МНК произвольных данных sk - с помощью полинома первой степени, т.е. функции вида y(t) = a+bt. С учетом дискретности данных по точкам tk, для функции остаточных ошибок имеем:

?(a,b) = [(a+b·tk) - sk] 2.

Дифференцируем функцию остаточных ошибок по аргументам a, b, приравниваем полученные уравнения нулю и формируем 2 нормальных уравнения системы:

(a+b·tk) - sk a1 + btk -sk = 0,

((a+b·tk) - sk) ·tk atk + btk2 - sk·tk = 0,

Решение данной системы уравнений в явной форме для К-отсчетов:

b = [Ktk·sk -tksk] / [Ktk2 - (tk) 2],

a = [sk - btk] /K.

Полученные значения коэффициентов используем в уравнении регрессии y(t) = a+bt. По аналогичной методике вычисляются коэффициенты и любых других видов регрессии, отличаясь только громоздкостью соответствующих выражений.

Реализация в Mathcad. Линейная регрессия в системе Mathcad выполняется по векторам аргумента Х и отсчетов Y функциями:

intercept(X,Y) - вычисляет параметр а, смещение линии регрессии по вертикали;

slope(X,Y) - вычисляет параметр b, угловой коэффициент линии регрессии.

Расположение отсчетов по аргументу Х произвольное. Функцией corr(X,Y) дополнительно можно вычислить коэффициент корреляции Пирсона. Чем он ближе к 1, тем точнее обрабатываемые данные соответствуют линейной зависимости.

Пример выполнения линейной регрессии приведен на рис.2.1.1

Рис.2.1.1