1. Линейная регрессия
Общий принцип. Простейший способ аппроксимации по МНК произвольных данных sk - с помощью полинома первой степени, т.е. функции вида y(t) = a+bt. С учетом дискретности данных по точкам tk, для функции остаточных ошибок имеем:
?(a,b) = [(a+b·tk) - sk] 2.
Дифференцируем функцию остаточных ошибок по аргументам a, b, приравниваем полученные уравнения нулю и формируем 2 нормальных уравнения системы:
(a+b·tk) - sk a1 + btk -sk = 0,
((a+b·tk) - sk) ·tk atk + btk2 - sk·tk = 0,
Решение данной системы уравнений в явной форме для К-отсчетов:
b = [Ktk·sk -tksk] / [Ktk2 - (tk) 2],
a = [sk - btk] /K.
Полученные значения коэффициентов используем в уравнении регрессии y(t) = a+bt. По аналогичной методике вычисляются коэффициенты и любых других видов регрессии, отличаясь только громоздкостью соответствующих выражений.
Реализация в Mathcad. Линейная регрессия в системе Mathcad выполняется по векторам аргумента Х и отсчетов Y функциями:
intercept(X,Y) - вычисляет параметр а, смещение линии регрессии по вертикали;
slope(X,Y) - вычисляет параметр b, угловой коэффициент линии регрессии.
Расположение отсчетов по аргументу Х произвольное. Функцией corr(X,Y) дополнительно можно вычислить коэффициент корреляции Пирсона. Чем он ближе к 1, тем точнее обрабатываемые данные соответствуют линейной зависимости.
Пример выполнения линейной регрессии приведен на рис.2.1.1
Рис.2.1.1