Опубликован: 10.09.2016 | Уровень: для всех | Доступ: платный
Лекция 3:

Множественная регрессия

3.1. Постановка задачи

Пусть дана система случайных величин (X_{1}, X_{2}, \dots, X_{n}). Для простоты будем считать, что все случайные величины центрированы, т.е. М(X_{i}) = 0.

Рассмотрим случайный вектор


а также матрицу


Математическим ожиданием матрицы, элементами которой являются случайные величины, назовем матрицу, составленную из математических ожиданий элементов исходной матрицы.

Тогда, учитывая, что

M(X_{i}X_{j}) = cov(X_{i},X_{j}),

получаем матрицу


Она называется ковариационной матрицей случайного вектора Х.

Если случайные величины X_{i} не только центрированы, но и нормированы, т.е. если M(X_{i}) = 0, D(X_{i}) = 1 (i = 1, 2, \dots , n), то cov(X_{i}, X_{j}) = r_{ij}, где r_{ij} - коэффициенты корреляции для случайных величин X_{i}, X_{j}.

Ковариационная матрица в этом случае равна


и называется корреляционной матрицей.

Ранее отмечалось, что регрессионный анализ заключается в построении математических зависимостей на основе экспериментальных данных и статистическом анализе результатов.

Рассмотрим линейную модель регрессии, использующую k-факторы,


(3.1)

где

u - номер наблюдения (u = 1, 2, \dots , N);
x_{i} = (x_{il}, x_{i2}, \dots , x_{iN})^{T} - вектор-столбец, состоящий из значений i-й переменной в N наблюдениях;
b_{i} (i = 0, 1, \dots , k) - теоретические значения коэффициентов модели;
\varepsilon _{u} - ошибка в u-м наблюдении.

Данные в N наблюдениях удобно записывать в табличном виде. Заметим, что x_{0} обычно считают фиктивной переменной, тождественно равной единице, x_{0j }= 1 (j = 1, 2, \dots , N).

Таким образом, \beta _{0} - свободный член в уравнении (3.1), а число реальных переменных, включенных в уравнение (3.1), равно k.

Стандартная процедура регрессионного анализа, выполняемого на основе метода наименьших квадратов, требует выполнения условий Гаусса - Маркова, сформулированных в главе 2.

При этих условиях, в частности, случайные ошибки eu имеют нулевое математическое ожидание, т.е. М(\varepsilon _{u}) = 0 (u = 1, 2, \dots, n), не коррелируют друг с другом и имеют одинаковые дисперсии. Другими словами, М(\varepsilon \varepsilon ^{T}) = \sigma ^{2}I, где \varepsilon = (\varepsilon _{1}, \varepsilon _{2}, \dots, \varepsilon _{n})^{T}, а I - единичная матрица.

Представим матрицу исходных данных в виде таблицы (табл. 3.1).

Таблица 3.1


Обозначим тогда y_{u} = \eta _{u} + \varepsilon _{u}, где \eta _{u} - неслучайная величина. Исходя из этого,

\sigma ^{2}(y_{u}) = \sigma ^{2}(\eta _{u} + \varepsilon _{u}) = \sigma ^{2}(\varepsilon _{u}) = \sigma ^{2}. (3.2)

Последнее условие является условием однородности (гомоскедастичности) наблюдений.

В дальнейшем мы используем часть табл. 3.1, а именно матрицу X


(3.3)

которая называется информационной матрицей или матрицей плана эксперимента.

Расчетную модель запишем в виде


(3.4)
Инесса Воробьева
Инесса Воробьева

В дисциплине "Основы эконометрики" тест 6 дается по теме 7.

Вера Борисова
Вера Борисова
Россия
Студентик Студент
Студентик Студент
Россия