Основы математической статистики. Лекция 3
Лекция- Математика
Другие лекции курса
Комментарии
13:55 Утверждение #1. Умножение случайного вектора многомерного стандартного нормального распределения на ортогональную матрицу не меняет распределение вектора.
Доказательство. Координаты Yj нового вектора выражается в старых Yj=∑aij∙Xi, ортогональная матрица задана коэффициентами aij, так как математическое ожидание случайной величины Xi равно нулю, то и у с.в.Yj оно тоже ноль. Посчитаем дисперсию D(Yj)=D(∑aij∙Xi)=∑aij^2∙D(Xi)=(∑aij^2)D(X), так как вектор (a1j, a2j, ..., anj) при ∀j является столбцом ортогональной матрицы, он имеет единичную длину, следовательно D(Yj)=D(X)=1 для ∀j. Принимая во внимание, что линейная комбинация нормально распределённых случайных величин также является нормально распределённой, утверждение доказано.
Перейдём от исходного ортонормированного базиса {ei} к новому тоже ортонормированному {e'i}, такому что координаты нового орта e'n=(1/√n, 1/√n, ..., 1/√n), в остальном достаточно произвольному. Переход от одного ортонормированного базиса к другому осуществляется при помощи умножения координат векторов на ортогональную матрицу. По утверждению #1 случайный вектор в новом базисе будет иметь тоже стандартное нормальное распределение, а проекция на гиперплоскость перпендикулярную к орту e'n есть просто обнуление n-го координатного коэффициента у случайного вектора в новых координатах.
P.S. Дубль комментария с youtube.
В доказательстве утверждения #1 осталось показать, что Yj независимы между собой, в данном случае это эквивалентно некоррелированности. Нетрудно увидеть, что ковариация случайных величин равна нулю, если вспомнить, что скалярное произведение различных столбцов (строк) ортогональной матрицы равно нулю. (aj, ak)=∑aij∙aik=0, j≠k
cov(Yj, Yk)=E(Yj Yk)=E( (∑aij∙Xi)(∑aik∙Xi) )=0