Практически все галактики входят в то или иное скопление. На сегодня известны тысячи скоплений галактик. Это такие гравитационно-связанные системы, которые являются одними из самых больших структур во Вселенной. Диаметр скоплений галактик всегда превышает десятки миллионов световых лет.

Все скопления галактик можно разделить на 2 основных типа (или класса): правильные (регулярные) и неправильные (иррегулярные). Также ещё скопления галактик можно классифицировать по разным параметрам, например, по наличию ярких галактик в центре, по наличию пекулярных галактик, по числу галактик с мощным излучением и так далее.

Правильные скопления галактик

Правильные (регулярные) скопления - как правило правильной сферической формы, состоят из большого числа галактик (количество может превышать 10 тысяч), к центру этого скопления увеличивается концентрация галактик. Самые яркие члены этих скоплений относятся к E и S0. В самом центре можно обнаружить одну или две ярчайшие эллиптические галактики.

Типичным и известным представителем правильных скоплений является скопление в (показано на изображении выше). Его размеры превышают 4 Мегапарсека. Помните, что 1 парсек = 3.08567758 × 10 16 метра. Число галактик в этом скоплении - несколько десятков тысяч.

Неправильные скопления галактик

Неправильные (иррегулярные) скопления галактик имеют неправильную форму и в них часто встречаются отдельные сгущения. В скоплениях этого типа встречаются галактики всех типов.

Типичным представителем неправильных галактик является скопление в созвездии Девы. Размеры его примерно 3 Мегапарсека. Число галактик - несколько тысяч (не больше 10 тысяч).

Ещё одним хорошим примером неправильного скопления галактик является скопление в :

В этом скоплении очень много спиральных галактик, внутри которых идёт активное звёздообразование. Часть галактик сталкивается друг с другом и со временем сливаются в одну. Учёные считают, что это скопление - хороший пример того, как на раннем этапе развития Вселенной взаимодействовали между собой галактики и после отдалились друг от друга, вследствие расширения Вселенной.

Сверхскопления галактик

Изображение взято из Википедии

Крупномасштабные неоднородности в распределении галактик носят так называемый «ячеистый» характер. На стенках каждой ячейки расположено много галактик и скоплений, а внутри - большие пустые пространства. Размеры таких ячеек примерно составляют 100 Мегапарсек, толщина стенок - 3-4 Мегапарсека. Большие правильные или неправильные скопления галактик находятся в узлах этой ячеистой структуры. Отдельные участки (фрагменты) этой структуры называют сверхскоплениями . Как правило, сверхскопления имеют вытянутую или неправильную форму. На изображении выше часть сверхскоплений подписана.

Теперь вы представляете масштабы Вселенной (хотя, наверное, такое нельзя представить). Его невообразимые размеры. Это многотысячные скопления галактик, сверхскопления, внутри каждого из которых миллионы звёзд, каждая из них имеет множество планет, возможно на которых живут разумные существа. Вот только далеко нам до них и совсем не верится, что когда-нибудь мы кого-нибудь повстречаем!

Скопления галактик

70 миллионов световых лет:

Через центр скопления галактик в Деве проходит замечательная вереница галактик, известная как цепочка Маркаряна. Показанная на фото цепочка начинается вверху справа с двух больших, но невыразительных линзовидных галактик – M84 и M86. Ниже и левее находится пара взаимодействующих галактик, известных как "Глаза". Скопление галактик в Деве, членами которого являются все эти галактики – это ближайшее к нам скопление галактик. В нём – более 2000 галактик, и его гравитационное притяжение оказывает заметное влияние на Местную группу галактик, окружающую нашу Галактику Млечный Путь. Центр скопления в Деве находится на расстоянии около 70 миллионов световых лет в созвездии Девы. По крайней мере семь галактик в цепочке движутся в одном направлении, остальные, по-видимому, случайно оказались в этом месте.

100 миллионов световых лет:

Это трио галактик иногда называют группой NGC 5985/Дракона, оно находится в северном созвездии Дракона. Слева направо на фото расположены повернутая плашмя спиральная галактика NGC 5985, эллиптическая галактика NGC 5982 и, наконец, видимая с ребра спираль NGC 5981 - все они попали в одно поле зрения, поскольку расстояние меду ними чуть больше половины диаметра полной Луны. Эта группа слишком мала, чтобы быть скоплением галактик, она также не была занесена в каталоги как компактная группа. Эти галактики удалены от Земли примерно на 100 миллионов световых лет. Детальное спектрографическое исследование яркого ядра замечательной видимой плашмя спиральной галактики NGC 5985 показало заметное излучение в определенных спектральных линиях, что позволяет астрономам классифицировать эту галактику как сейфертовскую, то есть отнести её к одному из типов активных галактик. На этом глубоком изображении также видны слабые и ещё более далёкие галактики фона.


250 миллионов световых лет:

Это один из самых больших объектов нашего небосвода. Каждое из этих туманных пятнышек - галактика. Вместе они образую скопление галактик в Персее - одно из самых близких к нам скоплений галактик. Мы видим его сквозь расположенные на переднем плане слабые звёзды Млечного Пути. Почти в центре скопления, примерно в 250 миллионах световых лет от нас находится главная галактика скопления NGC 1275. На картинке эту большую галактику можно увидеть слева. NGC 1275 является поразительным источником рентгеновского и радиоизлучения. Она накапливает вещество по мере того, как не неё падает окружающий газ и другие галактики. Скопление галактик в Персее записано в каталог под именем Абель 426. Оно является частью сверхскопления Рыбы-Персей, которое занимает на небе около 15 градусов и насчитывает более 1000 галактик. На расстоянии до галактики NGC 1275 эта фото покрывает ~15 миллионов световых лет.

300 миллионов световых лет:

Галактика NGC 1132 выглядит однородной - но как она сформировалась? NGC 1132 - это эллиптическая галактика, в ней мало пыли и газа, и в ней в настоящее время почти не образуются звёзды. Хотя многие эллиптические галактики находятся в скоплениях галактик, NGC 1132 - это большая изолированная галактика в созвездии Эридана. Чтобы изучить историю этого привлекающего внимание шара из миллиардов звезд, получили изображения NGC 1132 в видимом свете с помощью космического телескопа Хаббла и в рентгеновских лучах на рентгеновской обсерватории Чандра. На этом составном фото видимое свечение показано белым, а рентгеновское излучение – голубым цветом. Рентгеновское излучение показывает неожиданное присутствие очень горячего газа, вероятно, оно также отслеживает распределение тёмной материи. Согласно одной из гипотез, NGC 1132 сформировалась в результате последовательного слияния галактик, входящих первоначально в небольшую группу галактик. Расстояние до NGC 1132 - более 300 миллионов световых лет. На фото можно увидеть также множество замечательных далеких галактик.


450 миллионов световых лет:

Эта группа галактик очень далека. До нее ~450 миллионов световых лет (скопление галактик Эйбелл S0740). Доминирует огромная центральная эллиптическая галактика ESO 325-G004. На этом четком фото, полученном телескопом Хаббла, можно увидеть множество галактик с удивительно разнообразными формами и размерами, и всего несколько звёзд ближнего фона, которые легко отличить по дифракционным лучам. Диаметр гигантской эллиптической галактики – более 100 000 световых лет, в ней почти 100 миллиардов звезд, и по размеру она сравнима с нашей спиральной галактикой. Телескоп Хаббла позволяет даже в таких далеких галактиках увидеть многие структурные детали, включая великолепные спиральные рукава и полосы пыли, звездные скопления, кольцевые структуры и дуги, возникшие в результате гравитационного линзирования.


650 миллионов световых лет:

На фото изображены галактики скопления в Геркулесе - архипелага "островов Вселенной", который находится на расстоянии 650 миллионов световых лет от нас. В этом скоплении галактик содержатся наполненные газом, пылью и областями звездообразования спиральные галактики и относительно небольшое число эллиптических галактик, в которых почти отсутствуют газ и пыль и связанные с ними только что родившиеся звезды. На этой составной картинке галактики со звездообразованием голубого цвета, а эллиптические галактики - желтоватого оттенка. На этом космическом пейзаже видно, что многие галактики сталкиваются или сливаются, а другие галактики кажутся искаженными. Это свидетельствует о том, что галактики скопления взаимодействуют. Со временем взаимодействие галактик будет влиять на состав скопления. Астрономы считают, что скопление галактик в Геркулесе очень похоже на молодые скопления, которые находятся далеко и существовали уже в ранней Вселенной. Изучая типы галактик и их взаимодействие в более близком скоплении в Геркулесе, учёные надеются разгадать эволюцию галактик и скоплений галактик.


8000 миллионов световых лет:

Это изображение группы слабых очень далеких галактик, полученное космическим телескопом им. Хаббла, является снимком молодой Вселенной. Голубоватые неправильные галактики на фото находятся на расстоянии 8 миллиардов лет от нас и проходят стадию столкновения галактик и вспышки звездообразования. Изучение этих объектов - трудная задача, потому что они очень слабые. Исследование этих галактик поможет понять, как образовался наш Млечный Путь.

10000 миллионов световых лет:

Можем ли мы посмотреть в самое начало жизни нашей Вселенной? Можем, так как свет, который пришел к нам из самого начала, пролетел всю Вселенную, и время, которое потребовалось свету достичь нас, равно возрасту Вселенной. Поэтому, наблюдая за далекими объектами, мы можем узнать, как выглядела Вселенная в начале своей жизни. Телескопы представляют собой в некотором смысле "временные ворота". При наблюдениях далеких скоплений галактик (внутри светового конуса) можно видеть, когда и как формировались эти огромные конгломераты галактик. Ранее самым далеким зарегистрированным скоплением галактик было скопление с красным смещением, равным 1.5, то есть оно находится на расстоянии 9 млрд. световых лет. Недавно, используя рентгеновские изображения, полученные на рентгеновской обсерватории Чандра и другие данные, ученые обнаружили новое самое далекое скопление. Объект, который обозначили JKCS041, показан на фото. Красное смещение скопления равно 1.9, то есть скопление находится на один миллиард световых лет дальше предыдущего рекордсмена. Горячий газ, светящийся в рентгеновских лучах, позволяет сделать вывод, что мы наблюдаем не случайную группу галактик, а настоящее скопление. На картинке газ показан синим цветом. Рентгеновское изображение газа наложено на оптическое изображение, на котором видны звезды, расположенные на переднем плане. Сейчас мы видим JKCS041 таким, каким скопление было, когда возраст Вселенной составлял только четверть настоящего возраста.

3.3. Математические ожидания и ковариации векторов и матриц

При работе с линейными моделями удобно представлять данные в виде векторов или матриц. Элементы некоторых векторов или матриц статистических линейных моделей являются случайными переменными. Определение случайной переменной было дано. Значение этой переменной зависит от случайного результата опыта.

В этой книге рассматривается такой тип векторов случайных переменных отклика, элементы которого могут быть коррелированы, а влияющие на них переменные являются контролируемыми и неслучайными. В конкретной линейной модели, влияющие на отклик переменные, имеют выбранные или полученные в результате расчёта детерминированные значения. Таким образом, в рассматриваемых линейных моделях имеются два вектора случайных переменных:

у = и e =.

Значения i -й переменной у i (i =1, 2, …, n ) отклика наблюдаются в результате проведения i -го опыта эксперимента, а значения переменной e i случайной ошибки не наблюдаются, но могут оцениваться по наблюдаемым значениям переменной отклика и значениям влияющих на неё переменных.

При рассмотрении линейных моделей широко используются векторы и матрицы случайных переменных, поэтому в первую очередь для них необходимо обобщить идеи математического ожидания, ковариации и дисперсии.

Математические ожидания

Математическое ожидание вектора у размеров п х1 случайных переменных y 1 , y 2 , ..., у п определяется как вектор их ожидаемых значений:

Е (у )=Е = = =y , (3.3.1)

где E i )=y i получается в виде E i )=, используя функцию f i (у i ) плотности вероятности безусловного распределения переменной у i .

Если х и у п х1, то, в силу (3.3.1) и (3.2.7), математическое ожидание их суммы равно сумме их математических ожиданий:

Е (х +у )=Е (х )+Е (у ). (3.3.2)

Пусть у ij (i =1, 2, ..., m ; j =1, 2, ..., п ) набор случайных переменных с ожидаемыми значениями E ij ). Выражая случайные переменные и их математические ожидания в матричной форме, можно определить общий оператор математического ожидания матрицы Y =(y ij ) размеров m хп следующим образом:

Определение 3.3.1 . Математическое ожидание матрицы Y случайных переменных равно матрице математических ожиданий её элементов

E (Y )=[E (y ij )].

По аналогии с выражением (3.3.1), ожидаемые значения матрицы Y случайных переменных представляются в виде матрицы ожидаемых значений:

E (Y )==. (3.3.3)

Вектор можно рассматривать как матрицу, следовательно, определение 3.3.1 и следующая теорема справедливы и для векторов.

Теорема 3.3.1. Если матрицы А= (а ij) размеров l хm , B= (b ij) размеров n хp , С= (c ij) размеров l хp – все имеют элементами постоянные числовые значения, а Y – матрица размеров m хn случайных переменных, то

E (AYB +C )=A E (Y )B +C . (3.3.4)

Доказательство дано в книгах [Себер (1980) стр.19; Seber, Lee (2003) стр.5]

Там же доказывается, что, если матрицы A и В размеров m хn , элементами которых являются постоянные числовые значения, а х и у - векторы случайных переменных размеров п х1, то

E (+)=A E (х )+B E (у ).

Если f (Y ) – линейная функция матрицы Y , то её ожидаемое значение находится по формуле Е [f (Y )]=f [Е (Y )] . Например, если матрицы А размеров р хm , B размеров п хр и С размеров р хр - все имеют элементами постоянные числовые значения, а матрица Y размеров т хп случайных переменных, то

E [след (AYB +C )]=след [E (AYB +C )], так как след матрицы - линейный оператор

=след [A E (Y )B +C ], так как AYB +C - линейная функция матрицы Y

=след [A E (Y )B ]+след (C ). (3.3.5)

Ковариации и дисперсии

Аналогичным образом можно обобщить понятия ковариации и дисперсии для векторов. Если векторыслучайных переменных х размеров m х1 и у размеров n х1, то ковариация этих векторов определяется следующим образом.

Определение 3.3. 2 . Ковариацией векторов х и у случайных переменных является прямоугольная матрица ковариаций их элементов

C (х , у )=[C i , у j )].

Теорема 3.3.2. Если случайные векторы х и у имеют векторы математических ожиданий E (x )=x и Е (у )=y , то их ковариация

C (х , у )=E [(x x )(y y ) T ].

Доказательство:

C (х , у )=[C i , у j )]

={E [(х i –x i )(y j –y j )]} [в силу (3.2.9)]

=E [(x x )(y y ) T ]. [по определению 3.3.1]

Применим эту теорему для нахождения матрицы ковариаций векторов х размеров 3х1 и у размеров 2х1

C (х , у )=E [(x x )(y y ) T ]

=E

=Е

=.

Определение 3.3. 3 . Если х =у , то матрица ковариаций C (у , у ) записывается в виде D (у )=E [(y y )(y y ) T ] и называется матрицей дисперсий и ковариаций вектора у . Таким образом ,

D (у )=E [(y y )(y y ) T ]=[C i , у j )]

=. (3.3.4)

А так как C i , у j )=C j , у i ), то матрица (3.3.4) симметричная и квадратная.

Матрица дисперсий и ковариаций вектора у представляется в виде ожидаемого значения произведения (y y )(y y ) T . В силу (П.2.13), произведение (y i y i )(y j y j ) является (ij )-м элементом матрицы (y y )(y y ) T . Таким образом, в силу (3.2.9) и (3.3.4), математическое ожидание E [(y i y i )(y j y j )]=s ij является (ij )-м элементом Е [(y y )(y y ) T ]. Отсюда

E [(y y )(y y ) T ]=. (3.3.5)

Дисперсии s 11 , s 22 , ..., s пп переменных y 1 , y 2 , ..., у п и их ковариации s ij , для всех i j , могут быть удобно представлены матрицей дисперсий и ковариаций, которая иногда называется ковариационной матрицей и обозначается прописной буквой S строчной s:

S =D (у )= (3.3.6)

В матрице S i- я строка содержит дисперсию переменной у i и её ковариации с каждой из остальных переменных вектора у . Чтобы быть последовательными с обозначением s ij , используем для дисперсий s ii =s i 2 , где i =1, 2, ..., n . При этом дисперсии расположены по диагонали матрицы S и ковариации занимают позиции за пределами диагонали. Отметим различие в значении между обозначениями D (у )=S для вектора и С i , у j )=s ij для двух переменных.

Матрица S дисперсий и ковариаций симметричная, так как s ij =s ji [см. (3.2.9)]. Во многих приложениях полагается, что матрица S положительно определённая . Это обычно верно, если рассматриваются непрерывные случайные переменные, и между ними нет линейных зависимостей. Если между переменными есть линейные зависимости, то матрица S будет неотрицательно определённой .

Для примера найдём матрицу дисперсий и ковариаций вектора у размеров 3х1

D (у )=E [(y y )(y y ) T ]

=E

=E

=
.

=.

Как следует из определения 3.3.3,

D (у )=E [(у y )(y y ) T ], (3.3.7)

что после подобного сделанному в (3.2.4) преобразованию приводится к выражению

D (y )=E (yy T)–yy T . (3.3.8)

Последние два выражения являются естественным обобщением одномерных результатов данных выражениями (3.2.2) и (3.2.4).

Пример 3.3.1. Если а - какой-либо вектор числовых значений тех же размеров п х1, что и вектор у , то

D (y а )=D (y ).

Это следует из того, что y i a i E (y i a i )=y i a i E (y i )+a i =y i E (y i ), так что

C (y i a i , y j a j )=C (y i , y j ).

Напомним, что симметричная матрица А является положительно определенной, если для всех векторов у 0 квадратичная форма у Т Ау >0. В дальнейшем будет использоваться часто следующая теорема.

Теорема 3.3.3. Если у - вектор случайных переменных, в котором ни одна из переменных не является линейной комбинации остальных, то есть, нет вектора а 0 и числа b таких, что а Т у =b для любого у , то D (у )=S - положительно определенная матрица.

Доказательство этой теоремы дано в [Себер (1980) стр.22].

Обобщенная дисперсия и нормированный вектор

Матрица S содержит дисперсии и ковариации всех п случайных переменных вектора у и всесторонне представляет полную их вариацию. Обобщённой мерой, характеризующей вариацию случайных переменных вектора у , может служить определитель матрицы S :

Обобщенная дисперсия =det(S ). (3.3.9)

В качестве статистики обобщённой дисперсии используется обобщённая выборочная дисперсия, определяемая детерминантом матрицы S=Y T (I Е /n )Y /(n –1) вариаций и ковариаций выборочных значений переменных вектора у , представленных матрицей Y =[y 1 , y 2 , …, y k ], где её столбцы составлены из векторов значений переменных вектора у :

Обобщенная выборочная дисперсия =det(S ). (3.3.10)

Если det(S ) малый, то значения переменных вектора у располагаются ближе к их усреднённым значениям вектора , чем, если бы det(S )был большим. Малое значение det(S ) может указывать также на то, что переменные y 1 , y 2 ,..., у п вектора у сильно взаимно коррелированы и стремятся занимать подпространство меньшее, чем п измерений, что соответствует одному или большему числу малых собственных значений .

Для получения полезной меры разности между векторами у и y необходимо учитывать дисперсии и ковариации переменных вектора у . Как для одной нормированной случайной переменной, получаемой по формуле z=(у–y )/s и имеющей среднее равное 0 и дисперсию равную 1, нормированная разность между векторами у и y определяется в виде

Нормированная разность =(у y ) Т S –1 (у y ). (3.3.11)

Использование матрицы S –1 в этом выражении нормирует (трансформирует) переменные вектора у так, что нормированные переменные имеют средние равные 0 и дисперсии равные 1, а также становятся и некоррелированными. Это получается потому, что матрица S положительно определённая. По теореме П.6.5 её обратная матрица тоже положительно определённая. В силу (П.12.18), матрица S –1 =S –1/2 S –1/2 . Отсюда

(у y ) Т S –1 (у y )=(у y ) Т S –1/2 S –1/2 (у y )

=[S –1/2 (у y )] Т [S –1/2 (у y )]

=z Т z ,

где z =S –1/2 (у y ) - вектор нормированных случайных переменных. Математическое ожидание вектора z получается

Е (z )=Е [S –1/2 (у y )]=S –1/2 [Е (у )–y ]=0

и его дисперсия

D (z )=D [S –1/2 (у y )]=S –1/2 D (у y )S –1/2 =S –1/2 SS –1/2 =S –1/2 S 1/2 S 1/2 S –1/2 =I .

Следовательно, по пункту 2 теоремы 4.5.2 следующей главы вектор S –1/2 (у y ) имеет нормальное распределение N (0 , I ).

Для нормированной разности, как параметра, есть соответствующая статистика, а именно, выборочная нормированная дистанция, определяемая формулой (у –) Т S –1 (у –) и называемая часто дистанцией Махаланобиса . Некоторый п -мерный гиперэллипсоид (у –) Т S –1 (у –)=а 2 , центрированный вектором и базирующийся на S –1 для нормирования расстояния до центра, содержит выборочные значения переменных вектора у . Гиперэллипсоид (у –) Т S –1 (у –) имеет оси пропорциональные квадратным корням собственных значений матрицы S . Можно показать, что объём гиперэллипсоида пропорционален 1/2 . Если минимальное собственное значение матрицы S равно нулю, то в этом направлении нет оси и гиперэллипсоид расположен в (п –1)-мерном подпространстве п -мерного пространства. Следовательно, его объём в п -мерном пространстве равен 0. Нулевое собственное значение указывает на избыточность переменных вектора у . Для устранения этого необходимо убрать одну или более переменных, являющихся линейными комбинациями остальных.

Мы рассказали о сути преобразования девиации и его применении к матрице квадратов расстояний. Во второй немного напустили туману на спектры простых геометрических наборов.

В данной статье мы постараемся раскрыть смысл преобразования девиации, для чего обратимся к прикладным задачам, связанным с обработкой и анализом данных. Покажем, как связано преобразование девиации матрицы расстояний со статистикой - с дисперсией , корреляцией и ковариацией .

7. Центрирование и нормирование одномерных координат

Разминку проведем на простом и всем понятном - центрировании и нормировании данных. Пусть у нас есть ряд чисел . Тогда операция центрирования сводится к нахождению среднего (центроида набора)

И построению нового набора как разности между исходными числами и их центроидом (средним):

Центрирование - это первый шаг к собственной системе координат (ССК) исходного набора, поскольку сумма центрированных координат равна 0. Вторым шагом является нормирование суммы квадратов центрированных координат к 1. Для выполнения данной операции нам нужно вычислить эту сумму (точнее среднее):

Теперь мы можем построить ССК исходного набора как совокупность собственного числа S и нормированных чисел (координат):

Квадраты расстояний между точками исходного набора определяются как разности квадратов компонент собственного вектора, умноженные на собственное число. Обратим внимание на то, что собственное число S оказалось равно дисперсии исходного набора (7.3).

Итак, для любого набора чисел можно определить собственную систему координат, то есть выделить значение собственного числа (она же дисперсия) и рассчитать координаты собственного вектора путем центрирования и нормирования исходных чисел. Круто.

Упражнение для тех, кто любит «щупать руками». Построить ССК для набора {1, 2, 3, 4}.

Ответ.

Собственное число (дисперсия): 1.25.
Собственный вектор: {-1.342, -0.447, 0.447, 1.342}.

8. Центрирование и ортонормирование многомерных координат

Что, если вместо набора чисел нам задан набор векторов - пар, троек и прочих размерностей чисел. То есть точка (узел) задается не одной координатой, а несколькими. Как в этом случае построить ССК?

Да, можно построить матрицу квадратов расстояний, потом определить матрицу девиации и рассчитать для нее спектр. Но об этом мы узнали не так давно . Обычно поступали (и поступают) по другому.

Введем обозначение компонент набора. Нам заданы точки (узлы, переменные, векторы, кортежи) и каждая точка характеризуется числовыми компонентами . Обращаем внимание, что второй индекс - это номер компоненты (столбцы матрицы), а первый индекс - номер точки (узла) набора (строки матрицы).

Мы получили матрицу центрированных данных (МЦД) .
Следующим шагом нам как будто бы надо вычислить дисперсию для каждой компоненты и их нормировать. Но мы этого делать не будем. Потому что хотя таким образом мы действительно получим нормированные векторы, но нам-то нужно, чтобы эти векторы были независимыми, то есть ортонормированными . Операция нормирования не поворачивает вектора (а лишь меняет их длину), а нам нужно развернуть векторы перпендикулярно друг другу. Как это сделать?

Правильный (но пока бесполезный) ответ - рассчитать собственные вектора и числа (спектр). Бесполезный потому, что мы не построили матрицу, для которой можно считать спектр. Наша матрица центрированных данных (МЦД) не является квадратной - для нее собственные числа не рассчитаешь. Соответственно, нам надо на основе МЦД построить некую квадратную матрицу. Это можно сделать умножением МЦД на саму себя (возвести в квадрат).

Но тут - внимание! Неквадратную матрицу можно возвести в квадрат двумя способами - умножением исходной на транспонированную . И наоборот - умножением транспонированной на исходную. Размерность и смысл двух полученных матриц - разный.

Умножая МЦД на транспонированную, мы получаем матрицу корреляции:

Из данного определения (есть и другие) следует, что элементы матрицы корреляции являются скалярными произведениями центрированных векторов. Соответственно, элементы главной диагонали отражают квадрат длины данных векторов.
Значения матрицы - не нормированы (обычно их нормируют, но для наших целей этого не нужно). Размерность матрицы корреляции совпадает с количеством исходных точек (векторов).

Теперь переставим перемножаемые в (8.1) матрицы местами и получим матрицу ковариации (опять же опускаем множитель 1/(1-n) , которым обычно нормируют значения ковариации):

Здесь перемножаются компоненты (а не векторы). Соответственно, размерность матрицы ковариации равна количеству исходных компонент. Для пар чисел матрица ковариации имеет размерность 2x2, для троек - 3x3 и т.д.

Почему важна размерность матриц корреляции и ковариации? Фишка в том, что поскольку матрицы корреляции и ковариации происходят из произведения одного и того же вектора, то они имеют один и тот же набор собственных чисел, один и тот же ранг (количество независимых размерностей) матрицы. Как правило, количество векторов (точек) намного превышает количество компонент. Поэтому о ранге матриц судят по размерности матрицы ковариации.

Диагональные элементы ковариации отражают дисперсию компонент. Как мы видели выше, дисперсия и собственные числа тесно связаны. Поэтому можно сказать, что в первом приближении собственные числа матрицы ковариации (а значит, и корреляции) равны диагональным элементам (а если межкомпонентная дисперсия отсутствует, то равны в любом приближении).

Если стоит задача найти просто спектр матриц (собственные числа), то удобнее ее решать для матрицы ковариации, поскольку, как правило, их размерность небольшая. Но если нам необходимо найти еще и собственные вектора (определить собственную систему координат) для исходного набора, то необходимо работать с матрицей корреляции, поскольку именно она отражает перемножение векторов. Возможно, что оптимальным алгоритмом является сочетание диагонализаций двух матриц - сначала нашли собственные числа для ковариации и потом на их основе определили собственные вектора матрицы корреляции.

Ну и раз уж мы так далеко зашли, то упомянем, что пресловутый метод главных компонент как раз и состоит в расчете спектра матрицы ковариации/корреляции для заданного набора векторных данных. Найденные компоненты спектра располагаются вдоль главных осей эллипсоида данных. Из нашего рассмотрения это вытекает потому, что главные оси - это и есть те оси, дисперсия (разброс) данных по которым максимален, а значит, и максимально значение спектра.

Правда, могут быть и отрицательные дисперсии, и тогда аналогия с эллипсоидом (псевдоэллипсоидом?) уже не очевидна.

9. Матрица девиации расстояний - это матрица корреляции векторов

Все это прекрасно, но причем здесь преобразование девиации?

Рассмотрим ситуацию, когда нам известен не набор чисел (векторов), характеризующих некоторые точки (узлы), а набор расстояний между точками (причем между всеми). Достаточно ли данной информации для определения ССК (собственной системы координат) набора?

Ответ мы дали в первой части - да, вполне. Здесь же мы покажем, что построенная по формуле (1.3") матрица девиации квадратов расстояний и определенная нами выше матрица корреляции центрированных векторов (8.1) - это одна и та же матрица .

Как такое получилось? Сами в шоке. Чтобы в этом убедиться, надо подставить выражение для элемента матрицы квадратов расстояний

В формулу преобразования девиации:

Отметим, что среднее значение матрицы квадратов расстояний отражает дисперсию исходного набора (при условии, что расстояния в наборе - это сумма квадратов компонент):

Подставляя (9.1) и (9.3) в (9.2), после несложных сокращений приходим к выражению для матрицы корреляции (8.1):

Итак, мы убедились, что применяя операцию девиации к матрице евклидовых расстояний, мы получаем известную матрицу корреляции. Ранг матрицы корреляции совпадает с рангом матрицы ковариации (количеством компонент евклидового пространства). Именно это обстоятельство позволяет нам строить спектр и собственную систему координат для исходных точек на основе матрицы расстояний.

Для произвольной матрицы расстояний (необязательно евклидовой) потенциальный ранг (количество измерений) на единицу меньше количества исходных векторов. Расчет спектра (собственной системы координат) позволяет определить основные (главные) компоненты, влияющие на расстояния между точками (векторами).

Матрица расстояний между городами, например, заведомо неевклидова, - никаких компонент (характеристик городов) не задано. Преобразование девиации тем не менее позволяет определить спектр такой матрицы и собственные координаты городов.

Но уже не в этой статье. Здесь пока все, спасибо за уделенное время.

Вариации оценок параметров будут, в конечном счете, определять точность уравнения множественной регрессии. Для их измерения в многомерном регрессионном анализе рассматривают так называемую ковариационную матрицу вектора оценок параметров E n , являющуюся матричным аналогом дисперсии одной переменной:

В общем виде многомерная линейная регрессионная модель зависимости y от объясняющих переменных,…, имеет вид:

Для оценки неизвестных параметров взята случайная выборка объема n из (k+1)-мерной случайной величины (y,…,).

В матричной форме модель имеет вид:

  • - вектор-столбец фактических значений зависимой переменной размерности n;
  • - матрица значений объясняющих переменных размерности n*(k+1);
  • - вектор-столбец неизвестных параметров, подлежащих оценке, размерности (k+1);
  • - вектор-столбец случайных ошибок размерности n с математическим ожиданием ME=0 и ковариационной матрицей соответственно, при этом

Единичная матрица размерности (nxn).

Оценки неизвестных параметров находятся методом наименьших квадратов, минимизируя скалярную сумму квадратов по компонентам вектора в.

получаем скалярную сумму квадратов

Условием обращения полученной суммы в минимум является система нормальных уравнений:

, (j=0,1,2,…,k).

В результате дифференцирования получается:

При замене вектора неизвестных параметров в на оценки, полученные методом наименьших квадратов, получаем следующее выражение :

Полученные оценки вектора b являются не смещенными и эффективными.

Ковариационная матрица вектора b имеет вид:

где - остаточная дисперсия.

Ковариационная матрица может быть любого размера. Пусть - числа, ошибками которых являются. Вычислим дисперсии и ковариации

Из них также можно построить ковариационную матрицу

Эта матрица обладает свойством симметрии где “Т” - знак транспонирования - замена строк матрицы столбцами или наоборот.

Элементы главной диагонали этой матрицы представляют собой дисперсии вектора оценок b. Остальные элементы являются значениями коэффициентов ковариации:

Таким образом, оценка - это линейная функция от зависимой переменной. Она имеет нормальное распределение с математическим ожиданием и дисперсией.

Несмещенная оценка остаточной дисперсии определяется по формуле:

где n - объем выборочной совокупности;

k - число объясняющих переменных.

Для проверки значимости уравнения регрессии используют F-критерий дисперсионного анализа, основанного на разложении общей суммы квадратов отклонений на составляющие части:

где - сумма квадратов отклонений (от нуля), обусловленная регрессией;

Сумма квадратов отклонений фактических значений зависимой переменной от расчетных, т.е. сумма квадратов отклонений относительно плоскости регрессии, обусловленное воздействием случайных и неучтенных в модели факторов.

Для проверки гипотезы используется величина

которая имеет F-распределение Фишера-Снедекора с числом степеней свободы и. Если, то уравнение регрессии значимо, т.е. в уравнении есть хотя бы один коэффициент регрессии, отличный от нуля.

В случае значимости уравнения регрессии проверяется значимость отдельных коэффициентов регрессии. Для проверки нулевой гипотезы используется величина

которая имеет F-распределение Фишера-Снедекора с числом степеней свободы и; - соответствующий элемент главной диагонали ковариационной матрицы.

Коэффициент регрессии считается значимым, если. Для значимых коэффициентов регрессии можно построить доверительные интервалы, используя формулу

где находится по таблице распределения Стьюдента для уровня значимости и числа степеней свободы.

В многошаговом регрессионном анализе наиболее известны три подхода:

  • 1. Метод случайного поиска с адаптацией. Осуществляется путем построения нескольких уравнений регрессии на основе формально разработанного принципа включения факторов и последующего выбора лучшего уравнения с точки зрения определенного критерия.
  • 2. Метод включения переменных, основанный на построении уравнения регрессии по одному значимому фактору и последовательном добавлении всех остальных статистически значимых переменных путем расчета частных коэффициентов корреляции и F-критерия при проверке значимости вводимого в модель фактора
  • 3. Метод отсева факторов по t-критерию. Данный метод заключается в построении уравнений регрессии по максимально возможному количеству объясняющих переменных и последующем исключении статистически не существенных факторов.