Ковариация и коэффициент корреляции. Числовые характеристики системы двух случайных величин. Корреляционный момент. Коэффициент корреляции

В главе 5 мы ввели в рассмотрение числовые характеристики одной случайной величины - начальные и центральные моменты различных порядков. Из этих характеристик важнейшими являются две: математическое ожидание и дисперсия .

Аналогичные числовые характеристики - начальные и центральные моменты различных порядков - можно ввести и для системы двух случайных величин.

Начальным моментом порядка , системы называется математическое ожидание произведения на :

. (8.6.1)

Центральным моментом порядка системы называется математическое ожидание произведения -й и -й степени соответствующих центрированных величин:

, (8.6.2)

Выпишем формулы, служащие для непосредственного подсчета моментов. Для прерывных случайных величин

, (8.6.3)

, (8.6.4)

где - вероятность того, что система примет значения , а суммирование распространяется по всем возможным значениям случайных величин , .

Для непрерывных случайных величин:

, (8.6.5)

, (8.6.6)

где - плотность распределения системы.

Помимо и , характеризующих порядок момента по отношению к отдельным величинам, рассматривается еще суммарный порядок момента , равный сумме показателей степеней при и . Соответственно суммарному порядку моменты классифицируются на первые, вторые и т. д. На практике обычно применяются только первые и вторые моменты.

Первые начальные моменты представляют собой уже известные нам математические ожидания величин и , входящих в систему:

Совокупность математических ожиданий представляет собой характеристику положения системы. Геометрически это координаты средней точки на плоскости, вокруг которой происходит рассеивание точки .

Кроме первых начальных моментов, на практике широко применяются еще вторые центральные моменты системы. Два из них представляют собой уже известные нам дисперсии величин и :

характеризующие рассеивание случайной точки в направлении осей и .

Особую роль как характеристика системы играет второй смешанный центральный момент:

,

т.е. математическое ожидание произведения центрированных величин.

Ввиду того, что этот момент играет важную роль в теории, введем для него особое обозначение:

. (8.6.7)

Характеристика называется корреляционным моментом (иначе - «моментом связи») случайных величин , .

Для прерывных случайных величин корреляционный момент выражается формулой

, (8.6.8)

а для непрерывных - формулой

. (8.6.9)

Выясним смысл и назначение этой характеристики.

Корреляционный момент есть характеристика системы случайных величин, описывающая, помимо, рассеивания величин и , еще и связь между ними. Для того чтобы убедиться в этом, докажем, что для независимых случайных величин корреляционный момент равен нулю.

Доказательство проведем для непрерывных случайных величин. Пусть , - независимые непрерывные величины с плотностью распределения . В 8.5 мы доказали, что для независимых величин

. (8.6.10)

где , - плотности распределения соответственно величин и .

Подставляя выражение (8.6.10) в формулу (8.6.9), видим, что интеграл (8.6.9) превращается в произведение двух интегралов:

.

Интеграл

представляет собой не что иное, как первый центральный момент величины , и, следовательно, равен нулю; по той же причине равен нулю и второй сомножитель; следовательно, для независимых случайных величин .

Таким образам, если корреляционный момент двух случайных величин отличен от нуля, это есть признак наличия зависимости между ними.

Из формулы (8.6.7) видно, что корреляционный момент характеризует не только зависимость величин, но и их рассеивание. Действительно, если, например, одна из величин весьма мало отклоняется от своего математического ожидания (почти не случайна), то корреляционный момент будет мал, какой бы тесной зависимостью ни были связаны величины . Поэтому для характеристики связи между величинами в чистом виде переходят от момента к безразмерной характеристике

где , - средние квадратические отклонения величин , . Эта характеристика называется коэффициентом корреляции величин и . Очевидно, коэффициент корреляции обращается в ноль одновременно с корреляционным моментом; следовательно, для независимых случайных величин коэффициент корреляции равен нулю.

Случайные величины, для которых корреляционный момент (а значит, и коэффициент корреляции) равен нулю, называются некоррелированными (иногда – «несвязанными»).

Выясним, эквивалентно ли понятие некоррелированности случайных величин понятию независимости. Выше мы доказали, что две независимые случайные величины всегда являются некоррелированными. Остается выяснить: справедливо ли обратное положение, вытекает ли из некоррелированности величин их независимость? Оказывается - нет. Можно построить примеры таких случайных величин, которые являются некоррелированными, но зависимыми. Равенство нулю коэффициента корреляции - необходимое, но не достаточное условие независимости случайных величин. Из независимости случайных величин вытекает их некоррелированность; напротив, из некоррелированности величин еще не следует их независимость. Условие независимости случайных величин – более жесткое, чем условие некоррелированности.

Убедимся в этом на примере. Рассмотрим систему случайных величин , распределенную с равномерной плотностью внутри круга радиуса с центром в начале координат (рис.8.6.1).

Плотность распределения величин выражается формулой

Из условия находим .

Нетрудно убедиться, что в данном примере величины являются зависимыми. Действительно, непосредственно ясно, что если величина приняла, например, значение 0, то величина может с равной вероятностью принимать все значения от до ; если же величина приняла значение , то величина может принять только одно-единственное значение, в точности равное нулю; вообще, диапазон возможных значений зависит от того, какое значение приняла .

Посмотрим, являются ли эти величины коррелированными. Вычислим корреляционный момент. Имея в виду, что по соображениям симметрии , получим:

. (8.6.12)

Для вычисления интеграла разобьем область интегрирования (круг ) на четыре сектора , соответствующие четырем координатным углам. В секторах и подынтегральная функция положительна, в секторах и - отрицательна; по абсолютной же величине интегралы по этим секторам равны; следовательно, интеграл (8.6.12) равен нулю, и величины не коррелированы.

Таким образом, мы видим, что из некоррелированности случайных величин не всегда следует их независимость.

Коэффициент корреляции характеризует не всякую зависимость, а только так называемую линейную зависимость. Линейная вероятностная зависимость случайных величин заключается в том, что при возрастании одной случайной величины другая имеет тенденцию возрастать (или же убывать) по линейному закону. Эта тенденция к линейной зависимости может быть более или менее ярко выраженной, более или менее приближаться к функциональной, т. е. самой тесной линейной зависимости. Коэффициент корреляции характеризует степень тесноты линейной зависимости между случайными величинами. Если случайные величины и связаны точной линейной функциональной зависимостью:

то , причем знак «плюс» или «минус» берется в зависимости от того, положителен или отрицателен коэффициент . В общем случае, когда величины и связаны произвольной вероятностной зависимостью, коэффициент корреляции может иметь значение в пределах: меняется только диапазон изменения , а его среднее значение не меняется; естественно, величины оказываются некоррелированными.

Рис. 8.6.2 Рис.8.6.3

Приведем несколько примеров случайных величин с положительной и отрицательной корреляцией.

1. Вес и рост человека связаны положительной корреляцией.

2. Время, потраченное на регулировку прибора при подготовке его к работе, и время его безотказной работы связаны положительной корреляцией (если, разумеется, время потрачено разумно). Наоборот, время, потраченное на подготовку, и количество неисправностей, обнаруженное при работе прибора, связаны отрицательной корреляцией.

3. При стрельбе залпом координаты точек попадания отдельных снарядов связаны положительной корреляцией (так как имеются общие для всех выстрелов ошибки прицеливания, одинаково отклоняющие от цели каждый из них).

4. Производится два выстрела по цели; точка попадания первого выстрела регистрируется, и в прицел вводится поправка, пропорциональная ошибке первого выстрела с обратным знаком. Координаты точек попадания первого и второго выстрелов будут связаны отрицательной корреляцией.

Если в нашем распоряжении имеются результаты ряда опытов над системой случайных величин , то о наличии или отсутствии существенной корреляции между ними легко судить в первом приближении по графику, на котором изображены в виде точек все полученные из опыта пары значений случайных величин. Например, если наблюденные пары значений величин расположились так, как показано на рис. 8.6.2, то это указывает на наличие явно выраженной положительной корреляции между величинами. Еще более ярко выраженную положительную корреляцию, близкую к линейной функциональной зависимости, наблюдаем на рис. 8.6.3. На рис. 8.6.4 показан случай сравнительно слабой отрицательной корреляции. Наконец, на рис. 8.6.5 иллюстрируется случай практически некоррелированных случайных величин. На практике, перед тем, как исследовать корреляцию случайных величин, всегда полезно предварительно построить наблюденные пары значений на графике для первого качественного суждения о типе корреляции.

Числовые характеристики системы двух случайных величин. Корреляционный момент. Коэффициент корреляции

Мы ввели в рассмотрение числовые характеристики одной случайной величины Х - начальные и центральные моменты различных порядков. Из этих характеристик важнейшими являются две: математическое ожидание m x и дисперсия Dx.

Аналогичные числовые характеристики - начальные и центральные моменты различных порядков - можно ввести и для системы двух случайных величин. Начальным моментом порядка k, s системы (X, Y) называется математическое ожидание произведения Х k на Y s :

M[Х k Y s ]

Центральным моментом порядка k, s системы (X, Y) назы­вается математическое ожидание произведения k-й и s-й степени соответствующих центрированных величин:

На практике обычно применяются только первые и вторые моменты.

Первые начальные моменты представляют собой уже известные нам математические ожидания величин Х и Y, входящих в систему:

m x и m y

Совокупность математических ожиданий m x , m y представляет собой характеристику положения системы. Геометрически это коор­динаты средней точки на плоскости, вокруг которой происходит рас­сеивание точки (X. Y).

Кроме первых начальных моментов, на практике широко при­меняются еще, вторые центральные моменты системы. Два из них представляют собой уже известные нам дисперсии величин Х и Y.

D[X] и D [Y], характеризующие рассеивание случайной точки в направлении осей Ох а Оу.

Особую роль как характеристика системы играет второй сме­шанный центральный момент:

μ 1,1 = М ,

т. е. математическое ожидание произведения центрированных величин. Ввиду того, что этот момент играет важную роль в теории систем случайных величин для него введено особое обозначение:

Кху =М[Х 0 Y 0 ]=M[(X-m x )(Y- m y )].

Характеристика Кxy называется корреляционным моментом (иначе - «моментом связи») случайных величин X, Y.

Для дискретных случайных величин корреляционный момент вы­ражается формулой

Кху =Σ Σ(x i -m x )(y j -m y ) p ij

Выясним смысл и назначение этой характеристики. Корреляционный момент есть характеристика системы случайных величин, описывающая, помимо рассеивания величин Х и Y, еще и связь между ними. Для независимых случайных величин корреляционный момент равен нулю.

Таким образом, если корреляциснный момент двух случайных величин отличен от нуля, это есть признак наличия зависи­мости между ними.

Из формулы видно, что корреляционный момент характе­ризует не только зависимость величин, но и их рассеивание. Дей­ствительно, если, например, одна из величин (X, Y) весьма мало отклоняется от своего математического ожидания (почти не случайна), то корреляционный момент будет мал, какой бы тесной зависимостью ни были связаны величины (X, Y). Поэтому для характеристики связи между величинами (X, Y) в чистом виде переходят от момента к безразмерной характеристике

rху=Кху/σх σу

где σх, σу - средние квадратические отклонения величин X, Y. Эта характеристика называется коэффициентом корреляции величин Х и Y.

Очевидно, коэффициент корреляции обращается в нуль одновременно с корреляционным моментом; следовательно, для не­зависимых случайных величин коэффициент корреляции равен нулю.

Случайные величины, для которых корреляционный момент (а зна­чит, и коэффициент корреляции) равен нулю, называются некорре­лированными (иногда - «несвязанными»).

Эквивалентно ли понятие некоррелированности случайных величин понятию независимости. Известно, что независимые случайные величины всегда являются некоррелированными. Остается выяснить: справедливо ли обрат­ное положение, вытекает ли из некоррели­рованности величин их независимость? Оказывается - нет. Существуют такие случайные величины, которые являются некоррелированными, но зави­симыми. Равенство нулю коэффициента корреляции - необходимое, но не доста­точное условие независимости случайных величин. Из независимости случайных величин вытекает их некоррелирован­ность; напротив, из некоррелированности величии еще не следует их независимость. Условие неза­висимости случайных величин-более жесткое, чем условие некор­релированности.

Коэффициент корреляции характеризует не всякую зависимость, а только так называемую линейную зависимость. Линейная вероятност­ная зависимость случайных величин заключается в том, что при возрастании одной случайной величины другая имеет тенденцию возрастать (или же убывать) по линейному закону. Эта тенденция к линейной зависимости может быть более или менее ярко выражен­ной, более или менее приближаться к функциональной, т. е. самой тесной линейной зависимости. Коэффициент корреляции характе­ризует степень тесноты линейной зависимости между случайными величинами. Если случайные величины Х и Y связаны точной линейной функциональной зависимостью:

У=аХ + в, то rху = ±1, причем знак «плюс» или «минус» берется в зависимости от того, положителен или отрицателен коэффициент а. В общем случае, когда величины Х и Y связаны произвольной вероятностной зависимостью, коэффициент корреляции может иметь значение в пре­делах:

1 < rху < 1

В случае r > 0 говорят о положительной корреляции вели­чин Х и Y, в случае г<0 - об отрицательной корреляции. Положительная корреляция между случайными величинами озна­чает, что при возрастании одной из них другая имеет тенденцию в среднем возрастать; отрицательная корреляция означает, что при возрастании одной из случайных величин другая имеет тенденцию в среднем убывать.

Приведем несколько примеров случайных величин с положитель­ной и отрицательной корреляцией.

1.Вес и рост человека связаны положительной корреляцией.

2.Время, потраченное на подготовку к занятиям, и полученная оценка связаны положитель­ной корреляцией (если, разумеется, время потрачено разумно). Наоборот, время, потраченное на подготовку, и количество полученных двоек, связаны отрицательной корреляцией.

3. Производится два выстрела по цели; точка попадания первого выстрела регистрируется, и в прицел вводится поправка, пропорцио­нальная ошибке первого выстрела с обратным знаком. Координаты точек попадания первого и второго выстрелов будут связаны отри­цательной корреляцией.

Если в нашем распоряжении имеются результаты ряда опытов над системой двух случайных величин (X, Y), то о наличии или отсутствии существенной корреляции между ними легко судить в первом при­ближении по графику, на котором изображены в виде точек все полученные из опыта пары значений слу­чайных величин. Например, если наблюденные пары зна­чений величин расположи­лись следующим образом



Для характеристики корреляционной зависимости между вели­чинами используются коррекляционный момент и коэффициент корреляции.

О п р е д е л е н и е 2. Корреляционным моментом µ xy случайных ве­личин X и Y называют математическое ожидание произведения отклонений этих величин

Для вычисления корреляционного момента дискретных величин используется выражение

(3.12)

а для непрерывных – выражение

(3.13)

З а м е ч а н и е. Корреляционный момент µ xy может быть пере­писан в виде

(3.14)

Действительно, используя свойства математического ожидания (см. §§ 2.2; 2.6), имеем

Т е о р е м а. Корреляционный момент двух независимых случайных величин X и Y равен нулю.

Д о к а з а т е л ь с т в о. Согласно замечанию

а так как Х и Y независимые случайные величины, то (см. §§ 2.2; 2.6)

и, значит, µ xy =0.

Из определения корреляционного момента следует, что он имеет размерность, равную произведению размерностей величин X и Y,т.е. его величина зависит от единиц измерения случайных величин. Поэтому для одних и тех же двух величин величина корреляцион­ного момента может иметь различные значения в зависимости от того, в каких единицах были измерены величины. Для устранения этого недостатка условились за меру связи (зависимости) двух слу­чайных величин X и Yпринять безразмерную величину

где σ х =σ(Х), σ y =σ(Y), называемую коэффициентом корреляции.

П р и м е р 1. Пусть двумерная дискретная случайная величи­на (X,Y)задана законом распределения:

и, значит,

Сложив же вероятности по столбцам, найдем вероятности воз­можных значений Y:

Отсюда закон распределения Y:

Y
p 1\3 1\2 1\6

и, значит,

Следовательно,

Таким образом, коэффициент корреляции

Т е о р е м а. Абсолютная величина корреляционного момента двух случайных величин не превосходит произведения их средних квадратических отклонений:

Д о к а з а т е л ь с т в о. Введя в рассмотрение случайную величи­ну где найдем ее дисперсию. Имеем

(любая дисперсия неотрицательна). Отсюда

Введя случайную величину , аналогично найдем

В результате имеем

О п р е д е л е н и е 2. Случайные величины X и Y называются некоррелированными, если = 0, и коррелированными, если

П р и м е р 1. Независимые случайные величины Х и Y являются некоррелированными, так как в силу соотношения (3.12) = 0.

П р и м е р 2. Пусть случайные величины Х и Y связаны линей­ной зависимостью Найдем коэффициент корреля­ции. Имеем:

Таким образом, коэффициент корреляции случайных величин, свя­занных линейной зависимостью, равен ±1 (точнее, =1, если А>0 и =-1, если А<0).

Отметим некоторые свойства коэффициента корреляции.

Из примера 1 следует:

1) Если X и Y - независимые случайные величины, то коэффи­циент корреляции равен нулю.

Заметим, что обратное утверждение, вообще говоря, неверно. (Доказательство см. в работе .)

2)Абсолютная величина коэффициента корреляции не превосхо­дит единицы:

Действительно, разделив обе части неравенства (3.16) на произ­ведение , приходим к искомому неравенству.

3) Как видно из формулы (3.15) с учетом формулы (3.14), ко­эффициент корреляции характеризует относительную величину отклонения математического ожидания произведения от про­изведения математических ожиданий М(Х) М(Y) величин X и Y. Так как это отклонение имеет место только для зависимых вели­чин, то можно сказать, чтокоэффициент корреляции характеризует тесноту зависимости между X и Y.

3. Линейная корреляция. Этот вид корреляционной зависимости встречается довольно часто.

О п р е д е л е н и е. Корреляционная зависимость между случай­ными величинами Х и Y называется линейной корреляцией, если обе функции регрессии и являются линейными. В этом случае обе линии регрессии являются прямыми; их называют прямыми регрессии.

Выведем уравнения прямой регрессии Y на X, т.е. найдем коэф­фициент линейной функции

Обозначим М(Х) = а, М(Y) = b, М[(Х - а) 2 ] = , М[(Y –b 2)] = . С использованием свойств МО (§§ 2.2; 2.6) находим:

М(Y) = М = М(АХ + В)= АМ(Х) + В,

т.е. b = Аа + В, откуда В=b-Аа.

М(ХY) = М[Хg(Х)\ = М(АХ 2 + ВХ) = АМ(Х 2) + ВМ(Х) = АМ(Х 2) + (b- Аа)а,

или, согласно свойству 1 дисперсии (§§ 2.3; 2.6),

Полученный коэффициент называется коэффициентом регрессии Y на X и обозначается через :

Таким образом, уравнение прямой регрессии Y на X имеет вид

Аналогично можно получить уравнение прямой регрессии X на Y

Корреляционные моменты, коэффициент корреляции - это числовые характеристики, тесно связанные во введенным выше понятием случайной величины, а точнее с системой случайных величин. Поэтому для введения и определения их значения и роли необходимо пояснить понятие системы случайных величин и некоторые свойства присущие им.

Два или более случайные величины, описывающих некоторое явление называют системой или комплексом случайных величин.

Систему нескольких случайных величин X, Y, Z, …, W принято обозначать через (X, Y, Z, …, W).

Например, точка на плоскости описывается не одной координатой, а двумя, а в пространстве - даже тремя.

Свойства системы нескольких случайных величин не исчерпываются свойствами отдельных случайных величин, входящих в систему, а включают также взаимные связи (зависимости) между случайными величинами. Поэтому при изучении системы случайных величин следует обращать внимание на характер и степень зависимости. Эта зависимость может быть более или менее ярко выраженной, более или менее тесной. А в других случаях случайные величины оказаться практически независимыми.

Случайная величина Y называется независимой от случайной величины Х, если закон распределения случайной величины Y не зависит от того какое значение приняла величина Х.

Следует отметить, что зависимость и независимость случайных величин есть всегда явление взаимное: если Y не зависит от Х, то и величина Х не зависит от Y. Учитывая это, можно привести следующее определение независимости случайных величин.

Случайные величины Х и Y называются независимыми, если закон распределения каждой из них не зависит от того, какое значение приняла другая. В противном случае величины Х и Y называются зависимыми.

Законом распределения случайной величины называется всякое соотношение, устанавливающее связь между возможными значениями случайной величины и соответствующими им вероятностями.

Понятие "зависимости" случайных величин, которым пользуются в теории вероятностей, несколько отличается от обычного понятия "зависимости" величин, которым пользуются в математике. Так, математик под "зависимостью" подразумевает только один тип зависимости - полную, жесткую, так называемую функциональную зависимость. Две величины Х и Y называются функционально зависимыми, если, зная значение одного из них, можно точно определить значение другой.

В теории вероятностей встречаются несколько с иным типом зависимости - вероятностной зависимостью. Если величина Y связана с величиной Х вероятностной зависимостью, то, зная значение Х, нельзя точно указать значение Y, а можно указать её закон распределения, зависящий от того, какое значение приняла величина Х.

Вероятностная зависимость может быть более или менее тесной; по мере увеличения тесноты вероятностной зависимости она все более приближается к функциональной. Т.о., функциональную зависимость можно рассматривать как крайний, предельный случай наиболее тесной вероятностной зависимости. Другой крайний случай - полная независимость случайных величин. Между этими двумя крайними случаями лежат все градации вероятностной зависимости - от самой сильной до самой слабой.

Вероятностная зависимость между случайными величинами часто встречается на практике. Если случайные величины Х и Y находятся в вероятностной зависимости, то это не означает, что с изменением величины Х величина Y изменяется вполне определенным образом; это лишь означает, что с изменением величины Х величина Y

имеет тенденцию также изменяться (возрастать или убывать при возрастании Х). Эта тенденция соблюдается лишь в общих чертах, а в каждом отдельном случае возможны отступления от неё.

Примеры вероятностной зависимости.

Выберем наугад одного больного с перитонитом. случайная величина Т - время от начала заболевания, случайная величина О - уровень гомеостатических нарушений. Между этими величинами имеется явная зависимость, так как величина Т является одной из наиболее главных причин, определяющих величину О.

В то же время между случайной величиной Т и случайной величиной М, отражающей летальность при данной патологии, имеется более слабая вероятностная зависимость, так как случайная величина хоть и влияет на случайную величину О, однако не является главной определяющей.

Тем более, если рассматривать величину Т и величину В (возраст хирурга), то данные величины практически независимы.

До сих пор мы обсуждали свойства систем случайных величин, давая только словесное разъяснение. Однако существуют числовые характеристики, посредством которых исследуются свойства как отдельных случайных величин, так и системы случайных величин.

Одной из важнейших характеристик случайной величины нормального распределения является математическое ожидание.

Рассмотрим дискретную случайную величину Х, имеющую возможные значения Х 1 , Х2 , ... , Хn с вероятностями р1 , р2 , ... , рn . нам требуется охарактеризовать каким-то числом положение значений случайной величины на оси абсцисс с учетом того, что эти значения имеют различные значения. Для этой цели обычно пользуются так называемым "средним взвешенным" из значений Хi , причем каждое значение Хi при осреднении должно учитываться с "весом", пропорциональным вероятности этого значения. Таким образом, если обозначить "среднее взвешенное" через М[X] или mx , получим

или, учитывая, что,

Математическим ожиданием случайной величины называется сумма произведений всех возможных значений случайной величины на вероятности этих значений.

Для большей наглядности рассмотрим одну механическую интерпретацию введенного понятия. Пусть на оси абсцисс расположены точки с абсциссами х 1 , х2 , …, хn , в которых сосредоточены соответственно массы р1 , р2 , … , рn , причем. Тогда математическое ожидание есть не что иное, как абсцисса центра тяжести данной системы материальных точек.

Формула (1) для математического ожидания соответствует случаю дискретной случайной величины. Для непрерывной величины Х математическое ожидание, естественно, выражается не суммой, а интегралом:

где - плотность распределения величины Х.

Формула (2) получается из формулы (1), если в ней заменить отдельные значения Хi непрерывно изменяющимся параметром Х, соответствующие вероятности рi элементом вероятности f(x)dx, конечную сумму - интегралом.

В механической интерпретации математическое ожидание непрерывной случайной величины сохраняет тот же смысл - абсциссы центра тяжести в случае, когда масса распределения по оси абсцисс непрерывна с плотностью f(x).

Следует отметить, что математическое ожидание существует не для всех случайных величин, что, однако, по мнению некоторых ученых, не представляет для практики существенного интереса.

Помимо математического ожидания важное значение имеют также другие числовые случайной величины - моменты.

Понятие момента широко применяется в механике для описания распределения масс (статистические моменты, моменты инерции и т.д.). Совершенно теми же приемами пользуются в теории вероятностей для описания основных свойств распределения случайной величины. Чаще всего применяются на практике моменты двух видов: начальные и центральные.

Начальным моментом s-го порядка прерывной случайной величины Х называется сумма вида

Очевидно это определение совпадает с определением начального момента порядка s в механике, если на оси абсцисс в точках х 1 , …, хn сосредоточена масса р1 , …, рn .

Для непрерывной случайной величины Х начальным моментом s-го порядка называется интеграл

Очевидно, что

т.е. начальный момент s-го порядка случайной величины Х есть не что иное, как математическое ожидание s-ой степени этой случайной величины.

Перед тем как дать определение центрального момента введем понятие "центрированной случайной величины".

Пусть имеется случайная величина Х с математическим ожиданием m x . Центрированной случайной величиной, соответствующей величине Х, называется отклонение случайной величины Х от её математического ожидания

Нетрудно видеть, что математическое ожидание центрированной случайной величины равно нулю.

Центрирование случайной величины равносильно переносу начала координат в точку, абсцисса которой равна математическому ожиданию.

Центральным моментом порядка s случайной величины Х называется математическое ожидание s-ой степени соответствующей центрированной случайной величины:

Для прерывной случайной величины s-й центральный момент выражается суммой

а для непрерывной - интегралом

Важнейшее значение имеет второй центральный момент, который называют дисперсией и обозначают D[X]. Для дисперсии имеем

Дисперсия случайной величины есть характеристика рассеивания, разбросанности значений случайной величины около её математического ожидания. Само слово "дисперсия" означает "рассеивание".

Механической интерпретацией дисперсии является не что иное, как момент инерции заданного распределения масс относительно центра тяжести.

На практике часто применяется также величина

называемая средним квадратичным отклонением (иначе - "стандартом") случайной величины Х.

Теперь перейдем к рассмотрению характеристик систем случайных величин.

Начальным моментом порядка k,s системы (Х, Y) называется математическое ожидание произведения X k и Y s ,

xk,s =M.

Центральным моментом порядка k,s системы (Х, Y) называется математическое ожидание произведения k-ой и s-ой степени соответствующих центрированных величин:

Для прерывных случайных величин

где р ij - вероятность того, что система (Х, Y) примем значения (xi , yj ), а сумма рассматривается по всем возможным значениям случайных величин X,Y.

Для непрерывных случайных величин

где f(x,y) - плотность распределения системы.

Помимо чисел k и s, характеризующих порядок момента по отношению к отдельным величинам, рассматривается ещё суммарный порядок момента k+s, равный сумме показателей степеней при Х и Y. Соответственно суммарному порядку моменты классифицируют на первый, второй и т.д. На практике обычно применяются только первые и вторые моменты.

Первые начальные моменты представляют собой математические ожидания величин Х и Y, входящих в систему

у1,0 =mx у0,1 =my.

Совокупность математических ожиданий m x , my представляет собой характеристику положения системы. Геометрически это координаты средней точки на плоскости, вокруг которой происходит рассеивание точки (Х, Y).

Важную роль на практике играют также вторые центральные моменты систем. Два из них представляют собой дисперсии величин Х и Y

характеризующие рассеивание случайной точки в направлении осей Ox и Oy.

Особую роль играет второй смещенный центральный момент:

называемый корреляционным моментом (иначе - "моментом связи")случайных величин Х и Y.

Корреляционный момент есть характеристика системы случайных величин, описывающая, помимо рассеивания величин Х и Y, еще и связь между ними. Для того, чтобы убедиться в этом отметим, что корреляционный момент независимых случайных величин равен нулю.

Заметим, что корреляционный момент характеризует не только зависимость величин, но и их рассеивание. Поэтому для характеристики связи между величинами (Х;Y) в чистом виде переходят от момента K xy к характеристике

где уx , уy - средние квадратичные отклонения величин Х и Y. Эта характеристика называется коэффициентом корреляции величин Х и Y.

Из формулы (3) видно, что для независимых случайных величин коэффициент корреляции равен нулю, так как для таких величин kxy =0.

Случайные величины, для которых rxy =0, называют некоррелированными (несвязанными).

Отметим однако, что из некоррелированности случайных величин не следует их независимость.

Коэффициент корреляции характеризует не всякую зависимость, а только так называемую линейную зависимость. Линейная вероятностная зависимость случайных величин заключается в том, что при возрастании одной случайной величины другая имеет тенденцию возрастать (или же убывать) по линейному закону. Т.о., коэффициент корреляции характеризует степень тесноты линейной зависимости между случайными величинами.

Для определения коэффициента корреляции имеется несколько методов. Однако мы приведем пример с использованием коэффициента корреляции смешанных моментов Пирсона, где

с применением таблицы данных (в нашем примере относительного содержания Т-лимфоцитов в % и уровня IgG в г/л):

Подставив полученные значения в формулу (4), получим

Т.е., коэффициент корреляции динамики Т-лимфоцитов и иммуноглобулина G у детей при перитонитах равен 0,9933, что говорит о высокой связи между данными показателями.

4 страницы (Word-файл)

Посмотреть все страницы


Фрагмент текста работы

где

для дискретных случайных величин Хи У и

, y)dxdy

для непрерывных случайных величин,

Корреляционный момент служит для характеристики связи между случайными величинами. В частности, для независимых случайных величин Х и У корреляционный момент Сху равен нулю.

По определению корреляционный момент имеет размерность, равную произведению размерностей величин Х и У. Это значит, что величина корреляционного момента зависит от единиц измерения случайных величин. Например, если при измерении величин Х и У в сантиметрах получилось С». 2 см2, то при измерении Х и У в миллиметрах получим Сху = 200 мм2. Такая зависимость корреляционного момента от единиц измерения затрудняет сравнение различных систем случайных величин. Чтобы устранить этот недостаток, вводится безразмерная характеристика rry связи между величинами Х и У, называемая коэффициентом корреляции:

Если случайные величины Х и У независимы, то r», = О. Если же случайные величины Хи У связаны точной линейной зависимостью У = ах + Ь, то rxy= l при а>О и Ъ. = - при а z О. Вообще же справедливо двойное неравенство -1 S rxyS

Свойство независимости двух случайных величин Х и У в общем случае не равносильно их некоррелированности (т.е. равенству rn. = 0). Однако для нормально распределенных составляющих двумерной случайной величины это так.

Закон распределения системы двух дискретных случайных величин (Х, Л задан следующей таблицей

) законы распределения случайных величин Х и У;

2) условный закон распределения случайной величины Х при условии, что У = 1;

3) математические ожидания ИХ), Ц У) и центр рассеивания;

4) дисперсии D(X) и ДУЭ;

5) корреляционный момент Сду и коэффициент корреляции Ъ.

1. Сложив вероятности по строкам, получаем вероятности возможных значений случайной величины Х: = 0,4, p(l) = 0,2, р(4) = 0,4. Следовательно, закон распределения величины Х имеет следующий вид

Проверка: 0,4 + 1.

Сложив вероятности по столбцам, получаем вероятности возможных значений случайной величины У: = 0,1, p(l) = 0,3, АЗ) = 0,6. Напишем закон распределения величины У

Проверка: (),l + 0,3 + 0,6 =

2.
Найдем условные вероятности для случайной величины Х при условии, что У = У-2 = 1: p(-l f 1) = -Р12

Так как распределения (Х 1 У = 1) имеет следующую таблицу

З. Исходя из определения, вычисляем математические ожидания:

5. Составим таблицу системы чентривжанных случайных величин

х, У, где У=У-т = У -1,9

Вычислим корреляционный момент:

(-3,9) 0-2,4 (-0,9)

Система двух непрерывных случайных величин (Х, У) имеет равномерное распределение в области D = «х, у) - S х S 3, О S у S х + l} .

) плотность распределения;

2) вероятность Ч Х, У) с попадания в область

3) плотностиЛ(х) и Ку) распределения случайных величин Х и У, а также условные плотности и y(ylx);

4) функции и F20) распределения случайных величин Х и У;

5) математические ожидания М(Х), и центр рассеивания;

6) дисперсии и Ц У);

7) корреляционный момент Сл. и коэффициент корреляции

1. По условию функция плотности имеет вид а, если -lSxS3 и 0SySx+l, О, если (х, у) Е Д

Для нахождения параметра а воспользуемся соотношением f(x, y)dy.dy = , где обл5сть интегрирования D изображена на рис. 7.

Область D ограничена слева и справа прямыми х = -1 и х = 3, а снизу и сверху - прямыми О и У2(х) = х + 1. Переходя к повторному интегралу, имеем:

3

fady= гаур Х +1 Д = fa(x + l)dx =

8а. Так как 8а = 1, ТО а з- и функция ПлОтнОсТи 8

имеет вид

-, если

О, если (х,у) Е).

2. Изобразим область G, которая представляет собой круг радиуса 2 с центром в точке (2, О) (см. рис. 8). Так как функция Ах, у) равна нулю вне

3. Найдем плотностиЛ(х) илу):

поэтому

Следовательно,

Для О S у S 4 аналогично получаем

Понравилась статья? Поделиться с друзьями: