Как найти дисперсию через математическое ожидание. Основы теории вероятностей. Свойства математического ожидания

Как уже известно, закон распределения полностью характеризует случайную величину. Однако часто закон распределения неизвестен и приходится ограничиваться меньшими сведениями. Иногда даже выгоднее пользоваться числами, которые описывают случайную величину суммарно; такие числа называют числовыми характеристиками случайной величины. К числу важных числовых характеристик относится математическое ожидание.

Математическое ожидание, как будет показано далее, приближенно равно среднему значению случайной величины. Для решения многих задач достаточно знать математическое ожидание. Например, если известно, что математическое ожидание числа выбиваемых очков у первого стрелка больше, чем у второго, то первый стрелок в среднем выбивает больше очков, чем второй, и, следовательно, стреляет лучше второго. Хотя математическое ожидание дает о случайной величине значительно меньше сведений, чем закон ее распределения, но для решения задач, подобных приведенной и многих других, знание математического ожидания оказывается достаточным.

§ 2. Математическое ожидание дискретной случайной величины

Математическим ожиданием дискретной случайной величины называют сумму произведений всех ее возможных значений на их вероятности.

Пусть случайная величина X может принимать только значения х 1 , х 2 , ..., х п , вероятности которых соответственно равны р 1 , р 2 , . . ., р п . Тогда математическое ожидание М (X ) случайной величины X определяется равенством

М (X ) = х 1 р 1 + х 2 р 2 + … + x n p n .

Если дискретная случайная величина X принимает счетное множество возможных значений, то

М (Х )=

причем математическое ожидание существует, если ряд в правой части равенства сходится абсолютно.

Замечание. Из определения следует, что математическое ожидание дискретной случайной величины есть неслучайная (постоянная) величина. Рекомендуем запомнить это утверждение, так как далее оно используется многократно. В дальнейшем будет показано, что математическое ожидание непрерывной случайной величины также есть постоянная величина.

Пример 1. Найти математическое ожидание случайной величины X , зная закон ее распределения:

Решение. Искомое математическое ожидание равно сумме произведений всех возможных значений случайной величины на их вероятности:

M (X )= 3* 0, 1+ 5* 0, 6+ 2* 0, 3= 3, 9.

Пример 2. Найти математическое ожидание числа появлений события А в одном испытании, если вероятность события А равна р.

Решение. Случайная величина X - число появлений события А в одном испытании - может принимать только два значения: х 1 = 1 (событие А наступило) с вероятностью р и х 2 = 0 (событие А не наступило) с вероятностью q = 1 -р. Искомое математическое ожидание

M (X )= 1* p + 0* q = p

Итак, математическое ожидание числа появлений события в одном испытании равно вероятности этого события. Этот результат будет использован ниже.

§ 3. Вероятностный смысл математического ожидания

Пусть произведено п испытаний, в которых случайная величина X приняла т 1 раз значение х 1 , т 2 раз значение х 2 ,...,m k раз значение x k , причем т 1 + т 2 + …+т к = п. Тогда сумма всех значений, принятых X , равна

х 1 т 1 + х 2 т 2 + ... + х к т к .

Найдем среднее арифметическое всех значений, принятых, случайной величиной, для чего разделим найденную сумму на общее число испытаний:

= (х 1 т 1 + х 2 т 2 + ... + х к т к )/п,

= х 1 (m 1 / n ) + х 2 (m 2 / n ) + ... + х к (т к /п ). (*)

Заметив, что отношение m 1 / n - относительная частота W 1 значения х 1 , m 2 / n - относительная частота W 2 значения х 2 и т. д., запишем соотношение (*) так:

= х 1 W 1 + x 2 W 2 + .. . + х к W k . (**)

Допустим, что число испытаний достаточно велико. Тогда относительная частота приближенно равна вероятности появления события (это будет доказано в гл. IX, § 6):

W 1 p 1 , W 2 p 2 , …, W k p k .

Заменив в соотношении (**) относительные частоты соответствующими вероятностями, получим

x 1 p 1 + х 2 р 2 + … + х к р к .

Правая часть этого приближенного равенства есть М (X ). Итак,

М (X ).

Вероятностный смысл полученного результата таков: математическое ожидание приближенно равно (тем точнее, чем больше число испытаний) среднему арифметическому наблюдаемых значений случайной величины.

Замечание 1. Легко сообразить, что математическое ожидание больше наименьшего и меньше наибольшего возможных значений. Другими словами, на числовой оси возможные значения расположены слева и справа от математического ожидания. В этом смысле математическое ожидание характеризует расположение распределения и поэтому его часто называют центром распределения.

Этот термин заимствован из механики: если массы р 1 , р 2 , ..., р п расположены в точках с абсциссами x 1 , х 2 , ..., х n , причем
то абсцисса центра тяжести

x c =
.

Учитывая, что
=
M (X ) и
получим М (Х ) = х с .

Итак, математическое ожидание есть абсцисса центра тяжести системы материальных точек, абсциссы которых равны возможным значениям случайной величины, а массы - их вероятностям.

Замечание 2. Происхождение термина «математическое ожидание» связано с начальным периодом возникновения теории вероятностей (XVI - XVII вв.), когда область ее применения ограничивалась азартными играми. Игрока интересовало среднее значение ожидаемого выигрыша, или, иными словами, математическое ожидание выигрыша.

Характеристики ДСВ и их свойства. Математическое ожидание, дисперсия, СКО

Закон распределения полностью характеризует случайную величину. Однако, когда невозможно найти закон распределения, или этого не требуется, можно ограничиться нахождением значений, называемых числовыми характеристиками случайной величины. Эти величины определяют некоторое среднее значение, вокруг которого группируются значения случайной величины, и степень их разбросанности вокруг этого среднего значения.

Математическим ожиданием дискретной случайной величины называется сумма произведений всех возможных значений случайной величины на их вероятности.

Математическое ожидание существует, если ряд, стоящий в правой части равенства, сходится абсолютно.

С точки зрения вероятности можно сказать, что математическое ожидание приближенно равно среднему арифметическому наблюдаемых значений случайной величины.

Пример. Известен закон распределения дискретной случайной величины. Найти математическое ожидание.

X
p 0.2 0.3 0.1 0.4

Решение:

9.2 Свойства математического ожидания

1. Математическое ожидание постоянной величины равно самой постоянной.

2. Постоянный множитель можно выносить за знак математического ожидания.

3. Математическое ожидание произведения двух независимых случайных величин равно произведению их математических ожиданий.

Это свойство справедливо для произвольного числа случайных величин.

4. Математическое ожидание суммы двух случайных величин равно сумме математических ожиданий слагаемых.

Это свойство также справедливо для произвольного числа случайных величин.

Пусть производится n независимых испытаний, вероятность появления события А в которых равна р.

Теорема. Математическое ожидание М(Х) числа появления события А в n независимых испытаниях равно произведению числа испытаний на вероятность появления события в каждом испытании.

Пример. Найти математическое ожидание случайной величины Z, если известны математические ожидания X и Y: M(Х)=3, M(Y)=2, Z=2X+3Y.

Решение:

9.3 Дисперсия дискретной случайной величины

Однако, математическое ожидание не может полностью характеризовать случайный процесс. Кроме математического ожидания надо ввести величину, которая характеризует отклонение значений случайной величины от математического ожидания.

Это отклонение равно разности между случайной величиной и ее математическим ожиданием. При этом математическое ожидание отклонения равно нулю. Это объясняется тем, что одни возможные отклонения положительны, другие отрицательны, и в результате их взаимного погашения получается ноль.



Дисперсией (рассеиванием) дискретной случайной величины называется математическое ожидание квадрата отклонения случайной величины от ее математического ожидания.

На практике подобный способ вычисления дисперсии неудобен, т.к. приводит при большом количестве значений случайной величины к громоздким вычислениям.

Поэтому применяется другой способ.

Теорема. Дисперсия равна разности между математическим ожиданием квадрата случайной величины Х и квадратом ее математического ожидания .

Доказательство. С учетом того, что математическое ожидание М(Х) и квадрат математического ожидания М 2 (Х) – величины постоянные, можно записать:

Пример. Найти дисперсию дискретной случайной величины заданной законом распределения.

Х
Х 2
р 0.2 0.3 0.1 0.4

Решение: .

9.4 Свойства дисперсии

1. Дисперсия постоянной величины равна нулю. .

2. Постоянный множитель можно выносить за знак дисперсии, возводя его в квадрат. .

3. Дисперсия суммы двух независимых случайных величин равна сумме дисперсий этих величин. .

4. Дисперсия разности двух независимых случайных величин равна сумме дисперсий этих величин. .

Теорема. Дисперсия числа появления события А в п независимых испытаний, в каждом из которых вероятность р появления события постоянна, равна произведению числа испытаний на вероятности появления и непоявления события в каждом испытании.

9.5 Среднее квадратическое отклонение дискретной случайной величины

Средним квадратическим отклонением случайной величины Х называется квадратный корень из дисперсии.

Теорема. Среднее квадратичное отклонение суммы конечного числа взаимно независимых случайных величин равно квадратному корню из суммы квадратов средних квадратических отклонений этих величин.

В предыдущем мы привели ряд формул, позволяющих находить числовые характеристики функций, когда известны законы распределения аргументов. Однако во многих случаях для нахождения числовых характеристик функций не требуется знать даже законов распределения аргументов, а достаточно знать только некоторые их числовые характеристики; при этом мы вообще обходимся без каких бы то ни было законов распределения. Определение числовых характеристик функций по заданным числовым характеристикам аргументов широко применяется в теории вероятностей и позволяет значительно упрощать решение ряда задач. По преимуществу такие упрощенные методы относятся к линейным функциям; однако некоторые элементарные нелинейные функции также допускают подобный подход.

В настоящем мы изложим ряд теорем о числовых характеристиках функций, представляющих в своей совокупности весьма простой аппарат вычисления этих характеристик, применимый в широком круге условий.

1. Математическое ожидание неслучайной величины

Сформулированное свойство является достаточно очевидным; доказать его можно, рассматривая неслучайную величину как частный вид случайной, при одном возможном значении с вероятностью единица; тогда по общей формуле для математического ожидания:

.

2. Дисперсия неслучайной величины

Если - неслучайная величина, то

3. Вынесение неслучайной величины за знак математического ожидания

, (10.2.1)

т. е. неслучайную величину можно выносить за знак математического ожидания.

Доказательство.

а) Для прерывных величин

б) Для непрерывных величин

.

4. Вынесение неслучайной величины за знак дисперсии и среднего квадратического отклонения

Если - неслучайная величина, а - случайная, то

, (10.2.2)

т. е. неслучайную величину можно выносить за знак дисперсии, возводя ее в квадрат.

Доказательство. По определению дисперсии

Следствие

,

т. е. неслучайную величину можно выносить за знак среднего квадратического отклонения ее абсолютным значением. Доказательство получим, извлекая корень квадратный из формулы (10.2.2) и учитывая, что с.к.о. - существенно положительная величина.

5. Математическое ожидание суммы случайных величин

Докажем, что для любых двух случайных величин и

т. е. математическое ожидание суммы двух случайных величин равно сумме их математических ожиданий.

Это свойство известно под названием теоремы сложения математических ожиданий.

Доказательство.

а) Пусть - система прерывных случайных величин. Применим к сумме случайных величин общую формулу (10.1.6) для математического ожидания функции двух аргументов:

.

Ho представляет собой не что иное, как полную вероятность того, что величина примет значение :

;

следовательно,

.

Аналогично докажем, что

,

и теорема доказана.

б) Пусть - система непрерывных случайных величин. По формуле (10.1.7)

. (10.2.4)

Преобразуем первый из интегралов (10.2.4):

;

аналогично

,

и теорема доказана.

Следует специально отметить, что теорема сложения математических ожиданий справедлива для любых случайных величин - как зависимых, так и независимых.

Теорема сложения математических ожиданий обобщается на произвольное число слагаемых:

, (10.2.5)

т. е. математическое ожидание суммы нескольких случайных величин равно сумме их математических ожиданий.

Для доказательства достаточно применить метод полной индукции.

6. Математическое ожидание линейной функции

Рассмотрим линейную функцию нескольких случайных аргументов :

где - неслучайные коэффициенты. Докажем, что

, (10.2.6)

т. е. математическое ожидание линейной функции равно той же линейной функции от математических ожиданий аргументов.

Доказательство. Пользуясь теоремой сложения м. о. и правилом вынесения неслучайной величины за знак м. о., получим:

.

7. Дисп ep сия суммы случайных величин

Дисперсия суммы двух случайных величин равна сумме их дисперсий плюс удвоенный корреляционный момент:

Доказательство. Обозначим

По теореме сложения математических ожиданий

Перейдем от случайных величин к соответствующим центрированным величинам . Вычитая почленно из равенства (10.2.8) равенство (10.2.9), имеем:

По определению дисперсии

что и требовалось доказать.

Формула (10.2.7) для дисперсии суммы может быть обобщена на любое число слагаемых:

, (10.2.10)

где - корреляционный момент величин , знак под суммой обозначает, что суммирование распространяется на все возможные попарные сочетания случайных величин .

Доказательство аналогично предыдущему и вытекает из формулы для квадрата многочлена.

Формула (10.2.10) может быть записана еще в другом виде:

, (10.2.11)

где двойная сумма распространяется на все элементы корреляционной матрицы системы величин , содержащей как корреляционные моменты, так и дисперсии.

Если все случайные величины , входящие в систему, некоррелированы (т. е. при ), формула (10.2.10) принимает вид:

, (10.2.12)

т. е. дисперсия суммы некоррелированных случайных величин равна сумме дисперсий слагаемых.

Это положение известно под названием теоремы сложения дисперсий.

8. Дисперсия линейной функции

Рассмотрим линейную функцию нескольких случайных величин.

где - неслучайные величины.

Докажем, что дисперсия этой линейной функции выражается формулой

, (10.2.13)

где - корреляционный момент величин , .

Доказательство. Введем обозначение:

. (10.2.14)

Применяя к правой части выражения (10.2.14) формулу (10.2.10) для дисперсии суммы и учитывая, что , получим:

где - корреляционный момент величин :

.

Вычислим этот момент. Имеем:

;

аналогично

Подставляя это выражение в (10.2.15), приходим к формуле (10.2.13).

В частном случае, когда все величины некоррелированны, формула (10.2.13) принимает вид:

, (10.2.16)

т. е. дисперсия линейной функции некоррелированных случайных величин равна сумме произведений квадратов коэффициентов на дисперсии соответствующих аргументов.

9. Математическое ожидание произведения случайных величин

Математическое ожидание произведения двух случайных величин равно произведению их математических ожиданий плюс корреляционный момент:

Доказательство. Будем исходить из определения корреляционного момента:

Преобразуем это выражение, пользуясь свойствами математического ожидания:

что, очевидно, равносильно формуле (10.2.17).

Если случайные величины некоррелированны , то формула (10.2.17) принимает вид:

т. е. математическое ожидание произведения двух некоррелированных случайных величин равно произведению их математических ожиданий.

Это положение известно под названием теоремы умножения математических ожиданий.

Формула (10.2.17) представляет собой не что иное, как выражение второго смешанного центрального момента системы через второй смешанный начальный момент и математические ожидания:

. (10.2.19)

Это выражение часто применяется на практике при вычислении корреляционного момента аналогично тому, как для одной случайной величины дисперсия часто вычисляется через второй начальный момент и математическое ожидание.

Теорема умножения математических ожиданий обобщается и на произвольное число сомножителей, только в этом случае для ее применения недостаточно того, чтобы величины были некоррелированны, а требуется, чтобы обращались в нуль и некоторые высшие смешанные моменты, число которых зависит от числа членов в произведении. Эти условия заведомо выполнены при независимости случайных величин, входящих в произведение. В этом случае

, (10.2.20)

т. е. математическое ожидание произведения независимых случайных величин равно произведению их математических ожиданий.

Это положение легко доказывается методом полной индукции.

10. Дисперсия произведения независимых случайных величин

Докажем, что для независимых величин

Доказательство. Обозначим . По определению дисперсии

Так как величины независимы, и

При независимых величины тоже независимы; следовательно,

,

Но есть не что иное, как второй начальный момент величины , и, следовательно, выражается через дисперсию:

;

аналогично

.

Подставляя эти выражения в формулу (10.2.22) и приводя подобные члены, приходим к формуле (10.2.21).

В случае, когда перемножаются центрированные случайные величины (величины с математическими ожиданиями, равными нулю), формула (10.2.21) принимает вид:

, (10.2.23)

т. е. дисперсия произведения независимых центрированных случайных величин равна произведению их дисперсий.

11. Высшие моменты суммы случайных величин

В некоторых случаях приходится вычислять высшие моменты суммы независимых случайных величин. Докажем некоторые относящиеся сюда соотношения.

1) Если величины независимы, то

Доказательство.

откуда по теореме умножения математических ожиданий

Но первый центральный момент для любой величины равен нулю; два средних члена обращаются в нуль, и формула (10.2.24) доказана.

Соотношение (10.2.24) методом индукции легко обобщается на произвольное число независимых слагаемых:

. (10.2.25)

2) Четвертый центральный момент суммы двух независимых случайных величин выражается формулой

где - дисперсии величин и .

Доказательство совершенно аналогично предыдущему.

Методом полной индукции легко доказать обобщение формулы (10.2.26) на произвольное число независимых слагаемых.

Следующим по важности свойством случайной величины вслед за математическим ожиданием является ее дисперсия, определяемая как средний квадрат отклонения от среднего:

Если обозначить через то дисперсия VX будет ожидаемым значением Это характеристика „разброса" распределения X.

В качестве простого примера вычисления дисперсии предположим, что нам только что сделали предложение, от которого мы не в силах отказаться: некто подарил нам два сертификата для участия в одной лотерее. Устроители лотереи продают каждую неделю по 100 билетов, участвующих в отдельном тираже. В тираже выбирается один их этих билетов посредством равномерного случайного процесса - каждый билет имеет равные шансы быть выбранным - и обладатель этого счастливого билета получает сто миллионов долларов. Остальные 99 владельцев лотерейных билетов не выигрывают ничего.

Мы можем использовать подарок двумя способами: купить или два билета в одной лотерее, или по одному для участия в двух разных лотереях. Какая стратегия лучше? Попытаемся провести анализ. Для этого обозначим через случайные величины, представляющие размер нашего выигрыша по первому и второму билету. Ожидаемое значение в миллионах, равно

и то же самое справедливо для Ожидаемые значения аддитивны, поэтому наш средний суммарный выигрыш составит

независимо от принятой стратегии.

Тем не менее, две стратегии выглядят различными. Выйдем за рамки ожидаемых значений и изучим полностью распределение вероятностей

Если мы купим два билета в одной лотерее, то наши шансы не выиграть ничего составят 98% и 2% - шансы на выигрыш 100 миллионов. Если же мы купим билеты на разные тиражи, то цифры будут такими: 98.01% - шанс не выиграть ничего, что несколько больше, чем ранее; 0.01% - шанс выиграть 200 миллионов, также чуть больше, чем было ранее; и шанс выиграть 100 миллионов теперь составляет 1.98%. Таким образом, во втором случае распределение величины несколько более разбросано; среднее значение, 100 миллионов долларов, несколько менее вероятно, тогда как крайние значения более вероятны.

Именно это понятие разброса случайной величины призвана отразить дисперсия. Мы измеряем разброс через квадрат отклонения случайной величины от ее математического ожидания. Таким образом, в случае 1 дисперсия составит

в случае 2 дисперсия равна

Как мы и ожидали, последняя величина несколько больше, поскольку распределение в случае 2 несколько более разбросано.

Когда мы работаем с дисперсиями, то все возводится в квадрат, так что в результате могут получиться весьма большие числа. (Множитель есть один триллион, это должно впечатлить

даже привычных к крупным ставкам игроков.) Для преобразования величин в более осмысленную исходную шкалу часто извлекают квадратный корень из дисперсии. Полученное число называется стандартным отклонением и обычно обозначается греческой буквой а:

Стандартные отклонения величины для наших двух лотерейных стратегий составят . В некотором смысле второй вариант примерно на 71247 долларов рискованнее.

Каким образом дисперсия помогает в выборе стратегии? Это не ясно. Стратегия с большей дисперсией рискованнее; но что лучше для нашего кошелька - риск или безопасная игра? Пусть у нас есть возможность купить не два билета, а все сто. Тогда мы могли бы гарантировать выигрыш в одной лотерее (и дисперсия была бы нулевой); или же можно было сыграть в сотне разных тиражей, ничего не получая с вероятностью зато имея ненулевой шанс на выигрыш вплоть до долларов. Выбор одной из этих альтернатив лежит за рамками этой книги; все, что мы можем сделать здесь,- это объяснить, как произвести подсчеты.

В действительности имеется более простой способ вычисления дисперсии, чем прямое использование определения (8.13). (Есть все основания подозревать здесь какую-то скрытую от глаз математику; иначе с чего бы дисперсия в лотерейных примерах оказалась целым кратным Имеем

поскольку - константа; следовательно,

„Дисперсия есть среднее значение квадрата минус квадрат среднего значения"

Например, в задаче про лотерею средним значением оказывается или Вычитание (квадрата среднего) дает результаты, которые мы уже получили ранее более трудным путем.

Есть, однако, еще более простая формула, применимая, когда мы вычисляем для независимых X и Y. Имеем

поскольку, как мы знаем, для независимых случайных величин Следовательно,

„Дисперсия суммы независимых случайных величин равняется сумме их дисперсий" Так, например, дисперсия суммы, которую можно выиграть на один лотерейный билет, равняется

Следовательно, дисперсия суммарного выигрыша по двум лотерейным билетам в двух различных (независимых) лотереях составит Соответствующее значение дисперсии для независимых лотерейных билетов будет

Дисперсия суммы очков, выпавших на двух кубиках, может быть получена по той же формуле, поскольку есть сумма двух независимых случайных величин. Имеем

для правильного кубика; следовательно, случае смещенного центра масс

следовательно, если у обоих кубиков центр масс смещен. Заметьте, что в последнем случае дисперсия больше, хотя принимает среднее значение 7 чаще, чем в случае правильных кубиков. Если наша цель - выбросить побольше приносящих удачу семерок, то дисперсия - не лучший показатель успеха.

Ну хорошо, мы установили, как вычислить дисперсию. Но мы пока не дали ответа на вопрос, почему надо вычислять именно дисперсию. Все так делают, но почему? Основная причина заключается в неравенстве Чебышева которое устанавливает важное свойство дисперсии:

(Это неравенство отличается от неравенств Чебышёва для сумм, встретившихся нам в гл. 2.) На качественном уровне (8.17) утверждает, что случайная величина X редко принимает значения, далекие от своего среднего если ее дисперсия VX мала. Доказательство

тельство необычайно просто. Действительно,

деление на завершает доказательство.

Если мы обозначим математическое ожидание через а стандартное отклонение - через а и заменим в (8.17) на то условие превратится в следовательно, мы получим из (8.17)

Таким образом, X будет лежать в пределах -кратного стандартного отклонения от своего среднего значения за исключением случаев, вероятность которых не превышает Случайная величина будет лежать в пределах 2а от по крайней мере для 75% испытаний; в пределах от до - по крайней мере для 99%. Это случаи неравенства Чебышёва.

Если бросить пару кубиков раз, то общая сумма очков во всех бросаниях почти всегда, при больших будет близка к Причина этого следующая: дисперсия независимых бросаний составит Дисперсия в означает стандартное отклонение всего

Поэтому из неравенства Чебышёва получаем, что сумма очков будет лежать между

по крайней мере для 99% всех бросаний правильных кубиков. Например, итог миллиона бросаний с вероятностью более 99% будет заключен между 6.976 млн и 7.024 млн.

В общем случае, пусть X - любая случайная величина на вероятностном пространстве П, имеющая конечное математическое ожидание и конечное стандартное отклонение а. Тогда можно ввести в рассмотрение вероятностное пространство Пп, элементарными событиями которого являются -последовательности где каждое , а вероятность определяется как

Если теперь определить случайные величины формулой

то величина

будет суммой независимых случайных величин, которая соответствует процессу суммирования независимых реализаций величины X на П. Математическое ожидание будет равно а стандартное отклонение - ; следовательно, среднее значение реализаций,

будет лежать в пределах от до по крайней мере в 99% временного периода. Иными словами, если выбрать достаточно большое то среднее арифметическое независимых испытаний будет почти всегда очень близко к ожидаемому значению (В учебниках теории вероятностей доказывается еще более сильная теорема, называемая усиленным законом больших чисел; но нам достаточно и простого следствия неравенства Чебышёва, которое мы только что вывели.)

Иногда нам не известны характеристики вероятностного пространства, но требуется оценить математическое ожидание случайной величины X при помощи повторных наблюдений ее значения. (Например, нам могла бы понадобиться средняя полуденная температура января в Сан-Франциско; или же мы хотим узнать ожидаемую продолжительность жизни, на которой должны основывать свои расчеты страховые агенты.) Если в нашем распоряжении имеются независимые эмпирические наблюдения то мы можем предположить, что истинное математическое ожидание приблизительно равно

Можно оценить и дисперсию, используя формулу

Глядя на эту формулу, можно подумать, что в ней - типографская ошибка; казалось бы, там должно стоять как в (8.19), поскольку истинное значение дисперсии определяется в (8.15) через ожидаемые значения. Однако замена здесь на позволяет получить лучшую оценку, поскольку из определения (8.20) вытекает, что

Вот доказательство:

(В этой выкладке мы опираемся на независимость наблюдений, когда заменяем на )

На практике для оценки результатов эксперимента со случайной величиной X обычно вычисляют эмпирическое среднее и эмпирическое стандартное отклонение после чего записывают ответ в виде Вот, например, результаты бросаний пары кубиков, предположительно правильных.

2. Основы теории вероятностей

Математическое ожидание

Рассмотрим случайную величину с числовыми значениями. Часто оказывается полезным связать с этой функцией число – ее «среднее значение» или, как говорят, «среднюю величину», «показатель центральной тенденции». По ряду причин, некоторые из которых будут ясны из дальнейшего, в качестве «среднего значения» обычно используют математическое ожидание.

Определение 3. Математическим ожиданием случайной величины Х называется число

т.е. математическое ожидание случайной величины – это взвешенная сумма значений случайной величины с весами, равными вероятностям соответствующих элементарных событий.

Пример 6. Вычислим математическое ожидание числа, выпавшего на верхней грани игрального кубика. Непосредственно из определения 3 следует, что

Утверждение 2. Пусть случайная величина Х принимает значения х 1 , х 2 ,…, х m . Тогда справедливо равенство

(5)

т.е. математическое ожидание случайной величины – это взвешенная сумма значений случайной величины с весами, равными вероятностям того, что случайная величина принимает определенные значения.

В отличие от (4), где суммирование проводится непосредственно по элементарным событиям, случайное событие может состоять из нескольких элементарных событий.

Иногда соотношение (5) принимают как определение математического ожидания. Однако с помощью определения 3, как показано далее, более легко установить свойства математического ожидания, нужные для построения вероятностных моделей реальных явлений, чем с помощью соотношения (5).

Для доказательства соотношения (5) сгруппируем в (4) члены с одинаковыми значениями случайной величины :

Поскольку постоянный множитель можно вынести за знак суммы, то

По определению вероятности события

С помощью двух последних соотношений получаем требуемое:

Понятие математического ожидания в вероятностно-статистической теории соответствует понятию центра тяжести в механике. Поместим в точки х 1 , х 2 ,…, х m на числовой оси массы P (X = x 1 ), P (X = x 2 ),…, P (X = x m ) соответственно. Тогда равенство (5) показывает, что центр тяжести этой системы материальных точек совпадает с математическим ожиданием, что показывает естественность определения 3.

Утверждение 3. Пусть Х – случайная величина, М(Х) – ее математическое ожидание, а – некоторое число. Тогда

1) М(а)=а; 2) М(Х-М(Х))=0; 3) М[(X - a ) 2 ]= M [(X - M (X )) 2 ]+(a - M (X )) 2 .

Для доказательства рассмотрим сначала случайную величину, являющуюся постоянной, т.е. функция отображает пространство элементарных событий в единственную точку а . Поскольку постоянный множитель можно выносить за знак суммы, то

Если каждый член суммы разбивается на два слагаемых, то и вся сумма разбивается на две суммы, из которых первая составлена из первых слагаемых, а вторая – из вторых. Следовательно, математическое ожидание суммы двух случайных величин Х+У , определенных на одном и том же пространстве элементарных событий, равно сумме математических ожиданий М(Х) и М(У) этих случайных величин:

М(Х+У) = М(Х) + М(У).

А потому М(Х-М(Х)) = М(Х) - М(М(Х)). Как показано выше, М(М(Х)) = М(Х). Следовательно, М(Х-М(Х)) = М(Х) - М(Х) = 0.

Поскольку (Х - а) 2 = {(X M (X )) + (M (X ) - a )} 2 = (X - M (X )) 2 + 2(X - M (X ))(M (X ) - a ) + (M (X ) – a ) 2 , то M [(Х - а) 2 ] = M (X - M (X )) 2 + M {2(X - M (X ))(M (X ) - a )} + M [(M (X ) – a ) 2 ]. Упростим последнее равенство. Как показано в начале доказательства утверждения 3, математическое ожидание константы – сама эта константа, а потому M [(M (X ) – a ) 2 ] = (M (X ) – a ) 2 . Поскольку постоянный множитель можно выносить за знак суммы, то M {2(X - M (X ))(M (X ) - a )} = 2(M (X ) - a )М(X - M (X )). Правая часть последнего равенства равна 0, поскольку, как показано выше, М(Х-М(Х))=0. Следовательно, М[(X - a ) 2 ]= M [(X - M (X )) 2 ]+(a - M (X )) 2 , что и требовалось доказать.

Из сказанного вытекает, что М[(X - a ) 2 ] достигает минимума по а , равного M [(X - M (X )) 2 ], при а = М(Х), поскольку второе слагаемое в равенстве 3) всегда неотрицательно и равно 0 только при указанном значении а .

Утверждение 4. Пусть случайная величина Х принимает значения х 1 , х 2 ,…, х m , а f – некоторая функция числового аргумента. Тогда

Для доказательства сгруппируем в правой части равенства (4), определяющего математическое ожидание, члены с одинаковыми значениями :

Пользуясь тем, что постоянный множитель можно выносить за знак суммы, и определением вероятности случайного события (2), получаем

что и требовалось доказать.

Утверждение 5. Пусть Х и У – случайные величины, определенные на одном и том же пространстве элементарных событий, а и b – некоторые числа. Тогда M (aX + bY )= aM (X )+ bM (Y ).

С помощью определения математического ожидания и свойств символа суммирования получаем цепочку равенств:

Требуемое доказано.

Выше показано, как зависит математическое ожидание от перехода к другому началу отсчета и к другой единице измерения (переход Y =aX +b ), а также к функциям от случайных величин. Полученные результаты постоянно используются в технико-экономическом анализе, при оценке финансово-хозяйственной деятельности предприятия, при переходе от одной валюты к другой во внешнеэкономических расчетах, в нормативно-технической документации и др. Рассматриваемые результаты позволяют применять одни и те же расчетные формулы при различных параметрах масштаба и сдвига.

Предыдущая
Понравилась статья? Поделиться с друзьями: