20.09.2019

Закон распределения суммы двух случайных величин. Композиция двух законов распределения


Определение . Случайные величины Х 1 , Х 2 , …, Х n называются независимыми, если для любых x 1, x 2 , …, x n независимы события

{ω: Х 1 (ω) < x},{ω: Х 2 (ω) < x},…, {ω: Х n (ω) < x n }.

Из определения непосредственно следует, что для независимых случайных величин Х 1 , Х 2 , …, Х n функция распределения n -мерной случайной величины Х = Х 1 , Х 2 , …, Х n равна произведению функций распределения случайных величин Х 1 , Х 2 , …, Х n

F (x 1 , x 2 , …, x n ) = F (x 1 )F (x 2 )…F (x n ). (1)

Продифференцируем равенство (1) n раз по x 1 , x 2 , …, x n , получим

p (x 1 , x 2 , …, x n ) = p (x 1 )p (x 2 )…p (x n ). (2)

Можно дать другое определение независимости случайных величин.

Если закон распределения одной случайной величины не зависит от того, какие возможные значения приняли другие случайные величины, то такие случайные величины называются независимыми в совокупности.

Например, приобретены два лотерейных билета различных выпусков. Пусть Х – размер выигрыша на первый билет, Y – размер выигрыша на второй билет. Случайные величины Х и Y – независимые, так как выигрыш одного билета никак не повлияет на закон распределения другого. Но если билеты одного выпуска, то Х и Y – зависимые.

Две случайные величины называются независимыми, если закон распределения одной из них не меняется от того, какие возможные значения приняла другая величина.

Теорема 1 (свёртки) или «теорема о плотности суммы 2 случайных величин».

Пусть X = (Х 1 ;Х 2 ) – независимая непрерывная двумерная случайная величина, Y = Х 1 + Х 2 . Тогда плотность распределения

Доказательство . Можно показать, что если , то

где Х = (Х 1 , Х 2 , …, Х n ). Тогда, если Х = (Х 1 , Х 2), то функцию распределения Y = X 1 + X 2 можно определить так (рис. 1) –

=.

В соответствии с определением, функция является плотностью распределения случайной величины Y = X 1 + X 2 , т.е.

p y (t ) = что и требовалось доказать.

Выведем формулу для нахождения распределения вероятностей суммы двух независимых дискретных случайных величин.

Теорема 2. Пусть Х 1 , Х 2 – независимые дискретные случайные величины,

, , тогда

Доказательство . Представим событие A x = {Х 1 +Х 2 = x } в виде суммы несовместимых событий

A x = å(Х 1 = x i ; Х 2 = x x i).

Так как Х 1 , Х 2 – независимые то P (Х 1 = x i ; Х 2 = x x i) = P (Х 1 = x i) P (Х 2 = x – x i), тогда

P (A x ) = P (å(Х 1 = x i ; Х 2 = x – x i )) = å(P (Х 1 = x i ) P (Х 2 = x – x i)),

что и требовалось доказать.

Пример 1. Пусть Х 1 , Х 2 – независимые случайные величины, имеющие нормальное распределение с параметрами N (0;1); Х 1 , Х 2 ~ N (0;1).

Найдём плотность распределения их суммы (обозначим Х 1 = x , Y = X 1 +X 2)


Легко видеть, что подинтегральная функция является плотностью распределения нормальной случайной величины с параметрами а = , , т.е. интеграл равен 1.

.

Функция p y (t ) является плотностью нормального распределения с параметрами а = 0, s = . Таким образом сумма независимых нормальных случайных величин с параметрами (0,1) имеет нормальное распределение с параметрами (0,), т.е. Y = Х 1 + Х 2 ~ N (0;).

Пример 2 . Пусть заданы две дискретные независимые случайные величины, имеющие распределение Пуассона , тогда

, (5)

где k, m, n = 0, 1, 2, …,¥.

По теореме 2 имеем:

Пример 3. Пусть Х 1, Х 2 – независимые случайные величины, имеющие экспоненциальное распределение . Найдём плотность Y = Х 1 +Х 2 .

Обозначим x = x 1. Так как Х 1, Х 2 – независимые случайные величины, то воспользуемся «теоремой свертки»

Можно показать, что если задана сумма (Х i имеют экспоненциальное распределение с параметром l), то Y =имеет распределение , которое называется распределением Эрланга (n – 1) порядка. Этот закон был получен при моделировании работы телефонных станций в первых работах по теории массового обслуживания.

В математической статистике часто используют законы распределения случайных величин, являющихся функциями независимых нормальных случайных величин. Рассмотрим три закона наиболее часто встречающихся при моделировании случайных явлений.

Теорема 3. Если независимы случайные величины Х 1, ..., Х n , то независимы также функции от этих случайных величин Y 1 = f 1 (Х 1), ...,Y n = f n (Х n ).

Распределение Пирсона (c 2 -распределение ). Пусть Х 1, ..., Х n – независимые нормальные случайные величины с параметрами а = 0, s = 1. Составим случайную величину

На практике часто возникает надобность находить закон распределения суммы случайных величин.

Пусть имеются система (Х ь Х 2) двух непрерывных с. в. и их сумма

Найдем плотность распределения с. в. У. В соответствии с общим решением предыдущего пункта, находим область плоскости где х+ х 2 (рис. 9.4.1):

Дифференцируя это выражение по у, получим п. р. случайной величины У= Х + Х 2:

Так как функция ф (х ь х 2) = Xj + х 2 симметрична относительно своих аргументов, то

Если с. в. Х и Х 2 независимы, то формулы (9.4.2) и (9.4.3) примут вид:


В случае, когда складываются независимые с. в. Х х и Х 2 , говорят о композиции законов распределения. Произвести композицию двух законов распределения - это значит найти закон распределения суммы двух независимых с. в., распределенных по этим законам. Для обозначения композиции законов распределения применяется символическая запись

которой по существу обозначаются формулы (9.4.4) или (9.4.5).

Пример 1. Рассматривается работа двух технических устройств (ТУ). Сначала работает ТУь после его выхода из строя (отказа) включается в работу ТУ 2 . Времена безотказной работы ТУ Ь ТУ 2 - Х х и Х 2 - независимы и распределены по показательным законам с параметрами А,1 и Х 2 . Следовательно, время Y безотказной работы ТУ, состоящего из ТУ! и ТУ 2 , будет определяться по формуле

Требуется найти п. р. случайной величины Y, т. е. композицию двух показательных законов с параметрами и Х 2 .

Решение. По формуле (9.4.4) получим (у > 0)


Если находится композиция двух показательных законов с одинаковыми параметрами (?ц = Х 2 = У), то в выражении (9.4.8) получается неопределенность типа 0/0, раскрывая которую, получим:

Сравнивая это выражение с выражением (6.4.8), убеждаемся в том, что композиция двух одинаковых показательных законов (?ц = Х 2 = X) представляет собой закон Эрланга второго порядка (9.4.9). При композиции двух показательных законов с различными параметрами Х х и А-2 получают обобщенный закон Эрланга второго порядка (9.4.8). ?

Задача 1. Закон распределения разности двух с. в. Система с. в. (Х и Х 2) имеет совместную п. р./(х ь х 2). Найти п. р. их разности У= Х - Х 2 .

Решение. Для системы с. в. (Х ь - Х 2) п. р. будет/(х ь - х 2), т. е. мы разность заменили суммой. Следовательно, п. р. случайной величины Убудет иметь вид (см. (9.4.2), (9.4.3)):

Если с. в. Х х иХ 2 независимы, то

Пример 2. Найти п. р. разности двух независимых показательно распределенных с. в. с параметрами Х х и Х 2 .

Решение. По формуле (9.4.11) получим

Рис. 9.4.2 Рис. 9.4.3

На рисунке 9.4.2 изображена п. р. g (у). Если рассматривается разность двух независимых показательно распределенных с. в. с одинаковыми параметрами (A-i = Х 2 = А,), то g (у) = /2 - уже знакомый

закон Лапласа (рис. 9.4.3). ?

Пример 3. Найти закон распределения суммы двух независимых с. в. Х и Х 2 , распределенных по закону Пуассона с параметрами а х и а 2 .

Решение. Найдем вероятность события (Х х + Х 2 = т) (т = 0, 1,



Следовательно, с. в. У= Х х + Х 2 распределена по закону Пуассона с параметром а х2) - а х + а 2 . ?

Пример 4. Найти закон распределения суммы двух независимых с. в. Х х и Х 2 , распределенных по биномиальным законам с параметрами п х ри п 2 , р соответственно.

Решение. Представим с. в. Х х в виде:

где Х 1) - индикатор события А ву"-м опыте:

Ряд распределения с. в. X,- имеет вид


Аналогичное представление сделаем и для с. в. Х 2: где Х] 2) - индикатор события А в у"-м опыте:


Следовательно,

где Х? 1)+(2) если индикатор события А:

Таким образом, мы показали, что с. в. Тесть сумма (щ + п 2) индикаторов события А , откуда следует, что с. в. ^распределена по биномиальному закону с параметрами (п х + п 2), р.

Заметим, что если вероятности р в различных сериях опытов различны, то в результате сложения двух независимых с. в., распределенных по биномиальным законам, получится с. в., распределенная не по биномиальному закону. ?

Примеры 3 и 4 легко обобщаются на произвольное число слагаемых. При композиции законов Пуассона с параметрами а ъ а 2 , ..., а т снова получается закон Пуассона с параметром а (т) = а х + а 2 + ... + а т.

При композиции биномиальных законов с параметрами (п ь р ); (я 2 , р) , (п т, р) снова получается биномиальный закон с параметрами («(«), Р), где п (т) = щ+ п 2 + ... + п т.

Мы доказали важные свойства закона Пуассона и биномиального закона: «свойство устойчивости». Закон распределения называется устойчивым, если при композиции двух законов одинакового типа получается закон того же типа (различаются только параметры этого закона). В подразделе 9.7 мы покажем, что таким же свойством устойчивости обладает нормальный закон.

Пусть пространство элементарных исходов случайного эксперимента таково, что каждому исходу i j ставиться в соответствие значение случайной величины, равное x i и значение случайной величины, равное y j .

  • 1. Представим себе большую совокупность деталей, имеющих вид стержня. Эксперимент заключается в случайном выборе одного стержня. Этот стержень имеет длину, которую будем обозначать и толщину- (можно указать другие параметры-объем, вес, чистота обработки, выраженная в стандартных единицах).
  • 2. Если рассмотреть акции двух различных корпораций, то в данный день биржевых торгов они каждая из них характеризуется определённой доходностью. Случайные величины и - это доходности акций этих корпораций.

В этих случаях мы можем говорить о совместном распределении случайных величин и или о "двумерной" случайной величине.

Если и дискретны и принимают конечное число значений (- n значений, а - k значений), то закон совместного распределения случайных величин и можно задать, если каждой паре чисел x i , y j (где x i принадлежит множеству значений, а y j -множеству значений) поставить в соответствие вероятность p i j , равную вероятности события, объединяющего все исходы i j (и состоящего лишь из этих исходов), которые приводят к значениям = xi ; = y j .

Такой закон распределения можно задать в виде таблицы:

Очевидно:

Если просуммировать все р i j в i -й строке, то получим:

Вероятность того, что случайная величина примет значение x i . Аналогично, если просуммировать все р i j в j -м столбце, то получим:

вероятность того, что принимает значение y j .

Соответствие x i P i (i = 1,2,n ) определяет закон распределения, также как соответствие y j P j (j = 1,2,k ) определяет закон распределения случайной величины.

Очевидно:

Раньше мы говорили, что случайные величины и независимы, если:

pij=PiP j (i= 1,2,,n ; j= 1,2,k).

Если это не выполняется, то и зависимы.

В чем проявляется зависимость случайных величин и и как ее выявить из таблицы?

Рассмотрим столбец y 1 . Каждому числу x i поставим в соответствие число:

p i/ 1 = (1)

которое будем называть условной вероятностью = x i при =y 1 . Обратите внимание на то, что это не вероятность P i события = x i , и сравните формулу (1) с уже известной формулой условной вероятности:

Соответствие x i р i / 1 , (i =1,2,n ) будем называть условным распределением случайной величины при =y 1 . Очевидно:

Аналогичные условные законы распределения случайной величины можно построить при всех остальных значениях, равных y 2 ; y 3 , y n , ставя в соответствие числу x i условную вероятность:

p i/j = ().

В таблице приведён условный закон распределения случайной величины при =y j

Можно ввести понятие условного математического ожидания при = y j

Заметим, что и равноценны. Можно ввести условное распределение при =x i соответствием

(j = 1,2,k ).

Также можно ввести понятие условного математического ожидания случайной величины при =x i :

Из определения следует, что если и независимы, то все условные законы распределения одинаковы и совпадают с законом распределения (напоминаем, что закон распределения определяется в таблице (*) первым и последним столбцом). При этом очевидно, совпадают все условные математические ожидания М:

/ = y j ,

при j = 1,2,k , которые равны М.

Если условные законы распределения при различных значениях различны, то говорят, что между и имеет место статистическая зависимость.

Пример I. Пусть закон совместного распределения двух случайных величин и задан следующей таблицей. Здесь, как говорилось ранее, первый и последний столбцы определяют закон распределения случайной величины, а первая и последняя строки - закон распределения случайной величины.

Найдем законы распределений случайных величин:

Чтобы получить =2 и =0, нужно чтобы приняла значение 0, а приняла значение 2. Так как и независимы, то

Р(=2; =0)= Р(=0; =2)=Р(=0)Р(=2)=1/12.

Очевидно также Р(=3; =0)=0.

Построим полигоны условных распределений. Здесь зависимость от довольно близка к функциональной: значению =1 соответствует единственное =2, значению =2 соответствует единственное =3, но при =0 мы можем говорить лишь, что с вероятностью 3/4 принимает значение 1 и с вероятностью 1/4 - значение 2.

Пример III. Рассмотрим закон совместного распределения и, заданный таблицей

Законы условных распределений не отличаются друг от друга при =1,2,3 и совпадают с законом распределения случайной величины. В данном случае и независимы.

Характеристикой зависимости между случайными величинами и служит математическое ожидание произведения отклонений и от их центров распределений (так иногда называют математическое ожидание случайной величины), которое называется коэффициентом ковариации или просто ковариацией.

cov(;) = M ((- M )(- M ))

Пусть = x 1 , x 2 , x 3 , x n , = y 1 , y 2 , y 3 ,y k .

Эту формулу можно интерпретировать так. Если при больших значениях более вероятны большие значения, а при малых значениях более вероятны малые значения, то в правой части формулы (2) положительные слагаемые доминируют, и ковариация принимает положительные значения.

Если же более вероятны произведения (x i - M )(y j - M ), состоящие из сомножителей разного знака, то есть исходы случайного эксперимента, приводящие к большим значениям в основном приводят к малым значениям и наоборот, то ковариация принимает большие по модулю отрицательные значения.

В первом случае принято говорить о прямой связи: с ростом случайная величина имеет тенденцию к возрастанию.

Во втором случае говорят об обратной связи: с ростом случайная величина имеет тенденцию к уменьшению или падению. Если примерно одинаковый вклад в сумму дают и положительные и отрицательные произведения (x i - M )(y j - M )p i j , то можно сказать, что в сумме они будут "гасить" друг друга и ковариация будет близка к нулю. В этом случае не просматривается зависимость одной случайной величины от другой.

Легко показать, что если:

P ((= x i )(= y j )) = P (= x i )P (= y j ) (i = 1,2,n ; j = 1,2,k ),

Действительно из (2) следует:

Здесь использовано очень важное свойство математического ожидания: математическое ожидание отклонения случайной величины от ее математического ожидания равно нулю .

Доказательство (для дискретных случайных величин с конечным числом значений).

Ковариацию удобно представлять в виде

cov(;)=M (- M - M +MM )=M ()- M (M )- M (M )+M (MM )= M ()- MM - MM +MM =M ()- MM

Ковариация двух случайных величин равна математическому ожиданию их произведения минус произведение математических ожиданий.

Легко доказывается следующее свойство математического ожидания: если и -независимые случайные величины, то:

М ()=ММ .

(Доказать самим, используя формулу:

Таким образом, для независимых случайных величин и cov(;)=0.

  • 1. Монету подбрасывают 5 раз. Случайная величина - число выпавших гербов, случайная величина - число выпавших гербов в последних двух бросках. Построить совместный закон распределения случайных величин, построить условные законы распределения при различных значениях. Найти условные математические ожидания и ковариацию и.
  • 2. Две карты наудачу извлекаются из колоды в 32 листа. Случайная величина - число тузов в выборке, случайная величина - число королей в выборке. Построить совместный закон распределения и, построить условные законы распределения при различных значениях. Найти условные математические ожидания и ковариацию и.

Рассмотрим случай, когда третья случайная величина Z является суммой двух независимых случайных величин X и Y , то есть

Плотности этих величин
соответственно. Плотность распределенияZ

Этот интеграл называется сверткой или композицией плотностей и обозначается следующим образом:

.

Таким образом, если независимые случайные величины суммируются, то их плотности распределения свертываются.

Это правило распространяется на сумму любого числа независимых слагаемых. То есть, если

.

Пример. Определим плотность распределения суммы двух равномерно распределенных величин X 1 и X 2 c плотностями:

После подстановки этих плотностей в (13.2.1) и интегрирования в предположении
получаем, что

Эта плотность называется трапециодальной (см. рис.13.2.1). Если
, то трапеции вырождается в равнобедренный треугольник и соответствующая плотность называется плотностью Сипсона.

Рис.13.2.1.Трапециодальное распределение – свертка двух равномерных распределений.

13.3.Распределение суммы нормально распределенных случайных величин

Если
, X и Y независимы и нормально распределены с плотностями

то сумма Z будет распределена тоже нормально с плотностью

,

Этот факт доказывается непосредственным интегрированием интеграла сверстки (13.2.1) после подстановки
и
.

Справедливо и более общее утверждение: если

, (13.3.1)

где иb - константы, а Х i – независимые нормально распределенные случайные величины со средними значениями
и дисперсиями, тоY будет распределено тоже нормально со средним значением

(13.3.2)

и дисперсией

. (13.3.3)

Отсюда вытекает, что если суммируются независимые нормально распределенные случайные величины, то сумма будет иметь тоже нормальное распределение с математическим ожиданием, равным сумме математических ожиданий слагаемых и дисперсией, равной сумме дисперсий слагаемых. То есть, если

,

. (13.3.4)

14.Предельные теоремы

14.1.Понятие о законе больших чисел

Из опыта известно, что в массовых явлениях результат мало зависит от отдельных проявлений. Например, давление, оказываемое газом на стенки сосуда, складывается в результате ударов молекул газа о стенки. Не смотря на то, что каждый удар по силе и направлению совершенно случайны итоговое давление оказывается практически детерминированным. То же самое можно сказать о температуре тела, которая определяет среднюю кинетическую энергию движения атомов тела. Сила тока есть проявление движения элементарных зарядов(электронов). Конкретные особенности каждого случайного явления почти не сказываются на среднем результате массы таких явлений. Случайные отклонения от среднего, неизбежные в каждом отдельном явлении, в массе взаимно погашаются, нивелируются, выравниваются. Именно этот факт – устойчивость средних - лежит в основе закона больших чисел: при большом числе случайных явлений средний их результат практически перестает быть случайным и может быть предсказан с большой степенью определенности.

В теории вероятностей под законом больших чисел понимается ряд математических теорем, в каждой из которых при тех или иных условиях устанавливается факт приближения средних характеристик большого числа опытов к постоянным величинам или к предельным распределениям.

СИСТЕМЫ СЛУЧАЙНЫХ ВЕЛИЧИН

ЗАКОН РАСПРЕДЕЛЕНИЯ СИСТЕМЫ ДВУХ СЛУЧАЙНЫХ ВЕЛИЧИН

ЦЕЛЬ ЛЕКЦИИ: ввести понятие системы случайных величин и закона распределения систем двух случайных величин; определить условия зависимости и независимости случайных величин, сформулировать условный закон распределения и правило умножения плотностей.

Понятие о системе случайных величин

При теоретико-множественной трактовке любая случайная величинаX есть функция элементарного события, входящего в пространство эле-

значений случайной величины X .

Теперь перейдем к рассмотрению системы случайных величин – двух и более, например координаты падения снаряда X иY , набор оценокX 1 , X 2 , X n , выставленных в приложении к диплому.

Будем обозначать систему нескольких случайных величин X , Y , W как(X , Y , W ) . Эта система есть функция элементарного события

(X ,Y ,W )().

Таким образом, каждому элементарному событию ставится в соответствие несколько действительных чисел – значения, принятые случайными величинамиX , Y , W в результате опыта.

Пример . Пространство элементарных событий состоит из 28 элементов – 28 костей домино: { 00, 01, 1 1, 1 2, 56, 66} . Если слу-

чайная величина X – сумма очков, аY – их произведение, то совокупность значений этих случайных величин есть функция элементарного со-

бытия: так, при выпадении кости 34x 7 , y 12 .

Случайные величины, входящие в систему, могут быть как дискретными, так и непрерывными. Систему двух непрерывных случайных величин (X , Y ) можно изобразить случайной точкой на плоскости с коорди-

натами X иY (см. рис. 5.1). Систему трех случайных величин(X , Y , Z )

– случайной точкой в 3-мерном пространстве с координатамиX , Y , Z . И то и другое можно изобразить в виде вектора (см. рис. 5.2). Использование геометрической интерпретации удобно для системыn случайных величин(X 1 , X 2 , X n ) как вектора вn -мерном пространстве

X (X 1 ,X 2 ,X n ).

Свойства системы случайных величин определяются как свойствами отдельных величин, входящих в систему, так и зависимостями между случайными величинами.

Полной характеристикой системы случайных величин является закон распределения, который может быть представлен в виде функции распределения, плотности распределения, таблицы вероятностей отдельных значений случайного вектора и т. д.

(X ,Y )

(X ,Y )

Функция распределения системы двух случайных величин

Функцией распределения системы двух случайных величин(X , Y )

называется вероятность совместного выполнения двух неравенств –

X x и Y y

F (x, y) P{ X x, Y y} .

Событие в фигурных скобках означает произведение событий { X

x }и

{ Y y} :

{ X x, Y y} { X x}{ Y y} .

Геометрическое истолкование функции распределения F (x , y )

вероятность попадания случайной точки (X , Y ) в бесконечный квадрант с вершиной в точке(X , Y ) , лежащей левее и ниже этой точки (см. рис. 5.3). Правая и верхняя границы в квадрант не включаются.

Из приведенной геометрической интер-

претации можно вывести основные свойства

функции распределения системы

двух слу-

(X ,Y )

чайных величин:

1. Функция распределения F (x , y )

есть неубы-

вающая функция обоих своих аргументов, т. е.

x 1 ,F (x 2 ,y )F (x 1 ,y );

y 1 ,F (x ,y 2 )F (x ,y 1 ).

Рис. 5.3. Геометрическая

На рис. 5.3 видно, что при увеличении x или

интерпретация F (x ,y )

y заштрихованная область возрастает.

2. Если x илиy обращаются в, то функция распределения равна нулю:

F (x ,)F (,y )F (,)0 .

3. Если оба аргумента равны , то функция распределения равна единице:

F (,)1.

В этом случае квадрант заполняет всю плоскость, и попадание в него случайной точки есть достоверное событие.

4. Если один из аргументов обращается в

то функция распределения

F (x , y ) становится равной функции распределения случайной величины,

соответствующей другому аргументу:

F (x ,)

F 1 (x ),F (

F 2 (y ),

где F 1 (x )

x } – функция распределения случайной величиныX ;

F 2 (y )P {Y

y } – функция распределения случайной величиныY .

В этом случае квадрант превращается в полуплоскость, вероятность попа-

дания в которую есть функция распределения случайной величины, соот-

ветствующей другому аргументу (см. рис. 5.4–5.5).

Рис. 5.4. Функция распреде-

Рис. 5.5. Функция распределения

ления F 1 (x )

F2 (у)

Из определения функции распределения

F (x , y ) следует, что она

непрерывна слева по любому аргументу. При геометрической интерпрета-

ции функции

F (x ,y )

– это некоторая поверхность, обладающая указан-

ными свойствами,

а вид этой поверхности

зависит от того, будут ли входящие в систему

случайные величины дискретными или непре-

Знание функции распределения F (x , y )

позволяет решить задачу о вычислении веро-

ятности попадания случайной точки (X , Y ) в

прямоугольник R (см. рис. 5.6). Решение ока-

Рис. 5.6. Вероятность попа-

зывается

достаточно простым, если учесть

дания в область R

определение (5.1) функции F (x , y ) :

P{(X, Y)

R }F (,)F (,)F (,)

F (,).

Вычисление сводится к вычитанию из большого квадранта двух других и

добавке дважды вычтенного квадранта с вершиной в точке (,) .

Функции распределения F (x , y ) – наиболее универсальная форма

закона распределения, пригодная как для дискретных, так и непрерывных случайных величин.

Система двух дискретных случайных величин. Матрица распределения

Пусть множества возможных значений системы случайных величин (X , Y ) конечны, т. е.

X :{x 1 ,x 2 ,x n },Y :{y 1 ,y 2 ,y m }.

Обозначим через

xi , Y

y j } ,

где событие

xi , Y

y j } есть произведение событий{ X

x i} и

p ij (i 1 ,n ;j 1 ,m ).

p 1j

(X ,Y ) :

p 2j

p2 m

Сумма всех вероятностей матрицы распределения равна единице:

p ij1.

i 1 j1

При наличии матрицы распределения системы двух дискретных случайных величин (X , Y ) ее функция распределения находится суммирова-

Если множества возможных значений дискретных случайных величин X иY бесконечные, но счетные, то тогда матрица распределения имеет бесконечные размеры, но ее свойства остаются теми же, что и при конечныхn иm .

По матрице распределения системы (X , Y ) можно найти законы (ряды) распределения отдельных случайных величинX иY . Для это обо-

Px i

P{ X xi }; Py j P{ Y yj } .

Событие { X

x i } представим как сумму несовместных вариантов:

{ X xi } { X xi ; Y y1 } { X xi ; Y y2 } { X xi ; Y ym } .

Просуммировав соответствующие вероятности, получаем

Px i

P{ X xi }

p ij;

P yj

P{ Y yj }

p ij.

Таким образом, чтобы найти вероятность того, что отдельная случайная величина, входящая в систему, примет определенное значение, надо

просуммировать вероятности p ij , стоящие в соответствующей этому зна-

чению строке (столбце) матрицы распределения.

Система двух непрерывных случайных величин. Совместная плотность распределения

Система двух случайных величин (X , Y ) называется непрерывной, если ее функция распределенияF (x , y ) есть непрерывная функция, дифференцируемая по каждому из аргументов, и у которой существует вторая

должны быть непрерывными случайными величинами.

Для определения плотности распределения рассмотрим на плоскости

P {(X ,Y )

RXY } F(x x, y y) F(x, y y)

x ,y )F (x ,y ).

При переходе к пределу получаем

x, y y) F(x, y

y )F (x x ,y )F (x ,y )

Так как условились, каждому из аргументов,

Рис. 5.7. Вероятность попадания в областьR XY

что F (x , y ) непрерывна и дифференцируема по

то последнее выражение есть не что иное, как вторая смешанная производная функции распределения

f (x, y)

x y F (x ,y ),

x которая является совместной плотностью распределения f (x , y ) системы двух непрерывных случайных величин(X , Y ) .

Геометрически совместная плотность f (x , y ) изображается поверхностью распределения (см. рис. 5.8).

f (x , y )

Свойства плотности распределения :

1. Совместная плотность распределения, положительно определенная функция по обоим аргументам,

f (x ,y )0 .

2. Двойной интеграл в бесконечных пределах от плотности распределения равен единице (условие нормировки):

f (x, y) dxdy1 ,

т. е. объем под поверхностью распределения равен единице. Вводится понятие элемента

вероятности для системы двух непрерывных случайных величин в виде

f (x, y) dxdy,

который равен вероятности по-

падания случайной точки (X , Y )

на элементарный прямоугольник

dxdy . Приближенно эта вероят-

ность равна объему элементар-

ного параллелепипеда с высотой

Рис. 5.8. Поверхность распределения

f (x , y ) , опирающегося на пря-

моугольник dxdy .

Вероятность попадания случайной точки (X , Y ) в некоторую область(D ) будет равна

P{(X, Y)

f (x, y) dxdy.

Положив в выражении (5.6) x y , докажем второе свойство (см. выражение (5.4)) совместной плотности распределения, т. е.

f (x, y) dxdy F(,) 1 .

Выразим законы распределения отдельных случайных величин, входящих в систему, через закон распределения системы двух случайных величин (X , Y ) .

Для того чтобы получить функцию распределения одной из случайных величин, входящих в систему, нужно положить в выражении (5.6) аргумент, соответствующий другой случайной величине, равным , т. е.

F1 (x)

f (x, y) dxdy,

F 2 (y )

f (x, y) dxdy.

Продифференцировав выражения (5.7) и (5.8) по соответствующим переменным, получим

dF1 (x)

f (x, y) dy,

f (x, y) dx.

Таким образом, чтобы получить плотность распределения одной из величин, входящих в систему, нужно проинтегрировать совместную плотность распределения в бесконечных пределах по другой случайной величине.

Зависимые и независимые случайные величины. Условные законы распределения

Решение обратной задачи – отыскание закона распределения системы по законам распределения входящих в систему случайных величин – в общем случае невозможно.

В частном случае, когда случайные величины независимы, задача

и { Y y 1 } и т. д.

Зависимость и независимость всегда взаимны. Таким образом, две случайные величины называются независимыми , если закон распределения каждой из них не зависит от того, какое значение приняла другая ве-

Для зависимых случайных величин вводится понятие условного закона распределения .

Условным законом распределения случайной величины X , входящей в систему(X , Y ) , называется ее закон распределения, вычисленный

при условии, что другая случайная величина приняла определенное значение. Условный закон распределения можно задавать или как условную функцию распределения F (x / y ) , или как условную плотностьf (x / y ) .

Для произвольного типа систем случайных величин (X , Y ) условная функция распределения может быть записана в виде

F (x, y) P{ X x, Y y} P{ X x} P{ Y y/ X x}

F1 (x) P{ Y y/ X x} .