Две случайные величины $X$ и $Y$ называются независимыми, если закон распределения одной случайной величины не изменяется от того, какие возможные значения приняла другая случайная величина. То есть, для любых $x$ и $y$ события $X=x$ и $Y=y$ являются независимыми. Поскольку события $X=x$ и $Y=y$ независимые, то по теореме произведения вероятностей независимых событий $P\left(\left(X=x\right)\left(Y=y\right)\right)=P\left(X=x\right)P\left(Y=y\right)$.

Пример 1 . Пусть случайная величина $X$ выражает денежный выигрыш по билетам одной лотереи «Русское лото», а случайная величина $Y$ выражает денежный выигрыш по билетам другой лотереи «Золотой ключ». Очевидно, что случайные величины $X,\ Y$ будут независимыми, так как выигрыш по билетам одной лотереи не зависит от закона распределения выигрышей по билетам другой лотереи. В том случае, когда случайные величины $X,\ Y$ выражали бы выигрыш по одной и той же лотереи, то, очевидно, данные случайные величины были бы зависимыми.

Пример 2 . Двое рабочих трудятся в разных цехах и изготавливают различные изделия, несвязанные между собой технологиями изготовления и используемым сырьем. Закон распределения числа бракованных изделий, изготовленных первым рабочим за смену, имеет следующий вид:

$\begin{array}{|c|c|}
\hline
Число \ бракованных \ изделий \ x & 0 & 1 \\
\hline
Вероятность & 0,8 & 0,2 \\
\hline
\end{array}$

Число бракованных изделий, изготовленных вторым рабочим за смену, подчиняется следующими закону распределения.

$\begin{array}{|c|c|}
\hline
Число \ бракованных \ изделий \ y & 0 & 1 \\
\hline
Вероятность & 0,7 & 0,3 \\
\hline
\end{array}$

Найдем закон распределения числа бракованных изделий, изготовленных двумя рабочими за смену.

Пусть случайная величина $X$ - число бракованных изделий, изготовленных первым рабочим за смену, а $Y$ - число бракованных изделий, изготовленных вторым рабочим за смену. По условию, случайные величины $X,\ Y$ независимы.

Число бракованных изделий, изготовленных двумя рабочими за смену, есть случайная величина $X+Y$. Ее возможные значения равны $0,\ 1$ и $2$. Найдем вероятности, с которыми случайная величина $X+Y$ принимает свои значения.

$P\left(X+Y=0\right)=P\left(X=0,\ Y=0\right)=P\left(X=0\right)P\left(Y=0\right)=0,8\cdot 0,7=0,56.$

$P\left(X+Y=1\right)=P\left(X=0,\ Y=1\ или\ X=1,\ Y=0\right)=P\left(X=0\right)P\left(Y=1\right)+P\left(X=1\right)P\left(Y=0\right)=0,8\cdot 0,3+0,2\cdot 0,7=0,38.$

$P\left(X+Y=2\right)=P\left(X=1,\ Y=1\right)=P\left(X=1\right)P\left(Y=1\right)=0,2\cdot 0,3=0,06.$

Тогда закон распределения числа бракованных изделий, изготовленных двумя рабочими за смену:

$\begin{array}{|c|c|}
\hline
Число \ бракованных \ изделий & 0 & 1 & 2 \\
\hline
Вероятность & 0,56 & 0,38 & 0,06 \\
\hline
\end{array}$

В предыдущем примере мы выполняли операцию над случайными величинами $X,\ Y$, а именно находили их сумму $X+Y$. Дадим теперь более строгое определение операций (сложение, разность, умножение) над случайными величинами и приведем примеры решений.

Определение 1 . Произведением $kX$ случайной величины $X$ на постоянную величину $k$ называется случайная величина, которая принимает значения $kx_i$ с теми же вероятностями $p_i$ $\left(i=1,\ 2,\ \dots ,\ n\right)$.

Определение 2 . Суммой (разностью или произведением) случайных величин $X$ и $Y$ называется случайная величина, которая принимает все возможные значения вида $x_i+y_j$ ($x_i-y_i$ или $x_i\cdot y_i$), где $i=1,\ 2,\dots ,\ n$, с вероятностями $p_{ij}$ того, что случайная величина $X$ примет значение $x_i$, а $Y$ значение $y_j$:

$$p_{ij}=P\left[\left(X=x_i\right)\left(Y=y_j\right)\right].$$

Так как случайные величины $X,\ Y$ независимые, то по теореме умножения вероятностей для независимых событий: $p_{ij}=P\left(X=x_i\right)\cdot P\left(Y=y_j\right)=p_i\cdot p_j$.

Пример 3 . Независимые случайные величины $X,\ Y$ заданы своими законами распределения вероятностей.

$\begin{array}{|c|c|}
\hline
x_i & -8 & 2 & 3 \\
\hline
p_i & 0,4 & 0,1 & 0,5 \\
\hline
\end{array}$

$\begin{array}{|c|c|}
\hline
y_i & 2 & 8 \\
\hline
p_i & 0,3 & 0,7 \\
\hline
\end{array}$

Составим закон распределения случайной величины $Z=2X+Y$. Суммой случайных величин $X$ и $Y$, то есть $X+Y$, называется случайная величина, которая принимает все возможные значения вида $x_i+y_j$, где $i=1,\ 2,\dots ,\ n$, с вероятностями $p_{ij}$ того, что случайная величина $X$ примет значение $x_i$, а $Y$ значение $y_j$: $p_{ij}=P\left[\left(X=x_i\right)\left(Y=y_j\right)\right]$. Так как случайные величины $X,\ Y$ независимые, то по теореме умножения вероятностей для независимых событий: $p_{ij}=P\left(X=x_i\right)\cdot P\left(Y=y_j\right)=p_i\cdot p_j$.

Итак, имеет законы распределения случайных величины $2X$ и $Y$ соответственно.

$\begin{array}{|c|c|}
\hline
x_i & -16 & 4 & 6 \\
\hline
p_i & 0,4 & 0,1 & 0,5 \\
\hline
\end{array}$

$\begin{array}{|c|c|}
\hline
y_i & 2 & 8 \\
\hline
p_i & 0,3 & 0,7 \\
\hline
\end{array}$

Для удобства нахождения всех значений суммы $Z=2X+Y$ и их вероятностей составим вспомогательную таблицу, в каждой клетке которой поместим в левом углу значения суммы $Z=2X+Y$, а в правом углу - вероятности этих значений, полученные в результате перемножения вероятностей соответствующих значений случайных величин $2X$ и $Y$.

В результате получим распределение $Z=2X+Y$:

$\begin{array}{|c|c|}
\hline
z_i & -14 & -8 & 6 & 12 & 10 & 16 \\
\hline
p_i & 0,12 & 0,28 & 0,03 & 0,07 & 0,15 & 0,35 \\
\hline
\end{array}$

Случайные события называются независимыми, если появление одного из них никак не влияет на вероятность появления других событий.

Пример 1. Если есть две или более урны с цветными шарами, то извлечение какого-либо шара из одной урны никак не повлияет на вероятность извлечения других шаров из оставшихся урн.

Для независимых событий справедлива теорема умножения вероятностей: вероятность совместного (одновременного ) появления нескольких независимых случайных событий равна произведению их вероятностей:

Р(А 1 и А 2 и А 3 … и А k) = Р(А 1) ∙Р(А 2) ∙…∙Р(А k). (7)

Совместное (одновременное) появление событий означает, что происходят события и А 1 , и А 2 , и А 3 … и А k .

Пример 2. Есть две урны. В одной находится 2 черных и 8 белых шаров, в другой – 6 черных и 4 белых. Пусть событие А –выбор наугад белого шара из первой урны, В – из второй. Какова вероятность выбрать наугад одновременноиз этих урн по белому шару, т.е. чему равна Р (А и В )?

Решение: вероятность достать белый шар из первой урны
Р (А ) = = 0,8 из второй – Р (В ) = = 0,4. Вероятность одновременно достать по белому шару из обеих урн –
Р (А и В ) = Р (А Р (В ) = 0,8∙ 0,4 = 0,32 = 32%.

Пример 3. Рацион с пониженным содержанием йода вызывает увеличение щитовидной железы у 60% животных большой популяции. Для эксперимента нужны 4 увеличенных железы. Найдите вероятность того, что у 4 случайно выбранных животных будет увеличенная щитовидная железа.

Решение :Случайное событие А – выбор наугад животного с увеличенной щитовидной железой. По условию задачи вероятность этого события Р (А ) = 0,6 = 60%. Тогда вероятность совместного появления четырех независимых событий – выбор наугад 4 животных с увеличенной щитовидной железой – будет равна:

Р (А 1 и А 2 и А 3 и А 4) = 0,6 ∙ 0,6 ∙0,6 ∙ 0,6=(0,6) 4 ≈ 0,13 = 13%.

Зависимые события. Теорема умножения вероятностей для зависимых событий

Случайные события А и В называются зависимыми, если появление одного из них, например, А изменяет вероятность появления другого события – В. Поэтому для зависимых событий используются два значения вероятности: безусловнаяи условнаявероятности.

Если А и В зависимыесобытия, то вероятность наступления события В первым (т.е. до события А ) называется безусловной вероятностью этого события и обозначается Р (В ).Вероятность наступления события В при условии, что событие А уже произошло, называется условной вероятностью события В и обозначается Р (В /А ) или Р А (В).

Аналогичный смысл имеют безусловная – Р (А ) и условная – Р (А/В ) вероятности для события А.

Теорема умножения вероятностейдля двух зависимых событий: вероятность одновременного наступления двух зависимых событий А и В равна произведению безусловной вероятности первого события на условную вероятность второго:

Р (А и В ) = Р (А ) ∙Р (В/А ) , (8)

А , или

Р (А и В ) = Р (В ) ∙Р (А/В), (9)

если первым наступает событие В .

Пример 1.В урне 3 черных шара и 7 белых. Найдите вероятность того, что из этой урныодин за другим(причем первый шар не возвращают в урну) будут вынуты 2 белых шара.

Решение : вероятность достать первый белый шар (событие А ) равна 7/10. После того как он вынут, в урне остается 9 шаров, из них 6 белых. Тогда вероятность появления второго белого шара (событие В ) равна Р (В /А ) = 6/9, а вероятность достать подряд два белых шара равна

Р (А и В ) = Р (А )∙Р (В /А ) = = 0,47 = 47%.

Приведенная теорема умножения вероятностей для зависимых событий допускает обобщение на любое количество событий. В частности, для трех событий, связанных друг с другом:

Р (А и В и С ) = Р (А ) ∙ Р (В/А ) ∙ Р (С/АВ ). (10)

Пример 2. В двух детских садах, каждый из которых посещает по 100 детей, произошла вспышка инфекционного заболевания. Доли заболевших составляют соответственно 1/5 и 1/4, причем в первом учреждении 70 %, а во втором – 60 % заболевших – дети младше 3-х лет. Случайным образом выбирают одного ребенка. Определите вероятность того, что:

1) выбранный ребенок относится к первому детскому саду (событие А ) и болен (событие В ).

2) выбран ребенок из второго детского сада (событие С ), болен (событие D ) и старше 3-х лет (событие Е ).

Решение . 1) искомая вероятность –

Р (А и В ) = Р (А ) ∙ Р (В /А ) = = 0,1 = 10%.

2) искомая вероятность:

Р (С и D и Е ) = Р (С ) ∙ Р (D /C ) ∙ Р (Е /CD ) = = 5%.

Формула Байеса

= (12)

Пример1. При первичном осмотре больного предполагаются 3 диагноза Н 1 , Н 2 , Н 3 . Их вероятности, по мнению врача, распределяются так: Р (Н 1) = 0,5; Р (Н 2) = 0,17; Р (Н 3) = 0,33. Следовательно, предварительно наиболее вероятным кажется первый диагноз. Для его уточнения назначается, например, анализ крови, в котором ожидается увеличение СОЭ (событие А ). Заранее известно (на основании результатов исследований), что вероятности увеличения СОЭ при предполагаемых заболеваниях равны:

Р (А /Н 1) = 0,1; Р (А /Н 2) = 0,2; Р (А /Н 3) = 0,9.

В полученном анализе зафиксировано увеличение СОЭ (событие А произошло). Тогда расчет по формуле Байеса (12) дает значения вероятностей предполагаемых заболеваний при увеличенном значении СОЭ: Р (Н 1 /А ) = 0,13; Р (Н 2 /А ) = 0,09;
Р (Н 3 /А ) = 0,78. Эти цифры показывают, что с учетом лабораторных данных наиболее реален не первый, а третий диагноз, вероятность которого теперь оказалась достаточно большой.

Пример 2. Определите вероятность, оценивающую степень риска перинатальной* смертности ребенка у женщин с анатомически узким тазом.

Решение : пусть событие Н 1 – благополучные роды. По данным клинических отчетов, Р (Н 1) = 0,975 = 97,5 %, тогда, если Н 2 – факт перинатальной смертности, то Р (Н 2) = 1 – 0,975 = 0,025 = 2,5 %.

Обозначим А – факт наличия узкого таза у роженицы. Из проведенных исследований известны: а) Р (А /Н 1) – вероятность узкого таза при благоприятных родах, Р (А /Н 1) = 0,029, б) Р (А /Н 2) – вероятность узкого таза при перинатальной смертности,
Р (А /Н 2) = 0,051. Тогда искомая вероятность перинатальной смертности при узком тазе у роженицы рассчитывается по формуле Байса (12) и равна:

Таким образом, риск перинатальной смертности при анатомически узком тазе значительно выше (почти вдвое) среднего риска (4,4 % против 2,5 %).

 Зависимые и независимые случайные величины

 При изучении систем случайных величин всегда следует обращать внимание на степень и характер их зависимости. Эта зависимость может быть более или менее ярко выраженной, более или менее тесной. В некоторых случаях зависимость между случайными величинами может быть настолько тесной, что, зная значение одной случайной величины, можно в точности указать значение другой. В другом крайнем случае зависимость между случайными величинами является настолько слабой и отдаленной, что их можно практически считать независимыми.
 Понятие о независимых случайных величинах - одно из важных понятий теории вероятностей.
 Случайная величина \(Y\) называется независимой от случайной величины \(X\), если закон распределения величины \(Y\) не зависит от того, какое значение приняла величина \(X\).
 Для непрерывных случайных величин условие независимости \(Y\) от \(X\) может быть записано в виде: $$f(y\mid x)=f_{2}(y)$$ при любом \(у\).
 Напротив, в случае, если \(Y\) зависит от \(X\), то $$f(y\mid x) \neq f_{2}(y)$$  Докажем, что зависимость или независимость случайных величин всегда взаимны : если величина \(Y\) не зависит от \(X\), то и величина \(X\) не зависит от \(Y\).
 Действительно, пусть \(Y\) не зависит от \(X\): $$f(y\mid x)=f_{2}(y)$$ имеем: $$f_{1}(x)f(y\mid x)=f_{2}(y)f(x\mid y)$$ откуда, получим: $$f_{1}(x)=f(x\mid y)$$ что и требовалось доказать.
 Так как зависимость и независимость случайных величин всегда взаимны, можно дать новое определение независимых случайных величин.
 Случайные величины \(X\) и \(Y\) называются независимыми, если закон распределения каждой из них не зависит от того, какое значение приняла другая. В противном случае величины \(X\) и \(Y\) называются зависимыми .
 Для независимых непрерывных случайных величин теорема умножения законов распределения принимает вид: $$f(x, y)=f_{1}(x)f_{2}(y)$$ т. е. плотность распределения системы независимых случайных величин равна произведению плотностей распределения отдельных величин, входящих в систему.
Часто по самому виду функции \(f(x, у)\) можно заключить, что случайные величины \(X, Y\) являются независимыми, а именно, если плотность распределения \(f(x, у)\) распадается на произведение двух функций, из которых одна зависит только от \(х\), другая - только от \(у\), то случайные величины независимы.
Пример 1. Плотность распределения системы \((X, Y)\) имеет вид: $$f(x, y)=\frac{1}{\pi ^{2}(x^{2}+y^{2}+x^{2}y^{2}+1)}$$ Определить: зависимы или независимы случайные величины \(X\) и \(Y\).
Решение. Разлагая знаменатель на множители, имеем: $$f(x, y)=\frac{1}{\pi (x^{2}+1)}\frac{1}{\pi (y^{2}+1)}$$ Из того, чти функция \(f(x, y)\) распалась на произведение двух функций из которых одна зависит только от \(х\), а другая - только от \(у\), заключаем, чго величины \(X\) и \(Y\) должны быть независимы. Действительно, применяя формулы, имеем: $$f(x, y)=\frac{1}{\pi (x^{2}+1)}\int_{-\infty}^{\infty}{\frac{dy}{\pi (y^{2}+1)}}=\frac{1}{\pi (x^{2}+1)}$$ аналогично $$f(x, y)={\frac{1}{\pi (y^{2}+1)}}$$ откуда убеждаемся, что $$f(x, y)=f_{1}(x)f_{2}(y)$$ и, следовательно, величины \(X\) и \(Y\) независимы.

Упорядоченная пара (X , Y) случайных величин X и Y называется двумерной случайной величиной, или случайным вектором двумерного пространства. Двумерная случайная величина (X,Y) называется также системой случайных величина X и Y. Множество всех возможных значений дискретной случайной величины с их вероятностями называется законом распределения этой случайной величины. Дискретная двумерная случайная величина (X , Y) считается заданной, если известен ее закон распределения:

P(X=x i , Y=y j) = p ij , i=1,2...,n, j=1,2...,m

Назначение сервиса . С помощью сервиса по заданному закону распределения можно найти:

  • ряды распределения X и Y, математическое ожидание M[X], M[Y], дисперсию D[X], D[Y];
  • ковариацию cov(x,y), коэффициент корреляции r x,y , условный ряд распределения X, условное математическое ожидание M;
Кроме этого, дается ответ на вопрос, "зависимы ли случайные величины X и Y ?".

Инструкция . Укажите размерность матрицы распределения вероятностей (количество строк и столбцов) и ее вид. Полученное решение сохраняется в файле Word .

Пример №1 . Двумерная дискретная случайная величина имеет таблицу распределения:

Y/X 1 2 3 4
10 0 0,11 0,12 0,03
20 0 0,13 0,09 0,02
30 0,02 0,11 0,08 0,01
40 0,03 0,11 0,05 q
Найти величину q и коэффициент корреляции этой случайной величины.

Решение. Величину q найдем из условия Σp ij = 1
Σp ij = 0,02 + 0,03 + 0,11 + … + 0,03 + 0,02 + 0,01 + q = 1
0.91+q = 1. Откуда q = 0.09

Пользуясь формулой ∑P(xi ,yj ) = pi (j=1..n), находим ряд распределения X.

Математическое ожидание M[Y] .
M[y] = 1*0.05 + 2*0.46 + 3*0.34 + 4*0.15 = 2.59
Дисперсия D[Y] = 1 2 *0.05 + 2 2 *0.46 + 3 2 *0.34 + 4 2 *0.15 - 2.59 2 = 0.64
Среднее квадратическое отклонение σ(y) = sqrt(D[Y]) = sqrt(0.64) = 0.801

Ковариация cov(X,Y) = M - M[X]·M[Y] = 2·10·0.11 + 3·10·0.12 + 4·10·0.03 + 2·20·0.13 + 3·20·0.09 + 4·20·0.02 + 1·30·0.02 + 2·30·0.11 + 3·30·0.08 + 4·30·0.01 + 1·40·0.03 + 2·40·0.11 + 3·40·0.05 + 4·40·0.09 - 25.2 · 2.59 = -0.068
Коэффициент корреляции r xy = cov(x,y)/σ(x)&sigma(y) = -0.068/(11.531*0.801) = -0.00736

Пример 2 . Данные статистической обработки сведений относительно двух показателей X и Y отражены в корреляционной таблице. Требуется:

  1. написать ряды распределения для X и Y и вычислить для них выборочные средние и выборочные средние квадратические отклонения;
  2. написать условные ряды распределения Y/x и вычислить условные средние Y/x;
  3. изобразить графически зависимость условных средних Y/x от значений X;
  4. рассчитать выборочный коэффициент корреляции Y на X;
  5. написать выборочное уравнение прямой регрессии;
  6. изобразить геометрически данные корреляционной таблицы и построить прямую регрессии.
Решение . Упорядоченная пара (X,Y) случайных величин X и Y называется двумерной случайной величиной, или случайным вектором двумерного пространства. Двумерная случайная величина (X,Y) называется также системой случайных величина X и Y.
Множество всех возможных значений дискретной случайной величины с их вероятностями называется законом распределения этой случайной величины.
Дискретная двумерная случайная величина (X,Y) считается заданной, если известен ее закон распределения:
P(X=x i , Y=y j) = p ij , i=1,2...,n, j=1,2..,m
X / Y 20 30 40 50 60
11 2 0 0 0 0
16 4 6 0 0 0
21 0 3 6 2 0
26 0 0 45 8 4
31 0 0 4 6 7
36 0 0 0 0 3
События (X=x i , Y=y j) образуют полную группу событий, поэтому сумма всех вероятностей p ij (i=1,2...,n, j=1,2..,m ), указанных в таблице, равна 1.
1. Зависимость случайных величин X и Y .
Находим ряды распределения X и Y.
Пользуясь формулой ∑P(xi ,yj ) = pi (j=1..n), находим ряд распределения X.
X 11 16 21 26 31 36
P 2 10 11 57 17 3 ∑P i = 100
Математическое ожидание M[X] .
M[x] = (11*2 + 16*10 + 21*11 + 26*57 + 31*17 + 36*3)/100 = 25.3
Дисперсия D[X] .
D[X] = (11 2 *2 + 16 2 *10 + 21 2 *11 + 26 2 *57 + 31 2 *17 + 36 2 *3)/100 - 25.3 2 = 24.01
Среднее квадратическое отклонение σ(x) .

Пользуясь формулой ∑P(xi ,yj ) = qj (i=1..m), находим ряд распределения Y.

Y 20 30 40 50 60
P 6 9 55 16 14 ∑P i = 100
Математическое ожидание M[Y] .
M[y] = (20*6 + 30*9 + 40*55 + 50*16 + 60*14)/100 = 42.3
Дисперсия D[Y] .
D[Y] = (20 2 *6 + 30 2 *9 + 40 2 *55 + 50 2 *16 + 60 2 *14)/100 - 42.3 2 = 99.71
Среднее квадратическое отклонение σ(y) .

Поскольку, P(X=11,Y=20) = 2≠2·6, то случайные величины X и Y зависимы .
2. Условный закон распределения X .
Условный закон распределения X(Y=20) .
P(X=11/Y=20) = 2/6 = 0.33
P(X=16/Y=20) = 4/6 = 0.67
P(X=21/Y=20) = 0/6 = 0
P(X=26/Y=20) = 0/6 = 0
P(X=31/Y=20) = 0/6 = 0
P(X=36/Y=20) = 0/6 = 0
Условное математическое ожидание M = 11*0.33 + 16*0.67 + 21*0 + 26*0 + 31*0 + 36*0 = 14.33
Условная дисперсия D = 11 2 *0.33 + 16 2 *0.67 + 21 2 *0 + 26 2 *0 + 31 2 *0 + 36 2 *0 - 14.33 2 = 5.56
Условный закон распределения X(Y=30) .
P(X=11/Y=30) = 0/9 = 0
P(X=16/Y=30) = 6/9 = 0.67
P(X=21/Y=30) = 3/9 = 0.33
P(X=26/Y=30) = 0/9 = 0
P(X=31/Y=30) = 0/9 = 0
P(X=36/Y=30) = 0/9 = 0
Условное математическое ожидание M = 11*0 + 16*0.67 + 21*0.33 + 26*0 + 31*0 + 36*0 = 17.67
Условная дисперсия D = 11 2 *0 + 16 2 *0.67 + 21 2 *0.33 + 26 2 *0 + 31 2 *0 + 36 2 *0 - 17.67 2 = 5.56
Условный закон распределения X(Y=40) .
P(X=11/Y=40) = 0/55 = 0
P(X=16/Y=40) = 0/55 = 0
P(X=21/Y=40) = 6/55 = 0.11
P(X=26/Y=40) = 45/55 = 0.82
P(X=31/Y=40) = 4/55 = 0.0727
P(X=36/Y=40) = 0/55 = 0
Условное математическое ожидание M = 11*0 + 16*0 + 21*0.11 + 26*0.82 + 31*0.0727 + 36*0 = 25.82
Условная дисперсия D = 11 2 *0 + 16 2 *0 + 21 2 *0.11 + 26 2 *0.82 + 31 2 *0.0727 + 36 2 *0 - 25.82 2 = 4.51
Условный закон распределения X(Y=50) .
P(X=11/Y=50) = 0/16 = 0
P(X=16/Y=50) = 0/16 = 0
P(X=21/Y=50) = 2/16 = 0.13
P(X=26/Y=50) = 8/16 = 0.5
P(X=31/Y=50) = 6/16 = 0.38
P(X=36/Y=50) = 0/16 = 0
Условное математическое ожидание M = 11*0 + 16*0 + 21*0.13 + 26*0.5 + 31*0.38 + 36*0 = 27.25
Условная дисперсия D = 11 2 *0 + 16 2 *0 + 21 2 *0.13 + 26 2 *0.5 + 31 2 *0.38 + 36 2 *0 - 27.25 2 = 10.94
Условный закон распределения X(Y=60) .
P(X=11/Y=60) = 0/14 = 0
P(X=16/Y=60) = 0/14 = 0
P(X=21/Y=60) = 0/14 = 0
P(X=26/Y=60) = 4/14 = 0.29
P(X=31/Y=60) = 7/14 = 0.5
P(X=36/Y=60) = 3/14 = 0.21
Условное математическое ожидание M = 11*0 + 16*0 + 21*0 + 26*0.29 + 31*0.5 + 36*0.21 = 30.64
Условная дисперсия D = 11 2 *0 + 16 2 *0 + 21 2 *0 + 26 2 *0.29 + 31 2 *0.5 + 36 2 *0.21 - 30.64 2 = 12.37
3. Условный закон распределения Y .
Условный закон распределения Y(X=11) .
P(Y=20/X=11) = 2/2 = 1
P(Y=30/X=11) = 0/2 = 0
P(Y=40/X=11) = 0/2 = 0
P(Y=50/X=11) = 0/2 = 0
P(Y=60/X=11) = 0/2 = 0
Условное математическое ожидание M = 20*1 + 30*0 + 40*0 + 50*0 + 60*0 = 20
Условная дисперсия D = 20 2 *1 + 30 2 *0 + 40 2 *0 + 50 2 *0 + 60 2 *0 - 20 2 = 0
Условный закон распределения Y(X=16) .
P(Y=20/X=16) = 4/10 = 0.4
P(Y=30/X=16) = 6/10 = 0.6
P(Y=40/X=16) = 0/10 = 0
P(Y=50/X=16) = 0/10 = 0
P(Y=60/X=16) = 0/10 = 0
Условное математическое ожидание M = 20*0.4 + 30*0.6 + 40*0 + 50*0 + 60*0 = 26
Условная дисперсия D = 20 2 *0.4 + 30 2 *0.6 + 40 2 *0 + 50 2 *0 + 60 2 *0 - 26 2 = 24
Условный закон распределения Y(X=21) .
P(Y=20/X=21) = 0/11 = 0
P(Y=30/X=21) = 3/11 = 0.27
P(Y=40/X=21) = 6/11 = 0.55
P(Y=50/X=21) = 2/11 = 0.18
P(Y=60/X=21) = 0/11 = 0
Условное математическое ожидание M = 20*0 + 30*0.27 + 40*0.55 + 50*0.18 + 60*0 = 39.09
Условная дисперсия D = 20 2 *0 + 30 2 *0.27 + 40 2 *0.55 + 50 2 *0.18 + 60 2 *0 - 39.09 2 = 44.63
Условный закон распределения Y(X=26) .
P(Y=20/X=26) = 0/57 = 0
P(Y=30/X=26) = 0/57 = 0
P(Y=40/X=26) = 45/57 = 0.79
P(Y=50/X=26) = 8/57 = 0.14
P(Y=60/X=26) = 4/57 = 0.0702
Условное математическое ожидание M = 20*0 + 30*0 + 40*0.79 + 50*0.14 + 60*0.0702 = 42.81
Условная дисперсия D = 20 2 *0 + 30 2 *0 + 40 2 *0.79 + 50 2 *0.14 + 60 2 *0.0702 - 42.81 2 = 34.23
Условный закон распределения Y(X=31) .
P(Y=20/X=31) = 0/17 = 0
P(Y=30/X=31) = 0/17 = 0
P(Y=40/X=31) = 4/17 = 0.24
P(Y=50/X=31) = 6/17 = 0.35
P(Y=60/X=31) = 7/17 = 0.41
Условное математическое ожидание M = 20*0 + 30*0 + 40*0.24 + 50*0.35 + 60*0.41 = 51.76
Условная дисперсия D = 20 2 *0 + 30 2 *0 + 40 2 *0.24 + 50 2 *0.35 + 60 2 *0.41 - 51.76 2 = 61.59
Условный закон распределения Y(X=36) .
P(Y=20/X=36) = 0/3 = 0
P(Y=30/X=36) = 0/3 = 0
P(Y=40/X=36) = 0/3 = 0
P(Y=50/X=36) = 0/3 = 0
P(Y=60/X=36) = 3/3 = 1
Условное математическое ожидание M = 20*0 + 30*0 + 40*0 + 50*0 + 60*1 = 60
Условная дисперсия D = 20 2 *0 + 30 2 *0 + 40 2 *0 + 50 2 *0 + 60 2 *1 - 60 2 = 0
Ковариация .
cov(X,Y) = M - M[X]·M[Y]
cov(X,Y) = (20·11·2 + 20·16·4 + 30·16·6 + 30·21·3 + 40·21·6 + 50·21·2 + 40·26·45 + 50·26·8 + 60·26·4 + 40·31·4 + 50·31·6 + 60·31·7 + 60·36·3)/100 - 25.3 · 42.3 = 38.11
Если случайные величины независимы, то их ковариации равна нулю. В нашем случае cov(X,Y) ≠ 0.
Коэффициент корреляции .


Уравнение линейной регрессии с y на x имеет вид:

Уравнение линейной регрессии с x на y имеет вид:

Найдем необходимые числовые характеристики.
Выборочные средние:
x = (20(2 + 4) + 30(6 + 3) + 40(6 + 45 + 4) + 50(2 + 8 + 6) + 60(4 + 7 + 3))/100 = 42.3
y = (20(2 + 4) + 30(6 + 3) + 40(6 + 45 + 4) + 50(2 + 8 + 6) + 60(4 + 7 + 3))/100 = 25.3
Дисперсии:
σ 2 x = (20 2 (2 + 4) + 30 2 (6 + 3) + 40 2 (6 + 45 + 4) + 50 2 (2 + 8 + 6) + 60 2 (4 + 7 + 3))/100 - 42.3 2 = 99.71
σ 2 y = (11 2 (2) + 16 2 (4 + 6) + 21 2 (3 + 6 + 2) + 26 2 (45 + 8 + 4) + 31 2 (4 + 6 + 7) + 36 2 (3))/100 - 25.3 2 = 24.01
Откуда получаем среднеквадратические отклонения:
σ x = 9.99 и σ y = 4.9
и ковариация:
Cov(x,y) = (20·11·2 + 20·16·4 + 30·16·6 + 30·21·3 + 40·21·6 + 50·21·2 + 40·26·45 + 50·26·8 + 60·26·4 + 40·31·4 + 50·31·6 + 60·31·7 + 60·36·3)/100 - 42.3 · 25.3 = 38.11
Определим коэффициент корреляции:


Запишем уравнения линий регрессии y(x):

и вычисляя, получаем:
y x = 0.38 x + 9.14
Запишем уравнения линий регрессии x(y):

и вычисляя, получаем:
x y = 1.59 y + 2.15
Если построить точки, определяемые таблицей и линии регрессии, увидим, что обе линии проходят через точку с координатами (42.3; 25.3) и точки расположены близко к линиям регрессии.
Значимость коэффициента корреляции .

По таблице Стьюдента с уровнем значимости α=0.05 и степенями свободы k=100-m-1 = 98 находим t крит:
t крит (n-m-1;α/2) = (98;0.025) = 1.984
где m = 1 - количество объясняющих переменных.
Если t набл > t критич, то полученное значение коэффициента корреляции признается значимым (нулевая гипотеза, утверждающая равенство нулю коэффициента корреляции, отвергается).
Поскольку t набл > t крит, то отклоняем гипотезу о равенстве 0 коэффициента корреляции. Другими словами, коэффициент корреляции статистически - значим.

Задание . Количество попаданий пар значений случайных величин X и Y в соответствующие интервалы приведены в таблице. По этим данным найти выборочный коэффициент корреляции и выборочные уравнения прямых линий регрессии Y на X и X на Y .
Решение

Пример . Распределение вероятностей двумерной случайной величины (X, Y) задано таблицей. Найти законы распределения составляющих величин X, Y и коэффициент корреляции p(X, Y).
Скачать решение

Задание . Двумерная дискретная величина (X, Y) задана законом распределения. Найти законы распределения составляющих X и Y, ковариацию и коэффициент корреляции.

Различают события зависимые и независимые. Два события называются независимыми, если появление одного из них не изменяет вероятность появления другого. Например, если в цехе работают две автоматические линии, по условиям производства не взаимосвязанные, то остановки этих линий являются независимыми событиями.

Несколько событий называются независимыми в совокупности , если любое из них не зависит от любого другого события и от любой комбинации остальных.

События называются зависимыми , если одно из них влияет на вероятность появления другого. Например, две производственные установки связаны единым технологическим циклом. Тогда вероятность выхода из строя одной из них зависит от того, в каком состоянии находится другая. Вероятность одного события B, вычисленная в предположении осуществления другого события A, называется условной вероятностью события Bи обозначается P{A|B}.

Условие независимости события B от события A записывают в виде P{B|A}=P{B}, а условие его зависимости - в виде P{B|A}≠P{B}.

Вероятность события в испытаниях Бернулли. Формула Пуассона.

Повторными независимыми испытаниями, испытаниями Бернулли или схемой Бернулли называются такие испытания, если при каждом испытании имеются только два исхода - появление события А или и вероятность этих событий остается неизменной для всех испытаний. Эта простая схема случайных испытаний имеет большое значение в теории вероятностей.

Наиболее известным примером испытаний Бернулли является опыт с последовательным бросанием правильной (симметричной и однородной) монеты, где событием А является выпадение, например, "герба", ("решки").

Пусть в некотором опыте вероятность события А равна P(А)=р , тогда , где р+q=1. Выполним опыт n раз, предположив, что отдельные испытания независимы, а значит исход любых из них не связан с исходами предыдущих (или последующих) испытаний. Найдем вероятность появления событий А точно k раз, скажем только в первых k испытаниях. Пусть - событие, заключающееся в том, что при n испытаниях событие А появиться точно k раз в первых испытаниях. Событие можно представить в виде

Поскольку опыты мы предположили независимыми, то

41)[стр2] Если ставить вопрос о появлении события А k-раз в n испытаниях в произвольном порядке, то событие представимо в виде

Число различных слагаемых в правой части этого равенства равно числу испытаний из n по k , поэтому вероятность событий , которую будем обозначать , равна

Последовательность событий образует полную группу независимых событий . Действительно, из независимости событий получаем