Дві випадкові величини $X$ і $Y$ називаються незалежними, якщо закон розподілу однієї випадкової величини не змінюється від того, які можливі значення набула інша випадкова величина. Тобто, для будь-яких $x$ та $y$ події $X=x$ та $Y=y$ є незалежними. Оскільки події $X=x$ і $Y=y$ незалежні, то за теоремою добутку ймовірностей незалежних подій $P\left(\left(X=x\right)\left(Y=y\right)\right)=P \left(X=x\right)P\left(Y=y\right)$.

Приклад 1 . Нехай випадкова величина $X$ виражає грошовий виграш за квитками однієї лотереї «Російське лото», а випадкова величина $Y$ виражає грошовий виграш за квитками іншої лотереї «Золотий ключ». Вочевидь, що випадкові величини $X,\ Y$ будуть незалежними, оскільки виграш за квитками однієї лотереї залежить від закону розподілу виграшів за квитками інший лотереї. У тому випадку, коли випадкові величини $X,\Y$ виражали б виграш по одній і тій же лотереї, то, очевидно, дані випадкові величини були б залежними.

Приклад 2 . Двоє робітників працюють у різних цехах і виготовляють різні вироби, не пов'язані між собою технологіями виготовлення та використовуваною сировиною. Закон розподілу числа бракованих виробів, виготовлених першим робітником за зміну, має такий вигляд:

$\begin(array)(|c|c|)
\hline
Число \ бракованих \ виробів \ x & 0 & 1 \\
\hline
Можливість & 0,8 & 0,2 \\
\hline
\end(array)$

Число бракованих виробів, виготовлених другим робітником за зміну, підпорядковується таким закону розподілу.

$\begin(array)(|c|c|)
\hline
Число \ бракованих \ виробів \ y & 0 & 1 \\
\hline
Можливість & 0,7 & 0,3 \\
\hline
\end(array)$

Знайдемо закон розподілу числа бракованих виробів, виготовлених двома робітниками за зміну.

Нехай випадкова величина $X$ - кількість бракованих виробів, виготовлених першим робітником за зміну, а $Y$ - кількість бракованих виробів, виготовлених другим робітником за зміну. За умовою, випадкові величини $ X, \ Y $ незалежні.

Число бракованих виробів, виготовлених двома робітниками за зміну, є випадковою величиною $X+Y$. Її можливі значення дорівнюють $0,\1$ і $2$. Знайдемо ймовірності, з якими випадкова величина $X+Y$ набуває своїх значень.

$P\left(X+Y=0\right)=P\left(X=0,\Y=0\right)=P\left(X=0\right)P\left(Y=0\right) = 0,8 \ cdot 0,7 = 0,56.

$P\left(X+Y=1\right)=P\left(X=0,\Y=1\ або\X=1,\Y=0\right)=P\left(X=0\right )P\left(Y=1\right)+P\left(X=1\right)P\left(Y=0\right)=0,8cdot 0,3+0,2cdot 0,7 = 0,38. $

$P\left(X+Y=2\right)=P\left(X=1,\Y=1\right)=P\left(X=1\right)P\left(Y=1\right) = 0,2 \ cdot 0,3 = 0,06.

Тоді закон розподілу числа бракованих виробів, виготовлених двома робітниками за зміну:

$\begin(array)(|c|c|)
\hline
Число \ бракованих \ виробів & 0 & 1 & 2 \\
\hline
Можливість & 0,56 & 0,38 & 0,06 \\
\hline
\end(array)$

У попередньому прикладі ми виконували операцію над випадковими величинами $X,\Y$, а саме знаходили їхню суму $X+Y$. Дамо тепер більш строго визначення операцій (складання, різницю, множення) над випадковими величинами і наведемо приклади рішень.

Визначення 1. Добутком $kX$ випадкової величини $X$ на постійну величину $k$ називається випадкова величина, яка приймає значення $kx_i$ з тими ж ймовірностями $p_i$ $\left(i=1,\ 2,\ dots ,\ n\ right) $.

Визначення 2. Сумою (різницею або добутком) випадкових величин $X$ і $Y$ називається випадкова величина, яка приймає всі можливі значення виду $x_i+y_j$ ($x_i-y_i$ або $x_i\cdot y_i$), де $i=1 ,\ 2,\dots ,\ n$, з ймовірностями $p_(ij)$ того, що випадкова величина $X$ прийме значення $x_i$, а $Y$ значення $y_j$:

$$p_(ij)=P\left[\left(X=x_i\right)\left(Y=y_j\right)\right].$$

Так як випадкові величини $ X, \ Y $ незалежні, то по теоремі множення ймовірностей для незалежних подій: $ p_ (ij) = P \ left (X = x_i \ right) \ cdot P \ left (Y = y_j \ right) = p_i\cdot p_j$.

Приклад 3 . Незалежні випадкові величини $X,\Y$ задані своїми законами розподілу ймовірностей.

$\begin(array)(|c|c|)
\hline
x_i & -8 & 2 & 3 \\
\hline
p_i & 0,4 & 0,1 & 0,5 \\
\hline
\end(array)$

$\begin(array)(|c|c|)
\hline
y_i & 2 & 8 \\
\hline
p_i & 0,3 & 0,7 \\
\hline
\end(array)$

Складемо закон розподілу випадкової величини $Z=2X+Y$. Сумою випадкових величин $X$ і $Y$, тобто $X+Y$, називається випадкова величина, яка набуває всіх можливих значень виду $x_i+y_j$, де $i=1,\ 2,\dots ,\ n$ , з ймовірностями $p_(ij)$ того, що випадкова величина $X$ прийме значення $x_i$, а $Y$ значення $y_j$: $p_(ij)=P\left[\left(X=x_i\right )\left(Y=y_j\right)\right]$. Так як випадкові величини $ X, \ Y $ незалежні, то по теоремі множення ймовірностей для незалежних подій: $ p_ (ij) = P \ left (X = x_i \ right) \ cdot P \ left (Y = y_j \ right) = p_i\cdot p_j$.

Отже, має закони розподілу випадкових величин $2X$ і $Y$ відповідно.

$\begin(array)(|c|c|)
\hline
x_i & -16 & 4 & 6 \\
\hline
p_i & 0,4 & 0,1 & 0,5 \\
\hline
\end(array)$

$\begin(array)(|c|c|)
\hline
y_i & 2 & 8 \\
\hline
p_i & 0,3 & 0,7 \\
\hline
\end(array)$

Для зручності знаходження всіх значень суми $Z=2X+Y$ та його ймовірностей складемо допоміжну таблицю, у кожному клітині якої помістимо у лівому куті значення суми $Z=2X+Y$, а правому куті - ймовірності цих значень, отримані в результаті перемноження ймовірностей відповідних значень випадкових величин $2X$ та $Y$.

В результаті отримаємо розподіл $Z=2X+Y$:

$\begin(array)(|c|c|)
\hline
z_i & -14 & -8 & 6 & 12 & 10 & 16 \\
\hline
p_i & 0,12 & 0,28 & 0,03 & 0,07 & 0,15 & 0,35 \\
\hline
\end(array)$

Випадкові події називаються незалежними, якщо поява одного з них не впливає на ймовірність появи інших подій.

Приклад 1 . Якщо є дві або більше урни з кольоровими кулями, то вилучення будь-якої кулі з однієї урни ніяк не вплине на ймовірність вилучення інших куль з урн, що залишилися.

Для незалежних подій справедлива теорема множення ймовірностей: ймовірність спільного(одночасного)Поява кількох незалежних випадкових подій дорівнює добутку їх ймовірностей:

Р(А 1 та А 2 і А 3 … і А k) = Р(А 1) ∙Р(А 2) ∙…∙Р(А k). (7)

Спільна (одночасна) поява подій означає, що відбуваються події та А 1 ,і А 2і А 3… і А k.

Приклад 2 . Є дві скриньки. В одній знаходиться 2 чорних та 8 білих куль, в іншій – 6 чорних та 4 білих. Нехай подія А-Вибір навмання білої кулі з першої урни, У- З другої. Яка можливість вибрати навмання одночасно з цих урн з білої кулі, тобто. чому дорівнює Р (Аі У)?

Рішення:ймовірність дістати білу кулю з першої урни
Р(А) = = 0,8 з другої – Р(У) = = 0,4. Імовірність одночасно дістати по білій кулі з обох урн –
Р(Аі У) = Р(АР(У) = 0,8∙ 0,4 = 0,32 = 32%.

Приклад 3. Раціон зі зниженим вмістом йоду викликає збільшення щитовидної залози у 60% тварин великої популяції. Для експерименту потрібні 4 збільшені залози. Знайдіть ймовірність того, що у 4 випадково вибраних тварин буде збільшена щитовидна залоза.

Рішення:Випадкова подія А- Вибір навмання тварини зі збільшеною щитовидною залозою. За умовою завдання ймовірність цієї події Р(А) = 0,6 = 60%. Тоді ймовірність спільної появи чотирьох незалежних подій – вибір навмання 4 тварин із збільшеною щитовидною залозою – дорівнюватиме:

Р(А 1 та А 2 та А 3 та А 4) = 0,6 ∙ 0,6 ∙0,6 ∙ 0,6=(0,6) 4 ≈ 0,13 = 13%.

Залежні події. Теорема множення ймовірностей для залежних подій

Випадкові події А та В називаються залежними, якщо поява одного з них, наприклад, А змінює ймовірність появи іншої події – Ст.Тому для залежних подій використовуються два значення ймовірності: безумовна та умовна ймовірності .

Якщо Аі Узалежні події, то ймовірність настання події Упершим (тобто до події А) називається безумовною ймовірністюцієї події і позначається Р(У).Ймовірність настання події Уза умови, що подія Авже сталося, називається умовною ймовірністюподії Уі позначається Р(У/А) або Р А(У).

Аналогічний сенс мають безумовна – Р(А) та умовна – Р(А/В) ймовірності для події А.

Теорема множення ймовірностей для двох залежних подій: ймовірність одночасного наступу двох залежних подій А і В дорівнює добутку безумовної ймовірності першої події на умовну ймовірність другої:

Р(А і В)= Р(А)∙Р(В/А) , (8)

А, або

Р(А і В)= Р(У)∙Р(А/В), (9)

якщо першим настає подія У.

Приклад 1.В урні 3 чорні кулі і 7 білих. Знайдіть ймовірність того, що з цієї урниодин за іншим (причому першу кулю не повертають в урну) будуть вийняті 2 білі кулі.

Рішення: ймовірність дістати першу білу кулю (подія А) дорівнює 7/10. Після того, як він вийнятий, в урні залишається 9 куль, з них 6 білих. Тоді ймовірність появи другої білої кулі (подія У) дорівнює Р(У/А) = 6/9, а ймовірність дістати поспіль дві білі кулі дорівнює

Р(Аі У) = Р(А)∙Р(У/А) = = 0,47 = 47%.

Наведена теорема множення ймовірностей для залежних подій допускає узагальнення будь-яку кількість подій. Зокрема, для трьох подій, пов'язаних одна з одною:

Р(Аі Уі З)= Р(А)∙ Р(В/А)∙ Р(С/АВ). (10)

Приклад 2. У двох дитячих садках, кожен із яких відвідує по 100 дітей, стався спалах інфекційного захворювання. Частки хворих складають відповідно 1/5 і 1/4, причому у першому закладі 70 %, тоді як у другому – 60 % хворих – діти молодше 3-х років. Випадковим чином обирають одну дитину. Визначте ймовірність того, що:

1) обрана дитина відноситься до першого дитячого садка (подія А) і хворий (подія У).

2) обрано дитину з другого дитячого садка (подія З), хворий (подія D) та старше 3-х років (подія Е).

Рішення. 1) шукана ймовірність -

Р(Аі У) = Р(А) ∙ Р(У/А) = = 0,1 = 10%.

2) шукана ймовірність:

Р(Зі Dі Е) = Р(З) ∙ Р(D/C) ∙ Р(Е/CD) = = 5%.

Формула Байєса

= (12)

Приклад1. При первинному огляді хворого передбачаються 3 діагнози. Н 1 , Н 2 , Н 3 . Їх ймовірності, на думку лікаря, розподіляються так: Р(Н 1) = 0,5; Р(Н 2) = 0,17; Р(Н 3) = 0,33. Отже, попередньо найімовірнішим видається перший діагноз. Для його уточнення призначається, наприклад, аналіз крові, в якому очікується збільшення ШОЕ (подія А). Заздалегідь відомо (на підставі результатів досліджень), що ймовірність збільшення ШОЕ при передбачуваних захворюваннях дорівнює:

Р(А/Н 1) = 0,1; Р(А/Н 2) = 0,2; Р(А/Н 3) = 0,9.

В отриманому аналізі зафіксовано збільшення ШОЕ (подія Асталося). Тоді розрахунок за формулою Байєса (12) дає значення ймовірностей передбачуваних захворювань при збільшеному значенні ШОЕ: Р(Н 1 /А) = 0,13; Р(Н 2 /А) = 0,09;
Р(Н 3 /А) = 0,78. Ці цифри показують, що з урахуванням лабораторних даних найреальніший не перший, а третій діагноз, ймовірність якого тепер виявилася досить великою.

Приклад 2. Визначте ймовірність, що оцінює ступінь ризику перинатальної смертності дитини у жінок з анатомічно вузьким тазом.

Рішення: нехай подія Н 1 – благополучні пологи. За даними клінічних звітів, Р(Н 1) = 0,975 = 97,5%, тоді, якщо Н 2- факт перинатальної смертності, то Р(Н 2) = 1 – 0,975 = 0,025 = 2,5 %.

Позначимо А- факт наявності вузького тазу у породіллі. З проведених досліджень відомі: а) Р(А/Н 1) - ймовірність вузького тазу при сприятливих пологах, Р(А/Н 1) = 0,029; б) Р(А/Н 2) - ймовірність вузького тазу при перинатальної смертності,
Р(А/Н 2) = 0,051. Тоді ймовірність перинатальної смертності при вузькому тазі у породіллі розраховується за формулою Байса (12) і дорівнює:

Таким чином, ризик перинатальної смертності при анатомічно вузькому тазі значно вищий (майже вдвічі) середнього ризику (4,4% проти 2,5%).

  Залежні та незалежні випадкові величини

 При вивченні систем випадкових величин завжди слід звертати увагу на ступінь та характер їхньої залежності. Ця залежність може бути більш менш яскраво вираженою, більш менш тісною. У деяких випадках залежність між випадковими величинами може бути настільки тісною, що, знаючи значення однієї випадкової величини, можна точно вказати значення іншої. В іншому крайньому випадку залежність між випадковими величинами є настільки слабкою та віддаленою, що їх можна практично вважати незалежними.
Поняття про незалежні випадкові величини - одне з важливих понять теорії ймовірностей.
 Випадкова величина \(Y\) називається незалежною від випадкової величини \(X\), якщо закон розподілу величини \(Y\) не залежить від того, яке значення прийняла величина \(X\).
 Для безперервних випадкових величин умова незалежності \(Y\) від \(X\) може бути записана у вигляді: $$f(y\mid x)=f_(2)(y)$$ при будь-якому \(у\).
 Натомість, якщо \(Y\) залежить від \(X\), то $$f(y\mid x) \neq f_(2)(y)$$  Докажемо, що залежність чи незалежність випадкових величин завжди взаємні: якщо величина (Y) не залежить від (X), то і величина (X) не залежить від (Y).
 Дійсно, нехай \(Y\) не залежить від \(X\): $$f(y\mid x)=f_(2)(y)$$ маємо: $$f_(1)(x)f(y \mid x)=f_(2)(y)f(x\mid y)$$ звідки, отримаємо: $$f_(1)(x)=f(x\mid y)$$ що й потрібно довести.
Як залежність і незалежність випадкових величин завжди взаємні, можна дати нове визначення незалежних випадкових величин.
 Випадкові величини \(X\) і \(Y\) називаються незалежними, якщо закон розподілу кожної з них не залежить від того, яке значення прийняла інша. Інакше величини (X) і (Y) називаються.
залежними
 Для незалежних безперервних випадкових величин теорема множення законів розподілу набуває вигляду: $$f(x, y)=f_(1)(x)f_(2)(y)$$ тобто щільність розподілу системи незалежних випадкових величин дорівнює добутку щільностей розподілу окремих величин, що входять до системи.
Часто за видом функції \(f(x, у)\) можна зробити висновок, що випадкові величини \(X, Y\) є незалежними, а саме, якщо щільність розподілу \(f(x, у)\) розпадається на твір двох функцій, у тому числі одна залежить лише від \(х\), інша - лише від \(у\), то випадкові величини незалежні.приклад 1.
Щільність розподілу системи \((X, Y)\) має вигляд: $$f(x, y)=\frac(1)(\pi ^(2)(x^(2)+y^(2)+x ^(2)y^(2)+1))$$ Визначити: залежні або незалежні випадкові величини \(X\) і \(Y\). Рішення.

Упорядкована пара (X, Y) випадкових величин X і Y називається двовимірною випадковою величиною, або випадковим вектором двовимірного простору. Двовимірна випадкова величина (X,Y) називається також системою випадкових величина X і Y. Безліч всіх можливих значень дискретної випадкової величини зі своїми ймовірностями називається законом розподілу цієї випадкової величини. Дискретна двовимірна випадкова величина (X, Y) вважається заданою, якщо відомий її закон розподілу:

P(X=x i , Y=y j) = p ij , i=1,2...,n, j=1,2...,m

Призначення сервісу. За допомогою сервісу за заданим законом розподілу можна знайти:

  • ряди розподілу X та Y, математичне очікування M[X], M[Y], дисперсію D[X], D[Y];
  • коваріацію cov(x,y), коефіцієнт кореляції r x,y, умовний ряд розподілу X, умовне математичне очікування M;
Крім цього, дається відповідь на питання, "чи залежні випадкові величини X і Y?".

Інструкція. Вкажіть розмірність матриці розподілу ймовірностей (кількість рядків та стовпців) та її вигляд. Отримане рішення зберігається у файлі Word.

Приклад №1. Двовимірна дискретна випадкова величина має таблицю розподілу:

Y/X 1 2 3 4
10 0 0,11 0,12 0,03
20 0 0,13 0,09 0,02
30 0,02 0,11 0,08 0,01
40 0,03 0,11 0,05 q
Знайти величину q та коефіцієнт кореляції цієї випадкової величини.

Рішення. Величину q знайдемо з умови ∑p ij = 1
Σp ij = 0,02 + 0,03 + 0,11 + … + 0,03 + 0,02 + 0,01 + q = 1
0.91 + q = 1. Звідки q = 0.09

Користуючись формулою ∑P(x i,y j) = p i(j=1..n), знаходимо ряд розподілу X.

Математичне очікування M[Y].
M[y] = 1 * 0.05 + 2 * 0.46 + 3 * 0.34 + 4 * 0.15 = 2.59
Дисперсія D[Y] = 1 2 *0.05 + 2 2 *0.46 + 3 2 *0.34 + 4 2 *0.15 - 2.59 2 = 0.64
Середнє квадратичне відхиленняσ(y) = sqrt(D[Y]) = sqrt(0.64) = 0.801

Коваріація cov(X,Y) = M - M [X] · M [Y] = 2 · 10 · 0.11 + 3 · 10 · 0.12 + 4 · 10 · 0.03 + 2 · 20 · 0.13 + 3 · 20 · 0.09 + 4 · 20 · 0.02 + 1 · 30 · 0.02 + 2 · 30 · 0.11 + 3 · 30 · 0.08 + 4 · 30 · 0.01 + 1 · 40 · 0.03 + 2 · 40 · 0.11 + 3 · 40 · 0.05 + 4 · 40 · 0.09 - 25.2 · 2.59 = -0.068
Коефіцієнт кореляції r xy = cov(x,y)/σ(x)&sigma(y) = -0.068/(11.531*0.801) = -0.00736

Приклад 2 . Дані статистичної обробки відомостей щодо двох показників X та Y відображені у кореляційній таблиці. Потрібно:

  1. написати ряди розподілу для X і Y та обчислити для них вибіркові середні та вибіркові середні квадратичні відхилення;
  2. написати умовні ряди розподілу Y/x та обчислити умовні середні Y/x;
  3. зобразити графічно залежність умовних середніх Y/x від значень X;
  4. розрахувати вибірковий коефіцієнт кореляції Y X;
  5. написати вибіркове рівняння прямої регресії;
  6. зобразити геометричні дані кореляційної таблиці та побудувати пряму регресію.
Рішення. Упорядкована пара (X,Y) випадкових величин X та Y називається двовимірною випадковою величиною, або випадковим вектором двовимірного простору. Двовимірна випадкова величина (X,Y) називається також системою випадкових величина X та Y.
Безліч всіх можливих значень дискретної випадкової величини зі своїми ймовірностями називається законом розподілу цієї випадкової величини.
Дискретна двовимірна випадкова величина (X,Y) вважається заданою, якщо відомий її закон розподілу:
P(X=x i , Y=y j) = p ij , i=1,2...,n, j=1,2..,m
X/Y20 30 40 50 60
11 2 0 0 0 0
16 4 6 0 0 0
21 0 3 6 2 0
26 0 0 45 8 4
31 0 0 4 6 7
36 0 0 0 0 3
Події (X = x i, Y = y j) утворюють повну групу подій, тому сума всіх ймовірностей p ij ( i=1,2...,n, j=1,2..,m), зазначених у таблиці, дорівнює 1.
1. Залежність випадкових величин X та Y.
Знаходимо ряди розподілу X та Y.
Користуючись формулою ∑P(x i,y j) = p i(j=1..n), знаходимо ряд розподілу X.
X11 16 21 26 31 36
P2 10 11 57 17 3 ∑P i = 100
Математичне очікування M[X].
M [x] = (11 * 2 + 16 * 10 + 21 * 11 + 26 * 57 + 31 * 17 + 36 * 3) / 100 = 25.3
Дисперсія D[X].
D[X] = (11 2 *2 + 16 2 *10 + 21 2 *11 + 26 2 *57 + 31 2 *17 + 36 2 *3)/100 - 25.3 2 = 24.01
Середнє квадратичне відхилення σ(x).

Користуючись формулою ∑P(x i,y j) = q j(i=1..m), знаходимо ряд розподілу Y.

Y20 30 40 50 60
P6 9 55 16 14 ∑P i = 100
Математичне очікування M[Y].
M[y] = (20 * 6 + 30 * 9 + 40 * 55 + 50 * 16 + 60 * 14) / 100 = 42.3
Дисперсія D[Y].
D [Y] = (20 2 * 6 + 30 2 * 9 + 40 2 * 55 + 50 2 * 16 + 60 2 * 14) / 100 - 42.3 2 = 99.71
Середнє квадратичне відхилення σ(y).

Оскільки, P(X=11,Y=20) = 2≠2·6, то випадкові величини X та Y залежні.
2. Умовний закон розподілу X.
Умовний закон розподілу X(Y=20).
P(X=11/Y=20) = 2/6 = 0.33
P(X=16/Y=20) = 4/6 = 0.67
P(X=21/Y=20) = 0/6 = 0
P(X=26/Y=20) = 0/6 = 0
P(X=31/Y=20) = 0/6 = 0
P(X=36/Y=20) = 0/6 = 0
Умовне математичне очікування M = 11 * 0.33 + 16 * 0.67 + 21 * 0 + 26 * 0 + 31 * 0 + 36 * 0 = 14.33
Умовна дисперсія D = 11 2 * 0.33 + 16 2 * 0.67 + 21 2 * 0 + 26 2 * 0 + 31 2 * 0 + 36 2 * 0 - 14.33 2 = 5.56
Умовний закон розподілу X(Y=30).
P(X=11/Y=30) = 0/9 = 0
P(X=16/Y=30) = 6/9 = 0.67
P(X=21/Y=30) = 3/9 = 0.33
P(X=26/Y=30) = 0/9 = 0
P(X=31/Y=30) = 0/9 = 0
P(X=36/Y=30) = 0/9 = 0
Умовне математичне очікування M = 11 * 0 + 16 * 0.67 + 21 * 0.33 + 26 * 0 + 31 * 0 + 36 * 0 = 17.67
Умовна дисперсія D = 11 2 *0 + 16 2 *0.67 + 21 2 *0.33 + 26 2 *0 + 31 2 *0 + 36 2 *0 - 17.67 2 = 5.56
Умовний закон розподілу X(Y=40).
P(X=11/Y=40) = 0/55 = 0
P(X=16/Y=40) = 0/55 = 0
P(X=21/Y=40) = 6/55 = 0.11
P(X=26/Y=40) = 45/55 = 0.82
P(X=31/Y=40) = 4/55 = 0.0727
P(X=36/Y=40) = 0/55 = 0
Умовне математичне очікування M = 11 * 0 + 16 * 0 + 21 * 0.11 + 26 * 0.82 + 31 * 0.0727 + 36 * 0 = 25.82
Умовна дисперсія D = 11 2 *0 + 16 2 *0 + 21 2 *0.11 + 26 2 *0.82 + 31 2 *0.0727 + 36 2 *0 - 25.82 2 = 4.51
Умовний закон розподілу X(Y=50).
P(X=11/Y=50) = 0/16 = 0
P(X=16/Y=50) = 0/16 = 0
P(X=21/Y=50) = 2/16 = 0.13
P(X=26/Y=50) = 8/16 = 0.5
P(X=31/Y=50) = 6/16 = 0.38
P(X=36/Y=50) = 0/16 = 0
Умовне математичне очікування M = 11 * 0 + 16 * 0 + 21 * 0.13 + 26 * 0.5 + 31 * 0.38 + 36 * 0 = 27.25
Умовна дисперсія D = 11 2 * 0 + 16 2 * 0 + 21 2 * 0.13 + 26 2 * 0.5 + 31 2 * 0.38 + 36 2 * 0 - 27.25 2 = 10.94
Умовний закон розподілу X(Y=60).
P(X=11/Y=60) = 0/14 = 0
P(X=16/Y=60) = 0/14 = 0
P(X=21/Y=60) = 0/14 = 0
P(X=26/Y=60) = 4/14 = 0.29
P(X=31/Y=60) = 7/14 = 0.5
P(X=36/Y=60) = 3/14 = 0.21
Умовне математичне очікування M = 11 * 0 + 16 * 0 + 21 * 0 + 26 * 0.29 + 31 * 0.5 + 36 * 0.21 = 30.64
Умовна дисперсія D = 11 2 * 0 + 16 2 * 0 + 21 2 * 0 + 26 2 * 0.29 + 31 2 * 0.5 + 36 2 * 0.21 - 30.64 2 = 12.37
3. Умовний закон розподілу Y.
Умовний закон розподілу Y(X=11).
P(Y=20/X=11) = 2/2 = 1
P(Y=30/X=11) = 0/2 = 0
P(Y=40/X=11) = 0/2 = 0
P(Y=50/X=11) = 0/2 = 0
P(Y=60/X=11) = 0/2 = 0
Умовне математичне очікування M = 20 * 1 + 30 * 0 + 40 * 0 + 50 * 0 + 60 * 0 = 20
Умовна дисперсія D = 20 2 * 1 + 30 2 * 0 + 40 2 * 0 + 50 2 * 0 + 60 2 * 0 - 20 2 = 0
Умовний закон розподілу Y(X=16).
P(Y=20/X=16) = 4/10 = 0.4
P(Y=30/X=16) = 6/10 = 0.6
P(Y=40/X=16) = 0/10 = 0
P(Y=50/X=16) = 0/10 = 0
P(Y=60/X=16) = 0/10 = 0
Умовне математичне очікування M = 20 * 0.4 + 30 * 0.6 + 40 * 0 + 50 * 0 + 60 * 0 = 26
Умовна дисперсія D = 20 2 * 0.4 + 30 2 * 0.6 + 40 2 * 0 + 50 2 * 0 + 60 2 * 0 - 26 2 = 24
Умовний закон розподілу Y(X=21).
P(Y=20/X=21) = 0/11 = 0
P(Y=30/X=21) = 3/11 = 0.27
P(Y=40/X=21) = 6/11 = 0.55
P(Y=50/X=21) = 2/11 = 0.18
P(Y=60/X=21) = 0/11 = 0
Умовне математичне очікування M = 20 * 0 + 30 * 0.27 + 40 * 0.55 + 50 * 0.18 + 60 * 0 = 39.09
Умовна дисперсія D = 20 2 * 0 + 30 2 * 0.27 + 40 2 * 0.55 + 50 2 * 0.18 + 60 2 * 0 - 39.09 2 = 44.63
Умовний закон розподілу Y(X=26).
P(Y=20/X=26) = 0/57 = 0
P(Y=30/X=26) = 0/57 = 0
P(Y=40/X=26) = 45/57 = 0.79
P(Y=50/X=26) = 8/57 = 0.14
P(Y=60/X=26) = 4/57 = 0.0702
Умовне математичне очікування M = 20 * 0 + 30 * 0 + 40 * 0.79 + 50 * 0.14 + 60 * 0.0702 = 42.81
Умовна дисперсія D = 20 2 * 0 + 30 2 * 0 + 40 2 * 0.79 + 50 2 * 0.14 + 60 2 * 0.0702 - 42.81 2 = 34.23
Умовний закон розподілу Y(X=31).
P(Y=20/X=31) = 0/17 = 0
P(Y=30/X=31) = 0/17 = 0
P(Y=40/X=31) = 4/17 = 0.24
P(Y=50/X=31) = 6/17 = 0.35
P(Y=60/X=31) = 7/17 = 0.41
Умовне математичне очікування M = 20 * 0 + 30 * 0 + 40 * 0.24 + 50 * 0.35 + 60 * 0.41 = 51.76
Умовна дисперсія D = 20 2 * 0 + 30 2 * 0 + 40 2 * 0.24 + 50 2 * 0.35 + 60 2 * 0.41 - 51.76 2 = 61.59
Умовний закон розподілу Y(X=36).
P(Y=20/X=36) = 0/3 = 0
P(Y=30/X=36) = 0/3 = 0
P(Y=40/X=36) = 0/3 = 0
P(Y=50/X=36) = 0/3 = 0
P(Y=60/X=36) = 3/3 = 1
Умовне математичне очікування M = 20 * 0 + 30 * 0 + 40 * 0 + 50 * 0 + 60 * 1 = 60
Умовна дисперсія D = 20 2 * 0 + 30 2 * 0 + 40 2 * 0 + 50 2 * 0 + 60 2 * 1 - 60 2 = 0
Коваріація.
cov(X,Y) = M - M[X]·M[Y]
cov(X,Y) = (20·11·2 + 20·16·4 + 30·16·6 + 30·21·3 + 40·21·6 + 50·21·2 + 40·26·45 + 50 · 26 · 8 + 60 · 26 · 4 + 40 · 31 · 4 + 50 · 31 · 6 + 60 · 31 · 7 + 60 · 36 · 3)/100 - 25.3 · 42.3 = 38.11
Якщо випадкові величини незалежні, їх коваріації дорівнює нулю. У нашому випадку cov(X,Y) ≠ 0.
Коефіцієнт кореляції.


Рівняння лінійної регресії з y на x має вигляд:

Рівняння лінійної регресії з x на y має вигляд:

Знайдемо необхідні числові характеристики.
Вибіркові середні:
x = (20 (2 + 4) + 30 (6 + 3) + 40 (6 + 45 + 4) + 50 (2 + 8 + 6) + 60 (4 + 7 + 3)) / 100 = 42.3
y = (20 (2 + 4) + 30 (6 + 3) + 40 (6 + 45 + 4) + 50 (2 + 8 + 6) + 60 (4 + 7 + 3)) / 100 = 25.3
Дисперсії:
σ 2 x = (20 2 (2 + 4) + 30 2 (6 + 3) + 40 2 (6 + 45 + 4) + 50 2 (2 + 8 + 6) + 60 2 (4 + 7 + 3) )/100 – 42.3 2 = 99.71
σ 2 y = (11 2 (2) + 16 2 (4 + 6) + 21 2 (3 + 6 + 2) + 26 2 (45 + 8 + 4) + 31 2 (4 + 6 + 7) + 36 2 (3))/100 – 25.3 2 = 24.01
Звідки отримуємо середньоквадратичні відхилення:
x = 9.99 і y = 4.9
та підступність:
Cov (x, y) = (20 · 11 · 2 + 20 · 16 · 4 + 30 · 16 · 6 + 30 · 21 · 3 + 40 · 21 · 6 + 50 · 21 · 2 + 40 · 26 · 45 + 50 · 26 · 8 + 60 · 26 · 4 + 40 · 31 · 4 + 50 · 31 · 6 + 60 · 31 · 7 + 60 · 36 · 3)/100 - 42.3 · 25.3 = 38.11
Визначимо коефіцієнт кореляції:


Запишемо рівняння ліній регресії y(x):

та обчислюючи, отримуємо:
y x = 0.38 x + 9.14
Запишемо рівняння ліній регресії x(y):

та обчислюючи, отримуємо:
x y = 1.59 y + 2.15
Якщо побудувати точки, що визначаються таблицею та лінії регресії, побачимо, що обидві лінії проходять через точку з координатами (42.3; 25.3) та точки розташовані близько до ліній регресії.
Значення коефіцієнта кореляції.

За таблицею Стьюдента з рівнем значимості α=0.05 та ступенями свободи k=100-m-1 = 98 знаходимо t крит:
t критий (n-m-1;α/2) = (98; 0.025) = 1.984
де m = 1 – кількість пояснюючих змінних.
Якщо t набл > t критич, то отримане значення коефіцієнта кореляції визнається значущим (нульова гіпотеза, яка стверджує рівність нуля коефіцієнта кореляції, відкидається).
Оскільки t набл > t критий, то відхиляємо гіпотезу про рівність 0 коефіцієнта кореляції. Інакше кажучи, коефіцієнт кореляції статистично - значимий.

Завдання. Кількість попадань пар значень випадкових величин X і Y відповідні інтервали наведені в таблиці. За цими даними знайти вибірковий коефіцієнт кореляції та вибіркові рівняння прямих ліній регресії Y на X та X на Y.
Рішення

приклад. Розподіл ймовірностей двовимірної випадкової величини (X, Y) встановлено таблицею. Знайти закони розподілу складових величин X, Y та коефіцієнт кореляції p(X, Y).
Завантажити рішення

Завдання. Двовимірна дискретна величина (X, Y) задана законом розподілу. Знайти закони розподілу складових X та Y, підступність та коефіцієнт кореляції.

Розрізняють події залежні та незалежні. Дві події називаються незалежними, якщо поява одного з них не змінює ймовірність появи іншого. Наприклад, якщо у цеху працюють дві автоматичні лінії, за умовами виробництва не взаємопов'язані, то зупинки цих ліній є незалежними подіями.

Декілька подій називаються незалежними у сукупностіякщо будь-яка з них не залежить від будь-якої іншої події і від будь-якої комбінації інших.

Події називаються Інакше величини (X) і (Y) називаютьсяякщо одне з них впливає на ймовірність появи іншого. Наприклад, дві виробничі установки пов'язані єдиним технологічним циклом. Тоді ймовірність виходу з експлуатації однієї з них залежить від того, в якому стані знаходиться інша. Імовірність однієї події B, обчислена у припущенні здійснення іншої події A, називається умовною ймовірністюподії Bі позначається P(A|B).

Умову незалежності події B від події A записують як P(B|A)=P(B), а умова його залежності - як P(B|A)≠P(B).

Імовірність події у випробуваннях Бернуллі. Формула Пуассон.

Повторними незалежними випробуваннями, випробуваннями Бернуллі або схемою Бернулліназиваються такі випробування, якщо при кожному випробуванні є лише два результати - поява події А або ймовірність цих подій залишається незмінною для всіх випробувань. Ця проста схема випадкових випробувань має велике значення у теорії ймовірностей.

Найбільш відомим прикладом випробувань Бернуллі є досвід із послідовним киданням правильної (симетричної та однорідної) монети, де подією А є випадання, наприклад, "герба", ("решки").

Нехай у деякому досвіді ймовірність події А дорівнює P(А)=р, Тоді , де р + q = 1. Виконаємо досвід n разів, припустивши, що окремі випробування незалежні, а значить, результат будь-яких з них не пов'язаний з результатами попередніх (або наступних) випробувань. Знайдемо ймовірність появи подій А точно раз, скажімо тільки в перших випробуваннях. Нехай - подія, яка полягає в тому, що при n випробуваннях подія А з'явиться точно раз до перших випробуваннях. Подію можна подати у вигляді

Оскільки досліди ми припустили незалежними, то

41) [стр2]Якщо ставити питання про появу події А k-раз у n випробуваннях у довільному порядку, то подія подана у вигляді

Число різних доданків у правій частині цієї рівності дорівнює числу випробувань з n по k, тому ймовірність подій, яку позначатимемо, дорівнює

Послідовність подій утворює повну групу незалежних подій . Справді, із незалежності подій отримуємо