142 KiB
Zmienne losowe i ich rozkłady. Funkcja masy prawdopodobieństwa. Dystrybuanta. Wartość oczekiwana.
Treści kształcenia: Jednowymiarowe zmienne losowe. Dystrybuanta i jej własności. Przegląd podstawowych rozkładów dyskretnych (dwumianowy, Poissona, geometryczny, Pascala, hipergeometryczny).
Efekty kształcenia: Student/ka potrafi wyznaczyć rozkład prawdopodobieństwa zmiennej losowej; potrafi obliczyć wartość oczekiwaną, wariancję, współczynnik korelacji zmiennych losowych; potrafi określić, czy podane zmienne losowe są niezależne.
Wstęp
Do tej pory rozważając różnorodne doświadczenia losowe, zaczynaliśmy od zdefiniowania przestrzeni probabilistycznej i interesujących nas zdarzeń. Zauważmy jednak, że często przy definicji zdarzeń używaliśmy różnych liczb powiązanych z danym eksperymentem np. sumy oczek w $n$ rzutach kostką, liczby sukcesów w $n$ próbach Bernoulliego, czasu przyjścia osoby na spotaknie, gdy wiemy, że ten czas jest losowy itp. W takich sytuacjach przy modelowaniu danego eksperymentu możemy posłużyć się pewnymi wartościami liczbowymi związanymi z wynikiem naszego eksperyementu losowego, które będziemy nazywać zmiennymi losowymi i które stanowią główny temat tych i kilku kolejnych zajęć.
Definicja zmiennych losowych
Zmienna losowa to po prostu funkcja, która zwraca informacje o pewnych wartościach liczbowych związanych z danym eksperymentem losowym, zależnych od wyniku tego eksperymentu. Poniżej przedstawimy formalną definicję tego pojęcia.
Definicja (zmienna losowa):
Zmienną losową nazywamy funkcję (mierzalną) $X:\Omega\to\mathbb R$ działającą z przestrzeni probabilistycznej $(\Omega, \mathcal{F}, \mathbb{P})$ do zbioru liczb rzeczywistych $\mathbb R$.
Zmienne losowe najczęściej będziemy oznaczać dużymi literami z końca alfabetu ($X$, $Y$, $Z$ itp.).
Przykład 1
Rozważmy eksperyment polegający na dwukrotnym rzucie czworościenną kostką do gry. W tym przypadku jako zbiór zdarzeń elementarnych $\Omega$ możemy przyjąć wszystkie pary liczb $(x,y)$, gdzie $x,y\in\{1,2,3,4\}$. Oczywiście mamy tutaj do czynienia z modelem klasycznym. Zdefiniujmy następujące zmienne losowe:
- zmienna losowa $X$ zwracająca sumę wyrzuconych oczek,
- zmienna losowa $Y$ zwracająca liczbę wyrzuconych jedynek.
Ponieważ zmienna losowa to funkcja przypisująca liczby rzeczywiste zdarzeniom elementarnym, to powyżej zdefiniowany zbiór $\Omega$ stanowi dziedzinę zarówno funkcji $X$, jak i $Y$. Musimy jeszcze podać wzory tych funkcji.
Zacznijmy od zmiennej losowej $X$ i przykładowego zdarzenia elementarnego $\omega=(1,1)$. Ponieważ $X$ ma zwracać informację o sumie wyrzuconych oczek, to możemy przyjąć, że $X(\omega) = X((1,1))=1+1=2.$ W analogiczny sposób możemy wyznaczyć wartości tej funkcji dla pozostałych zdarzeń elementarnych:
- $X((1,2))=X((2,1))=3$,
- $X((2,2))=X((1,3))=X((3,1))=4$,
- $X((1,4))=X((4,1))=X((2,3))=X((3,2))=5$,
- $X((3,3))=X((2,4))=X((4,2))=6$,
- $X((4,3))=X((3,4))=7$,
- $X((4,4))=8$.
Zajmiemy się teraz zmienną losową $Y$. Ta zmienna losowa ma zwracać informację o liczbie wyrzuconych jedynek, więc przykładowo $Y((1,1))=2$. W analogiczny sposób możemy wyznaczyć pozostałe wartości tej funkcji:
- $Y((1,2))=Y((1,3))=Y((1,4))=Y((2,1))=Y((3,1))=Y((4,1))=1$,
- $Y((2,2))=Y((2,3))=Y((2,4))=Y((3,2))=Y((3,3))=Y((3,4))=Y((4,2))=Y((4,3))=Y((4,4))=0$.
Przykład 2
Arek i Bartek umówili się na spotkanie. Każdy z nich przychodzi na to spotkanie w losowym momencie między 17:00 a 17:30. W tym przypadku możemy przyjąć, że zbiór zdarzeń elementarnych to $\Omega=\{(a,b): a, b\in [0,30]\}$, gdzie $a$ i $b$ oznaczają odpowiednio czas przyjścia Arka i Bartka na spotkanie liczony w minutach po godzinie 17:00, z prawdopodobieństwem geometrycznym. Zdefiniujmy następujące zmienne losowe:
- $T$ - czas przyjścia Arka,
- $W$ - czas oczekiwania Bartka na przyjście Arka zaokrąglony w górę do pełnych minut. Zakładamy, że jeśli Arek przyjdzie przed Bartkiem, to za wartość zmiennej losowej $W$ przyjmujemy $0$.
Dziedziną zmiennych losowych $T$ i $W$ jest zbiór $[0,30]\times [0,30]$. Pozostaje nam podać wzory tych funkcji:
- $\forall_{(a,b)\in\Omega},T((a,b))=a$,
- $\forall_{(a,b)\in\Omega}, W((a,b))=\begin{cases} 0, & \text{ jeśli } a \leq b, \\ \lceil a-b \rceil, & \text{ jeśli } a>b.\end{cases}$
Oznaczenie: $\lceil x\rceil$ oznacza najmniejszą liczbę całkowitą większą lub równą $x$, czyli tzw. sufit z liczby $x$.
Dziedziną zmiennej losowej jest $\Omega$, czyli zbiór wszystkich możliwych wyników pewnego doświadczenia losowego. Możemy zatem liczyć prawdopodobieństwo tego, że dana zmienna losowa osiągnie pewne wartości odwołując się do odpowiednich zdarzeń elementarnych. W tym celu wprowadźmy następujące oznaczenia. Dla $A\subseteq \mathbb{R}$ niech $$\mathbb{P}(X\in A)=\mathbb{P}(X^{-1}(A))=\mathbb{P}(\{\omega\in\Omega: X(\omega)\in A\}).$$
Jeśli $A$ będzie zbiorem jednopunktowym, tzn. $A=\{a\}$ dla pewnej liczby rzeczywistej $a$, to będziemy też pisać $\mathbb{P}(X=a)$ zamiast $\mathbb{P}(X\in\{a\})$. Jeśli natomiast $A$ będzie przedziałem, np. $A=(a,b)$ dla pewnych $a,b\in\mathbb{R}$, to będziemy stosować zapis $\mathbb{P}(a<X<b)$.
Przykład 3
Dla zmiennej losowej $T$ z przykładu 2. wyznacz następujące prawdopodobieństwa:
- $\mathbb{P}(T\in [0,15])$,
- $\mathbb{P}(T=15)$.
Przypomnijmy, że zmienna losowa $T$ była powiązana z przestrzenią probabilistyczną modelującą losowe czasy przyjścia Arka i Bartka na pewne spotkanie. Jako zbiór zdarzeń elementarnych $\Omega$ przyjęliśmy zbiór $\Omega=\{(a,b): a, b\in [0,30]\}$. Natomiast jako miarę probabilistyczną możemy przyjąć prawdopodobieństwo geometryczne. Zatem:
$$\mathbb{P}(T\in [0,15])=\mathbb{P}(\{\omega\in\Omega: T(\omega)\in [0,15]\})=\mathbb{P}(\{(a,b): a\in [0,15], b\in [0,30]\})=\frac{15\cdot 30}{30\cdot 30}=\frac12.$$
W analogiczny sposób możemy obliczyć prawdopodobieństwo drugiego interesującego nas zdarzenia:
$$\mathbb{P}(T=15)=\mathbb{P}(\{\omega\in\Omega: T(\omega)=15\})=\mathbb{P}(\{(15,b): b\in [0,30]\})=\frac{0}{30\cdot 30}=0.$$
Dyskretne zmienne losowe
Na tym kursie będziemy mieli do czynienia z dwiema klasami zmiennych losowych, przy czym podział na te klasy zależeć będzie od zbioru wartości zmiennej losowej. Na początek zajmiemy się zmiennymi losowymi dyskretnymi, czyli takimi, dla których zbiór wartości jest co najwyżej przeliczalny.
Definicja (zmienna losowa dyskretna)
Zmienna losowa jest dyskretna, jeśli istnieje co najwyżej przeliczalny zbiór $A=\{a_1,a_2,\ldots\}$ (nazywany zbiorem atomów) taki, że $\mathbb{P}(X=a_i)>0$ dla każdego $a_i\in A$ oraz
$$\mathbb{P}(X\in A)=\sum_{a_i\in A}\mathbb{P}(X=a_i)=1.$$
Przykład 4
Sprawdź, które ze zmiennych losowych zdefiniowanych w przykładach 1. i 2. są dyskretne.
Zacznijmy od zmiennej losowej $X$, która zwraca informację o sumie oczek wyrzuconych w dwóch rzutach czworościenną kostką. Na podstawie przykładu 1. możemy stwierdzić, że zbiorem wartości funkcji $X$ jest zbiór $\{2, 3, 4, 5, 6, 7, 8\}$. Sprawdzimy, że elementy tego zbioru to faktycznie atomy:
- $\mathbb{P}(X=2)=\mathbb{P}(\{(1,1)\})=\frac{1}{16}>0$,
- $\mathbb{P}(X=3)=\mathbb{P}(\{(1,2), (2,1)\})=\frac{1}{8}>0$,
- $\mathbb{P}(X=4)=\mathbb{P}(\{(1,3), (3,1), (2,2)\})=\frac{3}{16}>0$,
- $\mathbb{P}(X=5)=\mathbb{P}(\{(1,4), (4,1), (2,3), (3,2)\})=\frac{1}{4}>0$,
- $\mathbb{P}(X=6)=\mathbb{P}(\{(2,4), (4,2), (3,3)\})=\frac{3}{16}>0$,
- $\mathbb{P}(X=7)=\mathbb{P}(\{(3,4), (4,3)\})=\frac18>0$,
- $\mathbb{P}(X=8)=\mathbb{P}(\{(4,4)\})=\frac{1}{16}>0$.
Możemy też łatwo stwierdzić, że $\mathbb{P}(X\in \{2,3,4,5,6,7,8\})=\mathbb{P}(\Omega)=1$. Zatem zmienna losowa $X$ jest dyskretna, a jej zbiór atomów to $\{2,3,4,5,6,7,8\}$.
W analogiczny sposób możemy sprawdzić, że zmienne losowe $Y$ z przykładu 1. i $W$ z przykładu 2. również są dyskretne, a ich zbiory atomów to odpowiednio $\{0,1,2\}$ i $\{0,1,2,\ldots, 30\}$.
Pozostaje nam jeszcze zmienna losowa $T$, która oznacza czas przyjścia Arka na spotkanie. Widzimy, że zbiór wartości tej funkcji to przedział $[0,30]$, który jest zbiorem nieprzeliczalnym. Ponadto pokazaliśmy w przykładzie 3., że $\mathbb{P}(T=15)=0$. W analogiczny sposób można pokazać, że $\mathbb{P}(T=a)=0$ dla dowolnej liczby rzeczywistej $a$. Zatem ta zmienna losowa w ogóle nie ma atomów i tym samym nie może być dyskretną zmienną losową.
Rozkład prawdopodobieństwa zmiennej losowej
Z każdą zmienną losową związane jest pojęcie rozkładu prawdopodobieństwa, który jest po prostu pewną miarą (zwaną miarą probabilistyczną) określoną na zbiorze wartości zmiennej losowej. Intuicyjnie rzecz ujmując, miara ta mówi w jaki sposób prawdopodobieństwo ,,rozkłada się" albo jest podzielone pomiędzy poszczególne wartości przyjmowane przez zmienną losową.
Definicja (rozkład prawdopodobieństwa zmiennej losowej)
Rozkładem prawdopodobieństwa zmiennej losowej $X$ nazywamy funkcję $\mu_X$, która wszystkim zbiorom (borelowskim) $B\subseteq \mathbb{R}$ przypisuje wartość prawdopodobieństwa
$$\mu_X(B) = \mathbb{P}(X^{-1}(B)). $$
W celu podania rozkładu prawdopodobieństwa zmiennej losowej dyskretnej wystarczy podać wartości
$$p_i=\mathbb{P}(X=a_i)$$
dla wszystkich atomów $a_i\in A$. Jest to tzw. funkcja masy prawdopodobieństwa tej zmiennej losowej. Czasem nazywamy ją po prostu rozkładem zmiennej losowej dyskretnej.
Jeśli mamy daną funkcję masy prawdopodobieństwa dyskretnej zmiennej losowej $X$, to prawdopodobieństwo, że przyjmie ona wartości z danego zbioru $B$ możemy określić sumując prawdopodobieństwa tych atomów tej zmiennej losowej, które należą do zbioru $B$, tzn.:
$$\mathbb{P}(X\in B)=\sum_{a_i\in A \cap B} \mathbb{P}(X=a_i)=\sum_{a_i\in A\cap B} p_i,$$
gdzie $A$ jest zbiorem atomów zmiennej losowej $X$.
Przykład 5
Na podstawie obliczeń z przykładu 4. możemy podać funkcję masy prawdopodobieństwa zmiennej losowej $X$ zliczającej sumę oczek w dwóch rzutach czworościenną kostką:
$$p_0=\mathbb{P}(X=2)=\frac{1}{16}, \quad p_1=\mathbb{P}(X=3)=\frac{1}{8}, \quad p_2=\mathbb{P}(X=4)=\frac{3}{16}, \quad p_3=\mathbb{P}(X=5)=\frac{1}{4}, $$ $$p_4=\mathbb{P}(X=6)=\frac{3}{16}, \quad p_5=\mathbb{P}(X=7)=\frac{1}{8}, \quad p_6=\mathbb{P}(X=8)=\frac{1}{16}.$$
Funkcję masy prawdopodobieństwa możemy też zapisać, używając tabelki:
$k$ | $2$ | $3$ | $4$ | $5$ | $6$ | $7$ | $8$ |
---|---|---|---|---|---|---|---|
$\mathbb{P}(X=k)$ | $\frac{1}{16}$ | $\frac{1}{8}$ | $\frac{3}{16}$ | $\frac{1}{4}$ | $\frac{3}{16}$ | $\frac{1}{8}$ | $\frac{1}{16}$ |
Znalezienie funkcji masy prawdopodobieństwa dla zdefiniowanych wcześniej dyskretnych zmiennych losowych $Y$ oraz $W$ pozostawiamy jako ćwiczenie.
Ważne dyskretne rozkłady prawdopodobieństwa
Poniżej przedstawimy wybrane znane dyskretne rozkłady prawdopodobieństwa, z których będziemy korzystać podczas zajęć.
Rozkład dwumianowy / Bernoulliego
Jest to rozkład powiązany ze schematem Bernoulliego. Będziemy go wykorzystywać, gdy zmienna losowa $X$ zlicza sukcesy w $n$ próbach Bernoulliego, w których prawdopododobieństwo sukcesu w pojedynczej próbie to $p$. Funkcja masy prawdopodobieństwa zmiennej losowej $X$ o rozkładzie dwumianowym z parametrami $n\in \mathbb{N}$ i $p\in [0,1]$ dana jest wzorem:
$$\mathbb{P}(X=k)=\binom{n}{k}p^k(1-p)^{n-k} \quad \text{ dla } \quad k=0,1,2, \ldots, n.$$
Dla zmiennej losowej $X$ o powyższym rozkładzie będziemy stosowali oznaczenie $X\sim Bin(n,p)$.
Rozkład geometryczny
Zmienna losowa $X$, która zwraca liczbę prób Bernoulliego potrzebną do otrzymania pierwszego sukcesu (w niezależnych próbach Bernoulliego, gdy prawdopodobieństwo sukcesu w pojedynczej próbie wynosi $p\in[0,1]$), ma rozkład geometryczny z parametrem $p$. Wówczas jej funkcja masy prawdopodobieństwa dana jest wzorem:
$$\mathbb{P}(X=k)=(1-p)^{k-1}p \quad \text{ dla } \quad k=1,2, 3, \ldots$$
Dla zmiennej losowej $X$ o powyższym rozkładzie będziemy stosowali oznaczenie $X\sim Ge(p)$.
Rozkład Poissona
Zmienna losowa $X$ ma rozkład Poissona z parametrem $\lambda\in (0,+\infty)$, jeśli jej funkcja masy prawdopodobieństwa dana jest wzorem:
$$\mathbb{P}(X=k)=\frac{\lambda^k}{k!}e^{-\lambda} \quad \text{ dla } \quad k=0,1,2,\ldots$$
Dla zmiennej losowej $X$ o powyższym rozkładzie będziemy stosowali oznaczenie $X\sim Po(\lambda)$. Rozkładu tego używamy najczęściej aby modelować zdarzenia ,,rzadkie'' np. liczbę wypadków drogowych, liczbę pożarów budynku itp. Wówczas parametr $\lambda$ odnosi się do średniej wartości tej zmiennej losowej.
Rozkład Pascala / ujemny dwumianowy
Będziemy mówili, że zmienna losowa $X$ ma rozkład Pascala z parametrami $p\in [0,1]$ i $r\in \mathbb{N}$, jeśli jej funkcja masy prawdopodobieństwa dana jest wzorem:
$$\mathbb{P}(X=k)=\binom{k-1}{r-1}p^r(1-p)^{k-r} \quad \text{ dla } \quad k=r, r+1, r+2, \ldots$$
Rozkładu tego używamy, gdy badamy liczbę prób potrzebnych do osiągnięcia $r$-tego sukcesu w niezależnych próbach Bernoulliego, a prawdopodobieństwo sukcesu w pojedynczej próbie wynosi $p$.
Rozkład hipegeometryczny
Będziemy mówili, że zmienna losowa $X$ ma rozkład hipergeometryczny z parametrami $N, m, n\in\mathbb{N}$, gdzie $m\leq N$ i $n\leq N$, jeśli jej funkcja masy prawdopodobieństwa dana jest wzorem:
$$\mathbb{P}(X=k)=\frac{\binom{m}{k}\binom{N-m}{n-k}}{\binom{N}{n}} \quad \text{ dla } \quad k=0,1,2,\ldots, n$$
Będziemy wówczas stosowali oznaczenie $X\sim Hip(N, m, n)$. Typowym zastosowaniem tego rozładu jest badanie liczby wylosowanych kul typu A, jeśli losujemy jednocześnie $n$ kul z urny, w której znajduje się $N$ kul, w tym $m$ kul typu A.
Przykład 6 (Python)
Zdefiniujmy zmienne losowe:
- $X$ - liczba wylosowanych kierów, gdy losujemy $5$-krotnie, ze zwracaniem jedną kartę z talii $52$ kart,
- $Y$ - liczba wylosowanych kierów, gdy losujemy jednocześnie $5$ kart z talii $52$ kart.
Wyznaczymy funkcję masy prawdopodobieństwa tych zmienych losowych.
# Zauważmy, że zmienna losowa X ma rozkład dwumianowy, gdzie liczba prób to $n=5$, a prawdopodobieństwo sukcesu (czyli wylosowania kiera) w pojedynczej próbie to p=13/52=1/4
import matplotlib.pyplot as plt
from scipy.stats import binom
from tabulate import tabulate
# Parametry rozkładu dwumianowego
n = 5 # Liczba prób (losowań)
p = 1/4 # Prawdopodobieństwo sukcesu (wylosowania kiera) w pojedynczym losowaniu
# Wyznaczamy funkcję masy prawdopodobieństwa zmiennej losowej X
x = range(0, n+1)
pmfX = binom.pmf(x, n, p)
print('Funkcja masy prawdopodobieństwa zmiennej losowej X:')
print(tabulate([range(0, n+1), pmfX]))
# Możemy też przedstawić tę funkcję na wykresie
plt.bar(x, pmfX)
plt.title('Funkcja masy prawdopodobieństwa zmiennej losowej X')
plt.xlabel('Liczba sukcesów')
plt.ylabel('Prawdopodobieństwo')
plt.show()
Funkcja masy prawdopodobieństwa zmiennej losowej X: -------- -------- -------- --------- --------- ----------- 0 1 2 3 4 5 0.237305 0.395508 0.263672 0.0878906 0.0146484 0.000976562 -------- -------- -------- --------- --------- -----------
# Zauważmy, że zmienna losowa Y ma rozkład hipergeometryczny, gdzie losujemy n=5 kart z talii N=52 kart, w której m=13 kart to kiery
from scipy.stats import hypergeom
# Parametry rozkładu hipergeometrycznego
N = 52 # Całkowita liczba kart w talii
m = 13 # Liczba kart kierowych
n = 5 # Liczba próbek
# Wyznaczamy funkcję masy prawdopodobieństwa zmiennej losowej Y
x = range(0, n+1)
pmfY = hypergeom.pmf(x, N, m, n)
print('Funkcja masy prawdopodobieństwa zmiennej losowej Y:')
print(tabulate([x, pmfY]))
# Możemy też przedstawić tę funkcję na wykresie
plt.bar(x, pmfY)
plt.title('Funkcja masy prawdopodobieństwa zmiennej losowej Y')
plt.xlabel('Liczba wylosowanych kierów')
plt.ylabel('Prawdopodobieństwo')
plt.show()
Funkcja masy prawdopodobieństwa zmiennej losowej Y: -------- ------- ------- --------- --------- ----------- 0 1 2 3 4 5 0.221534 0.41142 0.27428 0.0815426 0.0107293 0.000495198 -------- ------- ------- --------- --------- -----------
Dystrybuanta zmiennej losowej
Innym sposobem definiowania rozkładu prawdopodobieństwa zmiennej losowej jest zastosowanie tzw. dystrybuanty, która dla każdego $x\in\mathbb{R}$ zwraca ,,skumulowane" prawdopodobieństwo, czyli w tym wypadku prawdopodobieństwo tego, że zmienna losowa trafia w nieskończony przedział $(-\infty, x]$.
Definicja (dystrybuanta)
Dystrybuantą zmiennej losowej $X$ nazywamy funkcję $F_{X}:\mathbb{R}\to[0,1]$ daną wzorem:
$$ F_{X}(x)=\mathbb{P}(X\le x) = \mathbb{P}(X^{-1}\left((-\infty,x]\right)). $$
W szczególności dla zmiennej losowej dyskretnej o zbiorze atomów $A=\{a_1,a_2,\ldots\}$ mamy:
$$F_{X}(x)=\sum_{a\in A, a\le x}\mathbb{P}(X=a). $$
Przykład 6
Wyznaczymy dystrybuantę zmiennej losowej $X$ zdefiniowanej w przykładzie 1. Przypomnijmy, że jest to zmienna losowa dyskretna, która zwraca sumę oczek w dwóch rzutach czworościenną kostką. Funkcję masy prawdopodobieństwa tej zmiennej losowej wyznaczyliśmy w przykładzie 5:
$k$ | $2$ | $3$ | $4$ | $5$ | $6$ | $7$ | $8$ |
---|---|---|---|---|---|---|---|
$\mathbb{P}(X=k)$ | $\frac{1}{16}$ | $\frac{1}{8}$ | $\frac{3}{16}$ | $\frac{1}{4}$ | $\frac{3}{16}$ | $\frac{1}{8}$ | $\frac{1}{16}$ |
Wyznaczymy teraz wzór dystrybuanty tej zmiennej losowej. Zacznijmy wpierw od rozważenia argumentów $x<2$. Wówczas:
$$\forall_{x<2}, F_{X}(x)=\mathbb{P}(X\le x) = \mathbb{P}(\emptyset)=0,$$
bo nie ma zdarzeń elementarnych, dla których zmienna losowa $X$ osiągałaby wartość mniejszą od $2$.
Następnie rozważymy argumenty $x$ z przedziału $[2,3)$:
$$\forall_{x\in [2,3)}, F_{X}(x)=\mathbb{P}(X\le x)=\mathbb{P}(\{(1,1)\})=\frac{1}{16}.$$
Alternatywnie, możemy zsumować prawdopodobieństwa wszystkich atomów mniejszych lub równych od argumentu $x$, co w tym przypadku oznacza po prostu prawdopodobieństwo jednego atomu 2:
$$\forall_{x\in [2,3)}, F_{X}(x)=\mathbb{P}(X\le x) = \mathbb{P}(X=2)=\frac{1}{16}.$$
Kolejny przedział argumentów, które powinniśmy rozważyć to przedział $[3,4)$:
$$\forall_{x\in [3,4)}, F_{X}(x)=\mathbb{P}(X\le x)=\mathbb{P}(\{(1,1), (1,2), (2,1)\})=\frac{3}{16}.$$
Alternatywnie, możemy to też obliczyć używając bezpośrednio funkcji masy prawdopodobieństwa:
$$\forall_{x\in [3,4)}, F_{X}(x)=\mathbb{P}(X\le x) = \mathbb{P}(X=2)+\mathbb{P}(X=3)=\frac{1}{16}+\frac{1}{8}=\frac{3}{16}.$$
W analogiczny sposób obliczamy wzór dystrybuanty dla pozostałych argumentów, otrzymując ostatecznie:
$$ F_X(x)=\begin{cases} 0, &\text{ dla } x<2;\\ \frac{1}{16}, &\text{ dla } 2\leq x <3;\\ \frac{3}{16}, &\text{ dla } 3\leq x <4;\\ \frac{3}{8}, &\text{ dla } 4\leq x<5;\\ \frac{5}{8}, &\text{ dla } 5\leq x<6;\\ \frac{13}{16}, &\text{ dla } 6\leq x<7;\\ \frac{15}{16}, &\text{ dla } 7\leq x<8;\\ 1, &\text{ dla } x\geq 8.\end{cases}$$
Możemy też narysować wykres dystrybuanty tej zmiennej losowej. W przypadku dystrybuanty zmiennej losowej dyskretnej wykres ten będzie przedstawiała tzw. funkcja schodkowa, w której ,,skoki'' występują dla argumentów będących atomami tej zmiennej losowej, a wysokości poszczególnych schodków odpowiadają prawdopodobieństwom odpowiednich atomów.
# Definiujemy miejsca schodków i wysokości, na jakich się znajdują
steps = [0, 1/16, 3/16, 3/8, 5/8, 13/16, 15/16, 1]
x = range(1, 10)
# Rysujemy poziome linie odpowiadające wartościom dystrybuanty
for i in range(len(x) - 1):
plt.hlines(steps[i], x[i], x[i+1], color='b', linewidth=2)
# Dorysowujemy zamalowane i puste kółeczka, aby było jasne, jakie są wartości dystrybuanty w miejscu ,,skoków''
plt.plot(range(2, 9), steps[0:7], 'bo', fillstyle='none')
plt.plot(range(2, 9), steps[1:8], 'bo')
# Dodajemy nazwy osi i tytuł wykresu
plt.xlabel('x')
plt.ylabel('F_X(x)')
plt.title('Dystrybuanta zmiennej losowej X')
plt.grid()
plt.show()
Wartość oczekiwana zmiennej losowej
Ze zmiennymi losowymi wiążą się różne parametry liczbowe, które pomagają nam badać zachowanie tych zmiennych losowych. Jednym z podstawowych parametrów jest tzw. ,,wartość oczekiwana''. Intuicyjnie można powiedzieć, że jest to wartość średnia, którą przyjmuje dana zmienna losowa.
Definicja (wartość oczekiwana zmiennej losowej dyskretnej)
Wartością oczekiwaną (lub wartością średnią) dyskretnej zmiennej losowej $X$ o zbiorze atomów $A=\{a_1,a_2,\ldots\}$ nazywamy liczbę
$$ \mathbb{E} {X}=\sum_{a_i\in A} a_i \mathbb{P}(X= a_i),$$
o ile suma szeregu po prawej stronie powyższego równania istnieje. Jeśli szereg po prawej stronie powyższego równania nie jest bezwględnie zbieżny, mówimy, że wartość oczekiwana zmiennej losowej X nie istnieje.
Przykład 7
Obliczymy wartość oczekiwaną zmiennej losowej $X$ zdefiniowanej w przykładzie 1. Przypomnijmy, że funkcja masy prawdopodobieństwa tej zmiennej losowej to:
$k$ | $2$ | $3$ | $4$ | $5$ | $6$ | $7$ | $8$ |
---|---|---|---|---|---|---|---|
$\mathbb{P}(X=k)$ | $\frac{1}{16}$ | $\frac{1}{8}$ | $\frac{3}{16}$ | $\frac{1}{4}$ | $\frac{3}{16}$ | $\frac{1}{8}$ | $\frac{1}{16}$ |
Zatem wartość oczekiwana tej zmiennej losowej to:
\begin{align*} \mathbb{E}(X)&=2\cdot \mathbb{P}(X=2)+3\cdot \mathbb{P}(X=3)+4\cdot \mathbb{P}(X=4)+5\cdot \mathbb{P}(X=5)+6\cdot \mathbb{P}(X=6)+7\cdot \mathbb{P}(X=7)+8\cdot \mathbb{P}(X=8)\\ &=2\cdot\frac{1}{16}+3\cdot\frac{1}{8}+4\cdot\frac{3}{16}+5\cdot\frac{1}{4}+6\cdot\frac{3}{16}+7\cdot\frac{1}{8}+8\cdot\frac{1}{16}=5. \end{align*}
W przypadku zmiennych losowych o jednym z ważnych rozkładów prawdopodobieństwa mamy gotowe wzory pozwalające obliczyć wartość oczekiwaną.
Rozkład zmiennej losowej $X$ | Parametry | $\mathbb{E}(X)$ |
---|---|---|
dwumianowy | $n, p$ | $np$ |
geometryczny | $p$ | $\frac{1}{p}$ |
Poissona | $\lambda$ | $\lambda$ |
Pascala | $p, r $ | $\frac{r}{p}$ |
hipergeometryczny | $N, m, n$ | $\frac{nm}{N}$ |