Wahrscheinlichkeitsrechnung 2 - Midterm

From StatWiki
Jump to: navigation, search

Beispiel 1

c > 0 \, sodaß f(x) = \begin{cases} x^{-3} \,\mathrm{fuer}\, x \ge c \\ 0 \end{cases} Dichte ist

\int_{-\infty}^\infty f(x) \, dx = 1 

Aufspalten

 \int_c^\infty x^{-3} \, dx  \frac{x^{-2}}{-2} \Big|_c^\infty = \lim_{x \to \infty} \frac{1}{2 c^2} = 1 

Daher  c = \frac{1}{\sqrt{c}} 

 E(x) \int_{-\infty}^\infty x f(x) \, dx = \int_c^\infty x \frac{1}{x^3} \, dx = \int_c^\infty \frac{1}{x^2} \, dx = 
 \frac{1}{-x} \Big|_c^\infty = \frac{1}{c} 
 E(x^2) = 
  \int_{-\infty}^\infty x^2 f(x) \, dx = 
  \int_c^\infty x^2 \frac{1}{x^3} \, dx = 
  \int_c^\infty \frac{1}{x} \, dx = \ln x \Big|_c^\infty = \lim_{x \to \infty} \ln x - \ln c = \infty
 


Beispiel 2

P(X=k) = \frac{1}{n} \, \mathrm{fuer} \, k \in {0, 1, ..., n-1}

M_X(t) = E(e^{tX}) \,


M_X(t) = 
  \displaystyle \sum_{k=0}^{n-1} e^{tk} \frac{1}{n} = 
  \frac{1}{n} \sum_{k=0}^{n-1} e^{tk} = 
  \frac{1}{n} \displaystyle \sum_{k=0}^{n-1} {e^t}^k
 

Beweis für geometrische Reihe:

s_n = (1 + a + a^2 + a ... a^{n-1} \,

a s_n = a + a^2 + a ... a^n \,

s_n -a s_n = 1 - a^n \,

s_n = \frac{1-a^n}{1-a}

Daher

M_X(t) = \frac{1}{n} \frac{1-e^{tn}}{1-e^t} 

Beispiel 3

Gegeben ist die Momenterzeugende Funktion einer Poisson Verteilung

M_X(t) = e^{\lambda (e^t - 1)} = \displaystyle \sum_{k \ge 0} E(X^k) \frac{t^k}{k!}

und gesucht ist der Erwartungswert und Varianz.

Der Erwartungswert ist

E(X) = M_X(t=0)' = e^{\lambda (e^t - 1)} \cdot \lambda e^t  

E(X) = e^{\lambda (e^0 - 1)} \cdot \lambda e^0 = \lambda 
Die Varianz ist gegeben durch

\mathrm{Var}(X) = M_X(0)'' - M_X(0)' = E(X^2) - E(X)^2 \,

M_X(t)'' = (e^{\lambda (e^t - 1)} \cdot \lambda e^t) + e^{\lambda (e^t - 1)} \cdot \lambda e^t \cdot \lambda e^t

M_X(0)'' = \lambda + \lambda^2 \, 
\mathrm{Var}(X) = E(X^2) - E(X)^2 = \lambda + \lambda^2 - \lambda^2 = \lambda \,

Einschub Reihen:

Potenzreihe: f(t) = \sum_{k \ge 0} a_k t^k \,

Wichtige Potenzreihen:

e^t = \sum_{k \ge 0} \frac{1}{k!} t^k = t^0 + t^1 + \frac{t^2}{2} + \frac{t^3}{6} + ... \,

\frac{1}{1-t} = \sum_{k \ge 0} t^k = t^0 + t^1 + t^2 + ... \,

Beispiel 4

Das Gesetz der grossen Zahlen soll mit Hilfe der Tschebyscheffen Ungleichung bewiesen werden.

P(|\bar{X}_n - \mu| > \epsilon) \to 0 \, \mathrm{fuer} \, n \to \infty

\bar{X}_n = \frac{1}{n} \displaystyle \sum_{i=1}^n x_i

In die Tschebyscheffe Ungleichung eingesetzt

P(|Y - E(Y)| > \epsilon) \le \frac{\mathrm{Var}(Y)}{\epsilon^2} 

Y = \bar{X}_n 

E(Y) = \frac{1}{n} \sum_{i=1}^n E(X_i) =  \frac{1}{n} \sum_{i=1}^n \mu = \mu 


   \mathrm{Var}(Y) = 
   \mathrm{Var}(\frac{1}{n} \sum_{i=1}^n x_i) = 
   \frac{1}{n^2} \mathrm{Var}(\sum_{i=1}^n x_i) =
   \frac{1}{n^2} \sum_{i=1}^n  \mathrm{Var}(x_1)  = 
   \frac{1}{n^2} n \mathrm{Var}(x_1) = \frac{\mathrm{Var}(x_1)}{n} = \frac{\sigma^2}{n}