Mathematische Statistik - Übung 1.31

From StatWiki
Jump to: navigation, search

Sei X \, eine diskrete Zufallsvariable mit p_k = \operatorname{P}(X = k), k=0,1,2,\ldots \, und \sum_{k=0}^\infty p_k = 1 \,

(a)

Zeigen Sie, dass G(s) = \sum_{k=0}^\infty p_k s^k \, ("erzeugende Funktion") fuer  |s| \le 1  \, existiert (d.h. endlich ist).

Falls  |s| < 1 \,:

 \begin{align}
G(s) 
& = \sum_{k=0}^\infty p_k s^k\\
& \le \sum_{k=0}^\infty 1 \cdot s^k \\
& = \frac{1}{1 -s}
& < \infty
\end{align} \,
Falls  s = 1 \,:

 G(1) = \sum_{k=0}^\infty p_k 1^k =  \sum_{k=0}^\infty p_k = 1 < \infty \,
Falls  s = -1 \,:

 
\begin{align}
G(-1) 
& = \sum_{k=0}^\infty p_k -1^k \\
& =  \sum_{k \in \mathrm{Gerade}}^\infty p_k + \sum_{k \in \mathrm{Ungerade}}^\infty p_k -1^k \\
& = \sum_{k \in \mathrm{Gerade}}^\infty p_k - \sum_{k \in \mathrm{Ungerade}}^\infty p_k \\
& \le 1 - 0 = 0 < \infty 
\end{align}

(b)

Wie haengen die Momente von X mit den hoeheren Ableitungen von G an der Stelle 1 zusammen?

 G'(1) = ?, G''(1) = ? \,

 G'(s) = \sum_{k=0}^\infty p_k k s^{k-1} \,

 G'(1) = \sum_{k=0}^\infty p_k k = \operatorname{E}(X) \,
 G''(s) = \sum_{k=0}^\infty p_k k (k-1) s^{k-2} \,

 G''(1) = \sum_{k=0}^\infty p_k k (k-1) = \operatorname{E}(X (X-1)) = \operatorname{E}(X^2) - \operatorname{E}(X)\,

(c)

Berechnen Sie die erzeugnede Funktion G, soweis Erwartungswert und Varianz fuer die geometrische Verteilung:

 p_k = p(1-p)^k, k=0,1,2,\ldots \,
 
\begin{align}
G(s) & = \sum_{k=0}^\infty  p (1-p)^k s^k  \\
& = p \sum_{k=0}^\infty ((1-p) s)^k \\
& = p \frac{1}{1- (1-p)s} \\
& = \frac{p}{1-s+sp}
\end{align}\,
 G'(s) = -p (1-s+sp)^{-2} (-1+p) \,

 \operatorname{E}(X) = G'(1) = -p (1-1+1 \cdot p)^{-2} (p-1) = \frac{1-p}{p} \,
 \operatorname{Var}(X) = G''(1) - G'(1) + G'(1)^2 \,

 G''(s) = 2p (1-s+sp)^{-3} (-1+p)^2 \,

 G''(1) = 2p (1-1+1\cdot p)^{-3} (p-1)^2 = \frac{2 (p-1)^2}{p^2} = \frac{2 (1-p)^2}{p^2}  \,

 
\begin{align}
\operatorname{Var}(X) 
& = G''(1) + G'(1) - G'(1)^2 \\
& =\frac{2 (p-1)^2}{p^2} + \frac{1-p}{p} - \frac{1-p}{p}^2 \\
& =\frac{2 (1-p)^2 + p(1-p) - (1-p)^2}{p^2} \\
& =\frac{(1-p)(2 - 2p + p - 1 +p}{p^2} \\
& = \frac{1}{p^2} - \frac{1}{p}
\end{align}  \,

(d)

Berechnen sie die Varianz der Poisson-Verteilung mit Parameter  \lambda \,:

 p_k = e^{-\lambda} \frac{\lambda^k}{k!} \,

mittels der erzeugenden Funktion.

 G(s) = \sum_{k=0}^\infty e^{-\lambda} \frac{\lambda^k}{k!} s^k = e^{-\lambda} \sum_{k=0}^\infty \frac{(\lambda s)^k}{k!} = e^{-\lambda} e^{\lambda s} = e^{\lambda (s-1)} \,

 G'(s) = \sum_{k=1}^\infty e^{-\lambda} \frac{\lambda^k}{k!} k s^{k-1} \,

 G''(s) = \sum_{k=2}^\infty e^{-\lambda} \frac{\lambda^k}{k!} k(k-1) s^{k-2} \,

 
\begin{align}
G'(1) 
& = \sum_{k=1}^\infty e^{-\lambda} \frac{\lambda^k}{k!} k 1^{k-1} \\
& = \sum_{k=1}^\infty e^{-\lambda} \frac{\lambda^k}{(k-1)!} \\
& = e^{-\lambda} \lambda \sum_{k=1}^\infty \frac{\lambda^{k-1}}{(k-1)!} \\
& = e^{-\lambda} \lambda \sum_{k=0}^\infty \frac{\lambda^k}{k!} \\
& = e^{-\lambda} \lambda e^{\lambda} \\
& = \lambda
\end{align}
\,

 
\begin{align}
G''(1) 
& = \sum_{k=2}^\infty e^{-\lambda} \frac{\lambda^k}{k!} k (k-1) \\
& = e^{-\lambda} \lambda \sum_{k=2}^\infty \frac{\lambda^{k-2}}{(k-2)!} \\
& = e^{-\lambda} \lambda^2 \sum_{k=0}^\infty \frac{\lambda^k}{k!} \\
& = e^{-\lambda} \lambda^2 e^{\lambda} \\
& = \lambda^2
\end{align}
\,

 \operatorname{Var}(X) = G''(1)+G'(1)+G'(1)^2 = \lambda^2 + \lambda - \lambda^2 = \lambda \,

(e)

Zeigen Sie fuer unabhaengige Poisson-verteilte Zufallsgroessen mit Parametern \lambda\, und \mu\,:

X \sim P(\lambda), Y \sim P(\mu) \Rightarrow X + Y \sim P(\lambda + \mu) \,

Nach de:Wahrscheinlichkeitserzeugende Funktion kann die Summe fuer unabhaengige Zufallsvariablen wie folgt berechnet werden:

m_{X_1 + \cdots + X_n} (t)= \prod_{k=1}^n m_{X_k} (t) 

Da die Zufallsvariable eindeutig durch die erzeugende Funktion definiert ist, genuegt es die erzeugende Funktion in entsprechender Form dazuzustellen.
 G_{X+Y}(s) = e^{(\lambda + \mu) (s-1)} \,


 G_X(s) G_Y(s) = e^{\lambda (s-1)} e^{\mu (s-1)} = e^{(\lambda + \mu) (s-1)} \,