Wahrscheinlichkeitsrechnung 2 - Zettel 2

From StatWiki
Jump to: navigation, search

Angabe: media:WR2_Zettel2.pdf

Momente

Beispiel 11

Es sei X\, eine Zufallsvariable mit Dichte f(x) \,, sodaß \mathrm{Var}(x) < \infty \,.

Zeigen Sie, daß die Funktion \phi(a) = E((X - a)^2) \, ihr Minimum bei a = E(X) \, annimmt.

(Hinweis: Differenzieren)

E((X-a)^2) = E(X^2) - E(2 a X) + E(a^2) \,

Obiges darf man Aufgrund der linearität des Erwartungswertes. Weiters gilt E(a) = a \,.

E(X^2) - 2a E(X) + a^2 \,

Jetzt differenzieren wir nach a\,

\frac{d}{da} ( E(X^2) - 2a E(X) + a^2 ) = 0 


  \begin{matrix}
   -2 E(X) + 2a & = &  0 & \\
   -2 E(x)      & = & -2a & \Big| :(-2) \\
   E(x)         & = & a &
  \end{matrix}
 

Beispiel 12

Es sei X eine nichtnegative Zufallsvariable mit Verteilungsfunktion F(x) \, und Dichte f(x) \,. Zeigen Sie, daß

E(X) = \int_0^\infty (1-F(x)) \, dx

ist. (Hinweis: Partiell Integrieren.)

Die Angabe ein wenig anders angeschrieben:

\int_0^\infty 1 \cdot (1-F(x)) \, dx 

Jetzt wird partiell Integriert


  \begin{matrix}
   \underbrace{x (1-F(x)) \Big|_0^\infty} & + & \underbrace{\int_0^\infty f(x) x \, dx} & = \int_0^\infty x f(x) \, dx \\
   0 & & E(x) & 
  \end{matrix}
 

Jetzt bleibt nur noch zu zeigen das der erste Teil wirklich 0 ist.


  \begin{matrix}
    x \cdot (1-F(x)) \Big|_0^c = c \cdot (1-F(c)) - & \underbrace{0 \cdot (1-F(0))} \\
    & 0 
  \end{matrix}
 

Wobei wir folgendes jetzt mal glauben (es gibt da noch an längeren Beweis...)


  \lim_{c \to \infty} c \cdot (1-F(c)) \to 0
 

Momenterzeugende Funktion

Für eine reellwertige Zufallsvariable X heisst die Funktion

 M(t) = E(e^{tX}) \qquad (t \in \mathbb{R})

die momenterzeugende Funktion der Zufallsvariable X \,. Gehorcht X \, einer bestimmten Verteilung (z.b. Gleichverteilung auf [a,b] \,) so heisst M(t) \, auch die momenterzeugende Funktion der Verteilung von X \, (z.B. der Gleichverteilung auf [a,b] \,).

Beispiel 13(a) - Gleichverteilung

Berechnen Sie die momentenerzeugenden Funktion für die Gleichverteilung auf [a,b] (a < b) \,.

Vorgehensweise: Einsetzen der Dichte in  M(t) = E(e^{tX}) \, .

f(x) = \frac{1}{b-a} 

M(t) = \int_a^b e^{tx} \frac{1}{b-a} = \frac{1}{b-a} \left (\frac{1}{t} e^{tx} \right) \Bigg|_a^b = \frac{e^{tb} - e^{ta}}{t (a-b)} 

Beispiel 13 (b) - Normalverteilung

Berechnen Sie die momentenerzeugenden Funktion für die Normalverteilung mit Erwartungswert 0 und Varianz \sigma^2 >0 \,.

f(x) = \frac{1}{\sqrt{2 \pi} \sigma} e^{- \displaystyle\frac{(x-\mu)^2}{2 \sigma^2}} 

Einsetzen in M(t) \,


   \begin{matrix}
    M(t) & = & \displaystyle \int_{-\infty}^\infty e^{tx} \displaystyle \frac{1}{\sqrt{2 \pi} \sigma} e^{- \displaystyle\frac{(x-\mu)^2}{2 \sigma^2}} \, dx  \\\\
         & = & \displaystyle \frac{1}{\sqrt{2 \pi} \sigma} \displaystyle \int_{-\infty}^\infty  e^{\displaystyle tx - \frac{x^2}{2 \sigma^2}}
   \end{matrix}
 

Jetzt wird  tx - \frac{x^2}{2 \sigma^2} \,  auf ein volles Quadrat erweitert:

 
  tx - \frac{x^2}{2 \sigma^2} = 
  - \left(\frac{x^2}{2 \sigma^2} + tx\right) =
  - \left(\frac{1}{2 \sigma^2} (x^2 - 2 \sigma^2 t x + t^2\sigma^4 \right) = 
  \frac{t^2 \sigma^4}{2 \sigma^2} =
  - \left(\frac{1}{2 \sigma^2} (x-t \sigma^2)^2 - \frac{t^2 \sigma^2}{2} \right)
 

Setzt man nun ein und hebt heraus


  \begin{matrix}
   e^{\displaystyle \frac{t^2 \sigma^2}{2}} & \underbrace{ \displaystyle \int_{-\infty}^\infty \displaystyle \frac{1}{\sqrt{2 \pi} \sigma} e^{- \displaystyle \frac{(x - t \sigma^2)^2}{2 \sigma^2}} } \\
   &  N(t \sigma^2, \sigma^2)
  \end{matrix}
 

Der letzte Ausdruck entsprichte der Dichte Funktion einer Normalverteilung. Daher ergibt sich

M(t) = e^{\displaystyle \frac{t^2 \sigma^2}{2}}

Beispiel 13 (c) - Binomialverteilung

Berechnen Sie die momentenerzeugenden Funktion für die Binomialverteilung mit Parametern n = 1\, und p \in (0,1) \,

Die Wahrscheinlichkeitsfunktion der Binomial-Verteilung ist
P(X=k) = {n \choose k} p^k (1-p)^{n-k} \, 


  M(t) = \displaystyle \sum_k e^{tk} p^k (1-p)^{1-k} = e^{t 0} p^0 (1-p)^{1-0} + e^{t 1} p^1 (1-p)^{1-1} = (1-p) + e^t p
 

oder kurz

 M(t) = 1-p(e^t + 1) \, 

Beispiel 13 (d) - Binomialverteilung

Berechnen Sie die momentenerzeugenden Funktion für die Binomialverteilung mit Parametern n \ge 1\, und p \in (0,1) \,

P(X=k) = {n \choose k} p^k (1-p)^{n-k} \, 


  M(t) = \displaystyle \sum_k e^{tk} {n \choose k} p^k (1-p)^{n-k} 
 

Man denke sich das ganze für  k = 2 \, und sieht, dass das schöne Binomialkoeffizienten ergibt und daher

 
  M(t) = (e^t p + (1-p))^n \,
 

Man kann die Binomialverteilung auch als Summe von n unabhänigen Bernoulli-Verteilungen B(1,p) sehen.

Beispiel 14

Sei X \, eine Zufallsvariable mit momenterzeugender Funktion  M(t) = \operatorname{E}(e^{tX}) \,.

Zeigen Sie, daß für k \ge 0 \, das k-te Moment von X \,, \operatorname{E}(X^k) \, durch M^{(k)}(0) \, gegeben ist. Dabei bezeichnet M^{(k)}(t)\, die k-te Ableitung von M(t)\, an der Stelle t\,.


  M(t) = \int_{-\infty}^\infty e^{tx} f(x) \, dx
 


  M'(t) = 
  \frac{d}{dt} \int_{-\infty}^\infty e^{tx} f(x) \, dx = 
  \int_{-\infty}^\infty x e^{tx} f(x) \, dx
 

Das ganze r\,-mal abgeleitet ergibt


  M^{(r)}(t) = 
  \int_{-\infty}^\infty x^r e^{tx} f(x) \, dx
 

Jetzt noch einsetzen


  M'(0) = 
  \int_{-\infty}^\infty x e^{t \cdot 0} f(x) \, dx = 
  \int_{-\infty}^\infty x f(x) \, dx =
  \operatorname{E}(X)
 
 

  M^{(r)}(0) = 
  \int_{-\infty}^\infty x^r e^{t \cdot 0} f(x) \, dx = 
  \int_{-\infty}^\infty x^r f(x) \, dx =
  \operatorname{E}(X^r)
 

Beispiel 15

Berechnen Sie die momenterzeugende Funktion M(t) = \operatorname{E}(e^{tx})\, für die

Beispiel 15a - Geometrische Verteilung

Die de:Geometrische_Verteilung ist durch P(X=k) = p(k) = p(1-p)^k \, für k = 0,1,2,\ldots \, gegeben.


  \begin{matrix}
   M(t) = 
   \operatorname{E}(e^{tx}) = 
   \displaystyle \sum_{k=0}^\infty e^{tk} p (1-p)^k =
   p \displaystyle \sum_{k=0}^\infty & \underbrace{(e^t (1-p))^k} & = \displaystyle \frac{p}{1 - (1-p)e^t} \\
   & q & 
  \end{matrix}
 

e^{tk} \, mit (1-p)^k \, zusammenfassen geht, weil a^k \cdot b^k = (a \cdot b)^k \,

Den letzten Schritt kann man aufgrund von \sum_{k=0}^\infty a_0 \cdot q^k = a_0 \frac{1}{1-q}  machen.

Alternativ ist die de:Geometrische_Verteilung ist durch P(X=k) = p(k) = p(1-p)^{k-1} \, für k = 1,2,3,\ldots \, gegeben.


   M(t) = 
   \operatorname{E}(e^{tx}) = 
   \displaystyle \sum_{k=1}^\infty e^{tk} p (1-p)^{k-1} =
   p e^t \displaystyle \sum_{k=1}^\infty (e^t)^{k-1} (1-p)^{k-1} =
 

Jetzt wird in der Summe  k = k+1 \, ersetzt und zusammengefasst


  = p e^t \displaystyle \sum_{k=0}^\infty (e^t (1-p))^{k} =
  \displaystyle \frac{p \cdot e^t}{1 - (1-p)e^t}
 

Beispiel 15b - Negative Binomialverteilung

Die de:Negative Binomialverteilung besitzt die Wahrscheinlichkeitsfunktion

P(X=k) = {r + k - 1 \choose r - 1} p^r (1-p)^k für k \ge 0 \,

bzw.

P(X=k) = {k - 1 \choose r - 1} p^r (1-p)^{k-r} für k \ge r \,

Um die momentenerzeugende Funktion zu berechnen benötigt man

\frac{1}{(1-z)^{\alpha+1}} = \sum_{n=0}^{\infty}{\alpha+n\choose \alpha}z^n (siehe Wahrscheinlichkeitsrechnung 2 Midterm Vorbereitung)
 

  M(t) = 
  \operatorname{E}(e^{tk}) =
  \sum_{k=r}^\infty e^{tk} {k - 1 \choose r - 1} p^r (1-p)^{k-r} =
  \sum_{k=0}^\infty e^{tk} {r + k - 1 \choose r - 1} p^r (1-p)^k =
  p^r \sum_{k=0}^\infty {r + k - 1 \choose r - 1} (e^t (1-p))^k = 
  \frac{p^r}{ (1-(1-p)e^t)^r }
 
Und weil mich das alles >2h gekostet hat, hier auch der Erwartungswert


  \operatorname{E}(X) = 
  \sum_{k=r}^\infty k {k - 1 \choose r - 1} p^r (1-p)^{k-r} =
  p^r \sum_{k=r}^\infty k \frac{(k-1)!} { (r-1)! (k - 1 - r + 1)! } (1-p)^{k-r} =
  p^r \sum_{k=r}^\infty r \frac{k!}{r! (k - r)!} (1-p)^{k-r} = 
 


  = p^r \sum_{k=r}^\infty r {k \choose r} (1-p)^{k-r} =
  p^r r \sum_{k=0}^\infty {k + r \choose r} (1-p)^{k+r-r} =
  \frac{p^r r}{(1 - (1-p))^{r+1}} =
  \frac{p^r r}{p^{r+1}} = 
  \frac{r}{p}
 

Beispiel 15c - Poisson Verteilung

Die de:Poisson-Verteilung ist durch P(X=k) = \frac{\lambda^k}{k!} e^{-\lambda} \, gegeben.

Wichtig ist die Exponentialreihe zu kennen: e^x = \sum_{n=0}^\infty \frac{x^n}{n!} \,.


  M(t) = 
  \operatorname{E}(e^{tk}) = 
  \sum_{k=0}^\infty e^{tk} \frac{\lambda^k}{k!} e^{-\lambda} = 
  e^{-\lambda} \sum_{k=0}^\infty \frac{ (e^t \lambda)^k }{k!} =
  e^{-\lambda} e^{ e^t \lambda } =
  e^{e^t \lambda - \lambda} = 
  e^{\lambda (e^t - 1)}
 

Beispiel 15d - Gamma Verteilung

Beispiel 15a - Geometrische Verteilung