Neuere Entwicklungen in der Statistik - VO Prüfung - 24. Juni 2004 - Beispiel 2

From StatWiki
Jump to: navigation, search

Seien X_1, \ldots, X_n\, u.i.v. N(0,1)\, mit Mittelwert \bar{X}_n \,. Sei weiters  Y_n = \bar{X^2}_n\,.

Welche der folgenden Aussagen stimmt dann für n \rightarrow \infty \, (kurze Begründung)?

Allgemein

X = o_P(1) \,: a_n = o_P(b_n) \,, falls \frac{a_n}{b_n} \rightarrow_p 0\, ("a_n\, ist viel kleiner als b_n \,")

Hier ist wichtig das der Ausdruck gegen 0 geht.

X = O_P(1) \,: P(|\sqrt n \bar{X}_n| > M) \le \epsilon \,  

Hier ist wichtig das der Ausdruck gegen eine Konstante geht.

(a)  \bar{X}_n = o_P(1)\,

\frac{\bar{X_n}}{1} \rightarrow_p 0 \,

Tschebyscheff: P(|\bar{X}_n - \mu |> \epsilon) \le \frac{\frac{\sigma^2}{n}}{\epsilon^2} \xrightarrow{n \rightarrow \infty} 0 

oder alternativ \bar{X}_n \xrightarrow{a.s.} \mu = 0\, nach dem Gesetz der grossen Zahlen.

Stimmt, weil es gegen 0 geht.

(b) \sqrt n \bar{X}_n = O_P(1) \,

P(| \sqrt n \bar{X}_n | > M) < \epsilon \,
P(| \sqrt n \bar{X}_n - \sqrt n \mu| > \epsilon) \le \frac{\frac{n \sigma^2}{n}}{\epsilon^2} = \frac{\sigma^2}{\epsilon^2} \, 

Stimmt, weil es durch eine Konstante beschränkt werden kann.

(c) \bar{X}_n = o_P(n^{-1/2}) \,

P(| \frac{\bar{X}_n}{n^{-1/2}} | > \epsilon) \xrightarrow{n \rightarrow \infty} 0 \,

P(| \sqrt n \bar{X}_n | > \epsilon) \xrightarrow{n \rightarrow \infty} 0 \,
 
P(| \sqrt n \bar{X}_n - \sqrt n \mu| > \epsilon) \le  \frac{\sigma^2}{\epsilon^2} \,
Stimmt nicht, weil es nicht gegen 0 geht.

(d) \bar{Y}_n = o_{P}(X_n) \,

P( | \frac{\bar{Y}_n}{\bar{X}_n} | > \epsilon)  \xrightarrow{n \rightarrow \infty} 0 \,
 
\bar{Y}_n = \bar{X^2}_n = \operatorname{Var}(\bar{X}_n) = 
 \operatorname{Var}(\frac 1 n \sum_{i=1}^n X_i) = 
 \frac{1}{n^2} \sum_{i=1}^n \operatorname{Var}(X_i) = 
 \frac{1}{n^2} \sum_{i=1}^n 1 = 
 \frac{n}{n^2} = \frac 1 n
\,

P( | \frac{\frac 1 n }{\bar{X}_n} | > \epsilon) \xrightarrow{n \rightarrow \infty} 0 \,

Stimmt, weil  \frac 1 n \xrightarrow{n \rightarrow \infty} 0 \,
Frage: Wieso aufeinmal \bar{Y}_n \, und nicht Y_n \,?
Frage: Wieso kein P( | \ldots - \mu| > \epsilon) \,. Antwort: Steht eh dort, aber \mu = 0 \,

(e) (X_n + 1)^2 = o_{P}(1) \,

P\left(|\frac{(X_n+1)^2}{1}| \ge \epsilon \right) \rightarrow 0 \,
P\left(|(X_n+1)^2| \ge \epsilon \right) \rightarrow 0 \,

Ist nicht gesichert, dass  (X_n+1)^2 \, viel kleiner wird als 1 (wegen dem Bruch oben), (mit  n \rightarrow \infty \,).

Stimmt nicht.