Statistik 3 - Prüfung 2.2.2004 - Beispiel 1

From StatWiki
Jump to: navigation, search

Betrachten Sie das Regressionsmodell Y = X \beta + u\,, wobei X\, eine n \times x\, Matrix ist.

Seien die Standardannahmen (\operatorname{E}(u) = 0, \operatorname{E}(u u') = \sigma^2 I, X\, nichtstochastisch, \operatorname{rang}(X) = k\, erfüllt.

Die Daten (Y,X)\, seien gegeben. Sei \hat \beta\, der resultierende KQ-Schätzer und sei \tilde \beta \, ein beliebiger linearer und unverzerrter Schätzer für \beta\, basierend auf (Y,X)\,.

Weiters soll in einer Prognoseperiode gelten: y_f = x_{f,.} \beta + u_f, \, wobei u_f\, nichtstochastisch und bekannt ist, und

\operatorname{E}(u_f) = 0, \operatorname{E}(u_f^2) = \sigma^2\, für t=1,\ldots,n\, gilt. Zeigen Sie, dass

Beispiel 1 - a

\hat y_f \, und \tilde y_f\, unverzerrte Prediktoren für y_f\, sind.

 \operatorname{E}(\hat u_f) = 
\operatorname{E}(y_f - \hat y_f) = 
\operatorname{E}(x_{f,.} \beta - x_{f,.} \hat \beta) =
x_{f,.} \beta - x_{f,.} \operatorname{E}(\hat \beta) =
x_{f,.} \beta - x_{f,.} \hat \beta = 0 \Rightarrow
 unverzerrter Prediktor

\operatorname{E}(\tilde \beta) = \beta\, weil unverzerrt.
 
\operatorname{E}(\tilde u_f) = 
\operatorname{E}(y_f - \tilde y_f) = 
\operatorname{E}(x_{f,.} \beta - x_{f,.} \tilde \beta) =
x_{f,.} \beta - x_{f,.} \operatorname{E}(\tilde \beta) =
x_{f,.} \beta - x_{f,.} \tilde \beta = 0 \Rightarrow
 unverzerrter Prediktor

Beispiel 1 - b

die Prognosefehlervarianz von \hat y_f\, nicht größer als die Prognosefehlervarianz von \tilde y_f\, ist.

(Für (b) können Sie das Gauß-Markov-Theorem aus der Vorlesung heranziehen).

Beispiel 1 - c

Bestimmen Sie auch die Prognosevarianz von \tilde y_f\,

\operatorname{E}(u_f) = 0 \,

\operatorname{Var}(\hat u_f) = \operatorname{E}( (\hat u_f - \operatorname{E}(u_f))^2 ) = 

 = \operatorname{E}( \hat u_f^2 ) = \,

 = \operatorname{E}[ (y_f - \hat y_f)^2 ] = \,

 = \operatorname{E}[ (x_{f,.} \beta + u_f - x_{f,.} \hat \beta)^2 ] = \,

 = \operatorname{E}[ (x_{f,.} (\beta - \hat \beta) + u_f )^2 ] = \,

 = \operatorname{E}[ (x_{f,.} (\beta - \hat \beta))^2 + u_f^2 + 2 (x_{f,.} (\beta - \hat \beta)) u_f ] = \,

 = \operatorname{E}[ x_{f,.} (\beta - \hat \beta)(\beta - \hat \beta)' x_{f,.}' ] + \operatorname{E}(u_f^2) + 2 \operatorname{E}[ (x_{f,.} (\beta - \hat \beta)) u_f ] = \,

Eigenartig: hier wird aufeinmal \hat \beta - \beta \, zu \beta - \hat \beta\,
Anmerkung von Martin Zuba: Das liegt daran, dass x(b-b^) = -x(b^-b); dafür wird das doppelte zwischenprodukt negativ (hier falsch) 
 
 = x_{f,.} \operatorname{E}[ (\hat \beta - \beta)(\hat \beta - \beta)' ] x_{f,.}' + \operatorname{E}(u_f^2) + 2 (x_{f,.} \operatorname{E}[ (\beta - \hat \beta)) u_f ] = \,
\operatorname{VC}(\hat \beta) = \operatorname{E}[ (\hat \beta - \beta)(\hat \beta - \beta)' ] = \sigma^2 (X'X)^{-1} \,

\hat \beta - \beta = (X'X)^{-1} X'Y - \beta = (X'X)^{-1} X'(X \beta + u) - \beta = (X'X)^{-1} X'X \beta + (X'X)^{-1} X'u - \beta = (X'X)^{-1} X'u \,
= x_{f,.} \sigma^2 (X'X)^{-1} x_{f,.}' + \sigma^2 - 2 x_{f,.} \operatorname{E}[ (X'X)^{-1} X'u u_f ] = 

= x_{f,.} \sigma^2 (X'X)^{-1} x_{f,.}' + \sigma^2 - 2 x_{f,.} (X'X)^{-1} X' \operatorname{E}( u u_f ) = 
Nebenrechnung: \operatorname{E}(u u_f) = 
\operatorname{E}\left( \begin{bmatrix} u_1 \\ u_2 \\ \vdots \\ u_n \end{bmatrix} u_f \right) = 
\operatorname{E} \begin{pmatrix} u_1 u_f \\ u_2 u_f \\ \vdots \\ u_n u_f \end{pmatrix} = 0

TODO Den Schritt versteh ich noch nicht ganz
Anmerkung von Martin Zuba: Jedes u ist mit einem anderen u unkorreliert, d.h. E (uuf) = 0
 = 
\sigma^2 (x_{f,.} (X'X)^{-1} + 1) =
\operatorname{Var}(\hat u_f) \,