Aber ist es dann nicht unsinnig, damit die Normalverteilungsannahme überprüfen zu wollen?
Ich kann das Wort "unsinnig" in diesem Kontext nicht ganz einordnen. Es gibt keinen Test der auf nicht-Normalverteilung testet, da Nullhypothesen Punkthypothesen sein müssen. Es ist aber m.E. immer noch besser sagen zu können, dass wir auf z.B. 80 % Niveau, die Normalverteuilungsannhame nicht zurückweisen können, als gar keinen Test zu machen. Wenn die Null verworfen wird, hast Du Evidenz gegen die Normalverteilung, die Du ohne Test nicht hättest, und mit hoher Wahrscheinlichkeit eine falsche Annahme getroffen hättest. Ich sehe nicht wo das "unsinnig" sein soll.
Ich hatte zunächst gedacht, graphische Überprüfungen der Voraussetzungen würden nur gemacht, wenn es noch keine guten objektiven Tests gibt. Das scheint aber nicht so zu sein. Eid et al (2010) überprüfen die Normalverteilungsannahme ausschließlich mit Histogrammen und PP-Plots. Jedoch haben Urban und Mayerl neben graphischer Sichtung bereits 2006 den KS-Test und zudem Ausgabe von Schiefe und Curtosis empfohlen. Auch der in der Artikel-Bibliothek verlinkte Artikel von Schmidt (2010) empfielt Normalverteilungstests wie Lilliefors-Test und Shaipiro-Wilk-Test. Mir erscheint im Moment, mit oben stehender Begründung, die von Eid et al. beschriebene graphische Herangehensweise die Beste zu sein. Was meint Ihr?
Es ist (hoffentlich) bekannt, dass die Signifikanz eine Funktion des Stichprobenumfangs ist. Bei großer Stichprobe ist es demnach sehr wahrscheinlich, dass der Test auf Normalverteilung signifikant ausfällt, auch wenn die Daten nur minimale Abweichgunen von einer Normalverteilung zeigen. Minimale Abweichungen von der Normalverteilung sind aber für die Regressionsschätzung möglicherweise irrelevant. Das lässt sich grafisch überprüfen.
Für große Stichproben würde die Schätzung der Regressionsgewichte auch bei Verletzung der Normalverteilungsannahme nicht verzerrt.
Das ist falsch. Die Unverzerrtheit der Regressionsgewichte ist grundsätzlich unabhängig von der Stichprobengröße. Die Normalverteilung wird nur für inferenzstatistische Zwecke benötigt. Die Regressionsgewichte sind in großen Stichproben normalverteilt nach zentralem Grenzwertsatz. Sind die Regressionsgewichte verzerrt (wegen Endogenität), dann ändert an dieser Tatsache auch ein großer Stichprobenumfang nichts.
Sie empfehlen, bei nicht normalverteilten Residuen zunächst die Modellspezifikationen zu überprüfen. Es wird ein Beispiel angegen, bei dem das Fehlen einer quadratischen Komponente zu eine nicht-normalverteilten Residuen führt. Wenn es nicht an der Modellspezifikation liegt, werden Transformationen empfohlen. Urban und Mayerl argumentieren, dass man nach Transformationen nicht mehr das Regressionsgewicht, nur dass es überhaupt einen signifikanten Effekt gab, interpretieren soll, wodurch sich mir die Frage stellt, ob es nicht besser ist auf die Transformation zu verzichten und lieber eine etwaige Verzerrung der Regressionskoeffizienten in Kauf zu nehmen?
Eine Verzerrung der Koeffizienten hängt, wie oben beschrieben, nicht von der Normalverteilung der Residuen ab. Eine Verzerrung der Koeffizienten willst Du niemals in Kauf nehmen, weil sie dann nicht mehr sinnvoll zu interpretieren sind. Wenn die Stichprobe groß ist und die Abweichung von der Normalverteilung in den Residuen nicht allzu dramatisch ist, v.a. was die Symmetrie angeht, würde ich auf Transformationen verzichten.
Eventuell habe ich die entsprechende Aussage in Schendera (2008) falsch verstanden:
Ja, das hast Du falsch verstanden. Die vorhergesagten Werte findest Du nicht in der AV. Die vorhergesagten Werte sind, per Konstruktion des OLS Verfahrens von den Residuen unabhängig.
Gibt es eine Möglichkeit die Endogenität mit SPSS zu überprüfen? Ich habe bei Google den Hausman-Test gefunden, aber der scheint in SPSS nicht implementiert zu sein.
Das Stichwort "Hausman-Test" ist schon mal gut. Wenn Du Zeit und Lust hast, such mal nach Instrumentvariablen Schätzung. Eie Intuitive Erklärung findest Du in Kennedy (2008). Mit SPSS kenne ich mich nicht gut aus, aber gegeben der Tatsache, dass noch nicht einmal Huber-White Standardfehler, die für Heteroskedastie korrigieren implementiert sind, sehe ich bei komplexeren Verfahren mit dieser Software schwarz. Andere mögen widersprechen.
Kennedy, Peter (2008). A Guide to Econometrics. 6th Ed. Wiley.
Stata is an invented word, not an acronym, and should not appear with all letters capitalized: please write “Stata”, not “STATA”.