Hallo zusammen,
dem Regressionsmodell liegen ja in Summe 7 Annahmen zu Grunde (Backhaus et al, Multivariate Analysemethoden, S85 ff). Viele dieser Annahmen haben mit der Störgröße zu tun. Bei zwei Annahmen habe ich aber noch Probleme diese zu deuten bzw zu verstehen, was das nun Konkret für das Regressionsmodell bedeutet:
1. Die Störgrößen weisen Homoskedastizität auf.
In der Literatur lese ich, dass auch wenn diese Annahme nicht erfüllt ist, die Schätzer dennoch erwartungstreu, bloß nicht mehr effizient sind. Die Standardabweichung wird verzerrt und damit auch die Schätzung des Konfidenzintervalls. Was bedeutet das nun für mich? Heißt das, dass die Wahrscheinlichkeit, mit meinem Regressionsmodell falsche Prognosen zu erhalten größer wird? Ich habe auch gelesen, dass Heteroskedaszitität oft ein Hinweis auf Nicht-Linearität ist. Was, wenn die Zeitreihe aber ganz offensichtlich einem linearen Trend (mit saisonalen Schwankungen) folgt?
2. Die Störgrößen weisen Autokorrelation auf
Ähnliches was bei Heteroskedaszitität gilt, gilt auch bei dieser Annahme. Diese Standardabweichung wird verzerrt und die Schätzer sind nicht mehr effizient, dennoch erwartungstreu. Heisst es auch hier, dass ich tendenziell falsche Prognosen erhalte? Wenn die Residuen Autokorrelation aufweisen, bedeutet das nicht evtl auch, dass ich nicht alle relevanten Variablen im Modell berücksichtigt habe? Die fehlende Variable findet sich ja dann im Störterm wieder. Ich habe auch gelesen, dass Autokorrelation oft bei Zeitreihen auftritt. Ist das nunmehr ein Problem von Zeitreihen als solches und ich kann Autokorrelation ignorieren?
Vielleicht kann mir jemand diese Annahmen mal ein wenig anschaulicher Erklären, vor allem was die Konsequenzen betrifft. Also was passiert, wenn ich trotz Verletzung der Annahmen das aufgestellte Regressionsmodell beibehalte?
Besten Dank im Voraus
Stefan