Hallo liebe Forengemeinde,
ich arbeite aktuell an einem sehr großen Datensatz, mit dem ich Wachstumsmodelle modelliere. So weit, so gut. Irnonischerweise habe ich nicht mit diesen Modellen Probleme, sondern mit der Interpretation von einer stinknormalen, linearen Regression. Folgendes Bild:
Ich habe eine einfach Regression aufgestellt mit y = a +b(x) +c(x) + error
Ergebnisse für die Prädiktoren:
Intercept = signifikant
b = signifikant
c = nicht signifikant
Da sowohl b als auch c zeitbezogene Variablen sind, habe ich eine Interaktion angenommen und diese ins Modell intergriert. Also: y = a +b(x) +c(x) + b*c(x) + error
Ergebnisse für die Prädiktoren:
Intercept: signifikant
b = signifikant
c = signifikant
Interaktion bc = signifikant
Kann mir jemand erläutern, warum eine Interaktion dazu führt, dass einzelne Prädiktoren plötzlich ihre Signifikanwerte verändern, in diesem Fall wird c signifikant (entweder sie werden signifikant und waren es zuvor nicht oder sie sind es plötzlich nicht mehr)!
Und was hat das Ganze mit Multikollinerarität zu tun bzw. der Korrelation von b und c? Die Prädiktoren, die signifikant interagieren, korrelieren logischerweise auch. Das führt zu einer enorm hohen Multikollinearität in den Modellen, in denen eine Interaktion integriert ist.
Kurz gesagt: Durch die Aufnahme von Interaktionstermen in Regressionsmodelle verändern sich die Koeffizienten und deren Signifikanz für jeden der Prädiktoren einzeln und es kommt zu einer hohne Multikollinerarität (hier ermittelt mit VIF).
Kann ich diese hohen VIF-Werte ignorieren? Und wie interpretiere ich es, wenn ein Prädiktor plötzlich nicht mehr signifikant ist, sobald eine Interaktion dieses Prädiktors mit einem anderern Prädiktor ins Modell aufgenommen wurde?
Danke im Voraus!
Verzweifelt,
Petrus