im Zuge meiner Regressionsanalyse habe ich die Signifikanz der Regressionskoeffizienten mithilfe des Wald-Tests ermittelt. Nun ist ja Voraussetzung für den Wald-Test, dass die Regressionskoeffizienten (annähernd?) normalverteilt sind, was man ja prüfen kann, indem man nachweist, dass die Residuen normalverteilt sind (?).
Nun habe ich mit R folgendes herausbekommen:
- Code: Alles auswählen
modmodel <- glm(V_1.3 ~ V_0.7 + V_0.10 + V_0.11 + V_0.14 + V_0.16, family=binomial(link='logit'), data=dataSELECT)
> ks.test(modmodel$residuals, "pnorm") #Kolmogorov-Smirnov-Test => falls p > 0,05 => H_0 kann NICHT wiederlegt werden => Normalverteilung liegt vor !!!
One-sample Kolmogorov-Smirnov test
data: modmodel$residuals
D = 0.6418, p-value < 2.2e-16
alternative hypothesis: two-sided
Warning message:
In ks.test(modmodel$residuals, "pnorm") :
für den Komogorov-Smirnov-Test sollten keine Bindungen vorhanden sein
> shapiro.test(modmodel$residuals)
Shapiro-Wilk normality test
data: modmodel$residuals
W = 0.50274, p-value < 2.2e-16
Die niedrigen p-Werte des Shapiro-Wilk und Kolmogorov-Smirnov-Tests sprechen ja nun klar gegen die Normalverteilungsannahme. Daher kann ich den Wald-Test ja nun vergessen oder?
Die Frage ist nun, wie ich nun die Signifikanzen der Regressionskoeffizienten vernünftig ermitteln kann?
Viele Grüße
stefan85