Ich habe mal eine Frage bezüglich Hypothesen-Tests im Rahmen einer einfachen linearen Regression. Mir geht es wirklich um den mathematischen Hintergrund. Falls es hilft: Ich arbeite mit dem Buch "Ökonometrie - Eine Einführung" von von Auer in der 7. Auflage. Ich weiß nicht, ob ich irgendwo einen Fehler mache, aber das macht mich gerade wahnsinnig.
Die Logik beim Hypothesentest basiert ja darauf, dass ich schaue, inwiefern mein errechneter t-Wert über bzw. unter dem kritischen t-Wert für ein, in diesem Fall, Alpha von 0,05 (bzw. 0,025 pro Seite liegt).
Die Grenzen für das Akzeptanzintervall berechnen sich im klassischen Falle H0: Regressionskoeffizient=0 ja durch +-kritischer t-Wert * SE(Regressionskoeffizient). Daraufhin berechne ich den individuellen t-Wert des Koeffizienten mit Hilfe der Formel Koeffizient/SE(Koeffizient) und vergleiche die Werte. Ist dieser t-Wert kleiner bzw. größer als der kritische t-Wert wird die H0 verworfen, sprich der Koeffizient ist von Null verschieden. Dies müsste sich auch mit dem p-Wert decken. Sprich, ist t kleiner bzw. größer als der kritische t-Wert liegt auch ein p kleiner 0,05 vor.
Soweit so theoretisch. Rechne ich nun tatsächlich Analysen, so ergibt sich allerdings ein anderes Bild. Ein Beispiel aus dem Buch ist folgendes:
Coefficients:
Estimate Std. Error t value Pr(>|t|)
(Intercept) 10.8500 1.7070 6.356 0.0239 *
x -1.4000 0.3969 -3.528 0.0718 .
---
Signif. codes: 0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1
Residual standard error: 1.255 on 2 degrees of freedom
Multiple R-squared: 0.8615, Adjusted R-squared: 0.7923
F-statistic: 12.44 on 1 and 2 DF, p-value: 0.07181
Natürlich ist ein n von 4 extrem klein, aber die Rechnung selbst sollte ja eigentlich dennoch hinhauen.
Berechne ich 10.8500/1.7070, so komme ich auf den genannten t-Wert, genau dasselbe ergibt sich für -1.4/0.3969. Auf Basis einer t(2)-Verteilung ergeben sich folgende Akzeptanzintervalle:
Acceptance interval for model parameter(s):
center 2.5% 97.5%
(Intercept) 0.0000 -7.3445 7.3445
x 0.0000. -1.7076 1.7076
Diese ergeben sich auch ungefähr über die händische Berechnung in Form von kritischer t-Wert für eine t(2)-Verteilung *SE(Koeffizient). Jetzt ist aber der Wert für die Konstante definitiv unter 7.3445, das Ergebnis ist dem p-Wert nach aber signifikant. Genau so ist der t-Wert für den Koeffizienten deutlich kleiner als -1.7076, aber angeblich nicht signifikant.
Ich habe nochmal die selbe Rechnung mit mit anderen Datensätzen durchgeführt. Auch da ergeben sich Diskrepanzen zwischen t-Wert, Akzeptanzintervallen und p-Wert, bspw.:
Coefficients:
Estimate Std. Error. t value Pr(>|t|)
(Intercept) 40.437 1.299 31.137 < 2e-16 ***
pbcorr$gender 5.920 1.901 3.114 0.00287 **
---
Signif. codes: 0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1
Residual standard error: 7.346 on 58 degrees of freedom
Multiple R-squared: 0.1432, Adjusted R-squared: 0.1285
F-statistic: 9.696 on 1 and 58 DF, p-value: 0.002868
Als Akzeptanzintervalle ergeben sich:
Acceptance interval for model parameter(s):
center 2.5% 97.5%
(Intercept) 0.0000 -2.5996 2.5996
pbcorr$gender 0.0000 -3.8054 3.8054
In diesem Fall liegt der t-Wert für den Koeffizienten der Variable gender eben innerhalb des Akzeptanzintervalls, das Ergebnis soll aber entsprechend des p-Werts hochsignifikant sein.
Kann mir jemand auf die Sprünge helfen, wie dies zu erklären ist?