Hallo!
Ich möchte zwei Stichproben (z.B.: Taskdauer bei zwei verschiedenen Interfaces) vergleichen. Die Stichproben haben unterschiedliche Standardabweichungen (3777ms zu 2629ms, bei Mittelwerten von 5332ms bzw. 6567ms). Augrund der unterschiedlichen Std.Abw. hab ich den Welch-Test hergenommen. (Ist doch richtig, oder?)
Allerdings haben mich da die Ergebnisse verwundert:
Bei einem Signifikanzniveau von 10% ergibt sich der Wert 1,665 für F^-1 bei 83 Freiheitsgraden.
Bei einem Sig.Niv. von 5% ergibt sich der Wert 1,991.
Der Wert, den ich mit der Welch'schen Formel errechne, ist 1,859.
Die Nullhypotese wird abgelehnt, wenn 1,859 > als 1,665 bzw. 1,991 ist.
Das würde aber doch heißen, dass die Mittelwerte bei einem Sig.Niv von 10% ungleich sind, bei einem Sig.Niv von 5% aber auf einmal gleich. Meiner Meinung nach sollte das doch genau andersherum sein?
Liegt hier irgendwo ein Denkfehler meinerseits vor?
Wäre euch sehr dankbar, wenn ihr mir hier helfen könntet.
Gruß
Mäx