von lisamarie » Sa 18. Jan 2014, 15:07
Vielen Dank für die schnelle Antwort. Sorry, dass ich nicht gleich konkreter geschrieben habe, was die einzelnen p-Werte sind.
Also insgesamt möchte ich die Varianzanalyse für zwei unterschiedliche Tests durchführen. Für den ersten Test ergeben sich für die Gruppen folgende Mittelwerte und Standardabweichungen: Gruppe 1 (M = 45,24, SD = 8,87), Gruppe 2 (M = 43,90, SD = 9,12), Gruppe 3 (M = 48,69, SD = 10,04). Für die Varianzanalyse ergibt sich ein statistisch nicht signifikanter Gruppenunterschied (F = 1,089, df =2, 55, p = ).
Für den zweiten Tests ergeben sich für die Gruppen folgende Mittelwerte und Standardabweichungen: Gruppe 1 (M = 91,28, SD = 13,49), Gruppe 2 (M = 92,40, SD = 11,84), Gruppe 3 (M = 101,38, SD = 11,91). Für die Varianzanalyse ergibt sich ein statistisch nicht signifikanter Gruppenunterschied (F = 1,089, df =2, 55, p = .059).
Wenn ich allerdings die Gruppen einzeln miteinander vergleiche, ergeben sich einige signifikante Mittelwerteunterschiede (ohne eine alpha-Adjustierung): Gruppe 1 vs. 2 (1. Test: t = 0,497 , df = 43, p = ,622; 2. Test: t = -0,292, df = 43, p = ,772), Gruppe 2 vs. 3 (1. Test: t = -1,418, df = 31, p = ,166; 2. Test: t = -2,125, df = 31, p = ,042), Gruppe 1 vs. 3 (1. Test: t = -1,088, df = 36, p = ,284; 2. Test: t = -2,276, df = 36, p = ,029).
Ich verstehe nicht, wie das zustande kommt. Wenn ich die Alpha-Adjustierung vornehmen würde, wären die Ergebnisse ja nicht mehr statistisch signifikant. Aber heißt ja dann, dass ich statistisch signifikante Ergebnisse erhalten würde, wenn ich nur zwei Gruppenvergleiche vornehmen würde, oder, also z.B. nur Gruppen 1 und 3?
Vielen Dank schon einmal im Voraus für die Hilfe!
Liebe Grüße,
Lisa