Ich bin mir nicht sicher, wie ich das interpretieren soll:
ich mache (leider ohne echte Kontrollgruppe) einen Interventionsvergleich (Gruppe 1 mit N=14, Gruppe 2 mit N=15) mit Messwiederholung (vor/nach), also allgemeines lineares Modell mit Meßwiederholung (SPSS).
Dort vergleiche ich 6 verschiedene Meßgrößen; ich möchte wissen, wie groß die Interventionseffekte sind und wie stark sie sich zwischen den Interventionen unterscheiden.
Die VA liefert mir über nahezu alle Meßgrößen hochsign Haupteffekte (.001 - .01), aber nur bei einer Variablen einen Interaktionseffekt. Die Gruppe selbst scheint also kaum Einfluss auf die Effekte zu haben.
Bei einer Effektberechnung hingegen, die ich hier -> http://www.psychometrica.de/effektstaerke.html#dep durchgeführt habe (4. Berechnung der Effektstärke bei [...] abhängigen t-Tests), hat die eine Gruppe mittlere bis hohe Effekte, die andere keine bis mittlere. Es dürfte auch nur an den paarigen Korrelationen liegen. Die dazu benötigten t-werte und Korrelationen habe ich mit SPSS (Mittelwerte -> t-test f. verbundene Stichproben erzeugt).
was mache ich denn jetzt damit?
Danke schon mal für Hinweise :-/
p.s.:
trifft hier vielleicht auch ponderstibbons Antwort aus varianzanalysen-f9/teststarkeberechnung-t248.html zu?
Ein "Effekt" in einer Stichprobe setzt sich zusammen aus "echtem" Effekt (womöglich = 0) und Zufallsvariation. Deswegen macht man doch erst die ganze inferenzstatistische Testerei. Den zufallskontaminierten "Effekt" in einer Stichprobe ohne weiteres auszugeben als tatsächlichen Effekt (in der Grundgesamtheit) und damit eine irrelevante "power" zu berechnen, mutet an wie eine müßige Aktion ohne Sinn und Zweck
Cumming warnt ja eher vor den tanzenden "p"s und empfiehlt,Konfidenzintervalle zu interpretieren.
(https://mickresearch.wordpress.com/2012 ... -p-values/)