Hallo,
bei einem aktuellen Forschungsprojekt bin ich mir unsicher hinsichtlich der Datenauswertung und wollte ein paar andere Meinungen einholen. Obwohl es in der Studie um etwas anderes geht, hier die beispielhafte Problemdarstellung:
_____________________________________________
Wir sind ein Anästhesistenteam und haben auf Kongressen davon gehört, dass die Einspielung von Musik zur OP-Vorbereitung sich günstig auf Komplikationsraten, Blutungsrisiken etc. auswirkt. Unser sehr kritischer Chef glaubt nur immer das, was er selbst gesehen hat und wir beschließen, eine kleine eigene Proof-of-Concept-Studie durchzuführen. Wir können auf einer Dienstbesprechung das gesamt Krankenhauspersonal zum Mitmachen motivieren. Dazu geben wir für die freien Tage der MitarbeiterInnen mp3-Player mit guten Kopfhörern und digitale Finger-Pulsoxymeter mit Speicherfunktion nach Hause. Unter kontrollierten Kontextbedingungen sollen die KollegInnen dann Felix Mendelssohn Symphonie 4 in A-Dur "die Italienische" versus junge Tanzmusik JuniorSenior "Move Your Feet" hören, während das Pulsoxymeter die Herzschläge aufzeichnet. Zufällig ausgewählte 50% hören zuerst Mendelssohn und danach JuniorSenior, die restlichen 50% vice versa, um Reihenfolge-Effekte besser zu kontrollieren. Bei der Datenanalyse unterteilen wir die Hörzeit in 5 Epochen und berechnen jeweils die mittleren Herzfrequenzen. Mit einem FRIEDMAN oder QUADE-Test berechnen wir, einmal für Mendelssohn und einmal für JuniorSenior, ob es über alle 5 Zeitepochen über alle Versuchspersonen hinweg irgendwelche signifikanten Fluktuationen gegeben hat, d.h. wir kontrastieren mit der Nullhypothese, dass alle repeated measures aus ein und der selben Population stammen könnten. Wir erhalten beides mal ein signifikantes Ergebnis, d.h. JA unter beiden Musiken ändert sich die mittlere Herzfrequenz überzufällig.
_____________________________________________
Jetzt wollen wir noch wissen, WIE sich die Herzfrequenzen ändern und wir wollen alles nur auf lineare Trends vereinfachen, d.h. KEINE pairwise-comparisons aller 5 Epochen etc. Dazu berechnen wir für jede Person über die jeweiligen 5 Epochen, einmal für Mendelssohn und einmal für JuniorSenior, den "simple linear least square regression slope", der sagt uns: Herfrequenz steigt! vs. sinkt! vs. ändert sich wenig!, im Grunde ist das eine globale Aussage wie der Facebook-Daumen, gefällt mir oder gefällt mir nicht, aber wir wissen auch noch wie VIEL es steigt oder sinkt. (Natürlich müsste man im Experiment noch eine Kontrollkondition einbauen, in der die Leute z.B. einen Radiobeitrag hören). Unser Chef wollte eigentlich nur wissen durch eine eigene Studie: Kann unterschiedliche Musik tatsächlich das cardiovasculäre System messbar unterschiedlich beeinflussen?
Danke für Lesen bis hier hin...denn jetzt kommt meine statistsche Frage: WELCHE deskriptive Statistik kann ich verwenden, um die zentrale Tendenz der VERTEILUNG der slopes über alle Personen zu beschreiben, um so den TYPISCHEN slope Mendelssohn vs. JuniorSenior zu erhalten? Ganz spontan dachte ich daran, einfach die MEDIANE über alle individuellen slopes zu berechnen; als Streuungungsmaß würde ich dazu dann das 25. und 75 percentile mit angeben.
Aber dann habe ich mich erinnert, dass man bei Pearson Correlation Coefficients nicht so einfach mitteln darf, sondern vorher FISHERs z-transformieren muss, dann mitteln und dann diesen Mittelwert zurücktransformieren muss. Weil ja der standarized (!) regression slope, nicht der "unbehandelete" (!), denselben Wert wie die Pearson-Korrelation ergibt, liegt dieses Bedenken ja auch nicht so fern...Und ich befürchte, dass ich irgendeine Transformation vorschalten muss, bevor ich die regression slopes "mitteln" darf? Ich habe überall gesucht, konnte aber nichts finden...
Meinungen? Ideen?
Meine Frage ist also, WENN vorgeschaltete Transformation, WELCHE?