Servus,
Meine Frage klingt etwas bescheuert, macht aber nach einer Erklärung Sinn!
Also ich habe 3 Gruppen und führe in 2 ein Treatment ein (Gruppen: T1; T2; CG). Ich habe 2 Zeitpunkte, einmal vor (t0) und einmal nach der Einführung des Treatments (t1).
Meine Gruppen sind grundsätzlich unabhängig voneinander und auch unterschiedlich.
In einem ersten Schritt teste ich, ob das Treatment wirkt (paired T-Test bei denen die Differenz normalverteilt ist, Wilcoxen bei denen die Differenz nicht normalverteilt ist) -> Passt, oder?
In einem zweiten Schritt möchte ich nun Untersuchen, ob das Treatment unterschiedlich stark wirkt. Hierbei würde ich am liebsten einen t-Test zwischen T1 und T2 im Zeitpunkt t1 machen, was aber schwachsinnig ist, da ja diese schon zu t0 unterschiedlich sind.
Nun habe ich mir folgende Möglichkeiten überlegt:
- relative Veränderung errechnen und vergleichen --> ich denke das wird nicht klappen, schaffe ja ne neue Funktion die auch ne neue Varianz etc. hat -> Test aussagelos, oder?
- absolute Veränderung errechnen und vergleichen --> würde mir ja die Varianz erhalten, aber zu to sind T1 und T2 zwei unterschiedliche Verteilungen und somit bedingt vergleichbar, oder?
- jeweils auf t0 standardisieren und dann vergleichen --> zu to hätten die Gruppen jeweils die gleiche Verteilung. Vergleich zwischen t0 und t1 der Gruppen (wie erster Schritt) liefert gleiche Ergebnisse der Tests (also gleiche Ergebnisse unanhängig von der Standardisierung). Passt das, ich verändere ja trozdem die Verteilung, oder???
Leider ist mein statistisches Verständnis zu schlecht um genau zu verstehen, was ich durch meine Veränderung der Daten mit dem Test mache. Somit, was ist die statistisch saubere Lösung?
Liege ich komplett falsch und sollte ich es mit was ganz anderem lösen?
Hatte jemand schon mal das gleiche Problem? Wie wurde es da gelöst? Kennt jemand einen Paper, der eine ähnliche Problemstellung hatte und dies lösen konnte?
Vielen Dank für eure Hilfe!
Grüße
Menas