Moin,
Wir haben Lehrkräfte gefragt, wie oft sie bestimmte Bildungsthemen (A, B, C, D, E) im Unterricht behandelt haben.
Sie konnten zu jedem Thema sagen "nie", "selten", "oft", "sehr oft" oder "ich weiß nicht".
Manche Themen wurden augenscheinlich öfter behandelt als andere.
Jetzt wollen wir wissen:
Gibt es einen bedeutsamen Unterschied zwischen der Behandlung der Themen im Unterricht, oder sind das eher nur zufällig unterschiedliche Ausprägungen?
Eine erste Idee war, die Daten als Ja vs. Nein zu rekodieren und mit den so entstehenden Häufigkeiten Chi2 anzuwenden.
Das scheint keine gute Idee, weil die Daten ja nicht unabhängig und exklusiv sind (Vpn 1 kann sowohl Thema A als auch B, C, ... oft behandeln.)
Ist das soweit schonmal richtig?
Dann haben wir mit derselben Rekodierung an den McNemar gedacht - die damit zu betrachtenden 2x2 Felder würden aber auf viele Tests rauslaufen, was uns ein Problem mit der Alphafehlerkumulierung einbringen würde.
Außerdem wäre es natürlich viel eleganter, die Daten ohne eine vorherige Rekodierung zu betrachten. Da dachten wir zB. an Wilcoxon oder Mann-Whitney... letzterer mag aber wieder unabhängige Daten und ersterer scheinbar nur Messwiederholung, gepaarte Vpn und zufällige/unabhängig gezogene, gepaarte Beobachtungen; womit wir so langsam am Ende unseres Statistiklateins angekommen sind.
Deswegen zur Frage:
Welches Verfahren sollten wir bei der oben beschriebenen Operationalisierung/Fragestellung idealer Weise einsetzen?