Hallo Forumsaktive,
manche Probleme tauchen im Forum wieder und wieder neu auf und manchmal fühlt man sich wie eine Gebetsmühle. Eine dieser Gebetsmühlen betrifft den Vergleich zweier ordinalskalierter und miteinander verbundener Stichproben. Da man unverbundene ordinale Stichproben mit "Wilcoxons" Rangsummentest vergleichen kann wird dann angenommen und im Internet propagiert, man könne verbundene ordinale Stichproben mit "dem anderen Wilcoxon", dem Vorzeichenrangtest, untersuchen. PonderStibbons hat schon oft darauf hingewiesen, dass am Anfang des Vorzeichenrangtests eine Subtraktion steht und die ist nunmal für ordinale Daten nicht möglich.
Nun hat mich (auf Youtube ) jemand auf diese Arbeit hingewiesen:
Diana E. Kornbrot, The rank difference test, A new and meaningful alternative to the Wilcoxon signed rank test for ordinal data, British Journal of Mathematical and Statistical Psychology (1990), 43:241-246
<doi:10.1111/j.2044-8317.1990.tb00939.x>
Kornblum beschreibt darin folgenden Test: Gegeben seien zwei verbundene ordinalskalierte Stichproben X und Y. Nun wird erst allen Beobachtungen und X und Y ein Rang zugeordnet. Über diese Ränge, die ja jetzt metrisch sind, wird dann im Wesentlichen ein Vorzeichenrangtest gerechnet ("im Wesentlichen" weil eine etwas andere Verteilung der Teststatistik angenommen wird, ist aber im Paper teils tabelliert, teils beschrieben).
Dieser Rangdifferenztest scheint eine valide Option für die Fragestellung zu sein. Stellt sich die Frage, warum trotzdem soviele Internettexte den falschen Test empfehlen, wenn es einen richtigen gibt und warum der richtige so wenig bekannt zu sein scheint. Eine schnelle Google-Suche zeigt für SPSS keinen Treffer, für R gibt es ein Zusatzpaket das genau diesen Test anbietet: https://brettklamer.com/work/rankdifferencetest/ bzw. https://cran.r-project.org/package=rankdifferencetest
Weiß jemand, warum nicht überall der Kornblum's rank difference Test empfohlen wird und ob wir den hier empfehlen sollten?
Viele Grüße,
Bernhard