Liebe Statistik-Experten,
ich knabbere gerade an folgendem Problem: Ich habe einen Test für logisches Denken mit 15 Items und eine relativ großen Stichprobe (ca. 7000). Es handelt sich dabei um einen Test, der unter Zeitbegrenzung bearbeitet wird, d.h., dass die "hinteren" Items von immer weniger Personen bearbeitet werden. Codiert man alle nicht-bearbeiteten Items als falsch beantwortet (so wird ausgewertet), erhält man ein Alpha von .75. Berücksichtigt man nur die Daten der Personen, die alle Items beantwortet haben (ca. 1000), sinkt Alpha auf unangenehme .45 ab.
Welches Alpha (und welche Trennschärfen) sollte ich nun zur Itemselektion verwenden? Ich denke dadurch, dass alle fehlenden Items als falsch gewertet werden, korrelieren besonders die hinteren Items sehr hoch miteinander, was Alpha künstlich nach oben drücken sollte, oder? Im Lienert und Raatz steht auch, man sollte Alpha nur bei vollständig bearbeiteten Fällen verwenden. Macht die Berechnung von Alpha bei Niveau-Speed-Tests überhaupt Sinn?
Vielleicht hat jemand auch Literatur-Tipps zu diesem Thema?
Danke und viele Grüße
Benny