Fleiss Kappa habe ich herangezogen, da meine Daten nominalskaliert sind.
Das ist ein Interrater-Maß, darauf bezieht sich "kann nicht erkennen, wieso".
Cronbachs alpha kann ich in diesem Fall ja nicht verwenden, geht soviel ich weiss nur ordinalskalierten Daten.
Das ist wiederum ein Maß für die interne Konsistenz. Wessen interne Konsistenz
sollte überprüft werden?
Hinsichtlich der Validität kenne ich mich eben nicht so gut aus. Beim Recherchieren habe ich nur entdeckt, dass man dies machen sollte.
Welche Validität meinst Du konkret? Es gibt ungefähr ein Dutzend verschiedene.
Faktorenanalyse wär eben mein erster Gedanke für die Validität gewesen, um die Korrelation der Items mit dem Faktor zu überprüfen, aber das geht, soviel ich weiss, ja auch nur mit ordinalskalierten Daten.
Ich fürchte, ich kann nicht ganz folgen, vermutlich weil mir der Zweck einer Faktorenanalyse hier noch nicht klar ist.
Kann ich die Validität eigentlich weglassen?
Einige ja. Bei anderen Dingen kommt es auf den Kontext an (z.B. theoretische Hintergrundannahmen der Studie,
Herkunft der Messinstrumente, Standards innerhalb des Fachbereichs).
Habe zuvor eben die Normalverteilung überprüft und anschließend die Reliabilität.
Wieso Normalverteilung, Du hast doch binäre Antwortskalen? Oder ging es dabei um die Verteilung der Summe von
ja-Antworten in einem Bereich?
Nebenbei ist die Betrachtung von "Normalverteilung" in aller Regel irrelevant,
zumal bei großen Stichprobenumfängen (wie hier vorliegend).
Mit freundlichen Grüßen
PonderStibbons