Moin,
Ich bin jetzt wieder bei der "Standardlektüre" von Weiber/Mühlhaus (2010), um das Prinzip ausreichend zu verstehen.
Nach all dem, was unten noch kommt, weiß ich nicht mehr, ob ich das Buch weiter empfehlen kann....
Die Autoren schreiben, dass man statt der Referenzvariable (Ladung 1) auch einfach die Varianz der latenten Variable auf 1 setzen kann
Ja, das "kann" man, sollte es aber nicht:
http://www.ncbi.nlm.nih.gov/pubmed/11570231Außerdem bekommen so alle latenten Variablen die selbe Varianz, was unsinnig ist.
Ja, ich meine die Hauptkomponentenanalyse. Gehört ja zur Prüfung der Eindimensionalität.
Erst mal *prüfen* exploratorische Verfahren gar nichts. Dazu sind sie völlig unsinnig, wenn man ein theoretisches Modell vor Augen hat. Die Hauptkomponentenmethode zudem hat nichts mit Eindimensionalität zu tun. Sie ist ein Summenscore der Items. D.h. hier besteht das Ziel, items aufgrund ihrer Korrelation zu Summenscores zusammenzufassen. Du prüfst Eindimensionalität mit einer CFA - die wiederum reflektive Indikatoren voraussetzt. Und schließlich halte ich persönlich den Begriff der Eindimensionalität für sehr ungünstig. Items sind nie eindimensional, weil sie von einer Masse von Einflüssen beeinflusst werden. Letztlich geht es immer darum, ob mehrere Items (im Falle eines reflektiven Modells) eine gemeinsame Ursache haben.
Und wie ich schon sagte: Cronbach's alpha macht nur Sinn, wenn du es über ein Set von items berechnest, die einen Faktor reflektieren/messen und die gleiche Ladung haben. Wo hast du das?
Mühlhaus und Weiber folgend, habe ich die folgenden Tests in Angriff genommen:
Alles was nun kommt, habe ich schlecht verstanden, halte es aber für unnötig

Kollinearitätstest: Zwischen was? Wie hast du das getestet? Und was schlagen die Autoren vor, wenn man Kollinearität hat? Ich tippe mal: Das Modell verändern - und damit misspezifizieren. Kollinearität führt immerhin noch zu unverzerrten Schätzern (d.h. im Schnitt sind sie richtig), wenn auch Geringer Effizienz. Bei Veränderungen des Modells bekommst du effiziente Schätzer, die nicht mal im Schnitt korrekt sind....
Was hat das mit den Korrelationen auf sich? Nichts in dem Satz versteh ich.
Für mich wäre die Reihenfolge eigentlich Datenerhebung -> Faktorenanalyse -> Kollinearitäts-, Reliabilitäts-, Validitätsprüfung -> weiter / oder wieder Faktorenanalyse -> ...
Für mich ist es
a) Konstruktspezifikation (welche latenten Dimensionen hat das Konstrukt)
b) Entwicklung von 2-3 items für jede für das Modell notwendige Dimension --> Spezifikation des Modells --> Test --> Abduktive (theoretisch geleitete) Respezifikation des Modells aufgrund der Parameterschätzungen (sinnvoll), Fit und lokaler Misspezifikationen.
Vorherige Faktorenanalyse, Kollinearitätsanalyse und Reliabilitätsanalyse sind nunnötig. Faktorenanalyse (EFA/PCA) ist unnötig, weil ICH die Struktur vorgebe - kein Algorithmus, Kollinearitätsanalyse: ok, ich seh die Korrelationen der Prädiktoren - kann aber im Extremfall eh nichts machen außer das N zu erhöhen, außer es ist ein Hinweis, dass das Modell ein Problem hat. Und schließlich - ok, berechne ich zwar Alpha (oder besser compositie reliability - aber für das Modell nötig ist es nicht, weil Messfehler modelliert werden.
Grüße
Holger