Hallo Julia,
ich weiß, man liest das öfters in Büchern oder Artikeln, aber leider ist keine Vorgehensweise geeignet, dass Modell zu validieren...
zu 1) Du meinst, die Stichprobe in zwei zufällige Hälften zu teilen, dann die EFA in der einen Hälfte zu machen und in der zweiten noch mal?
Wie gesagt, häufig vorgeschlagen, aber Humbug. Durch die zufällige Teilung erhälst du zwei ...naja zufällige Hälften, die sich in der Regel nicht unterscheiden.
Ergo sollte auch die Faktorstruktur in beiden Gruppen gleich sein.
Die Grundidee hinter diesen Kreuzvalidierungen ist ja die, dass in einer Stichprobe die Gefahr besteht, dass man die explorierte Struktur an idiosynkratisch Eigenschaften der Stichprobe
anpasst (also die Struktur gibts nur in dieser Stichprobe und nicht in der Population). Mit anderen Worten, man ist Opfer des *Stichprobenfehlers* geworden.
Aber:
a) Bei der o.g. Strategie ist die Stichprobe ja schon gezogen - ergo ist der Stichprobenfehler schon passiert. Das Problem löst man so also nicht. Man müsste schon eine neue Stichprobe ziehen.
b) Das viel größere Problem ist es das die Struktur an die fehlangepasst ist - und diese Fehlanpassung den stabilen Teil der Daten betrifft, denn man immer wieder bekommen würde, wenn man neue
Stichproben zieht. Mal ein einfaches Beispiel. Wenn du eine Korrelation zwischen X und Y hat und diese als X-->Y -Effekt interpretierst, wird diese Interpretation ja auch nicht dadurch gestützt, dass du
in einer neuen Stichprobe wieder diese Korrelation erhälst. Ein Faktormodell, ist genauso ein Kausalmodell wie X-->Y. Das das zu den Daten passt, sagt nicht, dass es stimmt - und das bleibt so, egal, wie viele neue Stichproben du ziehst.
Du musst also weiter gehende Hypothesen entwickeln, die auf dem Modell aufbauen und die stimmen müssen, wenn das Modell korrekt ist.
zu 2) Eine wichtige Vorgehensweise, aber sie validiert das Modell nicht. Du testest du den Grad der Generalisierung. Das sollte im übrigen aber dann doch konfirmatorischer ablaufen (Stichwort measurement invariance)
zu 3) Das ist nicht ganz dumm, hat aber ein zentrales Problem: Du exporisierst eine Faktorstruktur, die du dann mit den selben Daten testest. Dadurch macht der p-Wert des Tests nicht unbedingt Sinn. Allerdings kann es aus praktischer Sicht dennoch sinnvoll sein, weil das CFA - Modell Restriktionen testest, während das EFA - Modell da eher lax ist (z.B. fixierte Messfehlerkovarianzen und Doppelladungen).
4) Hier müsstest du erklären, was du meinst. Exploratorische CFA ist ein Widerspruch in sich. Man kann eine CFA machen, die dann fehlschlägt, und man exploriert Gründe und Alternativen. Das sind aber zwei nacheinander geschaltete Schritte.
So weit erst mal. Wenn du eine Modellstruktur vor Augen hast, solltest du im Übrigen eine CFA machen. Das ist wirklich nicht schwer. Es gibt z.B. das lavaan-Paket für die software R (
www.lavaan.org). Auf der website gibt es ein super Tutorial. Weitere Hilfe / Ratschläge bekommst du hier.
Grüße
Holger