Moin Robert,
danke für das Kapitel. Leider fehlt mir die Zeit, diesen Klotz näher anzuschauen.
ganz so einfach ist es dann doch nicht.
Hmm, weiß nicht, was an meinem Argument "zu einfach" war.
Den Informationskriterien liegt die Idee zu Grunde, dass wir auf die "Validität" eines spezifizierten Modells durch konventionelle chisquare-basierte Fitindizes (Stichwort Matrizenpassung) nicht schließen können
Seh ich genauso
Stattdessen gilt auch heute noch die Replikation als Königsweg zur Überprüfung von Modellannahmen
Jetzt kommt es darauf an, was du mit Modellannahmen meinst. Es gibt eine Menge. Für mich zentral ist die Annahme der korrekten kausalen Spezifikation. Für Statistiker, die einen großen Teil der Literatur in SEM beitragen, ist das oft wenig Interesse, da sie sich lediglich eben mit statistischen Dingen wie Robustheit etc. beschäftigen. Für mich als inhaltlichen Forscher nur soweit von Belang, wie meine theoretische Perspektive bedroht ist.
Und zur Überprüfung der kausalen Spezifikation ist die Replikation (auch wenn das häufig so gesehen wird), kein Königsweg, sondern relativ wertlos. Eine Replikation mit einer identischen Stichprobe überprüft, ob das Modell stichproben - ideosynkratisch gefittet hat (das hattest du angesprochen) - eine Replikation in einer anderen Stichprobe oder veränderten Bedingungen testet die Generalisierbarkeit. Die Korrektheit der kausalen Struktur kann man so nicht testen. Ein misspezifiertes aber fittendes Modell wird auch in einer neuen Stichprobe wieder fitten. Wenn du z.B. ein Modell genau so wie du es kritisiert hast, "verschönt" durch absurde Parameter und es so noch misspezifierter wird, und du testest es in einer neuen Stichprobe, wird es wieder fitten. Das ist aber kein Beleg für die Korrektheit. So ist auch die oft geforderte Replikation von exploratorisch gefundenen Faktorenstruktur Käse, weil der Punkt hier nicht Stichproben-Ideosynkratie ist, sondern eine systematische Fehlspezifizierung trotz Fit.
Berücksichtigt das BIC also das Replikationspotential, so seh ich da keinen großen Nutzen.
Zu gut fittende Modelle (chisquare) sind daher mit größerer Wahrscheinlichkeit inkorrekt im Vergleich zu sparsamen, weniger komplexen Modellen.
Was wenn das korrekte Modell nicht sparsam ist? Dann ist das "weniger komplexe Modell" misspezifiziert. "Zu gut fittend" gibt es m.E. nicht. Allerdings sehe ich es (auch) so, dass *saturierte* Modelle (meinst du das mit komplex?) ein kleineres Falsifikationspotential haben - d.h. ein saturiertes Modell mit gutem fit hat eine geringere Überzeugungskraft, weil die eben Gefahr besteht, dass man mit unsinnigen Parametern, den (sonst sichtbaren) misfit kompensiert. Nur hat das m.E. Implikationen für das Design (--> Modelle so spezifizieren, dass sie Restriktionen beinhalten) - nicht für die post-hoc-Anwendung von BIC & Co. Ich bin z.B. ein großer Fan von Instrumentalvariablen, weil diese genau diese essentiellen Restriktionen bieten.
Interessante Diskussion by the way
Grüße
Holger