Hi Conina, das Modell sieht erst mal gut aus und dass es eine Interaktion gibt, die signifikant ist, ist doch schön
Ich weiß jetzt nicht mehr, ob du irgendwie Kontrollvariablen berücksichtigt hattest. Da fehlts halt etwas. D.h. auf dem "Kontinuum der kausalen Evidenz" ist es so eher
direkt neben einfachen Korrelationen. D.h. die Gefahr besteht einfach, dass es einen omitted variable bias gibt (bzw. confounder bias).
Das mit den Freiheitsgraden: Nein, das ist kein Fehler, da wird nichts falsch geschätzt. Nur kommen die df halt aus den Messmodellen. Wenn du nur die latente Struktur ansiehst - also deine 3 Prädiktoren und die 1 AV, so ist diese Struktur saturiert - d.h. es gibt keine (latenten) Parameter, die fixiert sind. Das ist unschön.
Stell dir das folgende Beispiel vor (aus Kline, 2015). Du hast ein partielles Mediationsmodell: A hat einen indirekten Effekt auf C über B sowie einen direkten. HIer hast du ebenfalls 0 Freiheitsgrade: Du hast 3 Variablen (ergo 3*2/2 = 3 Korrelationen dieser Variablen) und 3 Pfade (welche, kannst du mal kurz selbst überlegen
Du kannst jetzt a) durch permutieren der Pfeile in verschiedene Richtungen und durch b) Fehlerkovarianzen (die ausgeschlossene Drittvariablen) Dutzende Modelle herstellen, die das vorliegende Muster von Korrelationen erklären. Es gibt *keine testbaren Restriktionen*, weil die df = 0 sind. Daran würde auch die Tatsache nix ändern, dass A, B und C latent sind, durch mehrere Indikatoren gemessen wurden und das Gesamtmodell eben doch eine positive Zahl an Freiheitsgraden hat. Das heißt, du könntest z.B. den Effekt von A auf B einfach umdrehen - der Fit wäre der selbe, oder den Effekt von C auf A, oder würdest eine Fehlerkovarianz zwischen B und C einfügen (die deren Beziehung adressiert). Kline gibt in seinem Artikel - wenn meine Erinnerung stimmt - für dieses Modell 27 äquivalente Modelle an, die die vorliegende Datenstruktur erkären. Dabei ändert er bei jedem Modell aber immer nur einen Aspekt (also dreht z.B. einen Pfeil um). Kombiniert man diese (z.B. 1 Pfeil + 1 Fehlerkovarianz), sind es noch viel mehr.
Die Moral: Modelle, die einen starken Evidenzcharakter haben, haben "Löcher im Käse" - d.h. fixierte Effekte bzw. Restriktionen. Jede Restriktion schließt eine ganze Reihe von äquivalenten-gleich-fittenden Modellen aus. Wenn du z.B. ein volles Mediationsmodell hat, das sich gegenüber dem o.g. durch eine einzige Restriktion mehr unterscheidet (A--> C = 0), fallen alle Konkurrenzmodelle, deren Inhalt die Kovarianz von A und C adressieren, weg (also A-->C; C->A; und Z-->C+A, wobei Z jetzt ein ignorierter confounder ist, der C und A beeinflusst). Zu dem fallen aber auch Alternativmodelle weg, die was mit dem indirekten Effekt zu tun haben. So wäre z.B. das Modell A <-- B --> C noch möglich (weil äquivalent), aber nicht mehr A --> B <-- C und auch nicht A --> B <-- Z --> C. Wenn also ein Modell mit dieser einen Restriktion fitted, sind eine Menge Konkurrenzmodelle ausgeschlossen.
Die Restriktionen auf der Messebene testen die Struktur der Beziehungen zwischen latenten und manifesten Variablen (und somit die Validität der Messmodelle) - die Restriktionen auf der latenten Ebene aber testen die kausale Struktur der latenten Variablen. Deshalb sind auch Regressionen nicht so stark (bzgl. der Evidenz) weil sie ebenfalls keine df haben und völlig falsche Strukturen (Pfeilrichtungen und omitted confounders) nicht entdeckbar sind. Effekte in Regressionsmodellen sind dann valide, wenn alle wichtigen Kontrollvariablen drin sind. Das ist aber nun Glaubenssache. In SEM ist das (z.Teil) testbar. "Z.Teil" heißt, es kommt darauf an auf welche Beziehungen ein confounder/omitted variables einen Einfluss hat. Was den vorderen/linken ("upstream") Teil anbelangt, ist das meist schwer; besser testbar sind die rechten / downstream - Teile von Modellen. Daher ist der B-->C Effekt auch stärker testbar (wenn das Modell wie oben erklärt vollständig mediiert ist), als der A-->B-Teil hier sind weiterhin alle Alternativen denkbar (also B-->A oder A <--Z --> B)....Deshalb haben die Ökonometriker ja Instrumentalvariablen entwickelt, die wiederum einen Effekt auf A haben. Und damit kann dann wiederum die A-B-Beziehung etwas in den Schwitzkasten genommen werden...
Das alles war jetzt ein "nice-to-know"-Exkurs - hilft dir aber nix, weil du keine Restriktionen hast. Was du noch tun könntest (falls du das nciht schon getan hast -sorry für mein Gedächtnis), wäre Kontrollvariablen mitzutesten, die zumindest für *diese* Variablen ausschließen, dass die Beziehungen deiner Modellvariablen spurious ist nur nur wegen der Kontrollvariablen entstanden ist. Solche Kontrollvariablen sind Variablen, die mit Deinen Modellvariablen (UV UND AV) korrelieren.
HTH
Holger
Kline, R. B. (2015). The mediation myth. Basic and Applied Social Psychology, 37(4), 202–213. doi:10.1080/01973533.2015.1049349