von Holgonaut » Fr 3. Jul 2020, 14:05
Hi,
natürlich kann ich dir jetzt nicht erkären, was der Algorithmus macht. In Kurzform: Er sucht nach allen kausalen Strukturen, die mit deiner Korrelationsmatrix konistent sind. Ergebnis ist eine Abb., die die Äquivalenzklasse des Modells anzeigen. Dort gibt es mehrere Symbole (in aufsteigender Stringenz, bzw. "Orientiertheit")
[Im Nachhinein hab ich leider gesehen, dass ich den Anhang vergessen habe. Musst also bis Montag warten. Die Interpretationen kannst du aber mal testen
x o---o y bedeutet, dass es eine Beziehung gibt, aber völlig unklar ist, was was versucht
x o---> y bedeutet, dass es unklar ist, ob x die Ursache von Y ist, oder ob beide von einem "unobserved confounder" beeinflusst werden. Was allerdings "klar" ist: Y ist eine AV, keine UV. Klar heißt: eine andere Rolle von Y würde den Daten widersprechen
x ---> y bedeutet einen relativ guten support für den Effekt von X auf Y (wieder: Andere Beziehungen würden den Daten wiedersprechen.
x <----> y bedeutet einen relativen support für einen Scheineffekt, d.h. es gibt eine Korrelation, die durch einen oder mehrere unobserved confounder erzeugt wurde.
So, warum bekommst du nun die negativen Effekte? Zentraler Begriff ist der des "colliders". Das ist eine Variable auf die zwei Pfeile gerichtet sind. Es ist dabei egal, ob die Ursprünge im Modell selbst liegen (gerichteter Pfad -->) oder außerhalb (Pfad mit einem "o" am Anfang). Wenn du einen collider in der Regression von x auf y kontrollierst, öffnest du einen Scheinpfad und der ist negativ. Einen solchen collider bias bekommst du auch, wenn due einen Abkömmling von Y kontrollierst.
In deinem Fall führt die Kontrolle von Functional practicality und TI zum collider bias. Kannst ja mal probieren, die rauszulassen. Das Modell das anghängt ist, hat eine sehr hohe Schwelle (p < .01) um eine Verbindung zu zulassen. Daher war ich erst verwundet, da aufgrund des Modells wie es abgebildet ist, gar keine Beziehung zwischen trust und CA herrschen sollte (über collider werden keine Beziehungen/Korrelationen vermittelt) Daher hab ich die Schwelle mal gesenkt, was das Modell "messier" macht. In diesem gibt es dann eine Beziehung, aber die verläuft nicht in Deiner Richtung sondern als "<----o". D.h. entweder ist customer acceptance die Ursache von trust, oder beide werden von konfundierenden Variablen beeinflusst. Die Lösung wäre da eben nur ein Experiment, in dem du trust manipulierst, oder Instrumentalvariablen zu identifizieren (d.h. Variablen, die einen Effekt auf trust haben, aber nicht auf Kundenakzeptanz.
Solche "Tetrad"-Modelle sind interessante Ideengeber, sie können in wenigen Fällen recht gute Evidenz für Effekte liefern, wenn der Kontext an Variablen so rigide ist, dass andere Pfeilrichtungen unwahrscheinlicher sind (aber: gegeben den vorliegenden Daten mit dem speziellen N). Meist zeigen sie aber was viel wichtigeres, nämlich wie viele komplexe Alternativen es gibt.
Wie gesagt: Kontrolle von SocEP und PEA aber nicht TI und FuncPr sollte die negativen Effekte verschwinden lassen; der dann übriggebliebene Pfad ist aber kausal eher wacklig.
Hier etwas Literatur zu dem ganzen.
Grüße
Holger
Rohrer, J. M. (2018). Thinking clearly about correlations and causation: Graphical causal models for observational data. Advances in Methods and Practices in Psychological Science, 1(1), 27-42. doi:10.1177/2515245917745629
Elwert, F., & Winship, C. (2014). Endogenous selection bias: The problem of conditioning on a collider variable. Annual Review of Sociology, 40, 31-53. doi:10.1146/annurev-soc-071913-043455
Malinsky, D., & Danks, D. (2018). Causal discovery algorithms: A practical guide. Philosophy Compass, 13(1), 1-11. doi:10.1111/phc3.12470
Glymour, C., Zhang, K., & Spirtes, P. (2019). Review of causal discovery methods based on graphical models. Frontiers in Genetics, 10, 524. doi:10.3389/fgene.2019.00524