Dandelion hat geschrieben:@ mango: Vielen Dank für die ganzen Ausführungen, das hilft mir auf jeden Fall sehr weiter!
Szenario 1 entspricht ja meinen Hypothesen. Ich sehe deinen Punkt, dachte hingegen nur, dass meine Ergebnisse quasi zuverlässiger wären, wenn ich sie sozusagen über zwei Skalenabfragen bestätigt bekomme. Aber wenn das nicht so sein sollte, gut. Ich mache so was zum allerersten Mal, deshalb kann ich so was noch schwer einschätzen.
Das ist natürlich an sich ein guter Punkt. Zusätzliche
Items, die ein Konstrukt gut messen, sind natürlich grundsätzlich sinnvoll. Du willst aber ein zweites
Konstrukt hinzufügen, das ist in der Praxis nicht das gleiche.
Deine Anmerkung zu Szenario 2: Ich nutze innerhalb meiner Arbeit eine Theorie, mit welcher ich begründen könnte, weshalb eine Erhöhung des einen Konstrukts nicht zwangsläufig zur Senkung des anderen führen muss. Allerdings nutze ich in der gesamten Arbeit mehrere Theorien, wobei diese nicht den höchsten Stellenwert hat, andere sind sozusagen "wichtiger". Die anderen Theorien liefern zu dem Fall keine wirkliche Aussage. Insgesamt würde ein getrenntes Konstrukt jedoch keiner der Theorien widersprechen. Die Argumentation mit der einen Theorie wäre allerdings auch "um zwei Ecken", das muss ich zugeben.
Ich würde sagen: Wenn du das Ganze tatsächlich theoretisch handlen kannst, dann mach es ruhig. Das hatte sich eingangs einfach nicht so angehört.
Mir ist nicht klar, was du damit meinst, dass "ich kein Modell aufstehen wolle".

Um meine Hypothesen überhaupt formulieren zu können, habe ich doch ein Modell mit UV, AV, Moderatoren usw. aufgestellt? Oder meinst du, dass ich mit meinen Ergebnissen kein neues, daraus resultierendes Modell aufstehen wolle?
Du hast doch oben geschrieben, du würdest eine Varianzanalyse machen? Die prüft für jede UV nur, ob sie relativ zur Gesamtvarianz der AV genügend Varianz aufklärt, damit man es als hinreichend wahrscheinlich annehmen kann, dass Gruppenunterschiede existieren. ich wüsste auf Anhieb nicht, wie du mit dieser Methode die Effektstärken von zwei UVs miteinander vergleichen kannst. Aber vielleicht stehe ich da auch auf dem Schlauch?
Gehe ich also recht in der Annahme, dass es im Fall eines einzelnen Konstrukts egal ist, welche der beiden oben geposteten Hypothesen ich nutzen würde? Oder ist es sinnvoller, H2 zu nutzen, da die Skala rein von der Itemformulierung Opportunismus abfragt?
Ich persönlich würde die Formulierung bevorzugen, die näher an der Form des Modells ist. Invertierst du die Hypothese, musst du eben nochmal explizit machen, dass du davon ausgehst, dass du Fairness als Nichtvorhandensein von Opportunismus misst.