Einfluss von zwei Prädiktoren vergleichen

Alle Verfahren der Regressionanalyse.

Einfluss von zwei Prädiktoren vergleichen

Beitragvon malenzke » Do 9. Jun 2022, 22:30

Hallo liebe Community,

ich benötige dringend Hilfe bei der Auswertung/Interpretation der Daten für meine Bachelorarbeit. Meine Stichprobe ist N = 114, allerdings habe ich 11 Missings und 1 Ausreißer, weshalb die Berechnungen auf Basis von 102 Fällen stattfinden. Die Missings habe ich geprüft und sie sind das Ergebnis eines MCAR-Ausfallmechanismus und wurden daher in den Regressionen listenweise ausgeschlossen. Alle Berechnungen basieren auf einem Alpha-Niveau von 5%.

Ich gehe den Fragen nach, ob affektives organisationales Commitment (Prädiktor1) oder affektives Marken-Commitment (Prädiktor2) einen größeren Einfluss auf Organizational Citizenship Behavior (Kriterium1) und Kündigungsabsicht (Kriterium2) hat.

Messniveau Prädiktor 1 und Prädiktor 2: ordinal-skaliert (5-stufige Likert-Skala), als intervallskaliert angenommen
Messniveau Kriterium 1: ordinal-skaliert (7-stufige Likert-Skala), als intervallskaliert angenommen
Messniveau Kriterium 2: ordinal skaliert (5-stufige Likert-Skala), als intervallskaliert angenommen

In die Regressionen (zwei für Kriterium 1 und zwei für Kriterium 2) habe ich jeweils auch vier Kontrollvariablen aufgenommen, da ich auf Basis theoretischer Überlegungen annehme, dass sie in einem Zusammenhang zum Kriterium stehen. 3 KV sind dichotom und mit 0 und 1 codiert, eine KV ist ordinal-skaliert (5-stufige Likert-Skala, intervallskaliert angenommen).

Hypothese 1a: Prädiktor 1 beeinflusst Kriterium 1 positiv.
Hypothese 1b: Prädiktor 2 beeinflusst Kriterium 1 positiv.

Hypothese 2a: Prädiktor 1 beeinflusst Kriterium 2 negativ.
Hypothese 2b: Prädiktor 2 beeinflusst Kriterium 2 negativ.

Forschungsfrage 1: Wirkt sich Prädiktor 1 oder Prädiktor 2 stärker auf Kriterium 1 aus?
Forschungsfrage 2: Wirkt sich Prädiktor 1 oder Prädiktor 2 stärker auf Kriterium 2 aus?

Wenn ich für die Hypothesen einzelne Regressionsmodelle rechne (ich habe im 1. Schritt die Kontrollvariablen ins Modell aufgenommen und dann den jeweiligen Prädiktor, den ich untersucht habe), dann bekomme ich signifikante Regressionskoeffizienten und könnte darauf basierend meine Hypothesen annehmen – oder? Allerdings verschwindet die Signifikanz von Prädiktor 1, wenn ich beide Prädiktoren gleichzeitig in einem Regressionsmodell untersuche. Prädiktor 2 ist nur noch signifikant, wenn ich den einseitigen p-Wert nehmen darf – darf ich das, weil ich einen positiven Einfluss postuliere? Die Prädiktoren korrelieren zu r = .74, p < .001 miteinander, ein Indiz für Multikollinearität. Allerdings beträgt der VIF bei beiden 2,3xx und der Toleranzwert liegt bei 0.4xx, diese Werte sind laut Faustregeln anscheinend in Ordnung. Wie interpretiere ich das Ergebnis? Muss ich H1a verwerfen, weil Prädiktor 1 im gemeinsamen Regressionsmodell mit Prädiktor 2 nicht mehr signifikant ist? Und wie erkläre ich diesen Umstand?

Wenn ich mich nun den Forschungsfragen widme, wie berechne ich das am besten?

1. Vergleiche ich die Regressionskoeffizienten der Prädiktoren in den einzelnen Regressionsmodellen (Modell zu Hypothese 1a mit Modell zu Hypothese 1b und Modell zu Hypothese 2a mit Modell zu Hypothese 2b), da diese die gleiche Metrik haben? Und kann ich einfach die absoluten Werte vergleichen nach dem Motto, Regressionskoeffizient von Prädiktor1 ist höher, daher ist der Einfluss größer – oder muss ich den Unterschied auf Signifikanz prüfen und wenn ja, wie mache ich das?

2. Da Prädiktor 1 im gemeinsamen Modell nicht mehr signifikant ist, ist der Einfluss dann automatisch geringer bzw. gar nicht vorhanden im Vergleich zu Prädiktor 2?

Ich hoffe, das war verständlich, ansonsten fragt gerne nach. Falls SPSS Outputs benötigt werden, kann ich die gerne nachreichen. Ich freue mich über jede Hilfe, ich bin mittlerweile wirklich verzweifelt..

Ganz lieben Dank schon mal und viele Grüße
M.
malenzke
Grünschnabel
Grünschnabel
 
Beiträge: 7
Registriert: Do 9. Jun 2022, 17:52
Danke gegeben: 7
Danke bekommen: 0 mal in 0 Post

Re: Einfluss von zwei Prädiktoren vergleichen

Beitragvon PonderStibbons » Do 9. Jun 2022, 22:53

Messniveau Prädiktor 1 und Prädiktor 2: ordinal-skaliert (5-stufige Likert-Skala), als intervallskaliert angenommen
Messniveau Kriterium 1: ordinal-skaliert (7-stufige Likert-Skala), als intervallskaliert angenommen
Messniveau Kriterium 2: ordinal skaliert (5-stufige Likert-Skala), als intervallskaliert angenommen

Sind das tatsächlich Likert-Skalen (Messinstrumente, die aus mehreren Likert-Items bestehen, welche summiert werden),
oder einfach nur einzelne Items vom Likert-Typ?
Prädiktor 2 ist nur noch signifikant, wenn ich den einseitigen p-Wert nehmen darf – darf ich das, weil ich einen positiven Einfluss postuliere?

Nö. Das hat damit nichts zu tun https://psychologie.uni-graz.at/de/biol ... -list/faq/
FAQ #3
Wie interpretiere ich das Ergebnis? Muss ich H1a verwerfen, weil Prädiktor 1 im gemeinsamen Regressionsmodell mit Prädiktor 2 nicht mehr signifikant ist? Und wie erkläre ich diesen Umstand?

Ich weiß nicht, was "nicht signifikant" bedeuten soll (p=0,05? p=0,99?), aber wenn die beiden Prädiktoren überlappen und daher
teilweise dieselbe Varianz im Kriterium aufklären, dann muss sich das zwangsläufig auf die Koeffizienten auswirken. Man kann
innerhalb eines Modells dieselbe Varianz nicht doppelt aufklären. Das ist analog zu
https://psychologie.uni-graz.at/de/biol ... -list/faq/
FAQ #7
Wenn ich mich nun den Forschungsfragen widme, wie berechne ich das am besten?

Inwiefern sind das relevante Forschungsfragen? Da die beiden Prädiktoren ohnehin miteinander hoch korrelieren.
Wozu soll das zu analysieren dienen und nützlich sein? Davon hängt unter anderem das Vorgehen ab (bzw. dass
man es eventuell auch sein lässt).
Ich freue mich über jede Hilfe, ich bin mittlerweile wirklich verzweifelt.

Ja gut, aber das ist hier einfach nur ein Statistikforum.

Mit freundlichen Grüßen

PonderStibbons
PonderStibbons
Foren-Unterstützer
Foren-Unterstützer
 
Beiträge: 11362
Registriert: Sa 4. Jun 2011, 15:04
Wohnort: Ruhrgebiet
Danke gegeben: 51
Danke bekommen: 2501 mal in 2485 Posts

folgende User möchten sich bei PonderStibbons bedanken:
malenzke

Re: Einfluss von zwei Prädiktoren vergleichen

Beitragvon bele » Fr 10. Jun 2022, 08:17

Hallo malenzke,

malenzke hat geschrieben:Hypothese 1a: Prädiktor 1 beeinflusst Kriterium 1 positiv.
Hypothese 1b: Prädiktor 2 beeinflusst Kriterium 1 positiv.
[...]
Wenn ich für die Hypothesen einzelne Regressionsmodelle rechne (ich habe im 1. Schritt die Kontrollvariablen ins Modell aufgenommen und dann den jeweiligen Prädiktor, den ich untersucht habe), dann bekomme ich signifikante Regressionskoeffizienten und könnte darauf basierend meine Hypothesen annehmen – oder?


Du hast mit den Einzelregressionen gezeigt, dass ein Zusammenhang besteht. Nicht, dass das eine das andere beeinflusst. Wenn es ein übergeordnetes Commitment gibt, dass dafür sorgt, dass beide Prädiktoren miteinander korrelieren, dann werden beide Regressionen signifikant, auch wenn der Einfluss auf die Kriterien nur auf eines der beide Spezial-Commitments zurückzuführen ist. In der Schule der "causal inference" spricht man hier von "Backdoor". Ist sicher mal eine Websuche wert. Du solltest daher die Testhypothese gar nicht als "beeinflusst" formulieren. Dass irgendwas "zusammenhängt" hast Du aber dann tatsächlich gezeigt.

Allerdings verschwindet die Signifikanz von Prädiktor 1, wenn ich beide Prädiktoren gleichzeitig in einem Regressionsmodell untersuche. Prädiktor 2 ist nur noch signifikant, wenn ich den einseitigen p-Wert nehmen darf – darf ich das, weil ich einen positiven Einfluss postuliere? Die Prädiktoren korrelieren zu r = .74, p < .001 miteinander, ein Indiz für Multikollinearität. Allerdings beträgt der VIF bei beiden 2,3xx und der Toleranzwert liegt bei 0.4xx, diese Werte sind laut Faustregeln anscheinend in Ordnung.


Berücksichtigen Deine Faustregeln die Stichprobengröße N? Was bei Multikollinearität signifikant wird oder nicht hängt erheblich von der Stichprobengröße ab und je stärker die Prädiktoren korrelieren umso mehr Stichprobe braucht man. Den Hinweis, dass eine größere Stichprobe besser wäre erspare ich uns - Du musst wahrscheilnich versuchen das beste aus den vorhandenen Daten zu machen.

Wie interpretiere ich das Ergebnis? Muss ich H1a verwerfen,

Verworfen werden i. d. R. nur Nullhypothesen

weil Prädiktor 1 im gemeinsamen Regressionsmodell mit Prädiktor 2 nicht mehr signifikant ist? Und wie erkläre ich diesen Umstand?

Die Erklärung wird wahrscheinlich die Kollinearität sein. Wie man die erklärt weißt Du wahrscheinlich oder kannst es leicht nachlesen. Wenn sich herausstellt, dass Deine Stichprobe zu klein ist, dann wird man das nicht auflösen können. Man kann sich aber überlegen, dass p = 0,05 eine letztlich beliebig gewählte Grenze ist und kann eine "was wäre, wenn wir uns nicht auf 0,05 als Grenze geeinigt hätten sondern auf 0,10"-Analyse rechnen. Dann wurden die Daten nicht umsonst erhoben.

Wenn ich mich nun den Forschungsfragen widme, wie berechne ich das am besten?


1. Vergleiche ich die Regressionskoeffizienten der Prädiktoren in den einzelnen Regressionsmodellen (Modell zu Hypothese 1a mit Modell zu Hypothese 1b und Modell zu Hypothese 2a mit Modell zu Hypothese 2b), da diese die gleiche Metrik haben?


Blos weiß sie die gleiche Metrik haben haben sie noch nicht gleich große Durchschnittswerte. Ein klassischer Weg wäre, die standardisierten Regressionskoeffizienten zu vergleichen.

Und kann ich einfach die absoluten Werte vergleichen nach dem Motto, Regressionskoeffizient von Prädiktor1 ist höher, daher ist der Einfluss größer – oder muss ich den Unterschied auf Signifikanz prüfen


Wir können Dir helfen, die Aufgabe zu lösen. Die Aufgabenstellung musst Du von woanders bekommen.

Ich habe Kundschaft im Laden und muss jetzt erst mal arbeiten.
Bis später,
Bernhard
----
`Oh, you can't help that,' said the Cat: `we're all mad here. I'm mad. You're mad.'
`How do you know I'm mad?' said Alice.
`You must be,' said the Cat, `or you wouldn't have come here.'
(Lewis Carol, Alice in Wonderland)
bele
Schlaflos in Seattle
Schlaflos in Seattle
 
Beiträge: 5906
Registriert: Do 2. Jun 2011, 23:16
Danke gegeben: 16
Danke bekommen: 1395 mal in 1381 Posts

folgende User möchten sich bei bele bedanken:
malenzke

Re: Einfluss von zwei Prädiktoren vergleichen

Beitragvon malenzke » Fr 10. Jun 2022, 09:52

Hallo PonderStibbons,

Sind das tatsächlich Likert-Skalen (Messinstrumente, die aus mehreren Likert-Items bestehen, welche summiert werden),
oder einfach nur einzelne Items vom Likert-Typ?


Entschuldigung, das war missverständlich formuliert. Ich habe die Prädiktoren und Kriterien aus einzelnen Items vom Likert-Typ gebildet. Also bspw. Prädiktor 1 ist aus fünf Items gebildet, die mittels fünf-stufiger Likert-Antwortskala beantwortet wurden.



Da muss ich noch mal "doof nachfragen". Ich nehme doch an, dass es einen positiven Zusammenhang gibt – ich habe dann doch eine gerichtete Hypothese und müsste den einseitigen p-Wert nehmen dürfen, oder?

Ich weiß nicht, was "nicht signifikant" bedeuten soll (p=0,05? p=0,99?), aber wenn die beiden Prädiktoren überlappen und daher
teilweise dieselbe Varianz im Kriterium aufklären, dann muss sich das zwangsläufig auf die Koeffizienten auswirken.


Stimmt, das hätte ich konkretisieren müssen. Also Prädiktor 1 hat im gemeinsamen Regressionsmodell einen p Wert von .473 und Prädiktor 2 von .059 - letzterer wäre also bei einem akzeptierten Alpha-Fehler von 10 % noch signifikant, das sprach Bernhard ja bereits an.

Inwiefern sind das relevante Forschungsfragen? Da die beiden Prädiktoren ohnehin miteinander hoch korrelieren. Wozu soll das zu analysieren dienen und nützlich sein? Davon hängt unter anderem das Vorgehen ab (bzw. dass man es eventuell auch sein lässt).


Mein Titel der Arbeit (den ich nicht mehr ändern kann) lautet: "Arbeitgeber-Commitment und Marken-Commitment – Was wirkt stärker auf OCB und Kündigungsabsicht?" Daher sollte ich die Frage in meiner Arbeit durchaus beantworten, das war im Grunde das Ziel der Studie. Damit ich für die Praxis Handlungsempfehlungen ableiten kann, inwiefern die jeweiligen Commitment Arten berücksichtigt werden sollten. Also käme bspw. raus, dass Marken-Commitment einen stärkeren Einfluss hat, würde ich eben formulieren, wie das Commitment im Unternehmen gestärkt werden könnte und das es wichtig ist, das zu tun etc. Daher hatte ich die Forschungsfragen aufgestellt.

Danke schon mal für die Hilfe und die schnelle Antwort!

Viele Grüße,
M.
malenzke
Grünschnabel
Grünschnabel
 
Beiträge: 7
Registriert: Do 9. Jun 2022, 17:52
Danke gegeben: 7
Danke bekommen: 0 mal in 0 Post

Re: Einfluss von zwei Prädiktoren vergleichen

Beitragvon malenzke » Fr 10. Jun 2022, 10:09

Hallo Bernhard,

vielen Dank für deine Antworten und Tipps!

Du solltest daher die Testhypothese gar nicht als "beeinflusst" formulieren. Dass irgendwas "zusammenhängt" hast Du aber dann tatsächlich gezeigt.


Tatsächlich hatte ich das auch erst so formuliert, dann ändere ich das wieder um, danke für die Erklärung – und nach "Backdoor" werde ich recherchieren.

Was bei Multikollinearität signifikant wird oder nicht hängt erheblich von der Stichprobengröße ab und je stärker die Prädiktoren korrelieren umso mehr Stichprobe braucht man.


Wie kann ich denn berechnen, wie groß meine Stichprobe sein müsste, damit die Multikollinearität nicht zu einem Problem wird?

Man kann sich aber überlegen, dass p = 0,05 eine letztlich beliebig gewählte Grenze ist und kann eine "was wäre, wenn wir uns nicht auf 0,05 als Grenze geeinigt hätten sondern auf 0,10"-Analyse rechnen.


Danke für den Hinweis, daran hatte ich noch gar nicht gedacht. Das ergibt in meinem Fall auch absolut Sinn, da der p-Wert von Prädiktor 2 in der gemeinsamen Regression mit Prädiktor 1 p = .059 beträgt.

Wir können Dir helfen, die Aufgabe zu lösen. Die Aufgabenstellung musst Du von woanders bekommen.


Die Aufgabenstellung ist, herauszufinden, welcher Prädiktor sich stärker auf die Kriterien auswirkt und ich frage mich, wie ich das berechnen und interpretieren soll.

Vielen Dank schon mal für die Hilfe!
M.
malenzke
Grünschnabel
Grünschnabel
 
Beiträge: 7
Registriert: Do 9. Jun 2022, 17:52
Danke gegeben: 7
Danke bekommen: 0 mal in 0 Post

Re: Einfluss von zwei Prädiktoren vergleichen

Beitragvon PonderStibbons » Fr 10. Jun 2022, 12:22

malenzke hat geschrieben:Da muss ich noch mal "doof nachfragen". Ich nehme doch an, dass es einen positiven Zusammenhang gibt – ich habe dann doch eine gerichtete Hypothese und müsste den einseitigen p-Wert nehmen dürfen, oder?

Nein, wie das Zitat schon sagt, ist das keine gute wissenschaftliche Praxis, und in Deinem Fall machst Du
das auch noch, um nach Betrachtung der Analyse-Ergebnisse ein nicht-"signfikantes" Resultat in ein
"signifikantes" umzuwandeln.

Stimmt, das hätte ich konkretisieren müssen. Also Prädiktor 1 hat im gemeinsamen Regressionsmodell einen p Wert von .473 und Prädiktor 2 von .059 - letzterer wäre also bei einem akzeptierten Alpha-Fehler von 10 % noch signifikant, das sprach Bernhard ja bereits an.

Wieso 10%? Du schriebst " Alle Berechnungen basieren auf einem Alpha-Niveau von 5%. Du kannst doch nicht beliebig
Deine Kriterien ändern, um "Signifikanzen" aus dem Datensatz zu quetschen.
Mein Titel der Arbeit (den ich nicht mehr ändern kann) lautet: "Arbeitgeber-Commitment und Marken-Commitment – Was wirkt stärker auf OCB und Kündigungsabsicht?" Daher sollte ich die Frage in meiner Arbeit durchaus beantworten, das war im Grunde das Ziel der Studie.


Z=((β1−β2)/√(S(β1)2+S(β2)))^2

Nach: Paternoster R. et al. (1998). Using the Correct Statistical Test for the Equality of Regression Coefficients. Criminology 36:859–866.

Mit freundlichen Grüßen

PonderStibbons
PonderStibbons
Foren-Unterstützer
Foren-Unterstützer
 
Beiträge: 11362
Registriert: Sa 4. Jun 2011, 15:04
Wohnort: Ruhrgebiet
Danke gegeben: 51
Danke bekommen: 2501 mal in 2485 Posts

folgende User möchten sich bei PonderStibbons bedanken:
malenzke

Re: Einfluss von zwei Prädiktoren vergleichen

Beitragvon bele » Fr 10. Jun 2022, 13:44

Hallo!

PonderStibbons hat geschrieben:
malenzke hat geschrieben:Da muss ich noch mal "doof nachfragen". Ich nehme doch an, dass es einen positiven Zusammenhang gibt – ich habe dann doch eine gerichtete Hypothese und müsste den einseitigen p-Wert nehmen dürfen, oder?

Nein, wie das Zitat schon sagt, ist das keine gute wissenschaftliche Praxis,

Da sind wir uns einig. Das bedeutet aber nicht, dass sich die ganze Welt einig wäre und augenscheinlich gibt es ja Hochschulen an denen unterrichtet wird, dass man sich je nach Hypothese für ein- oder beidseitiges Testen entscheiden könne.


... und in Deinem Fall machst Du das auch noch, um nach Betrachtung der Analyse-Ergebnisse ein nicht-"signfikantes" Resultat in ein "signifikantes" umzuwandeln.


Das widerum wird dann hoffentlich nirgends unterrichtet.

Stimmt, das hätte ich konkretisieren müssen. Also Prädiktor 1 hat im gemeinsamen Regressionsmodell einen p Wert von .473 und Prädiktor 2 von .059 - letzterer wäre also bei einem akzeptierten Alpha-Fehler von 10 % noch signifikant, das sprach Bernhard ja bereits an.

Wieso 10%? Du schriebst " Alle Berechnungen basieren auf einem Alpha-Niveau von 5%. Du kannst doch nicht beliebig
Deine Kriterien ändern, um "Signifikanzen" aus dem Datensatz zu quetschen.


Ich denke, hier gibt es einen brauchbaren Mittelweg: Ich würde etwas, das p = 0,059 macht nicht signifikant nennen. Wenn es aber in meinem theoretischen Modell als Verursacher plausibel ist und mit dem Outcome korrelliert würde ich es nicht automatisch von weiteren Betrachtungen ausschließen, nur weil es (knapp) nicht signifikant ist. Hier sind wir wieder bei dem Thema: Der Unterschied zwischen signifikant und nicht-signifikant ist nicht automatisch auch signifikant (DOI: 10.1198/000313006X152649)



Mein Titel der Arbeit (den ich nicht mehr ändern kann) lautet: "Arbeitgeber-Commitment und Marken-Commitment – Was wirkt stärker auf OCB und Kündigungsabsicht?" Daher sollte ich die Frage in meiner Arbeit durchaus beantworten, das war im Grunde das Ziel der Studie.


Z=((β1−β2)/√(S(β1)2+S(β2)))^2

Nach: Paternoster R. et al. (1998). Using the Correct Statistical Test for the Equality of Regression Coefficients. Criminology 36:859–866.


Dem liegt die Annahme zugrunde, dass das Commitment mit dem größeren Koeffizienten (standardisieriten Koeffizienten?) auch das mit der stärkeren Wirkung ist. Man muss sich überlegen, ob man diese Annahme implizit so stehen lassen will oder ob man sie explizit machen und diskutieren will, ob und warum man das annimmt. Nebenbei: Ich denke, die Formel ist nicht richtig übertragen, aber das kann man ja im Paper nachlesen.

LG,
Bernhard
----
`Oh, you can't help that,' said the Cat: `we're all mad here. I'm mad. You're mad.'
`How do you know I'm mad?' said Alice.
`You must be,' said the Cat, `or you wouldn't have come here.'
(Lewis Carol, Alice in Wonderland)
bele
Schlaflos in Seattle
Schlaflos in Seattle
 
Beiträge: 5906
Registriert: Do 2. Jun 2011, 23:16
Danke gegeben: 16
Danke bekommen: 1395 mal in 1381 Posts

folgende User möchten sich bei bele bedanken:
malenzke

Re: Einfluss von zwei Prädiktoren vergleichen

Beitragvon PonderStibbons » Fr 10. Jun 2022, 13:57

bele hat geschrieben:Ich denke, hier gibt es einen brauchbaren Mittelweg: Ich würde etwas, das p = 0,059 macht nicht signifikant nennen. Wenn es aber in meinem theoretischen Modell als Verursacher plausibel ist und mit dem Outcome korrelliert würde ich es nicht automatisch von weiteren Betrachtungen ausschließen, nur weil es (knapp) nicht signifikant ist. Hier sind wir wieder bei dem Thema: Der Unterschied zwischen signifikant und nicht-signifikant ist nicht automatisch auch signifikant (DOI: 10.1198/000313006X152649)

Wie haben es hier mit einer kleinen Stichprobe, (zu?) vielen Analysen und verrauschten Messungen zu tun,
da kann alles in die eine wie die andere Richtung gehen. Was die Sache dann noch bedenklicher macht,
wäre eine Anpassung der Kriterien an die Ergebnisse.

Mit freundlichen Grüßen

PonderStibbons
PonderStibbons
Foren-Unterstützer
Foren-Unterstützer
 
Beiträge: 11362
Registriert: Sa 4. Jun 2011, 15:04
Wohnort: Ruhrgebiet
Danke gegeben: 51
Danke bekommen: 2501 mal in 2485 Posts

Re: Einfluss von zwei Prädiktoren vergleichen

Beitragvon bele » Fr 10. Jun 2022, 14:21

Hallo PonderStibbons,

ich tue mich da schwer, dem im Ganzen zuzustimmen: Die Stichprobe ist sicher nicht groß, aber sie zeigt ja signifikante Effekte, wäre also zu schade, um Sie allein aufgrund der Größe zu verwerfen. Verrauschte Messungen sind der Grund, warum man Statistik erfunden hat. Zu viele Analysen? Am Ende soll der Regressionskoeffizientenvergleich einmal für das Outcome "Citizenship Behavior" und einmal für das Outcome "Kündigungsabsicht" durchgeführt werden. Mit der von Dir eingebrachten Formel sollen aus den 102 Beobachtungen also zwei z-Tests gemacht werden. Ist das für eine Qualifizierungsarbeit wirklich zuviel?
Natürlich stimme ich Dir zu, dass die Kriterien nicht an die Ergebnisse angepasst werden dürfen. Ich bezweifle nur, dass die Signifikanz der Koeffizienten jemals Kriterium hätte sein sollen, wenn eigentlich die Signifikanz der Unterschiede der Koeffizienten den Forschungsfragestellung beantworten soll.

Mit besten Grüßen,
Bernhard
----
`Oh, you can't help that,' said the Cat: `we're all mad here. I'm mad. You're mad.'
`How do you know I'm mad?' said Alice.
`You must be,' said the Cat, `or you wouldn't have come here.'
(Lewis Carol, Alice in Wonderland)
bele
Schlaflos in Seattle
Schlaflos in Seattle
 
Beiträge: 5906
Registriert: Do 2. Jun 2011, 23:16
Danke gegeben: 16
Danke bekommen: 1395 mal in 1381 Posts

Re: Einfluss von zwei Prädiktoren vergleichen

Beitragvon malenzke » Fr 10. Jun 2022, 15:09

Hallo zusammen,

danke für eure angeregte Diskussion und die schnellen Antworten auf meine Fragen.

Um ein paar Dinge glatt zu ziehen: Ich hatte von Anfang an einen positiven Zusammenhang angenommen (die Hypothesen hier im Beitrag allerdings unglücklich formuliert), daher dachte ich, dass ich einseitig testen kann. Und natürlich bringt man uns nicht bei, nach der Berechnung das Signifikanzniveau zu ändern! Da würden sich meinem Statistik-Professor die Nackenhaare aufstellen. Ich glaube, das war missverständlich formuliert, das hatte ich nicht vor zu tun. Ich hatte Bernhard lediglich so verstanden, dass man im Diskussionsteil anmerken könnte, dass das Ergebnis bei gewählten 5% Alpha Niveau nur knapp nicht signifikant geworden ist und man bei größerem gewählten Alpha Fehler einen Effekt gefunden hätte.

Offen geblieben ist noch folgende Frage: "Wie kann ich denn berechnen, wie groß meine Stichprobe sein müsste, damit die Multikollinearität nicht zu einem Problem wird?" Das würde ich dann gerne im Diskussionsteil für zukünftige Forschungsarbeiten aufnehmen.

Aus der Diskussion haben sich für mich allerdings auch neue Fragen aufgetan. Ist es nicht so, dass ich meine Zusammenhangsyhypothesen beantworten kann, indem ich vier einzelne Regressionen mit jeweils zwei Schritten rechne? Also 1. Schritt Aufnahme der Kontrollvariablen, 2. Schritt Aufnahme eines Prädiktors und das dann für alle 4 Kombinationen in den Hypothesen? Dann hätte ich ja geprüft, ob es einen positiven bzw. negativen Zusammenhang zwischen den jeweiligen Prädiktoren und Kriterien gibt, richtig?

Im nächsten Schritt würde ich dann explorativ gucken, ob in einer multiplen Regression mit beiden Prädiktoren in Schritt 2, beide Prädiktoren über die Kontrollvariablen hinaus einen eigenständigen Erklärungsbeitrag leisten. Klingt das sinnvoll?

Und welche Regressionskoeffizienten vergleiche ich dann, wenn ich den Einfluss der Prädiktoren vergleichen möchte? Die aus den einzelnen Regressionen oder die, wo ich beide Prädiktoren in einem Modell anschaue? Und die standardisierten oder die nicht-standardisierten? Ich dachte immer, die standardisierten nehme ich, um Variablen mit unterschiedlichen Einheiten vergleichbar zu machen, weil hier Standardabweichungen betrachtet werden und nicht die Einheitsveränderungen. Aber meine Commitment-Variablen sind ja im Grunde sogar identisch, außer dass da ein paar Worte ausgetauscht wurden. Die Marken-Items basieren auf den Items zur Messung des organisationalen Commitments, was jetzt im Nachhinein auch echt keine gute Idee war. Dort habe ich nur z. B. "Ich fühle mich emotional nicht sonderlich mit dieser Organisation verbunden" in "[...] mit dieser Marke verbunden [...]" geändert, weil ich anfangs noch dachte, ich muss für einen Vergleich des Einflusses möglichst identische Items nutzen...

Vielen Dank für eine Rückmeldung und viele Grüße
M.
malenzke
Grünschnabel
Grünschnabel
 
Beiträge: 7
Registriert: Do 9. Jun 2022, 17:52
Danke gegeben: 7
Danke bekommen: 0 mal in 0 Post

Nächste

Zurück zu Regressionanalyse

Wer ist online?

Mitglieder in diesem Forum: 0 Mitglieder und 19 Gäste