Fragen zu Mehrfaktorielles Design und Regressionsanalyse

Alle Verfahren der Regressionanalyse.

Fragen zu Mehrfaktorielles Design und Regressionsanalyse

Beitragvon wiwi » Mo 11. Aug 2014, 08:14

Hallo zusammen,

ich arbeite gerade an meiner Masterarbeit und habe ein etwas größeres statistisches Problem, bei dem ich alleine nicht weiterkomme. Ich brauche da, glaube ich, den Rat von Experten.

Im Rahmen meiner Untersuchung führe ich eine Befragung durch. Dabei geht es darum, dass die Vpn bestimmte Eigenschaften einer Situation bewerten sollen (z.B. Chance, Risiko) und diese Eigenschaften dann auf einen Zusammenhang mit anderen Variablen getestet werden (z.B. Neigung, die Aktivität durchzuführen).

Mein ursprünglicher Gedanke dabei war der Folgende: Ich nehme ein mehrfaktorielles Design, in dem ich verschiedene Szenarien vorgebe, in denen alle möglichen Ausprägungen der Faktoren (Chance, Risiko, etc.) miteinander kombiniert werden, sodass am Ende für jede Faktorstufenkombination ein Szenario besteht (Vignettte-Studie). Im nächsten Schritt bewerten meine Versuchspersonen auf einer Likert-Skala, wie sie Risiko und Chance im jeweiligen Szenario wahrgenommen haben, sowie ihre Neigung, die Aktivität durchzuführen.

Ursprünglich dachte ich, das Thema lässt sich mit einer Regressionsanalyse behandeln: Ich habe eben am Ende unterschiedliche Kombinationen von Likert-bewerteten Konstrukten (Chance, Risiko, Neigung), die ich aufeinander regressieren kann. Nun sagt aber eine ganze Batterie von Lehrbüchern, dass dem eben nicht so ist.

Insbesondere gibt es hier zwei Punkte, die ich nicht nachvollziehen kann:

1) Behauptung: Die Stichprobenumfänge für jede Faktorstufenkombination müssen gleich sein, da man ansonsten ein nicht-orthogonales Design hätte. (In diesem Fall wäre ist die Sache zwar nicht ganz verloren, aber man habe mit größeren Schätzproblemen zu kämpfen und insgesamt würde es etwas unangenehm.)

Diesen Punkt kann ich nicht nachvollziehen, denn: Angenommen, die Bewertungen von Risiko und Chance seien nicht systematisch durch Szenarien induziert worden, sondern entstammten einer Zufallserhebung - in diesem Fall könnte ich auch nicht sicherstellen, dass jede Faktorkombination in gleicher Menge in meiner Stichprobe vorhanden ist. So finden sich zahlreiche Studien, die Regressionen durchführen ohne Rücksicht darauf, ob die Merkmalsausprägungskombinationen in jeweils gleichem Umfang vorhanden sind. Beispiel: Ich sample zwei Persönlichkeitseigenschaften A und B auf einer Likert Skala von 1 bis 7. Um alle möglichen Kombinationen zu erhalten müsste ich ja quasi schauen, dass jede mögliche Ausprägung von A (also 1 bis 7) mit jeder möglichen Ausprägung von B (ebenfalls 1 bis 7) kombiniert ist. Dies führt dann zu 2^7 = 128 möglichen Stufenkombinationen, die jeweils alle in gleichem Umfang vorhanden sein müssten. Ich habe noch keine Studie gesehen, die dergleichen prüft.

Nun weiß ich ja, dass der größte Unterschied zur klassischen Regressionsanalyse, dass das mehrfaktorielle Design eine Codierung vornimmt (z.B. hoch, mittel, niedrig), während ich bei der normalen Regression einfach die Likert-Bewertungen in die Gleichung einfüge (also z.B. auf der Skala von 1 bis 7). Das reduziert aus meiner Sicht zwar die Zahl der Faktorstufenkombinationen, aber nicht die grundsätzliche Frage, oder? Die Regressionsanalyse müsste doch zu unverzerrten und effizienten Schätzungen führen, unabhängig davon, wie hoch die Zahl der Samples bei der jeder Kombination ist? Oder gibt es da tatsächlich Unterschiede aufgrund der Skala (nominal bei mehrfaktoriellem Design vs. ordinal bei Likert-Skala)? Ist es nicht sinnvoll, ein mehrfaktorielles Design mit einer Likert-Skala und einer Regression zu verknüpfen?

2) Behauptung: Wenn es um die Ausprägung eines Merkmals geht, sollten nicht weniger als drei Stufen vorhanden sein (hoch, mittel, niedrig), da eine Normalverteilung benötigt werde.

Wenn ich bei meiner Studie vom klassischen mehrfaktoriellen Design mit Faktorstufen ausgehe, so stehe ich im ersten Schritt vor der Entscheidung zwei (hoch, niedrig) oder drei (hoch, mittel, niedrig) Faktorstufen zu wählen. Mehr als 3 scheinen mir wenig sinnvoll. Der Unterschied zwischen den beiden Varianten ist zunächst mal die höhere Differenziertheit im 3er-Fall. Ansonsten hätte ich gedachte, müsste man aber letztlich sowohl im 2er- als auch im 3er-Fall zu denselben Ergebnissen kommen.

Ich hätte mich daher für den 2er-Fall entschieden, da dies insgesamt zu weniger möglichen Faktorstufenkombinationen, damit auch zu weniger Szenarien und letztlich zu einem geringeren Sampleaufwand führt, da eine kleinere Stichprobe benötigt wird. Dem widersprach aber mein Betreuer vehement.

Er führte aus, dass es aus seiner Sicht insbesondere aus zwei Gründen wichtig sei, drei Stufen (hoch, mittel, niedrig) zu haben:

a.) Man benötige eine Normalverteilung der Daten im Rahmen der Regressionsanalyse.

Aus meiner Sicht: Dieses Argument halte ich persönlich für falsch. Zumindest widerspricht es meinem Wissen über die Schätzeigenschaften der Regressionsanalyse, die unabhängig von der Verteilung der Daten BLUE sein sollte. Oder ist das bei einem mehrfaktoriellen Design mit Codierung anders?

b.) Insgesamt würde man bei der 2er-Variante eher zu signifikanten Ergebnissen kommen als bei der 3er-Variante - egal, ob man den direkten linearen Zusammenhang zwischen Risiko bzw. Chance und Neigung ermittelt oder ob man am Ende noch einen Moderator einfügt. Die 2er-Variante führt allgemein schneller zur Signifikanz, da eben nicht eine zusätzliche Störung durch eine mittlere Stufe möglich sei.

Aus meiner Sicht: Die Zahl der Stufen sollte doch keinen Einfluss auf die "Signifikanzwahrscheinlichkeit" haben. Man könnte allerdings argumentieren, dass bei zwei Stufen die Gefahr von inkonsistenten Antworten reduziert wird und so die Zusammenhänge klarer bzw. eindeutiger werden. Ich bin da echt unsicher. Wie ist Eure Meinung dazu?

3) Behauptung: Die Größe des Samples erhöht die Wahrscheinlichkeit, dass die Ergebnisse signifikant werden.

Die Sample sollte eine "vernünftige" Größe aufweisen, das ist schon klar. Ab wann die Größe vernünftig ist, da gibt es eine Vielzahl von Formeln, aber keine eindeutige Antwort. Allerdings trifft man übereinstimmend die Meinung an, dass die Wahrscheinlichkeit von Signifikanzen mit der Größe des Samples anwächst. Nun habe ich aber neben der Behauptung noch keine Begründung gehört. Ist dem wirklich so? Und lässt sich sagen, ab wann dem so ist?
(Signifikanz ist ja durch gewünscht ;-) )

Ich weiß, dass war jetzt eine Menge Text. Schonmal an dieser Stelle vielen Dank für Eure Hilfe und
viele Grüße,

Euer Wiwi
wiwi
Einmal-Poster
Einmal-Poster
 
Beiträge: 1
Registriert: Mo 11. Aug 2014, 08:06
Danke gegeben: 0
Danke bekommen: 0 mal in 0 Post

Re: Fragen zu Mehrfaktorielles Design und Regressionsanalyse

Beitragvon PonderStibbons » Mo 11. Aug 2014, 15:37

Ich halte mich mal nur an das Fettgedruckte, ansonsten wärs mir
zu viel zu lesen.

Behauptung: Die Stichprobenumfänge für jede Faktorstufenkombination müssen gleich sein, da man ansonsten ein nicht-orthogonales Design hätte. (In diesem Fall wäre ist die Sache zwar nicht ganz verloren, aber man habe mit größeren Schätzproblemen zu kämpfen und insgesamt würde es etwas unangenehm.)

Orthogonale Designs sind bei experimentellen Studien realistisch.
Ansonsten arbeitet man meist mit nicht-orthogonalen. Das ist
aber in aller Regel kein wesentliches Problem. Man rechnet ja nicht
mehr von Hand, sondern benutzt seit einigen Jahren Computer.

2) Behauptung: Wenn es um die Ausprägung eines Merkmals geht, sollten nicht weniger als drei Stufen vorhanden sein (hoch, mittel, niedrig), da eine Normalverteilung benötigt werde.

Normalverteilung wovon? Falls damit die abhängige Variable gemeint ist,
deren Verteilung hängt doch gar nicht von Faktorstufen eines Prädiktors ab.

Es ist bei den linearen parametrischen Designs aber auch die Verteilung
der AV für die Durchführung des Signifikanztests unwesentlich, wichtig ist
(bei kleineren Stichproben < 60 oder < 30, je nach Quelle) die Verteilung der
Vorhersagefehler (Residuen) des Modells. Bei größeren Stichproben sind die
Verfahren auch gegen nicht-normale Residuen robust.

a.) Man benötige eine Normalverteilung der Daten im Rahmen der Regressionsanalyse.

Falsch (s.o.), allenfalls sollten die Residuen aus einer normalverteilten
Grundgesamtheit stammen, aber auch dies ist nur bei kleineren Stichproben
relevant. Nota bene: Die Normalverteilungsbetrachtungen beziehen sich auf
den Signifikanztest und die korrekte Schätzung des Standardfehlers, nicht auf
die korrekte Schätzung des Parameters selbst.

3) Behauptung: Die Größe des Samples erhöht die Wahrscheinlichkeit, dass die Ergebnisse signifikant werden.

Ja. Wenn tatsächlich in der Grundgesamheit ein Zusammenhang existiert,
steigt die statistische power für die Zurückweisung der Nullhypothese mit
der Stichprobengröße. Ist der Zusammenhang in der Grundgesamtheit nur
sehr klein, müsste man allerdings extrem große Stichproben ziehen, um
damit einen (in der Regel wohl) praktisch irrelevanten Effekt nachweisen
zu können.

Mit freundlichen Grüßen

P.
PonderStibbons
Foren-Unterstützer
Foren-Unterstützer
 
Beiträge: 11363
Registriert: Sa 4. Jun 2011, 15:04
Wohnort: Ruhrgebiet
Danke gegeben: 51
Danke bekommen: 2501 mal in 2485 Posts


Zurück zu Regressionanalyse

Wer ist online?

Mitglieder in diesem Forum: 0 Mitglieder und 15 Gäste

cron