Regressionsvoraussetzungen: Linearität und Autokorrelation

Alle Verfahren der Regressionanalyse.

Regressionsvoraussetzungen: Linearität und Autokorrelation

Beitragvon intheend » Fr 8. Sep 2017, 21:14

Hallo,

ich rechne eine multiple lineare Regression im Rahmen einer Fragebogenstudie und prüfe dafür die Regressionsvoraussetzungen, deren Sinn ich (tatsächlich!) versuche zu verstehen:

1) Bei üblichen Listen der Voraussetzungen wird aufgeführt, dass auf "Lineare Beziehungen zwischen den Variablen" zu testen ist. Das verstehe ich nicht. Wenn das Ziel der Rechnung doch ist, zu ermitteln, ob ein linearer Zusammenhang vorhanden ist (Signifikanztest) und wie hoch dieser Effekt ist (R² und Gewichte), wie kann die Linearität dann notwendige Bedingung sein um diese Rechnung durchführen zu dürfen? Mir ist schon klar, dass ich das Vorhandensein eines nichtlinearen Zusammenhangs verpassen könnte. Aber wenn meine Hypothese lautet "Es gibt einen linearen Zusammenhang" und nur zu entscheiden ist, ob diese zutrifft oder nicht, dann muss ich diese Voraussetzung doch nicht testen um meine Rechnungen durchführen zu können, oder irre ich mich?

2) Mit dem Test auf Autokorrelation weiß ich auch noch nicht so ganz, wie ich damit umgehen soll. Ich habe gelesen, dass dies bei Zeitreihenanalysen und bei räumlicher Nähe der Beteiligten relevant ist. Ich habe nur einen Erhebungszeitpunkt, die befragten Schüler sitzen allerdings schon nebeneinander und könnten sich (obwohl Abschauen verboten war) gegenseitig beeinflusst haben. Meine VP-Nummern spiegeln die Sitzreihenfolge allerdings nur teilweise wieder, weil die Bögen teils durcheinander eingesammelt wurden. Muss ich auf Autokorrelation denn überhaupt testen?
Ich habe es mal getan. Dann muss ich allerdings entscheiden, welche Werte der Durbin-Watson Statistik noch ok sind und welche nicht mehr. Ich habe von Faustregeln mit "1,5 - 2,5 ist ok" gelesen und anderen Quellen, die davon überhaupt nichts hielten und auf die Tabellen verwiesen haben. Wenn ich mit diesen Tabellen aber streng rechne (Alpha=.05, bei N=150 und k=6 Prädiktoren), dann darf mein d schon nicht kleiner als 1.817 werden, um Autokorrelation noch ausschließen zu können. Ich kriege mit meinen Daten aber öfter mal Werte von d=1.776 oder einmal sogar 1.668. Ist die Existenz solcher Werte denn für die Regression ein Problem? Oder würde es vielleicht schon helfen, wenn ich die Daten einfach nach einem anderen Merkmal sortiere (und damit bessere Werte für d bekomme)? Oder ist es gar umgekehrt: Müsste ich eigentlich für sämtliche Sortierungen die Durbin-Watson Statistik prüfen und wenn es irgendwo einen niedrigen Wert gibt, hab ich schon verloren?

Vielen Dank für jede Bemühungen, die etwas Licht in meine Gedanken bringen!
intheend
Grünschnabel
Grünschnabel
 
Beiträge: 4
Registriert: Sa 5. Aug 2017, 21:34
Danke gegeben: 1
Danke bekommen: 0 mal in 0 Post

Re: Regressionsvoraussetzungen: Linearität und Autokorrelati

Beitragvon DHA3000 » Mi 13. Sep 2017, 01:50

1) Du testest nicht auf einen linearen Zusammenhang, sondern auf einen Zusammenhang, bei dem die Annahme der Linearität gelten sollte. Direkte Tests auf Nicht-Linearität sind alles
andere als trivial, da du nicht sie Form der Nicht-Linearität kennst. Der einfachste Fall ist, dass du quadrierte Terme mit aufnimmst.

2) Autokorrealtion ist bei Zeitreihen wichtig. Du untersuchst keine Zeitreihen.
DHA3000
Elite
Elite
 
Beiträge: 478
Registriert: So 8. Jul 2012, 15:08
Danke gegeben: 0
Danke bekommen: 62 mal in 62 Posts

folgende User möchten sich bei DHA3000 bedanken:
intheend


Zurück zu Regressionanalyse

Wer ist online?

Mitglieder in diesem Forum: Google [Bot] und 11 Gäste