Multikollinearität und Stichprobengröße

Alle Verfahren der Regressionanalyse.

Multikollinearität und Stichprobengröße

Beitragvon Ma_rie » Mo 2. Mär 2015, 16:43

Ich hätte mal eine relativ allgemeine Frage. Und zwar, ob die Vergrößerung der Stichprobe immer sinnvoll ist / helfen kann, wenn Multikollinearität vorliegt.

Mir erschließt sich der Gedankengang dahinter nicht so rech, weil man ja zum Teil davon ausgehen kann, dass die Variablen in der Realität zusammenhängen. Was ändert sich dann durch die Vergrößerung der Stichprobe? Oder korrelieren die Variablen dann zwar gleich stark aber beeinträchtigen die Regressionsergebnisse dadurch einfach nicht mehr so sehr?
Leider habe ich immer nur den Vorschlag gefunden die Stichprobe zu vergrößern, wenn man das Problem mit MK hat, aber nie wieso :/

Würde mich über Input freuen.
Ma_rie
Mitglied
Mitglied
 
Beiträge: 27
Registriert: So 21. Sep 2014, 13:31
Danke gegeben: 7
Danke bekommen: 0 mal in 0 Post

Re: Multikollinearität und Stichprobengröße

Beitragvon DHA3000 » Mo 2. Mär 2015, 20:22

Wer schlägt sowas vor?

Im Zweifel siehst du es, wenn du die Korrelation der Variablen einfach überprüfst. Ändert sich diese nicht, hast du natürlich auch das Problem nicht gelöst.
DHA3000
Elite
Elite
 
Beiträge: 478
Registriert: So 8. Jul 2012, 15:08
Danke gegeben: 0
Danke bekommen: 62 mal in 62 Posts

Re: Multikollinearität und Stichprobengröße

Beitragvon Ma_rie » Mo 2. Mär 2015, 21:51

lehrbücher.. möchtest du genaue quellenangaben? habe ein paar rumliegen :)

ja... aber oft is es ja nicht (mehr) möglich die stichprobe zu vergrößern..
bei mir bspw. auch der fall. und das wollte ich eben auch anmerken in meiner arbeit. allerdings naürlich nicht, wenn das in meinem fall sowieso nichts gebracht hätte. deshalb hinterfrag ich grad mal den theoretischen sind dahinter :lol:
Ma_rie
Mitglied
Mitglied
 
Beiträge: 27
Registriert: So 21. Sep 2014, 13:31
Danke gegeben: 7
Danke bekommen: 0 mal in 0 Post

Re: Multikollinearität und Stichprobengröße

Beitragvon DHA3000 » Mo 2. Mär 2015, 22:32

Na, es kann ja nicht schaden, einmal zu fragen, welche Lehrbücher so etwas ohne weitere Erläuterung schreiben... ;)
Dann mal ein wenig anscheunlicher:

Die Erklärung dafür kommt aus der ökonometrischen Herleitung . Sprich der folgenden Formel:



Multikollinearität beudeuet, dass du ein sehr hohes R² hast, wenn du die entsprechenden unabhängigen Variablen auf einander regressierst. Das heißt, je größer, das R² wird, desto größer wird auch die Standardabweichung der Koeffizienten und daher auch die "Unschärfe" der Koeffizienten. Die Standardabweichung hängt aber auch gleichzeitig negativ von der (quadrierten) Variation der Variable x ab (SST). Also schlichtweg der summierten Werte von x. Das heißt, erhöht sich die Zahl der Beobachtungen, reduziert sich auch die Standardabweichung und der Effekt von M. wird abgemildert.
Zuletzt geändert von DHA3000 am Di 3. Mär 2015, 15:04, insgesamt 2-mal geändert.
DHA3000
Elite
Elite
 
Beiträge: 478
Registriert: So 8. Jul 2012, 15:08
Danke gegeben: 0
Danke bekommen: 62 mal in 62 Posts

folgende User möchten sich bei DHA3000 bedanken:
Ma_rie

Re: Multikollinearität und Stichprobengröße

Beitragvon Ma_rie » Di 3. Mär 2015, 11:31

vielen dank :)

Irgendwie läd das Bild bei mir leider nicht. Aber wahrscheinlich hätte ich das eh nicht verstanden.

Das heißt, je größer, das R² wird, desto größer wird auch die Standardabweichung der Koeffizienten und daher auch die "Unschärfe" der Koeffizienten


dameinst du jetzt die standardabweichung in der eigentlichen multiple regression oder? und mit dem großen r² das aus den regressioenn der einzelnen uvs aufeinander..?

ok, also dann geht mit der vergrößerung der variation und der abmilderung tatsächlich auch, wenn 2 variablen auch dann noch gleich stark korrelieren? so hab ich das jetzt verstanden :o)
Ma_rie
Mitglied
Mitglied
 
Beiträge: 27
Registriert: So 21. Sep 2014, 13:31
Danke gegeben: 7
Danke bekommen: 0 mal in 0 Post

Re: Multikollinearität und Stichprobengröße

Beitragvon DHA3000 » Di 3. Mär 2015, 15:10

Ja, keien Ahnung, warum er die Formal nicht anzeigt. Es geht erst einmal nur um die unabhängigen Variablen untereinander.

Ja, es geht sogar auhc über die Varianz der Residuen der Regression. Aber das dürfte auch analog das R² senken, sodass es der gleiche Effekt ist.
DHA3000
Elite
Elite
 
Beiträge: 478
Registriert: So 8. Jul 2012, 15:08
Danke gegeben: 0
Danke bekommen: 62 mal in 62 Posts


Zurück zu Regressionanalyse

Wer ist online?

Mitglieder in diesem Forum: 0 Mitglieder und 1 Gast