Hallo Jondolie,
Jondolie hat geschrieben:Also wenn ich Pearson oder Spearman berechne habe ich aber doch nur einen Zusammenhang der beiden Variablen, oder?
Ja.
Ich möchte aber ja wissen, ob ich mit der UV, die AV vorhersagen kann.
Das kannst Du immer genau dann, wenn es einen Zusammenhang zwischen beiden gibt.
Z.b. Hat das Kontrollbedürfnis (UV) einen Einfluss auf die Einstellung zu Individualreisen (AV). Also erst UV und AV über einen Fragebogen erhoben.
Und wenn dann Die Spearman-Korrleation zwischen beiden signifikant wird, dann gibt es einen Zusammenhang. Ob das ein Einfluss von Kontrollbedürfnis auf Individualreisen ist musst Du dann interpretieren. Aber den Zusammenhang kannst Du damit beweisen, ohne Dich mit komplizierteren Verfahren oder mit Verteilungsvoraussetzungen zu beschäftigen.
Aber wenn nun die Voraussetzungen für die lineare Regression nicht erfüllt sind, was dann. Dann kann ich die doch nicht mehr nutzen, oder?
Das ist zu stark vereinfacht. Die lineare Regression gibt Dir immer die Gerade durch Deine Punkte, die zu den kleinsten quadratischen Residuen führt. Ganz egal, wie die Residuen dann verteilt sind oder ob irgendwas hetero- oder homoskedastisch ist oder ob ein zugrundeliegender Zusammenhang wirklich linear ist.
Problematisch wird es dann erst beim Testen über t- und F-Test. Wenn bei Deinem F-Test ein sicheres Ergebnis herauskommt, sagen wir p < 0,0001, dann wird man dem auch bei mäßigen Abweichungen von der Normalverteilung glauben. Bei p = 0,04 mag das anders sein. Also oft genug ist man bereit, kleinere Abweichungen von den Voraussetzungen hinzunehmen. Das hängt natürlich von Fach, Fragestellung, deutlichkeit und Erwartbarkeit des Ergebnisses und den jeweiligen Lehrern ab.
Letztlich bliebe dann noch das große Thema der Transformationen um die lineare Regression zu retten (z. B. eine Rangtransformation wie bei Spearman). Wenn es dann immer noch nicht klappt, gibt es natürlich auch nichtlineare Regressionsformen.
Sagt mir gerne wenn ich völlig falsch bin, aber ich dachte nun wechsle ich zum non-parametrischen Verfahren, da die robuster sind
Ein typisches Beispiel dafür wäre die Spearman-Korrelation. Oder man könnte die lineare Regression mit einem nicht-parametrischen Testverfahren, beispielsweise Bootstrapping, verknüpfen. Aber warum, wenn die Spearman-Korrelation wahrscheinlich schon die richtige Antwort ist.
wenn auch eine niedrigere Aussagekraft haben,
Wie definierst Du die Höhe der Aussagekraft?
Kruskal-Wallis z.b.?
Im allerersten Satz zu diesem Test schreibt die Wikipedia
Der Kruskal-Wallis-Test (nach William Kruskal und Wilson Allen Wallis; auch H-Test) ist ein parameterfreier statistischer Test, mit dem im Rahmen einer Varianzanalyse getestet wird, ob unabhängige Stichproben (Gruppen oder Messreihen) hinsichtlich einer ordinalskalierten Variable einer gemeinsamen Population entstammen.
Da Du keine unabhängigen Gruppen/Messreihen zu vergleichen hast, ist der wohl nach dem ersten Satz 'raus.
Ea gibt ja nette Übersichtstabellen, aber wo ich hänge: da ist immer die Rede von zwei oder mehr abhängigen oder unabhängigen Stichproben. Aber ich habe ja nur einmal eine Umfrage gemacht, daher doch nur eine Stichprobe.
Richtig, deshalb ist eine Tabelle mit Tests zum Vergleich verschiedener Stichproben für Dich nicht hilfreich. Deine Idee einer Korrelationsanalyse ist da schon deutlich besser.
LG,
Bernhard