Normalverteilung - Datensätze im Gesamten analysieren?

Univariate Statistik.

Normalverteilung - Datensätze im Gesamten analysieren?

Beitragvon Statisticus » Mi 2. Sep 2020, 09:45

Hallo,

ich habe eine Frage zur Untersuchung meiner Daten auf Normalverteilung zwecks Entscheidung zwischen parametrischen bzw. nicht-parametrischen Tests.

Ich habe zum Beispiel u.a. 5 Datensätze an Messwerten, die es zu vergleichen gilt, also 5 verschiedene experimentelle Bedingungen inklusive der Kontrolle. Jeder Datensatz besteht aus 6 Replikaten.

Darf ich zur Überprüfung meiner Daten auf Normalverteilung alle Daten zusammen analysieren oder muss jeder Datensatz für sich allein genommen auf Normalverteilung geprüft werden?

Letzteres wäre auch insofern etwas problematisch, als dass 6 Werte auf Normalverteilung zu untersuchen aufgrund der geringen Anzahl nicht sonderlich gut funktioniert, während dies bei 5x6 = 30 Werten schon deutlich besser machbar ist.
Statisticus
Mitglied
Mitglied
 
Beiträge: 22
Registriert: Di 3. Jul 2018, 15:03
Danke gegeben: 4
Danke bekommen: 0 mal in 0 Post

Re: Normalverteilung - Datensätze im Gesamten analysieren?

Beitragvon PonderStibbons » Mi 2. Sep 2020, 11:10

Die Verteilung der abhängigen Variable ist bei Varianzanalyse und linearer Regression nicht von Interesse. Von Belang ist für den F-Test die Verteilung der Vorhersagefehler (Residuen) des Modells. Bei ausreichend großen Stichproben (ab ca. n >= 30) gelten die Verfahren als robust auch bei nicht-normalverteilten Residuen. Ungeachtet dessen ist auf Ausreißer zu achten.

Mit freundlichen Grüßen

PonderStibbons
PonderStibbons
Foren-Unterstützer
Foren-Unterstützer
 
Beiträge: 11364
Registriert: Sa 4. Jun 2011, 15:04
Wohnort: Ruhrgebiet
Danke gegeben: 51
Danke bekommen: 2503 mal in 2487 Posts

Re: Normalverteilung - Datensätze im Gesamten analysieren?

Beitragvon Statisticus » Mi 2. Sep 2020, 18:50

Wenn ich nur vergleichsweise wenige Replikate pro Gruppe habe und jede Gruppe bzw. deren Residuen einzeln auf Normalverteilung prüfe, wird es schwierig, eine einigermaßen verläßliche Aussage dazu machen zu können. Daher die Frage, ob ich in solchen Fällen nicht die Daten aller Gruppen bzw. deren Residuen für die Normalitätsprüfung vereinigen kann.
Zuletzt geändert von Statisticus am Mi 2. Sep 2020, 20:17, insgesamt 5-mal geändert.
Statisticus
Mitglied
Mitglied
 
Beiträge: 22
Registriert: Di 3. Jul 2018, 15:03
Danke gegeben: 4
Danke bekommen: 0 mal in 0 Post

Re: Normalverteilung - Datensätze im Gesamten analysieren?

Beitragvon Statisticus » Mi 2. Sep 2020, 18:54

PonderStibbons hat geschrieben:Bei ausreichend großen Stichproben (ab ca. n >= 30) gelten die Verfahren als robust auch bei nicht-normalverteilten Residuen. Ungeachtet dessen ist auf Ausreißer zu achten.


Lässt sich das mit der Robustheit der parametrischen Testverfahren bei ausreichend großen Stichproben auch gut begründen? Ich meine in Hinblick auf Publikationen, wo häufig darauf rumgeritten wird, dass nicht ausreichend begründet wurde, warum man sich für ein parametrisches Testverfahren entschieden hat.
Zuletzt geändert von Statisticus am Mi 2. Sep 2020, 19:23, insgesamt 1-mal geändert.
Statisticus
Mitglied
Mitglied
 
Beiträge: 22
Registriert: Di 3. Jul 2018, 15:03
Danke gegeben: 4
Danke bekommen: 0 mal in 0 Post

Re: Normalverteilung - Datensätze im Gesamten analysieren?

Beitragvon PonderStibbons » Mi 2. Sep 2020, 19:15

Ich denke, hiermit sind die parametrischen Testverfahren gemeint, oder?

Eigenartige Frage. Ich schrieb doch ausdrücklich Varianzanalyse und lineare Regression, und
ich schrieb F-Test.

Wenn Du Vergleiche mit sehr kleinen Gesamtstichproben vornimmst, sind "nonparametrische"
(rangbasierte) Verfahren eine sichere Sache.
Lässt sich das mit der Robustheit der parametrischen Testverfahren bei ausreichend großen Stichproben auch gut begründen? Ich meine in Hinblick auf Publikationen, wo häufig darauf rumgeritten wird, dass nicht ausreichend begründet wurde, warum man sich für ein parametrisches Testverfahren entschieden hat.

Diese Publikationen sind mir nicht bekannt. Der zentrale Grenzwertsatz als Begründung
dafür, dass die random sampling Verteilungen bei n > 30 die Annahmen erfüllen, ist
nicht exotisch.

Mit freundlichen Grüßen

PonderStibbons
PonderStibbons
Foren-Unterstützer
Foren-Unterstützer
 
Beiträge: 11364
Registriert: Sa 4. Jun 2011, 15:04
Wohnort: Ruhrgebiet
Danke gegeben: 51
Danke bekommen: 2503 mal in 2487 Posts

Re: Normalverteilung - Datensätze im Gesamten analysieren?

Beitragvon Statisticus » Mi 2. Sep 2020, 19:21

PonderStibbons hat geschrieben:Diese Publikationen sind mir nicht bekannt. Der zentrale Grenzwertsatz als Begründung
dafür, dass die random sampling Verteilungen bei n > 30 die Annahmen erfüllen, ist
nicht exotisch.


Was ich damit meinte war: Will man in den Naturwissenschaften seine eigenen Daten publizieren, wird von den Gutachtern, die meist selbst nur ein begrenztes statistisches Hintergrundwissen besitzen, die Annahme der Normalverteilung häufig angezweifelt, wenn man nicht irgendeine konkrete Form der Analyse auf Normalverteilung macht.
Zuletzt geändert von Statisticus am Mi 2. Sep 2020, 20:18, insgesamt 1-mal geändert.
Statisticus
Mitglied
Mitglied
 
Beiträge: 22
Registriert: Di 3. Jul 2018, 15:03
Danke gegeben: 4
Danke bekommen: 0 mal in 0 Post

Re: Normalverteilung - Datensätze im Gesamten analysieren?

Beitragvon Statisticus » Mi 2. Sep 2020, 19:29

PonderStibbons hat geschrieben:Wenn Du Vergleiche mit sehr kleinen Gesamtstichproben vornimmst, sind "nonparametrische"
(rangbasierte) Verfahren eine sichere Sache.


Nun ja, bei ganz kleinen Stichproben hat man bei manchen nichtparametrischen Testverfahren ein Problem. Beim "Wilcoxon signed rank test" ist n=6 das Minimum, sonst hat der Test null statistische Power und man bekommt nie einen signifikanten Unterschied.
Statisticus
Mitglied
Mitglied
 
Beiträge: 22
Registriert: Di 3. Jul 2018, 15:03
Danke gegeben: 4
Danke bekommen: 0 mal in 0 Post

Re: Normalverteilung - Datensätze im Gesamten analysieren?

Beitragvon PonderStibbons » Mi 2. Sep 2020, 20:32

Nun ja, bei ganz kleinen Stichproben hat man bei manchen nichtparametrischen Testverfahren ein Problem. Beim "Wilcoxon signed rank test" ist n=6 das Minimum, sonst hat der Test null statistische Power und man bekommt nie einen signifikanten Unterschied.

Das ergibt offensichtlich Sinn.

Wenn man dennoch unbedingt auf einer Glatze Locken drehen will, kann man auch "exakte Tests" statt
der asymptotischen verwenden.

Mit freundlichen Grüßen

PonderStibbons
PonderStibbons
Foren-Unterstützer
Foren-Unterstützer
 
Beiträge: 11364
Registriert: Sa 4. Jun 2011, 15:04
Wohnort: Ruhrgebiet
Danke gegeben: 51
Danke bekommen: 2503 mal in 2487 Posts


Zurück zu Mittelwert, Standardabweichung & Co.

Wer ist online?

Mitglieder in diesem Forum: 0 Mitglieder und 8 Gäste