Liebes Forum,
Der Hintergrund:
Ich habe in meiner Masterarbeit 50 Datenpunkten aufgenommen, von denen wir ursprünglich erwartet hatten, dass sie normalverteilt sind.
Um zu überprüfen, ob diese Datenpunkte normalverteilt sind, habe ich mich für die graphische Methode mit Quantile-Quantile-Plots entschieden.
Als Ergebnis hat sich gezeigt, dass die Messwerte eher in einer light-tailed-distribution verteilt sind, aber es zum Glück keine Schiefe/Skewness gibt.
Die genaue Frage:
Wir geben unsere Messfehler normalerweise mit error = 1.96 * Standardabweichung an, um 95% aller möglichen Werte rund um den Mittelwert abzudecken.
Das gilt, aber ja genau genommen nur für normalverteilte Datensätze, oder?
Die Frage ist, ob wenn man die selbe Berechnungsmethode (error = 1.96 *std) anwendet, der Fehler bei einer light-tailed-distribution nun eher unter oder eher überschätzt wird? (Denn genauen Werte muss ich nicht haben! Es wäre nur schön zu wissen, ob der tatsächliche Fehler dann größer oder kleiner ist.)
Vielen, vielen Dank schonmal im Vorraus:)
Ananas_192837