Hallo,
mir ist die Bedeutung des Standardfehlers nicht ganz klar, oder besser gesagt nicht, wenn ich nur eine Stichprobe habe. Ich habe in R eine Standardnormalverteilung mit 10000 Elementen simuliert. Diese ist meine Grundgesamtheit. Jetzt kann ich verschiedene Stichproben ziehen, z.B. der Größe 10, 100, 1000 etc. Mir ist klar, dass mit einer größeren Sichprobe die Stichprobenkennwerte z.B Mittelwert eher am wahren Wert sein werden.
Ich kann jetzt n Stichproben der Größe m ziehen, für jede einzelne den Mittelwert berechnen und als Grafik darstellen. Da für jede Stichprobe ein anderer Mittelwert herauskommt, sind diese auch variabel und ergeben als Grafik wieder eine Normalverteilung, das heißt Mittelwerte die den wahren Wert (ohne weniger weit entfernt von diesem) entsprechen treten mit größerer Wahrscheinlichkeit auf. Wenn ich für diese Mittelwerte die Streuung berechne, dann habe ich ja den Standardfehler.
Aber was ist, wenn ich nur eine Stichprobe habe? Was sagt mir dieser Fehler dann?
Wenn ich eine Stichprobe von 1000 ziehe und der Standardfehler z.B. 0.03 ist, was genau kann ich damit anfangen?