Guten Morgen zusammen!
Ich möchte folgende Frage stellen:
Gegeben ist ein zunächst kleiner und dann wachsender Datensatz und die Form der typischen, d.h. der an dieser Stelle aus der Erfahrung heraus, beobachteten Verteilung.
Das Ziel sind Schätzungen der äußeren Verteilungsgrenzen, deren Genauigkeit mit zunehmender Datenmenge entsprechend zunimmt. (ist dass das Konfidenzintervall mit z.B. 95%?)
Ich kann in Python eine Verteilung an mein Array anpassen und mir da das Perzentil von 5% bzw. 95% ausgeben lassen.
Allerdings weiß ich ja, dass die angepasste Verteilung durch den kleinen Datensatz kaum das gesamte Spektrum der Streuung abbildet.
Und jetzt die eigentliche Frage: Ist es möglich eine Verteilung abzuschätzen und den maximal zu erwartenden Fehler dazu verwenden, die Grenzen derart zu bestimmen, dass man zu z.B. 95% richtig liegt, d.h. innerhalb des Intervalls. Mir ist klar, dass jede Schätzung auch nicht mehr sein wird und das Intervall zu Beginn aufgrund der Unschärfe deutlich größer sein wird, aber zumindest eine Richtungsvorgabe könnte schon interessant sein.
Bei der Anwendung geht es darum, Experimente vorzeitig zu beenden, sobald klar ist, dass die gewünschte Prozessfähigkeit wahrscheinlich nicht mehr erreicht werden kann.
Ich hoffe ihr könnt mir dabei behilflich sein und verbleibe mit freundlichen Grüßen!