Hallo zusammen,
Für die Auswertung von Monte-Carlo-Simulationen möchte ich ein
exponentielles Fehlermodell heranziehen.
Dabei soll die Vorgabe eines Konfidenzniveaus möglich sein.
Wenn ich über eine Zeit T_Test bei N_Test Versuchen N_Fail Ausfälle habe, kann ich
1. nominale Werte berechnen:
Nichtverfügbarkeit: Q_nom = N_Fail/N_Test
Ausfallrate: Lambda_nom = -log(1-Q_nom)/T_TEST
2. Werte unter Berücksichtigung eines Konfidenzniveaus CL berechnen:
Ausfallrate: Lambda_conf = chi2inv(CL,(2*N_Fail+2))/(2*N_Test*T_Test)
Nichtverfügbarkeit: Q_conf = 1- exp(-T_Test * Lambda_conf);
Für kleine Ausfallraten (der sinnvolle Normallfall) stimmen die Ergebnisse.
Für N_Fail << N_Test gilt:
Q_conf > Q_nom und Lambda_conf > Lambda_nom.
Wenn jedoch die Ausfälle N_Fail in die Größenordnung der Versuche N_Test kommen, werden
Q_conf < Q_nom und Lambda_conf < Lambda_nom.
Das ist unplausibel,weil die "Wahrscheinlichkeit" von Ausfällen bei angenommener Unsicherheit
der Schätzung gößer als das Versuchsergebnis sein sollte und nicht kleiner.
Daher meine Fragen:
- Mache ich einen grundsätzlichen Fehler?
- Gilt die allgemeine Zuverlässigkeitsformel Lambda_conf = chi2inv(CL,(2*N_Fail+2))/(2*N_Test*T_Test)
generell nur für kleine N_Fail?
- Gibt es eine legitime Möglichkeit, die "Macke" bei großen Ausfallwerte N_Fail wegzurechnen?
Vielen Dank im Voraus
Martin Schäfer