Ich habe eine allgemeine Verständnisfrage (für tiefgründige mathematischen Diskussionen wird es bei mir leider nicht ausreichen) nur ganz einfaches Verständnis

Wie ädnert sich die Überdeckungswahrscheinlichkeit eines Konfidenzintervalles, wenn man bei nem festen alpha und ner gleichbleibenden Standardabweichung die Anzahl in den Bestimmungen von 60 auf 20 reduziert wird?
Würde man jetzt die Wurzel aus n reduzieren bzw die Standardabweichung vergrößern ist es einsichtig dass das Konfidenzintervall selber größer wird. Aber mit der Fragestellung aus dem gegebenem Beispiel komm ich nicht so ganz zurecht...