Hallo,
ich bin ziemlich neu hier und, ehrlich gesagt, schon fast am Verzweifeln.
Mein Problem:
Ich habe eine Messreihe von verschiedenen Stromstärken und Spannungen. Die Stromstärken laufen in einem Bereich von sagen wir mal 5mA bis 100mA mit einem Inkrement von 5mA. Für jeden Wert den ich einstelle, messe ich anderenorts eine Spannung. Diese Messung habe ich 5 Mal wiederholt und sieht quasi so aus:
i 5 10 15 20 ... 100mA
u1 7 8 2 9 ... 3V
u2 8 7 3 8 ... 3V
u3 7 7 2 9 ... 4V
u4 7 8 2 9 ... 4V
u5 8 8 3 8 ... 3V
Ich habe jetz für jedes Inkrement, also für jede Stromstärke den Mittelwert und die Standardabweichung berechnet. Soweit so gut. Die Abweichung beträgt im Schnitt 0.5%.
Was ich mich jetzt Frage ist, wie Aussagekräftig das ganze ist. Ich habe nun nur 5 Messreihen und würde gerne aussagen können, wie signifikant das ganze doch ist. Oder aber halt, wie viele Messungen ich machen muss um in einem Fehlerintervall von 5% bzw 1% zu bleiben. Oder halt etwas anders ausgedrückt: Wie präzise ist die Messung gewesen?
Ich habe schon so viel gelesen, werde aber langsam nur noch matschig im Kopf.
Könnte mir da mal jemand bitte einen Denkanstoß geben? Gibt es eine gewisse Vorgehensweise dafür?
Vielen lieben Dank!
Toni