Hallo,
Ich habe eine Messreihe mit über 20 Jahren and Messdaten. Bei den Messwerten handelt es sich um je einen Durchschnittswert aus 10 Proben, die vor der Messung zusammengefügt werden. Zu Beginn der Messreihe wurde jedoch überprüft, wie groß der Standardfehler bei einem Messwert X ist. SE = √(σ²/10) = 0.168.
Dann wurde das 95% Konfidenzintervall bestimmt: X +- 1.96 * SE
Ich habe nun mit einer Software eine Simulation durchgeführt und wollte wissen, wie gut diese im Vergleich zu den MEssdaten ist -> Regressionsgerade. Da die Messwerte jedoch eine Varianz haben, habe ich Schwierigkeiten herauszufinden, welches Verfahren sich dazu am Besten eignet. Mit einer linearen Regressionsgerade komme ich, ohne die Varianz miteinzuberechnen, auf ein R² von 0.17, was nicht sonderlich befriedigend ist. Bin leider schon länger aus der Statistik raus, deshalb wollte ich fragen, ob jemand von euch schon vor einer ähnlichen Aufgabe stand.
Beste Grüße,
Matthias