Fehlerberechnung / Fortpflanzung

Univariate Statistik.

Fehlerberechnung / Fortpflanzung

Beitragvon Petro343 » Mo 9. Feb 2015, 17:37

Vorwort:
Okay, die Frage wurde sicher schon X mal gestellt, ich komm gerade nur nicht drauf, wie ich suchen soll. Ich lösch den Thread dann auch gern wieder.

Zur Sache:
Ich werte generierte Fraktale aus und bestimme die Hausdorff-Dimension mittels Boxcounting-Methode.
Die Dimension wird per linearer Regression ermittelt, die mir einen Fehler gibt.
Nun generiere ich Fraktale, für die ich jeweils ermittele.

Ich ermittel den Erwartungswert

Das Problem liegt bei mir in der Fehlerberechnung:
Die einfache Fehlerberechnung ergibt:

.

, was ja nichts weiter ist als der gemittelte Fehler aus der Regression.

Ich kann das natürlich auch ignorieren und einfach die Standardabweichung ausrechnen (die hierbei ca. halb so groß ist, wenn ; das ist die Größenordnung wegen der langen Rechenzeit).

Was ist an dem Vorgehen falsch? Sollte der Fehler nicht kleiner werden, je größer ist? Also irgendeine Abhängigkeit von da mit auftauchen?
Da gabs doch was, ich komm gerade nicht drauf...

Danke schonmal :D
Petro343
Einmal-Poster
Einmal-Poster
 
Beiträge: 1
Registriert: Mo 9. Feb 2015, 17:21
Danke gegeben: 0
Danke bekommen: 0 mal in 0 Post

Zurück zu Mittelwert, Standardabweichung & Co.

Wer ist online?

Mitglieder in diesem Forum: 0 Mitglieder und 9 Gäste

cron