Hallo an alle!
ich bin neu hier und noch nicht ganz so gut mit foren vertraut. ich schreibe momentan meine bachelorarbeit und komme einfach nicht weiter. an sich ist es ein recht banales problem:
eine messung gibt mir koordinaten aus (X / Y).
meine simulation der messung spuckt mir etwas andere koordinaten aus: (X* / Y*)
nun gibt es natürlich nicht nur ein koordinaten-paar sondern 100 stück. ich wollte ganz gerne den fehler berechnen zwischen messung und simulation. habe mir schon etwas über das residuum durchgelesen nur geht man da davon aus, dass der X-wert der beiden lösungen gleich ist (oder?!)
meine idee war eigentlich den abstand der beiden punkte zu bestimmen (sqrt(X^2+Y^2)-sqrt(X*^2+Y*^2)) sodass ich zumindest den absoluten fehler habe.
wie könnte ich da weiter vorgehen? stehe etwas auf dem schlauch. gibts da hinweise/verfahren/tipps und tricks die ihr mir eventuell nennen könnt?
vielen lieben dank schonmal!!
Liebe grüße