Hallo liebe Statistikpros,
ich habe einen Versuch bei dem 20 Spieler 5 x hintereinander einen Ball schlagen, wobei die Geschwindigkeit des Schlägers von zwei Systemen gemessen wird (eines davon ist Goldstandard).
Rechne ich den RMSE des einen Gerätes aus, so erhalte ich einen Wert, der für das System Spieler-Messgerät gilt (also im Grunde eine Antwort auf die Frage "wenn der Wert beim ersten Schalg so ist, in welchem Bereich liegt dann der zweite mit ...% Wahrscheinlichkeit?"). Ich hätte aber gern nur den Effekt des Geräts.
Ist es sinnvoll den RMSE für die Differenz der beiden Geräte zu berechnen? Oder gibt es eine andere Möglichkeit die Reliabilität des Geräts zu ermitteln?
Ich habe auch ein Bland-Altman-Plot, in dem es ein Intervall gibt, in dem 95 % der Messwerte liegen (also zwischen den Limits of Agreement). Gehe ich davon aus der Goldstandard ist exakt, so ist der zugehörige RMSE nur auf den Spieler zurückzuführen. Mit 2*2,77*RMSE erhalte ich ein weiteres 95 % Intervall.
Haltet ihr den Vergleich der Größe der beiden Intervalle für sinnvoll? Ich will damit nur zeigen, dass ein Spieler die Geschwindigkeit präziser reproduzieren kann, als das Messsystem sie misst..
Danke euch