Hi,
ich beschäftige mich gerade mit einem etwas speziellieren Statistikthema und stolper ständig über die Begriffe kleinste Quadrate, Chi-Quadrat, Likelihood, R² etc. Nun bin ich allerdings nicht aus der Statistik, habe mir im Grunde mittlerweile (endlich) einen gewissen Überblick beschaffen können aber tue mich schwer damit, die einzelnen Begriffe voneinander abzutrennen. Ich weiß folgendes:
Likelihood: Wird verwendet zum Fitten von Daten mittels einer Verteilungsfunktion, die bekannt sein muss. Dabei wird ein Parameter, der diese beschreiben soll, maximiert.
Kleinste-Quadrate: Auch zum Fitten von Daten. Der Abstand zwischen quadrierten Differenzen der Messpunkte und des Fits wird aufsummiert und die kleinste Summe gesucht.
Chi-Quadrat-Test: Wird zum Vergleich von Histogrammen verwendet bzw. um zu überprüfen, ob ein Merkmal ein anderes beeinflußt. Je nach Freiheitsgrad gibt es eine andere fest-definierte Chi-Quadrat-Funktion. Weicht die Funktion von der Beobachtung ab, stimmt die Hypothese nicht.
R²: Zum Überprüfen ob ein Modell zum Beschreiben der Daten geeignet ist. Dabei wird beobachtet, in welchem Umfang Datenpunkte nicht durch das Modell erklärt werden können.
ANOVA: Zum Vergleichen von verschiedenen Varianzen (z.B. auch für Modelle).
p-value: Wie groß die Wahrscheinlichkeit ist, dass die Beobachtung allein durch einen Zufall beschrieben werden kann.
Ist das soweit zutreffend?
Mich irritiert vor allem Likelihood, Kleinste-Quadrate, Chi-Quadrat und R². Letztlich tun sie doch dasselbe, oder? Sie überprüfen, wie gut etwas ist, worin genau unterscheiden sie sich dann und warum?
Danke!