Liebes Forum,
seit ein paar Tagen verzweifel ich an scheinbar einfachen Sachen. Grundsätzlich ist meine Frage, wann ein Modell (z.B. ALM-Modelle) identifizierbar sind. In meinen Vorlesungsskripts steht, dass die Anzahl der freien Parameter kleiner sein muss als die Anzahl der Datenpunkte. Nun frage ich mich, ob die freien Parameter (Beta-Werte) nun auch kleiner sein können als die Datenparameter. Für mich sind Datenpunkte und Datenparameter nicht dasselbe. Datenparameter stellen in einer Regressionsgleichung bspw. die Xe dar, also eine Gleichung mit Y = bo + b1X1 + b2X2 + e hätte doch demnach zwei Datenparameter, nämlich X1 und X2 (oder zählt e auch dazu?). Es muss also mindestens 2 freie Parameter, also b1 und b2, geben, oder? Selbst wenn b1 = 1 wäre, verschwindet es zwar rein rechnerisch, aber theoretisch ist b1 noch vorhanden. Wenn jetzt also die Anzahl der freien Parameter die Datenparameter untersteigen, wäre das Modell doch nicht mehr eindeutig identifizierbar, oder? Dazu noch eine Frage: Als Variablenpaar in dieser Gleichung verstehe ich auch (Y,X1) und (Y, X2), also zwei Variablenpaare, und eben nicht die Paarung der einzelnen Datenpunkte, oder? Mich verwirren in diesem Kontext einfach die ganzen verschiedenen Begriffe und ich will das sauber auseinanderhalten können, daher wende ich mich nun an euch (Die Dozenten stehen mir aktuell nicht zur Verfügung).
Und ist es richtig, dass die Gütemaße AIC und BIC (indirekt) die optimale Parameteranzahl anzeigen, da sie diese ja mit in ihre Berechung einbeziehen und je kleiner die Werte werden, desto besser. Oder kann man das so nicht daraus schließen? Schon, oder?
Hoffe ihr könnt mir weiterhelfen.
Wünsche noch einen schönen Tag.
MissX