Hallo!
Das ist eine schwierige Kiste.
Soll es ein Modell werden mit k=9 Prädiktoren bei n=21 Beobachtungen?
Das macht alles schwierig und eigentlich ist man an der Stelle versucht, es einfach sein zu lassen. Gehen wir mal davon aus, dass das keine Option ist und David gegen Goliath kämpfen muss. So ein Modell hat eigentlich nur eine Chance, wenn die Messfehler klein und die Modellspezifikation korrekt sind. Wenn man glauben würde, dass
die korrekte Modellspezifikation ist, und wenn es nicht um die Interpretation von
geht, sondern das eine echte Kovariate ist, die nur helfen soll, ein
besser auszuwerten, dann sollte man das unbedingt tun, dann sollte man diese Transformation vornehmen.
Richtig ist aber auch, dass 21 Beobachtungen zu wenig sind um einem zu sagen, was die korrekte Modellspezifikation ist und welche
gebraucht werden. Dazu kommt noch dieser etwas beliebig wirkende Wert von 0,1 im Nenner. Warum nicht 1 oder 0,001? Das hat ja enorme Auswirkungen, wenn
wird, und wenn das nicht passierte, bräuchte man den Term gar nicht.
Auch die Aussage, dass der zu
gehörende Koeffizient
sowieso nicht signifikant wird bringt keine Hilfe, da man bei 9 Prädiktoren für 21 Beobachtungen grundsätzlich Nicht-Signifikanz als Normalfall und Signifikanz als sehr bemerkenswertes Ereignis sehen muss.
Ich glaube nicht, dass es eine einfache, korrekte Antwort auf die Frage gibt. Ich sehe zwei mögliche Herangehensweisen:
1. puristisch, wahrscheinlich das, was PonderStibbons im Sinn hat: Wenn es keine theoretische Grundlage für eine Transformation gibt und bei mangelnden Daten keine empirische Grundlage für eine Transformation gibt, dann lass die Transformation weg, rechne ein Standardmodell und komme zu dem Ergebnis, dass nichts signifikant wird. Dann beschreib, dass nichts signifikant geworden ist und erkläre es mit der dünnen Datenlage. Wenn doch etwas signifikant würde steckst Du in Schwierigkeiten, weil Du dann wahrscheinlich eine Effekststärke unterstellen musst, die Dir keiner glaubt.
2. die Datenquetsche: Wenn es auf der Welt nur 21 Datensätze gibt, dann kann man trotzdem versuchen, möglichst viel da herauszuholen. Ich glaube, dazu würde ich die Transformation durchführen und hier tatsächlich auf Bayes-Statistik umsteigen. Das hat zwei Gründe: Erstens ließe sich vielleicht für den einen oder anderen Prädiktor ein tatsächlich informativer Prior beschreiben, was dem ungünstigen
-Verhältnis helfen würde. Außerdem könnten gut gewählte Prior-Verteilungen das ganze etwas regularisieren, dass nicht einzelne Daten einzelne Koeffizienten in die Höhe treiben. Zweitens kann man in einer Bayes-Regression beschreiben, wie sich meine Erwartungen an die Bedeutung einzelner Prädiktoren aufgrund der Daten verändert, auch wenn nichts signifikant wird. Man könnte beispielsweise sagen: "Vor der Regression war unsere Erwartung, dass der Koeffizient von
positiv ist bei 50%, aufgrund der Daten ist sie auf 85% angestiegen." Sind 85% ein Beweis? Nein. Habe ich damit quantifiziert, was sich in den wenigen, 9-dimensionalen Beobachtungen versteckt? Ja. Die oben verlinkte Grafik könnte zu R passen. In R lässt sich eine lineare Regression als Bayes-Regression mit dem Paket rstanarm und darin der Funktion stan_glm() leicht rechnen - sieht fast so aus wie eine klassische lineare Regression mit lm(). Das ändert natürlich nichts daran, dass man gute Prior-Annahmen formulieren und begründen muss, was sicher nicht banal wird.
JMTC,
Bernhard