Den unterschied zwischen AIC und BIC kannst an der Formel, genauer dem "Strafterm ablesen". Fragen wir mal Mr. Wikipedia:
"Der Nachteil des Informationskriteriums von Akaike ist, dass der Strafterm von der Stichprobengröße unabhängig ist. Bei großen Stichproben sind Verbesserungen der Log-Likelihood bzw. der Residualvarianz "leichter" möglich, weshalb das Kriterium bei großen Stichproben tendenziell Modelle mit verhältnismäßig vielen Parametern vorteilhaft erscheinen lässt. Deshalb empfiehlt sich die Verwendung des durch Gideon Schwarz 1978 vorgeschlagenen Bayesschen Informationskriteriums (engl. Bayesian Information Criterion (BIC)"
Das Problem an dieser Erklärung: was sind "große Stichproben"? Es gibt bei soetwas Spielraum, das heißt, das kein Informationscriterium besser ist. Es gibt übrigens noch zig andere, die du einfach ausrechnen kannst. Mit der Likelihood kannst du einen Likelihoodratio-Test durchführen und somit auch schauen, ob die Ergebnisse sich
signifikant unterscheiden.
Idealerweise zeigen alle drei Verfahren in die selbe Richtung. Dann bietet es sich auch an, sie alle anzugeben. Wenn nicht, dann natürlich auch.
