ich habe eine relativ große Grundgesamtheit (n >200.000), die sich allerdings laufend, wenn auch langsam, vergrößert. Das Regressionsmodell soll für Prognosen genutzt werden und eine Vollerhebung ist kein Problem, da sekundärstatistische und verfügbare Daten. Nun habe ich eine Frage zu den Standardfehlern. Wenn ich genau zum jetztigen Zeitpunkt meine Daten für das Modell erhebe, habe ich ja theoretisch eine Vollerhebung und man könnte argumentieren, dass der Standardfehler dann zB Null ist (Stichwort infinite population correction factor). Wenn sich die Grundgesamtheit jedoch laufend ändert, man also genau weiß, dass man wenige Augenblicke später schon nichtmehr alle Beobachtungen hat, wie ist dieser Umstand dann zu berücksichtigen? Wie wird übrigens bei Vollerhebung mit Standardfehlern und Signifikanzen umgegangen? theoretisch wären ja gar keine Signifikanztests mehr möglich und ich habe meine "echten" Regressionsparameter? Oder trägt der Fehlerterm auch dann noch zB der Fehlspezifikation des Modells Rechnung? Bin etwas verwirrt

Danke und LG!