[...] Mir ist aber nicht klar, wie sich R² zusammensetzt bei verschiedenen Methoden der Modellbildung in der multiplen Regression. Kennt jemand hier vielleicht eine gute Quelle wo man das nachlesen kann?
Ich verstehe vermutlich das Problem noch immer nicht, andere eventuells schon. Die Methode (i.e. Schrittweise, Blockweise oder wie auch immer) hat auf das R-quadrat im vollen Modell keinen Einfluss. Ein Modell
y = b0 + b1*x1 + b2*x2 + b3*x3
hat immer das gleiche R-quadrat, unabhängig davon, ob alle x in einem, oder nacheinander in drei Schritten aufgenommen werden. Die Veränderung des R-quadrat von Schritt zu Schritt ist natürlich i.a.R. von der Reihenfolge abhängig.
[...] Wenn du eine schrittweise Regression durchführst werden die Prädiktoren ja nacheinander hinzugefügt. Das heißt dann, dass das erste Regressionsgewicht von UV1 kein partielles Regressionsgewicht ist. Dieses Gewicht basiert auf dem Zusammenhang zwischen UV1 und AV und ist unbereinigt. Im zweiten Modell kommt ein neuer Prädiktor hinzu und dann sind beide Koeffizienten bereinigt um den Einfluss der jeweiligen anderen UV. Das heißt also, dass beide Gewichte partielle Gewichte sind. Das zweite Modell mit 2 Prädiktoren beinhaltet also nur partielle Gewichte. Die KOnsequenz müsste sein, dass die Überlappende Varianz zwischen UV1, UV2 und AV nicht berücksichtigt würde in diesem Modell.
Wie gesagt werden andere vielleicht schlauer daraus als ich, aber mir scheint Du wirfst hier Regressionsgewichte (b) mit dem Bestimmtheitsmaß R-qudart durcheinander, bzw. Dir ist das Verhältnis von beiden unklar. Die einfache Bezeihung b-qudrat = R-quadrat (wobei b hier der Standardisierte Regressionskoeffizinet ist) gilt nur im Falle eines einzigen Prädikators.
Bei einer multiplen Regression (mehr als eine unabhängige Variable) entspricht R2 dem Quadrat des multiplen Korrelationskoeffizienten, also der Korrelation zwischen Y und b1X1 + ... + bpXp.
(http://de.wikipedia.org/wiki/Bestimmtheitsma%C3%9F)
Mit anderen Worten: R² wird unterschätzt, weil der gemeinsame Anteil an Varianz fehlt.
Wenn, dann ist eher das Gegentei ist der Fall. R-quadrat wird mit der Aufnahme weiterer Prädikatoren (fast) immer steigen, da der Anteil erklärter Varianz steigt (das ist ja die Definition). Das ist der Grund für die Existenz des (mehr oder weniger sinnvollen) Korregierten R-quadrats.
Möglicher Weise liegt Dein Denkfehler darin begründet, dass Du glaubst der Anteil der Varianz von y, der durch x1 "erklärt" wird, sei gleich groß, wie der, der durch x1 und x2 "erklärt" wird.