Hallo zusammen,
mir wurde im SPSS-Forum geraten zunächst in diesem Forum zu posten, deshalb bitte nicht über die SPSS-Frage wundern.
Im Rahmen meiner Bachelorarbeit möchte ich für einen Performancevergleich historische Renditezeitreihen (n=120) statistisch auswerten.
Diese Zeitreihen liegen mir sowohl für einen Vergleichsindex und einen Investmentfonds in Form von stetigen Renditen vor. Die Variablen sind somit stetig und verhältnisskaliert.
Beispiel zur Illustration
Zeitangabe..............Rendite-Vergleichsindex (UV, x).....Rendite-Investmentfonds (AV, y)
Dez 29, 2006.......................x.........................................x
Jan 31, 2007.................0,0111630251........................0,0144464792
Feb 28, 2007................ 0,0065483844........................0,0080000427
Mrz 30, 2007.................0,0158033204....................... 0,0261608260
Interpretation: Zum Ende der Januar-2007-Periode hat sich der Vergleichsindex im Vergleich zu seinem Schlussstand im Dezember-2006 mit 1,11630251% positiv entwickelt. Das gleiche gilt für den Investmentfonds, allerdings mit einer leicht besseren Entwicklung in Höhe von 1,144464792%.
So, im Portfoliomanagement gibt es nun ein Performancemaß, das Jensen-Alpha, welches die Selektionsfähigkeit eines Portfoliomanagers messen soll.
Dieses errechnet sich mit der standardmäßigen linearen Regressionsformel y = alpha + beta * x + epsilon. Im Rahmen dieser Regressionsanalyse sollen die Renditen des Investmentfonds auf die Renditen des Vergleichsindex regressiert werden. Die für mich interessante Größe im Ergebnis ist das Alpha, welche deswegen auf Signifikanz getestet werden soll. Interpretativ wäre das so zu sehen, man nehme eine Vergleichsindex-Rendite x im Zeitpunkt t, multiplziert diese mit dem Beta und addiere dazu das Alpha und die Residue (Epsilon) und man erhält je nach Güte der Regression die Rendite des Investmentfonds.
Meine Vorgehensweise sieht nun wie folgt aus. Ich definiere die Renditen des Investmentfonds als abhängige Variable y und die Renditen des Vergleichsindex als unabhängige Variable x und führe eine gewöhnliche lineare Regression in SPSS durch, die als Signifikanztest standard-voreingestellt den t-test verwendet - soweit so gut.
Wäre da nur nicht das Problem das meine Renditezeitreihen leider nicht normalverteilt sind, und somit folglich nicht für einen t-test geeignet sind, oder?
Gibt es eine Möglichkeit in SPSS bei einer linearen Regression den t-test zur Signifikanzprüfung zu entfernen und anstelle davon z.B. den Mann-Whitney-U-Test zur Signifikanzprüfung von nicht-normalverteilten Werten in die Ausgabe hinzuzufügen?
Oder gehe ich grundsätzlich falsch vor?
Vielen Dank im voraus und beste Grüße