mich verwirrt die Linearitätsannahme im Rahmen der linearen Regressionsanalyse. Unterschieden wird scheinbar zwischen der Linearität in den Parametern der Regressionsanalyse und der Linearität zwischen unabhängiger und abhängiger Variable. Dieser Unterschied will mir nicht ganz klar werden.
Angenommen ich möchte einen theoriebegründeten Zusammenhang zwischen der Anzahl der verkauften Eiskugeln/Stunde und der Temperatur mittels Regressionsanalyse prüfen. Ich sammle also die entsprechenden Daten und ein Streudiagramm der Daten legt die Vermutung nahe, dass ein linearer Zusammenhang zwischen der abhängigen Variable (verkaufte Eiskugeln pro Stunde) und der unabhängigen Variable (Temperatur) vorliegt und der Zusammenhang somit vermutlich gut durch eine Gerade geschätzt werden kann.
In dem Buch Angewandte Regressionsanalyse (Urban/Mayerl 2018) steht:
Die Linearitätsannahme besagt, dass die Y-Werte linear ansteigen (oder absteigen), wenn die X-Werte größer (oder kleiner) werden Bei konstanten Sprüngen auf der X-Achse sind auch Sprünge auf der Y-Achse konstant
Geht es bei der Voraussetzung für die lineare Regression denn nun um die Linearität zwischen X und Y Variable oder um die Linearität der Parameter? Und was genau ist der Unterschied?
Ein anderes Beispiel: Betrachtet werden soll der Zusammenhang zwischen Koffeinkonsum und Konzentrationsstärke, wobei hier davon ausgegangen wird, dass der Zusammenhang nicht-linear ist. Vielmehr geht man davon aus, dass die Konzentrationsstärke bis zu einem gewissen Koffeinkonsum steigt, dann jedoch ab einem bestimmten Punkt mit jeder weiteren konsumierten Koffeineinheit abnimmt. Wieder werden Daten gesammelt und mittels Streudiagramm dargestellt. Es zeigt sich tatsächlich eine umgedrehte U-Beziehung. In diesem Fall würde man doch (auf Grund der beobachteten Beziehung zwischen X und Y Variable) von einem nicht-linearen Zusammenhang ausgehen und von einer linearen Regression absehen oder sehe ich das falsch?
Über Aufklärung würde ich mich sehr freuen
Beste Grüße