Statistik - Deskriptive Verfahren

Statistik - Deskriptive Verfahren

 

 

 

von: Heinz Holling, Günther Gediga

Hogrefe Verlag GmbH & Co. KG, 2010

ISBN: 9783840921346

Sprache: Deutsch

355 Seiten, Download: 11938 KB

 
Format:  PDF, auch als Online-Lesen

geeignet für: Apple iPad, Android Tablet PC's Online-Lesen PC, MAC, Laptop


 

eBook anfordern

Mehr zum Inhalt

Statistik - Deskriptive Verfahren



Kapitel 9 Einfache lineare Regression (S. 223-224)

Im letzten Kapitel wurden verschiedene Koeffizienten zum Zusammenhang von zwei Variablen vorgestellt. Bei Zusammenhangsmaßen handelt es sich um symmetrische Maße, bei denen beide Variablen „gleichwertig“ sind. Es wurden zudem als asymmetrische Maße lYX und lXY dargestellt, die sich dadurch auszeichnen, dass eine der beiden Variablen durch die andere Variable vorhergesagt wird.

Bei der in diesem Kapitel vorgestellten einfachen linearen Regression wird ebenfalls eine Variable durch eine andere Variable vorhergesagt bzw. erklärt. Während die l- Maße für nominalskalierte Variablen berechnet werden können, ist bei der linearen Regression für beide Variablen (mindestens) Intervallskalenniveau gefordert. Wie wir sehen werden, hängt die einfache lineare Regression eng mit der Produkt-Moment-Korrelation zusammen.

9.1 Grundlagen der einfachen linearen Regression


Das Streudiagramm stellt, wie im vorhergehenden Kapitel erläutert wurde, eine adäquate Methode für die grafische Darstellung zweier intervallskalierter Variablen dar. In der linearen Regression wird nun eine Gerade durch die Punktwolke gelegt, sodass die Werte der einen Variablen durch die Werte der anderen Variablen möglichst gut vorhergesagt werden können.

Die Variable, die vorhergesagt werden soll, wird als abhängige Variable (AV), Antwort- bzw. Responsevariable oder als Kriterium bezeichnet. Kriterium Die andere Variable, die zur Vorhersage dient, heißt unabhängige Variable (UV) oder auch Prädiktor. Welche der beiden Variablen als Kri- Prädiktor terium bzw. als Prädiktor dient, ist aufgrund inhaltlicher Erwägungen festzulegen. Die unabhängige Variable bezeichnen wir zumeist mit X, die abhängige Variable mit Y.

Bei der Regression von Y auf X werden die Werte der Variablen Y auf die Werte der Variablen X zurückgeführt. Wenn eine abhängige Variable lediglich durch einen Prädiktor vorhergesagt wird, liegt eine einfache Regression vor, im linearen Modell, das in Kapitel 10 behandelt wird, können mehrere Prädiktoren eingesetzt werden. Als Beispiel betrachten wir wiederum die fiktiven Werte für die Intelligenz (IQ) und die Deutschnote von 11 Schülern, die wir in Tabelle 8.7 vorgestellt haben.

Da die Intelligenz die Schulnote beeinflusst, dient die Variable IQ als unabhängige, die Variable Deutschnote als abhängige Variable. Wie in Abbildung 9.1 dargestellt, können unterschiedliche Geraden durch die Punktwolke gelegt werden. Bei der einfachen linearen Regression wird nun eine solche Gerade gewählt, die eine optimale Vorhersage der abhängigen durch die unabhängige Variable erlaubt. Diese Gerade wird dann die Regressionsgerade genannt.

Kategorien

Service

Info/Kontakt

  Info
Hier gelangen Sie wieder zum Online-Auftritt Ihrer Bibliothek