Diese Website ist inzwischen veraltet, wird nicht mehr gepflegt und wird voraussichtlich in einigen Monaten offline genommen. Wenn jemensch Interesse daran hat die Inhalte zu übernehmen und weiter zu pflegen, kotanktiert mich bitte über exploeco.de. Ich würde mich sehr freuen, wenn die Inhalte eine Zukunft hätten. Ich stelle gerne alles Notwendige zur Verfügung und bin auch gerne bei der Einrichtung einer neuen Website oder eines neuen Wikis behilflich. Gerne kann auch ein ehemals gestarteter Ansatz reaktiviert werden, unter wiki.fsrpsy-leipzig.de.

1. Regressionsanalyse

1.1. Einfache lineare Regression

Lineares Modell & Regressionsrechnung

tex:y = \beta_0 + \beta_1 \cdot x

Regression von Y auf X (regression of Y by X)
Verständnis: Die Regression der abhängigen Variablen Y auf der Basis der unabhängigen Variable X!

Eigenschaften

Linear & Einfach

Linear: Exponent ist 1
Einfach: Es kommt nur eine „x“-Variable vor

Punkt der Gerade

Die Regressionsgerade geht durch folgende Punkt:

tex:\beta_0 → Schnittpunkt mit der y-Achse
tex:\beta_1 → „1“ nach rechts, tex:\beta_1 bzw. tex:\Delta y nach oben
tex:S(\bar x; \bar y) → Schwerpunkt der Verteilung

Gütemaße

Die Regressionsgerade ergibt sich aus dem geringsten quadrierten Abstand zu allen Elementen.

Für jeden tex:x-Wert gibt es demnach eine gemessenen tex:y-Wert und einen vorgesagten tex:\hat y-Wert.

Allgemein ⇒ tex:\sum_{i=1}^n { ( y_i - \hat y_i )^2 = Min! }

Der Abweichungsfehler wird dargestellt über die Differentz des realen und des vorhergesagten Wertes.

Abweichungsfehler ⇒ tex:\varepsilon = y - \hat y

1.2. Multiple lineare Regression

Lineares Modell & Regressionsrechnung

tex:y = \beta_0 + \beta_1 \cdot x_1 + ... + \beta_n \cdot x_n

Regression von Y auf X (regression of Y by X)
Verständnis: Die Regression der abhängigen Variablen Y auf der Basis der unabhängigen Variablen X!

Eigenschaften

Linear & Multipel

Linear: Exponent ist 1
Multipel: Es kommen mehrere „x“-Variablen vor (tex:x_1, x_2, ..., x_n)

Variablen

Unabhängige Variablen → tex:x_1, x_2, ..., x_n
Abhängige Variablen → tex:y

Voraussetzungen

Die unabhängigen Variablen (X) müssen zunächst einige Kriterien erfüllen:

  • Normalverteilung - Normalität der Items (UV + AV)
  • Linearität aller Zusammenhänge (UV → AV)
  • Keine Multikolinearität der Prädiktoren (UV)
Multikolinearität

Die unabhängigen Variablen (tex:x_1, x_2, ..., x_n) korrelieren sehr wahrscheinlich untereinander. Je höher diese Korrelation (→ Multikoliearität), desto ungenauer werden die Regressionskoeffizienten (tex:\beta_1, \beta_2, ..., \beta_n). Die Multikolinearität sollte im Idealfall bei 0 liegen, generell aber so gering wie möglich.

Gütemaße

n entspricht der Anzahl der Personen, während m die Anzahl der Prädiktoren (gemessene Merkmale) ist.

Restvarianz

tex:s^2_{y\bullet x1...xn} = {SQ_{y \bullet x1...xn} \over {n-m-1} }

In der ANOVA-Tabelle in SPSS würde sich die Restvarianz aus folgenden Werten ergeben:

tex:Mitte der Quadrate = {Quadratsumme \over df}

Multiple Korrelation

tex:r_{y\bullet x1...xn}

Multiples Bestimmheitsmaß

tex:B_{y\bullet x1...xn} = r^2_{y\bullet x1...xn}

Signifikanzprüfung

Insgesamttest

[m;1] → m-Zeilen, 1-Spalte

tex:H_0: {\beta \over {[m;1]}} = {0 \over {[m;1]}}

tex:H_0: ({ {\beta_1 \atop .} \atop { . \atop \beta_n} }) = ({ {0 \atop .} \atop { . \atop 0} })

Einzeltest

n = 1, …, m

tex:H_0: \beta_n = 0

Betagewicht

tex:\hat \beta^*_h = {s_{xn} \over s_y} \cdot \hat \beta_h

Die gewichteten Werte werden anschließend sortiert und bekommen Rangplätze. Anschließend wird ein Grenzwert festgelegt, bis zu welchem Rangplatz die Werte noch signifikant sind. Alle übrigen Rangplätze werden entfernt, da ihre Kollinearität zu hoch und ihre Aufklärungsfunktion zu gering ist.

⇒ Mehr dazu unter Selektion

Selektion von Prädiktoren

Zur Selektion der wirklich wichtigen Prädiktoren gibt es verschiedene Verfahren:

  • Enter (Einschluss)
  • Forward
  • Backward
  • Stepwise
  • Remove (Ausschluss)
  • Blockwise

Multikolinearität prüfen

Es gibt verschiedene Werte, welche auf eine Multikolinearität der Variablen schließen lassen. Dazu gehören die Toleranz und der davon abgeleitete Varianzinflationsfaktor (VIF). Außerdem der Konditionsindex, sowie die Varianzanteile.

Toleranz

Die Toleranz ergibt sich aus der Korrelation einer Variablen mit den anderen unabhängigen Variablen.

tex:t(x_i) = 1 - R^2_i

Interpretation

Je kleiner die Toleranz, desto wahrscheinlicher wird Kollinearität.

tex:t(x_i) < 0,10 → Verdacht auf Kollinearität
tex:t(x_i) < 0,01 → Nahezu sichere Kollinearität

Varianzinflationsfaktor (VIF)

Der Varianzinflationsfaktor (VIF) ergibt sich aus der Toleranz.

tex:V(x_i) = {1 \over t(x_i)}

Interpretation

tex:V(x_i) > 10 → Verdacht auf Kollinearität

Konditionsindex

→ Offen

Varianzanteile

→ Offen

Graphische Darstellung: Zweifache lineare Regression

Eine zweifache lineare Regression (tex:y = \beta_0 + \beta_1 \cdot x_1 + \beta_2 \cdot x_2) bildet sich in einem dreidimensionalen Raum ab. Die Regression ist in diesem Fall keine Gerade, sondern eine Ebene im Raum.

 
uni-leipzig/psychologie/module/methoden2/1.txt · Zuletzt geändert: 2011/04/28 13:32 von carlo
 
Falls nicht anders bezeichnet, ist der Inhalt dieses Wikis unter der folgenden Lizenz veröffentlicht:CC Attribution-Noncommercial-Share Alike 3.0 Unported
Recent changes RSS feed Donate Powered by PHP Valid XHTML 1.0 Valid CSS Driven by DokuWiki