Buchbestellung
Buchbestellung

Einordung

Ganz ähnliche Fragestellungen wie mit der Diskriminanzanalyse können auch mit dem Verfahren der logistischen Regression untersucht werden. Hier wird die Wahrscheinlichkeit der Zugehörigkeit zu einer Gruppe (einer Kategorie der abhängigen Variablen) in Abhängigkeit von einer oder mehrerer unabhängiger Variablen bestimmt. Dabei können die unabhängigen Variablen sowohl nominales als auch metrisches Skalenniveau aufweisen. Über die Analyse der Gruppenunterschiede hinaus kann z.B. auch das Herzinfarktrisiko von Patienten in Abhängigkeit von ihrem Alter und ihrem Cholesterin-Spiegel ermittelt werden. Da zur Schätzung der Eintrittswahrscheinlichkeiten der Kategorien der abhängigen Variabeln auf die (s-förmige) logistische Funktion zurückgegriffen wird, gehört dieses Verfahren zu den nicht-linearen Analyseverfahren.

Verfahrenssteckbrief

Name des Verfahrens: Logistische Regressionsanalyse (binär logistisch)
Kernfrage des Verfahrens: Mit welcher Wahrscheinlichkeit können Objekte einer bestimmten Gruppe zugeordnet werden?
Verfahrenstyp: Dependenzanalyse
Variablenmenge: geteilt
Skalenniveau:  
- abhängige Variable nominal (zwei Objektgruppen)
- unabhängige Variable metrisch
- bei ungeteilter Variablenmenge - nicht relevant -
Verfahrensintension: struktur-prüfendes Verfahren (konfirmatorisch)
Verfahrensvarianten: Es sind auch multinomial logistische Regressionen möglich, bei denen die abhängige Variabel mehr als zwei Ausprägungen besitzt.
Schätzverfahren: Maximum-Likelihood-Methode
Menüaufruf in SPSS 16.0: Analysieren → Regression →Binär logistisch
Analysieren → Regression → Multinomial logistisch
Prozedurname in SPSS: LOGISTIC REGRESSION (sowie: NOMREG)
Anmerkungen: Bei der logistischen Regression handelt es sich um einen nicht-linearen Ansatz. Es sind sowohl schrittweise Analysen als auch multinomial logistische Regressionen möglich, bei denen die abhängige Variable mehr als zwei Ausprägungen besitzt.
Wichtige Begriffe, die in diesem Kapitel erklärt werden: Cox und Snell-R-Quadrat; Devianz; Effekt-Koeffizient; Hosmer-Lemeshow-Test; Jackknife Methode; Kovariatenmuster; Likelihood-Quotienten-Test; Linking-Function; Logistische Funktion; Logits; Logit-Koeffizient; LogLikelihood-Wert; McFaddens-R-Quadrat; Nagelkerke-R-Quadrat; Newton-Raphson-Algorithmus; Odds; Pearson-Residuum; Pseudo-R-Quadrat-Statisitiken; Wald-Statistik

Inhaltsverzeichnis

Inhalt log. Regression

FAQ

Kann es vorkommen, dass Wald <2K ist?
Ja, kann vorkommen, wodurch R negativ wird. Dies bedeutet, dass der Likelihood mit steigenden Werten der unabh. Variablen sinkt.

Log Likelihood: Bei perfektem Fit ist 2LL = 0, im Ausdruck des Beispiels >389,129. Sagt der Wert alleine schon etwas über die Güte aus?
Nein, die Interpretation ist nur im Zusammenhang mit -2LL möglich. Es wird immer der -2LL des Modells mit Konstante und des Modells mit Variablen und Konstante verglichen. Wenn der Unterschied signifikant ist, dann tragen die Variablen zur Erklärung bei.

Der Wert der insgesamt richtig klassifizierten wird mit der maximalen Zufallswahrscheinlichkeit verglichen. Wie groß sollte der Abstand zwischen beiden Werten sein, damit von einer guten Klassifikation gesprochen werden kann?
Den in der Klassifikationsmatrix zu findenden Wert für die insgesamt richtig klassifizierten Elemente wird verglichen mit derjenigen Trefferquote, die bei zufälliger Zuordnung der Beobachtungen unter Beachtung der Gruppenstärke zu erwarten ist. Die Trefferquote bei zufälliger Zuordnung errechnet sich folgendermaßen: Gruppenzahl der größten Gruppe /Gesamtzahl der Beobachtungen. Es ist unmittelbar klar, dass die Wahrscheinlichkeit am größten ist, dass ein Objekt/Subjekt der größten Gruppe zugeordnet wird. Wenn die Abweichung relativ gering ist, dann sollten zur Beurteilung zusätzlich die Gütemaße herangezogen werden, wie z.B. Nagelkerke, McFadden.