Buchbestellung
Buchbestellung

Einordung

Werden die unabhängigen Variablen auf nominalem Skalenniveau gemessen und die abhängigen Variablen auf metrischem Skalenniveau, so findet die Varianzanalyse Anwendung. Dieses Verfahren besitzt besondere Bedeutung für die Analyse von Experimenten, wobei die nominalen unabhängigen Variablen die experimentellen Einwirkungen repräsentieren. So kann z.B. in einem Experiment untersucht werden, welche Wirkung alternative Verpackungen eines Produktes oder dessen Platzierung im Geschäft auf die Absatzmenge haben.

Verfahrenssteckbrief

Name des Verfahrens: Varianzanalyse
Kernfrage des Verfahrens: Wie gut kann eine metrisch-skalierte abhängige Variable durch nominal skalierte unabhängige Variable erklärt werden?
Verfahrenstyp: Dependenzanalyse
Variablenmenge: geteilt
Skalenniveau:  
- abhängige Variable metrisch
- unabhängige Variable nominal
- bei ungeteilter Variablenmenge - nicht relevant -
Verfahrensintension: struktur-prüfendes Verfahren (konfirmatorisch)
Verfahrensvarianten: Es können Kovariate in die Analyse einbezogen werden.
Schätzverfahren: General linear Model (GLM)-Algorithmus
Menüaufruf in SPSS 16.0: Analysieren → Allgemeines lineares Modell → Univariat
Prozedurname in SPSS: UNIANOVA (sowie: ONE WAY; GLM)
Anmerkungen: - keine -
Wichtige Begriffe, die in diesem Kapitel erklärt werden: Effektgröße; Eta-Statistik; Faktorielles Design; F-Test; Interaktionseffekte; MANCOVA; Manipulations-Check; MANOVA; Prinzip der Streuungszerlegung

Inhaltsverzeichnis

Inhalt Varianz

FAQ

Wie können bei der Methode des Lateinischen Quadrates im SPSS-Ausdruck die Interaktionen eventuell doch noch interpretiert werden? 
Da es sich beim Lateinischen Quadrat um ein reduziertes Design handelt, lassen sich nur Haupteffekte schätzen. Ein Indikator dafür, ob Interaktionseffekte vorliegen, ist durch die Analyse der Residualvarianz gegeben. Ist diese im Vgl. zu den Haupteffekten hoch, lässt dies auf das Vorhandensein von Interaktionseffekten schließen. 

Warum verwendet man die mittlere quadratische Abweichung als Streuungsmaß und nicht die Quadratsumme der Abweichungen an sich? 
Da die Streuung mit zunehmender Zahl der Einzelwerte zunimmt, benutzt man zur Beurteilung der Streuung die mittlere quadratische Abweichung, die sich durch Division der Streuung der Einzelwerte durch die um 1 verminderte Zahl der Einzelwerte (= Anzahl der Freiheitsgrade) ergibt. 

Was passiert, wenn es nicht in jeder Faktorstufe die gleiche Anzahl von beobachteten Fällen gibt? 
Auch in diesem Fall ist eine Varianzanalyse grundsätzlich durchführbar. Am Prinzip der Streuungszerlegung ändert sich nichts, allerdings müssen die Formeln zur Zerlegung der Streuung angepasst werden. 

Welche Information gibt einem der in SPSS ausgewiesene F-Wert? 
SPSS weist den empirisch ermittelten F-Wert für die spezielle Analyse aus. Je höher dieser ist, desto größer ist die erklärte Abweichung (mittlere quadratische Abweichung zwischen den Faktorstufen) im Verhältnis zur nicht-erklärten Abweichung (mittlere quadratische Abweichung innerhalb der Faktorstufen). Mit umso größerer Sicherheit kann daher die Nullhypothese, dass in der Grundgesamtheit kein systematischer Zusammenhang zwischen den Ausprägungen des Faktors und der abhängigen Variable besteht, verworfen werden. Mit wie großer Sicherheit das im einzelnen Fall geschehen kann, läßt sich aus dem zu dem empirischen F-Wert gehörigen, ebenfalls ausgewiesenen Signifikanzniveau entnehmen. Für Signifikanz 0,008 beispielsweise beträgt diese Sicherheit 99,2%.