Buchbestellung
Buchbestellung

Einordnung

Neuronale Netze werden heute in der Praxis in zunehmendem Maße sowohl ergänzend zu den klassischen multivariaten Methoden eingesetzt, als auch in den Fällen, in den die klassischen Methoden versagen. Anwendungsgebiete sind Klassifikationen von Objekten, Prognosen von Zuständen oder Probleme der Gruppenbildung. Insofern bestehen hinsichtlich der Aufgabenstellungen Ähnlichkeiten zur Diskriminanzanalyse und zur Clusteranalyse. Die Methodik neuronaler Netze lehnt sich an biologische Informationsverarbeitungsprozesse im Gehirn an (daher der Name). Neuronale Netze sind in der Lage, selbständig aus Erfahrung Finanzdaten, Verkaufsdaten usw. zu erkennen und eröffnen so eine sehr einfache Form der Datenanalyse. Besonders vorteilhaft lassen sie sich zur Behandlung von schlecht strukturierten Problemstellungen einsetzen. Innerhalb neuronaler Netze werden künstliche Neuronen (Nervenzellen) als Grundelemente der Informationsverarbeitung in Schichten organisiert, wobei jedes Neuron mit denen der nachgelagerten Schicht verbunden ist. Dadurch lassen sich auch hochgradig nicht-lineare und komplexe Zusammenhänge ohne spezifisches Vorwissen über die etwaige Richtung und das Ausmaß der Wirkungsbeziehungen zwischen einer Vielzahl von Variablen modellieren. Zum Erlernen von Strukturen wird das Netz zunächst in einer sog. Trainingsphase mit beobachteten Daten „gefüttert“. Dabei wird unterschieden zwischen Lernprozessen, bei denen die richtigen Ergebnisse bekannt sind und diese durch das Netz reproduziert werden sollen (überwachtes Lernen), und solchen, bei denen die richtigen Ergebnisse nicht bekannt sind und lediglich ein konsistentes Verarbeitungsmuster erzeugt werden soll (unüberwachtes Lernen). Nach der Trainingsphase ist das Netz konfiguriert und kann für die Analyse neuer Daten eingesetzt werden.

Verfahrenssteckbrief

Name des Verfahrens: Neuronale Netze
Kernfrage des Verfahrens: Wie können aufgrund von Erfahrungsdaten (Lerndaten) Gruppen gebildet oder unterschieden werden sowie nicht-lineare Zusammenhänge zwischen Variablen entdeckt werden?
Verfahrenstyp: Dependenz- und Interdependenzanalysen möglich
Variablenmenge: geteilt (Input- und Outputvariable)
Skalenniveau:  
- abhängige Variable Zielvariable (Output): metrisch und nicht-metrisch
- unabhängige Variable Eingangsvariable (Input): metrisch und nicht-metrisch
- bei ungeteilter Variablenmenge metrisch und nicht-metrisch
Verfahrensintension: struktur-entdeckendes Verfahren (explorativ)
Verfahrensvarianten: Klassifikation, Prognose, Gruppierung u.a.
Schätzverfahren: alternative Schätzalgorithmen
Softwarepaket: Clementine 12.0 (eigenständiges Programm in SPSS)
Prozedurname in SPSS: graphikorientierte Modellkonstruktion
Anmerkungen: - keine -
Wichtige Begriffe, die in diesem Kapitel erklärt werden: Aktivierungsfunktion; Backpropagation-Algorithmus; Einfache Schwellenwertfunktion; Feedback-Netze; Feedforward-Netze; Multi-Layer-Perceptron; Neuronen; Overfitting; Propagierungsfunktion; Sigmoide Funktion; Tangenshyperbolicus-Funktion; Überwachtes Lernen

Inhaltsverzeichnis

Neuronale Netze

FAQ

Was versteht man unter Pruning?
Unter Pruning ist eine Reihe von Verfahren zu verstehen, mit denen es gelingen soll, die Größe des Neuronalen Netzes zu optimieren, indem gezielt sowohl aus der Eingabeschicht als auch aus den verdeckten Schichten Neuronen oder Gewichte gelöscht werden. Durch eine geringere Anzahl an freien Parametern soll so die Generalisierungsfähigkeit des Netzes verbessert werden.

Was ist unter Momentum-Term zu verstehen?
Der Momentum-Term stellt eine Erweiterung des einfachen Backpropagation-Algorithmus dar. Bei der Berechnung der Gewichtsänderung im Zeitpunkt t wird die Gewichtsänderung in der Periode t-1 berücksichtigt. In weiten Plateaus der Fehlerfunktion führt dies zu einer stärkeren und bei stark zerklüfteten Fehlerflächen zu einer geringen Veränderung der Gewichte (vgl. Zell, Andreas, Simulation neuronaler Netze, S. 155 ff.).

Können die Startgewichte im Netz auch auf Null gesetzt werden?
Werden alle Startgewichte auf Null gesetzt, trainiert der Backpropagation-Algorithmus das Netz symmetrisch und schafft es deshalb nicht, unterschiedliche Gewichte im Netz herauszubilden. Aus diesem Grund werden i.d.R. Zufallszahlen verwendet, die aus Konvergenzgründen nahe bei Null liegen sollten.