Grundlagen der Statistik enthält Materialien verschiedener Vorlesungen und Kurse von H. Lohninger zur Statistik, Datenanalyse und Chemometrie .....mehr dazu.


Taxonomie von ANNs

Author: Hans Lohninger

Künstliche neuronale Netzwerke (Artificial Neural Networks, ANN) sind adaptive Modelle, mit denen man nahezu jede Beziehung zwischen den Daten darstellen kann. Ein ANN kann als Blackbox angesehen werden, die im mathematischen Sinn eine beliebige Abbildung zwischen einem Satz von Eingangs- und Ausgangsvektoren erzeugt. Künstliche neuronale Netze sind recht viel versprechend für die Lösung von Problemen, bei denen traditionelle Modelle versagen; speziell für die Modellierung komplexer Phänomene mit nicht linearen Beziehungen zwischen den Variablen.

Neuronale Netzwerke kann man grob in drei Kategorien einteilen:

  • Signal-Übertragungs-Netzwerke: In diesen Netzwerken wird das Eingangssignal in ein Ausgangssignal transformiert. Beachten Sie, dass sich die Dimensionalität der Signale während dieses Prozesses ändern kann. Die meisten Netzwerkmodelle basieren auf irgendwelchen vordefinierten Basisfunktionen (z.B. Gauß'sche Peaks, wie im Fall von radialen Basisfunktionsnetzwerken (RBF-Netzwerke) oder sigmoide Funktionen - im Fall von Multi-layer Perceptrons).
  • Zustands-Veränderungs-Netzwerke: Beispiele: Hopfield-Netzwerke und Boltzmann-Maschinen.
  • Kompetitive Netzwerke: In kompetitiven Netzwerken (manchmal auch selbst organisierende Karten, self-organizing maps oder SOMs genannt) konkurrieren alle Neuronen des Netzwerks um das Eingangssignal. Das Neuron, das "gewinnt", bekommt die Chance sich im n-dimensionalen Raum näher an das Eingangssignal heran zu bewegen. Beispiel: Kohonen-Feature-Map.

Diese Arten von Netzwerke haben eine Gemeinsamkeit, sie "lernen" durch Anpassen ihrer Netzwerkparameter. Im Allgemeinen versuchen diese Lernalgorithmen den Fehler des Modells durch einen Gradientenabstieg in der Fehlerfläche zu minimieren - mit all den Problemen dieser Methode.


Last Update: 2021-08-15