Grundlagen der Statistik enthält Materialien verschiedener Vorlesungen und Kurse von H. Lohninger zur Statistik, Datenanalyse und Chemometrie .....mehr dazu. |
Home Multivariate Daten Modellbildung Neuronale Netze Extrapolation | |||
Siehe auch: Generalisierung und Overtraining, Extrapolation | |||
Search the VIAS Library | Index | |||
Neuronale Netze und ExtrapolationAuthor: Hans Lohninger
Neuronale Netze weisen - im Vergleich zu linearen
Approximationsmethoden - einen großen Nachteil auf: Sie können nicht
extrapolieren. Das ist darauf zurückzuführen, dass ein neuronales Netzwerk fast
jede beliebige Funktion durch Anpassung seiner Parameter an die vorgegebenen
Trainingsdaten darstellen kann. Für Bereiche des Variablenraums, für die es
keine Trainingsdaten gibt, ist das Ergebnis des neuronalen Netzwerks
unzuverlässig. Grundsätzlich ist der Datenraum, der durch trainierte neuronale Netzwerke verarbeitet werden kann, in zwei Bereiche unterteilt:
Um das Extrapolationsproblem kontrollieren zu können, sollte man den Umfang des Variablenraumes, in dem die Trainingsdaten verfügbar sind, in einer geeigneten Weise festhalten. Dies kann durch die Berechnung der konvexen Hülle der Trainingsdaten erfolgen. Wenn unbekannte Daten, die dem Netz vorgegeben werden, in dieser Hülle liegen, kann das Ergebnis des Netzes als verlässlich angesehen werden. Das Konzept der konvexen Hülle ist dennoch nicht zufriedenstellend, da diese Hülle schwer zu berechnen ist und keine Lösung für Probleme bietet, bei denen der Eingabedatenraum konkav ist. Eine bessere Methode, vorgeschlagen von Leonard et al. , besteht darin, die lokale Dichte der Trainingsdaten mit Hilfe eines Parzen-Fensters zu schätzen. Diese Methode ist auf alle Arten von Netzwerken anwendbar. RBF-Netzwerke bieten eine weitere, relativ einfache Methode zur Bestimmung von Extrapolationsbereichen .
|
|||
Home Multivariate Daten Modellbildung Neuronale Netze Extrapolation |