Grundlagen der Statistik enthält Materialien verschiedener Vorlesungen und Kurse von H. Lohninger zur Statistik, Datenanalyse und Chemometrie .....mehr dazu.


Generalisierung und Overtraining

Author: Hans Lohninger

Das Problem bei jeder Modellierungsmethode, die auf keinen Annahmen bezüglich des Zusammenhangs der Variablen beruht (sog. "modellfreie Methode"), ist, dass diese Modelle dazu tendieren, sich an beliebige Daten anzupassen (inkl. der enthaltenen Fehler), wenn sie nicht richtig eingesetzt werden. Im Fall von neuronalen Netzwerken wird dieser Effekt "Overtraining" oder auch "Overfitting" genannt. Overtraining tritt auf, wenn das neuronale Netzwerk für das gestellte Problem zu mächtig ist. Es "erkennt" dann den zugrunde liegenden Trend nicht, sondern lernt die Daten perfekt (das Rauschen in den Daten mit eingeschlossen). Daraus ergibt sich eine schlechte Verallgemeinerung und eine zu gute Anpassung an die Trainingsdaten. Klicken Sie auf dieses interaktive Beispiel, um einen Eindruck von den ungünstigen Effekten des Overtrainings zu bekommen

Wie Sie aus diesem interaktiven Beispiel sehen können, ist eine gute Verallgemeinerung wichtig für brauchbare Modelle. Es gibt einige Methoden, um den Grad der Verallgemeinerung zu prüfen und/oder das Overfitting zu detektieren:

  • Kreuzvalidierung
  • Addition von Rauschen
  • Monitoring-Datensatz: Überwacht man die Leistung eines neuronalen Netzwerks an einem unabhängigen Datensatz während des Trainings, kann der Trainingsprozess gestoppt werden, sobald seine Leistung für den unabhängigen Datensatz optimal ist. Dieser Überwachungssatz (auch: Validierungssatz) muss ein unabhängiger Datensatz sein.

 


Last Update: 2021-08-15