Grundlagen der Statistik enthält Materialien verschiedener Vorlesungen und Kurse von H. Lohninger zur Statistik, Datenanalyse und Chemometrie .....mehr dazu.


Optimierungsmethoden

Author: Hans Lohninger

Die Bedeutung der Optimierung in der Datenanalyse spiegelt sich in der großen Anzahl an Methoden und Algorithmen wider, die zur Lösung von Optimierungsproblemen entwickelt wurden. Hier ein kurzer Überblick über Optimierungsmethoden:

  • Mathematische Lösungen in geschlossener Form: Sie sind nur anwendbar, wenn die zu optimierende Funktion im mathematischen Sinne bekannt ist. Maxima oder Minima können durch Differenzierung der Funktion und Nullsetzen der ersten Ableitung berechnet werden.
  • Brute-Force-Ansatz: Das Optimum wird durch Berechnung aller möglichen Kombinationen berechnet. Dieser Ansatz ist nur bei einem beschränkten Phasenraum möglich.
  • Gradientenabstiegsmethoden: Diese Methoden basieren auf der klassischen Idee, einen absteigenden Gradienten entlangzugehen, um ein Minimum zu finden. Gradientenabstiegsmethoden tendieren dazu, in einem lokalen Minimum hängen zu bleiben.
  • Monte-Carlo-Methoden: Die Suche im Phasenraum erfolgt durch zufällige Suche.
  • Kombinationsansätze: Genetische Algorithmen kombinieren Gradientenabstiegs- und Monte-Carlo-Methoden. Am effizientesten sind sie bei großen Phasenräumen.


Bevor eine der spezifischen Optimierungsmethoden ausgewählt wird, muss eine wichtige Einschränkung bedacht werden: Es macht einen großen Unterschied, ob der Wert einer Response-Funktion durch Einsetzen der Parameter in eine mathematische Gleichung erhalten oder ob ein reales Experiment mit neuen Parametersätzen (wie es zum Beispiel bei Optimierungsprozessen der chemischen Industrie der Fall ist) durchgeführt wird.





Last Update: 2012-10-08