| 
 
 
 Optimierungsmethoden
Author: Hans Lohninger 
 Die Bedeutung der Optimierung in der Datenanalyse spiegelt sich in der großen
Anzahl an Methoden und Algorithmen wider, die zur Lösung von
Optimierungsproblemen entwickelt wurden. Hier ein kurzer Überblick über
Optimierungsmethoden:  
 
  - Mathematische Lösungen in geschlossener Form: Sie sind nur
  anwendbar, wenn die zu optimierende Funktion im mathematischen Sinne bekannt
  ist. Maxima oder Minima können durch Differenzierung der Funktion und
  Nullsetzen der ersten Ableitung berechnet werden.
  
 - Brute-Force-Ansatz:
  Das Optimum wird durch Berechnung aller möglichen Kombinationen berechnet.
  Dieser Ansatz ist nur bei einem beschränkten Phasenraum möglich.
  
 - Gradientenabstiegsmethoden:
  Diese Methoden basieren auf der klassischen Idee, einen absteigenden
  Gradienten entlangzugehen, um ein Minimum zu finden.
  Gradientenabstiegsmethoden tendieren dazu, in einem lokalen Minimum hängen zu
  bleiben.
  
 - Monte-Carlo-Methoden:
  Die Suche im Phasenraum erfolgt durch zufällige Suche.
  
 - Kombinationsansätze:
  Genetische Algorithmen kombinieren Gradientenabstiegs- und
  Monte-Carlo-Methoden. Am effizientesten sind sie bei großen Phasenräumen.
  
 Bevor eine der spezifischen Optimierungsmethoden ausgewählt wird, muss
eine wichtige Einschränkung bedacht werden: Es macht einen großen Unterschied,
ob der Wert einer Response-Funktion durch
Einsetzen der Parameter in eine mathematische Gleichung erhalten oder ob ein
reales Experiment mit neuen Parametersätzen (wie es zum Beispiel bei
Optimierungsprozessen der chemischen Industrie der Fall ist) durchgeführt wird.
          
  |