EN

Veranstaltung

Globale Optimierung II [SS242550136]

Typ
Vorlesung (V)
Präsenz
Semester
SS 2024
SWS
2
Sprache
Deutsch
Termine
13
Links
ILIAS

Dozent/en

Einrichtung

  • Kontinuierliche Optimierung

Bestandteil von

Literatur

O. Stein, Grundzüge der Globalen Optimierung, SpringerSpektrum, 2018.

Weiterführende Literatur:

  • W. Alt, Numerische Verfahren der konvexen, nichtglatten Optimierung, Teubner, 2004
  • C.A. Floudas, Deterministic Global Optimization, Kluwer, 2000
  • R. Horst, H. Tuy, Global Optimization, Springer, 1996
  • A. Neumaier, Interval Methods for Systems of Equations, Cambridge University Press, 1990

Veranstaltungstermine

  • 14.06.2024 09:45 - 11:15 - Room: 10.91 Ferdinand-Redtenbacher-Hörsaal
  • 19.06.2024 11:30 - 13:00 - Room: 11.10 Kleiner Hörsaal Elektrotechnik
  • 21.06.2024 09:45 - 11:15 - Room: 10.91 Ferdinand-Redtenbacher-Hörsaal
  • 26.06.2024 11:30 - 13:00 - Room: 11.10 Kleiner Hörsaal Elektrotechnik
  • 28.06.2024 09:45 - 11:15 - Room: 10.91 Ferdinand-Redtenbacher-Hörsaal
  • 03.07.2024 11:30 - 13:00 - Room: 11.10 Kleiner Hörsaal Elektrotechnik
  • 05.07.2024 09:45 - 11:15 - Room: 10.91 Ferdinand-Redtenbacher-Hörsaal
  • 10.07.2024 11:30 - 13:00 - Room: 11.10 Kleiner Hörsaal Elektrotechnik
  • 12.07.2024 09:45 - 11:15 - Room: 10.91 Ferdinand-Redtenbacher-Hörsaal
  • 17.07.2024 11:30 - 13:00 - Room: 11.10 Kleiner Hörsaal Elektrotechnik
  • 19.07.2024 09:45 - 11:15 - Room: 10.91 Ferdinand-Redtenbacher-Hörsaal
  • 24.07.2024 11:30 - 13:00 - Room: 11.10 Kleiner Hörsaal Elektrotechnik
  • 26.07.2024 09:45 - 11:15 - Room: 10.91 Ferdinand-Redtenbacher-Hörsaal

Anmerkung

Bei vielen Optimierungsproblemen aus Wirtschafts-, Ingenieur- und Naturwissenschaften tritt das Problem auf, dass Lösungsalgorithmen zwar effizient lokale Optimalpunkte finden können, aber globale Optimalpunkte sehr viel schwerer zu identifizieren sind. Dies entspricht der Tatsache, dass man mit lokalen Suchverfahren zwar gut den Gipfel des nächstgelegenen Berges finden kann, während die Suche nach dem Gipfel des Mount Everest eher aufwändig ist.

Die Vorlesung behandelt Verfahren zur globalen Optimierung von nichtkonvexen Funktionen unter nichtkonvexen Nebenbedingungen. Sie ist wie folgt aufgebaut:

  • Einführende Beispiele
  • Konvexe Relaxierung
  • Intervallarithmetik
  • Konvexe Relaxierung per alphaBB-Verfahren
  • Branch-and-Bound-Verfahren
  • Lipschitz-Optimierung

Die zur Vorlesung angebotene Übung bietet unter anderem Gelegenheit, einige Verfahren zu implementieren und an praxisnahen Beispielen zu testen.

Anmerkung:

Die Behandlung konvexer Optimierungsprobleme bildet den Inhalt der Vorlesung "Globale Optimierung I". Die Vorlesungen "Globale Optimierung I" und "Globale Optimierung II" werden nacheinander im selben Semester gelesen.

Lernziele:

Der/die Studierende

  • kennt und versteht die Grundlagen der deterministischen globalen Optimierung im nichtkonvexen Fall,
  • ist in der Lage, moderne Techniken der deterministischen globalen Optimierung im nichtkonvexen Fall in der Praxis auszuwählen, zu gestalten und einzusetzen.