DE

Event

Global Optimization II [SS242550136]

Type
lecture (V)
Präsenz
Term
SS 2024
SWS
2
Language
Deutsch
Appointments
13
Links
ILIAS

Lecturers

Organisation

  • Kontinuierliche Optimierung

Part of

Literature

O. Stein, Grundzüge der Globalen Optimierung, SpringerSpektrum, 2018.

Weiterführende Literatur:

  • W. Alt, Numerische Verfahren der konvexen, nichtglatten Optimierung, Teubner, 2004
  • C.A. Floudas, Deterministic Global Optimization, Kluwer, 2000
  • R. Horst, H. Tuy, Global Optimization, Springer, 1996
  • A. Neumaier, Interval Methods for Systems of Equations, Cambridge University Press, 1990

Appointments

  • 14.06.2024 09:45 - 11:15 - Room: 10.91 Ferdinand-Redtenbacher-Hörsaal
  • 19.06.2024 11:30 - 13:00 - Room: 11.10 Kleiner Hörsaal Elektrotechnik
  • 21.06.2024 09:45 - 11:15 - Room: 10.91 Ferdinand-Redtenbacher-Hörsaal
  • 26.06.2024 11:30 - 13:00 - Room: 11.10 Kleiner Hörsaal Elektrotechnik
  • 28.06.2024 09:45 - 11:15 - Room: 10.91 Ferdinand-Redtenbacher-Hörsaal
  • 03.07.2024 11:30 - 13:00 - Room: 11.10 Kleiner Hörsaal Elektrotechnik
  • 05.07.2024 09:45 - 11:15 - Room: 10.91 Ferdinand-Redtenbacher-Hörsaal
  • 10.07.2024 11:30 - 13:00 - Room: 11.10 Kleiner Hörsaal Elektrotechnik
  • 12.07.2024 09:45 - 11:15 - Room: 10.91 Ferdinand-Redtenbacher-Hörsaal
  • 17.07.2024 11:30 - 13:00 - Room: 11.10 Kleiner Hörsaal Elektrotechnik
  • 19.07.2024 09:45 - 11:15 - Room: 10.91 Ferdinand-Redtenbacher-Hörsaal
  • 24.07.2024 11:30 - 13:00 - Room: 11.10 Kleiner Hörsaal Elektrotechnik
  • 26.07.2024 09:45 - 11:15 - Room: 10.91 Ferdinand-Redtenbacher-Hörsaal

Note

Bei vielen Optimierungsproblemen aus Wirtschafts-, Ingenieur- und Naturwissenschaften tritt das Problem auf, dass Lösungsalgorithmen zwar effizient lokale Optimalpunkte finden können, aber globale Optimalpunkte sehr viel schwerer zu identifizieren sind. Dies entspricht der Tatsache, dass man mit lokalen Suchverfahren zwar gut den Gipfel des nächstgelegenen Berges finden kann, während die Suche nach dem Gipfel des Mount Everest eher aufwändig ist.

Die Vorlesung behandelt Verfahren zur globalen Optimierung von nichtkonvexen Funktionen unter nichtkonvexen Nebenbedingungen. Sie ist wie folgt aufgebaut:

  • Einführende Beispiele
  • Konvexe Relaxierung
  • Intervallarithmetik
  • Konvexe Relaxierung per alphaBB-Verfahren
  • Branch-and-Bound-Verfahren
  • Lipschitz-Optimierung

Die zur Vorlesung angebotene Übung bietet unter anderem Gelegenheit, einige Verfahren zu implementieren und an praxisnahen Beispielen zu testen.

Anmerkung:

Die Behandlung konvexer Optimierungsprobleme bildet den Inhalt der Vorlesung "Globale Optimierung I". Die Vorlesungen "Globale Optimierung I" und "Globale Optimierung II" werden nacheinander im selben Semester gelesen.

Lernziele:

Der/die Studierende

  • kennt und versteht die Grundlagen der deterministischen globalen Optimierung im nichtkonvexen Fall,
  • ist in der Lage, moderne Techniken der deterministischen globalen Optimierung im nichtkonvexen Fall in der Praxis auszuwählen, zu gestalten und einzusetzen.