EN

Veranstaltung

Nature-Inspired Optimization Methods [SS242511106]

Typ
Vorlesung (V)
Präsenz/Online gemischt
Semester
SS 2024
SWS
2
Sprache
Englisch
Termine
14
Links
ILIAS

Dozent/en

Einrichtung

  • Institut für Angewandte Informatik und Formale Beschreibungsverfahren

Bestandteil von

Literatur

* E. L. Aarts and J. K. Lenstra: 'Local Search in Combinatorial Optimization'. Wiley, 1997 * D. Corne and M. Dorigo and F. Glover: 'New Ideas in Optimization'. McGraw-Hill, 1999 * C. Reeves: 'Modern Heuristic Techniques for Combinatorial Optimization'. McGraw-Hill, 1995 * Z. Michalewicz, D. B. Fogel: How to solve it: Modern Heuristics. Springer, 1999 * E. Bonabeau, M. Dorigo, G. Theraulaz: 'Swarm Intelligence'. Oxford University Press, 1999 * A. E. Eiben, J. E. Smith: 'Introduction to Evolutionary Computation'. * M. Dorigo, T. Stützle: 'Ant Colony Optimization'. Bradford Book, 2004 Springer, 2003

Veranstaltungstermine

  • 15.04.2024 09:45 - 11:15 - Room: 05.20 1C-03
  • 22.04.2024 09:45 - 11:15 - Room: 05.20 1C-03
  • 29.04.2024 09:45 - 11:15 - Room: 05.20 1C-03
  • 06.05.2024 09:45 - 11:15 - Room: 05.20 1C-03
  • 13.05.2024 09:45 - 11:15 - Room: 05.20 1C-03
  • 27.05.2024 09:45 - 11:15 - Room: 05.20 1C-03
  • 03.06.2024 09:45 - 11:15 - Room: 05.20 1C-03
  • 10.06.2024 09:45 - 11:15 - Room: 05.20 1C-03
  • 17.06.2024 09:45 - 11:15 - Room: 05.20 1C-03
  • 24.06.2024 09:45 - 11:15 - Room: 05.20 1C-03
  • 01.07.2024 09:45 - 11:15 - Room: 05.20 1C-03
  • 08.07.2024 09:45 - 11:15 - Room: 05.20 1C-03
  • 15.07.2024 09:45 - 11:15 - Room: 05.20 1C-03
  • 22.07.2024 09:45 - 11:15 - Room: 05.20 1C-03

Anmerkung

Viele Optimierungsprobleme sind zu komplex, um sie optimal lösen zu können. Hier werden immer häufiger stochastische, auf Prinzipien der Natur basierende Heuristiken eingesetzt, wie beispielsweise Evolutionäre Algorithmen, Ameisenalgorithmen oder Simulated Annealing. Sie sind sehr breit einsetzbar und haben sich in der Praxis als sehr wirkungsvoll erwiesen. In der Vorlesung werden solche naturanalogen Optimierungsverfahren vorgestellt, analysiert und miteinander verglichen. Da die Verfahren üblicherweise sehr rechenintensiv sind, wird insbesondere auch auf die Parallelisierbarkeit eingegangen.

Lernziele:

  • Verschiedene naturanaloge Optimierungsverfahren kennenlernen: Lokale Suche, Simulated Annealing, Tabu-Suche, Evolutionäre Algorithmen, Ameisenalgorithmen, Particle Swarm Optimization
  • Grenzen und Potentiale der verschiedenen Verfahren erkennen
  • Sichere Anwendung auf Praxisprobleme, inclusive Anpassung an das Optimierungsproblem und Integration von problemspezifischem Wissen
  • Besonderheiten multikriterieller Optimierung kennenlernen und die Verfahren entsprechend anpassen können
  • Varianten zur Berücksichtigung von Nebenbedingungen kennenlernen und bedarfsgerecht anwenden können
  • Aspekte der Parallelisierung, Kennenlernen verschiedener Alternativen für unterschiedliche Rechnerplattformen, Laufzeitabschätzungen durchführen können