ML-Methoden zur Feature Identifikation Globaler Optimierung
ML-Methods for Identifying Features of Glob. Optimization
Bilaterale Ausschreibung: Russland
Wissenschaftsdisziplinen
Informatik (70%); Mathematik (30%)
Keywords
-
Evolutionary Compuation,
Automatic Adaptation,
Meteheuristic Optimization
Evolutionäre Algorithmen sind von der Natur inspirierte Lern- Such und Optimierungsverfahren, die den natürlichen Evolutionsprozess einer Spezies als Vorbild haben, sich bestmöglich an aktuell vorherrschende Rahmenbedingungen anzupassen. Methodische Weiterentwicklungen in Kombination mit stetig steigenden Rechenressourcen führen dazu, dann immer komplexere und höherdimensionale Aufgabenstellungen mir evolutionären Algorithmen gelöst werden können. Fast alle dieser Optimierungs- und maschinellen Lernaufgabenstellungen sind jedoch stationär. Das heißt, dass sich das Optimierungs- oder Modellierungsziel während eines Algorithmenlaufes nicht verändert. Dieses Projekt beschäftigt sich damit, mit verschiedenen methodischen Ansätzen in den nicht- stationären Bereich vorzustoßen. Obwohl bisher fast ausschließlich für stationäre Aufgaben angewandt stellen evolutionäre Ansätze eine ideale Ausgangsbasis dar, da ja die natürliche Evolution selbst hochgradig nicht-stationär ist. Eine Spezies, die ihre Anpassungsfähigkeit an neue Umweltbedingungen durch zu gierige Anpassung an aktuell vorherrschende Rahmenbedingungen verliert würde ebenso rasch aussterben, wie es durch eine zu schnelle Änderung der Umweltbedingungen passieren kann. Ein ausreichend hohes Vorhandensein genetischer Diversität ist daher in der Natur im Sinne der Anpassungsfähigkeit ebenso wichtig wie für nicht-stationäre Optimierung und Modellierung. Unter Einbindung biologischer Expertise wird die österreichische Projektgruppe an impliziten Methoden wie selbstadaptiven Verfahrenserweiterungen forschen, die durch steten Zufluss neuer genetischer Diversität die Anpassungsfähigkeit aufrechterhalten ohne auf bereits Erlerntes verzichten zu müssen. Eine vielversprechende methodische Ausgangsbasis stellen hier altersgeschichtete Populationssstrukturen dar. Ansätze dieser Art wurden bisher schwerpunktmäßig verwendet, um durch stetige Zufuhr neuer genetischer Diversität über die jungen Altersschichten verfrühte Konvergenz zurückzudrängen. Im Zuge des gegenständlichen Projektes sollten diese Ansätze in Richtung permanenter Anpassung auf veränderte Ziele und Rahmenbedingungen erweitert werden und Konzepte erforscht werden, wie und welche strategische Methodeninformation von den Älteren auf die Jüngeren transferiert werden können. Die in diesem Projekt kooperierende Gruppe von der Siberian State University of Science and Technology wird von der Zielsetzung her in die gleiche Richtung mit expliziten Ansätzen gehen, die auf Basis von Fitnesslanschaftsindikatoren zur Laufzeit die Algorithmenparameter verändern oder zwischen Algorithmen wechseln.
In diesem Projekt wurde untersucht, wie Optimierungsalgorithmen lernen können, sich im Laufe der Zeit an veränderte Bedingungen anzupassen - so wie sich auch Spezies durch Evolution an wechselnde Umgebungen anpassen. Traditionelle Optimierungsmethoden gehen davon aus, dass ein Problem, wie beispielsweise die Produktionsplanung, bis zu seiner Lösung unverändert bleibt. In der Realität ändern sich die Bedingungen jedoch ständig: Es kommen neue Aufträge hinzu, Routen dauern länger als erwartet oder Maschinen fallen aus. Das Projekt konzentrierte sich darauf, wie evolutionäre Algorithmen, die die natürliche Selektion und das Überleben der Stärksten imitieren, erweitert werden können, um solche dynamischen Situationen zu bewältigen. Ein zentrales Thema war, wie sich ein zu starker Verlust von Eigenschaftsinformationen verhindern lässt. Dies kann auftreten, wenn ein Optimierer zu stark auf eine Lösung oder schnelle Erfolge fokussiert. Es wurden verschiedene Wege untersucht, um den Optimierer widerstandsfähiger zu machen. Zum Beispiel kann ein Optimierer etwa mit mehreren nach Reifegrad sortierten Schichten von Lösungsgruppen eine gute Mischung aus neuen und bewährten Lösungen behalten und so verhindern, dass er sich zu sehr auf eine Richtung festlegt. Bei Problemen, bei denen die Lösungen unterschiedlich kompliziert sind, half ein ständiges Ausdünnen (Pruning) dabei, die mathematischen Ausdrücke übersichtlich und gut verständlich zu halten. In praktischen Tests, wie beim dynamischen Lagermanagement, zeigte sich, dass kurzsichtige Strategien das System zum Stillstand bringen können. Dies unterstrich die Notwendigkeit, kurzfristige Effizienz mit langfristiger Stabilität in Einklang zu bringen und Warnsysteme einzubauen, die menschliche Bediener auf Trends aufmerksam machen, denen der Optimierer nicht ausweichen kann. Im Verlauf des Projekts richtete sich die Aufmerksamkeit auf die Wechselwirkung zwischen Optimierungsalgorithmen und den maschinellen Lernmodellen, die zur Einschätzung der Lösungsqualität eingesetzt werden. Wenn ein Algorithmus bestimmte Betriebsbedingungen wiederholt vermeidet, können die Vorhersagemodelle lernen, dass diese Bedingungen eine schlechte Wahl sind, auch wenn dies nicht der Fall ist. Dadurch entsteht eine Rückkopplungsschleife, die Verzerrungen verstärkt und die Leistung des Systems einschränken kann. Das Team entwickelte Methoden zur Erkennung, Überwachung und Minderung solcher Effekte, um sicherzustellen, dass lernbasierte Bewertungen über einen längeren Zeitraum hinweg genau und ausgewogen bleiben. Diese Erkenntnisse wiesen auch auf eine größere Herausforderung hin: selbst wenn die Bewertungen korrekt sind, erfordert die Optimierung häufig Kompromisse zwischen konkurrierenden Zielen. Schließlich befasste sich das Projekt direkt mit diesen Kompromissen. Die Verbesserung eines Kriteriums, wie zum Beispiel Kosten oder Geschwindigkeit, führt häufig zu einer Verschlechterung eines anderen, etwa Qualität oder Nachhaltigkeit. Die Forscher entwickelten mathematische Werkzeuge zum Vergleich und zur Vorhersage des Fortschritts von Algorithmen unter solchen widersprüchlichen Anforderungen, darunter Auswahlkriterien, die vorhergesagte Qualitäten gegen Unsicherheiten abwägen, sowie Wahrscheinlichkeitsmodelle, die die Chancen für weitere Verbesserungen abschätzen. Zusammenfassend lässt sich sagen, dass das Projekt Prinzipien aus der evolutionären Optimierung, der mathematischen Modellierung und der künstlichen Intelligenz kombinierte, um Optimierungssysteme besser auf Veränderungen reagieren zu lassen.
- FH Oberösterreich - 100%
- Eugene S. Semenkin, Reshetnev Siberian State University of Science and Technology - Russland
Research Output
- 7 Zitationen
- 14 Publikationen
- 6 Datasets & Models
-
2024
Titel A Functional Analysis Approach to Symbolic Regression DOI 10.1145/3638529.3654079 Typ Conference Proceeding Abstract Autor Antonov K Seiten 859-867 -
2024
Titel Probability Distribution of Hypervolume Improvement in Bi-objective Bayesian Optimization Typ Conference Proceeding Abstract Autor Wang H. Konferenz 41st International Conference on Machine Learning Link Publikation -
2025
Titel Age-Layer-Population-Structure withSelf-adaptation inOptimization; In: Computer Aided Systems Theory - EUROCAST 2024 - 19th International Conference, Las Palmas de Gran Canaria, Spain, February 25 - March 1, 2024, Revised Selected Papers, Part III DOI 10.1007/978-3-031-83885-9_1 Typ Book Chapter Verlag Springer Nature Switzerland -
2025
Titel Diversity Management inEvolutionary Dynamic Optimization; In: Computer Aided Systems Theory - EUROCAST 2024 - 19th International Conference, Las Palmas de Gran Canaria, Spain, February 25 - March 1, 2024, Revised Selected Papers, Part I DOI 10.1007/978-3-031-82949-9_13 Typ Book Chapter Verlag Springer Nature Switzerland -
2025
Titel Continuous Pruning for Symbolic Regression DOI 10.1145/3712255.3734287 Typ Conference Proceeding Abstract Autor Affenzeller M Seiten 2572-2579 -
2024
Titel Efficient Global Optimization for Dynamic Problems DOI 10.46354/i3m.2024.emss.018 Typ Conference Proceeding Abstract -
2022
Titel Dynamic Vehicle Routing with Time-Linkage: From Problem States to Algorithm Performance DOI 10.1007/978-3-031-25312-6_8 Typ Book Chapter Autor Werth B Verlag Springer Nature Seiten 69-77 -
2023
Titel A New Acquisition Function for Multi-objective Bayesian Optimization: Correlated Probability of Improvement DOI 10.1145/3583133.3596374 Typ Conference Proceeding Abstract Autor Chen K Seiten 2308-2317 -
2023
Titel Walking through the Quadratic Assignment-Instance Space: Algorithm Performance and Landscape Measures DOI 10.1145/3583133.3596325 Typ Conference Proceeding Abstract Autor Karder J Seiten 2108-2114 -
2023
Titel Surrogate-assisted Multi-objective Optimization viaGenetic Programming Based Symbolic Regression; In: Evolutionary Multi-Criterion Optimization - 12th International Conference, EMO 2023, Leiden, The Netherlands, March 20-24, 2023, Proceedings DOI 10.1007/978-3-031-27250-9_13 Typ Book Chapter Verlag Springer Nature Switzerland -
2023
Titel Gradients of Acquisition Functions for Bi-objective Bayesian optimization DOI 10.1109/icnc-fskd59587.2023.10280812 Typ Conference Proceeding Abstract Autor Liu S Seiten 1-9 -
2023
Titel Population diversity and inheritance in genetic programming for symbolic regression DOI 10.1007/s11047-022-09934-x Typ Journal Article Autor Burlacu B Journal Natural Computing -
2023
Titel Applying Learning and Self-Adaptation to Dynamic Scheduling DOI 10.3390/app14010049 Typ Journal Article Autor Karder J Journal Applied Sciences -
2022
Titel A parallel technique for multi-objective Bayesian global optimization: Using a batch selection of probability of improvement DOI 10.1016/j.swevo.2022.101183 Typ Journal Article Autor Yang K Journal Swarm and Evolutionary Computation Seiten 101183 Link Publikation
-
2025
Link
Titel Werth et al. MDPI 2023 DOI 10.5281/zenodo.17531080 Typ Database/Collection of data Öffentlich zugänglich Link Link -
2025
Link
Titel Werth et al. GECCO 2025 DOI 10.5281/zenodo.17530979 Typ Database/Collection of data Öffentlich zugänglich Link Link -
2025
Link
Titel Werth et al. EMSS 2024 DOI 10.5281/zenodo.17530841 Typ Database/Collection of data Öffentlich zugänglich Link Link -
2025
Link
Titel Werth et al. Eurocast 2022 DOI 10.5281/zenodo.17530900 Typ Database/Collection of data Öffentlich zugänglich Link Link -
2025
Link
Titel Werth et al. Eurocast 2024 DOI 10.5281/zenodo.17530929 Typ Database/Collection of data Öffentlich zugänglich Link Link -
2025
Link
Titel Werth et al. Gecco 2023 DOI 10.5281/zenodo.17530949 Typ Database/Collection of data Öffentlich zugänglich Link Link