Unendliche neuronale Netze für physik-informiertes Lernen
Infinite neural networks for physics-informed learning
Wissenschaftsdisziplinen
Informatik (25%); Maschinenbau (25%); Mathematik (25%); Physik, Astronomie (25%)
Keywords
-
Physics-Informed Machine Learning,
Scientific Machine Learning,
Scientific Computing,
Computational Science And Engineering,
Gaussian processes,
AI for Science
Maschinelles Lernen ist eine treibende Kraft hinter den jüngsten gesellschaftlichen Umbrüchen, technologischen Druchbrüchen und einer einhergehenden Welle von Automatisierung und Digitalisierung. Von Gesichtserkennung, über Erkundung neuer Materialien und Pharmazeutika, Empfehlungen auf Google und Youtube, werden sogar autonom-fahrende Autos verheißen. Diese Ideen haben mittlerweile auch in der Physik Einzug gefunden, in der Hoffnung auf neue Ansätze für alte ungelöste Probleme auch in den Ingenieurwissenschaften. Seit einer Pionierarbeit von Raissi, Perdikaris & Karniadakis im Jahr 2018/19 zu physikalisch- informierten neuronalen Netzwerken gab es bis dato ungesehene tektonische Verschiebungen in der computer-gestützten Physik und wissenschaftlichem Rechnen. Dabei werden einer Lernmaschine, hier im Speziellen einem künstlichen neuronalen Netzwerk, während des Lernprozesses von Außen Informationen über physikalische Gesetzmäßigkeiten in der Form von Fehlersignalen bereit gestellt. Dieser Ansatz ist simpel und mächtig, leidet aber dennoch inhärent unter allfälligen Problemen wie sie aus der Informatik bereits bekannt sind, wie etwa dass diese Maschinen nur mit sehr großen Datenmengen erfolgreich trainiert werden können. Die Realität der/des Naturwissenschaftlerin/Naturwissenschaftlers sieht jedoch gänzlich anders aus: In den meisten Fällen sind nur wenige Daten verfügbar, gemessen an der Komplexität der lernenden Maschine und damit einhergehend benötigten Datenmengen. Das typische Szenario in den Naturwissenschaften dreht sich daher eher um "Smart Data" und als um "Big Data". In diesem Projekt soll ein radikal neuer Ansatz verfolgt werden, mit dem physikalische Gesetze direkt in die innere Struktur von lernenden Maschinen integriert werden können. Der Ansatz entspringt dabei einer neuen Perspektive auf physik-basiertes maschinelles Lernen durch die Linse der Wahrscheinlichkeitstheorie. Es zeigt sich nämlich, dass neuronale Netzwerke, die Arbeitstiere der modernen KI-Forschung, sich als stochastische Prozesse beschreiben lassen. Wenn die Netzwerke unendlich groß, oder in der Praxis einfach genügend groß gemacht werden, dann verhalten sie sich plötzlich wie ein Gaussscher stochastischer Prozess. Spezielle Gausssche Prozesse wiederum genügen speziellen physikalischen Gesetzen in Form von Differentialgleichungen. Diese mathematische Brücke kann man nun nutzen, um physikalische Gesetze konsistent in eine neuronale Netzwerk-Architektur zu übersetzen. Eine derart auf Basis physikalischer Gesetzmäßigkeiten konstruierte Maschine unterscheidet sich in ihrer Komplexität wesentlich von den von Außen physikalisch lediglich informierten Maschinen, und verspricht Präzision und Rechengeschwindigkeiten die den Stand der Forschung um ein Vielfaches übertreffen. Zuerst müssen wir jedoch mittels mathematischer Methoden verstehen, wie sich diese unendlichen Netzwerke in der Wechselwirkung mit Differentialgleichungen verhalten.
- Brown University - 75%
- New York University - 25%
- Markus Lange-Hegermann, Technische Hochschule Ostwestfalen-Lippe - Deutschland