Heuristische Regularisierung zur astronomischen Bildgebung
Nonlinear heuristic regularization for astronomical imaging
Wissenschaftsdisziplinen
Mathematik (100%)
Keywords
-
Inverse Problems,
Regularization,
Heuristic Parameter Choice Rules,
Nonlinear Tikhonov Regularization,
Astronomical Imaging
Viele in Anwendungen auftretende inversen Probleme sind schlecht gestellt, d.h., es ist kaum möglich mit Standardverfahren die gewünschte Information aus den Daten herauszufiltern, da sich kleine Messfehler überproportional stark auf das Ergebnis auswirken. Beispiele schlecht gestellter Probleme finden sich etwa in der Bildverarbeitung, der Parameteridentifizierung oder im maschinellem Lernen. Eine Methode, diese Probleme zu behandeln, sind Regularisierungsverfahren, bei denen versucht wird, die Daten geeignet zu filtern um vernünftige Resultate zu erhalten. Entscheidende Parameter in diesen Verfahren sind dabei die sogenannten Regularisierungsparameter, welche die Stärke der Datenfilterungkontrollieren.BeijedemRegularisierungsverfahrenmussder Regularisierungsparameter daten-angepasst vom Benutzer mittels zusätzliche Information adaptiert werden. Im Fokus diese Projekts stehen dagegen vollautomatische datenbasierte, sogenannte heuristische, Regularisierungsverfahren, die keinen zusätzlichen Input oder Information benötigen. Dass solche Verfahren überhaupt funktionieren ist für einfachere lineare Problem erst kürzlich gezeigt worden. Moderne Regularisierungsmethoden für inverse Problems basieren heutzutage oft auf nichtlinearen Filtern, doch dazugehörige automatische Parameterwahlen sind weitgehend unbekannt. Ein Ziel dieses Projekts ist die Entwicklung, Analyse und Verallgemeinerung solcher automatischen Regularisierungsmethoden für nichtlineare inverse Probleme und deren Anwendung auf Probleme in der astronomischen Bildverarbeitung bei Großteleskopen. Um leistungsfähige Methoden zu entwickeln muss eine begleitende Konvergenzanalyse basierend auf Noisebedingungen durchgeführt werden. Dieser wesentliche Schritt benötigt eine genaue Definition und tiefgreifende mathematische Untersuchung der Datenfehler, die in einem konkreten Problem auftreten. Ein Problem aus der Astronomie, auf die die zu entwickelnden Methoden angewendet werden, ist die Detektion und Korrektur der Störungen des Sternenlichts in der Erdatmosphäre. In heutigen Teleskopen werden diese Störungen gemessen und durch bewegliche Spiegel korrigiert (mittels adaptiver Optik). Das Problem, die atmosphärischen Turbulenzen aus Messdaten abzuschätzen, kann mittels nichtlinearer Regularisierung behandelt werden, und es wird beabsichtigt diese Technologie mittels vollautomatischen heuristischen Verfahren zu verbessern. Als weiteres Testproblem wird die gleichzeitige Schätzung von Bild und z.B. Teleskopfehlern betrachtet, wofür ebenfalls nichtlineare heuristische Methoden untersucht werden. Die neuen Methoden in diesem Projekt erlauben vollautomatische Algorithmen ohne Benutzerinteraktion, die gleichzeitig robuster und genauer sind als herkömmliche Verfahren.
Viele der in Anwendungen auftretende inversen Probleme sind schlecht gestellt, d.h., es ist kaum möglich mit Standardverfahren die gewünschte Information aus den Daten herauszufiltern, da sich kleine Messfehler überproportional stark auf das Ergebnis auswirken. Beispiele schlecht gestellter Probleme finden sich etwa in der Bildverarbeitung, der Parameteridentifizierung oder im maschinellen Lernen. Eine Methode, diese Probleme zu behandeln, sind Regularisierungsverfahren, bei denen versucht wird, die Daten geeignet zu filtern, um vernünftige Resultate zu erhalten. Ein entscheidender Parameter in diesen Verfahren ist der sogenannte Regularisierungsparameter, welcher die Stärke der Datenfilterung kontrolliert, und der bei herkömmlichen Verfahren datenangepasst vom Benutzer mittels zusätzlicher Information adaptiert werden muss. Im Zentrum dieses Projekts standen dagegen neue, datenbasierte, sogenannte heuristische Regularisierungsverfahren, die vollautomatisch die Parameterwahl durchführen und damit die korrekte Filterstärke ohne Benutzerinteraktion ermitteln können. Dass und wie solche Verfahren für inverse Probleme überhaupt funktionieren können, ist erst kürzlich bewiesen worden und Gegenstand aktueller Forschung. In diesem Projekt wurden solche vollautomatische Regularisierungsalgorithmen detailliert untersucht, verbessert und auf verschiedene Probleme angewendet. Unter anderem konnte die bestehende Theorie dieser Verfahren erweitert werden, zum Beispiel unter Berücksichtigung von weißem Rauschen als Datenfehler oder auch für den Fall von Operatorstörungen welche etwa durch Modellfehler oder durch Diskretisierung entstehen. Außerdem konnte ein neues Verfahren gefunden werden, welches als Vereinfachung der populären sogenannten L-Kurven Methode konzipiert wurde, diesem aber in Hinblick auf Verlässlichkeit und auch Effizienz überlegen ist. Ein weiterer herausragender Beitrag in diesem Projekt war die Entwicklung und Analyse dieser datenbasierten Methoden für die Anwendung auf nichtlineare Filtermethoden, wie sie etwa in der moderne Bildverarbeitung eingesetzt werden (z.B. der ROF-Filter). Neben Anwendungen in der Bildverarbeitung konnten diese neuen Verfahren für typische inverse Problemen getestet werden, wie der Inversion der Radontransformation, auf der die Technologie der Computertomographie beruht, oder auch bei Problemen in der Astronomie wie der Steuerung der adaptiven Optik bei Großteleskopen. Die Resultate aus diesem Projekt können als wichtige Grundlage für die Entwicklung von neuen, vollautomatischen Regularisierungsverfahren dienen, mit Anwendungen in hochaktuellen Forschungsgebieten wie zum Beispiel im maschinellen Lernen und bei Algorithmen der künstlichen Intelligenz.
- Universität Linz - 100%
- Uno Hämarik, University of Tartu - Estland
Research Output
- 90 Zitationen
- 17 Publikationen