Deep Learning mit persistenter Homologie
Deep Homological Learning
Wissenschaftsdisziplinen
Informatik (70%); Mathematik (30%)
Keywords
-
Machine Learning,
Algebraic Topology,
Persistent homology,
Deep Learning
Topologische Datenanalyse (TDA), umgesetzt mit Hilfe von persistenter Homologie, hat sich in den letzten Jahren zu einem populären Ansatz entwickelt, Daten aus topologischer Sicht zu analysieren. Persistente Homologie erlaubt es charakteristische Merkmale von Daten zu erfassen, die mit Hilfe herkömmlicher Verfahren nicht unmittelbar zugänglich sind. Trotz dieser interessanten Eigenschaften und der breiten Einsetzbarkeit topologischer Datenanalyse, beschäftigt sich die Wissenschaftsgemeinschaft erst seit kurzem mit der Verbindung zu Methoden des maschinellen Lernens. Erstes Ziel dieses Projektes ist es, ein solides theoretisches Fundament zu schaffen, welches es erlaubt die Ergebnisse einer Datenanalyse mittels persistenter Homologie, d.h., sogenannte Persistenz-Diagramme/Barcodes, als Datenquelle zum Lernen mit Hilfe künstlicher neuronaler Netze nutzen zu können. Ähnlich wie bei konventionellen Lernverfahren (wie beispielsweise Support Vektor Maschinen), stellt die zu Grunde liegende Datenstruktur von Persistenz-Diagrammen, sogenannte Multimengen, hier eine besondere Herausforderung dar. Obwohl Vorarbeiten zu diesem Problem bereits vielversprechende Ergebnisse in diversen Lernszenarien lieferten, konnten zum Teil fundamentale Fragestellungen und Probleme identifiziert werden, welche nun Teil dieses Forschungsprojektes sind. Überdies hinausgehend, erscheint persistente Homologie als geeignetes Werkzeug, künstliche neuronale Netze, deren Kapazität, als auch deren Lernverhalten, genauer zu untersuchen. Dies ist vor Allem dahingehend motiviert, als das die topologischen Eigenschaften der Trainingsdaten in engem Zusammenhang mit den durch neuronale Netze realisierbaren Entscheidungsgrenzen zu stehen scheinen. Weiterentwicklungen in dieser Forschungsrichtung bergen überaus großes Potential (1) informierte Richtlinien zum Design neuronaler Netze entwickeln zu können als auch (2) deren Optimierungsverhalten besser zu verstehen. Zusammengefasst, stellt die Analyse neuronaler Netze mit Hilfe von Methoden der topologischen Datenanalyse, oder allgemeiner, mit Methoden der algebraischen Topologie, das zweite Hauptziel dieses Forschungsprojektes dar.
Das übergeordnete Ziel des Projekts bestand darin, eine solide, theoretisch fundierte Brücke zwischen Methoden des maschinellen Lernens (insbesondere neuronale Netzwerke) und dem relativ neuen Forschungsgebiet der Topologischen Datenanalyse, vornehmlich fokussiert auf persistente Homologie, zu etablieren. Während der Projektdauer realisierten wir mehrere solcher Brücken; speziell hervorzuheben sind beispielsweise (1) neuartige Konstruktionsschemata für sogenannte "Barcode-Vektorisierungen", d. h., Vektorisierungen der vorherrschenden Zusammenfassungsdarstellung topologischer Merkmale in Daten (Barcodes), die als neue Eingangsschichten für neuronale Netzwerke verwendet werden können, bzw. (2) Arbeiten die erfolgreich demonstrieren, dass persistente Homologie während des Trainings von neuronalen Netzwerken genutzt werden kann um beispielsweise bestimmte topologische Eigenschaften einer internen Datenrepräsentation des Netzwerks zu fördern. Der letztgenannte Punkt hat tatsächlich den Weg zu neuartigen Regularisierern geöffnet und eine Richtung etabliert, um in Zukunft die Generalisierung in neuronalen Netzwerken aus einer topologischen Perspektive zu studieren.
- Universität Salzburg - 100%
- Ulrich Bauer, Technische Universität München - Deutschland
- Peter Bubenik, University of Florida - Vereinigte Staaten von Amerika
- Marc Niethammer, University of North Carolina at Chapel Hill - Vereinigte Staaten von Amerika
Research Output
- 129 Zitationen
- 19 Publikationen
- 1 Datasets & Models
- 2 Disseminationen
-
2023
Titel Inverse Consistency by Construction for Multistep Deep Registration DOI 10.48550/arxiv.2305.00087 Typ Preprint Autor Greer H -
2023
Titel GradICON: Approximate Diffeomorphisms via Gradient Inverse Consistency DOI 10.1109/cvpr52729.2023.01734 Typ Conference Proceeding Abstract Autor Tian L Seiten 18084-18094 Link Publikation -
2020
Titel A Shooting Formulation of Deep Learning DOI 10.48550/arxiv.2006.10330 Typ Preprint Autor Vialard F -
2019
Titel Connectivity-Optimized Representation Learning via Persistent Homology Typ Conference Proceeding Abstract Autor Hofer C Konferenz Proceedings of the 36th International Conference on Machine Learning Seiten 2751-2760 Link Publikation -
2019
Titel Learning Representations of Persistence Barcodes Typ Journal Article Autor Hofer C Journal Journal of Machine Learning Research Seiten 1-45 Link Publikation -
2019
Titel Metric Learning for Image Registration DOI 10.1109/cvpr.2019.00866 Typ Conference Proceeding Abstract Autor Niethammer M Seiten 8455-8464 Link Publikation -
2019
Titel Metric Learning for Image Registration DOI 10.48550/arxiv.1904.09524 Typ Preprint Autor Niethammer M -
2019
Titel Connectivity-Optimized Representation Learning via Persistent Homology DOI 10.48550/arxiv.1906.09003 Typ Preprint Autor Hofer C -
2022
Titel $\texttt{GradICON}$: Approximate Diffeomorphisms via Gradient Inverse Consistency DOI 10.48550/arxiv.2206.05897 Typ Preprint Autor Tian L -
2021
Titel Topological Attention for Time Series Forecasting Typ Conference Proceeding Abstract Autor Graf F Konferenz Advances in Neural Information Processing Systems (NeurIPS) Seiten 24871--24882 Link Publikation -
2021
Titel Dissecting Supervised Contrastive Learning Typ Conference Proceeding Abstract Autor Graf F Konferenz Proceedings of the 38th International Conference on Machine Learning Seiten 3821-3830 Link Publikation -
2021
Titel ICON: Learning Regular Maps Through Inverse Consistency DOI 10.1109/iccv48922.2021.00338 Typ Conference Proceeding Abstract Autor Greer H Seiten 3376-3385 Link Publikation -
2020
Titel Graph Filtration Learning Typ Conference Proceeding Abstract Autor Graf F Konferenz Proceedings of the 37th International Conference on Machine Learning Seiten 4314-4323 Link Publikation -
2020
Titel Topologically Densified Distributions Typ Conference Proceeding Abstract Autor Graf F Konferenz Proceedings of the 37th International Conference on Machine Learning Seiten 4304-4313 Link Publikation -
2020
Titel A shooting formulation of deep learning Typ Conference Proceeding Abstract Autor Kwitt R Konferenz Advances in Neural Information Processing Systems (NeurIPS) Seiten 11828--11838 Link Publikation -
2023
Titel Inverse Consistency by Construction for Multistep Deep Registration DOI 10.1007/978-3-031-43999-5_65 Typ Book Chapter Autor Greer H Verlag Springer Nature Seiten 688-698 -
2022
Titel On Measuring the Excess Capacity of Neural Networks Typ Conference Proceeding Abstract Autor Graf F Konferenz Advances in Neural Information Processing Systems (NeurIPS) Seiten 10164--10178 Link Publikation -
2021
Titel ICON: Learning Regular Maps Through Inverse Consistency DOI 10.48550/arxiv.2105.04459 Typ Preprint Autor Greer H -
2021
Titel Dissecting Supervised Contrastive Learning DOI 10.48550/arxiv.2102.08817 Typ Preprint Autor Graf F