Optimierung, Modelle & Algorithmen für Dictionary Learning
Optimisation Principles, Models & Algorithms for Dictionary Learning
Wissenschaftsdisziplinen
Elektrotechnik, Elektronik, Informationstechnik (30%); Informatik (30%); Mathematik (40%)
Keywords
-
Dictionary Learning,
Sparse Coding,
Sparse Matrix Factorisation,
Optimisation Principles,
Sparse Coefficient Models,
Randomised Algorithms
Ob es die 300 Millionen hochgeladener Fotos auf Facebook pro Tag sind, die 800GB pro Sekunde, die der Large Hadron Collider aufzeichnet, oder die 320.000GB pro Sekunde, die er nicht aufzeichnen kann, eines ist klar, wir sind im Zeitalter der großen Datenvolumen angelangt. Im vergangenen Jahr etwa ist die Menge der weltweit vorhandenen Daten auf schätzungsweise 2,8 ZB = 2.800 Milliarden GB gestiegen, und während man annimmt, dass 23% dieser Daten nützlich sind, wenn analysiert, ist nur 1% auch tatsächlich analysiert. Wie sollen wir also mit diesen Datenmengen und den damit verbundenen Herausforderungen umgehen? Auf der Seite der Signalverarbeitung basieren einige der vielversprechendsten Strategien auf dem Schlüsselkonzept der dünnen Besetzung (sparsity), d.h., der geringen Komplexität sogar hochdimensionaler Daten, sobald diese in einem geeigneten Representationssystem (dictionary) dargestellt werden. Dieses Projekt befasst sich mit der grundlegenden Frage, wie man für eine gegebene Datenklasse automatisch ein Representationssystem lernen kann, das dünn besetzte Darstellung erlaubt, auch bekannt als dictionary learning oder sparse coding. Es zielt darauf ab, ein tieferes theoretisches Verständnis für dictionary learning zu liefern und auf dessen Grundlage stabile und effiziente Lernalgorithmen für hochdimensionale Daten zu entwickeln. Um dieses Ziel zu erreichen, werden insbesondere die folgenden Themen behandelt werden. Optimierung: Die bisher vielversprechendsten Strategien für dictionary learning basieren auf Optimierung. Unter Vorgabe geeigneter dünn besetzter Modelle für die Signale, werden wir die lokalen und globalen Identifizierungseigenschaften mehrerer klassischer und neuer Optimierungsprobleme untersuchen. Modelle: Über die derzeit verwendeten, isotropen dünn besetzten Koeffizientenmodelle hinausgehend, werden wir realistische Modelle entwickeln, die auch die Modellierung von strukturiert dünn besetzten Daten geeignet sind. Darüber hinaus werden wir Lernprobleme konzipieren und analysieren, die eine Identifizierung des Representationssystem gemeinsam mit (unabhängig von) den zugrunde liegenden Strukturen erlauben. (Randomisierte) Algorithmen: Eine grundlegende Herausforderung in dictionary learning ist die hohe Dimensionalität des Lernproblems an sich. Daher werden wir untersuchen, wie die Komplexität der Lernens über Johnson-Lindenstrauss Einbettungen und Divide & Conquer Strategien reduziert werden kann. Analysis Dictionary Learning: Analyse co-sparsity wurde kürzlich als Erfolg versprechende Alternative zur Synthese sparsity eingeführt. Wir werden analysis dictionary learning durch einen Ansatz parallel zu synthesis dictionary learning studieren, d.h. Formulierung von Optimierungsproblemen, Untersuchungen zur Identifizierbarkeit unter Vorgabe zufälliger co-sparser Signalmodelle und Entwicklung von effizienten (randomisierten) Algorithmen. Anwendungen: In enger Zusammenarbeit mit unseren (inter)nationalen wissenschaftlichen Partnern werden wir die entwickelten Strategien auf hochdimensionale Probleme anwenden, die nicht mit derzeit verfügbaren dictionary learning Schemata behandelt werden können, z.B. Mikroskopie, sound tracing, audio inpainting, Magnetresonanztomographie oder akustische Wahrnehmung.
Das Ziel von Dictionary Learning ist für eine Klasse von Signalen automatisch ein Repräsentationssystem (=Dictionary) zu finden, das erlaubt alle diese Signale kompakt darzustellen. Eines der Hauptziele des Projekts war Algorithmen für Dictionary Learning zu entwickeln, die auf echten und synthetischen Daten sinnvolle Ergebnisse liefern und für die theoretische Aussagen zur Konvergenz gemacht werden können. Zu den schönsten Projektergebnissen zählen ein Dictionary Learning Algorithmus, der ohne Angabe von Parametern wie Dictionary-Größe oder Kompaktheit der Darstellung vernünftige Ergebnisse auf Bilddaten liefert und das richtige Ergebnis auf synthetischen Daten. Weiters führte es zur ersten bzw. verbesserten Charakterisierung des Konvergenzradius für die bekannten Dictionary Learning Algorithmen MOD bzw. ODL auch bekannt als approximative K- SVD. Diese stellt gleichzeitig auch das erste theoretische Ergebnis für Dictionary Learning unter Annahme eines natürlichen Signalmodels dar, in dem verschiedene Dictionary-Elemente verschieden oft verwendet werden. Zu guter Letzt finden sich unter den weiteren Resultaten des Projekts: einfach anzuwendende Erkenntnisse zum Design von Abtastmatrizen für 'compressed sensing', Anwendungen von Dictionary Learning für die Bildrekonstruktion in der Magnetresonanzspektroskopie, und die wahrscheinlich erste und ganz sicher putzigste Schranke in der semidefiniten Ordnung für Matrizen von Auftrittswahrscheinlichkeiten in 'rejective sampling'.
- Universität Innsbruck - 100%
- Felix Kramer, Georg-August-Universität Göttingen - Deutschland
- Remi Gibronval, INRIA Rennes - Bretagne Atlantique - Frankreich
- Jérome Boulanger, Institut Curie - Frankreich
- Michael Elad, Technion - Israel Institute of Technology - Israel
- Michael E. Davies, University of Edinburgh - Vereinigtes Königreich
Research Output
- 166 Zitationen
- 48 Publikationen
- 19 Wissenschaftliche Auszeichnungen
-
2024
Titel Adapted Variable Density Subsampling for Compressed Sensing DOI 10.1007/s00365-024-09697-x Typ Journal Article Autor Ruetz S Journal Constructive Approximation -
2023
Titel Dictionary learning-from local towards global and adaptive DOI 10.1093/imaiai/iaad008 Typ Journal Article Autor Pali M Journal Information and Inference: A Journal of the IMA -
2022
Titel Non-asymptotic bounds for inclusion probabilities in rejective sampling DOI 10.48550/arxiv.2212.09391 Typ Preprint Autor Ruetz S -
2023
Titel Convergence of alternating minimisation algorithms for dictionary learning DOI 10.48550/arxiv.2304.01768 Typ Preprint Autor Ruetz S Link Publikation -
2023
Titel Deep supervised dictionary learning by algorithm unrolling-Application to fast 2D dynamic MR image reconstruction. DOI 10.1002/mp.16182 Typ Journal Article Autor Kofler A Journal Medical physics Seiten 2939-2960 -
2021
Titel Dictionary learning & sparse modelling Typ Other Autor Pali Mc Link Publikation -
2021
Titel Dictionary learning & sparse modelling Typ PhD Thesis Autor Pali, Marie-Christine Link Publikation -
2023
Titel Convergence of alternating minimisation algorithms for dictionary learning Typ Other Autor Ruetz S Link Publikation -
2019
Titel Relaxed contractivity conditions for dictionary learning via Iterative Thresholding and K residual Means Typ Conference Proceeding Abstract Autor Pali Mc Konferenz Signal Processing with Adaptive Sparse Structured Representations (SPARS) Link Publikation -
2019
Titel A good reason for using OMP: average case results Typ Conference Proceeding Abstract Autor Schnass K Konferenz Signal Processing with Adaptive Sparse Structured Representations (SPARS) Link Publikation -
2019
Titel The adaptive dictionary learning toolbox Typ Conference Proceeding Abstract Autor Rusu C Konferenz Signal Processing with Adaptive Sparse Structured Representations (SPARS) Link Publikation -
2019
Titel Monotonicity of escape probabilities for branching random walks on \Z^{d} DOI 10.48550/arxiv.1911.09563 Typ Preprint Autor Tzioufas A -
2022
Titel Average Performance of OMP and Thresholding Under Dictionary Mismatch DOI 10.1109/lsp.2022.3167313 Typ Journal Article Autor Pali M Journal IEEE Signal Processing Letters Seiten 1077-1081 -
2022
Titel Adapted variable density subsampling for compressed sensing DOI 10.48550/arxiv.2206.13796 Typ Preprint Autor Ruetz S -
2020
Titel Monotonicity of escape probabilities for branching random walks on Z d DOI 10.1016/j.spl.2020.108900 Typ Journal Article Autor Tzioufas A Journal Statistics & Probability Letters Seiten 108900 -
2020
Titel Submatrices with non-uniformly selected random supports and insights into sparse approximation DOI 10.48550/arxiv.2012.02082 Typ Preprint Autor Ruetz S -
2020
Titel Adaptive sparsity level and dictionary size estimation for image reconstruction in accelerated 2D radial cine MRI DOI 10.1002/mp.14547 Typ Journal Article Autor Pali M Journal Medical Physics Seiten 178-192 Link Publikation -
2019
Titel Compressive time-of-flight 3D imaging using block-structured sensing matrices DOI 10.1088/1361-6420/aafce3 Typ Journal Article Autor Antholzer S Journal Inverse Problems Seiten 045004 Link Publikation -
2020
Titel Compressed Dictionary Learning DOI 10.1007/s00041-020-09738-6 Typ Journal Article Autor Schnass K Journal Journal of Fourier Analysis and Applications Seiten 33 Link Publikation -
2021
Titel Submatrices with NonUniformly Selected Random Supports and Insights into Sparse Approximation DOI 10.1137/20m1386384 Typ Journal Article Autor Ruetz S Journal SIAM Journal on Matrix Analysis and Applications Seiten 1268-1289 Link Publikation -
2015
Titel Convergence radius and sample complexity of ITKM algorithms for dictionary learning DOI 10.48550/arxiv.1503.07027 Typ Preprint Autor Schnass K -
2017
Titel Sequential Learning of Analysis Operators Typ Conference Proceeding Abstract Autor Sandbichler M Konferenz Signal Processing with Adaptive Sparse Structured Representations (SPARS) Link Publikation -
2017
Titel Compressed dictionary learning Typ Conference Proceeding Abstract Autor Schnass K Konferenz Signal Processing with Adaptive Sparse Structured Representations (SPARS) Link Publikation -
2017
Titel Total Variation Minimization in Compressed Sensing DOI 10.1007/978-3-319-69802-1_11 Typ Book Chapter Autor Krahmer F Verlag Springer Nature Seiten 333-358 -
2017
Titel Dictionary Learning from Incomplete Data DOI 10.48550/arxiv.1701.03655 Typ Preprint Autor Naumova V -
2017
Titel Online and Stable Learning of Analysis Operators DOI 10.48550/arxiv.1704.00227 Typ Preprint Autor Sandbichler M -
2017
Titel Total Variation Minimization in Compressed Sensing DOI 10.48550/arxiv.1704.02105 Typ Preprint Autor Krahmer F -
2017
Titel A New Sparsification and Reconstruction Strategy for Compressed Sensing Photoacoustic Tomography DOI 10.48550/arxiv.1801.00117 Typ Preprint Autor Haltmeier M -
2017
Titel Dictionary Learning from Incomplete Data for Efficient Image Restoration DOI 10.23919/eusipco.2017.8081444 Typ Conference Proceeding Abstract Autor Naumova V Seiten 1425-1429 -
2017
Titel Compressive Time-of-Flight Imaging DOI 10.1109/sampta.2017.8024403 Typ Conference Proceeding Abstract Autor Antholzer S Seiten 556-560 -
2019
Titel Corrections to Average Performance of Orthogonal Matching Pursuit (OMP) for Sparse Approximation DOI 10.1109/lsp.2019.2930435 Typ Journal Article Autor Schnass K Journal IEEE Signal Processing Letters Seiten 1566-1567 Link Publikation -
2018
Titel Compressed sensing, sparsity and related topics Typ Other Autor Sandbichler M Link Publikation -
2018
Titel Average Performance of Orthogonal Matching Pursuit (OMP) for Sparse Approximation DOI 10.1109/lsp.2018.2878061 Typ Journal Article Autor Schnass K Journal IEEE Signal Processing Letters Seiten 1865-1869 Link Publikation -
2018
Titel Online and Stable Learning of Analysis Operators DOI 10.1109/tsp.2018.2878540 Typ Journal Article Autor Sandbichler M Journal IEEE Transactions on Signal Processing Seiten 41-53 Link Publikation -
2015
Titel A Personal Introduction to Theoretical Dictionary Learning. Typ Journal Article Autor Schnass K Journal Internationale Mathematische Nachrichten (Bulletin Austrian Mathematical Society) -
2022
Titel Compressed sensing and dictionary learning with non-uniform support distribution Typ PhD Thesis Autor Ruetz, Simon Link Publikation -
2022
Titel Compressed sensing and dictionary learning with non-uniform support distribution Typ Other Autor Ruetz S Link Publikation -
2022
Titel Adapted variable density subsampling for compressed sensing Typ Other Autor Ruetz S Link Publikation -
2022
Titel Non-asymptotic bounds for inclusion probabilities in rejective sampling Typ Other Autor Ruetz S Link Publikation -
2026
Titel Convergence regions of alternating minimization algorithms for dictionary learning Typ Journal Article Autor Ruetz S Journal SIAM Journal on Optimization Seiten 320-349 Link Publikation -
2018
Titel A sparsification and reconstruction strategy for compressed sensing photoacoustic tomography DOI 10.1121/1.5042230 Typ Journal Article Autor Haltmeier M Journal The Journal of the Acoustical Society of America Seiten 3838-3848 Link Publikation -
2018
Titel Compressed Dictionary Learning DOI 10.48550/arxiv.1805.00692 Typ Preprint Autor Schnass K -
2018
Titel Compressed sensing, sparsity and related topics Typ PhD Thesis Autor Sandbichler, Michael Link Publikation -
2018
Titel Convergence radius and sample complexity of ITKM algorithms for dictionary learning DOI 10.1016/j.acha.2016.08.002 Typ Journal Article Autor Schnass K Journal Applied and Computational Harmonic Analysis Seiten 22-58 Link Publikation -
2018
Titel Average performance of Orthogonal Matching Pursuit (OMP) for sparse approximation DOI 10.48550/arxiv.1809.06684 Typ Preprint Autor Schnass K -
2018
Titel Dictionary Learning & Related Topics Typ Postdoctoral Thesis Autor Schnass, Karin Link Publikation -
2018
Titel Dictionary learning -- from local towards global and adaptive DOI 10.48550/arxiv.1804.07101 Typ Preprint Autor Pali M -
2018
Titel Fast dictionary learning from incomplete data DOI 10.1186/s13634-018-0533-0 Typ Journal Article Autor Naumova V Journal EURASIP Journal on Advances in Signal Processing Seiten 12 Link Publikation
-
2023
Titel FoCM 2023 - invited talk Typ Personally asked as a key note speaker to a conference Bekanntheitsgrad Continental/International -
2023
Titel ÖMG Tagung 2023 - plenary talk Typ Personally asked as a key note speaker to a conference Bekanntheitsgrad National (any country) -
2022
Titel Bedlewo 2022 - invited talk Typ Personally asked as a key note speaker to a conference Bekanntheitsgrad Continental/International -
2022
Titel HIM 2022 - invited talk Typ Personally asked as a key note speaker to a conference Bekanntheitsgrad Continental/International -
2022
Titel ICCHA 2022 - plenary talk Typ Personally asked as a key note speaker to a conference Bekanntheitsgrad Continental/International -
2021
Titel Förderungspreis der Österreichischen Mathematischen Gesellschaft Typ Medal Bekanntheitsgrad National (any country) -
2021
Titel DMV-ÖMG Annual Conference 2021 - keynote talk Typ Personally asked as a key note speaker to a conference Bekanntheitsgrad National (any country) -
2020
Titel iTWIST 2020 - plenary lecture Typ Personally asked as a key note speaker to a conference Bekanntheitsgrad Continental/International -
2019
Titel OSA Imaging 2019 - invited talk Typ Personally asked as a key note speaker to a conference Bekanntheitsgrad Continental/International -
2019
Titel GAMM-MSIA 2019 - plenary talk Typ Personally asked as a key note speaker to a conference Bekanntheitsgrad National (any country) -
2018
Titel SpaRTaN-MacSeNet 2018 - keynote talk Typ Personally asked as a key note speaker to a conference Bekanntheitsgrad Continental/International -
2018
Titel Strobl 2018 - invited talk Typ Personally asked as a key note speaker to a conference Bekanntheitsgrad Continental/International -
2018
Titel Oberwolfach 2018 - invited talk Typ Personally asked as a key note speaker to a conference Bekanntheitsgrad Continental/International -
2017
Titel FoCM 2017 - invited talk Typ Personally asked as a key note speaker to a conference Bekanntheitsgrad Continental/International -
2016
Titel iTWIST 2016 - renowned speaker Typ Personally asked as a key note speaker to a conference Bekanntheitsgrad Continental/International -
2016
Titel Dagstuhl 2016 - invited talk Typ Personally asked as a key note speaker to a conference Bekanntheitsgrad Continental/International -
2015
Titel Matheon Conference CSA 2015 - invited speaker Typ Personally asked as a key note speaker to a conference Bekanntheitsgrad Continental/International -
2015
Titel Oberwolfach 2015 - invited talk Typ Personally asked as a key note speaker to a conference Bekanntheitsgrad Continental/International -
2015
Titel Dagstuhl 2015 - invited talk Typ Personally asked as a key note speaker to a conference Bekanntheitsgrad Continental/International