Strukturierte Singularitäten in Deep Learning
Structured Singularities in Deep Learning
Wissenschaftsdisziplinen
Informatik (100%)
Keywords
-
Deep Learning,
Structured Singularities,
Deep neural networks,
Overparameterisation,
Classification
Eine der klassischsten Anwendungen des maschinellen Lernens ist die Klassifikation. Ein Beispiel dafür ist, wenn Bilder von Katzen von Bildern von Hunden getrennt werden sollen. Um dies zu tun, wählt ein*e Ingenieur*in einen bestimmten Algorithmus aus, um aus vielen Beispielen zu lernen. Aber welche Methode ist die beste? Das kann von vielen Parametern abhängen! In unserem Projekt werden wir ein Framework erstellen, das in Anwendungen hilft, basierend auf vielen verschiedenen Faktoren, den bestmöglichen Algorithmus auszuwählen. Einer dieser Faktoren basiert auf der sogenannten Entscheidungsgrenze. Dies ist eine Region, man könnte sich eine Linie vorstellen, die Bilder von Katzen und Hunden trennt. Stellt man sich vor, man hat einen großen Haufen durcheinander geworfener Bilder und möchte sie in zwei Stapel sortieren, einen für Katzen und einen für Hunde, dann sagt uns die Seite der Linie, auf der das Bild liegt, ob es sich um eine Katze oder einen Hund handelt. Manchmal ist diese Region einfach und gerade, was die Arbeit erleichtert. Wenn sie einfach ist, kann ein*e Ingenieur*in eine einfachere Methode für den Algorithmus zum Lernen auswählen. Manchmal kann die Region komplizierter und kurvig sein. Darüber hinaus gibt es manchmal viele Regionen, die gut funktionieren, und manchmal existiert keine sinnvolle Region, und es gibt einige Katzen-/Hundebilder auf beiden Seiten der Region. Man kann sagen, dass die Entscheidungsregion eine Komplexität hat, dass es einen Spielraum gibt (wenn die Region verändert werden kann und immer noch gute Arbeit bei der Klassifizierung leistet) und dass es Rauschen (also falsch klassifizierte Daten) geben kann. All diese Faktoren können sich gegenseitig beeinflussen und die Lernaufgabe für den Algorithmus erleichtern oder erschweren. Unser Framework wird den Ingenieur*innen helfen zu verstehen, wie diese Faktoren interagieren und wie sie den besten Algorithmus zur Klassifizierung auswählen können. Natürlich wird dieses Framework für Anwendungen von immensem Nutzen sein, da es den Ingenieur*innen hilft, suboptimale Algorithmen zu vermeiden und so viel Zeit und Mühe zu sparen.
- Universität Wien - 100%
Research Output
- 3 Publikationen
-
2025
Titel High-dimensional classification problems with Barron regular boundaries under margin conditions DOI 10.1016/j.neunet.2025.107898 Typ Journal Article Autor García J Journal Neural Networks Seiten 107898 Link Publikation -
2025
Titel Theoretical guarantees for the advantage of GNNs over NNs in generalizing bandlimited functions on Euclidean cubes DOI 10.1093/imaiai/iaaf007 Typ Journal Article Autor Neuman A Journal Information and Inference: A Journal of the IMA Link Publikation -
2025
Titel Dimension-independent learning rates for high-dimensional classification problems DOI 10.1142/s0219530525500496 Typ Journal Article Autor Lerma-Pineda A Journal Analysis and Applications Seiten 1-33