Spikende Memristische Architekturen für Learning-to-Learn
Spiking Memristive Architectures for Learning to Learn
Wissenschaftsdisziplinen
Elektrotechnik, Elektronik, Informationstechnik (25%); Informatik (50%); Nanotechnologie (25%)
Keywords
-
Spiking Neural Networks,
Memristor,
Neuromorphic,
Analog Computing
Derzeitige Anwendungen der künstlichen Intelligenz (artificial intelligence, AI) und des maschinellen Lernens (ML) benötigen leistungsfähige und daher energieintensive Berechnungsserver, und können daher nicht lokal und autonom auf mobilen Geräten ausgeführt werden. Schon heute gibt es aber einen stark ansteigenden Bedarf on sochen in the field Anwendungen, etwa für mobile Geräte, autonomes Fahren, autonome Robotik, edge devices und dem Internet of Things. In SMALL untersuchen wir extrem energieeffiziente Lösungen für dieses Anwendungsszenario. Inspiriert von der Architektur des Gehirns wird das entworfene System auf spikenden neuronalen Netzwerken (SNNs) basieren. In SMALL wird neuartige Hardware entworfen werden, die solche SNNs implementiert. Im Gegensatz zu herkömmlicher digitaler Computerhardware wird diese Hardware energieeffizient mit analogen (kontinuierlichen) statt mit digitalen Signalen rechnen. Eine weitere essentielle Innovation des Systems ist dessen Speichertechnolgie, der nicht aus üblichen Speicherbausteinen, sondern aus neuartigen memristischen Speicherelementen bestehen wird. Im Gegensatz zu herkömmlichen Speicher kann memristischer Speicher analoge und nicht nur digitale Werte speichern. Dieser auf Nanotechnolgie basierende Ansatz verspricht extrem hohe Speicherdichten und weitere Steigerung der Energieeffizienz. In der Praxis müssen AI Anwendungen oft adaptiv sein, d.h., sie müssen sich an die Umgebung anpassen und ihre Funktion an die gegebene Situation anpassen. Um eine solche Adaptivität zu gewährleisten, untersuchen wir inwieweit learning to learn (L2L) Methoden auf solche spikenden memristischen Systeme anwendbar sind. Learning to learn bezeichnet ein Verfahren in dem ein System (durch Lernverfahren) darauf optimiert wird schnell und effizient zu lernen. Somit kann gewährleistet werden, dass sich das System schnell auf neue Situationen einstellen kann. Das Ziel von SMALL ist es also, ein vielseitiges, adaptives, und extrem energieeffizientes AI- System zu bauen. Die Funktionalität und Effizienz des Systems wir in einer real-world Robotik-Umgebung getestet.
Derzeitige Anwendungen von Künstlicher Intelligenz (KI) benötigen enorme Rechenkapazitäten. Im Gegensatz dazu gibt es einen steigenden Bedarf an energieeffizienten autonom lernenden KI Systemen. In diesem Projekt untersuchten wir Optionen für das Lernen in unkonventioneller Hardware die auf sogenannten spikenden neuronalen Netzwerken basiert. Dies sind neuronale Netzwerke die das Verhalten von biologischen Neuronen imitieren, wobei die Kommunikation zwischen Neuronen durch zeitliche Pulse erfolgt, sogenannte Spikes. Diese Netzwerke wurden in energieeffizienter "neuromorpher" Hardware implementiert, also Hardware die essentielle Aspekte biologischer neuronaler Netzwerke implementiert. Als synaptische Verbindungen zwischen Neuronen wurden Memristoren verwendet, das sind neuartige Nano-Schaltungselemente. Memristoren können in großer Zahl effizient implementiert werden. Da sie aber sehr unzuverlässlich arbeiten, benötigen es neuartige Lernverfahren um sie sinnvoll in neuronalen Netzwerken einsetzen zu können. Will man KI Systeme in der realen Welt einsetzen, so ist es oft notwendig sie vor Ort zu trainieren, was aber typischerweise Trainingsmethoden verlangt die nicht effizient in Hardware implementiert werden können. Um dieses Problem zu lösen untersuchten wir "learning to learn" (L2L) Methoden, das sind Methoden bei denen das KI System zuerst darauf optimiert wird schnell zu lernen. Das eigentliche Lernen vor Ort kann dann schneller und mit einfacher zu implementierenden Methoden ausgeführt werden. In diesem Projekt entwickelten wir neuartige Varianten von spikenden neuronalen Netzwerken die deutlich mächtiger und vielseitiger sind als vorherige Modelle. Diese Netzwerke sind in der Lage verschiedene komplexe Probleme - wie zum Beispiel das Evaluieren von mathematischen Ausdrücken - zu lösen. Im Speziellen entwickelten wir Netzwerke mit gehirn-inspirierten Gedächtnisstrukturen. Dadurch können solche Netzwerke von einzelnen Beispielen lernen oder auch Fragen über vorher präsentierte Geschichten beantworten. Des Weiteren wurden neuartige Trainingsalgorithmen für neuromorphe Hardware mit unpräzisen synaptischen Gewichten und solche für Hardware mit unzuverlässigen memristischen Synapsen entwickelt. Um die schnelle Anpassung von neuromorphen KI Systemen vor Ort zu ermöglichen, entwickelten wir auch L2L-Ansätze für neuromorphe Hardware. In Kollaboration mit unseren Projektpartnern entwickelten wir ein experimentelles System für eine Anwendung dieser Paradigmen in der Robotik. Ein industrieller Roboterarm wurde von einem spikendem neuronalen Netzwerk mit memristischen Synapsen gesteuert. Dieses wurde mittels L2L darauf trainiert aus einer einzigen Demonstration einer Armbewegung eine entsprechende Armtrajektorie zu lernen. Dies zeigt, dass der L2L Ansatz geeignet ist um neuromorphe System schnell an bestimmte Aufgaben anzupassen.
- Technische Universität Graz - 100%
- Evangelos Eleftheriou, IBM Research Division, Zürich - Schweiz
- Giacomo Indiveri, University of Zurich - Schweiz
- Alejandro Barranco-Linares, University of Sevilla - Spanien
- Themis Prodromakis, University of Edinburgh - Vereinigtes Königreich
Research Output
- 81 Zitationen
- 12 Publikationen
- 4 Datasets & Models
- 5 Disseminationen
- 5 Wissenschaftliche Auszeichnungen
- 1 Weitere Förderungen
-
2024
Titel Fast learning without synaptic plasticity in spiking neural networks. DOI 10.1038/s41598-024-55769-0 Typ Journal Article Autor Bellec G Journal Scientific reports Seiten 8557 -
2023
Titel Quantized rewiring: hardware-aware training of sparse deep neural networks DOI 10.1088/2634-4386/accd8f Typ Journal Article Autor Legenstein R Journal Neuromorphic Computing and Engineering -
2025
Titel Memory-Dependent Computation and Learning in Spiking Neural Networks Through Hebbian Plasticity. DOI 10.1109/tnnls.2023.3341446 Typ Journal Article Autor Limbacher T Journal IEEE transactions on neural networks and learning systems Seiten 2551-2562 -
2023
Titel Spike-based models for cognitive computations and robuts training of memristive neural networks Typ PhD Thesis Autor Caca Kraisnikovic -
2023
Titel Utilizing synaptic plasticity and memory for computation and learning in simple neural network models of brain function Typ PhD Thesis Autor Thomas Limbacher -
2023
Titel Fault Pruning: Robust Training ofNeural Networks withMemristive Weights; In: Unconventional Computation and Natural Computation - 20th International Conference, UCNC 2023, Jacksonville, FL, USA, March 13-17, 2023, Proceedings DOI 10.1007/978-3-031-34034-5_9 Typ Book Chapter Verlag Springer Nature Switzerland -
2021
Titel Spike frequency adaptation supports network computations on temporally dispersed information DOI 10.7554/elife.65459 Typ Journal Article Autor Salaj D Journal eLife Link Publikation -
2021
Titel Spike-based symbolic computations on bit strings and numbers DOI 10.1101/2021.07.14.452347 Typ Preprint Autor Kraišnikovic C Seiten 2021.07.14.452347 Link Publikation -
2020
Titel H-Mem: Harnessing synaptic plasticity with Hebbian Memory Networks DOI 10.1101/2020.07.01.180372 Typ Preprint Autor Limbacher T Seiten 2020.07.01.180372 Link Publikation -
2022
Titel Memory-enriched computation and learning in spiking neural networks through Hebbian plasticity DOI 10.48550/arxiv.2205.11276 Typ Preprint Autor Limbacher T -
2021
Titel Revisiting the role of synaptic plasticity and network dynamics for fast learning in spiking neural networks DOI 10.1101/2021.01.25.428153 Typ Preprint Autor Subramoney A Seiten 2021.01.25.428153 Link Publikation -
2021
Titel Many-Joint Robot Arm Control with Recurrent Spiking Neural Networks DOI 10.1109/iros51168.2021.9636001 Typ Conference Proceeding Abstract Autor Traub M Seiten 4918-4925 Link Publikation
-
2023
Link
Titel Fault-Pruning Typ Computer model/algorithm Öffentlich zugänglich Link Link -
2023
Link
Titel Q-Rewiring Typ Computer model/algorithm Öffentlich zugänglich Link Link -
2021
Link
Titel Spiking Neural Networks with Spike-frequency adaptation Typ Computer model/algorithm Öffentlich zugänglich Link Link -
2020
Link
Titel Hebbian Memory Networks Typ Computer model/algorithm Öffentlich zugänglich Link Link
-
2021
Link
Titel Showing Styria Typ Participation in an activity, workshop or similar Link Link -
2022
Titel ASAI workshop Typ A formal working group, expert panel or dialogue -
2023
Titel AI Summer School lecture Typ A talk or presentation -
2022
Titel Telluride discussion Typ A talk or presentation -
2020
Link
Titel Planet Research Article Typ A press release, press conference or response to a media enquiry/interview Link Link
-
2022
Titel Telluride Workshop Typ Personally asked as a key note speaker to a conference Bekanntheitsgrad Continental/International -
2022
Titel Keynote BI 2022 Typ Personally asked as a key note speaker to a conference Bekanntheitsgrad Continental/International -
2021
Titel Invited talk Beyond von Neumann Architectures Workshop Typ Personally asked as a key note speaker to a conference Bekanntheitsgrad Continental/International -
2020
Titel Spotlight NeurIPS Typ Personally asked as a key note speaker to a conference Bekanntheitsgrad Continental/International -
2020
Titel Keynote Computational Neuroscience Typ Personally asked as a key note speaker to a conference Bekanntheitsgrad Continental/International
-
2023
Titel EFRI BRAID: Scalable-Learning Neuromorphics Typ Research grant (including intramural programme) Förderbeginn 2023 Geldgeber National Science Foundation (NSF)