Jahr | 2023 |
Autor(en) | Luca Blessing |
Titel | Gradient Estimation With Sparse Observations for Analog Neuromorphic Hardware |
KIP-Nummer | HD-KIP 23-39 |
KIP-Gruppe(n) | F9 |
Dokumentart | Masterarbeit |
Abstract (de) | Spikende neuronale Netzwerke (SNNs) berücksichtigen im Gegensatz zu künstlichen neuronalen Netzwerken (KNNs) die zeitliche Dimension von biologischen Neuronen. Aufgrund der diskontinuierlichen Natur von spikenden Neuronen führt dies zu Herausforderungen bei der gradientenbasierten Optimierung eines solchen Modells mit backpropagation through time (BPTT). Der neuartige EventProp-Algorithmus basiert auf einer allgemeinen Behandlung mathematischer Neuronenmodelle und leitet adjungierte dynamische Gleichungen und Übergänge für Netzwerke nicht-refraktärer leaky-integrate and fire Neuronen ab, aus denen genaue Parametergradienten in SNNs gewonnen werden können. Dieser Algorithmus wird in dieser Arbeit untersucht, wobei er auf das refraktäre LIF Modell erweitert und ein geschlossener Gradientenausdruck abgeleitet wird. Der EventProp-Algorithmus wird in einer zeitdiskreten Form in einem High-Level-Software-Framework implementiert, und diese Lernregel wird zum ersten Mal verwendet, um SNNs mit dem analogen neuromorphen BrainScaleS-2 (BSS-2) System zu trainieren. Die Ergebnisse zeigen, dass gradientenbasiertes Lernen auf spärlichen Messungen in analoger neuromorpher Hardware möglich ist, und etablieren EventProp als eine wichtige Alternative zu herkömmlichen Surrogat-Gradienten-Ansätzen. Die hohe Anpassungsfähigkeit der zugrundeliegenden adjungierten Sensitivitätsanalyse würde es ermöglichen, EventProp auf andere Neuronenmodelle und sogar Online-Lernmethoden zu erweitern, was die Anwendungsbereich dieser Methode deutlich erweitern würde. |
Abstract (en) | Spiking neural networks (SNNs) take into account the temporal dimension of biological neurons, in contrast to artificial neural networks (ANNs). Due to the discontinuous nature of spiking neurons, this leads to challenges in gradient-based optimization of such a model using backpropagation through time (BPTT). The novel EventProp algorithm is based on a general treatment of mathematical neuron models and derives adjoint dynamical equations and transitions for networks of non-refractory leaky-integrate and fire (LIF) neurons from which exact parameter gradients in spiking neural networks (SNNs) can be obtained. This algorithm is studied in this thesis, where it is extended to the refractory leaky-integrate and fire (LIF) model and a closed gradient expression is derived. The EventProp algorithm is implemented in a discrete-time form in a high-level software framework, and this learning rule is used for the first time to train SNNs with the analog neuromorphic BrainScaleS-2 (BSS-2) system. The results demonstrate that gradient-based learning on sparse measurements is feasible in analog neuromorphic hardware, and establish EventProp as an important alternative to common surrogate gradient approaches. The high adaptability of the underlying adjoint sensitivity analysis would allow EventProp to be extended to other neuron models and even online-learning methods which would broaden the applications of this method widely. |
bibtex | @mastersthesis{blessing2023master, author = {Luca Blessing}, title = {Gradient Estimation With Sparse Observations for Analog Neuromorphic Hardware}, school = {Heidelberg University}, year = {2023}, type = {Masterarbeit} } |
Datei |