Jahr | 2019 |
Autor(en) | Julian Göltz |
Titel | Training Deep Networks with Time-to-First-Spike Coding on the BrainScaleS Wafer-Scale System |
KIP-Nummer | HD-KIP 19-51 |
KIP-Gruppe(n) | F9 |
Dokumentart | Masterarbeit |
Keywords (angezeigt) | neuromorphic computing, neural networks, neurons, time-to-first-spike coding, BrainScaleS |
Abstract (de) | Künstliche neuronale Netzwerke (KNN) erzielen beeindruckende Ergebnisse bei Mustererkennungsaufgaben. Kürzlich wurde mit Hilfe der Time-to-First-Spike-Kodierung eine Möglichkeit zur Implementierung von KNN-Algorithmen in spikenden neuronalen Netzen abgeleitet. Diese Kodierung ermöglicht auf neuromorpher Hardware die Verwendung etablierter Methoden, wie z.B. "Backpropagation of Error". Das Ziel dieser Arbeit ist es, das Lernen mit Time-to-First-Spike-Kodierung auf dem BrainScaleS (BSS) Wafer-Scale System zu realisieren und dabei die Fähigkeit der schnellen und energieeffizienten analogen Emulation zu nutzen. Analoge Schaltkreise beeinträchtigen jedoch die vollständige Kontrolle der Neuronenparameter und verursachen das Rauschen von Spikezeiten, was beides der Verwendung exakter und differenzierbarer Gleichungen, wie im ursprünglichen Ansatz, abträglich ist. Diese Arbeit schafft einen Rahmen, der die ursprüngliche Idee signifikant an das Neuronenmodell von BSS anpasst. Die genannten Herausforderungen werden durch Untersuchungen zur Reproduzierbarkeit von Spikezeiten auf Hardware, umfangreichen Softwaresimulationen und der Durchführung von Lernen mit Time-to-First-Spike-Kodierung auf Hardware sorgfältig angegangen. Dies ermöglicht die Demonstration der visuellen Datenklassifizierung bei hohen Geschwindigkeiten unter Verwendung vollständig hardwareemulierter Netzwerke mit extrem spärlichen Antworteigenschaften und ebnet so den Weg zu hochskalierten Umsetzungen für eine komplexe Mustererkennung, die den Stand der Technik hinsichtlich Geschwindigkeit und Energieeffizienz in Frage stellen kann. |
Abstract (en) | Artificial neural network s (ANNs) achieve impressive results in pattern recognition tasks. Recently, a way of implementing ANN algorithms in spiking neural networks(SNNs) was derived with the help of time-to-first-spike coding. This coding enables and even encourages usage of established methods like error backpropagation on neuromorphic hardware. The goal of this thesis is to realise learning with time-to-first-spike coding on the BrainScaleS (BSS) wafer-scale system, harnessing its power of fast and energy-efficient analogue emulation. However, analogue circuits impair full control of neuron parameters and introduce noise on spike times, both detrimental to the use of exact and differentiable relations, as in the original approach. This work establishes a framework that significantly adapts the original idea to the neuron model used on BSS. The aforementioned challenges are cautiously addressed by investigations into the reproducibility of spike times on hardware, extensive software simulations, and implementation of training with time-to-first-spike coding on hardware. This enables the demonstration of high-speed visual data classification using fully hardware-emulated networks with extremely sparse response properties, thus paving the way towards larger-scale setups for complex pattern recognition that may challenge the state of the art in terms of speed and energy efficiency. |
bibtex | @mastersthesis{goeltz2019mastersthesis, author = {Julian Göltz}, title = {Training Deep Networks with Time-to-First-Spike Coding on the BrainScaleS Wafer-Scale System}, school = {Universität Heidelberg}, year = {2019}, type = {Masterarbeit} } |
Datei |