Jahr |
2006 |
Autor(en) |
Johannes Fieres |
Titel |
A Method for Image Classification Using Low-Precision Analog Computing Arrays |
KIP-Nummer |
HD-KIP 06-20 |
KIP-Gruppe(n) |
F9 |
Dokumentart |
Dissertation |
Keywords (angezeigt) |
Image Classification, Image Recognition, Computing Arrays, Fault Tolerance, Artificial Neural Networks, Convolutional Neural Networks, Analog VLSI |
Abstract (de) |
Das Rechnen mit analogen integrierten Schaltkreisen kann gegenüber der weit verbreiteten Digitaltechnik einige Vorteile bieten, z.B.: geringerer Fläche- und Stromverbrauch und die M¨oglichkeit der massiven Parallelisierung. Dabei muss allerdings aufgrund unvermeidlicher Produktionsschwankungen und analogen Rauschens auf die Präzision digitaler Rechner verzichtet werden. Künstliche neuronale Netzwerke sind hinsichtlich einer Realisierung in paralleler, analoger Elektronik gut geeignet. Erstens zeigen sie immanente Paralleliät und zweitens können sie sich durch Training an eventuelle Hardwarefehler anpassen. Diese Dissertation untersucht die Implementierbarkeit eines neuronalen Faltungsnetzwerkes zur Bilderkennung auf einem massiv parallelen Niedrigleistungs-Hardwaresystem. Das betrachtete, gemischt analog-digitale, Hardwaremodell realisiert einfache Schwellwertneuronen. Geeignete gradientenfreie Trainingsalgorithmen, die Elemente der Selbstorganisation und des überwachten Lernens verbinden, werden entwickelt und an zwei Testproblemen (handschrifltiche Ziffern (MNIST) und Verkehrszeichen) erprobt. In Softwaresimulationen wird das Verhalten der Methode unter verschiedenen Arten von Rechenfehlern untersucht. Durch die Einbeziehung der Hardware in die Trainingsschleife können selbst schwere Rechenfehler, ohne dass diese quantifiziert werden müssen, implizit ausgeglichen werden. Nicht zuletzt werden die entwickelten Netzwerke und Trainingstechniken auf einem existierenden Prototyp-Chip überprüft. |
Abstract (en) |
Computing with analog micro electronics can offer several advantages over
standard digital technology, most notably: Low space and power consumption
and massive parallelization. On the other hand, analog computation lacks
the exactness of digital calculations due to inevitable device variations
introduced during the chip production, but also due to electric noise in
the analog signals. Artificial neural networks are well suited for
parallel analog implementations, first, because of their inherent
parallelity and second, because they can adapt to device imperfections by
training. This thesis evaluates the feasibility of implementing a
convolutional neural network for image classification on a massively
parallel low-power hardware system. A particular, mixed analogdigital,
hardware model is considered, featuring simple threshold neurons.
Appropriate, gradient-free, training algorithms, combining
self-organization and supervised learning are developed and tested with
two benchmark problems (MNIST hand-written digits and traffic signs).
Software simulations evaluate the methods under various defined
computation faults. A model-free closed-loop technique is shown to
compensate for rather serious computation errors without the need for
explicit error quantification. Last but not least, the developed networks
and the training techniques are verified on a real prototype chip.
|
Datei |
Dissertation |