Künstliche neuronale Netze in der (Neuro-)Psychologie
Kurze Information zu einzelnen Programmen
(Ausführlichere Informationen finden Sie in dem Handbuch zu den ANN-Programmen)


Wie kann ein Computer etwas lernen? Wie kann er selbständigt etwas organisieren, multidimensionale Datenstrukturen korrekt vereinfachen? Entscheidungen treffen? Können wir in den Funktionieren der Netze eine (grobe) Analogie zu der Funktionsweise des Gehirns sehen?

Vieles davon kann der Benutzer an den drei ANN-Programmen (BPROP, SOM, HOPFIELD) sehen und ausprobieren. Typische Netzbegriffe wie Gewichte, Schwellen, Schichten, Sigmoidfunktion, usw. bleiben hier unerwähnt. Mehr zu dem Hintergrunden der Funktionsweise der künstlichen neuronalen Netze kann (aber muss nicht) der Benutzer in dem Handbuch finden. Dort findet sich auch die Beschreibung, was alle der Benutzer kontrollieren kann (die Anzahl der Neurone, der Lernzyklen, die Lernstärke, usw.). An dieser Stelle will ich nur kurz die Programme beschreiben.

BPROP - stellt den am häufigsten benutzten Typ von ANN, der nach dem Prinzip des überwachten Lernens (engl. supervised learning) arbeitet.
Back Propagation Net

Das Programm bekommt eine Aufgabe (beispielweise die Züge zur Lösung vom Turm von Hanoi zu erlernen, oder eine Menge Symptome einer Erkrankung zuzuordnen), die es zuerst rein zufällig zu lösen versucht. Das Ergebnis seines Lösungsversuchs wird mit der richtigen Lösung der Aufgabe verglichen und die Abweichung davon (also der Fehler) wird ermittelt. Die Verbindungen zwischen den Knoten des Netzes (man nennt sie auch Neuronen) werden so geändert, dass der Fehler beim nächsten Lösungsversuch kleiner wird. Das Bild zeigt die Grafik der Fehlerkurve des Netzes bei ersten 100 Lernwiederholungen. Was sich während des Lernens ändert und wie Änderung in Einzelnem geschieht ist hier nicht von Bedeutung, interessanter ist zu sehen, was passiert, wenn wir bei einem schon gelernten Netz einen oder mehrere Neuronen ganz oder teilweise ausschalten (Schlaganfall!).



Das Bild oben zeigt, wie man im Programm die Funktionsweise einzelner Neurone steuern kann. Der Benutzer kann einen Wert zwischen 0 (=Neuron leitet nicht) und 1 (= Neuron leitet voll) jedem Neuron zuteilen.

SOM - arbeitet ganz anders, nämlich nach dem Prinzip des unüberwachten Lernens. Bei diesem Netztyp gibt es keine Fehlerermittlung, keine richtige Lösung, die das Netz erlernen sollte.
SOM bedeutet Self Organizing Map und wie der Name schon sagt, dieses Netz "organisiert" selbständig in sinnvolle Gruppen das, was es empfängt.

Der Autor dieses Netzes zeigte es am folgendem Beispiel:


Sein Netz gruppierte die Tiere erstaunlich präzise anhand von ganz groben Tiermerkmalen (wieviele Beine, kann fliegen, hat Federn, usw. für Interessierte: T. Kohonen. Self-organized formation of topologically correct feature maps. Biological Cybernetics, 43:59–69, 1982.)

Es müssen nicht nur Tiere sein, was der SOM sortieren kann. Ein Versuch mit dem Semantischen Differential zeigt, dass dieses Netz die Objekte (auf dem Bild sind es Familienangehörige) fast so gut ordnete, wie die Faktorenanalyse und anschließend ermitelte Faktorenskore.


Die Ergebnisse von Fragebögen, die Partner- oder Mitarbeiterwahl, die Störungsklasterung, bei allen diesen Aufagaben könnte SOM sehr interessant sein. Dieses Netz erklärt daneben überzeugend die Entstehung unterschiedlicher kortikaler Karten, die durch ein spezielles Training nachweisbar sind (Feinmotorik bei Geigern, Substitution der Funktionen bei Rehabilitationstraining, usw.).

Hopfield-Netz - arbeitet wieder ganz anders, nach dem Prinzip des einmaligen Lernens (single shot learning = jeder zu lernender Muster wird nur einmal präsentiert). Hopfield-Netz hat seine Stärken im Erkennen von verrauschten Muster. Die Leistung des Netzes hängt stark von der Neuronenzahl ab.
(J.J.Hopfield. Neural networks and physical systems with emergent collective computational abilities. Proc. of the National Academy of Science,USA, 79:2554–2558, 1982.).




Hopfield-Netz illustriert sehr anschaulich was passiert, wenn das Gedächtnis überfordert wird. Warum kommt beim Erinnern der Frontalhirn-Patienten zu vermehrten Vorkommen von Quellfehler beim Erinnern?
Der Benutzer kann eigene Vorlagen als Erkennungsmuster verwenden und die Interferrenz ähnlicher Muster beobachten.

home