Artikelaktionen
You are here: Home 2009 and older Articles Lernen im Computermodell — …
Sie sind hier: Startseite Pressemitteilungen 2007 Lernen im Computermodell

Bernstein Center Freiburg | Press Coverage Banner

logo uni

Lernen im Computermodell — Kommunikation und Presse

Lernen im Computermodell

Wissenschaftler erforschen Lernvorgänge durch die Computersimulation eines Kubikmillimeters Gehirn

Freiburg, 24.04.2007

Dass das Gehirn lernen kann, liegt an den besonderen Eigenschaften der Nervenzellen, insbesondere deren Verbindungen, der Synapsen. Bei jeder Aktivität des Gehirns werden Informationen in Form von kurzen, elektrischen Impulsen von Zelle zu Zelle weitergegeben – man sagt, die Nervenzellen "feuern". Dabei kann die Weitergabe von Signalen regelrecht geübt werden. Wenn eine Zelle A einen Impuls aussendet, der in Zelle B eine Antwort auslöst, wird der Kontakt von der Zelle A zur Zelle B verstärkt. Besteht kein derartiger Kausalzusammenhang oder feuert wiederholt B kurz vor A, wird der Kontakt geschwächt. Durch diese so genannte "spike-timing dependent plasticity" (STDP) werden Nervenbahnen durch häufige Wiederholungen ausgebaut. Andere Verknüpfungen hingegen, die selten gebraucht werden, verfallen.

Diese "Plastizität" des Gehirns, die Fähigkeit zur physiologischen und strukturellen Veränderung, gilt als Grundlage des Lernens. In einer aufwändigen Computersimulation von 100.000 Neuronen mit jeweils 10.000 Kontakten – das entspricht etwas einem Kubikmillimeter Großhirnrinde – haben Abigail Morrison, Ad Aertsen und Markus Diesmann nun Hinweise darauf gefunden, dass STDP alleine noch nicht ausreicht, um Lernvorgänge in Zellen zu erklären. Die Arbeit der Wissenschaftler vom Bernstein Center for Computational Neuroscience, der Universität Freiburg und vom RIKEN Brain Science Institute in Tokyo wird in der Juni-Ausgabe der Zeitschrift Neural Computation publiziert.

Schon in früheren Experimenten konnten die Wissenschaftler zeigen, dass ihre Computersimulation viele Eigenschaften des Gehirns recht gut widerspiegelt. Die virtuellen Neurone feuern mit etwa gleicher Frequenz wie im Gehirn, die Aktivität schaukelt sich weder hoch, noch ebbt sie ab – das System befindet sich in einem "dynamischen Gleichgewicht". Neu in ihrem Modell ist allerdings, dass die virtuellen neuronalen Verbindungen nun auch die Eigenschaft der Plastizität besitzen. Dazu entwickelte Morrison zunächst eine neue mathematische Formulierung der STDP-Lernregel, welche die in der Literatur publizierten experimentellen Ergebnisse deutlich besser beschreibt. Damit kommt das Modell der Realität noch ein Stück näher.

Um zu untersuchen, ob das Computermodell auch Lernvorgänge simulieren kann, regten die Wissenschaftler wiederholt eine bestimmte Gruppe von Neuronen an. Dabei beobachteten sie, dass zunächst genau das passierte, was ein Lernmodell voraussagen würde: Da die stimulierten Neurone die fortwährenden Impulse an die ihnen nachgeschalteten Neurone weitergaben, wurden diese Kontakte verstärkt. Dies ging aber auf Kosten der Kontakte von anderen vorgeschalteten Zellen im Netzwerk. Die Zellen hörten vornehmlich auf die von außen eingegebenen Signale, dadurch wurden die anderen Kontakte überflüssig und entsprechend abgebaut. Wie die Wissenschaftler feststellten, koppelte sich die ganze Gruppe von Nervenzellen, die auf die Stimulation reagierten, nach einiger Zeit vom Netzwerk ab.

STDP alleine kann also Lernen in einem größeren neuronalen Netzwerk nicht erklären, es müssen weitere Bedingungen erfüllt sein, damit das System tatsächlich lernen kann. Es gibt schon einige Hinweise darauf, was für Bedingungen das sein könnten. Mit der Simulation von großen Netzwerken haben Morrison und ihre Kollegen ein gutes Werkzeug in der Hand, um die verschiedenen Modelle zu überprüfen und sich dem Geheimnis des neuronalen Lernens weiter zu nähern.

Quelle:
Morrison, A., Aertsen, A., & Diesmann, M. (2007). Spike-timing dependent plasticity in balanced random networks. Neural Computation, 19 (6) 1437-1467
http://www.mitpressjournals.org/doi/abs/10.1162/neco.2007.19.6.1437 

 

Kontakt:

Prof. Dr. Ad Aertsen

Bernstein Center für Computational Neuroscience

Albert-Ludwigs-Universität Freiburg

Tel.: 0761/203-9549

E-Mail: ad.aertsen@biologie.uni-freiburg.de

http://www.bccn-freiburg.de

 

Dr. Abigail Morrison

Diesmann Research Unit

Computational Neuroscience Groupt

RIKEN Brain Science Institute

2-1 Hirosawa

Wako City, Saitama 351-0198, Japan

Tel.: +81 48 467 9644

E-Mail: Abigail@brain.riken.jp

 

Diese Seite drucken Drucken | create PDF file PDF-Ansicht | Send this press release to somebody Versenden


Zuletzt verändert: 25.04.2007
 

Lernen im Computermodell

Wissenschaftler erforschen Lernvorgänge durch die Computersimulation eines Kubikmillimeters Gehirn

Freiburg, 24.04.2007

Dass das Gehirn lernen kann, liegt an den besonderen Eigenschaften der Nervenzellen, insbesondere deren Verbindungen, der Synapsen. Bei jeder Aktivität des Gehirns werden Informationen in Form von kurzen, elektrischen Impulsen von Zelle zu Zelle weitergegeben – man sagt, die Nervenzellen "feuern". Dabei kann die Weitergabe von Signalen regelrecht geübt werden. Wenn eine Zelle A einen Impuls aussendet, der in Zelle B eine Antwort auslöst, wird der Kontakt von der Zelle A zur Zelle B verstärkt. Besteht kein derartiger Kausalzusammenhang oder feuert wiederholt B kurz vor A, wird der Kontakt geschwächt. Durch diese so genannte "spike-timing dependent plasticity" (STDP) werden Nervenbahnen durch häufige Wiederholungen ausgebaut. Andere Verknüpfungen hingegen, die selten gebraucht werden, verfallen.

Diese "Plastizität" des Gehirns, die Fähigkeit zur physiologischen und strukturellen Veränderung, gilt als Grundlage des Lernens. In einer aufwändigen Computersimulation von 100.000 Neuronen mit jeweils 10.000 Kontakten – das entspricht etwas einem Kubikmillimeter Großhirnrinde – haben Abigail Morrison, Ad Aertsen und Markus Diesmann nun Hinweise darauf gefunden, dass STDP alleine noch nicht ausreicht, um Lernvorgänge in Zellen zu erklären. Die Arbeit der Wissenschaftler vom Bernstein Center for Computational Neuroscience, der Universität Freiburg und vom RIKEN Brain Science Institute in Tokyo wird in der Juni-Ausgabe der Zeitschrift Neural Computation publiziert.

Schon in früheren Experimenten konnten die Wissenschaftler zeigen, dass ihre Computersimulation viele Eigenschaften des Gehirns recht gut widerspiegelt. Die virtuellen Neurone feuern mit etwa gleicher Frequenz wie im Gehirn, die Aktivität schaukelt sich weder hoch, noch ebbt sie ab – das System befindet sich in einem "dynamischen Gleichgewicht". Neu in ihrem Modell ist allerdings, dass die virtuellen neuronalen Verbindungen nun auch die Eigenschaft der Plastizität besitzen. Dazu entwickelte Morrison zunächst eine neue mathematische Formulierung der STDP-Lernregel, welche die in der Literatur publizierten experimentellen Ergebnisse deutlich besser beschreibt. Damit kommt das Modell der Realität noch ein Stück näher.

Um zu untersuchen, ob das Computermodell auch Lernvorgänge simulieren kann, regten die Wissenschaftler wiederholt eine bestimmte Gruppe von Neuronen an. Dabei beobachteten sie, dass zunächst genau das passierte, was ein Lernmodell voraussagen würde: Da die stimulierten Neurone die fortwährenden Impulse an die ihnen nachgeschalteten Neurone weitergaben, wurden diese Kontakte verstärkt. Dies ging aber auf Kosten der Kontakte von anderen vorgeschalteten Zellen im Netzwerk. Die Zellen hörten vornehmlich auf die von außen eingegebenen Signale, dadurch wurden die anderen Kontakte überflüssig und entsprechend abgebaut. Wie die Wissenschaftler feststellten, koppelte sich die ganze Gruppe von Nervenzellen, die auf die Stimulation reagierten, nach einiger Zeit vom Netzwerk ab.

STDP alleine kann also Lernen in einem größeren neuronalen Netzwerk nicht erklären, es müssen weitere Bedingungen erfüllt sein, damit das System tatsächlich lernen kann. Es gibt schon einige Hinweise darauf, was für Bedingungen das sein könnten. Mit der Simulation von großen Netzwerken haben Morrison und ihre Kollegen ein gutes Werkzeug in der Hand, um die verschiedenen Modelle zu überprüfen und sich dem Geheimnis des neuronalen Lernens weiter zu nähern.

Quelle:
Morrison, A., Aertsen, A., & Diesmann, M. (2007). Spike-timing dependent plasticity in balanced random networks. Neural Computation, 19 (6) 1437-1467
http://www.mitpressjournals.org/doi/abs/10.1162/neco.2007.19.6.1437 

 

Kontakt:

Prof. Dr. Ad Aertsen

Bernstein Center für Computational Neuroscience

Albert-Ludwigs-Universität Freiburg

Tel.: 0761/203-9549

E-Mail: ad.aertsen@biologie.uni-freiburg.de

http://www.bccn-freiburg.de

 

Dr. Abigail Morrison

Diesmann Research Unit

Computational Neuroscience Groupt

RIKEN Brain Science Institute

2-1 Hirosawa

Wako City, Saitama 351-0198, Japan

Tel.: +81 48 467 9644

E-Mail: Abigail@brain.riken.jp

 

Diese Seite drucken Drucken | create PDF file PDF-Ansicht | Send this press release to somebody Versenden


Zuletzt verändert: 25.04.2007

Archive

 20212020 | 2019 | 2018 | 2017 | 2016 | 2015 | 2014 | 2013 | 2012 | 2011 | 2010 | 2009 and older