Ein neuer Blick auf die Hebbsche Regel
Das Postulat “gemeinsam aktiv, miteinander verbunden” verweist auf einen allgemeinen Mechanismus für synaptische Plastizität. Von diesem nimmt man an, dass er der Verdrahtung von Netzwerken und der Entstehung von Zellverbänden zugrunde liegt. In einer neuen in PLOS Computational Biology veröffentlichten Studie werfen drei Forscher:innen des Bernstein-Zentrums Freiburg ein neues Licht auf diesen Prozess, der für die zuverlässige Funktion des Gehirns grundlegend ist.
Assoziatives Gedächtnis. Illustration von René Descartes (1596-1650), L'Homme, veröffentlicht 1677.
Es ist eine Erfolgsgeschichte der Verbindung von Theorie und Experiment in den Neurowissenschaften. Die Idee dahinter wird in jedem Lehrbuch besprochen, das sich mit den zellulären Mechanismen des Lernens im Gehirn befasst:
“Wenn ein Axon von Zelle A einer Zelle B nahe genug kommt, um sie zu erregen und wiederholt oder anhaltend an ihrer Aktivierung beteiligt ist, findet in einer oder in beiden Zellen ein Wachstumsprozess oder eine metabolische Veränderung statt, so dass sich die Effizienz von A als eine der Zellen, die B erregen, erhöht.”
In einem Satz zusammengefasst: “Neuronen verdrahten sich, wenn sie gemeinsam aktiv sind”. Diese klarsichtige Darstellung dessen, was wahrscheinlich beim Lernen im Gehirn passiert, hat Donald O. Hebb in seinem 1949 erschienenen Buch “The Organization of Behavior” formuliert. Inzwischen gibt es eine große Anzahl von experimentellen Befunden, die dieses allgemeine Prinzip untermauern. Aber wie genau machen die Nervenzellen das? Woher weiß ein Neuron, dass sich seine Mitneuronen mit ihm verbinden wollen? Welche Signale werden übertragen? Und was ist der Auslöser für diesen “Wachstumsprozess oder die metabolische Veränderung”, über die Hebb spekuliert?
Eine mechanistische Beschreibung, die Ursache und Wirkung klar umreißt, kann nur aus Experimenten an biologischen Neuronen abgeleitet werden. Theorie kann jedoch bei der Planung solcher Experimente helfen. Die vorherrschende Interpretation des Hebbschen Lernens geht davon aus, dass der Schlüssel in der Korrelation neuronaler Aktivität liegt. Das ist in der Tat eine Möglichkeit, die Hebbsche Regel umzusetzen: Korrelation induziert Wachstum. Und genau so stellen sich die meisten Wissenschaftler assoziative Lernalgorithmen vor. In einem biologischen Netzwerk allerdings muss die Korrelation für jedes einzelne Paar von Neuronen ein physikalisch repräsentiert werden. Computersimulationen dieser Situation sind leicht durchzuführen. Es ist jedoch überraschend schwierig, Netzwerke zu konstruieren, die beim Lernen stabil bleiben. Ein zentraler Aspekt fehlt also noch.
In ihrer neuen Arbeit haben Júlia Gallinaro, Nebojša Gašparović und Stefan Rotter vom Bernstein Center Freiburg nun ein Szenario beschrieben und analysiert das eine weniger komplizierte und robustere Umsetzung der Hebbschen Regel nahelegt. Der Ausgangspunkt ist, dass jedes Neuron sich selbst im Blick hat, indem es wie ein Thermostat funktioniert, bei dem Temperatur durch Aktivität ersetzt wird: Ist die Aktivität des Neurons zu hoch, wird die Anzahl der eigenen ein- und ausgehenden erregenden Synapsen reduziert. Ist die Aktivität zu niedrig, werden neue erregende Synapsen angelegt. Die Eliminierung von bestehenden und die Bildung neuer Kontakte im Netzwerk erfolgt ansonsten nach dem Zufallsprinzip. Auf diese Weise wird sichergestellt, dass Neuronen, die gemeinsam feuern, sich schließlich auch miteinander verdrahten – und zwar ohne dass sie ihre eigenen Korrelationen mit anderen explizit überwachen müssten. In Computersimulationen funktioniert diese auf homöostatischer Strukturplastizität basierende Regel sehr gut. Eine Reihe von in der Psychologie diskutierten Lernparadigmen, wie etwa klassische Konditionierung oder assoziatives Gedächtnis, lassen sich mit dieser Regel leicht umsetzen. Experimentatoren könnten diese Möglichkeit daher bei ihrer Suche nach den Mechanismen der Hebbschen Plastizität mit in Betracht ziehen.