Aktuelles aus dem Bernstein Netzwerk. Hier finden Sie die neuesten Nachrichten unserer Forscher:innen im Hinblick auf aktuelle Forschungsergebnisse, neue Forschungsprojekte und -initiativen sowie Auszeichnungen und Preise.
Prothesen durch Gedankenkraft steuern
Forschende des Deutschen Primatenzentrums (DPZ) – Leibniz-Institut für Primatenforschung in Göttingen haben herausgefunden, dass sich das Gehirn großflächig über mehrere Hirnregionen neu organisiert, wenn es lernt, Bewegungen mit Hilfe einer Gehirn-Computer-Schnittstelle in einer virtuellen Umgebung auszuführen. So konnte gezeigt werden, wie sich das Gehirn anpasst, wenn es motorische Prothesen steuert. Die Erkenntnisse helfen nicht nur, die Entwicklung von Gehirn-Computer-Schnittstellen voranzutreiben, sondern verbessern auch unser Verständnis der grundlegenden neuronalen Prozesse, die dem motorischen Lernen zugrunde liegen (PLOS Biology).
Pioneer Award für Klaus-Robert Müller
Der weltweit anerkannte Experte für maschinelles Lernen und neuronale Netze, BIFOLD Co-Direktor und Professor an der TU Berlin, Prof. Dr. Klaus‑Robert Müller, wurde von der IEEE Computational Intelligence Society (CIS) mit dem „Neural Network Pioneer Award 2026“ ausgezeichnet. Der Preis würdigt seine „Beiträge zu der Theorie und Praxis des kern-basierten Lernens“. Unter kern-basiertem Lernen versteht man ein zentrales Verfahren des maschinellen Lernens, das Muster in Daten mit Hilfe spezieller mathematischer Funktionen erkennt.
Hirn-Computer-Schnittstelle für Patient mit Querschnittslähmung
Ein Team des Universitätsklinikums der Technischen Universität München hat einem vom Hals abwärts gelähmten Mann eine Hirn-Computer-Schnittstelle eingesetzt. Der fünfstündige Eingriff war der erste seiner Art in Europa. Das Gerät ermöglicht Forschung, die Betroffenen in Zukunft mehr Teilhabe, Unabhängigkeit und Lebensqualität eröffnen könnte. Konkret will das Team den 25-Jährigen in die Lage versetzen, sein Smartphone und einen Roboterarm allein mit seinen Gedanken zu steuern.
Energiesparsam denken: Was KI vom Gehirn lernen kann
Biologische Gehirne sind extrem energieeffizient. Kann sich die künstliche Intelligenz hier ein paar Tricks abschauen? Neue Erkenntnisse zu energiesparender Informationsverarbeitung beschreiben Forschende des FIAS zusammen mit Kolleg:innen aus Frankreich in der Zeitschrift Nature Communications.
Was sagt ein Mensch zu einem Roboter, während sie gemeinsam ein IKEA-Regal aufbauen?
Studie der Technischen Universität Chemnitz untersucht Gespräche zwischen Menschen und Robotern – und erklärt die Hintergründe in einem Podcast.
Sehen lernen ist Teamarbeit
Sehen ist mehr als Licht auf der Netzhaut – es ist ein fein abgestimmtes Zusammenspiel neuronaler Netzwerke. Eine Studie von Forschenden des Frankfurt Institute for Advanced Studies (FIAS) und internationaler Partner:innen zeigt, wie das Gehirn nach dem Augenöffnen lernt, visuelle Reize zuverlässig zu verarbeiten. Durch Erfahrung werden Eingangssignale präziser und stimmen sich zunehmend mit vernetzten Schaltkreisen ab – ein Prozess, der eindeutige Seheindrücke erst ermöglicht. Diese Kenntnisse können Künstliche Intelligenz (KI) und Therapien verbessern.
Internationale Auszeichnung für Forschende am Göttingen Campus
Dr. Oliver Barnstedt und Dr. Anggi Hapsari erhalten jeweils einen ERC Starting Grant.
Charité-Studie in Nature deckt grundlegende Vorgänge im Fliegengehirn auf
Auch Fliegen müssen schlafen. Um trotzdem auf Gefahren reagieren zu können, dürfen sie die Umwelt währenddessen aber nicht komplett ausblenden. Wie das Gehirn der Tiere diesen Zustand herstellt, haben Forschende der Charité – Universitätsmedizin Berlin jetzt entschlüsselt. Wie sie im Fachblatt Nature* beschreiben, filtert das Fliegengehirn im Schlaf visuelle Informationen rhythmisch heraus – sodass starke Seh-Reize das Tier dennoch aufwecken könnten.
Ein künstliches Baby lernt sprechen – KI-Simulationen helfen, Prozesse im frühkindlichen Gehirn zu verstehen
Ein simuliertes Kind und eine häusliche Umgebung wie im Computerspiel: Das sind die Forschungsgrundlagen der Gruppe um Prof. Jochen Triesch vom Frankfurt Institute for Advanced Studies (FIAS). Sie nutzt Computermodelle, um herauszufinden, wie wir sehen und verstehen lernen – und wie dies helfen könnte, maschinelles Lernen zu verbessern.
Studie: KI-Sprachmodelle können vorhersagen, wie das menschliche Gehirn auf visuelle Reize reagiert
Große Sprachmodelle (Large Language Models, LLMs) aus der Künstlichen Intelligenz können vorhersagen, wie das menschliche Gehirn auf visuelle Reize reagiert. Das zeigt eine neue Studie von Prof. Dr. Adrien Doerig (Freie Universität Berlin) gemeinsam mit Kolleg*innen der Universitäten Osnabrück, Minnesota und Montréal. Die Studie wurde unter dem Titel „High-level visual representations in the human brain are aligned with large language models“ in Nature Machine Intelligence veröffentlicht. Für die Untersuchung verwendeten die Forschenden LLMs, wie sie auch den Systemen hinter ChatGPT zugrunde liegen.

















