Bernstein Netzwerk Computational Neuroscience
  • Home
  • Netzwerk
    • Das Bernstein Netzwerk
    • Bernstein Zentren
      • Berlin
      • Freiburg
      • Göttingen
      • München
      • Tübingen
      • Heidelberg-Mannheim
    • Bernstein Nodes
      • Bernstein Node Bochum
      • Bernstein Node Bonn-Köln
      • Bernstein Node Chemnitz
      • Bernstein Node Hamburg
      • Bernstein Node Rhein-Main Region
      • Bernstein Node Taiwan
    • Forschungsinfrastruktur
      • High Performance Simulation and Data Analysis
      • Forschungsdaten-Management
      • Wissenschaftskommunikation
      • Wissenschaftskoordination
    • Preise und Initiativen
      • Valentin Braitenberg Award
      • Brains for Brains Nachwuchspreis
      • Bernstein SmartSteps
    • Gremien des Netzwerks
    • Ethos des Netzwerks
    • Satzung
    • Mitgliedschaft
    • Historie
    • Spenden
    • Kontakt
  • Newsroom
    • Newsroom
    • Aktuelles
    • Veranstaltungen
    • Ausschreibungen
    • Medienecho
    • Publikationen des Netzwerks
    • Bernstein Bulletin
    • Presse
  • Forschung und Lehre
    • Forschung und Lehre
    • Meet the Scientist
    • Wissenschaftler:innen finden
    • Studienprogramme
      • Masterprogramme
      • Promotionsprogramme
    • Studienangebote
      • Bernstein Student Workshop Series
      • Online Learning
      • Kurse für Fortgeschrittene
      • Praktika und Abschlussarbeiten
      • Podcasts
  • Karriere
    • Karriere
    • Stellenangebote
    • Praktika und Abschlussarbeiten
  • Bernstein Conference
    • Bernstein Conference
    • Program
      • Schedule
      • Satellite Workshops
      • Conference Dinner
    • Early Career Scientists
      • PhD Symposium
      • Postdoc Meeting
      • Travel Grants
      • Buddy Program
    • General Information
      • Important Dates & FAQ
      • Plan Your Visit
      • Press
      • Code of Conduct
      • PR Media Policy
      • Data Policy
    • Past and future Bernstein Conferences
  • DE
  • EN
  • Click to open the search input field Click to open the search input field Suche
  • Menü Menü
Sie sind hier: Startseite1 / Newsroom2 / Aktuelles3 / Wenn die KI so „denkt“ wie wir
Berlin – 13. November 2025

Wenn die KI so „denkt“ wie wir

Auch wenn die so genannten Vision Foundation Modelle, Computermodelle für die automatisierte Bilderkennung, in den vergangenen Jahren enorme Fortschritte gemacht haben – sie unterscheiden sich immer noch deutlich vom menschlichen visuellen Verständnis. Zum Beispiel erfassen sie in der Regel keine mehrstufigen semantischen Hierarchien und haben Schwierigkeiten, mit Beziehungen zwischen semantisch verwandten, aber visuell unähnlichen Objekten. In einem gemeinsamen Projekt mit Google DeepMind haben Wissenschaftler:innen der TU Berlin, des MPI CBS und des MPI für Bildungsforschung einen neuen Ansatz „AligNet“ entwickelt, der erstmals menschliche semantische Strukturen in neuronale Bildverarbeitungsmodelle integriert und damit das visuelle Verständnis der Computermodelle dem des Menschen annähert. Die Ergebnisse wurden jetzt unter dem Titel „Aligning Machine and Human Visual Representations across Abstraction Levels“ in dem renommierten Fachmagazin Nature veröffentlicht.

Die Augen der KI sind in den vergangenen Jahren immer besser geworden, reichen aber an das visuelle Verständnis des Menschen noch nicht heran. | Copyright: Freepik/Julos

Beteiligtes Bernstein Mitglied: Klaus-Robert Müller

Die Wissenschaftler:innen untersuchen, wie visuelle Repräsentationen von modernen, tiefen neuronalen Netzen im Vergleich zu menschlichen Wahrnehmungen und konzeptuellem Wissen aufgebaut sind und wie man diese besser aufeinander abstimmen kann. Obgleich künstliche Intelligenz (KI) in der Bildverarbeitung heute beeindruckende Leistungen zeigt, generalisieren Maschinen häufig weniger robust als Menschen, etwa wenn neue Bildtypen oder Verhältnisse vorliegen.

„Die zentrale Frage unserer Studie lautet: Was fehlt modernen maschinellen Lernsystemen, damit sie ein menschenähnliches Verhalten zeigen – nicht nur in der Leistung, sondern auch in der Art und Weise, wie sie Repräsentationen organisieren und abstrahieren“, erläutert Erstautor Lukas Muttenthaler, Wissenschaftler am Max-Planck-Institut für Kognitions- und Neurowissenschaften in Leipzig und dem BIFOLD-Institut an der TU Berlin, sowie ehemaliger studentischer Mitarbeiter bei Google DeepMind.

Die Forschenden zeigen, dass menschliches Wissen typischerweise hierarchisch organisiert ist, also sortiert in detaillierte (z. B. „Haustierhund“) bis hin zu groben (z.B. „Tier“) Unterscheidungen. Maschinenmodelle hingegen erfassen diese Ebenen der Abstraktion und Semantik oft nicht. Um die Modelle dem menschlichen Verständnis anzugleichen, haben die Wissenschaftler:innen zunächst ein „Lehrer“-Modell darauf trainiert, menschliche Urteile (z. B. Bild-Ähnlichkeitsurteile) nachzuahmen. Dieses Lehrer-Modell hat somit eine Repräsentationsstruktur gelernt, welche als „menschlich“ gelten kann. Anschließend wird diese Repräsentationsstruktur genutzt, um bereits trainierte, leistungsstarke Vision-Foundation-Modelle („Studentenmodelle“) zu verbessern („soft alignment“). Dieses Nachjustieren kostet um mehrere Gößenordnungen weniger als das Neutraining der Modelle. 

Wichtiger Schritt hin zu einer interpretierbaren, kognitiv fundierten KI

Die “Studenten”-Modelle wurde mit Hilfe von “AligNet” fein abgestimmt. AligNet ist ein über das „Lehrer“-Modell generierter, großer Bilddatensatz, der Ähnlichkeitsurteile beinhaltet, die denen von Menschen entsprechen. Zur Evaluierung der feinjustierten Studenten-Modelle wurde anschließend der, von den Wissenschaftler:innen speziell erhobene, sogenannte “Levels”-Datensatz verwendet. “Für diesen Datensatz führten ca. 500 Probanden eine Bild-Ähnlichkeitsaufgabe durch, die mehrere Ebenen semantischer Abstraktion abdeckt, von ganz groben Kategorisierungen bis hin zu detaillierten Unterscheidungen und Kategorie-Grenzen. Für jedes Urteil wurden sowohl die vollständigen Antwortverteilungen sowie Reaktionszeiten der Probanden erfasst, um mögliche Zusammenhänge mit der Unsicherheit menschlicher Entscheidungen zu erfassen. Der so gewonnene, innovative Datensatz stellt einen neu etablierten Benchmark für die Übereinstimmung zwischen Mensch und Maschine dar und wurde von uns Open-Source publiziert“, berichtet Frieda Born, Doktorandin bei BIFOLD und am Max-Planck-Institut für Bildungsforschung.

Die mit „AligNet“ trainierten Modelle zeigen deutliche Verbesserungen in der Übereinstimmung mit menschlichen Urteilen. Darunter eine bis zu 93,5 Prozent relative Verbesserung bei den grob-semantischen Bewertungen. In manchen Fällen übertreffen sie sogar die Zuverlässigkeit von menschlichen Bewertungen. Darüber hinaus zeigen diese Modelle keinerlei Leistungseinbußen, sondern im Gegenteil, konsistente Leistungssteigerungen (25 bis zu 150 Prozent relative Verbesserung) bei diversen komplexen praktischen maschinellen Lernaufgaben bei geringen Kosten für Rechenzeit.

Klaus-Robert Müller, Co-Direktor bei BIFOLD: „Unsere Forschung verbindet methodisch kognitive Wissenschaft (menschliche Abstraktionsebenen) mit moderner Deep-Learning-Praxis (Vision-Foundation-Modelle) und bildet somit ein Scharnier zwischen dem Konzept der Repräsentation von Menschen und Maschinen. Das ist ein wichtiger Schritt hin zu einer verbesserten interpretierbaren, kognitiv fundierten KI.“

„AligNet“ zeigt, dass hierarchische konzeptuelle Strukturen in neuronale Netzwerke ohne explizites hierarchisches Training überführt werden können, wobei die Reorganisation über die Netzwerkschichten hinweg sichtbar ist. Diese Ergebnisse deuten darauf hin, dass „AligNet“ grundlegende Verbesserungen visueller Repräsentationen erzielt, die die menschliche konzeptuelle Verständnisebene besser widerspiegeln und die KI damit weniger zu einer „Black Box“ machen. Forscher:innen haben hier erstmals einen effizienten Weg gefunden, Computer-Vision-Modellen etwas über die hierarchische Struktur menschlichen konzeptuellen Wissens beizubringen. “Wir zeigen, dass dies nicht nur die Repräsentationen dieser Modelle menschenähnlicher und damit interpretierbarer macht, sondern auch ihre Vorhersagekraft und Robustheit in einer Vielzahl von Aufgaben verbessert“, so Andrew K. Lampinen von Google DeepMind.

Weiterführende Verlinkungen

Originale Pressemitteilung

> mehr

Originale Publikation

> mehr

Wenn die KI so „denkt“ wie wir

18. November 2025/in Ausgewählter Aktuelles-Post für die Startseite /von Elena Reiriz Martinez

Kontakt Aktuelles

Kontakt

Prof. Dr. Klaus-Robert Müller

Berlin Institute for the Foundations of Learning and Data (BIFOLD)
Fachgebiet für Maschinelles Lernen
Fakultät IV – Elektrotechnik und Informatik
Technische Universität Berlin

klaus-robert.mueller@tu-berlin.de

Bernstein Netzwerk Computational Neuroscience Logo

Mitglied werden
Satzung
Spenden
Newsletter abonnieren

 

Folgen Sie uns auf

LinkedIn
Bluesky
Vimeo
X
© 2025 Bernstein Netzwerk Computational Neuroscience
  • Kontakt
  • Impressum
  • Datenschutz
Nach oben scrollen Nach oben scrollen Nach oben scrollen
Cookie-Zustimmung verwalten
Wir verwenden Cookies, um unsere Website und unseren Service zu optimieren.
Funktional Immer aktiv
Der Zugriff oder die technische Speicherung ist unbedingt für den rechtmäßigen Zweck erforderlich, um die Nutzung eines bestimmten Dienstes zu ermöglichen, der vom Abonnenten oder Nutzer ausdrücklich angefordert wurde, oder für den alleinigen Zweck der Übertragung einer Nachricht über ein elektronisches Kommunikationsnetz.
Vorlieben
Die technische Speicherung oder der Zugriff ist für den rechtmäßigen Zweck der Speicherung von Voreinstellungen erforderlich, die nicht vom Abonnenten oder Nutzer beantragt wurden.
Statistiken
Die technische Speicherung oder der Zugriff, der ausschließlich zu statistischen Zwecken erfolgt. Die technische Speicherung oder der Zugriff, der ausschließlich zu anonymen statistischen Zwecken verwendet wird. Ohne eine Aufforderung, die freiwillige Zustimmung Ihres Internetdienstanbieters oder zusätzliche Aufzeichnungen von Dritten können die zu diesem Zweck gespeicherten oder abgerufenen Informationen allein in der Regel nicht zu Ihrer Identifizierung verwendet werden.
Marketing
Die technische Speicherung oder der Zugriff ist erforderlich, um Nutzerprofile zu erstellen, um Werbung zu versenden oder um den Nutzer auf einer Website oder über mehrere Websites hinweg zu ähnlichen Marketingzwecken zu verfolgen.
Optionen verwalten Dienste verwalten Verwalten Sie {vendor_count} Lieferanten Lesen Sie mehr über diese Zwecke
Einstellungen
{title} {title} {title}