Results

University of Zürich

03/11/2026 | News release | Distributed by Public on 03/12/2026 04:17

Wie KI besser Neues lernt

Wie KI besser Neues lernt | UZH News | UZH

Header

Quicklinks

Suche

Hauptnavigation

  • Mehr
    Menü schliessen
  1. Home
  2. Alle Artikel
  3. Wie KI besser Neues lernt
11.03.2026 Brainfair 2026

Wie KI besser Neues lernt

Heutige KI hat Mühe, komplexe Zusammenhänge zu verstehen. Benjamin Grewe möchte das ändern und lässt sich dabei von der Biologie inspirieren. An der kommenden Brainfair diskutiert der Neuroinformatiker zum Thema «Gehirn und Computer».
Interview: Roger Nickl
Hund oder Katze? Aktuelle KI lernt wenig effizient, sagt Neuroinformatiker Benjamin Grewe. (Bild: iStock/FatCamera)

Benjamin Grewe, Sie nehmen an der kommenden Brainfair an einer Diskussion zum Thema «Das Gehirn und der Computer - Wechselwirkungen zwischen KI und Neurowissenschaften» teil. Sie selbst erforschen an der UZH und an der ETH Zürich neuronales Lernen und intelligente Systeme. Wie intelligent sind heutige künstliche Intelligenzen - zum Beispiel ChatGPT und vergleichbare Programme?

Benjamin Grewe: Aktuelle KI ist schon beeindruckend. Ich benutze solche Systeme täglich: zum Brainstormen, zum Zusammenfassen von Texten oder um auf neue Ideen und Lösungsvorschläge zu kommen. In diesem Sinne machen sie mich effektiver und gewissermassen auch schlauer. Aber KI kann keine Aufgaben komplett eigenständig erledigen. Ich glaube, wir sind derzeit beim ersten Level wirklich interessanter künstlicher Intelligenz angekommen. Gleichzeitig sind wir noch weit davon entfernt, dass diese Systeme mit der menschlichen Intelligenz vergleichbar wären.

Was können wir, was KI nicht kann?

Grewe: In gewisser Hinsicht wissen diese Systeme heute schon mehr als wir - zumindest was die Breite des Wissens betrifft. Sie verfügen über Informationen aus vielen Fachgebieten. Zum Beispiel können sie Dinge über Chemie wissen, von denen wir noch nie gehört haben. Aber sobald es darum geht, komplexe Zusammenhänge wirklich zu begreifen, geraten sie an ihre Grenzen. Beispielsweise, wenn es darum geht, Konzepte - etwa Objekte wie Autos oder Personen, Handlungen oder ganze Szenen - zu verstehen. Menschen können solche Elemente miteinander verbinden und daraus eine Situation erklären oder Vorhersagen ableiten. Genau da versagen heutige KI-Systeme häufig. Deshalb gibt es auch dieses Phänomen der Halluzinationen. Wahrscheinlich haben das alle schon erlebt: Das System produziert eine Antwort, die sprachlich völlig korrekt wirkt. Grammatik, Stil - alles passt. Aber wenn man genauer hinschaut, merkt man, dass die Zusammenhänge nicht stimmen. Meiner Meinung nach liegt das an der Art und Weise, wie diese Systeme trainiert werden.

Inwiefern?

Grewe: Man muss sich vorstellen, dass hinter fast allen heutigen KI-Systemen ein Trainingsalgorithmus steckt. Man definiert eine Aufgabe und eine Funktion, die misst, wie gut diese Aufgabe erfüllt wird. Diese Funktion dient als Ziel. Dann trainiert man das Netzwerk - das aus Millionen von Parametern besteht - so lange, bis diese Zielgrösse möglichst gut erreicht wird. Das Problem ist: Je nach Aufgabe kann das System völlig unterschiedliche Dinge lernen. Zum Beispiel kann es lernen, einen Hund in einem Bild zu erkennen oder eine Katze. Aber dabei werden jedes Mal alle Parameter im Netzwerk angepasst. Überträgt man das auf das menschliche Gehirn, würde das bedeuten, dass bei jeder neuen Aufgabe jede Synapse im Gehirn lernt. Und das ergibt für mich überhaupt keinen Sinn.

Das scheint wenig effizient zu sein.

Grewe: Ich erkläre das manchmal mit einem Bild aus der Technik. Ein normaler Automotor hat viele einzelne Komponenten - etwa Kolben, Vergaser oder eine Benzinpumpe. Jede dieser Komponenten hat eine klar definierte Funktion. Stellen Sie sich jetzt einen Motor vor, bei dem jedes einzelne Bauteil gleichzeitig jede Funktion erfüllt. In diesem Fall wäre es enorm schwierig herauszufinden, welches Teil wofür zuständig ist. Und wenn jemand eine Komponente austauschen oder überprüfen will, müsste er im Prinzip den gesamten Motor verändern. Im Gehirn funktioniert das nicht so. Für die meisten Aufgaben nutzen wir nur einen kleinen Teil unserer neuronalen Ressourcen. Wenn wir beispielsweise eine Matheaufgabe lösen, aktivieren wir bestimmte Funktionen. Andere Teile des Gehirns bleiben dabei ungenutzt. Bei heutiger KI passiert dagegen häufig genau das Gegenteil: Es wird immer das gesamte System verwendet.

Ich glaube, dass wir in fünf bis zehn Jahren intelligente Systeme sehen werden, die komplexe Sachverhalte genauso gut oder sogar besser erklären können als Menschen.

Benjamin Grewe
Neuroinformatiker

Also braucht es künstliche neuronale Netzwerke, die arbeitsteiliger sind?

Grewe: Genau. Wir brauchen Netzwerke mit spezialisierten Subsystemen. Bestimmte Teile sollten Experten für bestimmte Funktionen sein. Wenn wir eine neue Aufgabe bekommen oder eine Frage gestellt wird, müsste das System zunächst entscheiden: Welche Teile meines Netzwerks sind dafür relevant? Erst dann sollten die Informationen dort verarbeitet werden. Und wenn das System dabei etwas Neues lernt, sollte auch nur dieser Teil verbessert werden - nicht das gesamte Netzwerk.

Was bedeutet das für die Weiterentwicklung von KI?

Grewe: Es braucht etwas grundsätzlich Neues - daran arbeiten wir. Wir müssen uns vom heute dominierenden Backpropagation-Algorithmus lösen - dem Verfahren also, das praktisch alle grossen KI-Systeme verwenden. Dieser Algorithmus hat beeindruckende Ergebnisse geliefert, aber ich glaube, dass das langfristig nicht der richtige Weg ist.

Sie forschen an der Schnittstelle von Biologie und Neuroinformatik. Was können wir von Säugetierhirnen für die Entwicklung künstlicher neuronaler Netzwerke lernen?

Grewe: Eine wichtige Frage ist: Wenn die heutigen Machine-Learning-Methoden nicht optimal sind - was ist dann die Alternative dazu? Eine Möglichkeit ist, sich stärker am Gehirn zu orientieren. Unsere neuen Algorithmen sind deshalb von biologischen Prinzipien inspiriert. Diese Algorithmen arbeiten mit einfachen, lokalen Lernregeln und nicht mehr mit globalen Differenzierungen wie beim klassischen Deep Learning. Moment interessieren uns insbesondere die Pyramidenzellen in der Grosshirnrinde, dem Cortex.

Weshalb?

Grewe: Der Cortex macht etwa 80 Prozent unseres Gehirns aus. Viele Forschende vermuten, dass unsere hohe Intelligenz unter anderem damit zusammenhängt, dass dieser Bereich so gross ist. Pyramidenzellen sind eine spezielle Zellart im Cortex. Sie haben eine interessante Eigenschaft: Sie können Informationen aus unterschiedlichen Ebenen miteinander verbinden. Sie erhalten einerseits Eingänge aus höheren Hirnarealen, die abstrakte Konzepte repräsentieren. Gleichzeitig bekommen sie Signale aus sensorischen Bereichen - etwa visuelle Informationen, die über Auge und Thalamus ins Gehirn gelangen. Dadurch können sie eine Verbindung herstellen zwischen dem, was wir sehen, und den abstrakten Konzepten, mit denen wir diese Wahrnehmung erklären.

Die Pyramidenzellen sind also gewissermassen Schnittstellenneuronen?

Grewe: Ja, und diese Verbindung findet über mehrere Hierarchieebenen hinweg statt. So können zum Beispiel Szenen durch wenige abstrakte Konzepte erklärt werden. Das ist vermutlich auch entscheidend dafür, dass Menschen neue Situationen verstehen können. Selbst wenn wir eine Szene noch nie genau so gesehen haben, können wir sie aus bekannten Konzepten zusammensetzen. Wir sprechen in diesem Zusammenhang auch von Corner Cases. Das sind Situationen, in denen bekannte Elemente in einer neuen Kombination auftreten. Für ein autonomes Fahrzeug kann das problematisch sein: Wenn es eine bestimmte Kombination von Ereignissen noch nie gesehen hat, kann das System versagen. Wenn man dagegen die zugrunde liegenden Konzepte versteht, kann man eine neue Situation aus bereits bekannten Konzepten zusammensetzen.

Wo stehen die von Ihnen entwickelten Systeme heute?

Grewe: Wir sind noch ganz am Anfang. Im Moment testen wir unsere neuronalen Netzwerke mit relativ einfachen Aufgaben. Ein Beispiel ist das sogenannte N-Body-Problem: mehrere Körper, die sich durch Gravitation gegenseitig beeinflussen. Unsere Systeme können vorhersagen, wie sich diese Körper im Raum bewegen. Klassische Machine-Learning-Systeme können das auch - aber sie versagen oft, wenn man die Bedingungen leicht verändert, etwa einen Körper entfernt oder Kräfte anders kombiniert. Unsere Systeme lernen dagegen separate Module für unterschiedliche Konzepte: etwa für Gravitation oder für einzelne Körper. Dadurch können sie flexibel kombinieren und neue Situationen besser modellieren.

Wie sehen Sie die längerfristige Entwicklung: Werden sich biologische und künstliche Intelligenz immer mehr annähern?

Grewe: Ich glaube, dass wir in fünf bis zehn Jahren intelligente Systeme sehen werden, die komplexe Sachverhalte genauso gut oder sogar besser erklären können als Menschen. Gleichzeitig werden sie über ein sehr breites Wissen verfügen. Wir werden zunächst mit ihnen zusammenarbeiten und sie anleiten. Irgendwann könnten sie uns in bestimmten Bereichen übertreffen.

Die Brain Fair steht unter dem Motto «20 Jahre Fortschritte in der Hirnforschung». Was waren für Sie die wichtigsten Entwicklungen dieser Zeit?

Grewe: Mich haben besonders Studien interessiert, die Parallelen zwischen Deep Learning und Gehirnfunktionen untersucht haben. Unsere eigene Forschung argumentiert allerdings, dass das Gehirn vermutlich kein klassisches Deep Learning betreibt.

Was sind in den Neurowissenschaften die grossen offenen Fragen zu KI und Gehirn?

Grewe: Für mich persönlich ist die wichtigste Frage: Wie funktioniert der Lernalgorithmus des Gehirns auf konzeptueller Ebene? Ich muss nicht jedes molekulare Detail verstehen. Aber ich möchte den Mechanismus so gut verstehen, dass man ihn auf Computerhardware nachbilden kann. Wenn uns das gelingt, könnten wir Systeme entwickeln, die unsere Welt wirklich verstehen - ohne Halluzinationen und mit einem echten Verständnis von Konzepten.

Was würde das für Anwendungen bedeuten?

Grewe: Die KI-Revolution hat gezeigt, dass solche Systeme in vielen Bereichen nützlich sind: von Chatbots über autonome Fahrzeuge bis hin zu Robotik und Prozessautomatisierung. Wenn wir Algorithmen entwickeln, die unsere Welt wirklich verstehen und Konzepte korrekt miteinander verknüpfen, könnten sie noch viel leistungsfähiger werden. Zurzeit ist das Vertrauen in KI nicht sehr gross. Mit verlässlicheren Systemen könnte sich das ändern. Künftig können wir vielleicht virtuelle Assistenten entwickeln, die auf einem ähnlichen Niveau arbeiten wie gute menschliche Assistent:innen oder Forscher:innen.

Interview: Roger Nickl

Weitere Informationen

Die Brainfair 2026 von UZH und ETHZ findet vom 16. bis zum 23. März und bietet Diskussionsforen und Vorträge im Universitätsspital Zürich.

Prof. Benjamin Grewe

Footer

Weiterführende Links

© 2023 Universität Zürich

Bild Overlay schliessen
Video Overlay schliessen
[%=content%] [%=content%] [%=content%]
zurück
[%=content%]
Menu schliessen
[%=text%]
zurück
[%=content%]
University of Zürich published this content on March 11, 2026, and is solely responsible for the information contained herein. Distributed via Public Technologies (PUBT), unedited and unaltered, on March 12, 2026 at 10:17 UTC. If you believe the information included in the content is inaccurate or outdated and requires editing or removal, please contact us at [email protected]