Universität Bielefeld

09/15/2025 | Press release | Distributed by Public on 09/15/2025 04:47

Menschen und Maschinen lernen anders

Wie gelingt es Menschen, sich auf völlig neue Situationen einzustellen und warum tun sich Maschinen damit oft so schwer? Diese zentrale Frage untersuchen Forschende aus Kognitionswissenschaft und Künstlicher Intelligenz (KI) in einem gemeinsamen Fachbeitrag, der in der Zeitschrift Nature Machine Intelligence erscheint. An der Publikation beteiligt sind auch die Professor*innen Dr. Barbara Hammer und Dr. Benjamin Paaßen von der Universität Bielefeld.

"Wenn wir KI-Systeme in den Alltag integrieren wollen, sei es in der Medizin, im Verkehr oder bei der Entscheidungsfindung, müssen wir verstehen, wie diese Systeme mit dem Unbekannten umgehen", sagt Barbara Hammer, Leiterin der Arbeitsgruppe Maschinelles Lernen an der Universität Bielefeld. "Unsere Studie zeigt, dass Maschinen anders verallgemeinern als Menschen und das ist entscheidend für den Erfolg künftiger Mensch-KI-Zusammenarbeit."

© TRR 318 und Sarah Jonek

Die Professor*innen Dr. Benjamin Paaßen und Dr. Barbara Hammer von der Universität Bielefeld sind an der Veröffentlichung beteiligt.

Unterschiede zwischen Mensch und Maschine

Der Fachbegriff "Generalisierung" beschreibt die Fähigkeit, aus bekannten Informationen sinnvolle Schlüsse auf unbekannte Situationen zu ziehen, also Wissen flexibel auf neue Probleme anzuwenden. In der Kognitionswissenschaft meint das oft konzeptuelles Denken und Abstraktion. In der KI-Forschung ist Generalisierung dagegen ein Sammelbegriff für ganz unterschiedliche Prozesse: vom maschinellen Lernen außerhalb bekannter Datenbereiche ("Out-of-Domain-Generalization") über regelbasiertes Erschließen in symbolischen Systemen bis hin zur sogenannten neurosymbolischen KI, die Logik und neuronale Netze kombiniert.

"Die größte Herausforderung ist, dass 'Generalisierung' für Mensch und KI-Systeme völlig unterschiedliche Dinge bedeutet", erklärt Benjamin Paaßen, in Bielefeld Juniorprofessor für Wissensrepräsentation und Maschinelles Lernen. "Deshalb war es uns wichtig, eine gemeinsame Landkarte zu entwickeln. Entlang der drei Dimensionen: Was verstehen wir unter Generalisierung? Wie wird sie erreicht? Und wie lässt sie sich bewerten?"

Bedeutung für die Zukunft der KI

Die Veröffentlichung ist das Ergebnis einer interdisziplinären Zusammenarbeit von mehr als 20 Expert*innen aus international führenden Forschungseinrichtungen, unter anderem der Universitäten Bielefeld, Bamberg, Amsterdam und London. Ausgangspunkt war ein gemeinsamer Workshop am Leibniz-Zentrum für Informatik auf Schloss Dagstuhl, der von Barbara Hammer mitorganisiert wurde.

Das Projekt zeigt auch, wie wichtig der Brückenschlag zwischen Kognitionswissenschaft und KI-Forschung ist. Denn nur durch ein vertieftes Verständnis der Unterschiede und Gemeinsamkeiten können KI-Systeme künftig so gestaltet werden, dass sie menschliche Werte und Entscheidungslogiken besser nachvollziehen und unterstützen.

Die Forschung entstand im Rahmen des Verbundprojekts SAIL - Sustainable Life-Cycle of Intelligent Socio-Technical Systems. SAIL untersucht, wie sich KI über ihren gesamten Lebenszyklus nachhaltig, transparent und menschenorientiert gestalten lässt. Gefördert wird das Projekt vom Ministerium für Kultur und Wissenschaft des Landes Nordrhein-Westfalen.

Originalveröffentlichung

Filip Ilievski, Barbara Hammer, Frank van Harmelen, Benjamin Paassen, Sascha Saralajew, Ute Schmid, Michael Biehl, Marianna Bolognesi, Xin Luna Dong, Kiril Gashteovski, Pascal Hitzler, Giuseppe Marra, Pasquale Minervini, Martin Mundt, Axel-Cyrille Ngonga Ngomo, Alessandro Oltramari, Gabriella Pasi, Zeynep G. Saribatur, Luciano Serafini, John Shawe-Taylor, Vered Shwartz, Gabriella Skitalinskaya, Clemens Stachl, Gido M. van de Ven, Thomas Villmann: Aligning Generalisation Between Humans and Machines. In: Nature Machine Intelligence. DOI: https://doi.org/10.1038/s42256-025-01109-4. Veröffentlicht am 15.09.2025.

Universität Bielefeld published this content on September 15, 2025, and is solely responsible for the information contained herein. Distributed via Public Technologies (PUBT), unedited and unaltered, on September 15, 2025 at 10:47 UTC. If you believe the information included in the content is inaccurate or outdated and requires editing or removal, please contact us at [email protected]