Universität Paderborn

09/15/2025 | Press release | Distributed by Public on 09/15/2025 01:25

Das Ver­ste­hen als Ziel: Wis­sen­schaft­le­r*in­nen ent­wi­ckeln Kon­zept für er­klär­ba­re künst­li­che In­tel­li­genz

Künstliche Intelligenz (KI) begegnet uns inzwischen fast überall - von Sprachassistenten bis hin zu komplexen Entscheidungssystemen erleichtert sie in vielen Bereichen unseren Alltag. Oft ist es aber schwierig, die von KI getroffenen Entscheidungen nachzuvollziehen. Im Sonderforschungsbereich/Transregio (TRR) 318 "Constructing Explainability" der Universitäten Paderborn und Bielefeld arbeiten Forscher*innen deshalb daran, Erklärprozesse für Anwender*innen verstehbarer zu machen. Aber: Brauchen alle Nutzer*innen immer dieselben Informationen? Und wie kann eine KI erkennen, welche Informationen Nutzer*innen überhaupt zum Verstehen brauchen? Mit diesen Fragen beschäftigt sich die Synthesegruppe "Understanding" des TRR 318. Sie ist eine von sechs übergreifenden Gruppen, die zentrale Aspekte des Forschungsvorhabens interdisziplinär zusammenführen.

"Das Ziel von Erklärungen ist - in der Regel -, dass Menschen am Ende etwas verstehen", sagt Prof. Dr. Heike M. Buhl, Professorin für Pädagogische Psychologie und Entwicklungspsychologie an der Universität Paderborn. Der Fokus ihrer Forschung in der Synthesegruppe liegt auf der Unterscheidung zwischen zwei Hauptaspekten des Verstehens als Ergebnis des Erklärprozesses: dem konzeptuellen Wissen ("Wissen, dass…") und der Handlungsfähigkeit ("Wissen, wie…"). Im Rahmen ihrer interdisziplinären Forschung, die Computerwissenschaften, Linguistik, Soziologie und Psychologie vereint, differenziert die Gruppe zudem zwischen oberflächlichem und tiefem Verständnis und untersucht deren Dynamiken im Alltag.

Manchmal reicht es, zu wissen, wie etwas angewendet werden muss (z. B. "Wenn Du auf den Schalter drückst, dann geht das Licht an"). In anderen Fällen braucht es ein tieferes Verständnis dafür, warum etwas passiert (z. B. "Durch Betätigen des Schalters wird der Stromkreis geschlossen und das Licht geht an"). Genau diese Unterschiede spielen auch bei der Nutzung von KI-Systemen eine große Rolle. "Wenn eine künstliche Intelligenz in einer Alltagssituation ohne besondere Relevanz genutzt wird, reicht den meisten Nutzer*innen ein oberflächliches Verständnis", so Prof. Buhl, die Mitglied des Organisationsteams der Synthesegruppe ist. Um das einzuordnen, dürfe die KI nicht einfach nur Text ausgeben, sondern müsse im Idealfall auch die (non-)verbalen Rückmeldungen der Nutzer*innen deuten können.

Die Forschenden des TRR 318 sehen deshalb Erklärbarkeit als interaktiven Prozess: In der Mensch-zu-Mensch-Kommunikation entsteht Verständnis schrittweise, durch Nachfragen und Folgeerklärungen. KI-Systeme müssten also ebenfalls flexibel reagieren und ihre Erklärungen anpassen können. "Unsere Ergebnisse aus der Synthesegruppe zeigen, dass nicht nur die Ziele von KI-Nutzer*innen in Erklärsituationen ganz unterschiedlich sein können, sondern auch die Wege zum Verständnis. Sie sind zum Beispiel abhängig vom Vorwissen oder dem konkreten Interesse der Nutzer*innen", erklärt Prof. Buhl.

Indem der TRR 318 die unterschiedlichen Bedürfnisse und Vorkenntnisse der Nutzer*innen in den Mittelpunkt stellt, ebnet er den Weg für eine KI, die nicht nur leistungsfähig, sondern auch nutzerfreundlich ist - eine KI, die versteht, dass Erklärbarkeit immer auch eine Frage der Perspektive ist.

Universität Paderborn published this content on September 15, 2025, and is solely responsible for the information contained herein. Distributed via Public Technologies (PUBT), unedited and unaltered, on September 15, 2025 at 07:25 UTC. If you believe the information included in the content is inaccurate or outdated and requires editing or removal, please contact us at [email protected]