Künstliche Intelligenz (KI) begegnet uns inzwischen fast überall – von Sprachassistenten bis hin zu komplexen Entscheidungssystemen erleichtert sie in vielen Bereichen unseren Alltag. Oft ist es aber schwierig, die von KI getroffenen Entscheidungen nachzuvollziehen. Im Sonderforschungsbereich/Transregio (TRR) 318 ?Constructing Explainability“ der Universit?ten Paderborn und Bielefeld arbeiten Forscher*innen deshalb daran, Erkl?rprozesse für Anwender*innen verstehbarer zu machen. Aber: Brauchen alle Nutzer*innen immer dieselben Informationen? Und wie kann eine KI erkennen, welche Informationen Nutzer*innen überhaupt zum Verstehen brauchen? Mit diesen Fragen besch?ftigt sich die Synthesegruppe ?Understanding“ des TRR 318. Sie ist eine von sechs übergreifenden Gruppen, die zentrale Aspekte des Forschungsvorhabens interdisziplin?r zusammenführen.
?Das Ziel von Erkl?rungen ist – in der Regel –, dass Menschen am Ende etwas verstehen“, sagt Prof. Dr. Heike M. Buhl, Professorin für P?dagogische Psychologie und Entwicklungspsychologie an der Universit?t Paderborn. Der Fokus ihrer Forschung in der Synthesegruppe liegt auf der Unterscheidung zwischen zwei Hauptaspekten des Verstehens als Ergebnis des Erkl?rprozesses: dem konzeptuellen Wissen (?Wissen, dass…“) und der Handlungsf?higkeit (?Wissen, wie…“). Im Rahmen ihrer interdisziplin?ren Forschung, die Computerwissenschaften, Linguistik, Soziologie und Psychologie vereint, differenziert die Gruppe zudem zwischen oberfl?chlichem und tiefem Verst?ndnis und untersucht deren Dynamiken im Alltag.
Manchmal reicht es, zu wissen, wie etwas angewendet werden muss (z. B. ?Wenn Du auf den Schalter drückst, dann geht das Licht an“). In anderen F?llen braucht es ein tieferes Verst?ndnis dafür, warum etwas passiert (z. B. ?Durch Bet?tigen des Schalters wird der Stromkreis geschlossen und das Licht geht an“). Genau diese Unterschiede spielen auch bei der Nutzung von KI-Systemen eine gro?e Rolle. ?Wenn eine künstliche Intelligenz in einer Alltagssituation ohne besondere Relevanz genutzt wird, reicht den meisten Nutzer*innen ein oberfl?chliches Verst?ndnis“, so Prof. Buhl, die Mitglied des Organisationsteams der Synthesegruppe ist. Um das einzuordnen, dürfe die KI nicht einfach nur Text ausgeben, sondern müsse im Idealfall auch die (non-)verbalen Rückmeldungen der Nutzer*innen deuten k?nnen.
Die Forschenden des TRR 318 sehen deshalb Erkl?rbarkeit als interaktiven Prozess: In der Mensch-zu-Mensch-Kommunikation entsteht Verst?ndnis schrittweise, durch Nachfragen und Folgeerkl?rungen. KI-Systeme müssten also ebenfalls flexibel reagieren und ihre Erkl?rungen anpassen k?nnen. ?Unsere Ergebnisse aus der Synthesegruppe zeigen, dass nicht nur die Ziele von KI-Nutzer*innen in Erkl?rsituationen ganz unterschiedlich sein k?nnen, sondern auch die Wege zum Verst?ndnis. Sie sind zum Beispiel abh?ngig vom Vorwissen oder dem konkreten Interesse der Nutzer*innen“, erkl?rt Prof. Buhl.
Indem der TRR 318 die unterschiedlichen Bedürfnisse und Vorkenntnisse der Nutzer*innen in den Mittelpunkt stellt, ebnet er den Weg für eine KI, die nicht nur leistungsf?hig, sondern auch nutzerfreundlich ist – eine KI, die versteht, dass Erkl?rbarkeit immer auch eine Frage der Perspektive ist.