News

Beratende KI-Assistenten: In die Verantwortung genommen

30.08.2023

Auch wenn Menschen KI-basierte Assistenten als reine Werkzeuge betrachten, schreiben sie ihnen Mitverantwortung für Entscheidungen zu, wie eine neue Studie zeigt.

© IMAGO / Westend61

In Zukunftsszenarien navigieren KI-basierte Systeme autonome Fahrzeuge völlig selbstständig durch den Verkehr. Experimentelle Ergebnisse haben gezeigt, dass solche futuristischen KI-Systeme von Probandinnen und Probanden als ebenso verantwortlich wie Menschen eingestuft werden, wenn sie eigenständig Verkehrsentscheidungen treffen. Von dieser Art von Autonomie sind derzeit gängige KI-Assistenten jedoch weit entfernt. Sie versorgen menschliche Nutzerinnen und Nutzer lediglich mit unterstützenden Informationen wie Navigations- und Fahrhilfen. Wer ist also in diesen alltäglichen Fällen verantwortlich, wenn etwas richtig oder falsch läuft? Der menschliche Nutzer? Oder der KI-Assistent? Ein Team um Louis Longin vom Lehrstuhl für Philosophy of Mind hat nun eben diese Fragen untersucht.

„Wir alle haben intelligente Assistenten in unseren Taschen", sagt Longin. „Aber ein Großteil der experimentellen Ergebnisse, die wir zu Verantwortungslücken haben, konzentriert sich auf Roboter oder autonome Fahrzeuge, bei denen die KI buchstäblich auf dem Fahrersitz sitzt und für uns entscheidet. Die Untersuchung von Fällen, in denen wir zwar immer noch die endgültigen Entscheidungen treffen, die KI aber eher wie ein ausgeklügeltes Instrument einsetzen, ist daher wichtig.“

Der auf die Interaktion zwischen Mensch und KI spezialisierte Philosoph Longin untersuchte gemeinsam mit seinen Kollegen Dr. Bahador Bahrami und Professorin Ophelia Deroy, Inhaberin des Lehrstuhls für Philosophy of Mind, wie 940 Versuchspersonen einen menschlichen Fahrer beurteilten, der entweder einen intelligenten KI-gestützten verbalen Assistenten, einen intelligenten KI-gestützten taktilen Assistenten oder ein KI-freies Navigationsinstrument benutzte. Zudem gaben die Teilnehmenden an, ob sie die Navigationshilfe als verantwortlich oder als bloßes Hilfsmittel einschätzten.

Ambivalenter Status von KI-Assistenten

Die Ergebnisse zeigen eine Ambivalenz auf: Einerseits wurden die intelligenten Assistenten nur als Hilfsmittel betrachtet, andererseits wurde ihnen aber auch Mitverantwortung für den Erfolg oder Misserfolg der menschlichen Fahrer zugeschrieben. Bei der nicht von einer KI gesteuerten Navigationshilfe dagegen gab es keine derartige Aufteilung der Verantwortung.

Nicht weniger überraschend für die Autoren war, dass die intelligenten Assistenten eher für positive als für negative Ereignisse verantwortlich gemacht wurden. „Die Menschen legen vielleicht unterschiedliche moralische Maßstäbe für Lob und Tadel an. Wenn ein Unfall abgewendet wird und kein Schaden entsteht, werden die Standards gelockert. Dadurch weisen Menschen nichtmenschlichen Systemen eher Lob als Tadel zu", vermutet Bahrami, Experte für kollektive Verantwortung.

Sprache spielt keine Rolle

In der Studie fanden die Autoren keinen Unterschied zwischen intelligenten Assistenten, die Sprache verwendeten, und solchen, die ihre Nutzer nur durch ein taktiles Vibrieren des Rads alarmierten. „Beide lieferten in diesem Fall die gleichen Informationen: ,Hey, Vorsicht, da vorne ist etwas‘", sagt Ophelia Deroy, die die widersprüchliche Haltung von Menschen gegenüber Künstlicher Intelligenz als eine Form animistischen Glaubens erforscht. Neuartige sprachbasierte KI-Systeme wie ChatGPT lieferten in der Praxis jedoch viel mehr Informationen. „Je reichhaltiger die Interaktion ist, desto einfacher ist es, sie zu vermenschlichen", sagt Deroy.

„Zusammenfassend lässt sich sagen, dass unsere Ergebnisse die Idee unterstützen, dass KI-Assistenten als etwas mehr als bloße Empfehlungswerkzeuge angesehen werden, aber dennoch weit von menschlichen Standards entfernt bleiben", sagt Longin.

Die Autoren sind überzeugt, dass die Ergebnisse der neuen Studie weitreichende Auswirkungen auf die Gestaltung und den gesellschaftlichen Diskurs rund um KI-Assistenten haben werden: „Auch bei der Entwicklung und dem Einsatz intelligenter Assistenten sollte deren Einfluss auf soziale und moralische Normen berücksichtigt werden", schließt Longin.

Wonach suchen Sie?