News

Künstliche Intelligenz: Die Frage nach Verantwortung

30.09.2021

Felicia Kuckertz forschte als Philosophie-Studentin zu moralischer Verantwortung im Bereich der Künstlichen Intelligenz und wurde mit einem LMU-Forschungspreis für exzellente Studierende ausgezeichnet.

Ein Militärroboter steuert in den Urwald. Er hat den Auftrag, einen Terror-Anführer zu „neutralisieren“. Stattdessen tötet die autonome Maschine eine Gruppe Kinder. Wem lässt sich hierfür moralische Verantwortung zuschreiben? Dem Militärroboter selbst, den Entwicklerinnen und Entwicklern, der Befehlshabenden, der Politik, der Regierung, der Gesellschaft oder vielleicht sogar niemandem? Dieser Frage nähert sich Felicia Kuckertz in ihrer Abschlussarbeit im Fach Philosophie.

Technologische Innovationen, insbesondere im Bereich der Künstlichen Intelligenz, bringen zahlreiche Herausforderungen mit sich – wie die Frage nach (moralischer) Verantwortung für deren Auswirkungen. Aktuell steht diesbezüglich vor allem die Thematik autonom fahrender Autos im Zentrum öffentlicher Diskussionen. Beiträge zum Diskurs rund um den Einsatz Künstlicher Intelligenzen stammen jedoch nicht nur aus der Informatik oder den Ingenieurswissenschaften, sondern auch aus der Philosophie.

Wo trifft das Thema der Künstlichen Intelligenz auf die Philosophie?

© Felicia Kuckertz

Im Fall von Felicia Kuckertz im Bereich der praktischen Philosophie. Genauer fiel im Rahmen ihrer Forschungsvertiefung die Wahl auf Computer Ethik. „Im Zuge dessen habe ich diverse Essays und Hausarbeiten geschrieben und gemerkt, dass mich das Thema rund um Verantwortung und Technik wirklich interessiert“. Entsprechend war der Schritt zur Bachelorarbeit nicht weit. „Es ist doch wahnsinnig spannend, wie neue Technologien traditionelle Begriffe wie etwa den Verantwortungsbegriff, von dem wir in der Philosophie eine vermeintlich klare Vorstellung haben, ins Wanken bringen können“, schwärmt Felicia. Und das war dann auch der auslösende Gedanke zu ihrer Abschlussarbeit: Wem lässt sich die moralische Verantwortung zuschreiben, wenn KI-gesteuerte Maschinen oder Roboter Schaden anrichten? „Um meine Gedanken besser durchexerzieren zu können, habe ich mich schließlich bewusst für das Extrembeispiel potentiell tötender Militärroboter entschieden“, erklärt sie.

Wann und wem lässt sich moralische Verantwortung zuschreiben, wenn eine KI-gesteuerte Maschine Schaden anrichtet?

Felicia Kuckertz entwickelt in ihrer Arbeit neben eigenen Ansätzen bereits bestehende philosophische Ansätze weiter, die Basis bildet dabei insbesondere der Ansatz des emeritierten LMU-Philosophen Professor Julian Nida-Rümelin. „Vor dem Hintergrund dieses Verantwortungsbegriffs und dessen Voraussetzungen bin ich zu dem Schluss gekommen, dass der KI-gesteuerte Militärroboter aus meinem hypothetischen Szenario selbst keine moralische Verantwortung tragen kann“, so Felicia Kuckertz. Wer also dann? Keine triviale Frage, über deren Antwort die Meinungen in der Philosophie stark auseinander gehen. „Ein zentraler Text, der sich ebendieser Frage widmet und an dem sich meine Argumentation abarbeitet, postuliert zum Beispiel, dass in dem Szenario des autonom handelnden Militärroboters niemand die moralische Verantwortung für das Geschehen tragen kann“, erklärt Felicia Kuckertz, es bestünde also eine Verantwortungslücke.

Aber wäre als Ergebnis einer Verantwortungslücke nicht Chaos vorprogrammiert? „Das war tatsächlich eine Motivation meiner Arbeit, Argumente gegen den meines Erachtens unbefriedigenden Gedanken einer Verantwortungslücke zu finden“, nickt Felicia Kuckertz.


Daher entwickelt sie im weiteren Verlauf ihrer Arbeit diverse Argumente für die moralische Verantwortung derjenigen, die am Entwicklungsprozess eines KI-gestützten Roboters beteiligt sind sowie derjenigen, die seinen militärischen Einsatz ermöglichen, um – auf einen Austausch mit Ihrem Betreuer aus der politischen Philosophie hin – schließlich sogar die Politik, Regierungen und die Gesellschaft in die Argumentation miteinzubeziehen.

„Ich konnte schließlich zeigen, dass all diesen Gruppen aus dem einen oder anderen Grund moralische Verantwortung zugeschrieben werden kann“, erklärt sie. „Im Endeffekt hat sich also herausgestellt, dass nicht die mögliche Verantwortungslücke eine Herausforderung im Hinblick auf den Einsatz eines solchen KI-gestützten Militärroboters darstellt, sondern die Vielzahl an Gruppen und Personen, denen begründet moralische Verantwortung zugeschrieben werden kann, weshalb die moralische Verantwortung sich gegebenenfalls zerstreut.“

Wonach suchen Sie?