News

Von Pflegerobotern bis zu militärischen Drohnen – Ethische Herausforderungen durch KI

07.12.2021

Am 14. Dezember diskutieren LMU-Wissenschaftlerinnen und Wissenschaftler im Rahmen der KI Lectures über ethische Aspekte der KI-Technologie.

Logo der KI Lectures

Anwendungen, die auf Künstlicher Intelligenz (KI) basieren, gehören bereits jetzt zum Alltag und beeinflussen zunehmend unser Handeln. Ihre Nutzung wirft essenzielle ethische Fragen auf, etwa nach der Verantwortung für die Handlungen autonomer KI-Systeme. Wie ist der Einsatz KI-gesteuerter Roboter beispielsweise in der Pflege zu bewerten? Ist es überhaupt möglich, eine „moralische KI“ zu gestalten, und welche theoretischen Ansätze werden hierzu in der Forschung diskutiert?

Im Rahmen der „KI Lectures“ diskutieren Fiorella Battaglia, Timo Greger und Felicia Kuckertz über ihre Erkenntnisse und Ansätze zu den ethischen Herausforderungen Künstlicher Intelligenz. Die Moderation übernimmt Martin Wirsing, Professor für Informatik und gefragter Experte im Bereich Programmierung, Softwaretechnik und -Entwicklung.

Diskussion

Prof. Dr. Dr. h.c. Martin Wirsing (Moderation), PD Dr. Fiorella Battaglia, Dipl. sc. pol. Univ. Timo Greger (M.A.), Felicia Kuckertz (B.A.): „Von Pflegerobotern bis zu militärischen Drohnen – Ethische Herausforderungen durch Künstliche Intelligenz"

Dienstag, 14.12.2021, 18.15-19.45 Uhr

Zur Anmeldung: Um an der Veranstaltung teilzunehmen, können Sie sich hier registrieren

Weitere Informationen über die „KI Lectures“ finden Sie hier.
Kontakt: ringvorlesung-lmu@lmu.de

Drei Fragen an die Wissenschaftlerinnen und Wissenschaftler

Frau Battaglia, Sie beschäftigen sich mit algorithmischen Vorschlagssystemen zur Vorhersage von Handlungen. Ist der Mensch berechenbar?

Fiorella Battaglia: Der Mensch hat eine zwiespältige Haltung gegenüber seiner eigenen Berechenbarkeit. Er sucht und bestreitet sie gleichzeitig. Dies gilt umso mehr, seit Wissenschaft und Technik eingreifen können, um Vorhersagen zu erstellen. Zum einen ist die Verwendung von Informationen, die wir haben, um Informationen zu generieren, die wir nicht haben, das Ziel der Wissenschaft überhaupt. Zum anderen scheint der freie Wille der Menschen keiner Regel unterworfen zu sein, nach welcher man die Zahl und die Qualität der menschlichen Handlungen im Voraus durch Rechnung bestimmen könnte. Es gilt zu unterscheiden zwischen Situationen, in denen vorausschauende Arbeit legitim ist und uns tatsächlich helfen kann, Ereignisse zu prognostizieren, die wir vermeiden wollen, wie zum Beispiel Krankheiten, und Situationen, in denen die menschlichen Handlungen nicht nach Algorithmen bestimmt werden können. Dies gilt etwa im Fall von reflektierten Handlungen wie der Wahl des Studiengangs, bei der Partnerwahl oder auch bei der Wahl einer Partei.

Herr Greger, in dem aktuellen Kinofilm „Ich bin dein Mensch“ simuliert ein humanoider Roboter den perfekten Partner. Was ist die entscheidende Differenz zwischen Mensch und Maschine?

Timo Greger: Die Differenz zwischen Mensch und Maschine lässt sich mit den beiden Kategorien „Humanität vs. Algorithmizität“ umreißen. Das bedeutet, dass wir Menschen über zahlreiche Eigenschaften verfügen, über welche eine Maschine nicht verfügt: Wir sind empfindungsfähig, haben Wünsche und Ziele sowie einen freien Willen. Eine Maschine hat all das nicht, sondern simuliert dies lediglich.
Dieser Differenz sollten wir uns bei der Beurteilung, welche Technologien wir einsetzen wollen, immer bewusst sein. Beispielsweise ist eine sogenannte „empathische KI“ selbst nicht empathisch, sondern sie ist lediglich dazu in der Lage, menschliche Gefühlsäußerungen zu verarbeiten oder solche zu simulieren. Wenn wir diese Grenze zwischen Mensch und Maschine aber zunehmend verschleiern, so kann das auch Auswirkungen auf unser alltägliches Miteinander haben: Ist es wünschenswert, dass wir unsere Vorstellung eines perfekten Partners künftig mit einem KI-Roboter realisieren? Ist es wünschenswert, dass wir unsere sexuellen Bedürfnisse mit einer Sexpuppe verwirklichen, welche damit wirbt, dass man mit ihr all das machen könne, was ein echter Partner ablehnen würde?

Frau Kuckertz, Sie haben sich mit der moralischen Verantwortung für KI-gesteuerte Handlungen auseinandergesetzt. Kann KI selbst moralische Entscheidungen treffen?

Felicia Kuckertz: Die kurze Antwort auf diese Frage lautet: Nein, kann sie nicht. Um dies zu begründen, ist es zunächst sinnvoll, sich den Zusammenhang zwischen Entscheidungen, Handlungen und Verantwortung am Menschen bewusst zu machen. Ein Mensch trägt Verantwortung für Handlungen. In einer Handlung – in Abgrenzung zu bloßem Verhalten – realisiert sich eine Entscheidung, die ihrerseits den Abschluss einer Abwägung von Gründen darstellt. Vor diesem Hintergrund erklärt sich die Antwort auf die Frage, ob eine KI selbst (moralische) Entscheidungen treffen kann, mit Blick auf den folgenden Unterschied zwischen (KI-gestützter) Maschine und Menschen: Letztere verfügen über die Fähigkeit sowie die Freiheit, sich von Gründen bewegen zu lassen, diese gegeneinander abzuwägen und darauf basierend eine Entscheidung zu fällen. Eine KI ist unabhängig von ihrem Komplexitätsgrad jedoch von Algorithmen gesteuert, was bedeutet, dass sie nach festgelegten Regeln einen Output aus einem Input generiert. Sie ist weder frei noch fähig, Gründe abzuwägen, und kann somit keine (moralischen) Entscheidungen treffen. Dass wir im Kontext von KI dennoch von „Entscheidungen“ sprechen, resultiert dabei aus einem Mangel an sprachlichen Alternativen.

Wonach suchen Sie?