News

KI-Agenten: Wenn Künstliche Intelligenz das Leben organisiert

17.09.2025

LMU-Philosoph Benjamin Lange über ethische Herausforderungen neuer KI-Tools, die wie persönliche Assistenten Aufgaben übernehmen.

Benjamin Lange

Philosoph Benjamin Lange

forscht zu ethischen Fragen rund um KI – von Verantwortung und Autonomie bis hin zu Gerechtigkeit. | © Eleanor Großhenning / Sons of Motion Pictures GmbH

Wenn Maschinen nicht nur Antworten geben, sondern auch selbst planen und sogar handeln können – was bedeutet das für den Menschen, der sie nutzt? Philosoph Dr. Benjamin Lange, Nachwuchsgruppenleiter an der Professur für Ethik der Künstlichen Intelligenz sowie am Munich Center for Machine Learning, untersucht Chancen und Risiken der neuen KI-Agenten.

Was genau sind KI-Agenten – und wie unterscheiden sie sich von bisherigen KI-Programmen?

Benjamin Lange: KI-Agenten sind sehr fähige Systeme, die im Kern auf großen Sprachmodellen wie ChatGPT basieren. Während Letztere aber lediglich Befehle ausführen, versuchen KI-Agenten, Absichten zu erkennen und auf dem Weg zum Ziel selbst Vorschläge zu entwickeln. Zudem verfügen sie über Schnittstellen zu externen Tools – Kalendern, E-Mail-Programmen, Datenbanken oder sogar Bankkonten.

Der Begriff „Agent“ ist dennoch irreführend. Er suggeriert eine Autonomie oder gar Intentionalität, die diese Systeme nicht besitzen. Zwar können KI-Agenten Handlungsfolgen eigenständig planen und sogar umsetzen – aber nur, wenn Nutzende ihnen den Befehl dazu geben. Eher könnte man sie als Geist aus der Flasche bezeichnen: Während klassische Sprachmodelle wie Orakel sind, die man befragt, sollen diese neuen Systeme wie ein hilfreicher Geist funktionieren, der Wünsche entgegennimmt, sie in Einzelschritte zerlegt und, ohne diese einzeln bestätigen zu müssen, am Ende das Ergebnis präsentiert.

Der KI-Agent als persönlicher Executive Assistant

25 Sep
Comparing Notes on Trustworthy AI: The Ethics of AI Agents
Weiterlesen

Was wäre ein Beispiel?

Die Planung des nächsten Urlaubs etwa: Statt Schritt für Schritt Anweisungen geben zu müssen, reicht ein Ziel wie „Buche mir bitte eine Reise nach Spanien.“ Der Agent recherchiert Optionen, bucht den Flug, trägt die Daten in den Kalender ein, versendet die Bestätigungsmail und wickelt vielleicht sogar die Bezahlung ab. Bislang trauen dem aber nur wenige Nutzerinnen und Nutzer.

Wie können solche Assistenten noch genutzt werden?

Im Alltag können sie wie persönliche Executive Assistants wirken, die Termine koordinieren und Rechnungen begleichen – all das, was sonst Zeit raubt. In der Arbeitswelt können sie Teams entlasten, Routineaufgaben übernehmen und kreative Impulse liefern, die man sonst mühsam in Workshops erarbeiten müsste. Im Bildungsbereich schließlich könnten Agenten als maßgeschneiderte Tutoren wirken, die sich merken, wo jemand Schwierigkeiten hat, und Lernmaterial individuell aufbereiten. Das wäre eine enorme Chance für personalisierte Bildung, die klassische Lehrformate kaum leisten können.

Einsatz von KI-Agenten: Wer entscheidet?

News
Highlights der interdisziplinären KI-Forschung
Weiterlesen

Sind solche Agenten heute schon Teil des Alltags oder bleiben sie noch Science-Fiction?

Wir sind an einer Schwelle. Anfang des Jahres scheiterten viele Prototypen noch an banalen Aufgaben wie dem Öffnen von ZIP-Dateien oder dem Abgleichen von Kalendern. Heute können erste Anwendungen bereits zuverlässig E-Mails verfassen und Termine organisieren. Flächendeckend und reibungslos in den Alltag integriert sind sie aber noch nicht. Die Vorstellung, dass wir morgens nur noch sagen: „Mach meine To-dos für die Woche“, und alles läuft wie von Zauberhand, ist tatsächlich noch Science-Fiction. Aber die Entwicklung schreitet schnell voran, und es wird sich zeigen, wie die Gesellschaft diese Technologie annimmt.

Welche ethischen Fragen stellen sich mit den neuen Möglichkeiten?

Zum einen geht es um Autonomie: Wenn Systeme Optionen filtern und plausibel erscheinende Vorschläge liefern – entscheiden wir als Nutzende dann noch selbst? Hinzu kommt die Frage der Verantwortung: Wer trägt die Folgen, wenn ein Assistent Fehler macht – Nutzer, Entwickler oder Unternehmen? Auch die Gefahr des Missbrauchs ist groß. Dieselbe Technologie, die den Alltag erleichtert, kann ein Troll ebenso gut für Desinformationskampagnen einsetzen – schnell, skalierbar und massenhaft.

Eine weitere Herausforderung ist die emotionale Nähe. Sprachfähige Systeme erzeugen leicht den Eindruck, man könne eine Beziehung zu ihnen aufbauen. Besonders verletzliche Gruppen – zum Beispiel Kinder, ältere oder einsame Menschen – könnten in Abhängigkeiten geraten, die das System gar nicht erwidern kann. Und schließlich geht es um Fragen der Fairness: Wer solche Agenten bedienen und sie sich finanziell leisten kann, erlangt Vorteile, hinter denen andere zurückbleiben. Das kann bestehende gesellschaftliche Ungleichheiten verschärfen.

Den Einsatz von KI regeln

Wie könnte man diesen Herausforderungen begegnen?

Auf jeden Fall nicht mit Algorithmen allein. Wir brauchen in unserer Gesellschaft grundsätzliche Standards, Transparenz und klare Verantwortlichkeiten für das, was KI macht – ähnlich wie beim TÜV. Diese Regeln dürfen nicht allein von Tech-Konzernen definiert werden. Stattdessen muss die Gesellschaft aushandeln, welche Systeme wir wollen – und welche nicht. Ethik darf dabei nicht theoretisch bleiben, sondern muss praktisch wirksam werden – im Design der Programme, ihrer Anwendung und Regulierung.

Wie könnte eine Regulierung konkret aussehen?

Nötig ist ein mehrdimensionaler Ansatz. Die Politik muss verbindliche Rahmen schaffen – etwa bei Datenschutz oder Haftungsfragen –, Unternehmen müssen Verantwortung übernehmen und mögliche Risiken offenlegen. Und die Öffentlichkeit sollte darüber diskutieren, wie viel Raum wir Agenten überhaupt im Alltag geben wollen. Der neue EU AI Act, der Sicherheit, Grundrechte und Werte der EU gewährleisten und gleichzeitig Innovation fördern soll, ist ein Anfang. Aber er betrifft KI allgemein und ist noch nicht auf Agenten zugeschnitten. Hier zeigt sich, wie schwierig es ist, bei der Regulierung mit der technischen Entwicklung Schritt zu halten.

Müssen wir, um diese Technologien zu bewerten, neue ethische Konzepte erfinden?

Nein, es gibt bereits starke Begriffe – Verantwortung, Freiheit, Gerechtigkeit –, die in diesem Zusammenhang hochrelevant sind. Die Frage ist, wie wir sie konkret anwenden. Praktische Ethik heißt, diese Konzepte in Leitlinien, Standards und politische Maßnahmen zu übersetzen. Dann werden philosophische Debatten handlungsleitend – und genau das brauchen wir.

Aus Ihrer Sicht als Philosoph – gibt es klassische Denker, an denen man sich angesichts der KI-Agenten orientieren kann?

Tatsächlich sind sehr viele relevant. Aristoteles etwa hat sich mit Tugenden und gutem Handeln beschäftigt – eine Frage, die wieder aufkommt, wenn Maschinen unsere Handlungen vorbereiten. David Hume betonte die Rolle von Gewohnheiten und Emotionen – genau darauf setzen Agenten mit ihrer Personalisierung. Und Kant definierte Autonomie als Selbstgesetzgebung – doch diese wird brüchig, wenn Systeme Entscheidungen für uns vorstrukturieren. Foucault indes hat uns gelehrt, Machtstrukturen kritisch zu hinterfragen. Alle diese Perspektiven helfen, den Einfluss von KI auf unser Handeln neu zu reflektieren.

Wenn KI-Agenten immer mehr Aufgaben abnehmen – verlieren wir dadurch Autonomie oder gewinnen wir an Freiheit?

Beides ist möglich. Wir gewinnen Freiheit, wenn uns Routinearbeit abgenommen wird. Gleichzeitig riskieren wir, dass wir Entscheidungen nur noch abnicken und damit schleichend Autonomie verlieren. In einem aktuellen Essay nenne ich das die Frage: „Wer spricht zuerst?“ Wenn wir künftig sagen: „Mein Agent hat vorgeschlagen, und ich habe zugestimmt“, dann ist fraglich, ob wir selbst noch bewusst mitentscheiden – oder nur bestätigen, was plausibel klingt. Und genau dieses Spannungsfeld werden wir navigieren müssen.

Veranstaltung: 

Eine Podiumsdiskussion zum Thema „Ethik der KI Agenten“, deren Mit-Organisator Ben Lange zusammen mit Johannes Reisinger ist, findet am Donnerstag, 25. September, von 17.30 bis 21 Uhr statt.

Es diskutieren: Gitta Kutyniok, Inhaberin der Bayerischen KI-Professur für Mathematische Grundlagen der Künstlichen Intelligenz an der LMU, die einen Schwerpunkt auf erklärbare und verlässliche KI-Systeme legt; Barbara Plank, Professorin für Künstliche Intelligenz und Computerlinguistik an der LMU, deren Forschungsinteresse der robusten, domänenadaptiven Sprachverarbeitung mit KI gilt; und Lena Kästner, Professorin für Philosophie, Informatik und Künstliche Intelligenz an der Universität Bayreuth, die zur Philosophie der KI und der Kognitionswissenschaft arbeitet. Moderiert wird die Veranstaltung von Journalist und Fernsehmoderator Johannes Büchs, bekannt aus Die Sendung mit der Maus.

Die Veranstaltung ist Teil der Event-Reihe „Comparing Notes on Trustworthy AI“, die das appliedAI Institute for Europe in Kooperation mit der LMU, dem Munich Center for Machine Learning (MCML), dem Liquid Legal Institute e.V. und dem TUM Think Tank organisiert. Sie richtet sich an Forschende, Studierende und grundsätzlich alle, die an ethischen und sozialen Fragen rund um KI-Agenten interessiert sind.

Die Podiumsdiskussion findet in den Räumen der Carl Friedrich von Siemens Stiftung, Südliches Schlossrondell 23, 80638 München, statt.

Eine Anmeldung ist erforderlich.:

Wonach suchen Sie?