News

Demokratie braucht Dialog: Ein Projekt gegen die Gesprächskrise und für mehr gegenseitiges Verständnis

27.04.2026

Warum politische Gespräche eskalieren – und wie eine KI-App helfen soll, wieder konstruktiv miteinander zu reden.

Wenn man ChatGPT nach typischen Reaktionsmustern in politischen Gesprächen fragt, fällt dem Algorithmus eine ganze Menge ein – ordentlich nach dem Eskalationsniveau gestaffelt: Das reicht von Abwertungen des Gegenübers – „Du verstehst das offensichtlich nicht“ –, über Resignation – „Das bringt hier nichts“ – bis hin zur Aussage „Ich komme hier nicht mehr mit“, die Sprachlosigkeit signalisiert und das Ende von Diskussionen einläutet: Eine Person zieht sich aus der Unterhaltung zurück, sieht sich nicht ernst genommen, überfordert, ja bevormundet.

Gespräche sind demokratierelevant

Dabei ist der politische Meinungsaustausch für den gesellschaftlichen Konsens immens wichtig. „Gespräche, die als angenehm erlebt werden und bei denen man das Gefühl hat: ‚Ich werde gehört‘, können Partizipationsoffenheit bewirken – also die Bereitschaft, sich einzubringen oder wählen zu gehen“, weiß Katharina Hajek. „Denn im Gespräch wird ausgehandelt, was wir alle wollen. Das ist der Kern der Demokratie“, sagt die wissenschaftliche Mitarbeiterin am Institut für Kommunikationswissenschaft und Medienforschung der LMU (IfKW).

Sie hat ein vom Bayerischen Forschungsinstitut für Digitale Transformation (bidt) gefördertes Forschungsprojekt mitinitiiert, in dem Expertinnen und Experten aus der Kommunikations- und der Politikwissenschaft sowie der Psychologie von LMU und Technischer Universität (TUM) ein KI-gestütztes Tool in Form einer App auf Basis von Large Language Models (LLMs) entwickeln. Dieses soll Menschen dabei unterstützen, herausfordernde Gespräche zu führen, ohne andere zu übervorteilen oder auszugrenzen.

Zwei Kollegen streiten sich in einem Meeting, während eine Vermittlerin versucht, die Situation zu klären.

Damit Diskussionen nicht unnötig eskalieren: Ein KI-gestütztes Tool in Form einer App auf Basis von Large Language Models (LLMs) soll helfen, dass Gespräche für alle Teilnehmenden respektvoll verlaufen.

© IMAGO / Pond5 Images

Einsatz von Large Language Models

Die Forschenden um Professor Carsten Reinemann und Professor Alexander Wuttke von der LMU sowie Professor Jürgen Pfeffer von der TUM haben sehr konkrete Ideen, wie der Einsatz von LLMs in diesem Kontext gelingen kann.
Carsten Reinemann: „Die Sprachmodelle sollen an zwei Stellen zum Einsatz kommen. Erstens als Gesprächspartner, auf die die Nutzenden dann entsprechend reagieren“, erläutert er. Optional sollen sie dies entweder schriftlich oder sprachlich per Audio tun können, was ein niederschwelliger Einstieg für Menschen sein kann, die sich schriftlich nicht so gut äußern können.

„Zweitens sollen die LLMs die Reaktionen der Nutzerinnen und Nutzer analysieren und ihnen direkt Feedback auf ihre Antworten geben“, so der Experte für politische Kommunikation – etwa dann, wenn sie selbst „über das Ziel hinausschießen“ und in Gesprächsmuster abrutschen, die ein Gespräch unnötig eskalieren lassen. Gleichzeitig sollen auch Tipps angeboten werden, wie man verhindern kann, dass so etwas passiert.

Dabei, betont Reinemann, gehe es ausdrücklich nicht um inhaltliche Meinungslenkung, sondern um die Frage, wie Gespräche geführt werden, sodass sie für alle Beteiligten konstruktiv bleiben. Damit wäre schon viel erreicht. Hajek unterstreicht diesen Grundsatz: Die App soll nicht „reparieren“ im Sinne eines „Du kommunizierst falsch!“. Gesprächsziel für die Nutzenden soll sein: „Ich habe etwas über dich gelernt und die Tür für ein weiteres Gespräch ist offen!“

Gesellschaftliche Konfliktlinien sind sichtbarer geworden

Ein Blick auf die Zahlen zeigt die Relevanz eines solchen Werkzeugs: Rund 70 Prozent der Deutschen meinen, dass mit heiklen politischen Themen auch die Gefahr gestiegen sei, sich „den Mund zu verbrennen“. 60 Prozent befürchten Ausgrenzung, wenn sie ihre Meinung äußern. Die Folge kann der Rückzug aus Diskussionen oder das Meiden Andersdenkender sein.

Laut Carsten Reinemann lässt sich nicht eindeutig sagen, ob politische Diskussionen heute härter geführt werden. „Ein Wandel zeigt sich darin, dass Menschen öfter das Gefühl haben, ihre Meinung nicht mehr frei sagen zu können.“ Zugleich relativiert er die verbreitete Annahme homogener digitaler Räume – sogenannter Echokammern –, in denen sich die Menschen bewegen. „Online trifft man mehr als früher auf Menschen mit radikalen und extremen Meinungen.“

Auch gesellschaftliche Konfliktlinien, zum Beispiel bei Diskussionen über die Migration, seien etwa durch Onlinemedien sichtbarer geworden und funktionierten besonders dann, wenn sie mit Abgrenzung, Emotionen und Identitätsfragen verknüpft sind.
„Spannend ist dabei nicht nur der digitale Raum, sondern gerade auch die Frage nach den Eins-zu-eins-Gesprächen im Alltag“, betont Katharina Hajek. Zwar habe es in Familien oder am Stammtisch immer Streit gegeben, doch durch die Vielzahl gleichzeitiger Krisen – besonders während der Corona-Zeit – seien Konflikte auch in engen Beziehungen deutlicher hervorgetreten.

Niederschwelliges Angebot

Vor diesem Hintergrund stellt sich die Frage nach der Zielgruppe, die die App adressieren wird: Soll sich das Angebot eher an akademisch geprägte Menschen richten oder auch an jene, die einfache Erklärungen bevorzugen?

„Offenheit für andere Sichtweisen ist nicht einfach eine Frage von Bildung“, betont Carsten Reinemann. „Menschen mit höherer Bildung haben oft gefestigte Meinungen und sind deswegen nicht unbedingt offener gegenüber anderen Ansichten.“ Menschen aus dem demokratieskeptischen Spektrum zeigten häufig ein relativ hohes Mitteilungs- und Interaktionsbedürfnis. Deswegen hoffen die Forschenden, dass diese Personen sich aus Neugier oder auch aus Skepsis gegenüber wissenschaftlichen Projekten mit der App befassen. „Wenn die Erfahrung damit aber positiv ist, ist die Wahrscheinlichkeit hoch, dass sie sie wieder nutzen“, hofft Reinemann.

Die App soll auf jeden Fall möglichst niedrigschwellig gestaltet sein, sodass Menschen mit unterschiedlichen Voraussetzungen profitieren können. „Gerade die KI ermöglicht es potenziell, das Angebot je nach Bedarf stärker zuzuschneiden. Deshalb ist auch die Audio-Komponente wichtig.“

Zusammen mit Mitinitiatorin Dr. Lara Kobilke hat Reinemann bereits erste Vorstudien zum Einsatz von LLMs in herausfordernden Gesprächen umgesetzt. Die Ergebnisse sind vielversprechend, geben dem Projektteam aber auch Hausaufgaben auf: Zwar finden die Forschenden vergleichbare Muster in Interaktionen mit Chatbots wie in persönlichen Gesprächen, gleichzeitig sind diese abhängig von Kontextvariablen, wie zum Beispiel Vertrauen oder Authentizität.

Nach der Konfliktlösung stoßen zwei Kollegen zufrieden mit einem Faustgruß an, begleitet von einer lächelnden Vermittlerin.

Gesprächsziel für die Nutzenden soll sein: „Ich habe etwas über dich gelernt und die Tür für ein weiteres Gespräch ist offen!“

© IMAGO / Pond5 Images

Integration etablierter Gesprächstechniken

DemocraGPT ist auf drei Jahre angelegt. Zunächst heißt es für die Forschenden, die theoretischen Grundlagen und Modellierungen zu erarbeiten, etwa indem bereits etablierte Gesprächstechniken – zum Beispiel aus der Paartherapie oder der Organisationspsychologie – hinsichtlich ihrer Wirkung für die neue App untersucht und zusammengeführt werden.

In einem nächsten Schritt werden technische Fragen geklärt, etwa was die Integration von Gesprächsformaten in technische Interaktionskontexte betrifft, sowie verschiedene Varianten der App experimentell getestet. Später sollen Personen bei der Nutzung testweise über längere Zeit begleitet werden, um mehr über die Wirkung zu erfahren.

Schließlich soll die App mit flankierender Öffentlichkeitsarbeit ausgerollt werden. Dafür haben sich die Wissenschaftlerinnen und Wissenschaftler beider Universitäten Unterstützung von Medien- und Bildungspartnern geholt – unter anderem der Bayerischen Landeszentrale für Politische Bildungsarbeit.

High-Risk-Projekt

„Es handelt sich um ein High-Risk-Projekt“, sagt Carsten Reinemann. „Wir wissen nicht sicher, ob alles so funktionieren wird wie erhofft. Aber wir sind zuversichtlich, dass der Lerneffekt für die Beteiligten in jedem Fall groß sein wird – zumindest darüber, welche Gesprächsweisen Unterhaltungen leichter oder schwerer machen.“

Vorab-Befragungen zu DemocraGPT, auch im privaten Umfeld der beteiligten Wissenschaftlerinnen und Wissenschaftler, haben ergeben, dass viele dem Projekt sehr aufgeschlossen gegenüberstehen: „Sie haben selbst erlebt, dass Freundschaften zerbrechen, Menschen sich entfremden und politische Gespräche kaum noch möglich erscheinen“, sagt Reinemann. Zugleich gebe es aber auch eine gewisse Skepsis, ob so etwas wirklich funktionieren kann.

„Genau das ist unsere Motivation, weiterzumachen“, so Hajek. „Das Thema trifft auf jeden Fall einen Nerv, das Interesse ist groß!“

Wonach suchen Sie?