KI in der Forschung: „Entscheidender Faktor geworden“
01.09.2025
Künstliche Intelligenz entschlüsselt antike Werke, hilft der Medizin und bei Umfragen: Wie KI das Forschen verändert.
01.09.2025
Künstliche Intelligenz entschlüsselt antike Werke, hilft der Medizin und bei Umfragen: Wie KI das Forschen verändert.
LMU-Wissenschaftlerinnen und -Wissenschaftler verschiedener Disziplinen geben Einblick, wie KI inzwischen den Forschungsalltag prägt:
sieht die Qualitätssicherung als große Herausforderung beim Einsatz von KI. | © LMU/Oliver Jung
„Künstliche Intelligenz ist für die Wissenschaft weder der Messias, noch die Apokalypse. Die Veränderungen sind erheblich – methodologisch, inhaltlich und sozial –, aber nicht präzedenzlos: Man denke etwa an die Wirkung von Buchdruck, Linsenschliff, Elektrizität, Personal Computer.
Die Generierung von Gebrauchstexten wird bereits jetzt an KI-Instrumente delegiert: Übersetzungen, Textkorrektur, Routinekorrespondenz. Für die Generierung von Wissen, für das Forschungsdesign, die Hermeneutik, schreibendes Denken etc. bleibt aber natürliche Intelligenz unverzichtbar, auch wenn sich das Methodenrepertoire erweitert, z.B. im Umgang mit großen Datenbeständen (Zahlen, Bilder, Texte, Töne etc.).
Universitäten müssen daher das nötige Wissen und Können vermitteln und in die Entwicklung transparenter Algorithmen investieren, um von kommerziellen Interessen unabhängig zu werden. Die vielleicht größte Herausforderung stellt sich in der Qualitätssicherung, v.a. in Fächern mit hohem Publikationsdruck: Hier besteht akuter Handlungsbedarf in der Suche nach Strategien.“
Prof. Dr. Kärin Nickelsen ist Inhaberin des Lehrstuhls Wissenschaftsgeschichte an der LMU.
Universitäten müssen das nötige Wissen und Können vermitteln und in die Entwicklung transparenter Algorithmen investieren, um von kommerziellen Interessen unabhängig zu werden.Prof. Dr. Kärin Nickelsen , Inhaberin des Lehrstuhls Wissenschaftsgeschichte
hat die „Electronic Babylonian Library“ entwickelt und setzt Algorithmen ein, um verloren gegangene Werke wieder lesbar zu machen. | © LMU
„Künstliche Intelligenz revolutioniert die Erforschung antiker Schriftkulturen, indem sie hilft, unter anderem zwei zentrale Probleme der Keilschriftforschung zu überwinden: die extreme Fragmentierung der Tontafeln und deren mangelnden Kontext.
Auf digitalen Plattformen wie der „Electronic Babylonian Library“ (eBL) werden Zehntausende Keilschrifttafeln zugänglich gemacht. Darauf aufbauend ermöglichen KI-Methoden den automatischen Abgleich von Texten. Algorithmen für den Textabgleich können Tausende von Bruchstücken in Museen systematisch durchsuchen und passende Fragmente identifizieren, um so antike Werke zu rekonstruieren.
Zukünftige Projekte gehen noch einen Schritt weiter: In den nächsten Jahren wird im Rahmen eines ERC-Projekts an der LMU ein KI-Werkzeug entwickelt, das undatierte Tafeln anhand der Handschriften (Paläographie) chronologisch einordnen kann. KI hilft der Forschung somit, einen wesentlichen, bislang unzugänglichen Teil der Menschheitsgeschichte zu erschließen.“
Prof. Dr. Enrique Jiménez ist Inhaber des Lehrstuhls für altorientalische Literaturen am Institut für Assyriologie und Hethitologie der LMU.
KI hilft der Forschung, einen wesentlichen, bislang unzugänglichen Teil der Menschheitsgeschichte zu erschließen.Prof. Dr. Enrique Jiménez , Inhaber des Lehrstuhls für altorientalische Literaturen am Institut für Assyriologie und Hethitologie der LMU.
Hymne an Babylon entdeckt
Electronic Babylonian Literature:
Spiel mit dem Anfang der Weltliteratur
hält es für möglich, dass KI wissenschaftliche Ansätze grundlegend verändern könnte. | © LMU/Jan Greune
„KI ist zu einem entscheidenden Faktor in nahezu allen Bereichen der molekularen Lebenswissenschaften geworden und unterstützt maßgeblich die Entschlüsselung molekularer Prinzipien des Lebens. KI hilft bei der Analyse experimenteller Daten, dem Erkennen von Mustern und der Klassifizierung molekularer und zellulärer Komplexität sowohl in zeitlicher als auch räumlicher Dimension.
AlphaFold demonstriert eindrucksvoll die Stärke multimodalen Lernens und den fundamentalen Zusammenhang zwischen Aminosäuresequenz und Struktur von Proteinen, indem es komplexe dreidimensionale Strukturen von Proteinen und makromolekularen Komplexen oft präzise vorhersagt und damit auch hilft, biologische Funktionen, genetische Variationen und Krankheitsmechanismen aufzuklären. Strukturvorhersagen im großen Maßstab entschlüsseln komplexe evolutionäre Zusammenhänge, während generative KI-Methoden das Design neuer Proteine und Enzyme ermöglichen, die komplexe Reaktionen durchführen können, wie etwa Kunststoffrecycling oder verbesserte Methoden in der Gentherapie.
Darüber hinaus integriert KI verschiedenartige Multi-Omics-Daten – genomische, proteomische und metabolomische –, um ganzheitliche zelluläre Netzwerke sichtbar zu machen, Krankheitsmarker zu identifizieren und gezielte Therapien zu ermöglichen. Zukünftig könnte die Fähigkeit von KI, neue Hypothesen zu generieren, den wissenschaftlichen Ansatz grundlegend verändern, insbesondere in interdisziplinären Bereichen, die Expertise aus unterschiedlichen Fachgebieten erfordern.“
Prof. Dr. Karl-Peter Hopfner ist Inhaber des Lehrstuhls für Structural Molecular Biology und Direktor des Genzentrums der LMU.
KI unterstützt maßgeblich die Entschlüsselung molekularer Prinzipien des Lebens.Prof. Dr. Karl-Peter Hopfner, Inhaber des Lehrstuhls für Structural Molecular Biology und Direktor des Genzentrums der LMU
untersucht auch, was KI kann. So hat er herausgefunden, dass Sprachmodelle Metaphern besser erkennen als metrische oder lautliche Merkmale. | © LMU / LC Productions
„Ich möchte meine Antwort mit einem Widerspruch beginnen: Man kann entweder überhaupt keine Frage oder fast alle denkbaren Fragen an die Literatur mit KI untersuchen. Zu welchem Extrem man neigt, hängt davon ab, was man unter einer ‚Frage an die Literatur‘ versteht: In manchen Traditionen, die man auch als Hermeneutik kennt, sind Fragen an Literatur immer Fragen, die Menschen sich beim Lesen stellen und die mit einer ästhetischen Erfahrung einhergehen. Wenn man so an die Sache herangeht, dann lässt sich überhaupt keine Frage an die Literatur durch KI beantworten, weil die Beantwortung einen subjektiven Leseakt erfordert. Richtig an dieser Sichtweise ist, dass der Einsatz von KI das Lesen im Sinn der Leseerfahrung nicht ersetzen kann.
Wenn man aber nach der Erforschung der Merkmale fragt, die in den Texten enthalten sind, sieht die Sache anders aus. Seit Langem arbeitet man daran, Textmerkmale und Strukturen computergestützt zu erkennen: Dazu gehören Formen des Erzählens (wie Perspektivierung), der Redewiedergabe, Reim, metaphorischer Sprachgebrauch – alles also, das wir in der Literaturwissenschaft mühsam auf Begriffe gebracht haben. Insbesondere für komplexe Strukturen haben sich große Sprachmodelle als leistungsstark erwiesen. Interessant sind solche Ansätze u.a. für Studien, die lange Zeiträume mit einer von einzelnen Forschenden nicht zu bewältigenden Materialfülle in den Blick nehmen.
Diese Leistungsfähigkeit nimmt so schnell zu - ich sehe nicht, dass LLMs Textmerkmale auch künftig nur bis zu einer bestimmten Komplexitätsstufe erkennen könnten. In einer aktuellen Studie haben wir aber herausgefunden, dass LLMs beim Analysieren von Metaphern im Moment deutlich besser sind als beim Erkennen von metrischen oder lautlichen Qualitäten. Das ‚Denken‘ in semantischen Analogien liegt großen Sprachmodellen im Moment noch deutlich näher als das Erkennen und Zählen vermeintlich einfacher Formen. Diese Ergebnisse sind für sich genommen interessant. Sie werden aber noch interessanter, wenn wir zur Frage nach dem Lesen zurückkehren und darüber nachdenken, wie sich solche Ergebnisse zu unseren Annahmen über Einfachheit und Komplexität menschlichen Verstehens verhalten.“
Prof. Dr. Julian Schröter hat die Professur für Digitale Literaturwissenschaften am Institut für Deutsche Philologie der LMU inne.
Der Einsatz von KI kann das Lesen im Sinn der Leseerfahrung nicht ersetzen.Prof. Dr. Julian Schröter, Professur für Digitale Literaturwissenschaften am Institut für Deutsche Philologie der LMU
nutzt Künstliche Intelligenz, um den Einfluss von Dunkler Materie und Dunkler Energie auf das Universum zu untersuchen. | © LMU
„Die Datenmenge, die wir über das Universum mit Teleskopen sammeln können, wächst so rapide an, dass nicht einmal der Fortschritt von Computer-Hardware mithalten kann. Ob Prozessor oder Kamera – dahinter steckt immer Halbleitertechnologie, aber bei Teleskopen entwickeln sich zudem noch Optik, Mechanik und deren Anzahl stetig weiter. Wir brauchen daher schnellere Algorithmen, um der Datenflut gerecht zu werden.
Künstliche Intelligenz löst fast perfekt in Sekundenschnelle, was wie früher ausgerechnet Stunden dauern würde. Es ist aber nicht nur die Quantität, sondern auch die Qualität der Daten, die wächst. Das Weltraumteleskop Euclid liefert höher aufgelöste Bilder, als wir sie je hatten. Spektrographen sammeln detaillierte ‚Fingerabdrücke‘ von Zigmillionen Himmelsobjekten. Wir sind mit diesem Informationsgehalt heute schon weit über die Grenzen der Fähigkeiten menschlicher Theoretiker und Modellierer hinausgeschossen. Wie man aus den beobachteten Details die entscheidenden Schlüsse zieht, kann uns inzwischen am besten die KI lehren.“
Prof. Dr. Daniel Gruen ist Professor für Astrophysik, Kosmologie und Künstliche Intelligenz an der Fakultät für Physik der LMU.
Die Datenmenge, die wir über das Universum mit Teleskopen sammeln können, wächst so rapide an, dass nicht einmal der Fortschritt von Computer-Hardware mithalten kann. Wir brauchen daher schnellere Algorithmen, um der Datenflut gerecht zu werden.Prof. Dr. Daniel Gruen, Professor für Astrophysik, Kosmologie und Künstliche Intelligenz an der Fakultät für Physik der LMU
forscht zu Künstlicher Intelligenz in der Medizin sowie zur Integration bildgebender histologischer und proteogenomischer Verfahren in der Krebsforschung. | © LMU
„Verfahren des Maschinellen Lernens sind in der Medizin seit vielen Jahren im Einsatz für verschiedenste Anwendungen wie beispielsweise die Klassifikation von Genexpressionsmustern oder die Bildanalyse. Neuere, auf tiefen neuronalen Netzen basierende KI-Verfahren können diese Analysen heute mit immer höherer Präzision durchführen und Daten nicht nur qualitativ einordnen, sondern umfassend quantitativ auswerten.
Darüber hinaus ermöglicht die sogenannte erklärbare KI (explainable AI, ‚xAI‘) auch eine Interpretation komplexerer Daten. So können Krankheitsverläufe oder das Ansprechen auf Medikamente nicht nur vorhergesagt, sondern auch für die Vorhersage relevante pathologische Eigenschaften identifiziert werden.
Während dafür bisher fast ausschließlich experimentelle Modellsysteme zur Verfügung standen, können xAI-Verfahren in großen Patientenkohorten nach klinisch relevanten zellulären oder molekularen Merkmalen ‚suchen‘. Dies ermöglicht die Generierung von Hypothesen über kausale Krankheitsmechanismen, woraus neue Zielstrukturen für die Medikamentenentwicklung abgeleitet werden können.“
Prof. Dr. med. Frederick Klauschen ist Direktor des Pathologischen Instituts der LMU.
Verfahren des Maschinellen Lernens sind in der Medizin seit vielen Jahren im Einsatz für verschiedenste Anwendungen wie beispielsweise die Klassifikation von Genexpressionsmustern oder die Bildanalyse.Prof. Dr. Frederick Klauschen , Direktor des Pathologischen Instituts der LMU.
ist Expertin für die Qualität von Daten und setzt auch auf KI. | © Fotostudio klassisch-modern
„Ob KI beim Schreiben wissenschaftlicher Texte oder beim Programmieren ‚helfen darf‘, wird sich bald nicht mehr ernsthaft stellen. Wenn solche Funktionen direkt in unsere Arbeitssoftware integriert sind – wie die Rechtschreibprüfung –, wird ihre Nutzung ganz selbstverständlich sein. Warum auch nicht?
Sprachmodelle helfen heute nicht nur beim Formulieren oder Codieren, sondern verändern die Forschung in meinem Fach noch in ganz anderer Weise. Sie werden eingesetzt, um Daten zu generieren, automatisch zu erheben oder sogar in der Interaktion mit Befragten. Wir entwickeln zum Beispiel KI-Bots, die in Umfragen als Interviewer fungieren – und testen gemeinsam mit der Medizin ihren Einsatz zur Aufklärung über Impfungen. (In Zusammenarbeit mit dem Klinikum der LMU haben wir etwa den KI-Bot Ava gestartet.) Dadurch ergeben sich ganz neue Fragestellungen, wie die nach der Qualität der auf diese Weise erhobenen Daten.
Generell sehe ich den Einsatz der KI ähnlich wie beim Autofahren: Ich muss kein Auto bauen können, um sicher zu fahren – aber ich muss die Regeln beherrschen. So ist es auch hier: Die methodischen Grundlagen bleiben entscheidend. In der Statistik ist die Fähigkeit, Analyseergebnisse verständlich zu kommunizieren, zentral – und wenn KI dabei unterstützt, ist das ein Fortschritt. Verantwortlich für den Text ist am Ende immer noch der Autor oder die Autorin. In der Lehre können wir mit mündlichen Prüfungen und Präsenzklausuren weiterhin gut einschätzen, was Studierende wirklich verstanden haben.“
Prof. Dr. Frauke Kreuter ist Inhaberin des Lehrstuhls für Statistik und Data Science in den Sozial- und Geisteswissenschaften an der LMU.
Die methodischen Grundlagen bleiben entscheidend. In der Statistik ist die Fähigkeit, Analyseergebnisse verständlich zu kommunizieren, zentral – und wenn KI dabei unterstützt, ist das ein Fortschritt.Prof. Dr. Frauke Kreuter, Inhaberin des Lehrstuhls für Statistik und Data Science in den Sozial- und Geisteswissenschaften an der LMU
ist froh über die stets verfügbare, zuverlässige Hilfskraft KI. | © LC Productions
„Manch einer denkt, der Alltag von Wissenschaftlerinnen und Wissenschaftlern ist die einsame Suche nach der großen Idee, um wichtige Menschheitsfragen ein für alle Mal aufzulösen. In diesem Bild würden wir in professoraler Genialität im stillen Kämmerlein vor uns herdenken. Irgendwann erscheint dann die Glühbirne über unserem Kopf und die Welt ist verstanden. Leider ist unsere Realität trister und nüchtern. Tatsächlich verbringen wir unsere Zeit mit Verwaltungsaufgaben, der Suche nach Kommafehlern, Reisekostenabrechnungen oder Presseanfragen.
Genau hier liegt der unmittelbare Nutzen von KI in der Wissenschaft: KI übernimmt viele alltägliche Routinetätigkeiten und wirkt dabei weniger als übermenschliches Genie, sondern eher wie eine stets verfügbare, zuverlässige Hilfskraft.
Auch im Kernbereich der Forschung zeigt sich der Mehrwert von KI nicht durch revolutionäre Durchbrüche, sondern durch praktische Unterstützung. In der politischen Verhaltensforschung etwa setzen wir KI ein, um umfangreiche Textmengen effizient auszuwerten. Möchten wir beispielsweise sämtliche Bundestagsreden auf populistische Sprachelemente hin analysieren, erledigt KI das ebenso zuverlässig wie eine menschliche Hilfskraft – aber schneller und kostengünstiger.
Dadurch gewinnen wir Forschenden wertvolle Zeit für anspruchsvollere, kreative Aufgaben. Momentan bringt KI die Wissenschaft voran gerade nicht, weil sie übermenschlich genial ist, sondern weil sie guter menschlicher Durchschnitt ist.“
Prof. Dr. Alexander Wuttke ist Professor für Digitalisierung und Politisches Verhalten am Geschwister-Scholl-Institut der LMU.
KI übernimmt viele alltägliche Routinetätigkeiten und wirkt dabei weniger als übermenschliches Genie, sondern eher wie eine stets verfügbare, zuverlässige Hilfskraft.Prof. Dr. Alexander Wuttke, Professor für Digitalisierung und Politisches Verhalten am Geschwister-Scholl-Institut der LMU
forscht darüber, wie sich kleinräumige Wetterphänomene auf globale Prozesse auswirken. | © LMU/LC Productions
„KI-Modelle verändern die Wettervorhersage. Sie werden inzwischen parallel zu traditionellen numerischen Modellen eingesetzt und sind dabei deutlich schneller, genauer und kosteneffizienter.
Auch bei der Forschung zu Klimamodellen entwickelt sich der Einsatz von KI rasant. Ein vielversprechender Ansatz ist beispielsweise die Nutzung hybrider Modelle, die wie bislang grundlegende physikalische Gleichungen enthalten, mithilfe von Künstlicher Intelligenz, sodass sich kleinräumige Prozesse wie Wolkenbildung, Niederschlag und Turbulenzen schneller und genauer darstellen lassen. Diese sind mit Unsicherheiten behaftet, und KI kann hier Zusammenhänge aufdecken, die bislang unbekannt waren.
Das Training von KI-Klimamodellen erfordert umfangreiche historische Datensätze sowie viel Zeit und Ressourcen – doch einmal trainiert, sind diese Modelle effizienter und verlässlicher als herkömmliche Ansätze. Bei Klimamodellen, die im globalen Maßstab und mit Blick in die ferne Zukunft eingesetzt werden, wird es entscheidend sein, die Berechnungen zu beschleunigen und die Kosten zu reduzieren.
Es ist jedoch noch weitere Arbeit erforderlich, um das volle Potenzial von KI-Anwendungen in der Klimamodellierung auszuschöpfen. Wichtige Fragen sind dabei noch offen – etwa, wie zuverlässig Modelle sind, die mit Klimadaten der Vergangenheit trainiert wurden, wenn es darum geht, zukünftige, bislang noch nie beobachtete Phänomene vorherzusagen. Oder wie sich Unsicherheiten abschätzen lassen, die durch unvollständige Trainingsdaten oder die chaotische Natur von Wetter und Klima zustande kommen.“
Prof. Dr. Mirjana Sakradzija ist Professorin für Physische Geographie und Land-Atmosphären-Kopplung am Department für Geographie der LMU.
Das Training von KI-Klimamodellen erfordert umfangreiche historische Datensätze sowie viel Zeit und Ressourcen – doch einmal trainiert, sind diese Modelle effizienter und verlässlicher als herkömmliche Ansätze.Prof. Dr. Mirjana Sakradzija , Professorin für Physische Geographie und Land-Atmosphären-Kopplung am Department für Geographie der LMU.
Was KI wirklich kann:
Nachgefragt bei Forschenden der LMU
Forschung zur künstlichen Intelligenz an der LMU
Dossier: Highlights der interdisziplinären KI-Forschung