News

Sprache im Wandel der Zeit

08.08.2023

Das Institut für Phonetik und Sprachverarbeitung (IPS) ist eines der führenden Institute für Sprachforschung mit hohem Praxisbezug. Direktor Jonathan Harrington erklärt, warum die Forschung so wichtig ist.

Prof. Jonathan Harrington

Professor Jonathan Harrington | © LMU

Professor Harrington, womit befasst sich die Phonetik?

Harrington: In der Phonetik wollen wir erklären, wie Sprachlaute zwischen einem Sprecher und einem Hörer in der gesprochenen Sprache übertragen werden. Das ist wichtig, denn auf der einen Seite ist dieser Vorgang idiosynkratisch: Dieselbe Äußerung wird nie zweimal auf die gleiche Art und Weise ausgesprochen. Dies liegt an individuellen Merkmalen wie Anatomie, Dialekt und persönlichem Sprechstil.

Auf der anderen Seite wird die Aussprache an die jeweilige Sprechsituation angepasst – ob man etwa mit Freunden spricht oder einen Vortrag hält. Zugleich unterliegt die sprachliche Kommunikation der Grammatik einer Sprache. Sie legt unter anderem fest, wie Sätze aus Wörtern zusammengesetzt und welche Sprachlaute benutzt werden, um Wörter zu bilden. So können im Deutschen Wörter mit /kn/ anfangen, wie in Knie – im Englischen hingegen wird im Wort knee das /k/ nicht mehr gesprochen.

Wie konkret sieht Ihre Forschung hier aus?

Harrington: Wir wollen verstehen, wie der individuelle Gebrauch von Sprache die von allen Sprechern geteilte Grammatik gestaltet und verändert. Die Modellierung dieser Wechselwirkung zwischen individueller Sprechweise einerseits und abstrakter Grammatik andererseits ist wichtig, um nachzuvollziehen, warum sich gesprochene Sprache mit der Zeit verändert, wie neue Dialekte entstehen und was die Prinzipien sind, nach denen sich die Laute in den Sprachen der Welt unterscheiden können.

News

„Beim Unterhalten ahmen wir uns gegenseitig nach“

Weiterlesen

Sehen Sie sich eher als „Schatzsucher“, als „Bewahrer“ oder gar als „Retter“ von Sprache?

Harrington: Wir sind eher Beobachter. Erstens, weil wir ständig beobachten – und manchmal imitieren –, wie in alltäglichen Situationen Sprachlaute gesprochen werden. Zweitens, weil wir durch Beobachtungen zur gesprochenen Sprache falsifizierbare Hypothesen aufstellen und diese anhand von empirischen Methoden testen. Insofern ist dieser Vorgang ganz ähnlich wie in vielen anderen naturwissenschaftlichen Bereichen.

Ein Blick in die Projektliste des IPS zeigt ein breites Themenspektrum mit zahlreichen Anwendungsbezügen. Wo ist Ihre Expertise gefragt?

Harrington: Die von uns im Bayerischen Archiv für Sprachsignale gesammelten und verwalteten Sprachdatenbanken wurden und werden in einer Vielzahl wissenschaftlicher und technischer Projekte verwendet, so etwa bei der Entwicklung virtueller Sprachassistenten wie Siri oder Alexa. Unsere Software-Entwicklungen haben sich als sogenannte Webservices weltweit zum Standard für die automatische Transkription und Annotation von Sprachdaten entwickelt. Mit diesen Werkzeugen bearbeiten unsere Partner derzeit 52 verschiedene Sprachen; seit der Einführung im Jahre 2013 wurden mehr als 22 Millionen Sprachaufnahmen auf diese Weise verarbeitet.

Sehen Sie sich auch als Dienstleister?

Harrington: Ja, vor allem in der Forschung. Es kommen viele internationale Wissenschaftlerinnen und Wissenschaftler mit wenig Erfahrung in der Phonetik zu uns mit dem Ziel, phonetische Kompetenzen zu erwerben und für ihre eigene Forschung zu nutzen.

Überdies finden unsere Online-Tools zunehmend auch außerhalb der Phonetik Anwendung – so unter anderem im Bereich Oral History, in der Soziologie oder im Fach Deutsch als Fremdsprache. Außerdem sind wir Teil der Nationalen Forschungsdaten-Initiative Text+ und sehen es als unsere Aufgabe an, die Ergebnisse unserer Arbeit auch einer breiten Öffentlichkeit nahezubringen.


Eine Frau sitzt vor einem Popkiller und richtet das in einer Unschärfe davor angebrachte Mikrofon

Sprachbeobachtung und -forschung für eine Vielzahl von Anwendungen bilden die Arbeitsschwerpunkte des Instituts für Phonetik und Sprachverarbeitung.

© IMAGO/Pond5 Images

Sie haben Schnittstellen zu vielen anderen wissenschaftlichen Disziplinen. Welche sind hier besonders wichtig?

Harrington: Wichtige Schnittstellen haben wir unter anderem zur Psychologie, wenn es um die menschliche Verarbeitung der Sprache geht, oder zur Computerlinguistik beziehungsweise Informatik im Bereich der maschinellen Sprachverarbeitung.

Auch bei medizinischen Fragestellungen ergeben sich Ansatzpunkte, etwa bei Sprach- und Sprechstörungen als Folge von genetischen Faktoren, Abweichungen bei der kindlichen Hirnreifung oder Unfällen mit entsprechenden Verletzungen. Dies ist ein Schwerpunkt unserer Entwicklungsgruppe Klinische Neuropsychologie, die phonetische Kenntnisse und Methoden einsetzt, um diese Beeinträchtigungen zu verstehen, zu diagnostizieren und gegebenenfalls auch behandeln zu können.

Was sind die zukünftigen Trends und Herausforderungen?

Harrington: Big Data wird eine große Rolle spielen und spielt sie bereits – etwa, wenn es um die wissenschaftliche Auseinandersetzung mit Dialekten und Sprachen geht, die bislang kaum erforscht wurden. Wir haben eine große Expertise aufgebaut, die uns ermöglicht, immer größere Mengen von Daten zu speichern und zu analysieren. Auch wollen wir die interdisziplinäre Forschung mit der NMR (Nuclear Magnetic Resonance)-Gruppe am MPI für Multidisziplinäre Naturwissenschaften Göttingen ausweiten. Ziel dabei ist die Analyse der Sprachphysiologie mittels Magnetresonanz-Tomografie (MRT). Aufgrund der dortigen Forschung können MRT-Bilder während des Sprechens mit einer ganz hohen Auflösung in Echtzeit aufgenommen werden.

Durch die Kooperation ist es uns möglich, viel größere Mengen an MRT-Daten als jemals zuvor für die Sprachphysiologie aufzunehmen und zu analysieren. Auch ist das IPS ein internationaler Vorreiter in der Erforschung von Lautwandel. Dies beinhaltet unter anderem eine vergleichende Analyse von Sprachaufnahmen, die mehrere Jahrzehnte umfassen. Diese Art von Forschung wird von zunehmender Bedeutung sein, da in der Zukunft viel mehr Daten dieser Art zur Verfügung stehen werden.

Informationstechnologie spielt in Ihrem Fach eine wichtige Rolle. Welche Möglichkeiten bietet Ihnen die KI, auch ganz neue Forschungsfelder zu identifizieren?

Harrington: Der große Fortschritt der KI-basierten Sprachtechnologie in den vergangenen fünf Jahren wurde durch Modelle vorangetrieben, die mit riesigen Mengen mündlicher Sprachdaten trainiert wurden. Dies hat einerseits zu Verbesserungen bei einer Reihe von Sprachverarbeitungsmethoden geführt, die wir anwenden, wie beispielsweise der semi-automatischen Erkennung von Sprachlauten.

Andererseits schafft diese Entwicklung neue Herausforderungen. Denn trotz ihrer beeindruckenden Fortschritte kann die aktuelle KI-basierte Sprachverarbeitung zu den Fragestellungen, die uns in der Grundlagenforschung interessieren, kaum Informationen liefern. Sie bietet keinen Erkenntnisgewinn zum kognitiven Ablauf der sprachlichen Kommunikation, zu den Prozessen des Lautwandels oder den sozialen Eigenschaften gesprochener Sprache. Ganz im Gegenteil: Anstatt uns zu helfen, unsere eigenen Gehirne zu verstehen, schafft KI ein zusätzliches Problem: das Verstehen künstlicher Gehirne. KI-Projekte können natürlich klingende Sprache in nahezu perfekter Weise synthetisieren, aber sie erklären sehr wenig über die menschliche Sprache. Vielmehr verbergen sie, was sie tun.

Echtzeit-MRT, das Bewegungen im Mund- und Rachenraum beim Sprechen zeigt. Diese Technik verwenden die Forschenden des IPS in Kooperation mit Partnern des Göttinger Max-Planck-Instituts für Multidisziplinäre Naturwissenschaften.

Was zeichnet aus Ihrer Sicht menschliche Sprache aus – im Vergleich zu KI-Sprache?

Harrington: Auch wenn KI-generierte Sprache eine oft erstaunlich hohe Qualität hat, beruht sie auf statistischen Modellen, die letztendlich auf Grundlage riesiger Datenmengen an Schriftsprache erstellt wurden. Daraus folgt erstens, dass KI-generierte Sprache nicht echt, sondern immer „wie gedruckt“ wirkt. Zweitens kann sie eigentlich keine wirklich neuen und kreativen, kurz, originellen Sprachschöpfungen enthalten. So gesehen hört sich bei längerem Zuhören KI-generierte Sprache auch recht langweilig an, gerade weil bestimmte Kernaspekte gesprochener Sprache wie Betonung, Sprechmelodie und Sprechrhythmus durch diese Technologie nicht wahrhaft wiedergegeben werden können.

Personell ist das IPS sehr international aufgestellt. Welche Rolle spielt das für die Forschung?

Harrington: Internationalisierung des Instituts im Speziellen, aber auch des Fachs Phonetik im Allgemeinen ist keine ganz neue Entwicklung, auch wenn sie sich in den letzten zwei Jahrzehnten sicher noch verstärkt hat. Unsere Forschung profitiert davon außerordentlich, denn auch in der Zusammensetzung des Teams spiegelt sich die internationale Bedeutung des Instituts wider. Außerdem erfolgt der Forschungsoutput hauptsächlich auf internationalen Plattformen. In der Phonetik beschreiben und vergleichen wir zudem sehr viele unterschiedliche Sprachen und Dialekte mit Bezug auf das System der menschlichen gesprochenen Sprache an sich. Da ist der Input von Muttersprachlern ganz unterschiedlicher Sprachen sehr wichtig.

Sie bilden zahlreiche Studierende aus. Wo werden sie nach Ende ihres Studiums tätig? Welche Perspektiven gibt es für sie?

Harrington: Absolventen, die sich für die nicht-akademische Laufbahn entscheiden, finden spannende Aufgaben in Unternehmen, die in der automatischen Sprachverarbeitung Produkte entwickeln, darunter Tech-Firmen wie Microsoft, Amazon oder BMW, aber auch mittelständische Unternehmen mit sehr spezialisierten Portfolios. Unsere Absolventen verstehen sich im Projektmanagement, in statistischer Datenanalyse und können mit Datenbanken umgehen. Sie können empirisch arbeiten und haben ein geschultes Gehör. Dadurch ergeben sich vielfältige Möglichkeiten auf dem Arbeitsmarkt. Es gibt zudem erfolgreiche Ausgründungen aus dem Institut, unter anderem Neolexon, das Logopädie-Apps entwickelt.

50 Jahre Institut für Phonetik und Sprachverarbeitung
Das Institut für Phonetik und Sprachverarbeitung wird 1972 unter der Ägide von Professor Hans Günther Tillmann an der LMU aufgebaut und bereits 1977 mit Professor Gerd Kegel durch eine psycholinguistische Ausrichtung erweitert. Seit 1980 liegt ein Schwerpunkt der Forschung auf der Analyse der Physiologie von Sprachproduktion. 1997 erfolgt die Gründung des Bayerischen Archivs für Sprachsignale (BAS). Durch das BAS nimmt das IPS eine Spitzenstellung in der Entwicklung webbasierter Sprachverarbeitungsdienste ein. Professor Jonathan Harrington ist seit 2006 Direktor des Instituts und führte das Institut in kürzester Zeit an die internationale Spitze der phonetischen Forschung. Unter seiner Leitung gelingt es, Phonetik, Sprachtechnologie und Psycholinguistik zu kombinieren. 2015 wird die Entwicklungsgruppe Klinische Neuropsychologie (EKN) unter der Leitung von Professor Wolfram Ziegler am IPS angesiedelt und erweitert das Institut um einen neurophonetischen Schwerpunkt. Mit der Einwerbung von drei Advanced-, zwei Starting- und einem Proof-of-Concept Grant des Europäischen Forschungsrats gehört das Institut in dieser Hinsicht zu den erfolgreichsten geisteswissenschaftlichen Einrichtungen. Durch die Einrichtung des KI-Lehrstuhls mit Professor James Kirby im vergangenen Jahr kann das Institut auch in diesem Bereich seine Expertise weiter stärken.

Wonach suchen Sie?