News

Forschung zu digitalen Medien: „Es fehlt oft an den richtigen Daten“

25.06.2021

Sind die digitalen Medien Chance oder Risiko für die Demokratie? Um das zu beantworten, braucht die Forschung Zugang zu Daten, die noch in der Hand weniger Plattformen sind, sagt LMU-Statistikerin Frauke Kreuter.

Porträt von Frauke Kreuter, Professorin für Statistik und Data Science in den Sozial- und Humanwissenschaften an der LMU

Prof. Frauke Kreuter | © Fotostudio klassisch-modern

Frauke Kreuter ist Professorin für Statistik und Data Science in den Sozial- und Humanwissenschaften an der LMU. Sie ist Mitglied einer gemeinsamen Arbeitsgruppe der Nationalen Akademie der Wissenschaften Leopoldina, der acatech – Deutsche Akademie der Technikwissenschaften und der Union der deutschen Akademien der Wissenschaften, die im Juni 2021 eine Stellungnahme zu „Digitalisierung und Demokratie“ veröffentlicht hat.

Die Leopoldina gibt Empfehlungen zu „Digitalisierung und Demokratie“ – was ist der Anlass dafür?

Frauke Kreuter: Es ist nicht unbedingt ein Anlass, sondern es gibt viele Anlässe. Durch die digitalen Medien hat sich die Landschaft verändert, in der politische Meinungen verbreitet werden und sich ausbilden. Es gibt die berechtigte Sorge, dass die Digitalisierung das Risiko birgt, destabilisierend auf Gesellschaften zu wirken. Wir haben es zum Beispiel dieses Jahr am 6. Januar in den USA beim Sturm auf das Kapitol erlebt: Mit dem Vehikel Social Media starten auch Bewegungen, die möglicherweise die Demokratie gefährden können. Das kann durchaus nervös machen.

Es ist aber mitnichten so, dass alle Beteiligten der Arbeitsgruppe sagen, Social Media seien schlecht. Im Gegenteil: Durch die digitalen Medien ist viel neues Positives dazugekommen. Zum Beispiel haben dadurch auch leisere Stimmen die Chance, gehört zu werden. Aber es birgt auch das Risiko, dass die Lauten zu stark wahrgenommen werden.

Es ist wichtig, sich das anzuschauen und darüber nachzudenken, wie die digitalen Infrastrukturen in Zukunft in Demokratien organisiert werden sollten.

Der Forschung Datenzugang erleichtern

Welche empirischen Befunde gibt es dazu?

Frauke Kreuter: Es gibt eine ganze Reihe von empirischen Befunden. Aber um wirklich zu untersuchen und herauszufinden, was da in den digitalen Medien passiert, stehen derzeit oft nicht die richtigen Daten zu Verfügung.

Gerade bei Social Media gab es zum Beispiel schon viele Versuche, zu analysieren, wie groß die Einflussnahme von Trollen oder anderen Regierungen auf die Meinungsbildung während Wahlkämpfen war. Es gibt empirische Studien, die zeigen: Ja, es hat der Versuch stattgefunden, Einfluss zu nehmen. Aber wenn es darum geht, zu messen, welche Effekte das genau hat, bleibt ein Fragezeichen.

Es gibt zwar ein paar einzelne, sehr löbliche Initiativen wie Social Science One in den USA, in deren Rahmen versucht wurde, Facebook-Daten anonymisiert an die Forschung weiterzugeben. Aber noch liegen die Daten in den Händen weniger Plattformbetreiber. Eine der Empfehlungen unserer Arbeitsgruppe ist daher, der Forschung den Zugang zu diesen Datenbeständen zu erleichtern.

Intransparenz von Algorithmen


In den digitalen Medien spielen Algorithmen eine große Rolle. Können Sie Beispiele dafür nennen?

Frauke Kreuter: Algorithmen werden zum Beispiel bei der Kuratierung von Inhalten eingesetzt. Sie zeigen Nutzern oder Nutzerinnen an, was sie voraussichtlich interessiert. Eine Vermutung ist, dass digitale Medien zur Radikalisierung beitragen könnten und die Gefahr besteht, dass Meinungsvielfalt verloren geht. Ein Problem dabei ist die Intransparenz: Algorithmen basieren auf Korrelationen und Wahrscheinlichkeiten. Dabei rechnen sie mit vielen Variablen und lernen aus dem, was in der Vergangenheit erfolgreich war. Es lässt sich dann nicht mehr nachvollziehen, warum etwas angezeigt wird.

Dieses Problem gibt es überall, wo Algorithmen eingesetzt werden. Ein weiteres Beispiel dafür ist personalisierte Werbung, das sogenannte Mikrotargeting

Sich zurechtfinden in der neuen, von Algorithmen getriebenen Welt

Als Nutzer denkt man darüber in der Regel nicht nach. Sollte man Personalisierung lieber abschaffen?

Frauke Kreuter: Eine Personalisierung von Inhalten ist ja nicht per se schlecht. Es ist ja erst einmal legitim, wenn ich sehen möchte, was mich interessiert, und es kann auch ganz praktisch sein, wenn mir zum Beispiel nur die Schuhe angezeigt werden, die mir wahrscheinlich gefallen. Die Frage ist eher: Wie viel Personalisierung ist gut für die Demokratie?

Plattformen wie Facebook haben vor etwa zwei Jahren die Möglichkeit eingeführt, sich anzeigen zu lassen, warum welche kommerziellen Inhalte im eigenen Newsfeed zu sehen sind. Aber das Wissen, dass da ein Algorithmus dahintersteckt und man sich derart darüber informieren kann, ist ja nicht weit verbreitet. Deswegen ist es wichtig, die Aufmerksamkeit der Menschen dafür zu erhöhen.

Es kann auch nicht jeder ein Auto bauen, aber jeder kann lernen, damit sicher zu fahren. Und so sehe ich das in dieser neuen, von Algorithmen getriebenen Welt auch: Es muss nicht jeder einen Algorithmus programmieren können. Aber man muss genug Gefühl dafür entwickeln, wie man damit umgeht, eine gesunde Skepsis haben und wissen: Das ist für mich generierter Content.

Die Macht der Plattformen

Wo berührt Ihre Forschung diese Fragen?

Frauke Kreuter: In meiner Forschung beschäftigte ich mich mit Algorithmen und Fairness: Wer bekommt welche Inhalte angezeigt? Wo bildet sich sozialer Wandel in den Algorithmen ab, die ja nur auf historischen Trainingsdaten lernen und deswegen Altes länger reproduzieren, als vielleicht notwendig wäre.

Bei manchen Themen ist das relativ offensichtlich. Ich erläutere das immer mit dem Beispiel einer Bild-Suche in Google. Bei der Eingabe von „University Professor“ wurden vor ein paar Jahren nur weiße männliche Professoren angezeigt. Auf einmal hatten die Suchmaschinenbetreiber offenbar das Thema Diversity auf dem Schirm, sodass dann auch afroamerikanische Professoren zu sehen waren. Und inzwischen hat Google den Algorithmus so verändert, dass nicht nur Bilder angezeigt werden, die am häufigsten auftauchen, sondern fast paritätisch auch Frauen gezeigt werden.

Das zeigt, welche Macht diese Plattformen haben. Der Algorithmus zuvor war ja nicht falsch. Es gibt eben immer noch mehr männliche als weibliche Professor*innen. Aber es gab eine bewusste Entscheidung, das Suchergebnis lieber in die andere Richtung zu verzerren als die historischen Trainingsdaten unbedarft weiter zu verwerten und dadurch Vorurteile zu reproduzieren.

Um überhaupt ausreichend zu sensibilisieren, empfehlen wir in der Stellungnahme, dass in den Hochschulen relevante verhaltens-, sozial- und geisteswissenschaftliche Expertise in die Curricula von MINT-Disziplinen integriert wird und es verpflichtende Lehrveranstaltungen in Forschungs- und Datenethik geben sollte.

Frage der Datenqualität

In Ihrer Forschung überprüfen Sie Algorithmen mit statistischen Analysen. Worauf kommt es dabei an?

Frauke Kreuter: Algorithmen machen Vorhersagen, und Vorhersagen können sich immer irren. Dabei ist die Unsicherheit des Vorhergesagten größer, wenn es auf wenigen Daten basiert. Wenn die Fehler-Wahrscheinlichkeiten für verschiedene Gruppen ungleich sind, kann das unfair sein. Auch können Algorithmen diskriminierende Praktiken gegen Gruppen aus der Vergangenheit erlernen. Das kann dazu führen, dass soziale Ungleichheiten fortgeschrieben werden.

In dem Beispiel mit den Professorinnen sind die Statistiken bekannt, und wir wissen, was wir bestenfalls sehen sollten. Bei vielen anderen Themen ist das nicht so. Wir beschäftigten uns daher mit Fragen der Datenqualität und Irrtumswahrscheinlichkeiten. Dafür sehen wir uns sehr genau den datengenerierenden Prozess an: Welche Daten werden für das Training von Algorithmen genutzt? Und ist die Qualität ähnlich gut für alle gesellschaftlichen Gruppen?

Forschungspartnerschaften eingehen

Algorithmen, die in digitalen Medien verwendet werden, könnten Sie also auch derart prüfen, wenn Sie die entsprechenden Daten kennen würden?

Frauke Kreuter: Ja. Es gibt zwar manche Testverfahren, die man auf Algorithmen anwenden kann, die eine sogenannte Blackbox sind. Aber je mehr Transparenz vorliegt, desto besser kann man nachvollziehen, ob Algorithmen Prinzipien der Fairness entsprechen. Daher lautet eine Empfehlung unserer Arbeitsgruppe, Forschungspartnerschaften mit Plattformbetreibern einzugehen, um Zugang zu Daten zu bekommen und auch für die Forschung die Möglichkeit sicherzustellen, zu prüfen, was da gerade in den digitalen Medien passiert.

Ich glaube, es wird sich in nächster Zukunft viel positiv in dieser Hinsicht bewegen. Das zeigen mir auch Diskussionen mit Kolleginnen bei Facebook und Google: Auch die großen Plattformen sehen die Risiken der digitalen Medien. Die digitale Infrastruktur zu organisieren, ist eine Riesenaufgabe, das wird man nur gemeinsam lösen können.

Weiterführende Informationen zur Forschung über Digitalisierung und Demokratie

Stellungnahme: Digitalisierung und Demokratie

Initiative: Social Science One

Wonach suchen Sie?