News

Proof of Concept Grant für Sahana Udupa

27.04.2020

LMU-Medienanthropologin Sahana Udupa entwickelt ein Online-Tool für Fakten-Checker, das Online-Hassreden besser erkennen und entfernen kann. Der Europäische Forschungsrat fördert das Projekt.

Professor Sahana Udupa

Sahana Udupa erforscht Hassreden im Internet.

Sahana Udupa, Professorin für Medienanthropologie an der LMU, wird vom Europäischen Forschungsrat seit dem Jahr 2016 mit einem ERC Starting Grant gefördert, für eine auf fünf Jahre angelegte Studie zur Politik digitaler Medien. Nun erhält die Forscherin darauf aufbauend einen sogenannten Proof of Concept Grant, der es ihr auf der Grundlage der Ergebnisse der laufenden Forschung ermöglichen soll, eine Open-Source-Anwendung zur Bekämpfung von extremer Online-Sprache zu entwickeln. Mit diesem Programm unterstützt der ERC Forscherinnen und Forscher dabei, ihre Ergebnisse aus der Forschung in die Praxis zu überführen.

Im Rahmen ihres ERC-Projekts „ONLINERPOL“ erforschen Udupa und ihr Team die Effekte digitaler Mediennutzung, dabei vor allem die Situation in Indien und der indischen Gemeinde in Europa. Zwei internationale Workshops über „Global Perspectives on Extreme Speech Online“, die Udupa mitorganisierte, konzentrierten sich dabei auf die Probleme, die aufgrund von Online-Hassreden und gezielter Desinformation in verschiedenen Regionen der Welt entstehen. Als Antwort auf das zunehmend vergiftete Klima in den digitalen Medien und die Falschinformationen starteten Regierungen, Unternehmen und zivilgesellschaftliche Gruppen zahlreiche Maßnahmen. Aufgrund des wachsenden Ausmaßes setzen sie zunehmend Künstliche Intelligenz (KI) als Werkzeug ein, um Hassbotschaften und Falschmeldungen schneller erkennen, aufhalten und schließlich aus dem Internet entfernen zu können.

Studien der Münchner Forschergruppe haben gezeigt, dass es große kulturelle Unterschiede gibt, wie extreme Online-Sprache abgefasst und verbreitet wird. Zudem könne KI, so Udupa, nur dann erfolgreich sein, wenn sie den Menschen in den Mittelpunkt stelle. Die Befürworter von KI-Systemen sollten verstehen, dass Fragen nach der Sinnhaftigkeit des Einsatzes nicht aufgrund von Effizienz oder Skalierbarkeit der Systeme umgangen werden sollten. „KI-Systeme können die menschliche Vermittlung nicht ersetzen, beide Interventionsebenen können aber sinnvoll zusammenarbeiten“, sagt Udupa. Ihr neues Tool „AI4Dignity“, das mit dem ERC Proof of Concept Grant gefördert wird, soll genau dieses Kooperationsmodell voranbringen.

Das Tool konzentriert sich daher auf die Rolle der Fact-Checker als wichtige menschliche Mittler. Diese Faktenprüfer unterscheiden sich von anderen Anti-Hass-Gruppen durch ihre professionelle Nähe zum Journalismus. Da sie Unmengen von Desinformationsdaten ausgesetzt sind, die hasserfüllte Äußerungen enthalten, verwenden sie journalistische Praktiken, die mit der Überprüfung und Kategorisierung von Inhalten verbunden sind. „Daher stellen sie in der Debatte eine bedeutende professionelle Gemeinschaft dar“, sagt Udupa. „Diese Gruppen der Faktenprüfer, die ein enormes kulturelles Wissen über Hassreden in bestimmten Kontexten besitzen, haben derzeit praktisch keine technischen Hilfsmittel.“ Genau hier soll „AI4Dignity“ helfen. Udupas Team will ein Open-Source-Werkzeug entwickeln, das Faktenprüfer bei ihrer oft belastenden Arbeit unterstützen kann. „Unabhängiger Faktenprüfer zu stärken, halten wir für entscheidend“, sagt Udupa. „In vielen Ländern werden Organisationen, die Fakten prüfen, wegen der hohen Kosten für Technologie und Personal zunehmend von großen Medienkonzernen oder quasi-monopolistischen Technologieunternehmen kontrolliert. Das wollen wir ändern.“

Wonach suchen Sie?