News

Hatespeech moderieren: Wo KI den Menschen braucht

16.08.2021

Um die Hatespeech-Problematik im Netz zu lösen, müssen Mensch und Maschine besser kooperieren. Medienethnologin Sahana Udupa entwickelt Empfehlungen für den Einsatz von KI bei der Content-Moderation.

  • Der Einsatz von Künstlicher Intelligenz alleine kann die Hatespeech-Problematik nicht lösen.
  • Bei der Entwicklung von KI-Systemen zur Content-Moderation sollten gesellschaftliche Gruppen und Faktenchecker eingebunden werden.
  • LMU-Ethnologin veröffentlicht Policy Brief zum Einsatz von KI bei der Moderation von Hatespeech: „Artificial Intelligence, Extreme Speech, and the Challenges of Online Content Moderation“.

Um die Hatespeech-Problematik im Netz zu lösen, müssen Mensch und Maschine besser kooperieren: „Künstliche Intelligenz und die automatische Moderation von Inhalten werden als wichtiges Instrument angepriesen, um Extreme Speech online zu begegnen. Aber KI-Systeme, die Extreme Speech erkennen sollen, sind momentan weder weltweit einsetzbar noch inklusiv. Ihre Fähigkeit, Sprache zu erkennen, hat große Lücken“, sagt Sahana Udupa, Professorin für Medienethnologie an der LMU.

Empfehlungen für die Content-Moderation

In dem soeben erschienenen Policy Brief „Artificial Intelligence, Extreme Speech, and the Challenges of Online Content Moderation“ hat Sahana Udupa Empfehlungen für den Einsatz von Künstlicher Intelligenz bei der Content-Moderation in digitalen Medien entwickelt.

Sie betont, dass man extreme Onlinesprache als kulturelles Phänomen begreifen müsse, und schlägt daher vor, bei der KI-basierten Content-Moderation den Menschen in den Mittelpunkt zu stellen und gesellschaftliche Gruppen mit einzubeziehen. „In unserem Forschungsprojekt entwickeln wir ein kollaboratives Modell: Sogenannte Faktenprüfer, die ausreichend Wissen über den Kontext von Online-Diskursen und eine Nähe zum professionellen Journalismus haben, sind im Dialog mit Ethnographen und KI-Entwicklern.“

Die Medienethnologin warnt vor dem missbräuchlichen Einsatz von Künstlicher Intelligenz und damit verbundenen Gefahren für die Meinungsfreiheit: „Der Missbrauch von KI-Systemen kann die Sicherheit von Bürgerinnen und Bürgern bedrohen und sich gegen besonders verletzliche Gruppen richten. Es geht also auch darum, unabhängige Räume zu schaffen, losgelöst von Regierungen und Unternehmen.“

Kontakt:
Prof. Dr. Sahana Udupa
Professorin für Medienethnologie
E-Mail: sahana.udupa@lmu.de

Wonach suchen Sie?