News

Nicht alles so robust

27.05.2020

Warum lassen sich wissenschaftliche Studien vielfach nicht replizieren? LMU-Forscher koordinieren ein neues DFG-gefördertes Schwerpunktprogramm, das dieser Frage für die Verhaltens-, Sozial- und Kognitionswissenschaften nachgeht.

Eine Person wird von oben beim Ausfüllen eines Formulars gezeigt.

© BillionPhotos.com/Adobe Stock

Es sind Studien darunter, die in den besten Fachjournalen erschienen sind, und wissenschaftliche Befunde, die es in die Lehrbücher geschafft haben, Arbeiten also, die große Anerkennung genießen. Und doch zeigt sich an ihnen mitunter ein Manko, das an ihrer Glaubwürdigkeit kratzt und die Sinnhaftigkeit wissenschaftlicher Methoden infrage stellen kann: Sie sind nicht replizierbar. Wer sie wiederholt, kommt nicht zwangsläufig zum gleichen Ergebnis. Die Disziplinen in den Verhaltens-, Sozial- und Kognitionswissenschaften befinden sich inmitten einer intensiven Debatte, was da eigentlich los ist, warum die empirischen Befunde ganz offensichtlich nicht so robust und belastbar sind, wie es zunächst scheint. Die Zahl der Studien, die nicht replizierbar sind, ist in manchen Fächern erheblich, und mitunter macht das Wort von der Krise die Runde.

Jetzt hat die Deutsche Forschungsgemeinschaft (DFG) ein neues Schwerpunktprogramm bewilligt, das Mario Gollwitzer, Inhaber des Lehrstuhls für Sozialpsychologie an der LMU, zusammen mit Wissenschaftlerinnen und Wissenschaftlern der LMU, des Max-Planck-Instituts zur Erforschung von Gemeinschaftsgütern in Bonn und des Universitätsklinikums Hamburg-Eppendorf koordiniert. „META-REP: Ein meta-wissenschaftliches Programm zur Analyse und Optimierung von Replizierbarkeit in den Verhaltens-, Sozial- und Kognitionswissenschaften“, so lautet der offizielle Titel, soll dem Phänomen auf den Grund gehen. Wie bei DFG-Schwerpunktprogrammen üblich können sich nun Wissenschaftler aus ganz Deutschland mit Einzelprojekten um die Teilnahme bewerben. Gefördert werden bis zu 30 Vorhaben für zunächst drei Jahre, eine Verlängerung des Programmes um weitere drei ist möglich.

Wann lässt sich eine Replikation als „gelungen“ oder „gescheitert“ bezeichnen? Gehen niedrige Replikationsraten beispielsweise auf zu viele Falsch-Positiv-Befunde in der Literatur, auf Schwächen in der Replikationsmethodik oder vielmehr auf einen bislang unterschätzten Einfluss von Kontextfaktoren zurück? Solchen und anderen Fragen wollen die Wissenschaftler in dem Programm nachgehen. Die Projekte sollen zunächst einmal präzise definieren und handhabbar machen, was Replizierbarkeit und „Replikationserfolg“ in ihrer jeweiligen Disziplin bedeutet. Sie sollen umfassend analysieren, warum Replikationsraten innerhalb von und zwischen Disziplinen variieren. Und sie sollen schließlich Methoden erarbeiten, wie sich die Replizierbarkeit im jeweiligen Feld verbessern lässt. Die Ergebnisse des Programms, so hoffen die Münchner Forscher, werden für alle empirischen Wissenschaften relevant sein, die Fragen der Replizierbarkeit diskutieren. Außerdem werde das Programm den öffentlichen Diskurs um die Glaubwürdigkeit, den Wert und die Nützlichkeit von Wissenschaft bereichern.