„A preregistration plan is a plan, not a prison.“
Alexander Wuttke über seine Open-Science-Erfahrungen

Die drei wesentlichen Learnings:
- Präregistrierung hilft Forschenden, ihre Hypothesen und Analysepläne vor der Datenerhebung festzulegen und sich zu strukturieren. Das erhöht nicht nur die Transparenz, sondern auch die methodische Klarheit und reduziert nachträgliche Verzerrungen.
- Bei Registered Reports erfolgt das Peer Review bereits vor der Datenerhebung. Die Veröffentlichung hängt nicht vom Ergebnis ab, sondern allein von Relevanz und Qualität des Designs. Dies mindert den Druck, nur „positive“ Ergebnisse zu produzieren.
- Während wissenschaftliche Journals Open-Science-Praktiken zunehmend übernehmen, fehlt es in der Politikberatung oft noch an strukturellen Standards. Instrumente wie Präregistrierung, Registered Reports oder Adversarial Collaboration könnten helfen, Glaubwürdigkeit und Wirkung wissenschaftlicher Evidenz zu stärken – auch jenseits des akademischen Publikationssystems.
Wie sind Sie persönlich mit dem Thema Open Science in Berührung gekommen?
AW: In meiner Generation gehörten die Replikationskrise und das sogenannte Open Science Movement Teil zu den prägenden Erfahrungen der akademischen Sozialisation – so würde man es etwa in der Politikwissenschaft oder Erziehungswissenschaft formulieren. Während meiner Promotionszeit ereigneten sich viele der Entwicklungen, die heute unter dem Begriff „Replikationskrise“ zusammengefasst werden. Es wurde deutlich, dass zahlreiche Studien nicht verlässlich sind, dass systematische Verzerrungen wie Publication Bias und p-Hacking weit verbreitet sind – ebenso wie einige prominente wissenschaftliche Skandale. Diese Phase fiel mit meinem Einstieg in die wissenschaftliche Arbeit zusammen. In der Auseinandersetzung mit Fragen wissenschaftlicher Integrität und Transparenz bin ich im Rahmen dieser breiteren Debatte um Glaubwürdigkeit in der Forschung auch mit dem Thema Replikation in Kontakt gekommen.
Es gibt nicht wenige Stimmen in der Wirtschaftsforschung, die sagen: „Die Replikationskrise ist ein Problem der Psychologie – das betrifft uns nicht.“ Haben Sie eine breiter angelegte Krise der Sozial- und Verhaltenswissenschaften wahrgenommen?
AW: Ob der Begriff „Krise“ dabei wirklich passend ist, darüber kann man sicher diskutieren. Ich sehe das allerdings nicht als ein ausschließlich psychologisches oder sozialwissenschaftliches Phänomen. Tatsächlich kenne ich nur wenige wissenschaftliche Fachrichtungen, in denen nicht zumindest einzelne Symptome dieser Problematik identifiziert wurden. Das Phänomen reicht weit über die Sozialwissenschaften hinaus. Ein Beispiel ist das Cancer Biology Project – dort wurde versucht, zentrale Studien der Krebsforschung zu replizieren. In der Mehrheit der Fälle war das nicht erfolgreich. Vergleichbare Ergebnisse kennen wir auch aus der Medikamentenforschung und anderen wissenschaftlichen Bereichen. Das verweist auf ein strukturelles Problem: Es geht weniger um disziplinspezifische Schwächen, sondern um die Anreizsysteme, unter denen Wissenschaft betrieben wird. Forschende stehen unter Druck, viel zu publizieren – nicht notwendigerweise Wahrheit zu publizieren. Diese Fehlanreize wirken disziplinübergreifend. Insofern überrascht es nicht, dass Replikationsprobleme in vielen wissenschaftlichen Feldern auftreten. Richtig ist aber auch, dass Replikationsprobleme in einigen Disziplinen mit größerem Aufwand untersucht wurden als in anderen, was vielleicht zur schiefen Wahrnehmung beigetragen hat, dass die Replikationskrise auf wenige Disziplinen beschränkt ist.
Sie wurden als Wissenschaftler inmitten der Replikationskrise sozialisiert. Was war Ihr persönlicher Zugang zum Thema Open Science?
AW: Mein Zugang zu Open Science war im Kern durch die Frage motiviert: Wie lassen sich glaubwürdige wissenschaftliche Befunde ermöglichen? Es geht hier um Fragen der wissenschaftlichen Integrität, etwa um Anreizstrukturen und statistische Verfahren. Konkret also um Phänomene wie Publication Bias, p-Hacking und verwandte Problemlagen. Den ersten bewussten Impuls habe ich aus der Psychologie aufgenommen – weniger, weil dort die Probleme besonders ausgeprägt waren, sondern weil die Diskussion besonders früh und intensiv geführt wurde.
Parallel dazu habe ich aber auch festgestellt, dass ähnliche Diskussionen in kleinerem Ausmaß schon deutlich früher in meinem eigenen Fach, der Politikwissenschaft, existierten – unabhängig von der Replikationskrise. Bereits Mitte der 1990er Jahre gab es einen prominenten Aufruf zur Replikation, später dann die Initiative von Journal-Editoren, die sich für den offenen Zugang zu Forschungsdaten starkgemacht haben. In mancher Hinsicht lässt sich die Politikwissenschaft durchaus als eine Open Science Vorreiterdisziplin beschreiben, in der bestimmte Open-Science-Praktiken und Policies früh etabliert wurden – ohne große öffentliche Debatte, aber mit konsequenter Anwendung. In der Wahlforschung etwa ist es selbstverständlich, mit öffentlich zugänglichen Sekundärdaten zu arbeiten. Die Bereitstellung von Replikationsdaten war daher vielerorts schon früh gelebte Praxis.
Vor diesem Hintergrund war meine Reaktion auf Teile der Open-Science-Diskussion gelegentlich von Verwunderung geprägt – etwa über den Umstand, dass Datenzugang offenbar in manchen Disziplinen nicht selbstverständlich ist. Die Vorstellung, dass Forschende ihre Daten nicht teilen, war mir zunächst fremd – es war schlicht nie ein Thema in meinem eigenen Umfeld. Doch offenbar ist genau das in anderen Fachkulturen gängige Praxis gewesen.
Gibt es eine Maßnahme oder Praxis im Rahmen von Open Science, von der Sie persönlich als Forschender besonders profitiert haben und die Sie anderen empfehlen würden?
AW: Aus meiner Sicht war die größte Veränderung in meiner eigenen Forschungspraxis die Einführung der Präregistrierung. Oder sagen wir: eine der wesentlichsten Veränderungen – auch das Teilen von Daten hat große Auswirkungen. Aber die Präregistrierung hat meine Arbeitsweise grundlegend verändert. Sie trägt nicht nur zur Glaubwürdigkeit wissenschaftlicher Befunde bei, sondern verändert auch den Ablauf des eigenen Forschungsprozesses. Man wird gezwungen, sich bereits vor der Datenerhebung mit entscheidenden methodischen Fragen auseinanderzusetzen – also in einem Moment, in dem noch Anpassungen möglich sind. Früher war es üblich, sich erst im Nachhinein, also nach der Datenerhebung intensiver mit vielen Detailfragen zu beschäftigen. Oft stellte sich dann heraus, dass wichtige Aspekte vor der Datenerhebung gar nicht berücksichtigt worden waren. Dann ist das Kind allerdings bereits in den Brunnen gefallen.
Die Präregistrierung zwingt einen dazu, diese Überlegungen vorab zu treffen – und dabei wird oft deutlich, dass man für manche Fragen noch keine fundierte Antwort hat. Unabhängig von strukturellen Problemen im Wissenschaftssystem ist die Präregistrierung deshalb auch ein Instrument zur besseren Selbstorganisation. Sie hilft, den Forschungsprozess zu strukturieren – gerade in der experimentellen Forschung oder bei eigener Datenerhebung, wo nachträgliche Änderungen oft nicht mehr möglich sind. Der zentrale Vorteil liegt darin, dass man die relevanten Entscheidungen trifft, solange das Design noch veränderbar ist.
Manche Forschende befürchten, dass Präregistrierung sie zu sehr einschränkt – insbesondere bei explorativen Analysen. Wie begegnen Sie diesem Einwand?
AW: Es gibt den treffenden Satz: „A preregistration plan is a plan, not a prison.“ Eine Präregistrierung soll nicht in Ketten legen, sondern Transparenz schaffen. Ziel ist es, für Dritte nachvollziehbar zu machen, was im Forschungsprozess vorab geplant war und was erst im Umgang mit den Daten entstanden ist. Das betrifft insbesondere Hypothesen: Es ist ein wesentlicher Unterschied, ob eine Hypothese vor der Datenerhebung formuliert und dann getestet wurde – oder ob sie erst nach Sichtung der Daten entstanden ist. In letzterem Fall hat nie ein Hypothesentest stattgefunden, denn dann wurden Hypothesen aus den Daten selbst abgeleitet. Das ist keineswegs illegitim, aber es ist wichtig, diesen Unterschied offen zu kennzeichnen. Präregistrierung verhindert weder explorative Forschung noch spätere Anpassungen. Sie zwingt lediglich dazu, transparent zu machen, an welchem Punkt welche Entscheidungen getroffen wurden. Es gibt keine Sanktionen oder starre Vorgaben. Präregistrierung garantiert keine wahren Befunde, sondern ermöglicht es Dritten, die Glaubwürdigkeit einzelner Befunde besser einzuordnen. Insofern ist sie ein Beitrag zur Nachvollziehbarkeit – und damit mittelbar zur wissenschaftlichen Qualität. In der Open-Science-Bewegung geht es grundsätzlich nicht um Kontrolle, sondern um Offenheit: Bei Open Data etwa um die Nachprüfbarkeit von Ergebnissen, bei der Präregistrierung um die Nachvollziehbarkeit des Wegs dorthin.
Wo präregistrieren Sie Ihre Studien in der Regel?
AW: In der Regel nutze ich die Plattform OSF. Open Science Framework hat sich inzwischen als Standard etabliert und wird von den meisten Forschenden genutzt – auch von mir. Sie bietet nicht nur die Möglichkeit, grundlegende Aspekte wie Forschungsfrage oder Hypothese zu präregistrieren, sondern erlaubt auch, weitergehende Materialien wie Analysecode auf Grundlage simulierter Daten hochzuladen. Das nutzen wir, wenn es der Zeitrahmen zulässt, regelmäßig. Denn dadurch setzen wir uns frühzeitig mit analytischen Fragen auseinander: Welches Modell soll genau verwendet werden? Wie genau spezifizieren wir unsere statistische Analysestrategie? Solche Entscheidungen lassen sich auf OSF gut dokumentieren. Die Plattform ist funktional und aus meiner Sicht insgesamt zufriedenstellend, auch wenn in Bezug auf Nutzerfreundlichkeit noch Verbesserungen möglich wären.
Sie sind seit einiger Zeit auch Editor für Registered Reports beim Journal of Politics. Wie kam es zu dieser Rolle?
AW: Die damalige Editorin, Vera Tröger, hatte eine neue Policy eingeführt, wonach experimentelle Studien im Journal of Politics künftig präregistriert sein müssen. Ich habe das in einem Blogbeitrag kommentiert und angemerkt, dass der größere Schritt für das Fach darin bestehen könnte, Registered Reports einzuführen – also Präregistrierung verbunden mit Peer Review vor der Datenerhebung. Daraufhin hat sie Kontakt zu mir aufgenommen, mich eingeladen, an der Ausgestaltung der Preregistration Policy mitzuwirken, und gemeinsam haben wir eine Open-Science-Arbeitsgruppe gegründet. Im Zuge dessen entstand die Idee, Registered Reports im Rahmen eines Pilotprojekts einzuführen – und ich habe die redaktionelle Betreuung übernommen.
In den Wirtschaftswissenschaften spielt das Format Registered Reports bislang kaum eine Rolle. Können Sie noch einmal knapp erklären, worum es dabei geht und welchen Vorteil Sie darin sehen?
AW: Registered Reports setzen an zwei zentralen Problemen im Wissenschaftssystem an: dem Publication Bias und dem p-Hacking. Gegen p-Hacking hat sich in vielen Bereichen, vor allem in der experimentellen Forschung, die Präregistrierung etabliert – also die vorherige Festlegung von Hypothesen und Analysemethoden. Das hilft, nachträgliche Anpassungen an die Datenbasis zu vermeiden.
Präregistrierung allein löst jedoch nicht das Problem des Publication Bias, also der systematischen Nichtveröffentlichung unerwünschter oder negativer Ergebnisse. Studien, die Hypothesen nicht bestätigen, erscheinen seltener in Fachzeitschriften – obwohl gerade solche Befunde wichtig für den Erkenntnisfortschritt sind. Denken Sie an die Medikamentenforschung: Wenn nur Studien publiziert werden, die einen positiven Effekt zeigen, entsteht ein verzerrtes Bild der Wirksamkeit. Uns fehlt die gesamte Bandbreite der positiven und der negative Befunde.
Registered Reports setzen genau hier an. Die Idee ist, dass Begutachtung und redaktionelle Entscheidungen vor der Datenerhebung stattfinden – ausschließlich auf Grundlage der Forschungsfrage, des theoretischen Beitrags und des Forschungsdesigns. So wird verhindert, dass die späteren Ergebnisse – ob positiv, negativ oder gemischt – die Publikationsentscheidung beeinflussen. Die Editoren treffen ihre Entscheidung allein auf Grundlage der Relevanz der Studie und der Qualität des Forschungsdesigns – nicht aber danach, ob die Ergebnisse spektakulär ausfallen.
Ein ganz praktischer Vorteil ist, dass die Reviewphase zu einem Zeitpunkt erfolgt, an dem sie den größten Mehrwert hat – nämlich wenn die Kommentare der Reviewer noch zu einer Verbesserung der Studie beitragen können bevor die Daten erhoben werden. Und: Forschende erhalten eine verbindliche Publikationszusage, sofern sie das begutachtete Forschungsdesign umsetzen. Das schafft Planungssicherheit – unabhängig davon, ob die Ergebnisse erwartungskonform ausfallen oder nicht.
Wer mehrere Jahre in ein Projekt investiert, dem gibt es Sicherheit zu wissen, dass die Studie am Ende auch veröffentlicht wird – zumindest solange eine Publikation im Lebenslauf das zentrale Kriterium für wissenschaftlichen Erfolg ist, oder?
AW: Genau, das ist ein zentrales Problem – insbesondere für Wissenschaftler:innen in der Qualifikationsphase ohne feste Stelle. Die Unsicherheit des Karriereverlaufs und die starke Abhängigkeit vom Erfolg einzelner Publikationen setzen enorm unter Druck. Wenn die berufliche Zukunft daran hängt, dass eine aufwendig geplante und finanzierte Studie „funktioniert“, also eine Hypothese bestätigt wird, entsteht ein starker Anreiz, Ergebnisse zu beschönigen – bewusst oder unbewusst.
Das ist nicht nur ein Problem für die Glaubwürdigkeit von Wissenschaft, sondern auch für die Forschenden selbst: Sie werden abhängig von einem Faktor, der im wissenschaftlichen Prozess eigentlich nicht beeinflussbar sein sollte – dem empirischen Ergebnis. Wir sollten beobachten, was die Daten zeigen, nicht darauf hoffen oder hinarbeiten, dass sie etwas Bestimmtes bestätigen. Wenn davon jedoch die Karriere abhängt, erzeugt das nachvollziehbar Stress und Unsicherheit und falsche Versuchungen. Registered Reports schaffen hier ein gewisses Maß an Planbarkeit. Die Entscheidung über die Publikation fällt auf Basis von Fragestellung und Design – unabhängig vom späteren Ergebnis. Das kann gerade in frühen Karrierephasen entlastend wirken.
Man muss aber auch sagen: Dieses Format erfordert eine Umstellung. Forschung muss anders geplant werden, weil viele Entscheidungen bereits vor der Datenerhebung getroffen und begründet werden müssen. Das hat auch praktische Implikationen – etwa für die Drittmittelfinanzierung, bei der Fristen und Förderlogiken oft nicht auf das Format abgestimmt sind. Es bringt also nicht nur Vorteile, sondern verändert auch die Abläufe, an die viele bislang gewöhnt waren.
Könnten Sie diese praktischen Implikationen noch etwas erläutern?
AW: Es bedeutet eine erhebliche Umstellung im Forschungsprozess, ob ich selbst festlegen kann, dass ich beispielsweise im dritten Monat meine Hypothesen entwickle und im sechsten Monat mit der Datenerhebung beginne – oder ob ich im dritten Monat zunächst meinen Forschungsplan ausarbeite, diesen einem Peer-Review unterziehe und dann für eine längere Zeit auf eine Entscheidung warten muss, die positiv oder negativ ausfallen kann. Falls die Begutachtung negativ verläuft, muss ich gegebenenfalls einen neuen Anlauf bei einem anderen Journal nehmen, ohne genau zu wissen, wann überhaupt mit einem positiven Entscheid zu rechnen ist. Erst ab diesem Zeitpunkt darf ich mit der Datenerhebung beginnen. Das kann problematisch sein – etwa dann, wenn zu diesem Zeitpunkt bereits die Laufzeit meines Projekts endet oder bewilligte Fördermittel verfallen. Registered Reports sind also nicht für jede Art von Forschungsprojekt optimal geeignet.
Welche Rückmeldungen erhalten Sie von den Reviewern zur Begutachtung des Forschungsdesigns in Phase eins?
AW: Vor über zehn Jahren gab es in der Zeitschrift Comparative Political Studies ein erstes Pilotprojekt für Results-Blind Review, das damals überwiegend negativ aufgenommen wurde. Viele Reviewer konnten mit dem Format nichts anfangen und wunderten sich, warum das Manuskript ohne Ergebnisse abrupt endete. Aus dieser Erfahrung haben wir gelernt. Wir haben bewusst viel Aufwand in die Aufklärung investiert und einen Pool von Reviewer aufgebaut, die das Format kennen und unterstützen. Als wir das Pilotprojekt für Registered Reports angekündigt haben, haben sich auf unseren Aufruf hin über 1.000 Kolleg:innen freiwillig gemeldet – eine beeindruckende Zahl für ein freiwilliges Review-Engagement.
Viele Reviewer wertschätzen besonders, dass ihre Kommentare, in die sie viel Arbeit reingesteckt haben, tatsächlich in die Studiengestaltung einfließen können. Es ist deutlich befriedigender, methodische Kritik zu üben, zu erklären, zu erläutern, wenn diese noch vor der Datenerhebung berücksichtigt werden kann. Auch auf Seite der Autor:innen zeigt sich das: Eine interne Evaluation – noch unveröffentlicht – deutet darauf hin, dass die meisten Autor:innen das Verfahren als konstruktiv und hilfreich empfinden, weil sie frühzeitig Rückmeldungen erhalten, die sie unmittelbar umsetzen können.
Gibt es Hinweise darauf, dass sich durch Registered Reports die Art oder Aussagekraft der publizierten Ergebnisse verändert hat – etwa im Hinblick auf die Häufigkeit von Nullbefunden?
AW: Es gibt tatsächlich metawissenschaftliche Studien, die Registered Reports mit konventionellen Artikeln vergleichen. Eine zentrale Erwartung an das Format ist, dass die Zahl sogenannter Nullbefunde steigt – also Ergebnisse, die den ursprünglichen Hypothesen widersprechen oder diese nicht bestätigen. Genau das lässt sich auch beobachten: In einer Studie aus der Psychologie von Anne Scheel und Kollegen wurde festgestellt, dass bei Registered Reports signifikant mehr Nullbefunde veröffentlicht werden. Das spricht dafür, dass das Format tatsächlich einen Beitrag zur Reduktion von Publication Bias leistet. Für das JOP liegen bislang noch nicht genügend Fälle vor, um eine belastbare Analyse durchzuführen. Aber in einigen Jahren wird auch das möglich sein.
Registered Reports werden bisher vor allem von einzelnen Fachzeitschriften vorangetrieben. Ließe sich diese Entwicklung nicht auch stärker durch die Wissenschaftspolitik fördern – gerade um die systematische Nichtveröffentlichung nicht-signifikanter Ergebnisse zu vermeiden? Und wer könnte hier zusätzlich Verantwortung übernehmen?
AW: Da wissenschaftliche Publikationen derzeit – und vermutlich auch absehbar – die zentrale Währung im Wissenschaftssystem sind, halte ich die Fachzeitschriften für einen sinnvollen Ansatzpunkt für Reformen. Registered Reports setzen genau hier an, also an der Schnittstelle von Forschung und Veröffentlichung. Gleichzeitig sprechen Sie aber einen wichtigen Punkt an: Es gibt auch viele wissenschaftliche Arbeiten, insbesondere im Bereich der Politikberatung und Politikevaluation, bei denen eine Publikation in Journals gar nicht im Vordergrund steht. Ausgerechnet dort, wo besonders glaubwürdige und transparente Forschung wichtig wäre, sind die institutionellen Standards zur Qualitätssicherung bislang am wenigsten etabliert.
Ich bedauere, dass viele der mittlerweile gut erprobten Reformansätze – wie Präregistrierung oder Registered Reports – in diesen anwendungsnahen Feldern bisher kaum angekommen sind. Dabei könnten gerade große Auftraggeber von Evaluationsstudien – etwa Ministerien oder Stiftungen – hier neue Standards setzen. Beispielsweise durch verpflichtende Präregistrierung oder durch Formate, die dem Prinzip der Registered Reports folgen. Das wäre aus meiner Sicht ein nächster, logischer Schritt in der Weiterentwicklung wissenschaftlicher Praxis: die Übertragung erprobter Verfahren aus dem akademischen Publikationssystem in angrenzende Bereiche wie die Politikberatung.
Sie haben gesagt, die Anreizsysteme im Wissenschaftsbetrieb seien verbesserungswürdig – das sehe ich genauso. Wo würden Sie ansetzen, um das System grundlegend zu reformieren?
AW: Ich würde gezielt Präregistrierung, Registered Reports und Adversarial Collaboration in der politiknahen Evaluation und Politikberatung einführen. Gerade hier besteht Reformbedarf – und die Politik hätte die Möglichkeit, solche Standards zu setzen. In anderen Bereichen müssen wir als Forschende selbst Veränderungen vorantreiben. Aber wenn Politik belastbare wissenschaftliche Grundlagen für Entscheidungen will, etwa zur Vorbereitung auf künftige Krisen, sollten genau hier vertrauenswürdige Verfahren etabliert werden.
Was ist Adversarial Collaboration?
AW: Das ist ein Verfahren, das besonders in kontroversen Forschungsfeldern helfen kann, glaubwürdige Ergebnisse zu erzielen. Die Grundidee: Zwei Forscherteams mit unterschiedlichen Perspektiven – etwa Befürworter:innen und Kritiker:innen von Maskenpflichten – legen vor der Datenerhebung gemeinsam fest, welches Studiendesign geeignet ist, um die Fragestellung fair zu prüfen. Sie definieren im Vorfeld, bei welchen Ergebnissen welche Schlussfolgerung zulässig ist. So wird verhindert, dass jedes Team die Daten im Nachhinein so interpretiert, dass sie zu den eigenen Erwartungen passen. Wir lassen also die Daten sprechen und ermöglichen echtes Lernen, trotz und gerade wegen unserer verfestigten Voreinstellungen. Adversarial Collaboration zielt darauf, Verzerrungen zu minimieren – indem man sich gemeinsam auf nachvollziehbare Standards einigt, bevor die Daten überhaupt vorliegen. Das stärkt die Glaubwürdigkeit – auch in politisch sensiblen Fragen.
Angenommen, eine junge Wirtschaftsforscherin oder ein junger Wirtschaftsforscher liest dieses Interview und denkt: „Das klingt überzeugend, das will ich auch machen.“ Was würden Sie jemandem raten, der nicht an der LMU arbeitet? Wie steigt man ins Thema ein?
AW: Alles, worüber wir gesprochen haben, zielt darauf ab, vertrauenswürdige wissenschaftliche Befunde zu erzeugen. Und ich glaube, das ist ein zentrales Anliegen fast aller Forschenden: Wir investieren viel Zeit und Mühe in unsere Arbeit, weil wir wissen wollen, was tatsächlich zutrifft. Natürlich spielen auch Karriereaspekte eine Rolle – und die stehen manchmal im Spannungsverhältnis zu wissenschaftlichen Idealen. Aber der Wunsch, zu verlässlicher Erkenntnis beizutragen, ist für viele der eigentliche Antrieb.
Insofern überrascht es nicht, dass sich viele dieser neuen Praktiken so schnell verbreitet haben. Sie erinnern uns auch daran, warum wir uns ursprünglich für die Wissenschaft entschieden haben. Wichtig ist aber auch: Wissenschaft – und Open Science erst recht – bedeutet nicht Perfektion. Man kann immer noch gründlicher präregistrieren, noch besser dokumentieren, noch mehr reproduzierbar machen. Aber es geht nicht darum, alles auf einmal umzusetzen. Manchmal erfordert es Kompromisse – mit den eigenen Ansprüchen, mit dem Zeitbudget. Und das ist völlig in Ordnung.
Mein Rat wäre: einfach irgendwo anfangen. Wenn eine Präregistrierung nicht mehr möglich ist, weil die Datenerhebung schon abgeschlossen ist, kann man trotzdem Daten und Analysecode offenlegen. Vielleicht auch das verwendete Umfrageinstrument. Das ist bereits ein relevanter Beitrag – und einer, der sich mit dem eigenen wissenschaftlichen Selbstverständnis gut vereinbaren lässt. Wenn man einen ehrlichen Beitrag geleistet hat, die Welt besser zu verstehen und niemanden in die Irre zu führen, dann kann man frohen Mutes auf die eigene wissenschaftliche Laufbahn zurückblicken.
Vielen Dank!
*Das Interview wurde durchgeführt von Dr. Doreen Siegfried am 10. Juni 2025.
Über Prof. Dr. Alexander Wuttke:
Prof. Dr. Alexander Wuttke forscht am Geschwister-Scholl-Institut der LMU München im Bereich Digitalisierung und politisches Verhalten. Wuttke ist „Special Editor for Registered Reports“ beim Journal of Politics. Zudem leitet er Initiativen zur Durchführung von Replikationsstudien – etwa im Rahmen der „Crowdsourced Replication Initiative“ – und setzt sich dafür ein, dass Forschungsergebnisse belastbar und wiederholbar sind. Zugleich beteiligt er sich am Open Science Center der LMU und bringt seine Expertise in Workshops sowie Vorträgen zu Themen wie „Registered Reports: Hype and Reality“ ein.
Kontakt: https://www.gsi.uni-muenchen.de/personen/professoren/wuttke/index.html
Website: https://www.political-behavior.digital/
LinkedIn: https://www.linkedin.com/in/alexander-wuttke-aaa940241/
ResearchGate: https://www.researchgate.net/profile/Alexander-Wuttke