Stellen Sie sich eine Gesundheitskonferenz vor. Tagesordnungspunkt: Auswahl eines schulischen Präventionsprogramms. Die Daten der kommunalen Schülerbefragung liegen vor – erhöhte Werte bei Mobbing, früher Substanzkonsum, schwache Schulbindung. Ein Programm aus der Grünen Liste Prävention wird vorgeschlagen: evaluiert, mit nachgewiesener Wirksamkeit auf genau diese Risikofaktoren.

Dann meldet sich jemand: „Das mag in den USA funktionieren, aber unsere Jugendlichen sind anders.“ Jemand anderes: „Wir haben seit 20 Jahren gute Erfahrungen mit unserem eigenen Ansatz – das ist doch auch eine Form von Evidenz.“ Ein Dritter: „Bevor wir über Programme reden, müssen wir erst die Rahmenbedingungen ändern.“ Und schließlich: „Die Effekte in der Metaanalyse waren doch minimal – lohnt sich der Aufwand?“

Jede dieser Aussagen enthält einen wahren Kern. Die Übertragbarkeit amerikanischer Programme ist eine berechtigte Frage. Praxiserfahrung hat einen Wert. Rahmenbedingungen sind wichtig. Und ja, die Effekte universeller Prävention sind klein. Aber jede dieser Aussagen nutzt zugleich eine rhetorische Figur, die es erlaubt, sich mit der vorliegenden Evidenz nicht auseinandersetzen zu müssen. Die Forschung zu Wissenschaftsleugnung hat solche Figuren seit über 15 Jahren präzise beschrieben (Diethelm & McKee, 2009). Cook (2020) hat über 30 davon in einer Taxonomie systematisiert, Schmid und Betsch (2019) zeigten experimentell, dass sie über Themengrenzen hinweg funktionieren – und dass man sich gegen sie wappnen kann.

Dieser Beitrag überträgt diese Taxonomie auf das Feld, in dem wir arbeiten: die Prävention und Gesundheitsförderung. Nicht als Waffe gegen Andersdenkende – sondern als Werkzeug, um den Punkt zu erkennen, an dem ein berechtigter Einwand aufhört, die Evidenz zu prüfen, und anfängt, sie zu vermeiden.

Leugnung ist nicht Skepsis

Eine Unterscheidung ist zentral, bevor wir weitergehen: Wissenschaftsleugnung ist nicht dasselbe wie Skepsis. Skepsis prüft Evidenz sorgfältig, bevor sie eine Behauptung akzeptiert. Leugnung weist Evidenz systematisch zurück – unabhängig von deren Qualität (Jylhä et al., 2023). Und sie ist kein binäres Phänomen: Menschen bewegen sich auf einem Kontinuum von voller Akzeptanz bis zu hoher Ablehnung (Jylhä et al., 2023). Nicht die Person ist das Problem, sondern die Technik. Wer die Techniken erkennt, kann den Diskurs versachlichen – unabhängig davon, ob sie bewusst oder unbewusst eingesetzt werden.

Warum die Prävention es besonders schwer hat

Warum verfangen solche Techniken in unserem Feld so gut? Drei Gründe – und nicht die, die man zuerst vermuten würde.

Prävention ist unsichtbar. Wenn ein Chirurg einen Tumor entfernt, ist das Ergebnis sichtbar. Wenn eine Therapeutin eine Angststörung behandelt, merkt die Patientin den Unterschied. Aber wenn ein Präventionsprogramm wirkt, passiert – nichts. Der Drogenkonsum, der begonnen hätte, beginnt nicht. Die Gewalt, die eskaliert wäre, eskaliert nicht. Man kann eine verhinderte Krise nicht fotografieren. Und ein Hedges‘ g von 0,068 – der Gesamteffekt der jüngsten Metaanalyse zu schulischen Interventionen (Lemberger-Truelove et al., 2026) – macht keine Schlagzeile im Amtsblatt. Das macht Prävention rhetorisch verwundbarer als fast jede andere Intervention.

Evidenzanforderungen bedrohen existierende Strukturen. Das ist der Elefant im Raum. Die deutsche Präventionslandschaft ist geprägt vom Subsidiaritätsprinzip: Tausende Träger der freien Wohlfahrtspflege setzen Prävention um, viele mit Programmen, die über Jahrzehnte gewachsen, lokal verankert und institutionell eingebettet sind – aber nie in kontrollierten Studien evaluiert wurden. Wenn jemand sagt: „Wir sollten nur noch Programme mit nachgewiesener Wirksamkeit fördern“, ist das keine abstrakte Methodendebatte. Es bedroht Arbeitsplätze, Organisationen und Lebenswerke. Diese materielle Bedrohung erzeugt motivierte Leugnung – die stärkste Form. Nicht weil die Betroffenen unredlich wären, sondern weil Menschen dazu neigen, Argumente zu finden, die ihre Existenz schützen (Diethelm & McKee, 2010). Dieselbe Dynamik hat die Tabakindustrie jahrzehntelang angetrieben – mit dem Unterschied, dass es in der Prävention nicht um Konzernprofite geht, sondern um das Selbstverständnis engagierter Fachkräfte.

Legitime Werte liefern perfekte Tarnung. In der Klimadebatte kann niemand ernsthaft argumentieren, die Kommune solle demokratisch darüber abstimmen, ob CO₂ die Atmosphäre erwärmt. In der Prävention schon. Partizipation, lokale Autonomie, Erfahrungswissen, demokratische Entscheidungsfindung – das sind keine Vorwände, sondern echte Werte, die in der Prävention zurecht einen hohen Stellenwert haben. Aber genau deshalb eignen sie sich so gut als Vehikel für Leugungstechniken: Wer sagt „Die Kommune muss selbst entscheiden“, hat teilweise recht. Lewandowsky, Armaos und Bruns (2022) zeigten, dass dieselben Leugungstechniken in der Klimadebatte, bei COVID-19 und in Impffragen auftreten – aber nur in der Prävention können sie sich hinter demokratischen Werten verstecken. Das macht es so schwer, die Grenze zwischen berechtigtem Anspruch und rhetorischer Vermeidung zu ziehen. In unserem Beitrag Wenn Verständigung gelingt haben wir diese Grenze mit Habermas‘ Diskursethik zu bestimmen versucht. Die folgende Tabelle bietet ein komplementäres Werkzeug: Sie benennt nicht die diskursethische Qualität, sondern die konkreten rhetorischen Techniken, an denen man erkennen kann, wann ein Wertargument aufhört, den Diskurs zu öffnen, und anfängt, ihn zu verschließen.

Dass diese Verwundbarkeit Konsequenzen hat, ist keine Spekulation. Diethelm und McKee (2010) dokumentierten, wie die Tabakindustrie über Jahrzehnte mit genau denselben Techniken – Scheinexperten, selektiver Evidenznutzung, unmöglichen Erwartungen – wirksame Präventionspolitik verzögerte. Die Parallele zur Prävention ist unbequem, aber instruktiv: Auch hier geht es um materielle Interessen, die sich rhetorisch als Sachargumente tarnen.

31 Techniken der Wissenschaftsleugnung – übertragen auf Prävention und Gesundheitsförderung

Die folgende Tabelle überträgt die Taxonomie von Cook (2020) auf den Kontext der Prävention und Gesundheitsförderung. Die Definitionen entsprechen den Originalen; die Beispiele stammen aus Diskursen, wie sie in der deutschen Präventionslandschaft vorkommen. Sie sind fiktiv, aber typisiert: Jede Fachkraft, die in diesem Feld arbeitet, wird Varianten dieser Argumente wiedererkennen. Die meisten Beispiele zeigen Techniken, mit denen evidenzbasierte Prävention delegitimiert wird – einige zeigen bewusst, dass auch die Evidenzseite nicht frei von rhetorischen Fehlgriffen ist.

Eine Vorbemerkung, die uns wichtig ist: Wir setzen selbst evidenzbasierte Präventionsverfahren in Deutschland um. Wir wissen, dass eine solche Tabelle aus unserer Feder wie eine Immunisierungsstrategie gelesen werden kann – als wollten wir jede Kritik an unserer Arbeit vorab als Leugungstechnik abqualifizieren. Das ist nicht die Absicht, und es wäre auch sachlich falsch. Viele der Sätze in dieser Tabelle fallen in Fachgremien aus echtem Engagement für Jugendliche, aus berechtigter Sorge um lokale Autonomie oder aus der Frustration darüber, dass Erfahrungswissen zu wenig Anerkennung findet. Die Technik zu erkennen heißt nicht, dem Gegenüber böse Absicht zu unterstellen – es heißt, den Punkt zu finden, an dem ein Argument aufhört, die Evidenz zu prüfen, und anfängt, sie zu vermeiden. Diese Grenze verläuft oft mitten durch Sätze, die wir selbst in Sitzungen sagen.

Technik Definition Beispiel aus der Prävention
Angriff auf die Person (Ad Hominem) Angriff auf eine Person oder Gruppe statt auf deren Argumente. „Diese ganze Evidenz-Debatte wird ja vor allem von Leuten vorangetrieben, die noch nie wirklich mit Jugendlichen gearbeitet haben – Professoren, die ihre Zahlen in klimatisierten Büros auswerten, während wir hier vor Ort tagtäglich sehen, was wirklich funktioniert.“
Mehrdeutigkeit (Ambiguity) Verwendung mehrdeutiger Sprache, um zu einer irreführenden Schlussfolgerung zu gelangen. „Unser Programm ist selbstverständlich evidenzbasiert – es basiert auf den Erfahrungen, die wir in zwanzig Jahren Praxis gesammelt haben.“
Anekdote (Anecdote) Verwendung persönlicher Erfahrung oder einzelner Beispiele statt fundierter Argumente oder überzeugender Evidenz. „Ich arbeite seit zwanzig Jahren mit Jugendlichen in diesem Bezirk – und ich sage Ihnen: Unser Programm wirkt. Die Kinder in meiner Gruppe haben sich verändert, das spürt man einfach.“
Aufblasen (Blowfish) Fokussierung auf einen nebensächlichen Aspekt wissenschaftlicher Forschung, der aufgebauscht wird, um von den Hauptbefunden abzulenken oder Zweifel daran zu säen. „In der Schülerbefragung wird eine einzelne Frage zur familiären Kommunikation von Experten als kulturell voreingenommen kritisiert – wie soll man auf dieser Basis eine ganze kommunale Präventionsstrategie aufbauen?“
Masse statt Klasse (Bulk Fake Experts) Berufung auf eine große Zahl scheinbarer Experten, um zu argumentieren, es gebe keinen wissenschaftlichen Konsens. „Über 200 Praktiker aus Jugendhilfe und Wohlfahrtsverbänden bestätigen in unserer Umfrage, dass ihre bewährten Ansätze besser wirken als jedes Handbuchprogramm – das wiegt schwerer als jede kontrollierte Studie.“
Rosinenpicken (Cherry Picking) Gezielte Auswahl von Daten, die eine Position zu bestätigen scheinen, bei gleichzeitigem Ignorieren widersprechender Daten. „Die Schülerbefragung hat gezeigt, dass in einigen Gemeinden die Werte für antisoziales Verhalten nach Einführung des Programms sogar gestiegen sind – wozu also teure Präventionsprogramme, die das Problem offensichtlich verschlimmern?“
Widersprüchlichkeit (Contradictory) Gleichzeitiges Vertreten von Ideen, die sich gegenseitig ausschließen. „Wir brauchen endlich verbindliche Qualitätsstandards in der Prävention – und gleichzeitig muss jede Gemeinde das Recht haben, ihren eigenen Ansatz frei zu wählen.“
Verschwörungstheorie (Conspiracy Theory) Behauptung, es existiere ein geheimer Plan zur Umsetzung eines schädlichen Vorhabens oder zum Verbergen einer Wahrheit. „Dass ausgerechnet immer dieselben Programme gefördert werden, ist kein Zufall – dahinter steckt ein Netzwerk aus Programmanbietern und Krankenkassen, die sich gegenseitig die Aufträge zuschieben.“
Scheindebatte (Fake Debate) Darstellung von Wissenschaft und Pseudowissenschaft in einem antagonistischen Format, um den falschen Eindruck einer laufenden wissenschaftlichen Debatte zu erzeugen. „Heute diskutieren wir kontrovers: Auf der einen Seite Professorin Schmidt, deren Programm in drei randomisierten Studien Jugendgewalt um 40 Prozent gesenkt hat, auf der anderen Seite Herr Brenner, der seit zwanzig Jahren Erlebnispädagogik ohne Evaluation anbietet – zwei spannende Ansätze!“
Scheinexperten (Fake Experts) Darstellung einer unqualifizierten Person oder Institution als Quelle glaubwürdiger Information. „Als langjähriger Stadtrat und Vater von drei Kindern weiß ich aus Erfahrung, dass diese amerikanischen Risikofaktorenlisten nichts taugen – ich kenne unsere Jugend hier besser als jeder Forscher.“
Falsche Analogie (False Analogy) Annahme, dass zwei Dinge, die in einigen Aspekten ähnlich sind, auch in anderen übereinstimmen. „Wenn ein Medikament nach sechs Monaten nicht wirkt, setzen wir es ab. Dasselbe muss für Präventionsprogramme gelten – nach einem Jahr ohne sichtbare Ergebnisse ist Schluss.“
Falsche Wahl (False Choice) Darstellung von zwei Optionen als einzige Möglichkeiten, obwohl weitere existieren. „Entweder wir hören auf die Zahlen – oder wir hören auf die Menschen. Beides gleichzeitig funktioniert nicht.“
Falsche Gleichsetzung (False Equivalence) Fehlerhafte Behauptung, zwei Dinge seien gleichwertig, obwohl es wesentliche Unterschiede gibt. „Unser Programm wurde zwar nicht in kontrollierten Studien evaluiert, aber wir arbeiten seit 20 Jahren mit Jugendlichen – das ist doch letztlich dieselbe Art von Evidenz, nur eben aus der Praxis.“
Immun gegen Evidenz (Immune to Evidence) Jede Gegenevidenz wird als Teil der Verschwörung umgedeutet. „Klar zeigt die Evaluation positive Ergebnisse – die wurde ja auch von den Leuten gemacht, die am Weiterlaufen des Programms verdienen. Was sollen die denn sonst schreiben?“
Unmögliche Erwartungen (Impossible Expectations) Forderung unrealistischer Sicherheitsstandards, bevor auf der Grundlage der Wissenschaft gehandelt wird. „Wenn Ihr Präventionsprogramm nicht garantieren kann, dass dieses Kind hier niemals Drogen nehmen wird, dann ist es das Steuergeld nicht wert.“
Logische Fehlschlüsse (Logical Fallacies) Argumente, bei denen die Schlussfolgerung nicht logisch aus den Prämissen folgt (Non sequitur). „Unsere Kommune hat seit Jahren einen Präventionsrat, und die Jugendkriminalität ist trotzdem nicht gesunken – also funktionieren kommunale Präventionsansätze nicht.“
Aufgeblasene Minderheit (Magnified Minority) Überhöhung der Bedeutung einer Handvoll abweichender Wissenschaftler, um Zweifel an einem überwältigenden Konsens zu säen. „Wenn selbst renommierte Wissenschaftler die gesamte Risikofaktorenforschung für gescheitert erklären, sollten wir uns fragen, ob datengestützte Präventionssysteme überhaupt auf solidem Fundament stehen.“
Falschdarstellung (Misrepresentation) Verzerrte Darstellung einer Situation oder der Position eines Gegners. „Evidenzbasierte Prävention ist im Grunde ein amerikanisches Franchise-Modell, das deutschen Kommunen vorschreibt, welche Programme sie umzusetzen haben – lokales Erfahrungswissen wird durch standardisierte Algorithmen ersetzt.“
Verschieben der Torpfosten (Moving Goalposts) Forderung nach höheren Evidenzniveaus, nachdem die geforderte Evidenz vorgelegt wurde. „Schön, die Risikofaktoren sinken – aber wann sehen wir denn endlich, dass auch weniger Jugendliche kiffen? Und selbst wenn: Wie wollen Sie beweisen, dass das am Programm liegt und nicht an der neuen Streetworkerin?“
Unterstellte Böswilligkeit (Nefarious Intent) Annahme, dass die Motive hinter einer vermeintlichen Verschwörung bösartig sind. „Die wollen doch mit ihren teuren Lizenzen und Pflichtschulungen nur Kasse machen – das Kindeswohl ist denen völlig egal, solange die Fördermittel fließen.“
Überbordender Generalverdacht (Overriding Suspicion) Nihilistisches Ausmaß an Skepsis gegenüber dem offiziellen Wissensstand, das den Glauben an alles verhindert, was nicht in die eigene Überzeugung passt. „Egal welche Studie Sie mir zeigen – ich sage Ihnen schon vorher, dass da irgendwas nicht stimmt. Die amerikanischen sind nicht übertragbar, die deutschen sind von der Präventionslobby finanziert, und Metaanalysen sind sowieso statistischer Hokuspokus.“
Vereinfachung (Oversimplification) Vereinfachung einer Situation in einer Weise, die das Verständnis verzerrt und zu fehlerhaften Schlussfolgerungen führt. „Prävention ist doch ganz einfach: Man muss den Jugendlichen nur klarmachen, dass Drogen gefährlich sind. Den Rest erledigt der gesunde Menschenverstand.“
Opferrolle (Persecuted Victim) Sich selbst als Opfer organisierter Verfolgung wahrnehmen und darstellen. „Die Krankenkassen und ihre sogenannten Evidenzkriterien sind nichts anderes als ein gezielter Verdrängungskampf gegen die freien Träger – man will uns systematisch aus der Präventionslandschaft drängen.“
Zitatverfälschung (Quote Mining) Worte einer Person aus dem Kontext reißen, um deren Position falsch darzustellen. „Die Metaanalyse selbst sagt: Die Gesamteffekte sind ‚klein und kaum von Null zu unterscheiden‘.“ (Ohne den direkt anschließenden Satz, der betont, dass Programme mit qualifizierter Umsetzung konsistent moderate bis starke Effekte zeigen.)
Zufälle umdeuten (Re-interpreting Randomness) Glaube, dass nichts zufällig geschieht, sodass Zufallsereignisse als durch eine Verschwörung verursacht umgedeutet werden. „Dass die Befragungsergebnisse im Stadtteil Ost ausgerechnet nach der Wahl des neuen Jugendhilfeausschusses besser ausgefallen sind, ist doch kein Zufall – da hat jemand an den Daten gedreht, damit die neue Mehrheit gut dasteht.“
Ablenkungsmanöver (Red Herring) Bewusstes Ablenken auf einen irrelevanten Punkt, um von einem wichtigeren Punkt abzulenken. „Bevor wir hier über evidenzbasierte Programme abstimmen, sollten wir erst einmal grundsätzlich klären, ob der Begriff ‚Prävention‘ überhaupt noch zeitgemäß ist – in der Fachliteratur wird ja zunehmend von ‚Gesundheitsförderung‘ gesprochen.“
Einzelursache (Single Cause) Annahme einer einzigen Ursache, wenn es mehrere Ursachen geben könnte. „Wenn wir nur die Eltern besser schulen würden, hätten wir kein Jugendgewaltproblem mehr – alles andere ist Nebensache.“
Schiefe Ebene (Slippery Slope) Suggestion, dass eine kleine Maßnahme unweigerlich zu gravierenden Konsequenzen führt. „Heute füllen unsere Kinder einen harmlosen Fragebogen aus, morgen entscheidet ein Algorithmus der Krankenkasse, ob sie als Risikofall eingestuft werden – und übermorgen steht im Schulzeugnis nicht die Mathenote, sondern ein Risikoscore.“
Ignorieren der Evidenz (Slothful Induction) Ignorieren relevanter Evidenz bei der Schlussfolgerung. „Zeigen Sie mir eine einzige Studie, die beweist, dass das in einer Stadt wie unserer funktioniert. Eine einzige.“
Irgendwas stimmt nicht (Something Must Be Wrong) Beharren darauf, dass „etwas nicht stimmen kann“ und der offizielle Wissensstand auf Täuschung beruht, auch wenn spezifische Einwände unhaltbar werden. „Ich will ja gar nicht bestreiten, dass die Studien positiv sind. Aber irgendwie – ich kann es nicht genau sagen – irgendwie glaube ich einfach nicht, dass das in der Praxis so funktioniert, wie die Forscher behaupten.“
Strohmann (Straw Man) Falschdarstellung oder Übertreibung der Position eines Gegners, um sie leichter angreifen zu können. „Wer gegen evaluierte Programme argumentiert, will im Grunde, dass wir Steuergelder ohne jede Qualitätskontrolle ausgeben und Kinder als Versuchskaninchen für ungeprüfte Maßnahmen benutzen.“

Was hilft: Psychologische Immunisierung und die Kunst des Widerlegens

Die Forschung bietet nicht nur eine Diagnostik, sondern auch wirksame Gegenstrategien. Der vielversprechendste Ansatz ist die Inokulationstheorie – eine Übertragung des Impfprinzips auf die Informationsverarbeitung: Wer vorab mit einer abgeschwächten Form von Fehlinformation konfrontiert wird und lernt, die darin verwendeten Techniken zu erkennen, entwickelt Widerstandsfähigkeit gegen spätere Manipulationsversuche (Cook, 2017; van der Linden, 2019).

Schmid und Betsch (2019) zeigten in sechs randomisierten Experimenten, dass technikbasierte Widerlegung – also das Benennen und Erklären der verwendeten Leugungstechnik – ebenso wirksam ist wie themenbasierte Widerlegung (das inhaltliche Richtigstellen der falschen Behauptung). Entscheidend: Beide Strategien wirken domänenübergreifend. Eine Gegenstrategie, die im Impfkontext erlernt wurde, schützt auch im Klimakontext – und umgekehrt. Für die Prävention bedeutet das: Wer Rosinenpicken als Technik versteht, wird es erkennen, ob es auf eine Metaanalyse zu schulischer Prävention oder auf Impfstoffstudien angewandt wird.

Dass dieser Ansatz auch praktisch funktioniert, zeigt unter anderem das Spiel Cranky Uncle Vaccine: In einer Pilotstudie wechselten 53 % der zuvor impfskeptischen Teilnehmenden nach dem Spiel ihre Position (Cook et al., 2024).

Was bedeutet das für Fachkräfte der Prävention?

Techniken benennen, nicht Personen angreifen. In einer Fachsitzung, in der jemand argumentiert, es gebe keine Evidenz für ein evaluiertes Programm, ist die wirksamste Reaktion nicht das Vorlegen von Studien, sondern das Benennen der Technik: „Dieses Argument blendet die vorliegende Evidenz aus – schauen wir uns die Studien gemeinsam an.“

Vorbereiten, nicht nur reagieren. Die Inokulationsforschung zeigt, dass vorbeugende Aufklärung über Leugungstechniken eine wirksame Ergänzung zur nachträglichen Korrektur darstellt (van der Linden, 2019). Konkret: Wer vor einer Jugendhilfeausschuss-Sitzung weiß, dass Rosinenpicken und Falsche Wahl die wahrscheinlichsten Gegenargumente sind, kann sachliche Antworten vorbereiten, statt im Moment sprachlos zu sein.

Die Tabelle auf sich selbst anwenden. Der Strohmann-Eintrag in der Tabelle zeigt bewusst ein Beispiel von der Evidenzseite. Das ist kein Zufall. Wer in einer Sitzung sagt „Wer gegen evaluierte Programme ist, will Steuergelder ohne Kontrolle ausgeben“, nutzt dieselbe Technik wie jemand, der evidenzbasierte Prävention als „amerikanischen Algorithmus“ karikiert. Die Tabelle ist kein Spiegel für andere – sie ist ein Spiegel für alle.

Fazit

Wer diese Tabelle liest und vor allem die Argumente anderer Leute darin wiedererkennt, hat sie falsch gelesen. Der eigentliche Test ist: Welche dieser Techniken verwende ich selbst?

Die Frage, ob ein in den USA evaluiertes Programm auf den deutschen Kontext übertragbar ist, ist berechtigte Skepsis – keine Leugungstechnik. Die Forderung nach Partizipation ist kein Angriff auf Evidenz, sondern deren notwendige Ergänzung. Der Einwand, dass Praxiswissen in der Programmauswahl eine Rolle spielen sollte, ist kein Fake-Experts-Argument, sondern ein Geltungsanspruch, der gehört werden muss. Die Grenze verläuft dort, wo ein Einwand aufhört, die Evidenz prüfen zu wollen, und anfängt, sie vermeiden zu wollen. Diese Grenze ist im Einzelfall oft schwer zu ziehen – aber die Techniken in dieser Tabelle helfen, sie zu suchen.

Diethelm und McKee (2009) schlossen ihren Grundlagenartikel mit einer Beobachtung, die für die Prävention unverändert gilt: Die größte Gefahr der Wissenschaftsleugnung liegt nicht darin, dass einzelne Personen falsche Überzeugungen haben. Sie liegt darin, dass ihre Techniken den Fachdiskurs so beschädigen, dass evidenzbasiertes Handeln unmöglich wird. Die Tabelle in diesem Beitrag ist ein Versuch, dem etwas entgegenzusetzen – nicht mit Gegenattacken, sondern mit Begriffen, die helfen, das zu benennen, was in unseren Sitzungen passiert. Damit wir streiten können, wo es sich lohnt – und erkennen, wo ein Streit den Diskurs nur verschließt.

Literatur

Cook, J. (2017). Understanding and countering climate science denial. Journal and Proceedings of the Royal Society of New South Wales, 150(2), 207–219. https://doi.org/10.5962/p.361798

Cook, J. (2020). Cranky Uncle vs. climate change: How to understand and respond to climate science deniers. Citadel Press.

Cook, J., Lepage, C., Hopkins, K. L., Cook, W., Kolog, E. A., Thomson, A., Iddrisu, I. & Burnette, S. (2024). Co-designing and pilot testing a digital game to improve vaccine attitudes and misinformation resistance in Ghana. Human Vaccines & Immunotherapeutics, 20(1), Artikel 2407204. https://doi.org/10.1080/21645515.2024.2407204

Diethelm, P. & McKee, M. (2009). Denialism: What is it and how should scientists respond? European Journal of Public Health, 19(1), 2–4. https://doi.org/10.1093/eurpub/ckn139

Diethelm, P. & McKee, M. (2010). How the growth of denialism undermines public health. BMJ, 341, Artikel c6950. https://doi.org/10.1136/bmj.c6950

Jylhä, K. M., Stanley, S. K. & Ojala, M. (2023). Science denial. European Psychologist, 28(3), 151–161. https://doi.org/10.1027/1016-9040/a000487

Kalichman, S. C. (2014). The psychology of AIDS denialism. European Psychologist, 19(1), 13–22. https://doi.org/10.1027/1016-9040/a000175

Lemberger-Truelove, M. E., Li, D., Kim, H., Hill, D. D., Dickson, R. & Kang, Z. (2026). School mental health interventions for adolescents: A meta-analysis of effectiveness and relevant moderators. Adolescents, 6(1), Artikel 6. https://doi.org/10.3390/adolescents6010006

Lewandowsky, S., Armaos, K. & Bruns, H. (2022). When science becomes embroiled in conflict: Recognizing the public’s need for debate while combating conspiracies and misinformation. The Annals of the American Academy of Political and Social Science, 700(1), 26–40. https://doi.org/10.1177/00027162221084663

Schmid, P. & Betsch, C. (2019). Effective strategies for rebutting science denialism in public discussions. Nature Human Behaviour, 3(9), 931–939. https://doi.org/10.1038/s41562-019-0632-4

van der Linden, S. (2019). Countering science denial. Nature Human Behaviour, 3(9), 889–890. https://doi.org/10.1038/s41562-019-0631-5

FINDER e.V.

Schützenstraße 6A

10117 Berlin