Executive Summary
Die Lehre evidenzbasierter Praxis (EBP) wirkt – aber überwiegend dort, wo gemessen wurde. Der einzige systematische Review zur EBP-Lehre in der Sozialen Arbeit findet in 27 Studien zu rund 89 Prozent positive Effekte; sie beruhen überwiegend auf Selbstauskünften der Lernenden, nicht auf nachweisbarem Praxisverhalten oder Wirkungen bei Klienten (Spensberger, Kollar, Gambrill, Ghanem & Pankofer, 2020).
Isolierte Schulungen ändern Wissen, in die Praxis eingebettete Lehre verändert Verhalten. Der wichtigste, oft unterschlagene Befund der EBP-Lehrforschung stammt aus der Medizin: Nur Lehre, die direkt in den Versorgungsalltag eingebettet ist, verändert nachweislich Fertigkeiten, Einstellungen und Handeln (Coomarasamy & Khan, 2004).
Beliebte Formate sind nicht automatisch wirksame Formate. Eine Meta-Analyse von fünf randomisierten kontrollierten Studien findet für Journal Clubs keinen signifikanten Effekt auf Wissen oder Anwendung (Ilic, de Voogt & Oldroyd, 2020). Online- und Präsenzlehre erweisen sich in gruppenrandomisierten Studien als gleichwertig (Kulier et al., 2009, 2012).
Gut geschulte Fachkräfte sind keine Garantie für nachhaltige Anwendung. Die Implementationsforschung zeigt: Verankerung evidenzbasierter Verfahren hängt an organisationalen Bedingungen, Verträgen, fachlicher Begleitung und Finanzierung – nicht an einzelnen Schulungen (Aarons, Hurlburt & Horwitz, 2011; Wiltsey Stirman et al., 2012; Lengnick-Hall, Willging, Hurlburt & Aarons, 2020).
Die deutschsprachige Debatte ist eigenständig, nicht defizitär. Der DACH-Diskurs verläuft heterogener und stärker entlang reflexiver Professionalität als der US-Diskurs (Ghanem, Lawson, Pankofer, Maragkos & Kollar, 2017). Die pauschale These einer Ökonomisierung der Wirkungsdebatte lässt sich empirisch nicht halten (Kehl, Gemperle & Reiser, 2023). Internationale Lehrlogiken sind übersetzbar, aber nicht eins zu eins übernehmbar.
Einleitung: Eine Hilfekonferenz im Jugendamt
In einer Hilfekonferenz an einem Mittwochmorgen sitzen sich zwei Fachkräfte mit unterschiedlicher Berufserfahrung gegenüber. Es geht um eine Familie mit einem zwölfjährigen Sohn, der in der Schule wiederholt aggressiv auffällt. Die erfahrene Sozialarbeiterin schlägt ein bewährtes Vorgehen vor: regelmäßige Hausbesuche, ein Vertrauensaufbau über sechs Monate, Einbeziehung der Großmutter. „Das hat sich bei vergleichbaren Familien immer bewährt", sagt sie. Der jüngere Kollege fragt: „Welche Studien gibt es dazu? Multisystemic Therapy hat in mehreren randomisierten Studien Effekte gezeigt. Sollten wir das nicht zumindest prüfen?" Die Stimmung in der Konferenz wird angespannt.
Diese Szene – sinngemäß tausendfach in Jugendämtern, Beratungsstellen und freien Trägern wiederholt – zeigt, warum die Frage nach der Lehre evidenzbasierter Praxis in der Sozialen Arbeit nicht aus dem akademischen Elfenbeinturm kommt, sondern aus dem Alltag der Profession. Beide Fachkräfte haben einen Punkt. Erfahrung ohne Forschungsbezug riskiert Wiederholungsfehler. Forschungsbezug ohne fachliches Urteil und ohne Berücksichtigung der konkreten Familie wird zur technokratischen Ablaufkette, die der Komplexität des Falls nicht gerecht wird.
Die Frage ist also nicht, ob Sozialarbeitende Forschung berücksichtigen sollen, sondern wie Hochschullehre, Fortbildung und Träger sie befähigen, beides zu integrieren – gut belegtes Wissen und situatives Urteilsvermögen. Genau dieser Frage ging eine systematische Übersichtsarbeit von Spensberger, Kollar, Gambrill, Ghanem und Pankofer (2020) nach. Sie ist der einzige umfassende Forschungsstand zur EBP-Lehre, der speziell für die Soziale Arbeit existiert. Der vorliegende Beitrag ordnet ihre Befunde in einen größeren Kontext ein, korrigiert eine im ursprünglichen Magazintext zugespitzte Lesart und ergänzt internationale wie deutschsprachige Empirie.
Was evidenzbasierte Praxis ist – und was nicht
Der Begriff „evidenzbasierte Praxis" hat eine medizinische Wurzel. David Sackett und Kollegen (1996) definierten Evidence-Based Medicine als „den gewissenhaften, ausdrücklichen und wohlüberlegten Einsatz der gegenwärtig besten Evidenz für Entscheidungen in der Versorgung individueller Patientinnen und Patienten" (S. 71, eigene Übersetzung). Bereits dieser Gründungstext verband drei Komponenten: aktuelle Forschungsergebnisse, klinische Expertise und – oft übersehen – die Werte und Präferenzen der Klientel. Mullen, Satterfield und Spring (2009) erweiterten dieses Triadenmodell um Kontextfaktoren und gemeinsame Entscheidungsfindung; sie argumentieren für ein transdisziplinäres EBP-Verständnis, das Medizin, Psychologie und Soziale Arbeit verbindet.
In der Sozialen Arbeit hat sich daraus eine doppelte Lesart entwickelt. Die prozessbezogene Lesart versteht EBP als Vorgehensweise: präzise Frage formulieren, Evidenz suchen, kritisch bewerten, in Entscheidung umsetzen, Ergebnis evaluieren. Diese fünf Schritte – im sogenannten Sicily Statement konsentiert (Dawes et al., 2005) – machen EBP zu einer Haltung gegenüber dem eigenen Wissen, nicht zu einem Werkzeugkasten. Die programmbezogene Lesart hingegen meint mit EBP konkrete, empirisch gestützte Verfahren (Empirically Supported Treatments, ESTs): Multisystemic Therapy, Functional Family Therapy, Trauma-Focused Cognitive Behavioral Therapy. Beide Lesarten sind legitim, beide sind in der Forschungsliteratur gemeint, und beide bedeuten in der Lehre etwas anderes (Gambrill, 2006; Mullen & Streiner, 2004).
Diese Differenzierung ist nicht akademisch. Wer EBP nur als Liste manualisierter Programme einführt, reduziert die Soziale Arbeit auf Implementierungsdienstleistung. Wer EBP nur als Prozesshaltung lehrt, lässt offen, woher konkrete Wirknachweise stammen sollen. Der Vorschlag von Nevo und Slonim-Nevo (2011), „evidenzbasierte" durch „evidenzinformierte" Praxis zu ersetzen, hat sich international teilweise durchgesetzt; er entschärft die hierarchische Annahme, randomisierte kontrollierte Studien seien die einzige relevante Evidenzform. Eileen Gambrill, eine der prägenden Stimmen der EBP-Bewegung, hat diese Verschiebung mitgetragen, ohne den Anspruch auf systematische Wissensprüfung aufzugeben (Gambrill, 1999, 2010).
Was EBP nicht ist, lässt sich ebenso präzise sagen. Sie ist keine Kochbuchpraxis, kein Werkzeug zur Disziplinierung der Profession, keine Ersetzung des fachlichen Urteils und kein Sparprogramm. Sackett und Kollegen (1996) haben diese Missverständnisse schon 1996 zurückgewiesen; sie kehren in jeder Berufsgeneration wieder.
Theoretische Verortung: Eine epistemische Debatte, keine bloße Methodenfrage
Die Auseinandersetzung um EBP in der Sozialen Arbeit ist im Kern eine Debatte über die Natur des Wissens, das die Profession braucht. Sie verläuft entlang dreier Bruchlinien.
Erste Bruchlinie: Welche Forschung zählt? Stephen Webb (2001) hat in einer einflussreichen Kritik bezweifelt, dass die für EBP zentralen experimentellen Designs der Komplexität sozialer Wirklichkeit gerecht werden. Soziale Probleme seien nicht kontrollierbar wie Krankheitsverläufe, ihre Lösungen nicht standardisierbar wie pharmakologische Wirkstoffe. Ähnlich argumentierten Stanley Witkin und Donald Harrison (2001) mit der prägnanten Frage „Wessen Evidenz, für welchen Zweck?" – und verwiesen damit auf die machtkritische Dimension jeder Wissenshierarchie. In ihrer schärfsten Lesart läuft Webbs Kritik darauf hinaus, dass die Übertragung der EBM-Logik auf die Soziale Arbeit ein Kategorienfehler sein könnte. Diese Möglichkeit ist nicht entkräftet, sondern in der Lehre regelmäßig als gelöst behandelt – was sie nicht ist. In einer milderen Lesart wird nicht Forschung abgelehnt, sondern der Anspruch, eine bestimmte Forschungsform setze den Maßstab.
Zweite Bruchlinie: Welche Profession ist gemeint? Eileen Gambrill (1999, 2001) hat die Soziale Arbeit zugespitzt als „autoritätsbasierte Profession" beschrieben und der EBP den Status einer Alternative zugewiesen. Ihre Pointe: Wer Wirksamkeit behauptet, ohne sie systematisch geprüft zu haben, betreibt nicht Hilfe, sondern Glauben. In Gambrill und Gibbs' (2002) systematischer Erwiderung auf sechs gängige EBP-Einwände wird dieser Punkt zugespitzt: Die Frage sei nicht, ob EBP perfekt sei, sondern was die Alternative dazu ist. Gegen Gambrill steht im deutschsprachigen Raum die Position von Hans-Uwe Otto, Andreas Polutta und Holger Ziegler (2009), die EBP nicht ablehnen, sondern als „erste Generation" auffassen und für eine „zweite Generation" plädieren: eine reflexive Professionalität, die empirisches Wissen einbezieht, ohne es zur alleinigen Entscheidungsgrundlage zu machen. Die international in Research on Social Work Practice publizierte Variante dieses Arguments hat den DACH-Beitrag im internationalen Diskurs sichtbar gemacht (Otto, Polutta & Ziegler, 2009). Eine eigene Linie der deutschsprachigen Sozialarbeitswissenschaft – etwa Silvia Staub-Bernasconis (2018) Entwurf der Sozialen Arbeit als Handlungswissenschaft – verankert die Profession zudem in einem Tripelmandat: gegenüber Adressaten, gegenüber Auftraggebern und gegenüber den Menschenrechten (Staub-Bernasconi, 2019). Wer in dieser Tradition lehrt, fragt nicht nur, welche Evidenz wirkt, sondern auch, wessen Würde sie schützt – eine Erweiterung, die die Lehrlogik subtil verändert.
Dritte Bruchlinie: Welcher Begriff von Wirkung? In Deutschland wird seit Jahren über „Wirkung" gestritten – mit dem Verdacht, der Begriff sei ein neoliberales Trojanisches Pferd. Eine empirische Untersuchung der Schweizer Forschungsgruppe um Konstantin Kehl, Sergio Gemperle und Meret Reiser (2023) bringt hier eine wichtige Korrektur. Sie analysierten Wirkungsdeutungen in vier Handlungsfeldern (Justizvollzug, Fremdplatzierung, pflegende Angehörige, Kurzberatung) und fanden, dass Wirkungsverständnisse in der Praxis überwiegend klient- und interventionsbezogen sind. Eine pauschale Ökonomisierungsdiagnose lässt sich aus den Daten nicht ableiten. Auch Ottmann, König und Gander (2021) zeigen am Beispiel der Eingliederungshilfe nach BTHG, dass Wirkungsmodelle in der Praxis eine fachliche Operationalisierung erfahren – nicht nur eine ökonomische. Diese empirische Korrektur entkräftet die theoretische Diagnose Otto/Polutta/Ziegler nicht; sie verschiebt nur die Beweislast: Wer Wirkungsmessung als Disziplinierungsinstrument kritisiert, müsste das in konkreten Praxen zeigen, statt es zu unterstellen.
Die theoretische Auseinandersetzung ist damit nicht entschieden, sondern strukturell offen. Wer EBP unterrichtet, unterrichtet immer auch eine Position innerhalb dieser Debatten. Schweigen über die Debatte heißt, eine Position zu vertreten und sie nicht zu kennzeichnen.
Der Forschungsstand: Viel Optimismus, wenig Beleg
Wer die epistemischen Bruchlinien anerkennt, steht trotzdem vor der praktischen Frage: Was wissen wir empirisch über die Lehre selbst? Die Antwort ist ernüchternd. Es gibt genau eine systematische Übersichtsarbeit, die diese Frage speziell für die Soziale Arbeit untersucht hat – und ihr Ergebnis ist zwiespältig.
Die Übersichtsarbeit von Florian Spensberger, Ingo Kollar, Eileen Gambrill, Christian Ghanem und Sabine Pankofer (2020) ist methodisch sorgfältig angelegt: Die Suche folgte den Empfehlungen des Cochrane Handbook of Systematic Reviews und den PRISMA-Berichtstandards. Eingeschlossen wurden 27 Studien, die EBP-Lehre für Studierende oder Praktiker der Sozialen Arbeit evaluierten – sei es den EBP-Prozess (Fünf-Schritte-Modell), seien es konkrete empirisch gestützte Verfahren.
Drei Befunde verdienen besondere Aufmerksamkeit.
Erstens: Lehrform und Wissensanwendung. Rund 74 Prozent der untersuchten Schulungen kombinierten lehrendenzentrierte und lernendenzentrierte Elemente. Knapp die Hälfte (48,2 %) verlangte eine tatsächliche Anwendung des Gelernten in realen oder simulierten Praxissituationen. Diese Mischung gilt in der Hochschuldidaktik als Mindeststandard – sie lässt aber nicht erkennen, welche Komponente welchen Anteil am Lerneffekt hat.
Zweitens: Effekte auf den Lernerfolg. 88,7 Prozent der Studien berichteten überwiegend positive Effekte – auf den ersten Blick ein beeindruckender Wert. Bei genauerer Betrachtung relativiert er sich. Die meisten Ergebnisse betrafen Wissen (deklarativ und prozedural), Motivation und Zufriedenheit – gemessen über Selbstauskünfte. Beobachtetes Verhalten in echten Praxissituationen oder gar Auswirkungen auf Klienten wurden so gut wie nicht erfasst. Die CREATE-Klassifikation (Tilson et al., 2011) macht diese Lücke methodisch sichtbar: Sie unterscheidet sieben Ergebnisebenen – von Reaktion über Wissen, Fertigkeiten und Verhalten bis zu Patientenergebnissen. Die EBP-Lehrforschung in der Sozialen Arbeit bewegt sich überwiegend auf den Ebenen 1 bis 3.
Drittens: Methodische Qualität. Nur etwa ein Fünftel der Studien verwendete ein kontrolliertes Design, das den Vergleich verschiedener Lehrmethoden erlaubt. Mehr als die Hälfte wies ein hohes Verzerrungsrisiko auf. Spensberger et al. (2020) verweisen auf eine ähnliche Beobachtung Yaffes (2013) für die Sozialarbeitsausbildung insgesamt: Evaluationsforschung ist in diesem Feld die Ausnahme, nicht die Regel.
Eine Korrektur an dieser Stelle: Der ursprüngliche Magazinartikel zitiert Parrish und Rubin (2012) mit der Aussage, „nur ein geringer Prozentsatz der befragten Sozialarbeiter" wende EBP regelmäßig an. Das ist die negativ verkürzte Hälfte des Befunds. Die Originalstudie – eine Befragung von 865 Sozialarbeitern, Psychologen und Eheberatern in Texas – kommt zu einem differenzierteren Schluss. Zwar werde EBP „noch nicht in voller Breite implementiert", es gebe aber „grounds for optimism" über die Beteiligung von Sozialarbeitenden mit Master-Abschluss am EBP-Prozess (Parrish & Rubin, 2012, S. 201). Jüngere Absolventen zeigten zudem positivere Einstellungen als ältere – ein Hinweis darauf, dass die Lehre Wirkung erzielt, wenn auch langsam.
Die Botschaft Spensberger et al. (2020) ist damit weder triumphalistisch noch defätistisch. Sie lautet: Die EBP-Lehre in der Sozialen Arbeit ist ein junges, methodisch unterentwickeltes Feld, das gut gemeinte Selbstauskünfte produziert, aber bislang wenig belastbares Wissen über tatsächliche Praxisveränderungen.
Vier Schlüsselelemente – und was die Evidenz dazu sagt
Spensberger et al. (2020) leiten aus ihrem Review vier Empfehlungen ab: praxisorientierte Anwendung, Förderung kritischen Denkens, vielfältige Lehrmethoden, kontinuierliche Evaluation. Diese vier Elemente sind plausibel, aber sie sind unterschiedlich gut belegt. Eine ehrliche Bilanz unterscheidet zwischen empirisch starken, schwachen und negativen Befunden.
Praxisorientierung – stärkster Befund
Der stärkste Einzelbefund der internationalen EBP-Lehrforschung stammt nicht aus der Sozialen Arbeit, sondern aus der Medizin – und ist mit dem in Kapitel 4 markierten Vorbehalt zu lesen: als übertragbare Hypothese, nicht als gesicherter Befund für die Soziale Arbeit. Coomarasamy und Khan (2004) verglichen in einem systematischen Review von 23 Studien isolierte Lehre (eigenständige Fortbildungen, Vorlesungsreihen) mit klinisch integrierter Lehre (in den Behandlungsalltag eingebettet). Isolierte Lehre verbessert vor allem das Wissen. Klinisch integrierte Lehre verändert darüber hinaus Fertigkeiten, Einstellungen und tatsächliches Verhalten. Wenn dieser Befund auf die Soziale Arbeit überträgt, heißt das: Eine zweitägige Fortbildung zur EBP-Recherche in der Hochschule wird vermutlich Wissen vermitteln, aber wenig daran ändern, wie eine Fachkraft in der nächsten Hilfekonferenz argumentiert. Erst die Verzahnung mit dem Praxismandat – etwa durch begleitete Anwendungsaufgaben in Praktika – würde Verhalten verändern. Eine sozialarbeitsspezifische Replikation dieses Befunds steht aus.
In der Sozialarbeitsforschung sind Simulationen mit standardisierten Klienten ein methodischer Versuch, diese Verzahnung herzustellen. Marion Bogo, Cheryl Regehr und Kollegen (2012) haben das aus der Medizin bekannte OSCE-Format (Objective Structured Clinical Examination, strukturiertes objektives klinisches Examen) für die Sozialarbeitsausbildung adaptiert. Logie, Bogo, Regehr und Regehr (2013) sowie Kourgiantakis, Sewell, Hu und Bogo (2019) zeigen in ihren Übersichtsarbeiten, dass solche Formate gut akzeptiert werden und Fertigkeiten differenzieren – allerdings: Nicht jede schwache OSCE-Leistung sagt eine schwache Praxisleistung voraus. Die Validität des Formats ist begrenzt, sein Aufwand hoch.
Kritisches Denken – ein hochschuldidaktisch operationalisierbarer Befund
Kritisches Denken ist in der EBP-Lehre nicht nur Zielwert, sondern Voraussetzung. Wer Forschungsbefunde nicht beurteilen kann, kann sie auch nicht anwenden. Gambrill und Gibbs (2002) haben dazu ein Lehrkanon formuliert, der bis heute Standard ist: Erkennen von Argumentationsfehlern, Bewertung von Studiendesigns, Differenzierung zwischen Wirksamkeitsanspruch und tatsächlichem Beleg.
Wie sich diese Fertigkeit gezielt fördern lässt, hat eine Münchner Forschungsgruppe um Florian Spensberger, Ingo Kollar und Sabine Pankofer (2021) experimentell geprüft. In einem randomisierten kontrollierten Versuch erhielten Studierende der Sozialen Arbeit entweder Lösungsbeispiele (Worked Examples), externe Argumentationsleitfäden oder eine Kombination aus beidem. Die Kombination verbesserte die Erkennung argumentativer Fehlschlüsse signifikant gegenüber der Kontrollgruppe. Das ist ein selten klarer DACH-Beleg dafür, dass EBP-Kompetenz hochschuldidaktisch nicht nur „mitläuft", sondern gezielt trainierbar ist.
Vielfältige Lehrmethoden – ehrliche Negativbefunde
An dieser Stelle wird die Evidenzlage am unbequemsten. Ilic und Maloney (2014) verglichen in einem systematischen Review von neun randomisierten kontrollierten Studien verschiedene Formate der EBM-Lehre (Vorlesung gegenüber Online, Direktunterricht gegenüber Selbststudium, Groß- gegenüber Kleingruppe) und fanden keine signifikanten Formatunterschiede beim Wissenszuwachs. Die gruppenrandomisierten Studien von Kulier und Kollegen (2009, 2012) bestätigen das: Klinisch integriertes E-Learning ist der Präsenzlehre gleichwertig – bei niedrigeren Kosten und höherer Flexibilität.
Besonders deutlich ist der Negativbefund für Journal Clubs. Diese in Medizin und Pflege beliebte Lehrform galt lange als Standardweg zu EBP-Kompetenz. Die Meta-Analyse von Ilic, de Voogt und Oldroyd (2020), gestützt auf fünf randomisierte kontrollierte Studien mit 378 Teilnehmenden, fand jedoch keinen signifikanten Effekt auf Wissen (standardisierte Mittelwertdifferenz 0,15; 95 %-Konfidenzintervall –0,09 bis 0,39), Einstellungen oder Anwendungsverhalten. Häggman-Laitila, Mattila und Melender (2016) berichten zwar in der Pflege überwiegend positive Ergebnisse, allerdings in methodisch schwachen Studien. Bello und Grant (2023) zeigen in ihrer realistischen Übersichtsarbeit, dass Journal Clubs Wissen und kritisches Bewertungsvermögen verbessern – nicht aber den Übertrag in die Praxis.
Die ehrliche Übersetzung: Methodenvielfalt ist wahrscheinlich nicht selbst der Wirkmechanismus. Eher haben einzelne Formate (kombinierte Lösungsbeispiele, klinisch integriertes E-Learning) gezielte Effekte, während andere (isolierte Vorlesungen, Journal Clubs) breit eingesetzt werden, ohne dass ihre Wirksamkeit belegt wäre.
Kontinuierliche Evaluation – das eigentliche Defizit
Die vierte Empfehlung von Spensberger et al. (2020) ist zugleich das Feld mit der größten Forschungslücke. Das Sicily Statement (Dawes et al., 2005) hat fünf curriculare Mindeststandards für EBP-Lehre konsentiert und mit dem CREATE-Rahmen (Tilson et al., 2011) eine Klassifikation von Lernergebnissen vorgelegt. Diese Instrumente sind international anerkannt, aber selten konsequent eingesetzt. In der Sozialarbeitsausbildung fehlen Ergebnismessungen oberhalb der Selbstauskunftsebene fast vollständig. Bogo et al. (2012) und Logie et al. (2013) stellen mit der OSCE-Adaption ein Werkzeug bereit, das jedoch aufwendig ist und in der DACH-Hochschullandschaft selten eingesetzt wird.
Über die Schulung hinaus: Implementierung und nachhaltige Verankerung
Selbst die wirksamste Schulung verpufft, wenn die Organisation, in die Absolventen oder Fortgebildete zurückkehren, keine Bedingungen für die Anwendung des Gelernten bietet. Die Hilfekonferenz aus der Einleitung macht das anschaulich: Auch wenn beide Fachkräfte fundiert ausgebildet wären, entscheiden Trägervorgaben, Zeitbudgets und Supervisionsstrukturen darüber, ob ein evidenzbasiertes Argument im Alltag trägt oder versandet. Diese Einsicht ist in der Implementationsforschung gut belegt – und in der Diskussion um EBP-Lehre auffällig unterbelichtet.
Das Consolidated Framework for Implementation Research (CFIR) von Damschroder, Aron, Keith, Kirsh, Alexander und Lowery (2009) konsolidiert neunzehn Implementationstheorien zu fünf zusammenwirkenden Bereichen: die Intervention selbst, das äußere Umfeld (Politik, Finanzierung, Anspruchsgruppen), das innere Umfeld (Organisationskultur, Ressourcen), die beteiligten Personen und der Umsetzungsprozess. Mit über 15.000 Zitationen ist CFIR das weltweit meistgenutzte Determinantenmodell.
Spezifischer für Soziale Dienste hat Gregory Aarons mit Hurlburt und Horwitz (2011) das EPIS-Modell entwickelt: Exploration, Preparation, Implementation, Sustainment. Es ist ausdrücklich für öffentliche Dienste mit „unterschiedlichen historischen Wurzeln und Gepflogenheiten" konzipiert – also auch für die Soziale Arbeit. Eine systematische Übersicht über 49 EPIS-Anwendungen (Moullin, Dickson, Stadnick, Rabin & Aarons, 2019) zeigt, dass das Modell im öffentlichen Sektor breit funktioniert; allerdings dominierte die Implementation-Phase (73 Prozent), während Exploration, Preparation und Sustainment deutlich seltener empirisch erfasst wurden. Die nachhaltige Verankerung evidenzbasierter Verfahren bleibt der blinde Fleck der Implementationsforschung.
Wiltsey Stirman und Kollegen (2012) formulieren in ihrer Übersicht von 125 Studien zur nachhaltigen Verankerung einen ernüchternden Standardbefund: Vollständige Verankerung ist die Ausnahme, partielle Verankerung die Regel. Lengnick-Hall, Willging, Hurlburt und Aarons (2020) zeigen an siebzehn gemeinwesenorientierten Trägern in acht US-Versorgungssystemen, wie Verträge zwischen Finanzierungsträgern und Diensten als „Brückenfaktor" zwischen System- und Organisationsebene wirken. Kontinuität entsteht nicht durch einmalige Einführung, sondern durch fortlaufende vertragliche, finanzielle und fachliche Stabilisierung.
Eine besondere Rolle spielt die Frage, was überhaupt implementiert wird. Bruce Chorpita und Eric Daleiden (2009) haben 615 Behandlungsprotokolle aus 322 randomisierten Studien aufgeschlüsselt und gemeinsame Wirkbestandteile (Common Elements) identifiziert – etwa die Vermittlung von Bewältigungsstrategien, Problemlösefertigkeiten oder Eltern-Kind-Kommunikation. Eine gruppenrandomisierte Studie (Child STEPs in California) zeigte später, dass eine modulare Behandlung dieser Bestandteile einer voll manualisierten EBP-Umsetzung überlegen ist (Chorpita et al., 2017). Für die Soziale Arbeit ist das anschlussfähig: Statt komplette Programme zu übernehmen, deren Manualtreue in heterogenen Hilfesystemen schwer zu sichern ist, kann die Profession an gemeinsamen Wirkbestandteilen ansetzen und sie mit fachlichem Urteil flexibel kombinieren (Barth et al., 2011).
Nicht zu trennen ist diese Diskussion von der Frage der Reichweite. Das RE-AIM-Modell (Glasgow, Vogt & Boles, 1999) erinnert daran, dass Wirksamkeit in einer Modellstudie nichts darüber sagt, wie viele Adressaten ein Verfahren tatsächlich erreicht (Reach), wie konsequent es umgesetzt wird (Implementation) und wie es sich über die Zeit hält (Maintenance). Eine evidenzbasierte Praxis, die nur die Mittelschicht-Klientel der Modellstudie erreicht, ist unvollständig. Genau hier setzen Diskussionen um eine equity-orientierte Umsetzung an: Nagy und Kollegen (2025) sowie Gustafson et al. (2023) zeigen, dass klassische Rahmenmodelle wie CFIR und EPIS Equity erst durch ausdrückliche Erweiterung abbilden – ohne diese Erweiterung reproduziert Implementierung bestehende Ungleichheiten.
Die Schlussfolgerung für die Lehre ist deutlich: Eine EBP-Schulung, die nicht zugleich auf organisationale Bedingungen, Brückenfaktoren und nachhaltige Verankerung vorbereitet, bildet aus für eine Welt, die nicht existiert. Diese Befunde lassen sich auch radikaler lesen: Wenn dauerhafte EBP-Anwendung vor allem an Verträgen, fachlicher Begleitung und Finanzierung hängt, ist Lehre womöglich der falsche Hebel – und die Steuerung über das Versorgungssystem der richtige. Der vorliegende Beitrag hält an der Lehrperspektive fest, ohne diese Möglichkeit auszuschließen.
Vergleichstabelle: Lehrformate auf einen Blick
Die folgende Tabelle fasst die in diesem Beitrag diskutierten Lehrformate zusammen – als qualitative Faustorientierung, nicht als Bewertung nach formalisiertem Schema (etwa GRADE). „Wirkebene" orientiert sich an der CREATE-Klassifikation (Tilson et al., 2011): Wissen, Fertigkeiten, Verhalten, Wirkungen bei Klienten. „Evidenzgrad" verdichtet die in den vorigen Kapiteln zitierten Studien zu einer dreistufigen Einschätzung; „DACH-Erprobung" ist eine Schätzung auf Basis der deutschsprachigen Empirie, kein Erhebungsergebnis.
| Format | Adressierte Wirkebene | Evidenzgrad | Aufwand | DACH-Erprobung |
|---|---|---|---|---|
| Vorlesung, isoliert | Wissen | Mittel: Wissenseffekte belegt, Verhaltenseffekte nicht (Coomarasamy & Khan, 2004) | Niedrig | Hoch |
| Klinisch integrierte Lehre | Wissen, Fertigkeiten, Verhalten | Hoch: Effekte auf Verhalten belegt (Coomarasamy & Khan, 2004) | Mittel | Mittel |
| Journal Club | Wissen | Niedrig: kein signifikanter Effekt in randomisierten Studien (Ilic et al., 2020) | Niedrig | Niedrig |
| E-Learning, klinisch integriert | Wissen, Einstellungen | Hoch: der Präsenzlehre gleichwertig (Kulier et al., 2009, 2012) | Niedrig | Mittel |
| OSCE / Simulation mit standardisierten Klienten | Fertigkeiten | Mittel: Differenzierung belegt, Praxisvorhersage begrenzt (Bogo et al., 2012; Kourgiantakis et al., 2019) | Hoch | Niedrig |
| Lösungsbeispiele mit externem Argumentationsleitfaden | Argumentationsbewertung | Hoch: positiver Studieneffekt (Spensberger, Kollar & Pankofer, 2021) | Mittel | Hoch (LMU München) |
| Praktikum mit angewandter EBP-Aufgabe | Verhalten, Anwendung | Gemischt: konzeptionell überzeugend, empirisch dünn | Hoch | Hoch |
| Modulares Training gemeinsamer Wirkbestandteile | Fertigkeiten, Verhalten | Mittel bis hoch (Barth et al., 2011; Chorpita et al., 2017) | Mittel bis hoch | Niedrig |
Drei Lesehinweise: Erstens überträgt sich der hohe Evidenzgrad medizinischer EBM-Studien nicht automatisch auf die Soziale Arbeit; Übertragbarkeit ist Hypothese, nicht Tatsache. Zweitens schließt ein niedriger Evidenzgrad ein Format nicht aus, sondern verlangt Evaluation. Drittens lassen sich Formate kombinieren – die internationale Evidenz spricht für integrierte Mischformen, nicht für einzelne „beste" Formate.
Übertragbarkeit: DACH-Spezifika, Migration, Kosten
Internationale Befunde sind nicht eins zu eins importierbar. Christian Ghanem, Lawson, Pankofer, Maragkos und Kollar (2017) haben mit einer Zitationsnetzwerkanalyse den US-amerikanischen und den deutschsprachigen EBP-Diskurs verglichen. Der US-Diskurs ist homogener, forschungsbasierter, programmorientierter. Der deutschsprachige Diskurs ist heterogener, stärker an reflexiver Professionalität orientiert und in weiten Teilen kritischer gegenüber manualisierten Verfahren. Diese Differenz ist kein Defizit, sondern eine eigene Wissensformation – mit eigenen Stärken (theoretische Differenzierung, professionsethische Verankerung) und eigenen Schwächen (Empiriedünne in der Lehrforschung).
Die Heterogenität hat einen strukturellen Grund. Die Wissenschaft Sozialer Arbeit im DACH-Raum hat zwei historisch gewachsene Linien – die von der Sozialarbeit ausgehende Sozialarbeitswissenschaft und die erziehungswissenschaftlich basierte Sozialpädagogik –, deren Konvergenz erst seit den 2000er Jahren institutionell und konzeptionell verhandelt wird (Borrmann, Spatscheck & Pankofer, 2016; Birgmeier & Mührel, 2017; Kessl, Thole & Bock, 2020). Eine in dieser Form gewachsene disziplinäre Lage produziert andere Lehrtraditionen als der homogenere US-amerikanische Sozialarbeitsdiskurs – und sie macht erklärlich, warum eine importierte EBP-Lehrlogik im DACH-Raum stets in eine bereits mehrstimmige wissenschaftstheoretische Debatte fällt.
Auf institutioneller Ebene zeigt sich die Eigenständigkeit auch in Werkzeugen. Die Social Work Research Map (SWORM, Ghanem, Kirchheim & Eckl, 2022) erschließt rund 25.000 Forschungsabstracts aus internationalen Sozialarbeitsjournalen über automatische Themenmodellierung. Sie schließt eine zentrale Lücke: den niedrigschwelligen Zugang zur englischsprachigen Forschung für die deutschsprachige Praxis und Lehre. Auch die DACH-übergreifenden Tagungen der Deutschen, Österreichischen und Schweizerischen Gesellschaft für Soziale Arbeit (Borrmann, Lehfeldt & Köttig, 2022) institutionalisieren einen Diskurs, der weder identisch ist mit dem US-amerikanischen noch beliebig.
Zwei Spezifika verdienen besondere Aufmerksamkeit.
Migration und kulturelle Validität. Christian Ghanem (2017) berichtet aus seiner Erfahrung als Bewährungshelfer, dass standardisierte Risikoeinschätzungs-Instrumente, in Nordamerika validiert, bei migrantischer Klientel an ihre Grenzen stoßen. Konstrukte wie „Bindung an prosoziale Institutionen" oder „prokriminelle Einstellungen" sind in ihrer Operationalisierung kulturell vorgeprägt. Eine evidenzbasierte Praxis, die diese Vorprägungen nicht reflektiert, riskiert systematische Fehlurteile zulasten ohnehin benachteiligter Gruppen. Vom Tripelmandat aus gedacht (Staub-Bernasconi, 2018, 2019), ist das ein Filterkriterium für Lehrcurricula, kein Randproblem: EBPs müssten zuerst daraufhin geprüft werden, ob sie das Menschenrechts-Mandat einhalten, bevor gefragt wird, ob sie wirken. Damit wird Teilhabegerechtigkeit zur Frage erster Ordnung an die Lehre selbst – welche EBPs sind für welche Bevölkerungsgruppen validiert, welche Studien fehlen? Die equity-orientierte Implementationsforschung (Gustafson et al., 2023; Nagy et al., 2025) bestätigt das aus internationaler Perspektive: Klassische Rahmenmodelle bilden Teilhabegerechtigkeit nicht von selbst ab; sie müssen explizit erweitert werden.
Wirkungsdebatte und Ökonomisierung. Im deutschsprachigen Raum existiert eine tief verwurzelte Skepsis, „Wirkung" sei ein neoliberales Ökonomisierungsinstrument. Diese Skepsis ist berechtigt, wenn Wirkung nur noch monetarisiert verstanden wird – sie ist empirisch problematisch, wenn sie pauschal angesetzt wird. Die Schweizer Studie von Kehl et al. (2023) zeigt: In den vier untersuchten Handlungsfeldern dominieren klient- und interventionsbezogene Wirkungsverständnisse, eine durchgehende Ökonomisierung lässt sich nicht nachweisen. Ottmann, König und Gander (2021) demonstrieren am Beispiel der Eingliederungshilfe, dass praxisnahe Wirkungsmodelle möglich sind, die fachliche Komplexität abbilden statt zu reduzieren. Eine EBP-Lehre, die diese Differenzierung verschweigt, vergibt eine Brücke zwischen Wissenschaft und Praxis.
Kosten und Skalierung. Die internationale Implementationsforschung (Wiltsey Stirman et al., 2012; Lengnick-Hall et al., 2020) verweist auf fachliche Begleitung, Supervision und vertragliche Stabilisierung als zentrale Faktoren der nachhaltigen Verankerung. Im deutschsprachigen Raum stellt das Trägerstrukturen vor schwierige Fragen: Wer finanziert kontinuierliche Supervision? Wer trägt die Kosten von OSCE-Formaten in der Hochschullehre? Aus dem skandinavischen Vergleich – Finne und Malmberg-Heimonen (2021) untersuchten norwegische Sozialarbeits- und Kinderschutzstudierende – lässt sich lernen, dass institutionelle Forschungsnähe während des Studiums Einstellungen zu evidenzbasierten Verfahren mit moderaten Effektstärken positiv beeinflusst. Skandinavien zeigt damit, dass eine forschungsnahe Studienstruktur möglich ist, ohne in eine reine EST-Kultur zu kippen.
Synthese
Zurück zur Hilfekonferenz vom Anfang. Beide Fachkräfte – die mit dem Erfahrungsbezug und der mit dem Forschungsbezug – haben in einer entwickelten EBP-Lehre einen Anker. Was sie zusätzlich brauchen, ist ein Rahmen, in dem Forschung und fachliches Urteil zusammenfinden, statt sich gegenseitig zu blockieren. Die vier Schlüsselelemente Spensberger et al. (2020) – Praxisorientierung, kritisches Denken, Methodenvielfalt, kontinuierliche Evaluation – sind ein solcher Rahmen, aber ein unvollständiger. Wer die internationale Evidenz mitliest, kommt zu drei zusätzlichen Aussagen:
Erstens ist nicht jede Lehrform gleichwertig. Die starke Evidenzlinie verläuft entlang der Achse von Coomarasamy und Khan (2004): Klinisch integrierte Lehre verändert Verhalten, isolierte Lehre vor allem Wissen. Wer EBP nur in einem Blockseminar unterrichtet, ohne Verzahnung mit Praktikum oder begleiteter Anwendung, sollte realistische Erwartungen formulieren.
Zweitens muss die Lehre nicht alles selbst leisten, was die Praxis trägt. Die Implementationsforschung zeigt – in EPIS-Studien ebenso wie in Übersichten zur nachhaltigen Verankerung –, dass organisationale Brückenfaktoren, vertragliche Stabilisierung und fachliche Begleitung die eigentlichen Träger dauerhafter Anwendung sind. Eine Hochschullehre, die diese Voraussetzungen nicht thematisiert, entlässt ihre Absolventen schlechter vorbereitet, als sie es nach drei Jahren Studium sein müssten.
Drittens fehlt in den meisten EBP-Curricula eine Komponente, die in Sacketts Triade ausdrücklich genannt ist: die Befähigung, mit Adressaten über Evidenz zu sprechen. Partizipative Entscheidungsfindung als didaktisches Lernziel ist in der Sozialarbeitsausbildung kaum operationalisiert; die Lehrforschung adressiert sie selten. Ohne diese Komponente bleibt EBP eine fachintern verhandelte Größe und keine Grundlage informierter Entscheidung der Adressaten.
Viertens ist der DACH-Raum empirisch unterversorgt, aber theoretisch eigenständig. Die Münchner Studie zu Lösungsbeispielen (Spensberger, Kollar & Pankofer, 2021) zeigt, dass methodisch starke deutschsprachige Lehrforschung möglich ist. Der Forschungsstand zur Wirkungsdebatte (Kehl et al., 2023; Ottmann et al., 2021) relativiert die pauschale Ökonomisierungsthese und öffnet Raum für ein differenziertes Wirkungsverständnis. Werkzeuge zur Erschließung internationaler Evidenz – etwa SWORM (Ghanem et al., 2022) – existieren; sie müssen den Weg in die Curricula finden.
Was bleibt, ist nicht die Frage, ob EBP in der Sozialen Arbeit gelehrt werden soll, sondern welche Lehre Adressatenkonsequenzen erzielt. Diese Frage zu stellen, ist nicht das Ende der professionsethischen Debatte – sie ist deren Anfang.
Limitationen
Dieser Beitrag steht selbst unter den Bedingungen, die er beschreibt. Er stützt sich auf einen einzelnen systematischen Review (Spensberger et al., 2020) als deutschsprachig-relevante Hauptquelle; eine zweite, methodisch unabhängige Übersicht zur EBP-Lehre in der Sozialen Arbeit, die als Triangulation dienen könnte, existiert bislang nicht. Internationale Literatur aus Medizin und Pflege wurde herangezogen, ist aber nur bedingt übertragbar. Die EBP-Lehrforschung in der Sozialen Arbeit selbst bleibt – das ist der Kernbefund Spensberger et al. (2020) – methodisch schwach. Aussagen über Wirksamkeit einzelner Formate sind in dieser Lage Wahrscheinlichkeitsaussagen, keine kausalen Schlüsse.
Drei Lücken sind explizit zu nennen. Erstens fehlen in der Sozialarbeitslehrforschung fast vollständig Studien, die Ergebnisse auf der Verhaltensebene oder bei Klienten erfassen. Zweitens ist der DACH-spezifische Forschungsstand zur EBP-Lehre dünn. Außerhalb der Münchner Forschungsgruppe um Florian Spensberger und Sabine Pankofer existiert kaum systematische Evaluationsforschung zur deutschsprachigen Sozialarbeitsausbildung. Drittens: Wichtige deutschsprachige Beiträge – etwa Mark Schrödters Wirkungs-Kritik in der Zeitschrift neue praxis oder die Schweizer Diagnostikforschung um Walter Hollstein-Brinkmann und Peter Sommerfeld – sind in den international ausgerichteten Datenbanken nicht oder nur lückenhaft indexiert. Das ist eine methodische Grenze dieses Beitrags, kein Urteil über die Bedeutung dieser Arbeiten.
Eine weitere Einschränkung betrifft die Wirkungsverallgemeinerung. Die hier zitierten Studien zur Implementationsforschung stammen überwiegend aus US-amerikanischen Versorgungssystemen mit anderer Finanzierungs- und Organisationslogik. Befunde wie die zentrale Rolle von Verträgen als Brückenfaktor (Lengnick-Hall et al., 2020) sind nicht beliebig auf deutsche Jugendhilfestrukturen übertragbar. Subgruppenbefunde – etwa zu kulturell heterogenen Klientelen (Ghanem, 2017) – verdienen empirische Vertiefung im DACH-Kontext, die bislang fehlt.
Schluss
Evidenzbasierte Praxis in der Sozialen Arbeit zu lehren, heißt nicht, die Profession der Forschung zu unterstellen. Es heißt, die Verpflichtung gegenüber Adressaten ernst zu nehmen, die Sackett und Kollegen (1996) als Kern des EBP-Verständnisses formuliert haben: dass Hilfeleistung nicht auf Vermutung beruhen sollte, wenn Wissen verfügbar ist. Eileen Gambrills (1999) Provokation, die Soziale Arbeit sei eine autoritätsbasierte Profession, ist nicht als Vorwurf zu lesen, sondern als Forderung – an die Profession, sich gegenüber denjenigen zu rechtfertigen, die ihre Hilfe in Anspruch nehmen müssen. In der deutschsprachigen Sozialarbeitswissenschaft kommt diese Verpflichtung in einer eigenen Sprache zum Ausdruck – als Tripelmandat gegenüber Adressaten, Auftraggebern und Menschenrechten (Staub-Bernasconi, 2018, 2019). Wer EBP lehrt, ohne dieses dreifache Mandat mitzudenken, verkürzt die Profession um einen ihrer normativen Anker.
Diese Forderung steht in einem Spannungsverhältnis zur Anerkennung, dass Soziale Arbeit kein Anwendungsfeld der Medizin ist. Die Bruchlinien, die Webb (2001), Witkin und Harrison (2001) sowie Otto, Polutta und Ziegler (2009) markiert haben, lassen sich nicht durch bessere Lehre auflösen. Sie verweisen auf eine epistemische Eigenständigkeit der Profession, die empirisches Wissen anerkennen kann, ohne in ihm aufzugehen. Wer EBP unterrichtet, ohne diese Spannung zu lehren, unterrichtet halb.
Die ethische Pointe ist banal und unbequem zugleich. Adressaten haben einen Anspruch darauf, dass Fachkräfte ihre Hilfe an dem ausrichten, was wahrscheinlich hilft – und dass sie zugeben, wenn die Wissensgrundlage dünn ist. Dieses doppelte Versprechen einlösbar zu machen, ist die eigentliche Aufgabe einer EBP-Lehre, die ihren Namen verdient.
Literaturverzeichnis
Aarons, G. A., Hurlburt, M., & Horwitz, S. M. (2011). Advancing a conceptual model of evidence-based practice implementation in public service sectors. Administration and Policy in Mental Health and Mental Health Services Research, 38(1), 4–23. https://doi.org/10.1007/s10488-010-0327-7
Barth, R. P., Lee, B. R., Lindsey, M. A., Collins, K. S., Strieder, F., Chorpita, B. F., Becker, K. D., & Sparks, J. A. (2011). Evidence-based practice at a crossroads: The timely emergence of common elements and common factors. Research on Social Work Practice, 22(1), 108–119. https://doi.org/10.1177/1049731511408440
Bello, J. O., & Grant, P. (2023). A systematic review of the effectiveness of journal clubs in undergraduate medicine. Canadian Medical Education Journal. https://doi.org/10.36834/cmej.72758
Birgmeier, B., & Mührel, E. (2017). Wissenschaftliche Grundlagen der Sozialen Arbeit. Wochenschau Verlag. https://doi.org/10.46499/769
Bogo, M., Regehr, C., Katz, E., Logie, C., Mylopoulos, M., & Regehr, G. (2012). Evaluating an Objective Structured Clinical Examination (OSCE) adapted for social work. Research on Social Work Practice, 22(4), 428–436. https://doi.org/10.1177/1049731512437557
Borrmann, S., Spatscheck, C., & Pankofer, S. (Hrsg.). (2016). Die Wissenschaft Soziale Arbeit im Diskurs: Eine Auseinandersetzung mit den theoriebildenden Grundlagen Sozialer Arbeit. Verlag Barbara Budrich. https://doi.org/10.3224/978384740767
Borrmann, S., Lehfeldt, B., & Köttig, M. (Hrsg.). (2022). Europäische Gesellschaften zwischen Kohäsion und Spaltung: Beiträge der ersten trinationalen Tagung von DGSA, ÖGSA und SGSA. Verlag Barbara Budrich. https://doi.org/10.3224/84742613
Chorpita, B. F., & Daleiden, E. L. (2009). Mapping evidence-based treatments for children and adolescents: Application of the distillation and matching model to 615 treatments from 322 randomized trials. Journal of Consulting and Clinical Psychology, 77(3), 566–579. https://doi.org/10.1037/a0014565
Chorpita, B. F., Daleiden, E. L., Park, A. L., Ward, A. M., Levy, M. C., Cromley, T., Chiu, A. W., Letamendi, A. M., Tsai, K. H., & Krull, J. L. (2017). Child STEPs in California: A cluster randomized effectiveness trial comparing modular treatment with community implemented treatment for youth with anxiety, depression, conduct problems, or traumatic stress. Journal of Consulting and Clinical Psychology, 85(1), 13–25. https://doi.org/10.1037/ccp0000133
Coomarasamy, A., & Khan, K. S. (2004). What is the evidence that postgraduate teaching in evidence based medicine changes anything? A systematic review. BMJ, 329(7473), 1017. https://doi.org/10.1136/bmj.329.7473.1017
Damschroder, L. J., Aron, D. C., Keith, R. E., Kirsh, S. R., Alexander, J. A., & Lowery, J. C. (2009). Fostering implementation of health services research findings into practice: A consolidated framework for advancing implementation science. Implementation Science, 4, 50. https://doi.org/10.1186/1748-5908-4-50
Dawes, M., Summerskill, W., Glasziou, P., Cartabellotta, A., Martin, J., Hopayian, K., Porzsolt, F., Burls, A., & Osborne, J. (2005). Sicily statement on evidence-based practice. BMC Medical Education, 5, 1. https://doi.org/10.1186/1472-6920-5-1
Finne, J., & Malmberg-Heimonen, I. (2021). Norwegian social work and child welfare students' attitudes toward research-supported treatments. Journal of Evidence-Based Social Work, 18(3), 340–352. https://doi.org/10.1080/26408066.2020.1865227
Gambrill, E. (1999). Evidence-based practice: An alternative to authority-based practice. Families in Society, 80(4), 341–350. https://doi.org/10.1606/1044-3894.1214
Gambrill, E. (2001). Social work: An authority-based profession. Research on Social Work Practice, 11(2), 166–175. https://doi.org/10.1177/104973150101100203
Gambrill, E. (2006). Evidence-based practice and policy: Choices ahead. Research on Social Work Practice, 16(3), 338–357. https://doi.org/10.1177/1049731505284205
Gambrill, E. (2010). Evidence-informed practice: Antidote to propaganda in the helping professions? Research on Social Work Practice, 20(3), 302–320. https://doi.org/10.1177/1049731509347879
Gambrill, E., & Gibbs, L. (2002). Evidence-based practice: Counterarguments to objections. Research on Social Work Practice, 12(3), 452–476. https://doi.org/10.1177/1049731502012003007
Ghanem, C. (2017). The need for intercultural sensitivity: A frontline report of a German probation officer. International Social Work, 61(2), 308–311. https://doi.org/10.1177/0020872816664966
Ghanem, C., Kirchheim, K., & Eckl, M. (2022). Social Work Research Map – ein niederschwelliger Zugang zu internationalen Publikationen der Sozialen Arbeit. Soziale Passagen, 14(2), 475–484. https://doi.org/10.1007/s12592-022-00430-8
Ghanem, C., Lawson, T. R., Pankofer, S., Maragkos, M., & Kollar, I. (2017). The diffusion of evidence-based practice: Reviewing the evidence-based practice networks in the United States and German-speaking countries. Journal of Evidence-Informed Social Work, 14(2), 86–118. https://doi.org/10.1080/23761407.2017.1298074
Glasgow, R. E., Vogt, T. M., & Boles, S. M. (1999). Evaluating the public health impact of health promotion interventions: The RE-AIM framework. American Journal of Public Health, 89(9), 1322–1327. https://doi.org/10.2105/ajph.89.9.1322
Gustafson, P., Abdul Aziz, Y., Lambert, M., Bartholomew, K., Rankin, N., Fusheini, A., Brown, R., Carswell, P., Ratima, M., Priest, P., & Crengle, S. (2023). A scoping review of equity-focused implementation theories, models and frameworks in healthcare and their application in addressing ethnicity-related health inequities. Implementation Science, 18(1), 51. https://doi.org/10.1186/s13012-023-01304-0
Häggman-Laitila, A., Mattila, L.-R., & Melender, H.-L. (2016). A systematic review of journal clubs for nurses. Worldviews on Evidence-Based Nursing, 13(2), 163–171. https://doi.org/10.1111/wvn.12131
Ilic, D., de Voogt, A., & Oldroyd, J. (2020). The use of journal clubs to teach evidence-based medicine to health professionals: A systematic review and meta-analysis. Journal of Evidence-Based Medicine, 13(1), 42–56. https://doi.org/10.1111/jebm.12370
Ilic, D., & Maloney, S. (2014). Methods of teaching medical trainees evidence-based medicine: A systematic review. Medical Education, 48(2), 124–135. https://doi.org/10.1111/medu.12288
Kehl, K., Gemperle, S., & Reiser, M. (2023). Deutungen von Wirkung im Sozialwesen: Annäherungen an einen unscharfen Begriff. Schweizerische Zeitschrift für Soziale Arbeit, 31(2023), Art. 1555. https://doi.org/10.33058/szsa.2023.1555
Kessl, F., Thole, W., & Bock, K. (2020). Editorial. Soziale Passagen, 12(1), 1–6. https://doi.org/10.1007/s12592-020-00351-4
Kourgiantakis, T., Sewell, K. M., Hu, R., Logan, J., & Bogo, M. (2019). Simulation in social work education: A scoping review. Research on Social Work Practice, 30(4), 433–450. https://doi.org/10.1177/1049731519885015
Kulier, R., Coppus, S. F. P. J., Zamora, J., Hadley, J., Malick, S., Das, K., Weinbrenner, S., Meyerrose, B., Decsi, T., Horvath, A. R., Nagy, E., Emparanza, J. I., Arvanitis, T. N., Burls, A., Cabello, J. B., Kaczor, M., Zanrei, G., Pierer, K., Stawiarz, K., … Khan, K. S. (2009). The effectiveness of a clinically integrated e-learning course in evidence-based medicine: A cluster randomised controlled trial. BMC Medical Education, 9, 21. https://doi.org/10.1186/1472-6920-9-21
Kulier, R., Gülmezoglu, A. M., Zamora, J., Plana, M. N., Carroli, G., Cecatti, J. G., Germar, M. J., Pisake, L., Mittal, S., Pattinson, R., Wolomby-Molondo, J. J., Bergh, A.-M., May, W., Souza, J. P., Koppenhoefer, S., & Khan, K. S. (2012). Effectiveness of a clinically integrated e-learning course in evidence-based medicine for reproductive health training: A randomized trial. JAMA, 308(21), 2218–2225. https://doi.org/10.1001/jama.2012.33640
Lengnick-Hall, R., Willging, C. E., Hurlburt, M. S., & Aarons, G. A. (2020). Contracting as a bridging factor linking outer and inner contexts during EBP implementation and sustainment: A prospective study across multiple U.S. public sector service systems. Implementation Science, 15(1), 43. https://doi.org/10.1186/s13012-020-00999-9
Logie, C., Bogo, M., Regehr, C., & Regehr, G. (2013). A critical appraisal of the use of standardized client simulations in social work education. Journal of Social Work Education, 49(1), 66–80. https://doi.org/10.1080/10437797.2013.755377
Moullin, J. C., Dickson, K. S., Stadnick, N. A., Rabin, B., & Aarons, G. A. (2019). Systematic review of the Exploration, Preparation, Implementation, Sustainment (EPIS) framework. Implementation Science, 14(1), 1. https://doi.org/10.1186/s13012-018-0842-6
Mullen, E. J., Satterfield, J. M., & Spring, B. (2009). Toward a transdisciplinary model of evidence-based practice. The Milbank Quarterly, 87(2), 368–390. https://doi.org/10.1111/j.1468-0009.2009.00561.x
Mullen, E. J., & Streiner, D. L. (2004). The evidence for and against evidence-based practice. Brief Treatment and Crisis Intervention, 4(2), 111–121. https://doi.org/10.1093/brief-treatment/mhh009
Nagy, G. A., Rivera-Segarra, E., & Cabassa, L. J. (2025). Equity-grounded implementation science: Comparative case analysis of three studies. Psychological Services, 22(3), 531–545. https://doi.org/10.1037/ser0000931
Nevo, I., & Slonim-Nevo, V. (2011). The myth of evidence-based practice: Towards evidence-informed practice. British Journal of Social Work, 41(6), 1176–1197. https://doi.org/10.1093/bjsw/bcq149
Otto, H.-U., Polutta, A., & Ziegler, H. (2009). Reflexive professionalism as a second generation of evidence-based practice: Some considerations on the special issue „What works? Modernizing the knowledge-base of social work". Research on Social Work Practice, 19(4), 472–478. https://doi.org/10.1177/1049731509333200
Ottmann, S., König, J., & Gander, C. (2021). Wirkungsmodelle in der Eingliederungshilfe. Zeitschrift für Evaluation, 2021(2), 317–331. https://doi.org/10.31244/zfe.2021.02.04
Parrish, D. E., & Rubin, A. (2012). Social workers' orientations toward the evidence-based practice process: A comparison with psychologists and licensed marriage and family therapists. Social Work, 57(3), 201–210. https://doi.org/10.1093/sw/sws016
Sackett, D. L., Rosenberg, W. M. C., Gray, J. A. M., Haynes, R. B., & Richardson, W. S. (1996). Evidence based medicine: What it is and what it isn't. BMJ, 312(7023), 71–72. https://doi.org/10.1136/bmj.312.7023.71
Spensberger, F. (2020). Fostering evidence-based practice and argument evaluation in social work [Dissertation, Ludwig-Maximilians-Universität München]. https://doi.org/10.5282/edoc.26034
Spensberger, F., Kollar, I., Gambrill, E., Ghanem, C., & Pankofer, S. (2020). How to teach evidence-based practice in social work: A systematic review. Research on Social Work Practice, 30(1), 19–39. https://doi.org/10.1177/1049731519852150
Spensberger, F., Kollar, I., & Pankofer, S. (2021). Effects of worked examples and external scripts on fallacy recognition skills: A randomized controlled trial. Journal of Social Work Education, 58(4), 622–639. https://doi.org/10.1080/10437797.2021.1963892
Staub-Bernasconi, S. (2018). Soziale Arbeit als Handlungswissenschaft (2., überarb. Aufl.). UTB / Haupt. https://doi.org/10.36198/9783838547930
Staub-Bernasconi, S. (2019). Menschenwürde – Menschenrechte – Soziale Arbeit. Verlag Barbara Budrich. https://doi.org/10.2307/j.ctvh1dv99
Tilson, J. K., Kaplan, S. L., Harris, J. L., Hutchinson, A., Ilic, D., Niederman, R., Potomkova, J., & Zwolsman, S. E. (2011). Sicily statement on classification and development of evidence-based practice learning assessment tools. BMC Medical Education, 11, 78. https://doi.org/10.1186/1472-6920-11-78
Webb, S. A. (2001). Some considerations on the validity of evidence-based practice in social work. British Journal of Social Work, 31(1), 57–79. https://doi.org/10.1093/bjsw/31.1.57
Wiltsey Stirman, S., Kimberly, J., Cook, N., Calloway, A., Castro, F., & Charns, M. (2012). The sustainability of new programs and innovations: A review of the empirical literature and recommendations for future research. Implementation Science, 7(1), 17. https://doi.org/10.1186/1748-5908-7-17
Witkin, S. L., & Harrison, W. D. (2001). Whose evidence and for what purpose? Social Work, 46(4), 293–296. https://doi.org/10.1093/sw/46.4.293
Yaffe, J. (2013). Where's the evidence for social work education? Journal of Social Work Education, 49(4), 525–527. https://doi.org/10.1080/10437797.2013.820582