„Everybody gets a second chance…“ – von Straßburg nach New York. Die erstaunliche, aber nicht untypische Karriere der Anna S.

Die gelernte Historikerin Anna S. mag Russland nicht. Insbesondere seinen autokratisch herrschenden Präsidenten, Vladimir Putin, und Trump genauso wenig. Doch dazu stand ihr am Ende ihrer Ausbildung eigentlich gar nicht der Sinn. Sie promovierte über kirchliche Einrichtungen im Mittelalter und bekam das Prädikat „Dr.“ verliehen – doch was nun damit anfangen? Nach einiger Zeit fiel sie dem Schicksal vieler frisch ausgebildeter Historiker:innen (und Sozialwissenschaflter:innen) zum Opfer, deren Wissenschaftslaufbahn nach einer Zeit als Institutsmitarbeiterin in prekärer Beschäftigung in sich zusammenbrach. Die Historikerin sah sich mit dem Problem konfrontiert, dass keiner ihr mittelalterliches Wissen brauchte. Wohin mit dem Ego? Nun, warum nicht Journalistin werden? Das kann ja jede/r!
Also wechselte Anna S. die Seite und begab sich vom wissenschaftlichen Prekariat in das journalistische Prekariat und machte brav eine Hospitation nach der anderen. Selbst die so genannte „freie Mitarbeiterinnen“-Position blieb ihr, wie vielen anderen Hochschulabsolventen in seit den 2000er Jahren, nicht erspart. Keine guten Aussichten für eine stabile Karriere.
Doch das erste Volontariat bei einer einflussreichen Hauptstadt-Zeitung brachte die Kehrtwende. Dieses ebenfalls schlecht oder gar nicht bezahlte Engagement brachte sie in die USA. Sie wurde an einer dortigen Tageszeitung zu einem „Fellow“ eines einflussreichen Think Tanks der USA der Arthur F. Burns Foundation. Sie absolvierte erhielt das hochangesehene Deutsch-AmerikanischesJournalistenstipendium. Geil. Eine zweite Chance und dass im politisch-journalistischen Kerngebiet der transatlantischen Vernetzung!
Nachdem sie dieses Stipendium absolviert hatte, wobei man sich fragen kann, welche (Prüfungs-)Leistungen oder Inhalte dahinter stehen, wurde ihre berufliche Neuorientierung mit einer monatlichen Kolumne in der New York Times über Deutschland gewürdigt. Ihre Kolumnen thematisieren nahezu jedes Thema, das die Bundesrepublik seit 2015 erschütterte und ihre Thesen verlieren sich im Allgemeinen und verharrten borniert im liberalen Spektrum; selbst den „Sozialismus“-Hammer gegen die Berliner Mietenbremsenpolitik holte sich aus dem Ideologiekasten; den antikommunistischen Antidemokraten Arthur F. Burns hätte es zweifellos gefallen. Allerdings ist Verwunderung darüber erlaubt, welche Kompetenz die promotete Neujournalistin als Mittelalter-Historikerin mitbringt, um tagespolitische Kommentare zu verfassen. Eigenständige Sachkompetenz kann es jedenfalls nicht sein. Eine hübsche Schreibe vielleicht. Oder doch die Tutorials des Burns-Stipendiums vielleicht?
Nach dem US-Kapitel ging ihre zweite Karriere ab wie ein Zäpfchen. Sie wurde zur Meinungsmeisterin in der Berliner Postille, die ihr den Umweg über Arthur F. Burns ermöglicht hatte; zum Schluss sogar Mitglied der Chefredaktion. Seit kurzer Zeit ist sie auch in Deutschland „die Treppen“ hochgefallen und wurde Außenpolitik-Koordinatorin in einer bekannten deutschen Wochenzeitung – Preise für ein US-nahes Medieninstitut darf sie auch noch mitvergeben.
Nun also: Putin. In der jüngsten Ausgabe dieses einst von US-skeptischen Geistern Politikern (H. Schmidt) mitherausgegebenen Wochenblattes darf sie gegen den alten (und neuen?) US-Präsidenten, Donald Trump, agitieren, unter dem lustigen und sehr zweideutigen Titel „Er ist wieder da“ – eine Anspielung auf eine ambivalente, komödiantenhafte „Wiederkehr“ des deutschen Diktators, A.H., in der deutschen Kulturindustrie der 2010er Jahre.
Was ist aber das Problem mit Putin? Die (aus Deutschland) ausgewiesene Außenpolitik-Expertin im O-Ton: „Für Staaten wie Russland ist die Frage, ob sie einen großen Krieg führen oder nicht, eine Kosten-Nutzen-Rechnung, während das den Westeuropäern schlechthin unvorstellbar erscheint.“ Was also tun, wenn Trump kommt, der Europa nicht mehr schützen will und Putin, der „Russe“, wieder einmal vor der Tür steht?
Für die ausgewiesene Mittelalterhistorikerin Anna S muss die Schuldenbremse im Grundgesetz fallen, damit Deutschland seine Verteidigungsausgaben weiter erhöhen kann – hat nicht die pittoreske Annalena B dies jetzt gerade jüngst auch gefordert, wer wedelt hier mit wem? Denn Putin habe kalkuliert und seit 2014 die Krim und Teile des Donbass besetzt. Putin habe sich 2022 aber verkalkuliert, auch wenn „bislang nicht existentiell“. Aber es droht Ungemach: „Ob sich der Krieg aus russischer Sicht am Ende ‚gelohnt‘ hat, ist offen. Angesichts von Trump Off-Präsidentenschaft und der zunehmend sichtbaren Dysfunktionalität der US-Demokratie verändert sich diese Rechnung zu Putins Gunsten.“
Deutschland müsse – so die transatlantisch bestens vernetzte Kassandra, wenn auch freilich eine nicht mehr ernst zu nehmende Version der griechischen Unheilkünderin des Wochenblatts – die „Hürden für den Ausbau der Rüstungsindustrie“ beseitigen und es müssten „Eifersüchteleien“ bei (europäischen) Rüstungsprojekten beendet werden. Also: Waffen produzieren für den Sieg und deutsche Soldaten nach Litauen, aber schnell! Passende – oder sollte man sagen opportunistische? – Worte zur Münchener Sicherheitskonferenz und der derzeitigen Kriegs-Rhetorik der NATO-Staaten gegenüber Russland allenthalben.
Ein langer Weg. Von den Untiefen Straßburger Klöster im 16. Jahrhundert bis zur Spitze der NATO-Propaganda-Abteilung der Hamburger Wochenzeitung. Keine Frage: Anna S ist am Gipfel ihrer (zweiten) Karriere angekommen. Ihr Erfolgsgeheimnis: Opportunismus als Geschäftsmodell, auch: carpe diem genannt. Man fragt sich unwillkürlich, wer wohl hier am meisten Kosten-Nutzen-Kalküle anlegt? Ist Anna S in einem Fall von prototypischer Projektion (hat sich nicht „der“ Westen verkalkuliert, Russland in die Enge zu treiben?) gefangen oder verkörpert sie einfach gekonnt den einst von Erich Fromm kritisch beäugten „Marketing-Charakter“, der sich allem anpasst, was die Karriereleiter erklimmbar macht? Ausgewiesene Sachkompetenz kann es jedenfalls nicht sein, die Anna S angetrieben hat. Aber unter gleichartigen Persönlichkeiten lebt es sich bekanntlich leichter. Ideologischer Konformismus als Demokratiegefahr -schütze sich, wer kann!

Zurück

Review von Petersen/Lupton, New Public Health – eine Generation später

Alan Petersen/Deborah Lupton (1996): The New Public Health. Discourses, Knowledges, Strategies, London: Sage.

Nachzu vierzig Jahre nach der Verabschiedung der Ottawa-Charta und fast dreißig Jahre nach dem Erscheinen eines der ersten kritischen Erörterungen der neuen New Public Health-Bewegung aus einer an Michel Foucault anschließenden Perspektive ist es Zeit, sowohl die Erfolge (und Misserfolge) der Ottawa-Charta als auch die analytische Fruchtbarkeit der Governmentality-Studies im Anschluss an Michel Foucault im Hinblick auf eine kritische Bewertung und kritisch-konstruktive Weiterentwicklung des New Public Health-Gedankens einer kritischen Reflexion zu unterziehen. Hierzu werde ich erstens die Grundthesen und -kritiken des pionierhaften Buches von Petersen/Lupton (im Folgenden mit PL abgekürzt) rekapitulieren, um dann vor dem Hintergrund der  institutionellen,  organisatorischen und diskursiven Weiterentwicklung (und Fortschreibung) der Ottawa-Charta in einem zweiten Schritt erörtern, ob die paradigmatische und originelle Kritik von PL an der New Public Health (NPH) immer noch lesenswert und (zumindest zum Teil) noch gültig ist.

Das Buch ist voller interessanter Sichtweisen und Kritiken, die hier nicht in umfassender Weise vorgetragen werden können. Ein Lektüre ersetzt dieser Review somit nicht, wenn die Tiefe und Detailliertheit der Argumentation interessiert. Allerdings lassen sich die grundlegenden Thesen zum Thema in einigen Punkten konturiert zusammenfassen. Was also ist zunächst der Gegenstand? Was ist, mit anderen Worten, New Public Health? PL beziehen sich auf eine autoritative Definition der beiden britischen Gesundheitswissenschaftler J Asthon und J Seymour. Diese definieren New Public Health in kritischer Abgrenzung zu biomedizinischen Konzepten und Ätiologien einerseits und in Fokussierung auf vor allem chronisch Erkankte andererseits. New Public Health ist also ein gesundheitspolitischer Ansatz, der von einer anderen epidemiologischen Situation ausgeht als jene Old Public Health im Übergang vom 19. zum 20. Jahrhundert, als es noch um die „Bekämpfung“ übertragbarer Krankheiten ging. Mitterweile stellen eben nicht-übertragbare Krankheiten das Gros der Krankheitslast in (post-)modernen Gesellschaften dar. Im Gegensatz zu individualistisch ausgeprägten medizinischen Ansätzen will New Public Health ein „blaming the victim“ verhindern, stellt jedoch den „lifestyle“ in den Mittelpunkt, der von Ashton und Seymour als soziales Konzept verstanden wird.  Der Gegenstand und Zugang von NPH wird von diesen beiden Autoren – in Übereinstimmung mit heute noch gültigen Zielsetzungen (vgl. zum Beispiel Rosenbrock 2001) – mit folgenden Worten beschrieben:

Many contemporary health problems are therefore seen as being social rather than solely individual problems; underlying them are concrete issues of local and national public policy, and what are needed to adress these problems are ‚Healthy Public Policy‘ – policies in many fields which support the promotion of health. In the New Public Health the environment is social and psychological as well as physical. (1988, p. 21). [zit.n. PL, P. 4]

Was kann gegen eine solche thematische Fokussierung, normative Fundierung und analytische Rahmung von New Public Health kritisch eingewandt werden? Petersen und Lupton wissen, dass ihre Kritiken den normativen Überzeugungen von NPH-Aktivisten einem gewissen Stress aussetzen. Ihre Kritik wendet sich weniger gegen die normativen Zielsetzungen von NPH per se wie sie in der obigen Definition zum Ausdruck kommen, sondern mehr gegen ihre gesellschaftliche Realität und politische Umsetzung. Ihr Hauptkritikpunkt besteht darin, dass NPH an den bestehenden gesellschaftlichen Machtbeziehungen, sozialen Werten und diskursiv durch Experten konstituierten Wissensregimes nichts ändert und sich mit der neoliberalen Gesellschaftlichkeit, deren Kern im Umbau der politökonomischen Grundlagen (neoliberaler Globalkapitalismus) und institutionellen Fundamante des Wohlfahrtskapitalismus (Flexibilisierung) – beginnend im anglo-amerikanischen Raum – ist, arrangiert. Das theoretische Fundament ihrer Kritik an NPH sind die in den 1990er Jahre aufkommenden Erkenntnisse der Governmentality-Studies, einer „Ökonomisierung des Sozialen“ (Bröckling/Krasmann/Lemke 2000; Lemke 1997, 2000), über deren Implikationen und Auswirkungen auf die Implementierung der neuen gesundheitspolitischen Strategie sich die Befürworter von NPH (in den angloamerikanischen Ländern) entweder keine  Gedanken gemacht oder aber sogar begrüßt haben. Sie haben eine dezidiert diskurstheoretischen Zugriff auf ihren Gegenstand, der Fragen nach den „wirklichen Ursachen“ zunächst einmal ausschließt (vgl. hierzu die Beiträge in Petersen/Bunton 1997 sowie die groß angelegte Einführungen in die Foucault’sche Historische Soziologie von Dean 1994, 2010).

THEORETISCHE BAUSTEINE: NEOLIBERALISMUS, POLITISCHE MACHT UND NEOSOZIALE MORALITÄT

Im ersten Kapitel (PL 1996: 1-26) entwerfen Petersen und Lupton das Grundgerüst ihrer Argumentation. Sie kritisieren, dass die Konzeptionen und die Praxis von New Public Health eine „neue Moral“ begründe, in einen Diskurs über Pflichten eingebettet sei. Vermeintlich ihre Freiheit verfolgende Individuen orientierten sich via eingeübter Selbsttechnologien und staatlichen Herrschaftstechniken an diesen konstituierten Normen und werden, die nicht nur von Expertenwissen und Diskursen über „Gesundheitsrisiken“ maßgeblich geprägt werden, sondern auch zu einer Einpassung der individuellen Strategien in einen überindividuellen Herrschaftszusammenhang führten. Die Grundauffassung jener als „Neoliberalismus“ bezeichneten wohlfahrtsstaatskritischen Philosophie und Praxis fassen PL (1996: 10f.) in Anlehnung an Burchell et al. (1991) sowie Rose/Miller (1992) paraphrasierend wie folgt zusammen:

The emphasis on individual and collective entrepreneurialism in health and welfare, and the devolution of responsibility for health care and other social services to ‚communities‘ […]. Briefly put, neo-liberalism reinstates liberal principles, including the notion that individuals are atomistic, rational agents whose existence and interests are prior to society; scepticism about the capacities of political authorities to properly govern; vigilance over attempts of such authorities to govern; an emphasis on markets over planning as regulators of economic activity […]. Neo-liberalist rule operates not through imposing constraints upon citizens but rather through the ‚making up‘ of citizens capable of exercising regulated freedom (Rose & Miller 1992, p. 174). Personal autonomy, therefore is not antithetical to political power, but rather is part of its exercise since power operates most effectively when subjects actively participate in the process of governance.

Neben dieser Inklusion bzw. aktiven Mitkonstitution von (vermeintlich) frei handelnden Individuen in eine bzw. der neoliberale(n) Herrschaftsstrategie sticht vor allem der Mechanismus des Marktes  hervor. Neoliberalismus ist im Verständnis des gouvernementalitätstheoretischen Ansatzes sowohl mit Staatlichkeit als auch der (selbststilisierten) persönlichen Autonomie des Einzelnen, zum Teil auch eben gegen den Staat vereinbar. Neoliberalismus bedeutet nicht das Ende des Staates, sondern – wenn überhaupt – eine theoretische wie praktische Kritik des Wohlfahrtsstaates, die zu seiner Transformation führt (vgl. ausführlicher: Lessenich 2012, 2013).

Neo-liberal government, then, is dependent upon technologies for ‚governing at a distance‘, seeking to create localities, entities and persons able to operate a regulated autonomy (Rose & Miller 1992, p. 173). One of the chief mechanisms of neo-liberalism is the attempt to create and sustain a ‚market‘. Although the state ist still seen to have a role in defending the interests of the population in the international sphere and in creating a legal framework for social and economic life, the emphasis is on “autnomization‘ of the state from direct controls over, and responsibility for, the actions and calculations of business, welfare organisations, and so forth‘ (Rose & Miller 1992, p. 199). (PL 1996: 11)

In Bezug auf New Public Health bedeutet diese theoretische Grundierung, dass die mit ihr verbundenen Strategien der Gesundheitsförderung (‚health promotion‘), des sozialen Marketing (’social marketing‘), aber auch der Epidemiologie, Biostatistik, dem diagnostischen Screening, Immunisierung sowie der gemeindebezogenen Partizipation, umfassender Gesundheitspolitik (‚healthy public policy‘), intersektoraler Zusammenarbeit, Anwaltschaft (‚advocacy‘) und Gesundheitsökonomie (‚health economics‘) in einem anderen Licht  betrachtet werden (müssen). Die neue Moralität oder – wie Stephan Lesssenich (2008: 84) es ausdrückt – die „neosoziale Gouvernementalität“ in diesem New Public Health-Diskurs „…seek[s] to transform the awareness of individuals in such a way that they become more self-regulating and productive both in serving their own interests and those of society at large.“ (PL 1996: 12).

Diese sowohl herrschaftlich ‚verordnete‘ als auch sozial ‚erwartete‘ neosoziale Moralität, die sich in gesundheitlichen Imperativen des ‚Beweg dich!‘, ‚Iss weniger Fett!‘ und ‚Reduziere Deinen Stress!‘ ausdrückt, liegt – so die These von Petersen und Lupton – nicht nur in der faktischen Praxis des NPH begründet, sondern eben auch schon in der konzeptionell-theoretischen Anlage. Obwohl oder – wie PL womöglich sagen würden – gerade wegen der Absage der „Bewegung“ für NPH an modernistische Konzepte wie Medizin, Krankenhauskasernierung und trotz des Einsatzes von NPH-Aktivisten für multisziplinäre, intersektorale und partizipatorische Prozesse der Gesundheitsförderung, verharre die NPH-Konzeption in zutiefst modernistischen Rationalitätsansprüchen, gegen deren Wahrheitsansprüche gerade die poststrukturalistische Kritik im Sinne von Foucault und anderen angegangen sei (vgl. zu einem prägnantem Überblick über Postmoderne/Poststrukturalismus: Ritzer 2008: 600ff.; Moebius 2009: 419ff.).

It is not only the strategy of health economics that privileges evaluation; for example there is currently an emphasis upon evaluation, using rational strategies, in all activities of the new public health, including those involving community participation, to see whether they ‚work‘ successfully. Medical, scientific, epidemiological and social scientific knowledges are routinely employed as ‚truths‘ to construct public health ‚problems‘ and to find solutions for dealing with them. (PL 1996: 8)

Eine besondere Rolle bei diesen in rationalistische Konzepte von Ursache, Wirkung, Evaluation eingebetten NPH-Strategien nehmen dabei institutionell und organisatorisch ausgewiesenen ‚Experten‚ und entsprechend rationalistisches ‚Expertenwissen‘ ein. Insbesondere von Bedeutung seien hier die vermittels des (bisweilen sozioökologisch erweiterten) Risikofaktorenmodells erarbeiteten wissenschaftlichen Expertisen über „schädliche Lebensstile“ (‚lifestyles‚), die als – mehr oder wenig verbrämtes – Ergebnis einer individuellen Wahlhandlung betrachtet würden: „Lifestlye theory posits the individual subject as a rational, calculating actor who adopts a prudent attitude in respect to risk and danger.“ (PL 1996: 15). Eine besondere Bedeutung komme bei diesen Expertisen der gesamte WHO-Komplex der „Health-For-All“-Strategie zu, die PL im weiteren Verlauf des Buches noch genauer betrachten. Die Bedeutung der Expertise und der zugehörigen Expertinnen und Experten breche sich daher an der (vermeintlichen) Bedeutung von Empowerment und Partizipation im Diskurs der New Public Health.

Professional expertise remains privileged over lay expertise, as is highly evident in health educational advise to populations on how they should regulate their lives to achieve good health. Thus, while the new public health may draw on a ‚postmodernist‘ type of rhetoric in its claims, it remains at heart a conventionally modernist enterprise. (PL 1996: 8)

Vor diesem (meta-)theoretischem Hintergrund identifizieren Petersen und Lupton im weiten Verlauf ihres Buches zahlreiche Ambivalenzen, Verkürzungen und Blindflecken zentraler NPH-Strategien, die sie im Sinne der Erarbeitung einer „reflexiven Praxis“ (PL 1996: 181; meine Übersetzung) für nötig erachten, um nicht in die ‚NPH-Falle‘ (KM) unsichtbarer Herrschaft und gut gemeinter Strategien zu tappen, denn bekanntlich gilt: „The road to hell is paved with good intentions …“

KRITIK DER EPIDEMIOLOGIE: DER MYTHOS WISSENSCHAFTLICHER ‚FAKTEN‘ UND DIE SOZIALE KONSTRUKTION DES ‚RISKANTEN SELBST‘

Epidemiologie (=Lehre von der Verteilung der Gesundheitszustände und deren Determinanten in der Bevölkerung) gilt als die methodologische Basis der Gesundheitswissenschaften und beruht auf der grundlegende Annahme der statistischen Berechenbarkeit des (Krankheits- und Sterbe-)Risikos und der experimentellen Bewertung der Wichtigkeit und (potentiellen) Kausalitätspotenz von Risikofaktoren (vgl. Klemperer 2015: 157ff.; Razum/Breckenkamp/Brzoska 2017; Egger/Razum 2018: 31ff.). PL (1996: 27ff.) kritisieren die dominante Stellung der Epidemiologie in zweifacher Hinsicht. Zum einen unterstelle die Epidemiologie die im Prinzip unproblematische Kreation von ‚epidemiologischen Fakten‘ und suggeriere damit die Erreichung einer (quasi-naturwissenschaftlichen) objektiven Wahrheit über das ‚Wesen‘ und die Ursachen von Krankheitszuständen. Diese oftmals in der Praxis epidemiologischer Forschung unreflektierte Prämisse halten Petersen und Lupton aus wissenschaftstheoretischer Perspektive für unhaltbar. Zum anderen werfen sie in der Folge dieser wissenschaftstheoretischen Infragestellung objektiver Wahrheiten die Frage nach der Art und Weise sowie den Folgen der sozialen Konstruktion von Wahrheiten oder (um mit Foucault zu sprechen) ‚Epistemen‘ durch epidemiologische Forschung auf.  Die ‚governing by numbers‘ (PL 1996: 27) durch staatliche Bürokratien sei mit dem Aufstieg der Epidemiologie zur Kontrolle und Disziplinierung der ‚Bevölkerung‘, dem Beginn der liberal-gouvernementalistischen ‚Bevölkerungspolitik‘ (vgl. Lemke 2007; Poczka 2017), eng verbunden und führe im Kontext neoliberaler Gesellschaftlichkeit zu Normalisierungsprozessen und der sozialen Konstitution und Moralbedürftigkeit des ‚riskanten Selbst‘.

‚Epidemiologische Fakten‘ sind – wie Petersen und Lupton (1996: 30ff.) zeigen – sozial konstruiert. Im epidemiologischen Selbstverständnis werden unabhängige und abhängige Variablen auf statistisch signifikante Assoziationen untersucht. Während es sich in der Regel bei abhängigen Variablen um (scheinbar) klar operationalisierbare Krankheitszustände handelt, können die unabhängigen, potentiell determinierenden Variablen aus einer ganzen Sammlung von Daten stammen: „…variables as gender, age, social class, race, ethnicity and place of residence are relatedto such ‚outcomes‘ as longevity, heart disease, cancer, respiratory, alcohol consumption, smoking behaviour, and so on.“ (Ebd.: 32) Doch weder die unabhängigen noch die abhängigen Variablen seien so objektiv und klar, wie es epidemiologische Forschung benötige und gern – kontrafaktisch – unterstelle.  So seien weder Begriffe wie „social class“ oder „race“ (ebd.) in ihrer theoretischen Begründung und Operationalisierung unproblematisch; noch sei die „Quantifzierung“ von Todesfällen via ärztliches Attest frei von systematischen und sozial bedingten Fehlern (ebd.: 38f.). Das kausaltheoretische Modell, welches – immer noch – in der epidemiologischen Forschung gültig sei (vgl. zum Ur-Risikofaktorenmodell und seiner biopsychosozialen Weiterentwicklung: Klemperer 2015: 50ff.), basiert auf der Idee eines „‚web of causation'“, wie PL in Anlehnung an die Harvard-Epidemiologien Nancy Krieger (1994) betonen. Zwar lehnten Befürworter dieses „Netz-Modells“ einfache Verursachungsmodelle  ab und akzeptieren multifaktorielle Kausalbedingungen (insbesondere) von chronisch-degenerativen Erkrankungen, aber die empirische Fokussierung auf zentrale Faktoren ist keineswegs „neutral“. PL (1996: 32f.) paraphrasieren zustimmend Nancy Kriegers (1994) Kritik an der theorielosen Epidemiologie der Datenfriedhöfe:

While it [the ‚web-of-causation‘-model, KM] is typically described as ’non hierarchical‘, the ‚web‘ construct tends to privilege some explanations over others, focusing particular attention on the risk factors that are relatively contained and closest to the outcome under investigation (Kriegler [SIC!] 1994, p. 890). Thus, although ‚fuzzy‘ factors such as socioeconomic status will often be included as potential risk factors, few solutions for how to ‚eradicate‘ these risks will be offered, simply because they are complex societal structural features compared with more discrete and therefore more approachable risk factors such as contaminated water supply. The ‚web‘ model also tends to be temporally unidimensional, losing sight of historical changes in disease causation. While the ‚web‘ model acknowledges there is often no single cause of  illness, it still emphasises the ways in which multiple causes combine to have an impact upon a socially atomised individual, often ignoring or playing down the social context (Kriegler [SIC!] 1994, p. 892).

Epidemiologische und biostatistische Daten sind jedoch keine ‚Fakten‘, sondern sozial konstruierte Quantifizierungen, welche im gleichen Atemzug als „Probleme“ konstituiert würden (ebd.: 33). Bezugnehmend auf den Wissenschaftshistoriker Ludwig Fleck unterstreichen sie, dass „Fakten“ nicht nur durch das (Vor-)Wissen und Weltanschauungen („belief systems“) der involvierten Wissenschaftler, sondern auch im Kontext professioneller Eigeninteressen, Machtbeziehungen und Ressourcenallokationen auf dem Feld der Wissenschaft geprägt werden (ebd.). Die quantifizierende Bestimmung von unabhängigen und abhängigen Variablen, also ihre Operationalisierung, ist in theorielosen und unreflektierten Studien oftmals nur eine Bestätigung bereits vorhandenen ‚impliziten Wissens‘, die Auswahl besonders politisch beeinflussbarer Faktoren kein Ausweis neutraler Wissenschaft, sondern gesellschaftlich geprägt. Im Neoliberalismus – so ließe sich die Argumentation von PL zuspitzen – werden vor allem (individualistische) Risikofaktoren als sinnvolle Ansatzpunkte von Gesundheitsförderung und Krankheitsprävention betrachtet  (die beiden deutschen Gesundheitswissenschaftler Hagen Kühn und Rolf Rosenbrock [1994: 39ff.] haben in treffender Weise für diesen Zusammenhang das „Darwinsche Gesetz der Präventionspolitik“ formuliert). Epidemiologische ‚Fakten‘ und ‚Wahrheiten‘ sind daher kontextsensibel und überschnelle Generalisierungen universellen Wahrheitsanspruchs sind kritisch zu betrachten. Allgemein gilt: „It is clear that pre-established assumptions about the cause of a disease may shape the manner in which research is carried out to then ‚prove‘ this causal link.“ (PL 1996: 45). Daher plädieren wissenschaftstheoretisch reflektierte Epidemiologinnen, wie zum Beispiel die US-amerikanische Wissenschaftlerin Nancy Krieger (2011), zu einer bewussteren theoretischen Reflexion epidemiologischer Forschung. Petersen und Lupton (1996: 39) fassen ihre Skepsis gegenüber epidemiologischen ‚Fakten‘ präzise zusammen:

The very choice of what phenomena require measurement and surveillance is a product of sociocultural processes, related to such factors as the research interest of the epidemiologists involved, current knowledges systems about the links between human behaviours or embodied characteristics and illness and disease, access to resources to fund research and surveillance strategies, the interests of the organisations in which epidemiologists are located, feasibility of measurement, and ethical and political considerations.

Durch die soziale Konstruktion von „Risikofaktoren“ bzw. „Risikoverhalten“ als gesellschaftlichen Problemen werden die „Abweichler“ von Normierungen und Normalisierungsprozessen zum „Problem gemacht“ (Hacking 1990). Zudem treten die Erkenntnisse und Wissenssysteme von Laien und Epidemiologen auseinander, mit der Annahme, dass Laien-Ätiologien weniger wert sind als diejenigen von „Experten“. Das mit Hilfe epidemiologischer Instrumente sozial konstruierte Verständnis von Gesundheitsrisiken reduziere sich allzuoft auf die individuelle Ebene, etwa Rauchverhalten, ohne dass soziale Gründe für dieses „Risikoverhalten“ überhaupt konzeptionell in den Blick genommen würden. Der Kampf gegen „unhealty lifestlyes“ (PL 1996: 49) im New-Public-Health-Diskurs beinhalte ein „…strong element of moralism and emphasis on personal responsibility.“ (Ebd.: 48) Die Kehrseite dieser neosozialen Moralität – wie ich sie oben benannt habe – ist PL zufolge freilich die abgrenzende und stigmatisierende Konstruktion des „Anderen“ bzw. „Andersartigen“ der von der Norm(alisierung) abweicht, wie Petersen und Lupton anhand Alkohol- und Drogensüchtigen sowie des (rassistisch geprägten) HIV-Verdachts ausgesetzten Menschen anderer Hautfarben beschreiben (ebd.: 55ff.). Die Kritik von PL (1996: 60) an der (unreflektierten) Epidemiologie fällt vernichtend aus:

Epidemiology is thus one of the central strategies in the new public health used to construct notions of ‚health‘ and, through this construction, to invoke and reproduce moral judgments about the worth of individuals and social groups. What implications does this have for the conduct of oneself as a citizen?

KRITIK DES GESUNDHEITSFÖRERLICHEN REDUKTIONISMUS: DIE KONSTRUKTION EINES ‚GESUNDEN BÜRGERS‘ UND DIE WANDLUNGEN DER GENDERASPEKTE

Das Konzept des Staatsbürgers („citizenship“) hat sich im Prozes der Zivilisation seit der Renaissance herausgebildet und war eng mit der Entstehung des Selbst-Konzeptes (’selfhood‘) verbunden (vgl. Elias 1997). Petersen und Lupton schreiben diesem bürgerlichen Selbst einige Kernmerkmale zu, dessen Verwirklichung historisch in seiner Zeit der Entstehung vor allem freien, besitzenden Bürgern (eben: männlichen Geschlechts) vorbehalten waren.

Civility is important to citizenship because participation as a citizen in participatory democracy involves self-control of the body and the emotions, the regulation of one’s demeanour and the cultivation of patience, enthusiasm and interest (Minson 1993, p. 203, zit.n. PL 1996: 63)

Im 20. Jahrhundert habe sich die soziale Normierung des Staatsbürgers im ‚Westen‘ zunächst im Zuge des Ausbaus der Sozialstaates – vor allem – nach dem Zweiten Weltkrieg inhaltlich in die Aufwertung von sozialer Verantwortlichkeit und kollektiver Solidarität entwickelt (ebd.), bevor im Zuge der 1980er Jahre und vor dem Hintergrund des (Wieder-)Aufstiegs neo-liberaler Philosophien der vorgängige passive und abhängige Staatsbürger sich erneut in einen aktiven und stark individualisierten verwandelt habe, dessen Kernidentität die Wahlentscheidung sei. Entgegen neoliberalen Freiheitsideologien unterstreichen PL jedoch, dass diese scheinbar freien Wahlentscheidungen mit einer Veränderung von Regierungsstrategien und -technologien einhergingen; jenem Kerngegenstand der von PL (1996: 63f.) favorisierten Gouvernementalitätsstudien:

…governmental programs and regulatory technologies have diversified still more, to construct an autonomous subject whose choices and desires are aligned with the objectives of the state and other social authorities and institutions.

Die gesellschaftliche Konstitution von Individuen als ‚Subjekte‘ gehorche einer – zugespitzt formuliert – Dialektik aus „techniques of governmental self-formation“ und „practices of ethical self-formation“ (ebd.: 64). Die bereits begrifflich eingeführte ’neosoziale Moralität‘ bewirkt eine Parallelisierung des generellen neuen Staatsbürgers mit dem im NPH-Diskurs konstruierten gesunden Bürger, dem „healthy citizen“ (ebd.: 64ff.). Dessen Aufstieg verläuft – wie PL unter Verweis auf grundlegende Arbeiten von Foucault, Herzlich/Pierret und Duden zeigen – ebenfalls in historischen Kontinuitäten und Brüchen. Der Kern des ‚gesunden Bürgers‘ sei die Selbsterhaltung seines Körpers, zum Zweck seiner (produktiven) Teilnahme an und (präventiven) Abwehr gesundheitlicher Gefahren für die Gesellschaft (vgl. zur Bedeutung des ‚Body‘-Konzepts in der Gesundheitssoziologie: Turner 1995: 204ff.; Lupton 2000: 50ff.; Turner 2004: passim; Nettleton 2006: 104ff.). Beginnend in der Aufklärungszeit „…governmental means of regulating the body began to shift from overtly coercive methods to those of self-regulation.“ (PL 1996: 66) Im Zuge der Neoliberalisierung und der zunehmenden Kommodifizierung kollektiver Güter – über den „Fordismus“ wird diesbezüglich recht wenig von PL geäußert; ggf. wegen der höheren Bedeutung der Medizin für die Passivierung des Patienten (Lupton 2012); die Sozialdemokratie als politisch-ideologische Verkörperung des Fordismus (Buci-Glucksmann/Therborn 1981) verstand sich ja auch als ‚kurierender‘ Arzt am Bett des Kapitalismus – verwandelt sich das liberale Normideal der Freiheit in das der gesundheitsbewussten Wahlentscheidung gesundheitsförderlicher Güter für jede Einzelne, ihre Familien und die ganze Gesellschaft:

Ideal ‚healthy‘ citizens have their children immunised according to state directives, participate in screening procedures such as cervical cancer smear tests and blood cholestrol tests (but only when they are deemed to be in the appropriate target group), control their diet according to dietry guidelines and take regular exercise to protect themselves against such conditions as coronary heart disease and osteoperosis. Not only do they take steps to protect their own health but their are also concerned about the health of others. (PL: 1996: 69)

Die Kehrseite solcher Regierungsprogrammen und liberaler Selbstverständnissen zur ‚Förderung‘ gesunder Bürger ist PL zufolge freilich die letzinstanzliche autoritative Durchsetzung der Verhaltensmerkmale der gesunden Bürgerin gegenüber stigmatisierten oder marginalisierten Gruppen in der Gesellschaft, die nicht in der Lage sind oder –  aus der Perspektive neosozialer Moralität noch schlimmer – sich den staatlichen Programmen und sozialen Moralanforderungen gar widersetzen.  Trotz der Rhetorik der Freiwilligkeit und der freien Wahlentscheidung liege im Kern der Idee des NPH strikt die staatliche Durchsetzung sozialmoralischer Gesundheitsverhältnisse.  Von der (neo-)liberalen Wahlfreiheit bleibe folglich nur ein ideologischer Schein, sie werde , abweichendes Verhalten im Zweifelsfall staatlich erzwungen zu normalisieren versucht:

The state still takes a largely paternalistic approach to the task of monitoring and regulating its ‚citizens‘ health, albeit cloaked in the discourse of individual and community ‚voluntary participation‘. Public health represents the state as the agency responsible for guarding and ensuring the health of the populace. (PL 1996: 71)

Im weiteren Verlauf ihres Buches beschreiben Petersen und Lupton (ebd: 72ff.) den Genderaspekt des gesunden Bürgers (SIC!), indem sie darauf hinweisen, dass Frauen wesentlich stärker als Männer den Herrschaftstechniken des Staates unterworfen werden und sich als selbstverantwortliche (Mittelklasse-)Subjekte selbst in dieser Weise konstruieren. Diese besonders starke Regulierung des weiblichen Körpers geht auch einher mit der historisch zunächst begrenzten Zuweisung des Staatsbürgerstatus auf (weiße) Männer und der Zuweisung der (betreuenden) Mutterrolle von Frauen in den Familien der bürgerlichen Gesellschaft des 19. und frühen 20. Jahrhunderts. Die Bewahrung gesunder Familienverhältnisse durch Kontrolle des weiblichen Körpers im Hinblick auf häusliche Sauberkeit, soziale Attraktivität, eheliche Sexualität und risikoaverses Verhalten (für Kind, Mann und – in dieser Reihenfolge – für sich) ziehe sich als moralische Anforderung an Frauen durch die gesamte Geschichte der bürgerlichen Gesellschaft und sei gegenüber weniger selbstkontrollierten Gruppen von Frauen (z.B. englischen Arbeiterfrauen) entweder staatlicherseits oder durch freiwilligen Dienst von Mittelklassefrauen eingefordert worden. Entsprechend den gesundheitsmoralischen Anforderungen an Frauen seien sie auch als besonders kontrollnotwendig (Risiken!) und kontrollbedürftig (geringe Selbstkontrolle, affektiv determiniert) angesehen worden. Im NPH-Diskurs habe sich trotz punktueller Variationen und neuartiger Risiken daher lange Zeit nichts Grundsätzliches am kritischen Verhältnis zu Frauen im Sinne  „liberaler Gouvernementalität“ (Poczka 2017: 421ff.)  geändert:

In the new public health discourse women are encouraged to monitor the shape and size of their bodies so as to maximise their sexual attractiveness and desirability, and to avoid practices such as smoking because men will find their breath unattractive or because it causes premature wrinkling. The feminine ‚healthy‘ citizen, it is suggested, should seek both soundness of body and physical allure through the self-care techniques proferred by the new public health. In these discourses there is an elision between the ideals of commodity culture and public health, for both promote the slim, attractive, healthy, physically fit, youthful body as that which women should seek to attain. (PL 1996: 80)

Der ‚gesunde Mann‘ war und ist in vielerlei Hinsicht konträr zu den moralischen Anforderungen, die an Frauen gestellt werden, konstruiert: „The male body is dominantly culturally represented and understood as ‚contained‘, dry and controlled compared with the soft, viscous body of a woman.“ (Ebd.: 81) Wenn die in Anklang an griechische Ursprünge oft muskulär geprägte männliche Körperlichkeit außer Kontrolle gerate – in Krankheitsepisoden etwa – werde die körperliche Identität des Mannes außer Kraft gesetzt; hier liegt gewissermaßen die identitätstheoretische Begründung für den sprichwörtlichen „Männerschnupfen„. Die Sorge des Mannes um seine Gesundheit, die Vermeidung exzessiven und risikobehafteten Verhaltens, welche seine ‚Kraft‘ demonstrieren soll, werde oft – so PL – mit (sozial und individuell abgewerteter) Homosexualität identifiziert.  „By contrast, engaging in activities that treathen one’s health, endanger one’s body, are often coded as masculine.“ (Ebd.: 83)

Diese Einschätzung von PL mag heute ein wenig veraltet erscheinen, doch ist es durchaus fraglich, ob die ‚Männlichkeit‘ heute, zwanzig Jahre später, trotz zunehmenden ‚verordneten‘ Gesundheitsbewussteins von Männern (z.B. Klotz/Hurrelmann/Eickenberg 1998 ; Altgeld 2004; Merbach/Bräler 2014) in gleicher Weise reguliert wird wie die weiterhin stark regulierte ‚Weiblichkeit‘. Aus einer modernisierungstheoretischen Perspektive beispielsweise, die –  in positiver Weise – an die neo-liberalen Anforderungen der Subjektaktivierung und neosozialen Moralität anschließt (vgl. Lesssenich 2008: passim), wird eine Transformation von Geschlechterrollen identifiziert und in deren Folge soziale Anforderungen an diese gestellt, die nicht nur die Risikoneigung und überkommenden (gesundheitsrelevanten) Männlichkeitskonzepte, sondern auch traditionelle Weiblichkeitsrollen als sozialisationsbedingte Defizite identifizieren, mit denen eine erfolgreiche Integration in die Erwerbswelt verhindert werde (Siegrist/Möller-Leimkühler 2012: 127ff.).  Petersen und Lupton (1996: 85ff.) haben jedoch bereits unter Hinweis auf die „men’s health“-Bewegung diese modernistische Differenzierung männlicher Gesundheitskonzepte antizipiert. Motiviert durch die durchschnittlich geringere Lebenserwartung von Männern ziele diese Bewegung auf eine Einübung ‚gesünderer‘ Lebensstile und aktiveren Nutzung bestehender Gesundheitsdienstleistungen.

The [healthy citizen, KM] discourse […] represents an even greater extension of the new public health strategies of continual monitoring and calculation of the population’s health status. The men’s health discourse, like that of women’s health movement that preceded it, underlines the ‚voluntary‘ nature of such surveillance, because the calls for the increased ‚medicalisation‘ of men’s bodies through greater access to health care services and medical screening technologies are not emerging from the state, but from community groups and individuals. (PL 1996: 87)

Obwohl PL hiermit eine gewisse Annäherung der Gesundheitskonzepte der ‚women’s-health“- und „men’s health“-Bewegungen suggerieren, bleibt die Frage ungeklärt, ob sich auch die Geschlechterrollen insgesamt anpassen. Ein flüchtiger Blick in die parallelen Zeitschriften ‚Men’s Health‚ und ‚Women’s Health‚ legt die Vermutung nahe, dass sich an grundlegenden Geschlechterrollen nicht viel geändert hat, außer mit der Qualifizierung, dass heutige Männer und Frauen sich entsprechenden den Anforderungen neosozialer Moralität gesünder zu verhalten suchen, dabei aber mutmaßlich immer noch soziostrukturelle Varianzen und Hierarchiemuster zu vermuten sind; Petersen und Lupton verfolgen leider diesen Gedanken nicht weiter. Eine klassentheoretische sensible Genderforschung hätte hier wohl anzusetzen. Zugleich stellt sich die Frage, ob diese neuen Strategien der gesundheitlichen Geschlechstkonstruktion wirklich mit traditionellen patriarchalischen oder gar sexistischen Reproduktionsformen brechen und wirklich eine doppelcodierte (bedingte) Maskulinisierung des Weiblichen sowie parallel eine (bedingte) Feminisierung des Männlichen stattfindet oder ob sie nur eine Transformation des Patriarchats darstellen (vgl. als Einstieg in und Überlick über die Gender-Studies: Abdul-Hussein 2014). Unabängig von diesen Gesichtspunkten wird der ‚healthy citizen‘  in gewisser Weise geschlechtsneutraler, gerade auch weil differente Aspekte von Gender bei der Konstitution von Gesundheit/Krankheit sowie gesundheitsförderlichem Verhalten berücksichtigt werden…

KRITIK DER SOZIAL-ÖKOLOGISCHEN GRUNDLAGEN VON NEW PUBLIC HEALTH: DIE MODERNISTISCHE KONSTRUKTION EINER ‚RISKANTEN UMWELT‘

Es ist ein weithin bekannter Truismus, dass der Aufstieg der politischen/sozialen Bewegungen für bessere gesundheitliche Verhältnisse unzweifelhaft mit einer Kritik an sozial-ökologischen Problemen und Auswüchsen des gesellschaftlichen Modernisierungsprozesses einhergegangen ist (vgl. exemplarisch: Beck 1986; Trojan/Legewie 2001). PL unterziehen die sozial-ökologischen Grundlagen dieser Bewegungen für mehr Gesundheit einer kritischen Bewertung, wobei der Kern ihrer Kritik darauf zielt, dass die von diesen Bewegungen kritisierten Modernisierungseffekte auf halbem Wege stecken bleiben, weil sie – nun in ‚kritischer‘ Absicht – weiterhin dem rationalistischem Aufklärungsglauben der Moderne anhängen. Insbesondere behaupten sie aber, dass trotz der relativen Ähnlichkeit der „grünen“ Umweltbewegung und der NPH-Bewegung die letztere dazu tendiere vollumfänglich einen „neo-liberal approach“ (PL 1996: 90) zu verfolgen (siehe auch: Mosebach/Walter 2021), wobei eine grün-radikale Position innerhalb des umweltschutzbezogenen Diskurses noch zu erkennen sei (eine Kritik, die im Angesicht des unvermeidlichen „Green New Deal“ mittlerweile kaum noch zutreffen dürfte, sind doch radikale Positionen mittlerweile auch im Umweltschutz-Diskurs insofern marginalisiert (wenn nicht sogar kriminalisiert), als auch hier mittlerweile technologische Innovationen ein Weiter-So des Kapitalismus ermöglichen sollen; Neckel 2019; Mosebach 2022). Ihre Kritik ist mithin eine Kritik an rationalistischen Modellen von Wissenschaft und Politik, die nicht nur den Schutz der und vor der „natürlichen Umwelt“, sondern auch der „sozialen Umwelt“ und des Einzelnen vor schlechten Einflüssen aus dieser betrifft.  Ihre wissenschaftstheoretisch inspirierte Kritk lässt sich mit ihren eigenen Worten wie folgt zusammenfassen:

In environmental discourses the inevitable contingencies, indeterminacies and uncertainties, the socially constructed nature of scientific knowledge, tend to be glossed over for a reliance upon ‚objective facts‘ (Grove-White 1993, p. 22). In turn, most solutions constituted to deal with environmental problems draw upon science and rational action. It is not knowledge base of science per se that is challenged, therefore, but rather the effects of a ‚misused‘ science. (PL 1996: 118f.)

Diese resümierende Kritik soll im Folgenden in Bezug (i) auf die Figur des umweltbewussten Bürgers (ii) dem Begriff von Natur in diesen Diskurses und (iii) den sozial-ökologischen Gesundheitsrisiken etwas ausführlicher rekonstruiert werden, bevor die Grundthese von PL im Hinblick auf Kohärenz und Aktualität abschließende diskutiert werden wird.

Der sozialökologisch bewusste „healthy citizen“ errinnert PL an einen „rational consumer […] who engages as an autonomous individual in activities to prevent or reduce environmental damage and to protect herself or himself from health risks believed to be generated by the environment.“ (PL 1996: 90) Wobei im Rahmen des neoliberalen Diskurses anerkannt ist, dass diese Umwelt durchaus von Menschen „verunreinigt“ wurde, aber der Umgang mit diesen „Risiken“ bleibe individualistisch-neoliberal geprägt. Allerdings weisen PL darauf hin, dass der Umgang des Menschen mit „environmental hazards“ geradezu eine anthropologische Konstante ist und entgegen der erst in den 1950er Jahren entstanden globalen Umweltbewegung gegen die Industrialisierungsauswirkungen weit in die dokumentierte Geschichte zurückreicht. Die diskursive Auseinandersetzung mit den „Umweltrisiken“ bedient (sich) dabei stets binäre(r) und moralisch aufgeladenen/r Kategorien, wie z.B. „clean/dirty, pure/contaminated and rural/urban“ (ebd.: 91). Das 19. Jahrhundert – als die Geburtsepoche von Public Health – ist dabei von besonderen genealogischem Interesse für Peterson und Lupton (PL 1996: 91-94), denn es zeigt, wie unterschiedlich gesundheitsschädliche Umweltrisiken diskursiv konstituiert werden können.

Im 19. Jahrhundert – so ihre These – drehte sich alles um die „Sauberhaltung“ des unmittelbaren Wohn- und Lebensortes. Die Erhaltung der „domestic cleaniness“ war nicht nur eine Pflicht für alle „Bürger“, sie wurde vor allem jenen als Pflicht auferlegt, die als Arme, Mitglieder der Arbeiterklasse oder Immigranten in „dreckigen“ Gegenden wohnten und daher selbst persönlich als „Gesundheitsrisiko“ betrachtet wurden. Theoretisch wurde das gerechtfertigt durch die – noch heute bekannte – Identifizierung von „schlechter Luft“ oder schlicht: „Gestank“, die im Rahmen der sog. Miasma-Theorie kategorisiert wurde. Die „Überbevölkerung“ wurde als ursächliches Problem identifziert, welches aber kaum auf funktionale Anforderungen des kapitalistischen Akkumulationsprozesses und der damit zusammenhängenden „ursprünglichen Akkumulation“ (MEW 23: 741ff. [Kap. 24]; Polanyi 1990) zurückgeführt wurde, sondern zumeist mit moralischen Kategorien über die „unzivilisierten“ und „charakterlosen“ Sozialgruppen einherging („wunderbar“ nachzulesen z.B. in den Geschichten über den Privatdetektiv Sherlock Holmes aus der Feder des britischen konservativen Literaten: Sir Arthur Conan Doyle). Folglich wurden „Städte“ und die dort befindlichen „Slums“ als Brutstätten von Erkrankungen und Krankheitsherden identifiziert. Die staatlich vermittelte „Public Health“-Politik in vordemokratisch-liberalkapitalistischen Zeiten zielte daher auf die soziale Kontrolle und den sozialen Aussschluss solcher „gefährlichen Klassen“, nicht nur in England, USA und Australien (der Raumbereich von PL; siehe darüberhinaus de Swan 1988; Labisch 1992; Porter 2005):

Therefore, in nineteenth-century public health the actions expected of citizens to protect their health in relation to the ‚environment‘, for the bourgeoisie at least, centred around avoiding those places and people that were singled out by the experts as ‚dirty‘ and potentially ‚contaminating‘. The importance of maintaining domestic cleaniness was also emphasied as a duty to all citizens, particularly those constructed as ‚dirty‘: immigrants, members of the poor and the working class. However, […] this duty was largely represented as the responsibility of women, as wives and mothers (PL 1996: 94)

Umweltgefährdungen im Zeitalter der Globalisierung sind dagegen global konnotiert, sie überschreiten das Lokale, Begrenzte, auch hinsichtlich ihrer Gefährlichkeit und Vernichtungsmöglichkeit. Der analytische Schlüsselbegriff im (post-)modernen Umweltdiskurs hierfür ist der Begriff des „Risikos“, den Petersen und Lupton in kritscher Reflexion der soziologischen Theorie der reflexiven Moderne (Beck 1986, Giddens 1996; Beck/Giddens/Urry 1996) anwenden. Der Begriff des Risikos beschreibt damit Gefährdungen (zu dieser Unterscheidung siehe Giddens 1996: 16ff), die aufgrund menschlicher Handlungen zurückführbar sind. Hierdurch werden sie, so Beck, „calculable and predictable“ (PL 1996: 96). Der Umweltrisikodiskurs zeige sich nun aber so, dass die Risiken von den Einzelnen nicht mehr kontrolliert werden können, da ihre – gewissermaßen – Vermittlungs- und Verursachungsprozesse weit über die lokale Begrenztheit von Risiken hinausgingen, die im 19. Jahrhundert vorherrschten. Umweltrisiken gehen auch in ihrer Folgenmächtigkeit über die beschränkten des vorangegangenen Jahrhunderts hinaus: sie begründen ein „greate magnitude [of risk], which treatens humans as a species.“ (PL 1996: 95) Petersen und Lupton illustrieren diese Katastrophenrhetorik des Umweltdiskurses mit zahlreichen Ereignisse und Studien, die eine solche Wahrnehmung nachvollziehbar machen (so z.B. der Reaktor-Unfall in Tschernobyl 1986). Desweiteren werden die Luftverschmutzung in Los Angeles und auch die globale Erwärmung als weitere Großrisiken für die Gesundheit von Einzelnen und größeren Gruppen bis hin zu Menschheit genannt, die im Umweltdiskurs artikuliert werden.

Dieses Risiko ist – Beck zufolge – selbstgemacht, denn es ist „a systematic way of dealing with hazards and insecurities induced and introduced by modernisation itself“ (1992, p. 21, zit.n. PL 1996: 96) Doch dieses Risiko ist nicht von allein da, es bedarf diskursiver Verstärker, wobei neben Umwelt-NGOs (z.B. Greenpeace als ein Pionierverein) vor allem wissenschaftliche Expertensysteme und im Hinblick auf die Umweltrisiken für die Gesundheit vor allem die Weltgesundheitsorganisation (WHO) von Bedeutung sind. Alle Akteure bedienen sich freilich den Medien, die das Bewusstsein um Umweltkatastrophen und Risiken in den letzten Winkel der Erde transportieren. Die Folgen für die Menschen sind gravierend, denn – wie viele Studien gezeigt hätten – „risks engendered by industrialisation create ambivalance and anxiety because of their seemingly limitlessness spread and the difficulty in defining their effect.“ (PL 1996: 98) Der lokalen Bedrohung im 19. Jahrhundert konnte noch individuell begegnet werden vermittels der handlungsorientierten Kontrolle des lokalen Raums und des bewussten Vermeidens „gefährlicher Gebiete“ (so illusorisch das im einzelnen auch gewesen sein mag). In der Grenzenlosigkeit der globalen Umweltkrise(n) jedoch wird die Souveränität oder auch Autonomie des Einzelnen zerstört oder wenigstens heftig in Frage gestellt. Die Feststellung oder gar Vermeidung von Ursachen und Folgen globaler Erwärmung, elektromagnetischer Strahlungsbelastung oder auch von elektrischer Energie überhaupt, entzieht sich der individuellen Erkenntnis und vereinzelten Handlungsfähigkeit des (postmodernen) Subjekts:

Given the assumed pervasive and insidious nature of health risks, the identification of such risks has come to be viewed as beyond the capacity of most individuals. Risk identification is increasingly regarded as the preserve of those who have access to technology and expert knowledges, for example scientists and members of the medial profession. These experts are responsible for constructing a web of knowledges around environmental hazards, and for interpreting the risk for members of the lay population. It is difficult for lay people to know how much trust they should invest in these experts, however, given the constantly shifting state of scientific and medical knowledge (Giddens 1992, p. 148). (PL 1996: 98)

Wie konstituiert sich in diesem Umfeld individuell untrollierbarer Umweltrisiken und brüchigem Vertrauen auf Expertenwissen der umwelt- und gesundheitsbewusste Bürger als handelndes Subjekt? Dieser Frage gehen Petersen und Lupton (1996: 99-103) im Folgenden nach.

IN BEARBEITUNG…

LAST UPDATED: 2024-02-09

Ivan Illichs Medizinkritik revisited – alles gut?

In den 1970er Jahren erschien im Rowohlt Taschenbuchverlag ein Buch eines wortgewaltigen, streitlustigen und höchst unorthodoxen Intellektuellen unter dem Titel „Die Enteignung der Gesundheit“ (1975), der sich im Verlauf der folgenden Neuauflagen (1977 und 1979) in „Die Nemesis der Medizin“ verwandelte. In der letztmalig vom Autor autorisierten Neuauflage (1995) wechselte der Autor den Verlag (nun C.H. Beck), doch jenseits eines Nachwortes blieb das Buch weitgehend auf den Stand der 1970er Jahre. Der beigefügte Untertitel „Die Kritik der Medikalisierung des Lebens“ war letztlich ein marketinginduziertes Labeling, das auf die Medizinkritik in einem bestimmten sozialen Millieu abzielte, jedoch den durchaus aufklärerischen Intentionen des Autodidakten Ivan Illich hier entgegenstand. Nicht überraschend wird es in der internationalen Health Research Community weitgehend als Polemik und überschießender Medizinerhaß abgetan, der die „Erfolge der Medizin“ schlichtweg übersehe.

Zu dieser völlig überzogenen Kritik von Seiten der sich nunmehr evidenzbasiert verstehenden neuen Medizinerzunft (Vogd 2011) kam es – wenigstens in Deutschland – auch, dass der Titel publikumswirksam und reißerisch daherkam. Im englischen Original heißt es im Haupttitel schlicht „Limits to Medicine“ – und genau das wird in durchaus zugespitzter, positiv eingesetzter Polemik in dem Buch auch verfolgt. Ivan Illich ist alles andere als ein esoterischer Medizinkritiker, sondern er bezieht sich explizit auf den zu seiner Zeit verfügbaren Wissensstand der evidenzbasierten Medizin. Wer anderes behauptet, hat das Buch – vermutlich gilt das für die meisten Kritiker:innen – niemals gelesen oder polemisiert schlicht gegen die medizinkritische Infragestellung eminenzbasierten bzw. nunmehr institutionenbasierten Wissens, weil die Implikationen und offenen Fragen des Buches – auch heute noch – nicht gelegen kommen (siehe zum hiermit angesprochenen medizinisch-industriellen Komplex: ).

Dabei ist das Buch von seinen Fragen hochaktuell, denn wir befinden uns mitten in einer neuen, molekulargenetisch-digitalen, Revolution der Medizin, die alte Fragen, die Ivan Illich vor 50 Jahren kritisch gegen übliche Antworten neu bearbeitete, neu aufwirft: nutzt uns die Medizin wirklich? Welche Rolle spielen Ärzte, die Pharmaindustrie, aber auch der zunehmend sich kommerzialisierende Präventionssektor im Erlangen und Erhalten „unserer Gesundheit“ wirklich? Werden die Versprechen einer kommerzialisierten und genetifizierten Medizin und Public Health-Fürsorge wirklich eingehalten? Oder handelt es sich – wieder, erneut oder immer noch – um einen erneuerten Imperialismus der Medizin, der – in Habermas’scher Terminologie (1981) – die Lebenswelten kolonisiert? Welche Rolle spielen die Bürger und Bürgerinnen dabei selbst und ist dieser ganze Prozess des Weges in eine „Gesundheitsgesellschaft“ (Kickbusch/Hartung 2014) eigentlich zu begrüßen oder schlicht die Finalisierung der von Ivan Illich avisierten Dystopie einer entmenschlichten Gesellschaft?

In diesem Essay sollen die Grundbausteine der Ilich’schen kritischen Invektiven gegen die Medizin und das medizinische System kritisch rekonstruiert und – sofern für einen Einzelnen im derzeitigen „akademischen Kapitalismus“ (Münch 2001) möglich – aktualisiert werden. Dabei werde ich den Essay in zwei Teile gestalten. Während im ersten Teil die kritische Bestandsaufnahme Ivan Illichs im Hinblick auf seine Dreifachdiagnose von klinischer, sozialer und kultureller Iatrogenesis aus der Perspektive einer fünfzigjährigen Entwicklungsgeschichte von (auch: Kritischer) Public Health-Bewegung in seinen Grundaussagen auf ihre Zukunftsfähigkeit geprüft werden soll, widmet sich der zweite Teil einigen Fallstudien der (jüngeren) Medikalisierungsforschung (Mosebach 2010; Hehlmann et al. 2018), von deren Existenz Ivan Illich in seinen fulminanten Kritiken aus den 1970er Jahren (noch) nichts wissen konnte, deren potentiell invasiven Macht- und Wirkeffekte auf den Einzelnen und die Gesellschaft aber erheblich sind: der Genetifizierung und Digitalisierung der Medizin und von Public Health (vgl. für viele: Borck 1996; Peterson/Bunton 2002; Lemke 2003; Brown/Webster 2004; Gelhaus 2006; Lupton 2010, 2020; Cathomen/Puchta 2018).

I. Die Nemesis der Medizin – 50 Jahre Medizinkritik: was bleibt von Illichs kritischer Dreifachdiagnose?

Wird weitergeführt… (06. Januar 2024)

Zurück

Bildquelle: https://cdn.pixabay.com/photo/2016/12/13/05/27/dna-1903318_640.jpg

Die Lunte ist gezündet und nur noch wenig Zeit, sie auszupusten.

Der menschenverachtende Anschlag der Hamas am Sonntag, dem 07. Oktober 2023 (am Jahrestag des Beginns des Yom-Kippur-Kriegs 1973 !!), hat die Lunte am „Pulverfass“ des Nahes Ostens gezündet. Der Mord an über 1.000 Zivilisten und die Entführung und gedrohte Ermordung weiterer Menschen in Israel sind haarsträubend und verdienen das Etikett: Terrorismus. Doch jenseits – verständlicher, aber kaum rationaler – Rachebeschwörungen aus Israel und der bequemen moralischen Selbstversicherung des globalen Westens, an der „Seite Israels“ zu stehen,  sucht man vergeblich nach rationalen Ankern in diesen irrationalen Zeiten. Es beschleicht einen das unangenehme Gefühl, dass man es in der politischen Öffentlichkeit von liberalen Demokratien nur noch mit Zuspitzungen und kaum verhohlenen Gefühlsausbrüchen zu tun hat – in sog. failed states oder besetzten Gebieten weit weniger überraschend. In Rhetorik und Vehemenz zweifellos nicht vergleichbar mit den quasi-völkischen Hasstiraden von Hamas-Politikern, aber genauso inszeniert und scheinauthentisch erscheinen sie. Aber, ja, die Politiker:innen des globalen Westens können wieder die starke Frau und den starken Mann präsentieren und in den Medien punkten – nach innenpolitischen Fehden und Problemen mal wieder etwas Staatsrepräsentanz zeigen (und vermutlich: leben). „Israels Sicherheit ist Teil der deutschen Staatsräson“, so der Bundeskanzler. Es zeigt sich: die Außenpolitik bleibt die Prärogative des Staates und wirkt nach innen. Das Feindstrafrecht wird ausgepackt: wer die Hamas unterstützt, macht sich strafbar – die Generalklausel des ollen Carl Schmitt kehrt wieder (Neumann 1950).

Einfache Antworten auf komplexe Fragen in Zeiten des Neuen Kalten Krieges

Gut so? Doch was soll diese moralische und rhetorische Aufrüstung bewirken? Wer sich eingedenk der ermordeten Menschen in Israel an den Aktionen der Hamas erfreut, ist zweifellos ein Sympathisant. Und aus der Perspektive einer humanistischen Außen- und Sicherheitspolitik haben diese blindwütigen Unterstützer einer verabscheuenswürdigen terroristischen Aktion ihren Inhumanismus in vollster Vollendung bewiesen. Doch bleibt einem diese zutreffende ethische Einordnung ein wenig im Hals stecken, wenn die staatliche Verdammung und präventive Kriminalisierung der fehlgeleiteten Freude und unsäglichen Wut auf alles, was mit Israel zu tun hat, undifferenziert auf sprachliche Äußerungen übertragen wird, die (bloß) eine differenzierte Kritik der israelischen Regierungspraxis in diesem historischen Konflikt äußern wollen. Ist das nicht mehr möglich? Eine kritische Sicht auf eine noch nicht vor zu langer Zeit äußerst kritisch angeschaute Regierung unter „Bibi“ Netanjahu beizubehalten?

Ohne jeden Zweifel: wer das Existenzrechts Israels oder auch nur eines einzigen jüdischen Mitbürgers in Frage stellt, ist nicht nur ein politischer Extremist, sondern auch an einer Lösung des zugrundeliegenden Konfliktes nicht interessiert – dasselbe gilt aber auch in die andere Richtung, auch wenn es selten vor und noch weniger nach den Anschlägen der Hamas in unseren Breitengraden gehört wird. Die Zwei-Staaten-Lösung ist immer noch völkerrechtlicher Standard. Aber sie wackelt und wird vermutlich diese Eskalation nicht überleben; mehr noch: Netanjahu hat sie stets in Frage gestellt; nur noch China und Russland scheinen dieser Idee zu folgen, nachdem der Hasardeur Donald Trump Jerusalem in toto dem israelischen Staat zugeschlagen hatte – erinnert sich noch jemand an diese Provokation?

Handelt folglich jemand mit tödlicher Absicht gegen ihm verhasste Menschen, ist er zweifellos ein Mörder. Er verstößt außerdem gegen zahlreiche rechtsstaatliche und völkerrechtliche Prinzipien, die geahndet werden müssen. Doch eine respektvoll und differenziert geäußerte Kritik an manchen Praktiken und Prinzipien von israelischen Regierungen (und ihren Unterstützer:innen im ‚Westen‘) vor und nach dem terroristischen Anschlag der Hamas muss möglich sein. In der derzeit heiß hoch gekochten Medienöffentlichkeit hat man jedoch den Eindruck, dass die „Reihen geschlossen werden“ – wieder einmal. Doch wie soll ohne abwägendes und damit auch stets kritisch-hinterfragendes Urteil über das Handeln der involiverten Akteure ein rationales Politik- und Konfliktmanagement in dieser Region noch realistisch funktionieren können? Insofern irritiert die moralische und rhetorische Aufrüstung einigermaßen und der Verdacht stellt sich ein, dass entweder stimmenmaximierende Symbolpolitik nach innen herrscht oder – noch schlimmer – weitere „Fässer Sprengpulver“ (um im Bild zu bleiben) in die Welt geliefert werden, um politisches und ökonomisches Kapital aus dieser Katastrophe zu ziehen. Dabei wird übersehen: die Lunte glimmt bereits deutlich und schickt sich an zum Sarajewo des 21. Jahrhunderts zu werden .

Die eskalierende Reaktion der israelischen Regierung auf die terroristischen Angriffe der Hamas ist jedoch nicht nur völlig überzogen und maßlos; sie widerspricht – selbst jetzt schon mit der Bombardierung ziviler Ziele –  jedem völkerrechtlichen Prinzip der Verhaltensmäßigkeit und des Schutzes der Zivilbevölkerung. Selbst wenn zugestanden wird, dass die Hamas die eigene Bevölkerung als „Schutzschild“ nimmt (was oft behauptet, aber nicht so oft belegt wird), ist das kein Freibrief für die weitgehend willkürlichen Bombardierungen von Gaza-Stadt (Nord) – und mittlerweile auch im Süden, wohin die Flüchtlinge aus Gaza-Nord doch gemäß des israelischen Militärs doch verschwinden sollen, wollen sie die geplante Bodenoffensive überleben. Offenbar will die israelische Regierung das Glimmen der Lunte anfachen; anders lässt sich ihre Überreaktion und der unbedingte Wille zur mangelnden Selbstreflexion kaum erklären; in den israelischen Medien sind – ebenso wie in Gaza und anderen eher palästinensischen Unterstützungsregionen – protofaschistische Vernichtungsphantasien und destruktive Wut auf die „Anderen“, „Gehassten“ zu besichtigen. Schauderhaft. Und prompt weg ist die einstige breite Koalition gegen Netanjahus geplanten Abbau des Rechtsstaates und damit eines zentralen Pfeilers der liberalen Demokratie. Nur noch vereinzelte Proteste ethisch bewunderswerter antizionistischer Gruppen von Menschen jüdischen Glaubens in Israel und anderswo zeigen, dass auch ein anderes Israel möglich und vorhanden ist. Ja, (expansionistischer) Zionismus und (politisches) Judentum sind nicht identisch! Die jüngsten Meldungen, dass in Israel nun sogar Personen festgenommen worden sind, die „den Feind“ unterstützen, gehen nahezu unter im medialen Kriegs- und Solidaritätsgetöse, ebenso wie die notwendige Frage nach dem cui bono? Wahrlich, schreckliche Zeiten.

Dass die USA, Europa oder andere nun versuchen, den israelischen Hardlinern mit ihrer „unbedingten Solidarität“ in den Arm zu fallen und Schlimmeres zu verhindern, mag glauben, wer will (Asseburg 2023). Doch der Arm des ‚Westens‘ reicht nicht so weit und seine Interessen sind nicht mit einer breiten Deeskalation vereinbar. Denn eine Kritik der derzeitigen (und erst recht der geplanten) israelischen Vergeltungsmaßnahmen, die – im worst case – einer ethnischen Säuberung des Gaza-Streifens gleichkommen könnten, würde eine Kooperation oder wenigstens Absprachen mit dem Iran oder sogar Russland und China verlangen; im Neuen Kalten Krieg undenkbar und – seien wir ehrlich – nicht gewollt! Die Zeit des Multilateralismus ist vorbei, auch wenn die Diplomatie die einzig realistische Chance auf eine Deeskalation ist. Dass die UN das noch versucht, ist wegen ihrer Aufgabe richtig und unterstützenswert, aber letztlich sägen die USA und ihre Vasallen am Ast, auf dem die UN sitzt, nämlich dem Völkerrecht. Dessen Büchse der Pandora wurde schon im völkerrechtswidrigen Krieg der NATO gegen Rest-Jugoslawien im Jahr 1999 geöffnet; von der NATO lernen, heißt siegen lernen, dachte wohl ein autokratischer Herrscher ein wenig weiter östlich, allerdings nicht ganz ungezwungen. Folglich: der UN-Sicherheitsrat ist aufgrund des Neuen Kalten Kriegs blockiert. Beste Bedingungen für die israelischen Hardliner das Heft des Handelns in die Hand zu nehmen. Es ist daher Zeit, eine rationale Politikanalyse dieses Katastrophenfalls anzugehen, um einen Super-GAU atomaren Ausmaßes zu verhindern. Viel Zeit, die Lunte auszublasen, bleibt indes nicht mehr. 

Rationale Politikanalyse: jenseits von strafrechtlichen Verfahren und positivistischer „Faktenhuberei“ mit dem „Basta“-Prinzip

Die Grundvorausetzungen einer rationalen und realistischen Politikanalyse ist vor allem die Handlungen von Akteuren zu verstehen. Dieses „Verstehen“ bedeutet nicht, dass die in Frage stehenden Handlungen mit diesem Verstehensprozess auch als „legitim“ gekennzeichnet sind. Wer so denkt, zeigt nur, dass er einem zutiefst vulgär-positivistischen Weltbild verhaftet ist, in dem „Fakten“ einfach „Fakten“ sind. Basta. Zu verstehen ist als Ausgangspunkt in dem Prozess zu diesem katastrophalen Terroranschlag vor allem ein Aspekt:  was hat die Verantwortlichen in der Hamas dazu veranlasst, diesen Terrorangriff zu initieren. Jeder Gerichtsprozess versucht die Motive eines (des Mordes) Beschuldigten herauszufinden, sein Wissen und Gewissen zu befragen und dann zu einem Schluss zu kommen. Das enthebt die Person weder für die rechtliche Verantwortung für die Tat, aber macht den zugrundeliegenden (hier: individuellen) Entscheidungsprozess deutlich. Gibt es dritte Personen, Ereignisse oder Umstände, die diese Person in ihren Einschätzungen beeinflusst haben, so dass das strafrechtliche Maß reduziert werden kann? Oder populär: ihre Schuld? Natürlich haben polizeiliche (und wohl auch militärische) Kräfte jedes Recht, diesen laufenden Terrorangriff zu stoppen – auch mit Waffengewalt. Die Terrorhandlung rechtfertigt aber nicht jede (Gegen-)Reaktion. Hier müssen bürgerliche Grundrechte und internationales Völkerrecht respektiert werden, soll nicht auf eine unsägliche Tat eine weitere die Eskalationsdynamik anfachende Handlung folgen. Das (biblische) Prinzip „Auge um Auge, Zahn um Zahn“ war noch nie ein guter Ratgeber für kollektive Sicherheitspolitik, so verständlich ein solcher Rachedurst im Einzelfall auch sein mag. Fundamentalistische Religiöse neigen dazu: keine gute Prognose für die israelisch-palästinensische Konfliktentwicklung zur Zeit.

Jenseits dieser rein (straf-)rechtlichen Herangehensweise gibt es aber noch die – für die Prävention und Überwindung von solchen gewaltgebierenden Konflikten viel wichtigere – sozialwissenschaftliche Analyse der Wechselwirkungen von Kausalbedingungen und Handlungsstrategien. Denn – so die fundamentale Annahme – zu einem sich auch in terroristischen Taten und wechselseitiger Gewalt ausdrückendem Konflikt oder (Bürger-)Krieg gehören immer wenigstens zwei Parteien, d.h. Akteur(sgruppen), die sich feindlich gegenüberstehen. Die grundsätzliche Tragik in den internationalen Beziehungen besteht darin, dass beide Herangehensweisen, gerade auch im Hinblick auf die „Rechtfertigung“ der eigenen (Un-)Taten, unzulässigerweise miteinander verquickt werden. Politik (und auch Krieg, als die „Fortsetzung der Politik mit anderen Mitteln“, wie Clausewitz einst formulierte) ist eben keine neutrale Wissenschaft. Dennoch sollte eine rationale Politikanalyse sich nicht unreflektiert zum Büttel der einen oder anderen (Kriegs-)Partei machen. Gesinnungsethik mag gut für das eigene Gewissen und ggf. für die eigenen Interessen sein, deeskalierend wirkt sie nicht. Verantwortungsethik erfordert intellektuelle Neutralität und Distanz, ohne jedoch die Prinzipien der Aufklärung zu verraten und einen „ewigen Frieden“ (Kant) anzustreben.

Dass die terroristischen Handlungen der Hamas folglich straf- und ggf. auch völkerrechtlich geahndet werden müssen, ist die eine Seite. Werden aber die Bewohner des Gaza-Streifens nicht in toto zu den „Bösen“ erklärt oder gar in eine Kollektivschuld gebracht (es gibt leider in diese Richtung gehende beunruhigende Kennzeichnungen der Bewohner dieses Landstreifens als „menschliche Tiere“), so muss geklärt werden, warum die Hamas diese terroristischen Handlungen durchgeführt hat und was an ihren Argumenten falsch und richtig ist. Alles andere verdient nicht die Kennzeichnung einer rationalen Politik- und Kausalanalyse von sozialen Prozessen und Ereignissen (und Kriege und Terroranschläge sind soziale Ereignisse!), auch wenn diese (scheinbar) abstrakt-gefühllose Sprache vor dem Hintergrund der Ermordung unschuldiger Zivilisten in Israel (und mittlerweile auch im Gaza-Streifen) nur schwer auszuhalten ist. Wer sich jedoch den (impulsiv-unreflektierten) Gefühlen seiner selbst oder aber (s)einer Gruppe überlässt, ist nicht nur zu einer rationalen Politikanalyse unfähig, sondern eine Gefahr für sich selbst und seine Mitbürger:innen. So viel unreflektierten Romantizismus hat noch nicht einmal der der Romantik keineswegs abgeneigte US-amerikanische Psychoanalytiker und Sozialphilosoph  Erich Fromm bei seinen bekannten sozialpsychologischen Analysen des Nationalsozialismus und Kalten Krieges zugelassen (Fromm 1941; 1961).

Struktur und Handlung: der Ausgangspunkt einer rationalen Politik- und Kausalanalyse von (Bürger-)Kriegen und bewaffneten Konflikten

Menschen machen bekanntlich ihre Geschichte selbst, aber – so einst Karl Marx – „sie machen sie nicht aus freien Stücken, nicht unter selbstgewählten [….] Umständen“ (1852, Absatz 2, zit.n. Martin Hollis 1995: 21). Doch was sind diese Umstände? Es sind – die Überschrift deutet es an – Strukturen, die Handlungen bedingen und rahmen. Der begriffliche Übergang von den Umständen zu den Strukturen verschiebt aber nur das Problem, das Martin Hollis mit dem Marx’schen Zitat anstößt. Nach seiner Auffassung ist Marx durchaus widersprüchlich, denn an anderer Stelle sind es v.a. die Produktionsverhältnisse und Produktivkräfte, die die Entwicklung einer Gesellschaft (im Ganzen!) bestimmen; John Stuart Mill argumentiert ähnlich deterministisch (ebd.: 18-31). Doch das Problem ist nicht trivial, denn weder lässt sich Struktur auf Handlung reduzieren, noch anders herum. Handlungen können Strukturen reproduzieren (in der Regel machen sie das), aber sie können sie auch verändern, während umgekehrt daher Strukturen Handlungen niemals vollständig determinieren können. Struktur und Handlung sind also aufeinander bezogen, dennoch ist die – oft beschworene – Kontingenz des Handelns (alles könnte auch anders sein) mehr in der soziologischen Metatheorie als in der sozialen Realität beobachtbar (Giddens 1984; Jessop 2001; Nassehi 2011). Die moderne Gesellschaft neigt zu Schließungsprozessen, wusste schon Max Weber zu berichten. Eine Eskalationsdynamik ist der beste Weg, Entwicklungsmöglicheiten und Alternativen für lange Zeit zu schließen – Bürgerkriege sind dafür prädestiniert.

Das Problem von „Struktur und Handlung“ ist also sehr allgemein diskutierbar (ontologisch!), aber das ist hier nicht zielführend. Struktur und Handlung müssen vielmehr konkret auf das zu erklärende „Ereignis“ bezogen werden: und das ist bzw. sind (Bürger-)Kriege und Konflikte in den internationalen Beziehungen. Was also sind „Strukturen“ in den internationalen Beziehungen und welche Akteure sind wichtig und „handeln“? Die Antwort auf diese Frage hängt von der Perspektive des gewählten theoretischen Analyserahmens ab. Es ist hier nicht möglich und nötig, die fünf zentralen Ansätze vorzustellen: Realismus, Idealismus, Marxismus,  Konstruktivismus und Poststrukturalismus (vgl. Baylis/Smith/Owens 2014: Teil II). Wichtig ist zu sehen, dass bei allen Unterschieden im Detail die Ansätze übereinstimmen, dass einerseits (i) der Staat, (ii) das Staatensystem und (iii) die Gesellschaft (Zivilgesellschaft, Wirtschaftsgesellschaft) die entscheidende Akteure sind und andererseits der historische Kontext politischer, ökonomischer und kultureller Interessen(skonflikte) stets eine Rolle spielt (historische Strukturen; hier folge ich der Globalen Politischen Ökonomie als einer theoretischen Erweiterung der klassischen Ansätze der Internationalen Beziehungen; vgl. Cohn 2016: Part II).

Die Ansätze unterscheiden sich vor allem darin, welchem Bereich sie die dominante Bedeutung für die Evolution des Weltsystems zuweisen, welche Vermittelungsinstanzen dazwischen wirken (Institutionen, Klassen, Staatsräson, Diskurse, Frames) und vor allem darin, was die sinnvollsten Strategien sind, Konflikte einzudämmen. Eine „Kriegswissenschaft“ sind die Internationalen Beziehungen (groß geschrieben: die Disziplin) in der Regel nicht, auch wenn analytisch betrachtet bei manchen Wissenschaftlern „Krieg die Fortsetzung der Poltik mit anderen Mitteln“ (Realismus und Clausewitz) ist. Ob diese – realistische – Beobachtung wünschenswert ist, bleibt außerhalb der wissenschaftlichen Analyse. Außenpolitiker und Sicherheitspolitiker agieren normativ und strategisch an Interessen orientiert, die wissenschaftliche Politkanalyse arbeitet analytisch und reflektiert sich an diesen ab (Hollis/Smith 1991; List 1995; Czempiel 1999). Eine andere rationale Herangehensweise ist nicht möglich, außer die Wissenschaft macht sich zum Büttel politischer, ökonomischer oder kultureller Interessen – dann jedoch ist Not am Mann, denn eine entdifferenzierte Wissenschaft ist keine mehr, die ihren Namen verdienen würde, sondern nur noch eins: eine Ideologieproduzentin. Vor einer solchen Versuchung staatlich finanzierter (Auftrags-)Wissenschaft in politisch-ökonomischen Herrschaftssystemen hat bereits der französische Philosoph Louis Althusser vor nicht allzulanger Zeit gewarnt (neu aufgelegt: Althusser 2010). 

„Pulverfass“ Naher Osten und der israelisch-palästinensche Konflikt

Ein „Verstehen“ der (Terror-)Handlungen der Hamas ist folglich weder ohne den Kontext des internationalen Staatensystems noch ohne Reflexion auf politische, ökonomische und kulturelle Interessen verständlich, die sich historisch entfaltet haben und stets kontextualisiert werden müssen. Doch bevor die Rekonstruktion der Entscheidung der Hamas, Israel anzugreifen und die terroristischen Akte auszuführen, erfolgt, ist es unerlässlich, zumindest einen kurzen Überblick über die historische „Faktenlage“ der Entstehung und Entwicklung des israelisch-palästinensischen Konflikts einerseits und die Einbettung desselben in die sich verändernden Hegemonialsysteme des internationalen Staatensystems andererseits zu geben. Doch wo starten? Mit der Nakba des Jahres 1948 (Asseburg 2021) oder mit 100 Jahren Unterdrückung der arabischen Bewohnern Palästinas (Khalidi 2022), um die Komplexität des Nahost-Konflikt (Asseburg/Busse 2022) zu verstehen?

 

…wird fortgesetzt… (20.10.23)

Bildquelle: https://pixabay.com/photos/atomic-bomb-mushroom-cloud-explosion-1011738/

Zurück zur Politikseite

 

Mein Freund, Franz Alt

Am 03. September 2023 betrat Dr. Franz Alt die Bühne. Es war heiß, es war sonnenstichig, es war Orscheler Sommer. Die AG Friedenbündnis hatte den pastoralen Weltenbummler aus Baden-Baden eingeladen, um darüber zu sprechen, dass „Frieden noch möglich ist“, die Bergpredigt weise den Weg ! – wie auch sein neuestes Buch heißt. In gewisser Weise war der Nachmittag damit, was kluge Menschen von Anfang an vermuten würden: eine Werbeveranstaltung, wenn auch nicht die Beste, für sein neues Buch (Ach!?). Der Chor davor war dagegen ganz ansprechend und engagiert (Entrüstet Euch!).
 
Im schön gelegenen Rushmoor-Park der beschaulichen Kleinstadt Oberursel im nicht ganz armen Hochtaunuskreis hatten sich die lokalen Friedensbewegten zusammengefunden (definitiv nicht die Schickeria vom Frankfurter Speckgürtel), um dem „proaktiven“ Teilnehmer vieler TV-Sendungen zuzuhören, was er zum Ukraine-Krieg und sonst noch so zu sagen hatte. Um es vorweg zu nehmen; es war nicht viel Substanzielles dabei. Zwischen zwei etwas launigen, wenn auch bemühten,  An- und Abmoderationen konnte der ehemalige TV-Moderator und Journalist („report“ vom SWR in der ARD) seine drei Thesen ausbreiten. Die Thesenform sollte aber nicht dazu verleiten zu glauben, Dr. Franz Alt hätte solche aufgestellt. Es ist mein verzweifelter Versuch, Struktur in 40 Minuten Statement-Potpurri zu bringen.
 
Erstens: Krieg sei immer schlecht und vor allem im Atomzeitalter menschheitstödlich. Putin sei der Kriegsverursacher in der Ukraine (aber es gebe noch mehr Kriege; ja, aber wohl keinen so gefährlichen für die ganze Welt wie diesen, finde ich; von China mal abgesehen…USA als Kriegstreiber – kommen bei Alt nicht vor…; nur indirekt über NATO, s.u., dritte These).
 
Zweitens: Putin sei ein Massenmörder (in der Ukraine), vom Chef der orthodoxen Kirche sogar zum „Heiligen Krieg“ aufgerufen und drohte sogar mit Atomwaffen (!). Den Dämon wollte Franz Alt dann doch nicht ihm erkennen. So kommt es, dass die Ukraine – er rang ethisch auf der Bühne, indem er stand – aus der Sicht des „Realpazifisten“ (und nicht „Fundamentalpazifist“!) Franz Alt aus Baden-Baden doch „Abwehrwaffen“ (aber keine „Clusterbomben“ wie Biden das nun will) bekommen sollte, weil damit bereits einmal 70 von 83 Raketen der Russen abgeschossen worden seien  und somit ukrainische Leben gerettet wurden (sagte eine „ukrainische Quelle“, die er aber nicht beim Namen nannte; Kriegspropaganda scheint ein Konzept, von dem Dr. Franz Alt noch nichts gehört haben kann).
 
Die dritte These irritierte dann aber; BOOM!: man müsse aber Russland bzw. Putin verstehen, denn – er sei ja Geheimdienstler und die denken so – die NATO hätte sich nach Osten ausgedehnt (auf 31 Länder) und das dabei russische Sicherheitsinteresse ignoriert. So ist denn ein Verhandeln für den Frieden nötig.  „Franz Alt will mit einem Massenmörder verhandeln“, so könnte die BILD-Zeitung titeln. So richtig hier seine Einsicht ist, Putin bleibt aber „Massenmörder“. Ob der aber so Gescholtene wirklich mit Franz Alt – Sie glauben das nicht? Weiterlesen ! – verhandeln will? Schon auf Bidens Vorwurf, er sei ein „Killer“, reagierte Putin – wenigstens – verstimmt. Und überhaupt: Wieso sollte er verhandeln, wenn er so tickt, wie er tickt? Irgendwie ist Putin nach Franz Alt also ein ‚rationaler Massenmörder‘. Passt nicht, finden Sie ? Da kann ich nur zustimmen.
 
Wie begründete der sonnengebräunte Weltenbummler aus Baden-Baden die Sinnhaftigkeit der Thesen? Jenseits von Platitüden und Freundesgesängen relativ selten, und wenn dann nur über eine atemberaubende Uminterpretation der Bergpredigt oder durch noch’ne  Geschichte  von den besagten vielen Freunden, die er sich als Weltenbummler so nach und nach angehäuft hat und mit denen er – er ist ja auf Buchtour – Bücher verfasst hat – übrigens: ein Büchertisch stand neben der Bühne.
 
Seine dicken Freunde? Gorbatschow, Helmut Kohl und der Dalai Lama, kleiner geht’s wohl nicht; da war der Orscheler Sommer stumm ob solcher Welt-, Verzeihung, Weitläufigkeit. Nun zu den spärlichen, halt‘ badischen, Begründungen: wie sollten Putin und Selensky zusammenfinden? Fragen wir mal seine Freunde. „Freund Michael“ – Gorbatschow für Unkundige –  habe er einst gefragt, wie er mit dem Hardliner Reagan sich einigen konnte, „80 Prozent der Atomwaffen“ abzubauen. Dessen Antwort ist bemerkenswert: er habe 2 Tage lang in Island (Reykjavik!) mit Ronald Reagan unter vier Augen gesprochen (eigentlich waren es 8, denn die Dolmetscher waren ja dabei). Und voilá! Was hat das nun mit dem Ukraine-Krieg zu tun? In Ecken denken, ist angesagt!
 
Der Weltenbummler weiß nämlich Antwort: de Gaulle und Adenauer hätten sich ja einst in Baden-Baden getroffen und die deutsch-französische Freundschaft besiegelt, nachdem Deutschland zwei Mal einen Weltkrieg verursacht hatte – Frankreich haben unsere vorfahrenden Herrscher im Übrigen drei Mal angegriffen: 1871 fehlte noch in der Aufzählung des Dr. Alt. Der Bürgermeister von Baden-Baden (Dr. Franz Alt wohnt dort, erwähnte ich das bereits?) habe auf seine Initiative hin vorgeschlagen, da doch so viele Ukrainer und – „traditionell!“, wie er zu berichten wusste, die Bildungsbürger nicken verständig, sie haben ihren Dostojewski gelesen – viele Russen dort friedlich zusammenlebten, dass sich Selensky und Putin in Baden-Baden treffen sollten. (Da könnte dann Putin einfach verhaftet werden, er wird ja vom Internationalen Gerichtsfhof als Kriegsverbrecher gesucht, finde ich). Das finden Sie alles atemberaubend? Tief Luft holen, es wird noch schlimmer.
 
Ach, ja, die Bergpredigt. Die Notwendigkeit von Abwehrwaffen – die deutschen natürlich, wobei Herr Alt durchaus auf die unternehmerischen Kriegsgewinnler schimpfte, der Beifall brandete dort am Anfang auf; es war ja noch „warm laufen“ – begründete er  damit, dass einerseits den Ukrainern ja nicht gesagt werden könne, lasst euch doch von den Russen umbringen, weswegen er für Abwehrwaffen ist – was immer die dazu macht. Dann können die Ukrainer vielleicht auch die Besetzung der Krim und die Donbass-Region „abwehren“ – nun bin ich ungerecht, Entschuldigung, Herr Alt. Andererseits brachte dieser eine neue Sichtweise in die protestantisch-katholische Weltreligion, nämlich, dass die Bergpredigt diese Waffen möglich mache. Wie? Indem Jesus, „der junge Mann vom See Genezareth“,  demjenigen, der ihm auf die rechte Wange schlägt noch die linke hinhält. Hä? Heißt das nicht, man soll nicht die Hand gegen den heben, der einen schlägt (schön patriarchalisch übrigens; oder masochistisch, nicht ganz unbekanntes Attribut für’s Christentum, nebenbei erwähnt)? Nein, der Freund von Gorbatschow, dem Dalai Lama und Helmut Kohl reinterpretiert die Bibel neu: man soll „schlauer sein als sein Gegner“, heißt das Gleichnis nunmehr.  Also Abwehrwaffen liefern? Ja. Genau. Wem die Argumentation zu dumm ist, dem kann ich nicht widersprechen.
 
Zum Schluss also noch: die Sonne. Die Sonne ist die Lösung. „Die Zeitenwende war vor 2000 Jahren!“, so Dr. Franz Alt, es war Jesus, der sagte: „Die Sonne des Vaters scheint für alle.“ Das ist es. „Die Band!“, höre ich – Entschuldigung, das verbindende Band ist wohl gesucht, aber das sehe ich nicht. Wie Dr. Franz Alt ja schon vor langer Zeit mit dem (vielfachen Preisträger und Physiker) Carl Friedrich von Weizsäcker herausgefunden habe, müsse im Atomzeitalter der Krieg abgeschafft werden (kann man zustimmen). Die Menschen müssten lernen, dass nicht jede Technik hilfreich sei (Abwehrwaffen offenbar ausgenommen). Und außerdem ging es ja immer um Öl und Gas bei den ganzen Kriegen – das kenne man ja von Putin, von dem man ja so abhängig gewesen sei (ach, und deswegen hat er den Krieg angefangen und Nordstream II selbst gesprengt?). Die USA mochten die Gaslieferungen überhaupt nicht. Kein Wort drüber. Alles easy und peacy – und leider auch völlig zusammenhanglos. Wie ich bereits sagte, es wurde noch schlimmer.
 
Die Zeitenwende von vor 2000 Jahren bedeutete übrigens, dass die Sonne die Lösung aller Energieprobleme ist – so weit so gut. Und Jesus hat es gewusst, sie kennen den Beleg: „Die Sonne des Vater scheint für alle.“ Erwähnte ich etwa nicht, dass Dr. Franz Alt auch ein Buch über die Sonnenstrategie geschrieben hat – nein, Entschuldigung, er hatte es erwähnt. Ich vergaß es bis hierher. Ich bitte um Verzeihung, die Werbeveranstaltung Dr. Franz Alt  nicht gewürdigt zu haben. Ach, ja, der Klimawandel, da hilft auch die Sonnenenergie, denn die spendet so viel mehr Energie als wir brauchen. Und: „Die Sonne macht keinen Klimawandel.“ (O-Ton) Man merkt, dass Dr. Franz Alt Politologe ist – ich übrigens auch, dennoch weiß ich, dass diese Aussage für sich genommen völliger Blödsinn ist. Wer hat denn dann den Klimawandel vor dem menschengemachten Klimawandel bewirkt? Jesus? Gott? Sie haben genug davon? Ich auch. Gute Nacht.
 
Oberursel, 03.09.2023
 
 

Vergleichende Wohlfahrtsstaatsforschung, die fünf Giganten des Wohlfahrtsstaates im 21. Jahrhundert und die Qualitativ-Komparative Forschungsmethode (QCA) – ein kritischer Review von Ian Greeners Vergleichsstudie (2022)

von Kai Mosebach, Hochschule für Wirtschaft und Gesellschaft, Fachbereich Sozial- und Gesundheitswesen, Ludwigshafen am Rhein.

Greener, Ian (2022): Welfare State in the 21st Century. The New Five Giants. Confronting Societal Progress, Cheltenham/Northampton: Edward Elgar. ISBN 978-1-80037-078-4. € 110,-

Der renommierte britische Gesundheits- und Sozialpolitikforscher Ian Greener zielt in seinem neuesten, höchst anregendem Buch auf nichts weniger als die Neubestimmung der „fünf Giganten“ („five giants“), die nach dem Zweiten Weltkrieg in Folge des berühmten Beveridge-Reports zu den fünf „Säulen“ des britischen Wohlfahrtsstaates (und aufgrund seines Vorbildcharakters in vielen anderen Wohlfahrtsregimes) geworden waren. Dabei geht es zum einen um die inhaltlichen Herausforderungen wohlfahrtsstaatlicher Politik, die sich im Übergang zum 21. Jahrhundert präsentieren, aber zum anderen auch darum, welche Länder des globalen Nordens (Brand/Wissen 2017) die besten Ergebnisse zur Bändigung der fünf neuen Giganten hervorzubringen wussten und was von diesen ‚gelernt‘ werden könne. Ian Greener wendet zur Beantwortung dieser breiten Fragenkomplexe eine höchst differenzierte Methodik an, die auf der Kombination aus rexpolrativer Cluster-Analyse und (Fuzyy-Set basierter) Qualitativer Vergleichsanalyse (fsQCA) beruht und seinem theoretischen Analyserahmen aufbaut.

Theoretische und methodische Grundlegung der Vergleichsstudie

Folglich rekonstruiert er in den ersten beiden Kapiteln seines Buches zunächst die sozialwissenschaftliche Debatte um die „neuen fünf Giganten“ (S. 4ff.), die sich auf der Grundlage wesentlicher politischer, ökonomischer und gesellschaftlicher Veränderungen seit den 1940er Jahren als zentrale Herausforderungen herausgebildet hätten. In seinem theoretischen Analyserahmen (Kapitel l) über die Richtung der Aktualisierung des ‚Beverdigs-Reports‘ (S. 9ff.) rekurriert Greener auf bekannte Gesellschaftsdiagnosen (u.a von Bob Jessop, Anthony Giddens und Ulrich Beck, aber auch Benjamin Barber und John K. Galbraith) vor der großen Finanzkrise der Jahre 2007ff., um die grundlegenden Veränderungen von Wohlfahrtsstaatsregimes in vergleichender Perspektive zu bestimmen. Umfassende Globalisierungsprozesse und der Aufstieg wettbewerblicher Governance von Gesellschaften, die neue Risiken und nicht-intendierte Folgen von Akteuren, die in diesem Kontext handeln, mit sich bringen (etwa globale Erwärmung als nicht-intendierte Folge der Massenproduktion durch große Unternehmen und des Massenkonsums), werden von Greener als neue Thematiken identifiziert. Eine weitere grundlegende Tendenz meint er in dem (kollektiven) Widerstand gegen wohlfahrtsstaatliche Sicherungsformen, aber auch sogar demokratische Prozesse aus der befragten Literatur synthetisieren zu können.

Im zweiten Kapitel (S. 20ff.) begründet er in der Folge der (gesellschafts-)theoretischen Reflexion von Veränderungsprozessen wohlfahrtsstaatlicher Entwicklungen einerseits und der Inkorporierung spezialisierter Fachliteratur zur Aktualisierung der „alten“ Giganten andererseits die seiner Auffassung nach fünf neuen Giganten, d.h. jene fünf Problemfelder, die im Übergang zum 21. Jahrhundert als die zukünftigen wohlfahrtsstaatlichen Handlungsbereiche und Herausforderungen anzusehen seien. Die neue Giganten müssen im Rahmen von Greeners methodologischen Überlegungen (Kap. 1, S. 16ff.) (i) als internationales Problem anerkannt, (ii) als kollektives Handlungsproblem konstituiert und (iii) mit internationalen Daten erfassbar sein. In der Konsequenz dieser theoretisch-methodischen Kriterien zur Identifizierung der neuen „fünf Giganten“ für das 21. Jahrhundert kommt er zu folgenden „Problemen“ und ihren Begründungen:

  • Einkommensungleichheit: in den globalisierten Gesellschaften der OECD-Welt ist relative Armut (weniger als 60 Prozent des Median-Einkommens) die zentrale Herausforderung, nicht mehr absolute Armut wie zu Zeiten des Beveridge-Reports. Einkommensungleichheit (in Form des Anteils relativer Armutlagen) sei als statistischer Prädiktor von zahlreichen sozialen und gesundheitlichen Problemen anerkannt.
  • Vermeidbare Mortalität: im Gegensatz zur Präferierung medizinischer Lösungen für „Krankheiten“, die dem Beverdige-Plan – und der folgenden Umsetzung durch Aneurin Bevan – mit seiner besonderen Betonung der (Primär-)Medizin zugrundelagen, wählt Greener das Konzept der „preventable mortality“ (S. 29) als sachlich begründete Neuentwicklung dieser „Säule“. Hierin reflektiere sich nicht nur die – weiterhin große – Bedeutung der Medizin, sondern eben auch die sozialepidemiologische und sozialmedizinische Erkenntnis, dass „health care alone does not account for preventable mortality.“ (S. 28)
  • Demokratiekrise: gegenüber „Unwissenheit“ [„ignorance“, S. 29] zu Beverdiges Zeiten sei – so Greener – das heutige Bildungssystem dahingehend zu problematisieren, dass es die Konstitution des (demokratischen) Bürgers („citizen“) nicht mehr sicherstelle. Individualisierung, Konsumismus, Soziale Medien und Rechtspopulismus hätten eine „Krise der Demokratie“ hervorgerufen, deren Muster und Variation, aber auch Faktoren zur Erzielung eines besseren Outcomes vergleichend zu untersuchen seien.
  • Gute Arbeit: entgegen dem Müßiggang („idleness“), den Beverdige angeklagt hatte und der stark mit dessen sozialdemokratischen Ethos des sozialen Nutzens von Arbeit und der vor dem Hintergrund der durch die Weltwirtschaftskrise der 1930er Jahre ausgelösten Massenarbeitslosigkeit zusammenhing, plädiert Greener für das Ziel / Outcome „gute Arbeit“ („job quality“, S. 38). Hiermit werde nicht nur der Aspekt von Arbeitslosigkeit, sondern auch die Flexibilisierung und Prekarisierung von Erwerbsarbeit selbst thematisiert, die seit den 1990er Jahren zunehmend die Arbeitsmärkte charakterisierten. Gute Arbeit wirke zudem auch als Faktor für Gesundheit und Einkommensgleichheit, so dass von den Ländern gelernt werden könne, die „a better balance than others“ (S. 38) zeigten.
  • Umweltzerstörung: während „Elend“ oder auch „Vernachlässigung“ („squalor“, S. 39) in der Folge des Beverdige-Reports vermittels verbesserter Wohn- und Lebensbedingungen (Wohn- und öffentliche Gesundheitspolitik) angegangen wurden, erblickt Greener im Konzept der „Umweltzerstörung“ („environmental degradation“, S. 40) den letzten „neuen Giganten“. Ohne die alten Herausforderungen aufzugeben, erfasse dieser fünfte Gigant die Neuigkeit von Umweltzerstörungen über Landschaftszerstörung und schädliche Industrieemissionen bis hin zur globalen Erwärmung mit ihren vielfältigen Auswirkungen.

Mittels explorativer Cluster-Analyse und Fuzzy-Set-QCA-Methodik (Kap. 3, S. 43-52) zielt Ian Greener auf die Bestimmung notwendiger und hinreichender Bedigungen (bzw. Lösungspfade) der theoretisch angeleiteten empirischen Muster zur erfolgreichen (Nicht-)Bewältigung bzw. (Nicht-)Bearbeitung der „neuen fünf Giganten“ unter einer Gruppe von 24 OECD-Mitliedsstaaten, um soziale und politische Bedingungen zu identifizieren, von denen – nicht nur, aber vor allem – die (britische) Sozialpolitikforschung lernen könne. Dabei legt er keine longitudinale Forschungsperspektive vor, sondern analysiert Querschnittsdaten; dies mit der Begründung von „Pfadabhängigkeiten“ der Wohlfahrtsstaatsentwicklung. Bedeutsam und wichtig für den methodischen Ansatz ist zu verstehen, dass es keine „goldene Regel“ oder nur „einen Lösungspfad“ gibt, die mittels QCA herausgefunden werden kann. Es gibt dieser Methode zufolge bekanntlich „viele Wege nach Rom“ (sog. „äquifinale Kausalität“, Schneider/Wagemann 2007, S. 77). Auf eine Darstellung der – vor allem – visuellen Cluster-Analysen wird im Weiteren verzichtet; auch weil sie keinerlei kausale Bedeutung haben (Greener 2022: 48), die im Mittelpunkt der weiteren Rezension stehen soll.

Allerdings soll kurz seine methodische Vorgehensweise bezgülich der fsQCA beschrieben werden. Bei der Fuzzy-Set QCA handelt es sich um eine von zwei Basisvarianten der Qualitative Comparative Analysis (QCA). Ohne an dieser Stelle im Detail auf die methodologischen Grundlagen der Fuzzy-Set-QCA eingehen zu können (vgl. dazu: Schneider/Wegemann 2007: Kap. 3 u. Kap. 4; Dusa 2019), soll hier die methodische Vorgehensweise von Ian Greener kurz rekonstruiert werden (Greener 2022: Kap. 3). Die QCA-Datenanalyse verläuft in drei Schritten. Erstens werden die notwendigen Bedingungen aus der Kalkulation der (möglichen) Kausalfaktoren und dem Outcome heraus bestimmt. Notwendige Bedingungen sind solche, „that, if we start with the outcome, are nearly always present.“ (Ebd.: 46) Allerdings müssen die als solche bestimmten Kausalfaktoren auch eine relevante Bedeutung haben, die einzeln (wenn nur eine notwendige Bedingung vorliegt) oder zusammen (bei mehreren Faktoren) „need to explain a reasonable proportion of the outcome, with around 0,6 (out of 1) being the benchmark here“ (ebd.). Der genaue Prozess der (softwaregestützen) Kalkulation bleibt hingegen offen und wird von Greener nicht beschrieben (vgl. dazu: Schneider/Wegemann 2007: 197-201, 212-215 u. 232-234). Zweitens werden die sog. „Wahrheitstabellen“ („truth tables“) konstruiert, in denen jede mögliche Kombination der Kausalfaktoren eingetragen wird und daraufhin bewertet wird, wie es um die „Konsistenz“ der Fälle mit den Kausalfaktoren, die als eine „Gruppe“ bestimmt wurden, bestellt ist: „The higher the consistency of the causal factors in relation to the outcome, the stronger the case for their being included in the calculation of the sufficient solution (the third stage).“ (Greener 2022: 46; ausführlich: Schneider/Wegemann 2007: 220-228). Ein Wert von 0,8 bzw. 0,9 wird als Konsistenzschwelle von Greener definiert; zudem führt er den „PRI score“ (Greener 2022: 47 u. 62) ein, um zu entscheiden, ob trotz hoher Konsistenzwerte die Fälle wirklich berücksichtigt werden sollten. Ein niedriger PRI Score drückt aus, dass der Fall („case“) bzw. der Idealtyp des Lösungswegs (Kombination von Kausalfaktoren zur Erklärung des Outcomes) möglicherweise „gegenläufig“ ist (ebd: 46f.). Drittens beinhaltet die QCA-Analyse die Kalkulation der hinreichenden Lösungen: „Sufficient solutions are those, where, starting from the causal factors, we nearly always find the solution present. Suffcient solutions are important as they give pathways or formulas for the achievement of the outcome we are interested in.“ (Ebd.: 47) Mit anderen Worten, hinreichende Lösungen – oder in klassischen Begriffen: „hinreichende Bedingungen“ (Schneider/Wegemann 2007: 197-220) – zeigen mögliche Lösungs- bzw. Strategiepfade auf, die aus (Kombinationen von) Faktoren bestehen, die mit dem Outcome verbunden sind. Dabei werden einige Kennziffern zur Beurteilung und Identifizierung (d.h. Kalkulation) dieser „hinreichenden Lösungspfade“ (in der Diktion Greeners) angewandt. Zum einen das sog. Konsistenzmaß für hinreichende Bedingungen (Schneider/Wegemann 2007: 203-208) und zum anderen das sog. Abdeckungsmaß für dieselben Bedingungen (ebd.: 208-212).Während Greener das Konsistenzmaß für die Bestimmung der hinreichenden Lösungen auf 0,9 festlegt (und der PRI-Wert bei größer/gleich 0,5 sein sollte), drückt das Abdeckungsmaß aus, wieviele (erfolgreiche) Länder mit der erfolgreichen Strategie abgedeckt sind („covered“). Ein hohes Abdeckungsmaß einer Lösung bedeutet, dass viele Länder diese Strategie „verfolgt“ haben bzw. genauer: dieselbe Kombination von Kausalfaktoren aufweisen und nicht etwa zusätzlich noch einer weitere Lösung zugeordnet wurden – was vorkommen kann: Stichwort „kausale Äquifinalität“. Überlappen sich die Lösungsstrategien, d.h. sind viele Länder Teil mehrerer „Lösungen“, so wird das Abdeckungsmaß für die jeweilige Lösung geringer. Die hinreichenden Lösungen können zudem noch in drei Formen differenziert werden: (i) die intermediären Lösungen, (ii) die konservativen Lösungen und (iii) die parsimonischen Lösungen. Intermediäre (hinreichende) Lösungen bestehen nur aus kontrafaktischen Zeilen (der Wahrheitstabelle), die den theoretischen Erwartungen entsprechen. Konservative Lösungen bestehen nur aus empirischen Daten, während parsimonische Lösungen jede nicht ausgeschlossene kontrafaktische Zeile enthalten „that will help simplify the date, whether or not they match our theoretical expectations.“ (Greener 2022: 47) Greener stellt die intermediären (hinreichenden) Lösungen in den Vordergrund. Die kontraintuitive Entscheidung für v.a. „kontrafaktische Lösungen“ beruht auf der grundlegenden – und ontologisch-epistemologisch begründeten – Idee, dass „it [i.e. the intermediary sufficient solution, KM] is generally regarded as reflecting a balance between rigour (based on analysis of our empirical data) and parsimony (offering the opportunity to achieve some optimization or reduction of the solution, but only for counterfactual rows that conform to our theoretcial expectations) (Dusa 2018; Schneider and Wegemann 2012).“ (Ebd.) Diesen Prozess der Feststellung kontrafaktischer Lösungen bezeichnen Schneider und Wegemann auch als Prozess der „Minimierung der Wahrheitstafel“ (Schneider/Wegemann 2007: 228, s. a. das instruktive Beispiel ebd.: 234-238), also der Reduktion der (erfolgreichen) Kombinationen auf ihren „Kern“, der als Kombination besonders „wirksamer“ Faktoren empirisch so tatsächlich nicht empirisch auftritt: also kontrafaktische Kombinationen konstituiert, die mit den theoretischen Erwartungen einhergehen. Daher ist die QCA-Analyse auch theoriegeleitet und nicht rein emprische Kaffesatzleserei.

Darstellung der empirischen Ergebnisse und ihrer Diskussion

Aus der Analyse von Ian Greener sollen in Bezug auf die voranstehend beschriebenen „Outcomes“ der fünf neuen Giganten zusammenfassend im Folgenden die Forschungsergebnisse und Schlussfolgerungen (erfolgreiche Kausalfaktoren und Länder) beschrieben werden. Wichtig ist dabei zu betonen, dass aus Gründen der Begrenztheit dieser Rezension auf eine ausführliche Darstellung der quantitativen Indizes der folgenden (notwendigen und hinreichenden) Bedingungen im Rahmen der Fuzzy-Set-QCA-Methodik verzichtet werden muss. Bedeutsam ist zudem daraufhinzuweisen, dass sich nicht für jedes Land ein konsistenter Lösungspfad für die neuen Giganten erschließen lässt (S. 63).

In der kombinierten Cluster- und QCA-Analyse wurden zunächst – erstens – in Bezug auf das Problem der Einkommensungleichheit der theoretisch mögliche Kausalfaktoren (S. 55ff.) bestimmt, die in allgemeine (integratives Regierungssystem und hoher Anteil tertiär Ausgebildeter) und spezifisch auf das Problem Einkommensungleichheit (Globalisierung, Wettbewerbsfähigkeit, Höhe der öffentlichen Sozialsausgaben) gerichtete Faktoren unterschieden wurden (Kapitel 4). Als bedeutsam für die Erreichung geringer Einkommensungleichheit zeigten sich als hinreichende Lösungen in erfolgreichen Ländern im Zeitalter der ökonomischen Globalisierung (i) ein stark integratives Regierungssystem, welches vielfältige Interessen repräsentiert („integrative government“, S. 55f.) und (ii) hohe öffentliche Sozialausgaben zur Abdämpfung von großer Einkommensungleichheit (Kapitel 4). Zudem kann ein hoher Anteil von hochschulisch Ausgebildeten („high tertiary education level“, S. 74) ähnliche Wirkungen entfalten. Vor allem in Belgien, Dänemark, Schweden und der Schweiz zeigen sich alle drei Faktoren, wobei auch andere „hinreichende Lösungspfade“ („sufficient solution pathways“, S. 71) möglich sind und in Ländern verfolgt wurden (S. 69ff.). Für manche (erfolgreichen) Länder konnte keine konsistente Lösung ermittelt werden.

Auf dem Feld der vermeidbaren Todesfälle (Kapitel 5) wurden – zweitens – keine hinreichenden Bedingungen gefunden, was bedeutet, dass die empirischen Lösungspfade zur Vermeidung prävenierbarer Todesfälle „exhibit strong equifinality“ (ebd. 86, 90), also sehr variabel ablaufen können. Insgesamt wurden vier (hinreichende) Lösungspfade identifiziert, die jedoch nicht in jedem Fall zu der avisierten „Lösung“: starke Vermeidung prävenierbarer Todesfälle geführt haben. Im Falle von Dänemark und Südkores gehen sogar gute „Bedingungen“ mit einem schlechterem Outcome-Index einher. Diese Ergebnisse müssen statistisch denkenden Sozialwissenschaftlerinnen absurd vorkommen. Sie sind aber kongruent mit der QCA-Annahme „äquifinaler Kausalität“ (ebd.: 45) von sozialen Prozessen. Mit einem gewissen britischen Understatement kommentiert Greener seine empirischen Ergebnisse: „The causal recipe for achieving lower preventable mortality is therefore more complex than achieving lower inequality.“ (Ebd.: 90) Trotzdem hat er eine – vorsichtige – Message, nämlich dass ein hoher Anteil von hochschulisch Ausgebildeten und auch ein integratives Regierungssystem – seine beiden allgemeinen, also fallunspezifischen Prämissen – in zwei von drei (intermediären) ausreichenden Lösungspfaden vorkommen und dementsprechend beschränkt erfolgsversprechend sein dürften. Besonders brisant ist der Fall Italien. Dieses Land erzielt hohe Werte auf dem (sehr komplexen) Outcome-Index und ist dennoch geprägt von geringen Gesundheitsausgaben, einem geringen Anteil hochschulisch Ausgebildeter und sogar hoher Einkommensungleichheit. Sein integratives Regierungssystem wird durch institutionelle Veto-Points (föderales System) konterkariert und dennoch: „Higher income inequality does not cause preventable mortality.“ (Ebd.) Die These Greeners ist also, dass – in Italien – vor allem sein „integratives Regierungssystem“ den negativen Effekten von Einkommensungleichheit und auch die anderen Bedingungen entgegen wirken. An dieser Stelle wird er jedoch methodisch unsauber, denn er unterstellt eine statistisch universelle Wirksamkeit – Einkommensungleichheit bewirkt hohe Mortalität, die er auf ökologische Studien aus der Sozialepidemiologie stützt (Wilkinson/Pickett 2009 2018; Marmot 2004, 2015); dasselbe gilt im Übrigen für seine Konstruktion der kausalen Faktoren (Greener 2022: 45) und der Outcomes insgesamt – um ein mittels fsQCA erreichtes Ergebnis, hohe Einkommensunleichheit ist mit guter Gesundheit vertretbar, vereinbar zu machen. Das ist bestenfalls inkonsequent, schlimmstenfalls führt es zu willkürlicher Interpretation der Ergebnisse. Auch die im Verlauf der vergleichenden Analyse identifizierten „sufficient solutions“, also hinreichenden Bedingungen (Schneider/Wegemann 2007: 197-202), zeigen eine enge Variation der Kombination der möglichen Kausalfaktoren. Die methodische Rechtfertigung ist hier, dass die (empirischen) Ergebnisse der QCA-Analysen im Lichte der theoretischen Annahmen (über die Zusammenhänge) interpretiert werden müssen. Dennoch lässt sich das Gefühl der argumentativen Willkürlichkeit nicht komplett verdrängen, auch wenn die Ergebnisse der Sozialepidemiologie weitgehend unanfechtbar sind.

Drittens widmet sich Ian Greener mit der Demokratiekrise einem weiteren, höchst aktuellen und zukünftigem (sozial-)politischem Problem (Kapitel 6). Nach einer kurzen Diskussion und – allerdings recht oberflächlichen – Beschreibung bestehender politisch-journalistischer als auch wissenschaftlicher Diskussion um eine Demokratiekrise, vor allem in den USA und Großbritannien, und einigen Demokratiekonzeptionen (ebd.: 93-96), entscheidet sich Greener als Outcome für den „Demokratieindex“ des britischen Wirtschaftsmagazins, The Economist, den Economist Democracy Index (ebd.: 98). In den „Wahrheitstabellen“ scheiden Österreich, Deutschland, Griechenland, Italien, Portugal, Frankreich sowie Japan und Korea als Länder mit einem geringen Demokratieindexwert (unter den 24 OECD-Staaten) bereits aus (ebd.: 102). Als mögliche Kausalfaktoren bestimmt er neben den – wiederum – allgemeinen Faktoren des Niveaus hochschulisch Ausgebildeter und dem integrativen Regierungssystem (ebd.) die ökonomische Globalisierung, das Bruttoinlandsprodukt pro Kopf und die Einkommensverteilung (GINI-Koeffizient) (ebd.: 96ff.). Im Gegensatz zur Analyse der Bedingungsfaktoren vermeidbarer Sterblichkeit lassen sich mittels der fsQCA-Analyse zur Erklärung demokratischer Verhältnisse zwei notwendige Bedingungen identfizieren: (i) ein geringes Niveau von Einkommensungleichheit und (ii) ein höheres Bruttoinlandsprodukt pro Kopf. Obwohl logisch gegensätzlich zeige sich, dass „overwhelmlingy countries with higher democratic ratings are richer, but also have lower level of income inequality. These two factors appear to fit together.“ (Ebd.: 106, Hervorhebung: KM) Insgesamt lassen sich vier (hinreichende) Lösungspfade identifizieren (Greener 2022: 103-105). Neben den bereits genannten notwendigen Bedingungen komplettieren einmal ein starker Globalisierungsindex und ein hoher Anteil von Hochschulausgebildeten (erster Lösungspfad) und zum anderen ein integriertes Regierungssystem (zweiter Lösungspfad) die Kausalfaktoren eines hohen Demokratieindexes. Doch es gibt auch andere Kombinationen, die – obschon die notwendigen Bedingungen integrierend – besondere Lösungspfade etablieren oder anderweitige Outcomes = keine hoher Demokratieindex trotz Vorliegen der Faktoren „erfolgreicher Lösungspfade“ (ebd.: 105-109) zeigen. Die Ergebnisse sind folglich wieder höchst äquifinal oder – weniger methodenkohärent formuliert – widersprüchlich. Während Finnland und Australien hohe Demokratieindexwerte erzielen, sind ihre Lösungspfade höchst konträr und widersprechen mancher vorher gemachten theoretischen Annahme von Ian Greener. Australien zeigt eine hohe Einkommensungleichheit, einen geringen Globalisierungsindex und auch ein wenig integratives Regierungssystem, kann aber beim Anteil hochschulisch Ausgebildeter und einem hohen Niveau des Bruttoinlandsprodukts pro Kopf punkten. Mit denselben Bedingungen erreichen die USA ein niedriges Demokratieniveau (ebd.: 103). Finnland dagegen hat wenig Hoschulausgebildete, ein geringes Wohlstandsniveau, kann aber durch eine geringe Einkommensungleichheit, einen hohen Globalisierungsindex und ein integriertes Regierungssystem die vermuteten negativen Effekte der beiden ersten notwendigen Bedingungsfaktoren kompensieren. Daher gilt: „Australia und Finland [are, KM] presenting different routes to a strong democracy.“ (Ebd.: 110) Auch Neuseeland und Kanada sind besondere Fälle. Sie erreichen „higher democracy scores despite not fitting with the QCA sufficient causal solutions.“ (Ebd.: 108) Insgesamt: es gibt also unterschiedliche „Wege“ zu einem demokratischen politischen System.

Viertens widmet sich Greener im siebten Kapitel der Analyse der notwendigen und hinreichenden Bedingungen der „guten Arbeit“ („job quality“; ebd.: 111). Die Bestimmung des Outcomes-Indizes, der „gute Arbeit“ erfasst, ist ein Problem, denn international vergleichbare Messkonzepte zur Erfassung des theoretischen Bedeutungsraums, den Greener mit diesem Konzept anspricht, liegen nicht vor. So greift er auf das OECD-Konzept der „earnings quality“ (ebd.: 115) zurück, um sich dem angelegtem Outcome-Konzept anzunähern: „Earnings quality measures earnings in relation to average earnings as well as how they are distributed across the workforce.“ (Ebd.) Die empirische Tatsache, dass diese Werte von der OECD sehr selten und in diesem Fall unmittelbar nach der Finanzkrise (2008) zusammengestellt wurden (Daten sind von 2009), irritiert ihn nur kurz und wird im letzteren Fall nicht einmal reflektiert (ebd.: 115f.). Die (möglichen) Kausalfaktoren sind altbekannte „Freunde“, die theoretisch plausiblel begründet werden: (i) Globalisierungsindex, (ii) Niveau öffentlicher Sozialausgaben, (iii) Gini-Koeffizient zur Messung der Einkommensungleichheit sowie die beiden allgemeinen Faktoren (iv) integratives Regierungssystem und (v) Niveau hochschulisch Ausgebildeter (ebd.: 113f). Aufgrund schlechter Arbeitsbedingungen („earings quality“) fallen eine Reihe von Ländern bereits aus der Betrachtung heraus: Griechenland, Neuseeland, Portugal, Japan und Korea, Spanien, Großbritannien, USA (Island ist m.E. in der Wahrheitstabelle falsch notiert; ebd.: 118 oder wird als Sonderfall nicht thematisiert). Als notwendige Bedingungen erscheinen (alternativ) ein hohes integratives Regierungssystem oder hohe öffentliche Sozialausgaben (ebd.: 117). Die Lösungspfade („sufficient solutions“) sind überschaubar (es sind nur zwei) und überlappen sich zudem (ebd.: 120). Während der eine auf einem stark integrierten Regierungssystem und einer geringen Einkommensungleichheit beruht, zeigt sich in der zweiten intermediären Lösung, dass hohe Sozialausgaben, ein hoher Anteil von hochschulisch Ausgebildeten sowie eine hohe ökonomische Integration in Globalisierungsprozesse mit einer geringen Einkommensungleichheit einhergehen (ebd.: 119). Wieso – so die methodische Schlüsselfrage – ist „Einkommensungleichheit“ nicht in den notwendigen Bedingungen integriert, obwohl sie in beiden Lösungspfaden vorkommt? Die Antwort liegt in der – nicht dargestellten – geringeren „Konsistenz“ des Faktor begründet. Nur ein Konsistenzwert über 0,6 (von 1) lässt eine Zuordnung eines Faktors zu den notwendigen Bedingungen zu (ebd.: 46). Warum fällt also „Einkommensungleichheit“ als notwendige Bedingung aus? Die Antwort ist darin zu suchen, dass hohe/niedrige Einkommensungleichheit in vielen Fällen auch mit einem guten/schlechten Arbeitsindex auftritt. D.h. die Kausalkonsistenz des Faktors ist geringer, was aber nicht bedeutet, dass die Lösungspfade nicht geringe Einkommensungleichheit beinhalten können, nur dass Einkommensungleichheit als Kausalfaktor keine notwendige Bedingung ist. In jedem Fall ist diese Spezialität für den Leser/die Leserin aber verwirrend wie auch Greeners „lautes“ Schweigen hierzu (ebd.: 120). Australien und Kanada sind wieder einmal Ausreißer in diesem Datenset, denn obwohl sie kaum die Bedingungen der „Lösungen“ (z.B. eine hohe Einkommensungleichheit) zeigen, erreichen sie – zumindest im Fall von Australien – ein recht gutes Ergebnis bzgl. der „Job Qualität“, zumindest in der Form, wie sie gemessen wird [i.e. „earnings quality“] (ebd.: 122f.). Irland schließlich „versagt“ insofern, als es trotz Vorliegens der relevanten Lösungsbedingungen „schlechte Werte“ erreicht (ebd.: 122). Meine oben bereits geäußerte Irritation über das Ignorieren des Meßpunktes der „earnings quality“ – kurz nach der Finanzkrise 2008, von der Irland erheblich getroffen wurde – kommt hier erst richtig zum Zug. Die politisch-strategischen Schlussfolgerungen von Ian Greener sind kaum überraschend: „This combination of causal factors [i.e. die beiden Lösungspfade, die sich in Bezug auf die zugeordneten Länder stark überlappen, KM] might then be regarded as an ideal type template, combining highly integrative governments that aims for lower income inequality, higher public social expenditure as a means of redistribution as well as providing strong public services, and higher tertiary education participation to aim for a highly skilled workforce, which is able to compete in the global economy.“ (Ebd.: 123f.) Dass Norwegen, Schweden und Island [?] sehr oft bei den guten Lösungen für die fünf neuen Giganten dabei sind (ebd.: 123), überrascht dann auch nicht. Existiert hier vielleicht auch eine Art Esping-Andersen’sche Kurzsichtigkeit? Ich werde noch darauf zurückkommen. Soviel: es ist theoriebedingt.

Die fünf Giganten abschließend analysiert Greener – fünftens – die erfolgsbringenden Lösungen für die Umweltzerstörung (Kap. 8) in den 24 OECD-Staaten. Umweltzerstörung ist ein weites Feld und beinhaltet neben der globalen Erwärmung viele andere Merkmale. Ian Greener (Ebd.: 129) entscheidet sich für den recht breiten Environmental Performance Index (EPI) der Yale University, welcher Aspekte der „Umweltgesundheit“ (z.B. Luftqualität, Abwasser- und Trinkwassersysteme, Umgang mit Schwermetallen und Müll) mit der „Ökosystem-Validität“ (zusammengesetzt aus: Biodiversität und Habitat-Qualität, Umweltdienstleistungen, Fischschutz, Klimawandel, umweltschädigende Ausstöße und Landwirtschaft und Wasserressourcen) verbindet. Als denkbare Kausalfaktoren werden neben den beiden üblichen Allgemeinheiten (tertiary education participation und integrated government) von Greener drei weitere herangezogen und begründet: (i) Globalisierungsmaße, die zu einem umweltbewussten „wider outlook“ (ebd.: 128) führten, (ii) Einkommensungleichheit, die – wenn sozialpolitisch begrenzt – die Bedeutung für „resolving social issues“ unterstreiche, zu denen Greener offenbar auch den EPI zählt. Und (iii) die demokratische Partizipation an politischen Prozessen. Die Ergebnissen der fsQCA in Bezug auf die erfolgreichsten Strategien eines hohen EPI sind wieder komplex und mehrdeutig. Als notwendige Bedingungen identifiziert Greener (ebd.: 131) zwei Faktoren(bündel): a) der Globalisierungsindex erklimmt die höchsten Konsistenz- und Relevanzwerte, während b) die Kombination aus hoch integriertem Regierungssystem und geringer Einkommensungleichheit ähnliche Level erreicht. Die „Wahrheitstabelle“ ist dann wieder Austrittsort für eine ganze Reihe von Ländern, die „ihre Wahrheit“ der Nicht-Erreichung angemessen hoher EPI-Werte präsentiert bekommen: Island, Neuseeland, USA und Australien. Auch Griechenland, Portugal, Italien und Island sowie die beiden asiatischen OECD-Staaten, Japan und Korea, fliegen raus (ebd.: 132). Der erste Lösungspfad beinhaltet die Kombination aus niedrigem (SIC!) integrativem Regierungssystem mit einem hohen Niveau hochschulisch Ausgebildeter und hohem Globalisierungsstandard. Neben Frankreich, Großbritannien und Spanien scheiden Irland und Kanada aus, weil sie trotz der gleichen Konstellation von Faktoren einen schlechten EPI-Wert erreichen (ebd: 131). Den zweiten Lösungsweg schlagen Finnland, Österreich und Deutschland ein, wo ein stark integratives Regierungssystem, eine geringe hochschulische Ausbildung, ein höherer Globalisierungsindex und eine geringe Einkommensungleichheit kombiniert werden (Ebd.: 133). Der dritte Lösungsweg kombiniert „highly integrative government with higher participative government, higher globalization and lower income inequality.“ (Ebd.) Da Deutschland und Österreich auch im dritten Lösungsweg vorkommen, verfolgen sie – de facto und analytisch – eine Mischstrategie aus zweiten und drittem Lösungsweg (ebd.: 135). Der dritte Lösungsweg beinhaltet die meisten Länder (hohe Deckung) und ist auch faktorenlogisch höchst konstitent. Folglich gilt: „Of the three sufficient solution pathways, the third has the highest coverage as well as being arguably the most theoretically powerful […] These countries appear to have a coherent governance structure for confronting climate change.“ (Ebd.) Kanada, USA, Australien und Belgien haben eine schlechten EPI-Index, wobei die Greener’sche Erklärung recht dünn bleibt. Bei genauerer Kenntnis der dort vorhandenen Wirtschaftsstruktur sollte doch auffallen, dass alle vier Länder gewaltige Produzenten und Konsumenten von fossilen Energien sind. Zudem ist aus der Diskussion um die Tragfähigkeit von Wirtschaftsstilen bekannt, dass manche – vor allem exportorientierten Länder, die hierzu fossile Energien importieren – aufgrund des Aufbaus von Wertschöpfungsketten ihre umweltschädlichen Emissionen, Abwässer und Ablüfte „externalisieren“ (Lessenich 2016), so dass die umweltpolitischen Erfolgsländer globalökologisch betrachtet sich weit weniger auf die Schulter klopfen sollten, als Greener hier suggeriert, dass sie es dürfen. In jedem Fall hätte – auch hier – der Outcome-Index viel stärker kritisch auf seine Validität hin reflektiert werden müssen, als ihn – verständlicherweise – pragmatisch zu übernehmen, wie das Ian Greener – notgedrungen – getan hat. Und wieder: Norwegen und Schweden sind die Klassenbesten (Greener 2022: 138).

In seinen Schlussfolgerungen zu den neuen fünf Giganten des 21. Jahrhundert weist Greener rückblickend noch einmal auf die beiden Zielsetzungen seiner Vergleichsstudie hin: die Identifizierung (i) der fünf neuen Giganten für das 21. Jahrhundert und (ii) der Strategien der Länder, die sich mit diesen neuen Giganten am erfolgreichsten auseinandergesetzt haben (ebd.: 139). In seinen theoretischen Kapiteln (1 und 2) hat Greener die fünf neuen Giganten in Aktualisierung von Beveridgs Vorlage herausgearbeitet. Es sind: Einkommensungleichheit, vermeidbare Mortalität, Demokratiekrise, gute Arbeit und Umweltzerstörung. Zur Bestimmung (allgemein) erfolgreicher Strategien setzt er in einem ersten Schritt tabellenartig die Herausforderungen der fünf neuen Giganten mit den für erfolgreich befundenen Kausalfaktoren ins Verhältnis (ebd.: 140f.). Als erfolgreiche Kausalfaktoren werden solche bestimmt, die einem hinreichenden Lösungspfad zugehörig waren, der entweder den höchsten allgemeinen Abdeckungsgrad („coverage“) hatte oder den höchsten einzelnen Abdeckungsgrad erzielte (ebd.: 140). Insbesondere das integrative Regierungssystem, der hohe Anteil von hochschulisch Ausgebildeten, eine starke Globalisierungsorientierung und eine geringe Einkommensungleichheit stechen als bedeutsame Faktoren bzw. Strategien hervor. In einem zweiten zusammenfassenden Schritt setzt er die erfolgreichen Ländern mit den erfolgreichen Strategien ins tabellarische Verhältnis. So zeigte sich wie bereits angedeutet, dass Norwegen und Schweden sowie mit einem kleinen Abstand Dänemark und die Schweiz die besten Werte erzielt hatten. Ian Greener ist sich sicher: „Norway, Sweden and Denmark have higher levels of public social expenditure, emphasizing their commitment to redistribute, while also providing strong public services. These factors combine to create a context in which the global challenges identified in this book are being confronted, and it is hard not to regard them as presenting a template from which the rest of the world can learn.“ (Ebd.: 144) Die QCA-Methode ist aber für ihre Äquifinalität bekannt und so schließt Greener seine Schlussfolgerungen ab, indem er auf einige Länder hinweist, die obschon vergleichsweise gute Bewältigungswerte bzgl. der fünf neuen Giganten zeigen, aber deren Kausalfaktoren nicht zu der erfolgreichsten Kombination der Faktoren der oben genannten skandinavischen Länder (+ Schweiz) gehören. Insbesondere Australien und Canada werden hier von Greener benannt (ebd.). Statt in ihnen jedoch erfolgreiche Strategien zu identifizieren, die sie zu den Erfolgen geführt haben, betrachtet Greener sie als „Ausnahmen“, denn sie teilten viele Kausalfaktoren mit den USA, „which is one of the worst-performing nations in terms of the New Giants.“ (Ebd.: 145) Folglich seien sie Ausnahmen, die zeigten, was maximal unter den schlechten Bedingungen möglich sei (ebd.: 146). Insofern bleibt die Hauptmessage, dass die Schlüsselstrategie zur erfolgreichen Bewältigung der neuen fünf Giganten in der Kombination folgender Faktoren besteht: „[…]integrative government, which incorporates a wide range of interests rather than excluding them; has a highly educated public, is committed to redistribution through higher social expenditure, leading to lower levels of income inequality; and is highly successful in competing in the global economy. Norway, Sweden and Switzerland offer us a template towards confronting the New Giants, most of which is sharde by Denmark, but which falls just short of their level of achievement across all of them.“ (Ebd.: 146)

Addenum: der nachgeschobene Epilog von Ian Greener zur Covid-Krise 2021 (Juni)

Im Epilog seines Buches (Kapitel 10) wagt sich Greener an eine Analyse der erfolgreichen Strategien und Faktoren zur Realisierung einer geringen Mortalität während der Covid-Pandemie. Allerdings ist diese Analyse – wie er selbst erkennt – von einigen Unwägbarkeiten geprägt, die insbesondere die Festlegung eines Vergleichszeitraums betreffen, da die Covid-19-Pandemie nicht nur in „Wellen“, sondern daher auch ungleich und ungleichzeitig abgelaufen ist (Roth 2021: Teil II). Dadurch verliert der von ihm gewählte Outcome der Covid-19-Mortalitätszahlen der Oxford University bereits erheblich an Aussagekraft (Greener 2022: 148), denn „erfolgreiche Länder“ haben sich im weiteren Verlauf der Pandemie „verschlechtert“ (etwa Deutschland), während erfolglose Länder (Schweden) die schlimmsten Effekte zu Beginn hatten. Neueste Forschungen zeigen, dass nicht nur die Letalität von Covid-19 relativ gleich über die Länder ist, sondern vor allem die vulnerablen Gruppen betroffen waren und dass sogar Schulschließungen kontraproduktiv waren und nur die Pandemiewirkungen verlängerten (Green/Fazi 2021; Roth 2021; Sachverständigenausschuss 2022). Insofern steht Schweden letztendlich vergleichsweise gar nicht so schlecht da, wie Greener – unter unkritischer Bezugnahme auf ein journalistisches Pampleth im Time Magazine – unterstellt (ebd.: 156). Im Grunde könnte man daher seine Analyse an dieser Stelle bereits ad acta legen, weil sie im Hinblick auf den Outcome überhaupt nicht valide und damit seine weitere Ableitung von erfolgreichen Lösungspfaden sinnlos ist. Das soll hier nicht getan werden, weil seine Herausarbeitung der hinreichenden Lösungspfade zum Zeitpunkt Juni 2020 dennoch ganz interessante Ergebnissen tätigt. So identifiziert er mittels der fsQCA drei (intermediäre) hinreichende Lösungspfade, die (i) niedrige Einkommensungleichheit mit integrativem Regierungssystem kombiniert und neun Länder umfasst (Australien, Belgien, Dänemark, Finnland, Deutschland, Island, Niederlande, Norwegen und Schweden). Allerdings fallen Österreich und Belgien aus diesem Lösungspfad heraus, weil sie zu hohe Covid-19-Mortalitätsraten aufweisen – Ischgl lässt grüßen. Hiermit zeigt sich übrigens eine weitere methodische Schwierigkeit der Anwendung der QCA-Methode auf die Covid-19-Pandemie. Im Gegensatz zu strukturellen Merkmalen, die im sonstigen Buch von Ian Greener im Mittelpunkt standen (die fünf Giganten), handelt es sich bei der Covid-19-Pandemie um ein situatives Ereignis. Offensichtlich ist für die Analyse solcher situativer Ereignisse der QCA-Ansatz nicht geeignet, wie Greener selbst – indirekt – andeutet (ebd.: 149), auch wenn er selbst eine umfassendere Studie zur Covid-19-Pandemie im Vorfeld des Buches publiziert hatte (Greener 2021). Dort stellte er auch fest, dass neben drei üblichen Kausalfaktoren (Einkommensungleichheit, integratives Regierungssystem und Niveau der öffentlichen Sozialausgaben) vor allem die Anzahl der Covid-Tests pro Fall von Bedeutung seien (Greener 2022: 148). Freilich lässt er offen, welchen Test er meint. Aufgrund der historischen Entwicklung der Covid-19-Pandemie kann zu diesem frühen Zeitpunkt nur der PCR-Test gemeint sein, über dessen zum Teil voraussetzungsvollen bzw. problematischen Einsatzbedingungen er offenbar nichts weiß (Schrappe et al. 2020a u. 2020b). Daher gäbe es auch auf dieser Seite womöglich „falsche Daten“. Daher kann Greeners Selbstversicherung: „The data are imperfect, but they do give us an indicator of which countries have done relatively well“ (Greener 2022: 148) nicht wirklich überzeugen.

Als zweiten Lösungspfad (ii) entdeckt er die Kombination aus geringer Einkommensungleichheit und hohem Testwert (Dänemark, Finnland, Island, Irland und Norwegen), wobei Irland dennoch hohe Mortalitätswerte erreicht und rausfällt. Der zweite Lösungspfad überlappt offensichtlich mit dem ersten; das gilt auch für die Validität der Indikatoren. Der dritte hinreichende Lösungspfad legt nun eine ganz andere Lösung nahe. Die Kombination (iii) aus gering-integrativem Regierungssystem, geringen öffentlichen Sozialaufwendungen und hohen Testwerten geht für die drei Länder Australien, (Süd-)Korea und Neuseeland mit guten Mortalitätswerten einher. Obwohl theoretisch relativ unplausibel, lässt sich der „Erfolg“ durch Besonderheiten klären: „All three nations had a geographical advantage in being able to prevent transmission of the virus into their communities.“ (Ebd.: 155) Mit anderen Worten: sie sind Inseln. Diese Interpretation ist nicht nur plausibel, sondern wurde auch in Presse und Funk ausgiebig diskutiert. Dort existierten allerdings auch recht rigide Nachverfolgungsregimes, wie z.B. in Südkorea, was zeitweise als „Goldstandard“ galt. Interessant ist nun, dass die Greener’sche Analyse sehr präzise ein bestimmtes Narrativ spiegelt, dass nämlich die ausweitende Testung („testen, testen, testen“) die Ausbreitung (und damit die Mortalität) dämpfen könnte. In Bezug auf die weitere Entwicklung der Mortalität habe ich bereits einige kritische Worte angemerkt. Dass ein hohes Testniveau die Fälle nach oben, aber die Mortalität nach unten treibt (sofern die Case-Fatility-Ratio zugrunde gelegt wird; CFR), hat Greener freilich nicht begriffen (Schrappe et al. 2020a u. 2020b).

Insofern sitzt er einem statistischen Artefakt auf, um seine „erfolgreiche Strategie“ der Testhäufigkeit zu begründen. Insgesamt gesehen ist die Sinnhaftigkeit der Anwendung des QCA auf die situative Konstellation einer Virus-Pandemie und dann vor allem noch vor deren „Ende“ überaus fragwürdig – sofern es überhaupt eine solche , mehrere Wellen umfassende Pandemie gewesen ist, denn bekanntlich verlaufen Pandemie nur dann „in Wellen“, wenn es sich nachweislich um denselben Erreger gehandelt hat, was aufgrund der tausendfachen Mutation des Sars-CoV-2-Virus durchaus bestritten werden kann. Dagegen kann nicht bestritten werden, dass die Armen, Schwachen und Benachteiligten am stärksten unter der Covid-19-Pandemie gelitten haben – allerdings nicht nur an der Häufigkeit, Schwere und der Gefährlichkeit des Virus, sondern auch an den problematischen Folgen der zum Teil wirkungslosen Maßnahmen (Lockdown, Schulschließungen, Masken), welche mittlerweile – hoffentlich – zu einem rationaleren Diskurs über die Ausnahmesituation „Sars-CoV-2“ führen wird (Green/Fazi 2021; Roth 2021; Sachverständigenausschuss 2022).

Kritische Bewertung der Vergleichsstudie von Ian Greener

Resümierend lässt sich feststellen, dass es Ian Greener als Pionierarbeit gut gelungen ist, eine politisch wichtige, aber auch überaus breite Fragestellung mit einer komplexen Methode zu bearbeiten. Seine methodisch erzielten Schlussfolgerungen sind zum Teil schlüssig, zum Teil jedoch auch diskussionswürdig, was sicherlich auch der relativ offenen Diskussion der empirischen Ergebnisse zu den fünf neuen Giganten zuzuschreiben ist. Dennoch ist dem Buch – und dem methodologischen Ansatz – für die Erneuerung der sozialpolitischen Problemlagen viel Aufmerksamkeit zu wünschen. Denn die QCA-Methode ist in der Tat in der Lage, qualitative Fallerkenntnisse mit quasi-quantitativen Forschungsergebnissen zu verbinden (Schneider/Wegemann 2007: 19-27). Nicht verschwiegen werden darf freilich, dass – wie stets – die Auswahl und Entscheidung für einen theoretischen Ansatz auch etwas über die subjektiven Präferenzen und Prämissen des Autors aussagt, wie an den Gegenstandsbereich heranzugehen ist. Die Zielsetzung des Forschungsprojekts, nach den „fünf neuen Giganten“ zu suchen, ist ohne Zweifel auch eine sozialpolitische Programmatik und daher strukturell wertgebunden. Eine neutrale (Sozial-)Wissenschaft gibt es bekanntlich nicht.

Kritisch wird die Studie daraufhinzu erörtern sein, inwieweit die von Greener angewandte Fuzzy-Set QCA-Methode zur Identifizierung notwendiger und hinreichender Bedingungen sich nicht zu sehr der Logik von quantitativen Forschungsdesigns angenähert hat und dabei detaillierte qualitative Fallstudienergebnisse allzu rasch zu übergehen droht (vgl. zu dieser erkenntnistheoretischen Gefahr auch: ebd.: 272). Dies drückt sich zum Beispiel darin aus, dass Ian Greener zur Konstruktion seiner „Outcomes“- wie auch der „Causal Factors“ – ohne große Kontaktscheu sich empirischen Ergebnissen von etablierten statistischen Indizes bedient. Dabei kommt m.E. eine theoretische Durchdringung der jeweiligen „Säule“ der fünf Giganten und der Suche nach einer geeigneten, validen Operationalisierungsmethode zu kurz. Von einer umfassenden „Literaturrecherche“ zu den jeweiligen Punkten kann aufgrund der relativ spärlichen Nutzung von theoretisch-konzeptionellen oder vergleichenden Studien keine Rede sein. Die theoretischen Begründungen der im Anspruch nach OECD-weiten Vergleichbarkeit vorhandener Operationalisierungsbegriffen für die Outcomes und (potentiellen) Kausalfaktoren bleiben gelegentlich im Dunkeln. Es lässt sich daher der Eindruck nicht abwehren, dass hier die pragmatische Notwendigkeit global verwendbarer Indizes mit den theoretischen Begründungen derselben auf etwas zu „gewalttätige“ Weise handhabbar gemacht wurde. Der Validität der Operatoren und damit auch der (theoretischen) Schlüssigkeit der Argumentation und (empirischen) Forschungsergebnisse war dies nicht immer förderlich.

Die zahlreichen „Ausreißer“ in der QCA-Analyse der fünf Giganten, die entweder bei Vorliegen der konstruierten hinreichenden Bedingungen das Outcome verfehlen oder – anders herum – trotz Verfehlen der hinreichenden Bedingungen das (zu erklärende) Outcome doch erreichen, werden recht pauschal mit aktualpolitischen Details ihrer sozial-/politischen Besonderheiten „erklärt“. Hier wäre etwas mehr kritische Selbstreflexion der eingesetzten Indizes vonnöten gewesen, ob diese tatsächlich das „messen“, was Greener ihnen theoretisch unterstellt (Validität). Die zum Teil recht widersprüchlichen Ergebnissen werden – für meinen Geschmack jedenfalls – zu schnell „eingeebnet“ und hätten vermutlich differenziertere Kausalfaktoren und vielleicht doch eine longitudinale Forschungsperspektive benötigt. Ein Problem in diesem Kontext ist auch, dass „der“ Nationalstaat mehr oder weniger, d.h. seine dynamische Konstitution als soziale Verdichtung von Akteurskonstellationen und sozialen Kräften, aber auch seine historische Wandelbarkeit (Poulantzas 2002; Hirsch 2005; Benz 2008; Jessop 2016) in der Greener’schen Analyse als „Black Box“ behandlt wird. Das mag zwar aus seiner methodologischen Prämisse, „to ask questions at a higher level, considering how political land social factors contribute to confronting the New Giants“ (Greener 2022: 128), nachvollziebar sein. Zur Erklärung der Fälle scheint es allerdings unzureichend zu sein, nur auf dieser abstrakten Ebene zu argumentieren. Offensichttlich zeigt sich in der Greener’schen Methodik an dieser Stelle ein – notwendiger? – Trade-Off zwischen der empirischen Breite und der analytischen Tiefe der Fallbetrachtung, den doch die QCA gerade überwinden wollte.

Die empirische Breite hat trotz der methodischen Komplexität hier einen theoretischen Reduktionismus produziert, der zum Beispiel im Kapitel über „vermeidbare Mortalität“ erkennbar wird. Seine avisierten 24 Vergleichsfälle lassen jedoch, praktisch gewendet, wohl die eher „traditionelle“ QCA-Methode (Crisp-Set-QCA) und eine intensivere Berücksichtigung von qualitativen Fallstudien für die Fälle für einen einzelnen Forscher kaum noch zu. Vielleicht wäre es forschungstrategisch ratsam, diese doch recht große Vergleichsstudie (n=24) in Zukunft mit weit weniger großen, dafür aber qualitativ differenziert analysierten Fallstudien pro Cluster und Säule zu kontrastieren, um seine Forschungsergebnissen zu validieren. Zudem ist seine aus methodologischen Gründen aufgestellte Behauptung der Dominanz von Pfadabhängigkeiten der Wohlfahrtsstaatsentwicklung, gerade vor dem Hintergrund seiner selbst beschriebenen gemeinsamen Transformation der Umwelt wohlfahrtsstaatlicher Entwicklung im Prozess der Globalisierung, – zurückhaltend formuliert – in der vergleichenden Wohlfahrtsstaatsforschung nicht unwidersprochen geblieben (vgl. z.B. Palier 2010; Rothgang et al. 2010; Klenk et al. 2012). Insbesondere wird in dieser methodisch anspruchsvollen Ausprägung vergleichender Wohlfahrtsstaatsforschung (sei es in multivariatem oder im fsQCA-Zuschnitt) oft die konstituierende Bedeutung von konvergenten oder wenigstens modulierenden (Policy-)Diskursen vergessen, die Divergenz erhalten können, aber auch Konvergenz ermöglichen (siehe dagegen: Seeleib-Kaiser 2001; Schmidt 2002, 2020; Holzinger/Knill 2007; Tritter et al. 2010; Hay/Wincott 2012; Lister 2013; Pavolini/Guillén 2013; Klenk/Pavolini 2015; Mosebach 2017).

Besonders auffällig ist in diesem Zusammenhang, dass über kurz oder lang, besonders Norwegen und Schweden, gelegentlich mit Island (Greener 2022: 123), zu Schluss eher die Schweiz oder Dänemark statt Island (ebd.: 142), oft die besten Lösungen für die fünf Giganten hervorbringen (s. Tabelle auf S. 143). Aufgrund seiner theoretischen Setzungen und Begründungen seiner Kausalfaktoren und Outcomes, zumal der Wahl des konkreten Indizes, ist dies allerdings kaum wunderlich. Daher muss die Frage erlaubt sein, ob hier nicht der theoretische Wunsch der (schaffende) Vater der empirischen Ergebnisse ist. Zumal: bei Norwegen, Schweden, Island und Dänemark handelt es sich um recht kleine, hochspezialisierte und sehr homogene Ökonomien und Gesellschaften (die Schweiz dürfte in Bezug auf die Homogenität etwas differenziert zu betrachten sein). Dies erklärt womöglich sowohl deren Erfolg als auch die Unmöglichkeit ihrer Übertragung auf große Flächenstaaten wie Frankreich, USA, Großbriannien oder Deutschland. Norwegen, Schweden und Dänemark gehören zum „sozialdemokratischen Wohlfahrtsstaat“ (Esping-Andersen 1990), der jedoch in den letzten 20 Jahren ebenfalls erheblichen Liberalisierungs-, Ökonomisierungs- und Kommerzialisierungsprozessen ausgesetzt worden ist. D.h. laut Greeners Analyse sind diese Länder möglicherweise die Klassenbesten, aber Erfolg ist bekanntlich relativ und unter Blinden ist der sprichwörtlich Einäuge bekanntlich der König. Hiermit sollen keineswegs Sehbehinderte oder Blinde diskriminiert werden, sondern allein darauf hingewiesen werden, dass ein Ranking von Strategien und Staaten weder notwendig eine sachgerechte Strategie zur Bewältigung der fünf Giganten impliziert noch die Übertragbarkeit in andere Nationalstaaten problemlos zur Folge hat. Gerade das Theorem der „Pfadabhängigkeit“, das doch Greener bemüht hat, um eine longitudinale Forschungsperspektive abzuwehren, steht diesem simplen Policy-Transfer gegenüber. Vielleicht hätte gerade eine longitudinale Perspektive ein wenig neoliberales „Wasser“ in den sozialdemokratischen „Wein“ geschüttet. Aufgrund der zunehmenden Defensive einer investiven Sozialpolitik, an dessen Ideen sich Greener ganz offentlichtlich – auch in der häufig zitierten Person Anthony Giddens‘ symbolisiert – orientiert, ist die optimistische Sichtweise auf das erfolgreiche skandinavische Modell ein wenig zu relativieren (Tritter et al. 2010; Hay/Wincott 2012; de la Porte/Heins 2016; Schröder 2019; Kärrylä 2021; Stahl 2022).

Der methodologische Bias seines Vergleichs von „Nationalstaaten“ ist daher womöglich eine selbst-erfüllende Prophezeihung für die erfolgreichen Länder, da die Vergleichsbasis nicht passt. Unter Umständen vergleicht Ian Greener – und die versammelten Forscher:innen der vergleichenden Wohlfahrtsstaatsforschung gleich mit – zu oft Äpfel mit Birnen, denn Nationalstaat ist womöglich nicht gleich Nationalstaat, genauso wenig wie Nationalökonomie gleich Nationalökonomie ist. Es erscheint daher sinnvoller, Weltmarkt, Nationalstaat und (Meso-)Regionen (Altvater 1987; Narr/Schubert 1994; Altvater/Mahnkopf 1999) als ein widersprüchliches Mehrebenensystem zu differenzieren und einen Mehrebenenvergleich durchzuführen. Wie auf dieser analytischen Grundlage ein methodisch und inhaltlich sinnvoller Vergleich von plausiblen Vergleichseinheiten möglich ist, muss hier offen bleiben (siehe aber: Schröder 2019). In jedem Fall sind die metatheoretischen und methologischen Grundlagen von QCA und multivariaten Forshungsprogrammen m.E. weniger schlüssig als viele Vergleichsforscher:innen (Schmidt et al. 2007; Schneider/Wagemann 2007) denken. Unzureichender „methodologischer Nationalismus“ (Beck 2002: Kap. II) auch hier? Die Reflexion der Forschungsergebnisse zu „environmental degradations“ (Greener 2022: Kap. 8) sollte doch hier aufgrund der massiven Externalisierungsmöglichkeiten von exportorientierten Ökonomien (Lessenich 2016; Brand/Wissen 2017) zu denken geben, ob hier nicht die vergleichende Perspektive an ihre „Grenzen“ kommt und vielmehr eine Globalsoziologie nötig ist.

Was sich aus den theoretischen und methodischen Begrenzungen von Greeners Vergleichsstudie forschungsprogrammatisch ergibt, steht auf einem anderen Blatt und kann hier nur angedeutet werden. Alternativ zur mehr qualitativer Tiefenbohrung, die ich oben suggeriert habe, hätte man auch die Greener’sche Analyse auf Basis der fsQCA mittels der methodischen Triangulation einer multivariaten Regressionsanalyse kontrastieren können, auch wenn – zugegebenermaßen – die Grundprämissen von QCA und multivariater Analyse als grundverschieden betrachtet werden (Schneider/Wagemann 2007: 77-83). Das hält Greener jedoch nicht davon ab, Cluster-Analysen durchzuführen (seine Triangulation, allerdings weitgehend ohne argumentative Bedeutung). Trotz eingiger Bedenken erscheint diese methodologische Forschungsspekulation der Kombination von fsQCA und multivariater Regressionsanalyse m.E. nicht ganz unproduktiv zu sein, denn im Rahmen der fsQCA sind sehr viele „Länder“ durch den „methodischen Rost“ der hinreichenden Lösungen gefallen, obwohl sie „gute Ergebnisse“ erzielten und das in den Diskussionsabschnitten der Kapitel nicht immer als konsequent und „logisch“ von Ian Greener (2022: passim) angesehen bzw. begründet wurde. Zudem: es können komplexe multivariate Modelle konstruiert werden, die unterschiedliche „Faktoren/-bündel“ zur Erklärung eines „Outcomes“ beinhalten, die zumeist in ihrer „Erklärungsstärke“ differieren (Auer 2013: Teile II-IV). Versucht die QCA nicht genau dies zu erreichen und vermittels ihrer „sufficient solutions“ anzugehen? Also: warum nicht „triangulieren“? Wie lassen sich aber die metatheoretischen Prämissen von fsQCA und multivariaten Modellen vereinbaren, da sie – nicht nur – Greener doch als diametral gegensätzlich dargestellt hat (Greener 2022: 43f.)? Ist dies aber tatsächlich ein methodologisches „Dead-End“ oder wird hier nicht vielleicht die „äquifinale Kausalität“ ein wenig überdehnt? Hier können diese abschließenden häretischen Fragen nur in den (interdisziplinären) Diskursraum gestellt werden, Antworten zu erwarten wäre diesbezüglich an dieser Stelle vermessen zu erwarten.

Zusätzliche Literatur:

Altvater, Elmar (1987): Sachzwang Weltmarkt. Verschuldungskrise, blockierte Industrialisierung, ökologische Gefährdung – der Fall Brasilien, Hamburg: VSA.

Altvater, Elmar/Mahnkopf, Birgit (1999): Grenzen der Globalisierung. Ökonomie, Ökologie und Politik in der Weltgesellschaft. 4. Auflage, Münster: Westfälisches Dampfboot.

Auer, Ludwig von (2013): Ökonometrie. Eine Einführung, Wiesbaden: Springer Gabler.

Beck, Ulrich (2002): Macht und Gegenmacht im globalen Zeitalter. Neue weltpolitische Ökonomie, Frankfurt a.M.: Suhrkamp.

Benz, Arthur (2008): Der moderne Staat. Grundlagen der politologischen Analyse. 2. Auflage, München: Oldenbourg.

Brand, Ulrich/Wissen, Markus (2017): Imperiale Lebensweise. Zur Ausbeutung von Mensch und Natur im globalen Kapitalismus, München: Oekom.

Dusa, Adrian (2019): QCA with R. A Comprehensive Resource, Cham: Springer Nature.

Esping-Andersen, Goran (1990): The Three Worlds of Welfare Capitalism, Cambridge/Oxford: Polity Press.

Green, Toby/Fazi, Thomas (2021): The COVID Consensus. The Global Assault on Democracy and the Poor. A Critique from the Left, London: Hurst.

Greener, Ian (2021): Comparing Country Risk and Response to COVID-19 in the First 6 Month across 25 Organisation for Economic Co-Operation and Development Countries Using Qualitative Comparative Analysis, in: Journal of International Comparative Social Policy, S. 1-15 (DOI: 10.1017/ics.2021.6.

Hay, Colin/Wincott, Daniel (2012): The Political Economy of European Welfare Capitalism, Houndmills/New York: Palgrave Macmillan.

Hirsch, Joachim (2005): Materialistische Staatstheorie. Transformationsprozesse des kapitalistischen Staatensystems, Hamburg: VSA.

Holzinger, Katharina/Jörgens, Helge/Knill, Christoph (Hrsg./2007): Transfer, Diffusion und Konvergenz von Politiken. PVS – Politische Vierteljahresschrift. Sonderheft 38/2007, Wiesbaden: VS Verlag.Tritter, Johnathan/Koivusalo, Meri/Ollila, Eeva/Dorfman, Paul (2010): Globalisation, Markets and Healthcare Policy. Redrawing the Patient as Consumer, London/New York: Routledge.

Jessop, Bob (2016): The State. Past, Present, Future, Cambridge/Malden: Polity Press.

Kärrylä, Ilkka (2021): Democracy and the Economy in Finland and Sweden since 1960. A Nordic Perspective on Neoliberalism, London/New York: Palgrave Macmillan.

Klenk, Tanja/Pavolini, Emmanuele (Eds./2015): Restructuring Welfare Governance. Marketization, Managerialism and Welfare State Professionalism, Cheltenham & Northhampton: Edward Elgar.

Klenk, Tanja/Weyrauch, Philine/Haarmann, Alexander/Nullmeier, Frank (Hrsg./2012): Abkehr vom Korporatismus. Der Wandel der Sozialversicherungen im europäischen Vergleich, Frankfurt a.M./New York: Campus.

Marmot, Michael (2004): Statuts Syndrome. How Your Social Standing Affects Your Health, London et al.: Bloomsbury.

Marmot, Michael (2015): Health Gap. The Challenge of an Unequal World, London et al.: Bloomsbury.

Lessenich, Stephan (2016): Externalisierungsgesellschaft. Neben uns die Sintflut, München: Hanser.

Mosebach, Kai (2017): Making Sense of Health Care Commercialization and Liberal Utopias of Market-Driven Health Care: Theoretical Explorations in Karl Polanyi’s Double Movement Concept as Critique of the Global Health Care Reform Industry. Paper presented at the international conference ‚Great Transformations? Global Perspectives on Contemporary Capitalism’, 9-13 January 2017 at the Johannes Kepler University in Linz, Austria (January 13th 2017), URL: https://politisch-oekonomie-gesundheit.de/making-sense-of-health-care-commercialization-2017 (12.07.23).

Narr, Wolf-Dieter/Schubert, Alexander (1994): Weltökonomie. Die Misere der Politik, Frankfurt a.M.: Suhrkamp.

Palier, Bruno (Eds./2010): A Long Goodbye to Bismarck? The Politics of Welfare Reform in Continental Europe, Amsterdam: Amsterdam University Press.

Pavolini, Emanuele/Guillén, Ana (Eds.) (2013): Health Care Systems in Europe under Austerity: Institutional Reform and Performance, Houndsmills/New York: PalgraveMacmillan.

Porte, Carloine de la/Heins, Elke (Eds./2016): The Sovereign Debt Crisis, the EU and Welfare State Reform, London: Palgrave Macmillan.

Poulantzas, Nicos (2002) [1978]): Staatstheorie. Politischer Überbau, Ideologie und Autoritärer Etatismus,. Mit einer Einleitung von Alex Demirovic, Joachim Hirsch und Bob Jessop, Hamburg: VSA.

Roth, Karl-Heinz (2021): Blinde Passagiere. Die Coronakrise und die Folgen, München: Kunstmann.

Rothgang, Heinz/Cacace, Mirella/Frisina, Lorraine/Grimmeisen, Simone/Schmid, Achim/Wendt, Claus (2010): The State and Healthcare. Comparing OECD Countries, Houndmills/Basingsoke: Palgrave Macmillan.

Sachverständigenausschuss (2022): Evalution der Rechtsgrundlagen und Maßnahmen der Pandemiepolitik. Bericht des Sachverständigenausschusses nach § 5 Abs. 9 IFSG, Berlin: Bundesgesundheitsministerium.

Schmidt, Manfred G./Ostheim, Tobias/Siegel, Nico A./Zolnhöfer, Reimut (Hrsg./2007): Der Wohlfahrtsstaat. Eine Einführung in den historischen und internationalen Vergleich, Wiesbaden: VS Verlag.

Schmidt, Viviane A. (2002): The Futures of European Capitalism, Oxford: Oxford University Press.

Schmidt, Viviane A. (2020): Europe’s Crisis of Legitimacy. Governing Rules and Ruling by Number in the Eurozone, Oxford: Oxford University Press.

Schneider, Carsten Q./Wagemann, Claudius (2007): Qualitative Comparative Analysis (QCA) und Fuzzy Sets. Ein Lehrbuch für Anwender und jene, die es werden wollen. Mit einem Vorwort von Charles Ragin, Opladen: Verlag Barbara Budrich.

Schrappe, Matthias/Francois-Kettner Hedwig/Gruhl, Matthias/Knieps, Franz/Pfaff, Holger/Glaeske, Gerd (2020a): Datenbasis verbessern – Prävention gezielt weiterentwickeln – Bürgerrechte wahren. Thesenpapier 1.0 zur Pandemie durch SARS-CoV-2/Covid-19, in: Monitor Versorgungsforschung 13(3), S. 53-63.

Schrappe, Matthias/Francois-Kettner Hedwig/Gruhl, Matthias/Knieps, Franz/Pfaff, Holger/Glaeske, Gerd (2020b): Datenbasis verbessern – Prävention gezielt weiterentwickeln – Bürgerrechte wahren. Thesenpapier 2.0 zur Pandemie durch SARS-CoV-2/Covid-19.

Schröder, Martin (2019): Varieties of Capitalism and Welfare Regime Theories: Assumptions, Accomplishments, and the Need for Different Methods, in: Köln Z Soziol (Suppl) 71: 63-73; DOI: https://doi.org/10.1007/s11577-019-00609-7.

Seeleib-Kaiser, Martin (2001): Globalisierung und Sozialpolitik. Ein Vergleich der Diskurse und Wohlfahrtssysteme in Deutschland, Japan und den USA, Frankfurt a.M./New York: Campus.

Stahl, Rune Moller (2022): Neoliberalism with Scandinavian characteristics: The slow formation of neoliberal common sense in Denmark, in: Capital & Class 46(1), S. 95-114.

Tritter, Johnathan/Koivusalo, Meri/Ollila, Eeva/Dorfman, Paul (2010): Globalisation, Markets and Healthcare Policy. Redrawing the Patient as Consumer, London/New York: Routledge.

Wilkinson, Richard W./Pickett, Kate (2009): The Spirit Level. Why Equality is Better for Everyone, London: Penguin Books.

Wilkinson, Richard G./Pickett, Kate (2018): The Inner Level. How More Equal Societies Reduce Stress, Restore Sanity and Improve Everyone’s Well Being, London: Penguin.

Erich Fromm (1971 [1968]): Die Revolution der Hoffnung. Für eine Humanisierung der Technik, Stuttgart: dtv/Klett-Cotta. 194 Seiten.

Warum, so die wahrscheinliche Frage geneigter Leser:innen, eine Rezension eines „so alten“ Buches? Die Antwort ist einfach und erwartbar. Weil es immer noch aktuell ist, trotz seines Alters. Dies ist zumindest die Überzeugung des Reviewers. Zugegeben werden muss natürlich schon, dass Vieles „überholt“ ist, die Welt hat sich weiter gedreht. Doch was sind gut 50 Jahre im Verhältnis zu 2000 Jahren nach dem Beginn der christlichen Zeitrechnung? Grob gerechnet, zwei Generationen. Und: wer nicht aus der Geschichte lernen will, ist verdammt, sie zu wiederholen, heißt es. Wenn auch dieser Aphorismus natürlich etwas arrogant daherkommt, ist die Vorstellung, dass Überlegungen des Sozialphilosophen und Psychoanalytikers zur „Humanisierung“ der Technik inmitten des Umbruch des „globalen Fordismus“ (Lipietz 1992) heute nicht mehr aktuell sind, weil die Technikformen oder „die Welt“ sich geändert haben mögen, etwas sehr oberflächlich. Nicht jede neue Mode erfindet das Rad neu. Nur weil sie für die Individuen einer neuen Generation „alt“ erscheinen, sind Überlegungen und Phänomene scheinbar „alter“ Text und aus „lange Zeit zurückliegenden“ Epochen nicht pauschal hinfällig. Bei aller permanenter Veränderung in spätmodernen Gesellschaften zeugen solche Gedanken von der Verwechslung kollektiver und individueller Bewusstwerdungsprozesse. Und: Ungleichzeitigkeiten gehören zum Wesen der kapitalistisch geprägten Gesellschaften der Spätmoderne wie der Sprühnebel zu den herabstürzenden Wassermassen der Niagara-Fälle. Und selbst wenn zahlreiche Details „veraltet“ sein mögen: ein altes Buch kann neue Sichtweisen auf die heutigen Dinge erwecken, insbesondere dann, wenn der historische Zeitpfeil linearer Existenz von damals bis heute in eine ganz andere Richtung geflogen ist. Kehren wir also zu dem alten Buch zurück und fragen: was kann es uns heute noch sagen? Hierzu wird dieser Review nicht nur die Argumentation ausführlich, aber natürlich selektiv rekonstruieren, sondern mittels reflektierter Einwürfe und Kommentare versuchen, dem Text sowohl seine potenzielle Aktualität zu entlocken als auch ihn darauf hin zu befragen, was er möglicherweise „ausgelöst“ hat oder anders gesagt: wie sein Verhältnis zu jenem historischen Zeitpfeil gestaltet ist, der seitdem zwei Generationen, zahllose Staaten und singuläre Weltreiche von gestern nach heute gebracht hat. Also: los geht’s!

Auf der Messerspitze einer dehumanisierenden Zeitenwende: Mikroelektronik meets Massenproduktion und Bürokratie

Dass das Frommsche Buch keineswegs völlig veraltet ist, zeigt sich schon in der Paradoxie der oben stehenden Abschnittsüberschrift, die jedoch nur jener sozialwissenschaftlich Gebildeten ins Auge springt, die schon mal etwas von Fordismus und Postfordismus gehört hat (wer diese Begriffe genauer verstehen möchte, sei hierauf verwiesen). Denn der Computer gilt in diesem sozialwissenschaftlichen Narrativ als Inkarnation des Postfordismus, nicht des Fordismus, dessen Insignien Massenproduktion, Automobile und Bürokratie sind. Fromms Buch steht also an der Schwelle einer Zeitenwende von Fordismus zum Postfordismus: quod erat demonstrandum. Sein Buch ist entsprechend aufgebaut und fokussiert auf die Gefährdungen einer dehumanisierenden Technik, die er nicht nur im Computer, noch nicht einmal zentral darin, sondern vor allmen in der Nutzung des Computers, den diese Technik einbettenden „Institutionen und Methoden“ (Fromm 1987: 115; GA IV) der zeitgenössischen Gesellschaften erkennt. Das Buch besteht, den Problemaufriss und das Fazit nicht mitgezählt, aus vier zentralen Argumentationsschritten und folglich auch Kapiteln. Der Ausgangspunkt der Studie ist die Auffassung, dass insbesondere in den Vereinigten Staaten, aber auch in anderen Regionen der „ganzen Welt“ (ebd.: 19; GA IV: ) eine wachsende Polarisierung zwischen den Mächten des „Leblosen“ einerseits und vielfältigen sozialen Kräften, die von „einer tiefen Sehnsucht nach dem Leben, nach neuen Einstellungen“ (ebd.) getrieben würden, andererseits zu beobachten sei. Die Rede ist hier unverkennbar von den politischen, wirtschaftlichen und kulturellen Protestbewegungen der sog. 1968er-Bewegung, die Fromm insgesamt – und vielleicht an dieser Stelle etwas zu undifferenziert – als „dem Leben“ und „der Liebe“ zugewandt sieht (siehe dazu: Deppe 2018: 17-86).

Im zweiten Kapitel entwickelt Fromm sein Konzept der „Hoffnung“, dass er von passiven und theologischen Konzepten abgrenzt und in starke Beziehung setzt zum ähnlich aufgebauten „Prinzip Hoffnung“ des marxistischen Philosophen Ernst Bloch (Bloch XXX; Fromm 1987: 34, FN 8; GA IV: ). Im dritten Kapitel setzt sich Fromm zunächst mit technikkritischen und dystopischen, so würde man heute dies wohl nennen, Theorien bzw. Vorhersagen auseinander (z.B. Mumfords „Megamaschine“ oder Brezinskis „technotrone Gesellschaft“) , die in der unlebendigen Verquickung von Bürokratie, Kybernetik und Kapitalismus drohten. Einen Schritt zurückgehend fokussiert der weitere Verlauf des Kapitels auf die kritische Diskussion der Prinzipien der „gegenwärtige[n] technologische[n] Gesellschaft“ (Fromm 1987: 47ff.; GA IV: ) und ihrer „Wirkung auf den Menschen“ (ebd.: 54ff.; GA IV: ) sowie der janusköpfigen Befriedigung des „Bedürfnisses nach Gewissheit“ (ebd.: 63ff.; GA IV: ) durch die identifizierten „Prinzipien“. Bevor Fromm im fünften Kapitel seine Vision notwendiger Schritte „zu einer Humanisierung der technologischen Gesellschaft“ (ebd: 115ff.; GA IV: ) beschreibt, rekapituliert er im vierten Kapitel die anthropologischen Grundlagen des „Menschseins“, also jene universellen Anlagen und unterstellte „Natur“ bzw. der „grundlegenden Bedürfnisse“ des Menschen, die er bereits in vorangegangenen Veröffentlichtungen beschrieben hatte. Diese Ausarbeitung grundlegender Merkmale des Menschlichen, die Fromm und ähnlich inspirierten Autor:innen immer wieder als „Naturalisierung“ des Sozialen bzw. des Menschen vorgeworfen wurde, ist zweifellos eine normative Setzung, die jedoch Fromm nicht nur in der „Furcht vor der Freiheit“, sondern auch in „Psychoanalye und Ethik“ und später in „Anatomie der menschlichen Destruktivität“ mit historischen und empirischen Forschungsergebnissen zu stützen versuchte. Insofern ist der Vorwurf des „Naturalismus“ an Fromms Anthropologie m.E. schlecht begründet, wenn nicht sogar mitunter böswillig und politisch motiviert.1

Im fünften Kapitel diskutiert Fromm zentrale Ansatzpunkte und Prinzipien, wie eine humane Gesellschaft, eine „Humanisierung der Technik“ erreicht werden kann. Im Rückblick auf die von Fromm empfohlenen Strategien einer „humanistischen Planung“ (Fromm 1987: 117ff.; GA IV: ), einer „Aktivierung und Freisetzung von Energien“ (ebd.: 121ff; GA IV: ) und eines „humanisierte[n] Konsum[s]“ (ebd.: 139ff.; GA IV: ) lässt sich der Eindruck nicht abwehren, dass manche Elemente im Übergang vom Fordismus zum Postfordismus Einfluss gefunden haben in so manche politische, ökonomische oder kulturelle Reformstrategie(n). Insbesondere die im Buch vorzufindende „Bürokratie“-Kritik, seine kritische Betrachtung von „Passivierungs“-Tendenzen in fordistischen Großorganisationen und auch die Vorschläge zu ihrer Überwindung, partizipatorische Verwaltungsplanung hier, humanistisches Management dort, mag heutige Zeitgenoss:innen an seit den 1980er Jahren installlierte „Reformmaßnahmen“ der Verwaltungsmodernisierung und des Unternehmensmanagements erinnern. New Public Management (Pollitt/Bouckaert 2011) und Lean Management (oder: Total Quality Management; Bröckling 2005) sind nicht nur die herausgehobensten „Management“-Konzepte einer sich modernisierenden Bürokratie im Postfordismus, sie haben tatsächlich auch viele Elemente dessen übernommen, was in der Fromm’schen Diktion als „Humanisierung“ deklariert worden wäre. Und auch das Element eines „humanisierte[n] Konsum[s]“ (Fromm 1987: 139ff; GA IV: ) spiegelt sich im Aufstieg des „kritischen Konsumenten“ in den Staaten und Gesellschaften des Postfordismus seit den 1980er Jahren. Und dennoch: die Fromm’sche Vision einer „Revolution der Hoffnung“ bricht sich mit diesen Ansatzpunkten, denn Fromm hält im Gegensatz zu vielen Strateg(i)en der „Humanisierung“ der Bürokratie und des Management an zentralen Eckpunkten einer Kapitalismuskritik und der notwendigen Einführung sozialistischer Planungselemente und von dezentralen Demokratisierungsprinzipien fest (Fromm 1987: 120f. GA IV: ; und insbesondere: Fromm 62009: 229ff.; GA IV: ). Er steht folglich in einer Tradition des humanistischen bzw. kommunitären Sozialismus (Fromm 1965), die – nach dem Niedergang des „Realsozialismus“ und der sich lange Zeit neoliberalisierenden „Sozialdemokratie“ immer noch – oder auch: wieder – hochaktuell ist (Honneth 2017; Dörre 2021; Deppe 2022). Gerade wegen dieser offensichtlichen bzw. – aus skeptischerer Perspektive – möglichen Aktualität der Fromm’schen Überlegungen, soll im Folgenden die Argumentation aus der „Revolution der Hoffnung“ im (subjektiven) Detail und mit kritisch-reflexiver Emphase rekonstruiert und im Hinblick auf ihre heutige Aktualität erörtert werden. Ich werde dazu allerdings die Gliederung des Buches „umwerfen“ und beginne mit einer Erörterung der Begriffe der „Hoffnung“ und der Frage nach dem „Menschsein“, bevor ich die in die Diskussion über die konstatierte Gesellschaftskrise der 1960er Jahre und ihre Überwindung, die Fromm für möglich erachtete, einsteige.

Wie kann der Mensch hoffen? Analytische Bedeutung und normative Prämissen der Hoffnung und des Mensch-Seins in der Fromm’schen Sozialtheorie

Obwohl die von Fromm eingeforderte „Revolution der Hoffnung“ durchaus einen gewissen utopischen Charakter hat, ließe sich unter Bezugnahme auf Ernst Blochs „Prinzip Hoffnung“ diese Hoffnung sehr wohl auf eine reale Grundlage stellen, also von einer „Realutopie“ sprechen. Die realutopische Hoffnung ist daher nicht idealistisch gemeint und damit im schlechten Sinne „unrealistisch“, wie viele Kritiker:innen der zweifellos empathischen Aufforderung einer „Revolution der Hoffnung“ durch Fromm unterstellt haben und – bei Neulektüre – vermutlich unterstellen würden. Der von Fromm erörterte Begriff der „Hoffnung“ und seine – gewissermaßen – anthropologisch-sozialpsychologische Begründung menschlicher Bedürfnisse aus der „Bedingung der menschlichen Existenz“ (Fromm 1987: 76ff; GA IV: ) heraus sind analytische Ansatzpunkte seiner Sozialphilosophie, auf die sich eine „Revolution der Hoffnung“ stützen kann. Dabei sind die normativen Prämissen menschlicher Existenz keineswegs eindimensional, sondern zeigen die Eigenschaft der „Wahlalternative“: der Mensch ist weder gut noch böse von Natur aus, sondern zu beiden Veranlagungen seines Handelns in der Lage. Die Strukturen der Gesellschaft mögen ihn in die eine oder andere Richtung drängen, doch in Fromms Sozialphilosophie bleibt die (religiös klingende und auch so gemeinte) Emphase der Freiheit jedes Einzelnen die normative Prämisse seines „prophetischen Alternativismus“ (ebd.: 33; GA IV: ).

„Leben und Tod lege ich dir vor, Segen und Fluch. Wähle also das Leben!“

Deuteronomium (5. Buch Mose), Kapitel 30, Vers 19, zit.n. Fromm 1987: 33

Diese biblische Stelle erhebt Fromm zum Prinzip seiner „messianische[n] Hoffnung“ (ebd.: 32ff.), die ganz und gar nicht-theistisch begründet ist. Aufgabe der Hoffnung ist nicht, auf eine „kommende Zeit“ (ebd.: 21) zu warten, denn in diesem kafkaesken „untätige(n) Abwarten“ zeige sich vielmehr eine „verkappte Form der Hoffnungslosigkeit und Impotenz“ (ebd.: 22), die gelegentlich und gern manieriert als „pseudo-radikale Verkleidung der Hoffnungslosigkeit und des Nihilismus“ (ebd.) von vermeintlich kritischen Geistern vor sich hergetragen und zur Schau gestellt werde. Doch selbst offen geäußerte Hoffnung kann eine Verkleidung für innere und unbewusste Hoffnungslosigkeit sein, wenn der gesellschaftliche „Erfolg“ eine solche geäußerte Hoffnung verlangt. Der Sozialpsychologe und Psychoanalytiker Fromm weist darauf hin, dass nicht nur solche äußeren Mechanismen, sondern auch offenkundige „Phrasendrescherei und Abenteuerlust“ (ebd.) unbewusste Hoffnungslosigkeit übertünchen und ein Ausdruck nekrophiler Tendenzen sein können, deren Dynamik gern verdrängt werde; dies gelte für solche „Erfahrungen wie Entfremdung, Hoffnungslosigkeit oder Gier.“ (Ebd.: 24) Hoffnung ist für Fromm sehr viel stärker ein „Gefühl“ bzw. eine „Erfahrung“ als eine rein kognivitive Veranstaltung:

„Hoffen ist ein Zustand des Seins. Es ist eine innere Bereitschaft, die Bereitschaft zu einem intensiven, aber noch unverbrauchten Tätigsein.“

Fromm 1987: 26 (GA IV: ).

Tätigsein heißt freilich nicht, geschäftig zu sein oder bloßen gesellschaftlichen „Erfolg“ zu „haben“. Hoffend tätig sein heißt, das Leben und das (individuelle und kollektive) Wachstum (gerade auch gegen gesellschaftlich erwungenen Erwartungen) zu stärken, gewissermaßen biophil tätig zu sein, wobei hier natürlich unterstellt ist, dass gesellschaftliche Erwartungen falsch sein können. Hoffnung ist so gesehen nicht ein Zustand der „aktiv Hoffenden“, sondern vielmehr der „hoffend Aktiven“. Diese – letztlich – lebensbejahende Hoffnung wird deutlich, indem Fromm seinen Begriff der Hoffnung mit dem Konzept des „Glaubens“ und der „Seelenstärke“ verbindet. Glauben heißt Fromm zufolge die „Gewißheit des Ungewissen“ (ebd.: 28; kursiv i.O.) zu begreifen. Während irrationaler Glaube sich etwas bereits Bestehendem unterwirft (so z.B. jedweder Form von Idolarisierung, etwa einem politischen Führer, einem Nationalismus oder einer anderen Ideologie), verbindet sich der rationale Glaube als „Gewißheit der Vision und des Verstehens“ (ebd.: 28) der Wirklichkeit mit der wirklichen Hoffnung:

„Hoffnung ist die Stimmung, die mit dem Glauben Hand in Hand geht. Ohne eine hoffnungsvolle Stimmung läßt sich der Glaube nicht aufrechterhalten. Nur auf den Glauben kann sich die Hoffnung aufbauen.“

Fromm 1987: 29 (GA IV: )

Doch biophiles Tätigsein, wenn das, was Fromm sagen will, so zu nennen erlaubt ist, benötigt auch „Seelenstärke“ der Menschen. Sie bedeutet die Fähigkeit, „der Versuchung zu widerstehen, Hoffnung und Glaube dadurch zu gefährden, dass man sie in einen leeren Optimismus oder in einen irrationalen Glauben umwandelt“ (ebd.: 29); geschieht dies, sind beide verloren. Diese Seelenstärke zu verfolgen, fordert derjenigen „Furchtlosigkeit“ (ebd.: 30) ab, die es versucht. Dabei meint Furchtlosigkeit weder in irrationaler Weise, „sein Leben zu risikieren“ (ebd.), noch die Furchtlosigkeit dadurch zu erlangen, „sich einem Idol, einem anderen Menschen, einer Institution oder einer Idee symbiotisch zu unterwerfen.“ (Ebd.). Furchtlosigkeit bedeute vielmehr, seine Begierden zu überwinden, „Idole, irrationale Wünsche und Phantasien“ (ebd.) loszulassen, „weil er [oder auch: sie] mit der Wirklichkeit in sich selbst und außerhalb seiner [oder: ihrer] selbst in vollem Kontakt steht.“ (Ebd.) Die „Ehrfurcht vor dem Leben“ (Albert Schweitzer) und die Philosophie des prophetischen Alternativismus stellen uns – Fromm zufolge – vor die Wahl:

„Als wesentliche Eigenschaften des Lebens drängen Hoffnung und Glaube schon ihrer Natur nach über den individuellen wie auch den gesellschaftlichen status quo hinaus. Das Leben hat unter anderem die Eigenschaft, daß es ein ständiger Prozeß der Veränderung ist und keinen Augenblick gleich bleibt. Leben, das stagniert, beginnt abzusterben. Stagniert es völlig, ist der Tod eingetreten. Hieraus folgt, daß das Leben in seiner Eigenschaft als Bewegung dazu tendiert, aus dem status quo auszubrechen und ihn zu überwinden. Wir werden entweder stärker oder schwächer, klüger oder dümmer, mutiger oder feiger. Jede Sekunde ist ein Augenblick der Entscheidung zum Besseren oder Schlechteren. Entweder pflegen wir unsere Trägheit, unsere Gier und unseren Haß, oder wir hungern sie aus. Je mehr wir sie pflegen, um so stärker werden sie; je mehr wir sie aushungern, um so schwächer werden sie.“

Fromm 1987: 31 (GA IV: ); Hervorhebungen i.O.

Menschen können in biophiler Weise folglich nur glaubend und mit begierloser Furchtlosigkeit hoffend tätig sein. Doch warum und wozu sollten sie das können (wollen)? Nachdem Fromm im zweiten Kapitel seines Buches von der „Revolution der Hoffnung“ seinen zum Tätigsein drängenden Begriff von „Hoffnung“ entfaltet hat, widmet er sich im vierten Kapitel des Buches der Frage, was es heiße, „menschlich zu sein“ (ebd.: 74ff.). Dieses Kapitel gibt uns einen begrifflichen Schlüssel dazu, jenes empathische Rätsel aufzuschließen, das Fromm uns im zweiten Kapitel mit seinem Konzept „messianischer Hoffnung“ hinterlassen hat. Welche Menschlichkeit sollten wir wählen wollen? Drehen wir den Schlüssel langsam um!

Wer die Fromm’sche Philosophie eines „Naturalismus“ zeiht – und das tun viele berufene Philosoph:innen immer wieder gerne – , hat ihn entweder nie gelesen oder nicht verstanden. Dabei sind seine Aussagen völlig klar:

„Tatsächlich ist es bis jetzt nicht möglich, eine endültige Aussage darüber zu machen, was es bedeutet, ein Mensch zu sein […]“.

Fromm 1987: 76 (GA IV: )

Daher sind alle Versuche, den Mensch ein für alle Mal wesensartig zu bestimmen, falsch und verkürzt, handelt es sich um die Etiketten eines homo faber, homo sapiens, homo ludens oder auch homo negans, auch wenn einzelne von ihnen Fromm zufolge mal mehr und mal weniger das „Menschliche“ streifen (ebd.: 75f.). Was macht aber nun denn das „Mensch-Sein“ bei Fromm aus, mögen Ungeduldige fragen. Die Antwort ist typisch für Fromm und seine dialektische Denkweise, die sich sowohl einer jüdischen als auch der hegelianischen Tradition verdankt. Die erwähnten „Manifestationen des Menschseins“ (ebd.: 77; Hervorhebung i.O.), d.h. die verschiedenen „homini hominorum“, zeigten, „wie verschieden wir als Menschen sein können.“ (Ebd.; Hervorhebung i.O.) Wo ist der oft Fromm vorgeworfene „Naturalismus“ plötzlich hin? Konstatiert werden muss: es gibt ihn nicht; oder vielleicht doch? Er ist da, aber nicht einfach zu „haben“. Ausgangspunkt seines differenzierten „Menschenbildes“ ist die „Bedingung der menschlichen Existenz“ (ebd.: 78), deren theoretische und ethische Implikationen er in der „Revolution der Hoffnung“ (78-114) fortschreitend resümiert, aber bereits in „Furcht vor der Freiheit“ (182013 [1941]: 24-35) und vor allem in „Den Menschen verstehen“ (92011 [1947]: 39-48 u. 97-188; GA ) in Grundzügen entwickelt hat.2

Die zentrale sozialpsychologische Setzung von Erich Fromm besteht in der Anerkennung der Differenz des Menschen von seinen säugetierartigen „Vorfahren“: nämlich (i) ein „Bewußtsein seiner selbst“ (Fromm 1987: 78; GA IV: ) zu besitzen und (ii) nicht von Instinkten determiniert zu sein. Das erste impliziert die (sichere, gern aber verdrängte) Erkenntnis von der eigenen Endlichkeit und der Gewißheit des eigenen Todes, während das zweite Axiom den Menschen dazu drängt, sich einen „Rahmen der Orientierung“ (ebd: 79) suchen zu müssen, damit er/sie nicht wahnsinnig wird. Denn es gilt:

„Der unter den genannten Bedingungen geborene Mensch würde tatsächlich verrückt werden, wenn er kein Bezugssystem besäße, das es ihm erlaubt, sich irgendwie in der Welt zu Hause zu fühlen und dem Erlebnis äußerster Hilflosigkeit, Desorientierung und Entwurzelung zu entrinnen.“

Fromm 1987: 79 (GA IV: )

Dieser Rahmen der Orientierung menschlichen Denkens, Fühlens und Handelns ist – um die Regulationstheorie zu zitieren – eine „historische Fundsache“ und gerade deswegen durch gesellschaftliche Umstände mitbestimmt, die Fromm im Konzept des „Gesellschaftscharakters“ zu fassen suchte (Fromm 182013 [1941]: 200-215 [GA :]; 92011 [1947]: 51-56 [GA :]). Hiermit schließt Fromm insbesondere an die Marx’schen Frühschriften und dessen Überzeugung an, dass der Mensch ein sozial bedürftiges Wesen ist (Marx‘ Intepretation des Aristotelischen ‚zoon politikon‘). Der Gesellschaftscharakter ist klassenspezifisch bestimmt, kann aber auch gesellschaftsweit gefasst werden (s.a. Bierhoff 1993: 149ff.) und umfasst jeweils „bestimmte Charakterelemente“, die Angehörige einer Klasse (oder sozialen Schicht oder auch ggf. eines sozialen Millieus, um neuere soziologische Konzepte zu verwenden) „gemeinsam haben“ (92011 [1947]: 55 [GA :]). Ihre Identifizierung ist letztlich eine empirische Frage, die Fromm einerseits in seiner psychotherapeutischen Praxis exploriert und dann andererseits in größeren Forschungsprojekten zu erforschen und zu reflektieren versuchte (Fromm 1980; Fromm/Maccoby 1969). Denken, Fühlen, Ideen und Werte des Einzelnen werden – so Fromm in der „Den Menschen verstehen“ vom Gesellschaftscharakter ebenso geprägt, wie dadurch „‚vernünftiges‘ Handeln“ (92011 [1947]: 55 [GA :]) ermöglicht wird. Doch der Individualcharakter ist nicht mit dem Gesellschaftscharakter identisch. Mehr noch: in der Weiterentwicklung psychoanalytischer Überlegungen und Konzeptionen von Sigmund Freud entwickelt Erich Fromm in „Den Menschen verstehen“ eine Typologie verschiedener Charakterorientierungen, die den Individualcharakter und letztlich auch den Gesellschaftscharakter einer Klasse oder einer ganzen Gesellschaft prägen können.3

In der „Revolution der Hoffnung“ thematisiert Fromm diese Charakterorientierungen4 nicht, sondern fordert bloß die Überwindung „primärer Bindungen“ des Einzelnen, also die Überwindung der Bindung „an die eigene Herkunft – an Blut, Boden, Sippe, Mutter und Vater oder in einer komplexeren Gesellschaft an seine Nation, seine Religion oder seine gesellschaftliche Klasse.“ (Fromm 1987: 84; GA IV: ) Die Überwindung primärer Bindung und die Entscheidung für die Alternative „produktiver Bezogenheit“ (Fromm 92011 [1947]: 71ff. [GA :]) zu seinen Mitmenschen ist keine rein pflichtethische Forderung, sondern liege in der Natur des Menschen begründet. Die Fromm’sche Argumentation ist hier keineswegs einfach, sondern setzt die Akzeptanz mancher unorthodoxer Gedanken voraus. Erstens setzt sich Fromm kritisch mit dem Beviorismus auseinander, der behauptet, der Mensch sei unendlich formbar und könne sich jeder gesellschaftlichen Situation anpassen. Wenn dies so sei, so Fromm, sei nicht erklärbar, warum es in der Geschichte permanent zu Revolutionen gekommen sei. Zweitens sei die Reduktion der Bedürfnisse des Menschen auf das (physische) „Überleben“, was der Behaviorismus unterstelle, unzulässig. In Bezug auf die Marx’schen Frühschriften erhebt Fromm die axiomatische Setzung, dass der Mensch auf die anderen Menschen bezogen sein wolle. Und zwar in vielfältiger Hinsicht seiner ganzen menschlichen Möglichkeiten – ein genuin humanistischer Gedanke. Leben ist mehr als „bloßes Überleben“ – daher der Impuls – so ließe sich spekulieren – für Revolutionen und die gesellschaftlichen Auseinandersetzungen:

„Die Dynamik der menschlichen Natur, insofern sie menschlich ist, wurzelt primär in diesem Bedürfnis des Menschen, seine Fähigkeiten, sich auf die Welt zu beziehen, auszudrücken, und nicht in seinem Bedürfnis, die Welt als Mittel zur Befriedigung seiner physiologischen Notwendigkeiten zu benutzen.“

Fromm 1987: 88 (GA IV: )

Das „freie und spontane Tätigsein“ (ebd.: 89) spanne zusammen mit dem Aspekten des Notwendigen eine „Polarität“ auf, die das Denken und Handeln des Menschen strukturiere. Doch diese werde nicht immer erkannt, da der Mensch in einer „gegebenen Gesellschaft“ (ebd.: 90) zunächst überleben müsse und „Dinge“ verdränge, „deren er sich bewußt wäre, wenn sein Bewußtsein nicht von anderen Modellen geprägt worden wäre.“ (Ebd.) Träume, Symbole und alle Arten von Künsten seien Möglichkeiten, sich dieses Verdrängten wieder bewusst zu werden. Worin bestehen nun die spezifisch menschlichen Erfahrungen (und damit auch Möglichkeiten), die eine Bewegung für einen „humanistischen Sozialismus“ stärken sollte und zugleich von ihnen bestärkt würde?

Anmerkungen

1 Die „reflexive Anthropologie“ (Bourdieu/Wacquant 2006) eines Pierre Bourdieu dürfte – nebenbei bemerkt – gar nicht so weit von der Frommschen Vision einer Wissenschaft vom Menschen entfernt sein. Der Habitusbegriff des französischen Soziologen ähnelt in vielerlei Hinsicht dem Frommschen Konzept des Gesellschaftscharakters, wie neuere Forschung herausgefunden hat (Fromm-Forum XXXX).

2 Nebenbemerkung: wenn Fromm die zum Teil auch modifizierende Resümierung vorheriger theoretischer Bausteine gewissermaßen als unproduktive „Wiederholung“ und unter der Hand pejorativ gemeinte „irrende Selbstreferenz“ (so oft Friedman 2013: passim) immer wieder angelastet wird, wird gern mit doppeltem Maß gemessen. So ist doch z.B. die ziemliche ähnliche Praxis von Niklas Luhmann, seine Grundaxiome in jedem seiner Werke als Zeichen systematischen Fortschreibens seiner „Theorie“ reflektierend zusammenzufassen, als Ausdruck systematischen Theoretisierens anerkannt – von Axel Honneths oder auch Jürgen Habermas‘ analoger Methodologie, von Buch zu Buch schrittweise ihre theoretischen Erkenntnisse und Grundüberzeugungen auszubauen, ganz zu schweigen.

3 Die Unterscheidung von „Gesellschaftscharakter“ und „individuelle(m) Charakter“ bei Fromm ist nicht immer klar formuliert. Während der „Gesellschaftscharakter“ durch Assimilierung und Sozialisation (Fromm 92011 [1947]: 54f. [GA :]) die Individuen präge, bleibt eine Differenz nichtsdestotrotz bestehen. Der Individualcharakter geht im Gesellschaftscharakter – und auch anders herum – nicht auf: „Vom Gesellschafts-Charakter getrennt müssen wir jedoch den individuellen Charakter betrachten, durch den sich innerhalb des gleichen Kulturkreises [oder einer Klasse?, KM] ein Mensch vom anderen unterscheidet. Diese Unterschiede gehen zum Teil auf die Unterschiede der Persönlichkeiten der Eltern zurück, zum anderen auf die psychischen und materiellen Unterschiede der besonderen sozialen Umwelt, in der das Kind aufwächst. Aber sie sind auch durch konstitutionelle Unterschiede des einzelnen bedingt, insbesondere durch solche des Temperaments. Genetisch wird die Formung des individuellen Charakters durch die Wirkung bestimmt, welche die aus dem individuellen und kulturellen Bereich erwachsenen Lebenserfahrungen auf das Temperament und die physische Konstitution ausüben. Die gleiche Umwelt ist für zwei Menschen nie dieselbe, weil beide diese Umwelt durch ihre verschiedene Konstitution mehr oder minder verschieden erleben. Bloße Gewohnheiten des Denkens und Handelns, die nur eine Folge der menschlichen Anpassung an kulturelle Vorbilder sind, aber nicht im Charakter wurzeln, können sich unter dem Einfluss neuer gesellschaftlicher Vorbilder leicht verändern Wurzelt dagegen das Verhalten eines Menschen in seinem Charakter, so ist es mit Energie geladen und nur dann veränderlich, wenn ein Wandel in der Charakaterstruktur selbst stattfindet.“ (92011 [1947]: 56 [GA :])

4 Die (Gesellschafts-)Charakterorientierungen werden unterteilt in produktive und nicht-produktive Charakterorientierungen. Fromm unterscheidet in „Den Menschen verstehen“ als nicht-produktive Charakterorientierungen folgende vier (vgl. Fromm 92011 [1947]: 57ff. [GA : ]): (i) die rezeptive Orientierung, (ii) die ausbeuterische Orientierung, (iii) die hortende Orientierung und (iv) die Marketing-Orientierung. Er stellt in diesem frühen Schlüsselwerk zur Typologie von Charakterorientierungen diesen auch Merkmale einer produktiven Charakterorientierung entgegen, deren Kern er vor allem als „produktive Liebe“ und „produktives Denken“ umschreibt (ebd.: 71ff. [GA :]). Die analytische Bedeutung dieser Orientierungen für die theoretische Konstruktion von historisch-spezifischen Gesellschaftscharakteren einerseits und von Individualcharakteren andererseits bleibt etwas im Dunkeln, weil vor allem die nicht-produktiven Charakterorientierungen zum einen – bis auf das Konzept des „Marketing-Charakters“ – an psychoanalytischen, von Sigmund Freund entwickelten Konzepten angelehnt sind und daher im eigentlichen Sinne an die kapitalistische Marktgesellschaft gebunden sind, aber von Fromm gelegentlich als anthropologische „Konstanten“ angesehen werden – auch wenn er diese Begrifflichkeit selbst nicht nutzt. Zum anderen bleibt wegen dieser begriffsgeschichtlichen Anlehnung an die Ausgangskonzepte der auf das Individuum bezogenen Psychoanalye nach Freud das analytische „Fluiditätspotenzial“ zwischen den gesellschaftsweiten bzw. klassen- oder millieuspezifischen Ausprägungen von Charakterorientierungen (also von: Gesellschaftscharakteren) und den in der Psychotherapie zum Reflexionsgegenstand erhobenen Individualcharakteren konzeptionell unterentwickelt. Zum besseren Verständnis der analytischen und empirischen Bedeutung des Konzepts des Gesellschaftscharakters wird auf ihre theoretische Konstruktion und empirische Operationalisierung in den empirischen Studien zurückgegriffen werden müssen. Dies kann hier nicht geleistet werden (s.a. Bierhoff 1993: Teil III).

Hennig Schmidt-Semisch/Friedrich Schorb (Hrsg:/2021): Public Health. Disziplin – Praxis – Politik, Wiesbaden (Springer VS). ISBN 978-3-658-30376-1 ISBN 978-3-658-30377-8 (eBook) https://doi.org/10.1007/978-3-658-30377-8

Manche Bücher reizen zum Widerspruch und wiederum andere sind voller Widersprüche. Beide Aspekte sind keineswegs negativ zu beurteilende Eigenschaften von Büchern, sondern können Ausgangspunkte von individuellen und kollektiven Lernprozessen sein. Der zu besprechende, mit über 500 Seiten und 28 Fachbeiträgen überaus voluminöse Sammelband von den beiden Bremer Soziologen und Gesundheitswissenschaftlern Henning Schmidt-Semisch und Friedrich Schorb zu den disziplinären, praktischen und politischen Aspekten von „Public Health“ verspricht daher, individuelle und kollektive Lernprozesse hervorzubringen. Das liegt nicht nur an den Herausgebern oder Autoren, sondern am Gegenstand selbst, dessen analytische, normative und praktische Greifbarkeit unter den Händen des Sammelbandes für den Lesenden gelegentlich mosaikartig schimmert. Public Health, so die Arbeitshypothese der Herausgeber, stehe in der Tradition der Sozialmedizin oder Sozialhygiene des späten 19. und frühen 20. Jahrhunderts und ziele auf die Bewältigung bzw. Bearbeitung sozialer Ursachen von Gesundheit und Krankheit. Dabei sollen naturwissenschaftliche und sozialwissenschaftliche Perspektiven miteinander in Beziehung, aber keineswegs absolut gesetzt werden. Deren Interaktion ist nötig, um den „tieferliegenden Ursachen für gesundheitliche Ungleichheit“ (Schmidt-Semisch/Schorb: 5) auf die Spur zu kommen. Hiermit stellen sie sich in die sozialkritische Tradition der Sozialmedizin und ihre Neuinstallierung seit den 1980er Jahren in Deutschland. Im fünften Sozialgesetzbuch (SGB V) ist die Reduktion „sozial bedingter sowie geschlechtsbezogener Ungleichheit von Gesundheitschancen“ (§ 20 Abs. 1 Satz 2 SGB V) mittlerweile zum zentralen Ziel von Public Health-Praxis erkoren worden. Public Health ist damit sehr politiknah, was im Sammelband durchaus kritisch erörtert wird.

Doch was ist der gemeinsame Gegenstand des Sammelbandes? Die naheliegende Antwort: „Public Health“ ist keineswegs so einfach greifbar wie man gerne glauben möchte. Denn die die diversen Disziplinen der Multidisziplin Public Health, denen der erste Teil des Bandes gewidmet ist, haben sehr unterschiedliche Blickwinkel, wie Public Health begrifflich gefasst werden kann und welchen Beitrag die diversen Disziplinen leisten möchten. Eine plausible Näherung an die Inhalte von Public Health ist das Forschungs- und Praxisfeld von Krankheitsprävention und Gesundheitsförderung. Während manche Beiträge als „klassische“ Beiträge in einem „Lehrbuch“ über Public Health durchgehen, so etwa die Beiträge zur Geschichte der öffentlichen Gesundheit seit dem 19. Jahrhundert (Brigitte Ruckstuhl und Elisabeth Ryter), zur Bedeutung der Psychologie (Benjamin Schütz), zur Sozialen Arbeit (Bernhard Borgetto und Corinna Ehlers) oder der Bedeutung der ökonomischen Wissenschaft (Christian Jesberger und Stefan Greß) für Public Health, stechen anderen mit neuen (Forschungs-)Perspektiven hervor. Insbesondere die Beiträge von Ruth Müller zum „epigenetischen Körper zwischen biosozialer Komplexität und Umweltdeterminismus“ und von Monika Urban zum „digital turn in Public Health“ bringen neue Perspektiven in die Public Health-Forschung in Deutschland. Auch Bernhard Borgetto und Michael Köhler bringen mit ihrer Verbindung von Pflege- und Therapiewissenschaftlichen neue Farben ins Public Health-Spiel. Anregend ist auch der Versuch von Katharina Böhm, den Beitrag der Politikwissenschaft zur „Public Health Forschung und Praxis“ (41ff.) zu skizzieren, den sie in ihrem Beitrag zur Erklärung politischer Entscheidungen, zur Implementation und Evaluation von Public-Health Politiken und dem Beitrag allgemeiner politischer Trends auf die Gestaltung der Gesundheitspolitik erkennt. Inwiefern die Erklärung gesundheitlicher Ungleichheit jedoch (44ff.) sich einem genuinen Beitrag der Politikwissenschaft verdankt, erschließt sich nicht. Hier sind disziplinäre Bezüge zur Politischen Soziologie, Politischen Ökonomie und Sozialstrukturanalyse, mithin der sozialtheoretischen Verortung der Politikwissenschaft, m.E. noch zu klären. Ihre dezidiert anwendungsorientierte Perspektive auf politikwissenschaftliche Beiträge für Public Health bringt sie dazu, zahlreiche theoretische Beiträge von Politikwissenschaftlern zur Governance von Gesundheitspolitik in OECD-Ländern zu übergehen, obwohl sie doch die Erklärung politischer Entscheidungen im Politikfeld für einen zentralen Gegenstand hält (ebd.: 41f.). Es ist allerdings zutreffend, dass das Politikfeld Public Health – insbesondere in Deutschland – von vielen Politikwissenschaftlern in empirischer Hinsicht marginal betrachtet worden ist, vermutlich weil es sich nicht um „große Politik“ handelte, der sie sich in ihren vergleichenden Studien oftmals widmeten (vgl. international: Blank/Burau/Kuhlmann 2018).

Die Beiträge von Beate Blättner und Marie-Luise Dierks (179ff.) zur bundesweiten „Lehre in Public Health“ und von Petra Kolip und Oliver Raum (195ff.) zu den konstitutiven Bedingungen und Entwicklungen der Interdisziplinarität der Gesundheitswissenschaften an der „Fakultät für Gesundheitswissenschaften an der Universität Bielefeld“ brechen sich ein wenig mit den im ersten Teil thematisierten „disziplinären Grundlagen“ von Public Health und stellen die Lehr- und Forschungszentren der etablierten Public Health-Forschung dar, die nicht nur in der nordrheinwestfälischen Metropole („Bielefeld“), sondern u.a. auch in Hannover und Fulda seit Jahrzehnten mit Erfolg betrieben werden. Man kann den Sammelband von Schmidt-Semisch und Schorb daher auch als – so meine These – kritischen Kommentar zu etablierte(re)n Einführungswerken zu Public Health/Gesundheitswissenschaften lesen, die auf dem Markt verfügbar sind. Das ist keineswegs ein abwertendes Urteil, sondern ganz im Gegenteil ein Plädoyer, dieses kritische Kompendium aus dem hohen Norden (darf man von Traditionslinien einer „Bremer Schule“ sprechen?) als korrigierende oder wenigstens ergänzende Sichtweise anzunehmen. Dieser kritische Impuls zeigt sich auch nicht zuletzt in der Widmung des Bandes an den kurz zuvor verstorbenen Doyen dieser „Bremer Schule“ (so sie es denn gegeben hat), dem Medizinsoziologen und Gesundheits(politik)forscher Rainer Müller.

So ist bei aller Vielfalt der Perspektiven der Aufsatz von Hennig Schmidt-Semisch (65ff., zu „Soziologie und Public Health“) gewissermaßen als programmatisches Leitmotiv des Bandes lesbar. In ihm weist der Bremer Gesundheitswissenschaftler auf eine konstitutive Unterscheidung des US-amerikanischen Medizinsoziologen, Robert Strauss (1957) hin, der eine „‚Soziologie in der Medizin‘ (Sociology of Medicine) und eine ‚Soziologie der Medizin‘ unterschieden“ (Schmidt-Semisch: 65) habe. Selbst wenn die Autorinnen und Autoren keineswegs alle Soziologen sind, kann diese klassifikatorische Bestimmung von Strauss sehr hilfreich sein, die vielfältigen Motive und Herangehensweisen der verschiedenen Beiträge zum Thema „Public Health“ einzuordnen. Die meisten Beiträge im ersten Teil des Sammelbandes zu den „Disziplinäre[n] Zugänge[n]“ zu Public Health sind mit Hilfe der Strauss’schen Klassifikation als „Politikwissenschaft“, „Ökonomie“, Psychologie oder „Soziale Arbeit“ in Public Health zu betrachten. Gefragt wird, welchen Beitrag diese Disziplinen zur – allerdings an dieser Stelle wenig beschriebenen – Praxis von Public Health zu leisten vermögen. Die kaum länger als zehnseitigen Beiträge zu den Disziplinen können die Fragestellungen und Konzepte der Disziplinen nur „anreißen“ und sind nach der bekannten Klassifikation im Anschluss an den Wissenschaftshistoriker und Mediziner Ludwig Fleck mehr als „Lehrbuch“, weniger als umfassendes „Handbuch“ zu betrachten, welches in das Thema „Public Health“ einführt und das disziplinäre Forschungsfeld aus einer kritischen Perspektive darstellt.

Der zweite Teil des Bandes, der sich der Praxis von Public Health widmet, stellt im Wesentlichen auf die Praxis zielende grundlegende Konzepte und vor allem kommunal ausgerichtete Public Health-Strukturen dar. Die beiden Leitthemen dieses Teils sind zum einen die kritische Auseinandersetzung mit Strukturen und Praxen der Prävention und Gesundheitsförderung im deutschen Gesundheitswesen und zum anderen eine Kontroverse um die nicht zuletzt aus dem Bremer Umfeld in die deutsche gesundheitswissenschaftliche Diskussion gebrachte notwendige kritische Evidenzbasierung von Public Health (Gerhardus et al. 2010).

Während Thomas Altgeld die grundlegende Problematik des Präventionsdilemmas nochmals ins Gedächtnis ruft, dass diejenigen Menschen, die am Ehesten von Prävention und Gesundheitsförderung profitieren würden, über die üblichen Wege („Markt“ bzw. „Komm-Strukturen“) keinen Zugang zu diesen haben und dass deswegen eine „integrierte kommunale Handlungskompetenz“ auf diesem Feld eine „zentrale Herausforderung“ (Altgeld: 224) sei, diese Gruppen zu erreichen, skizzieren Peter von Phlipsborn und Karin Geffert (233ff.) grundlegende Konzepte der „Gesundheitsförderung auf Bevölkerungsebene“. Sie kritisieren – zurecht – die neuerdings aus der Verhaltensökonomik kommende Mode des gesundheitsbezogenen „Nudging“ als „liberalen Paternalismus“ (243ff.), der gegen die Autonomieversprechen der „kritischen“ Gesundheitswissenschaft verstoße. Das mittlerweile mit einem Nobelpreis für Ökonomie prämierte Konzept des Nudging – das Schubsen in die „richtige Richtung“ (KM) – manipuliert die intuitiven Verhaltensanreize der Einzelnen und reduziert Gesundheitsförderung auf „gesundes Verhalten“ über den Mechanismus der – für die Stabilisierung von herrschaftlichen Verhältnissen – bequemen Mechanismen der Anpassung des Individuums an die gesellschaftlichen Anforderungen im „neosozialen Sozialstaat“, der den Individuen eine neue „Moralität“ abfordere, wie Stephan Lessenich (2008) stechend herausgearbeitet hat. Seine Anwendung ist zumindest ambivalent.

Peter von Philipsborn und Karin Geffert plädieren statt dieser – erneuten – Individualisierung für einen sozialökologischen Ansatz, der auf verschiedenen Ebenen zur Überwindung des „Präventionsdilemmas“, von dem Thomas Altgeld spricht, ansetzt. Ganz im Stil der altehrwürdigen Ottawa Charta zur Gesundheitsförderung aus dem Jahr 1986 fordern sie eine „politische Anwartschaft“ (von Philipsborn/Geffert: 251) für eine bevölkerungsweite Gesundheitsförderung, deren verhaltensbezogene Inhalte aber dennoch im latenten Konflikt zum herrschaftskritischen Beitrag von Regina Brunnett (411ff.) im dritten Teil des Bandes liegen, die gerade diese von oben herab oktroyierte verhaltenssteuernde Bevölkerungspoliitk als „Biopolitik“ zu entlarven sucht. Zunehmend gestützt auf digitale Apps werde durch New Public Health, also die Regulierung gesundheitlicher Verhaltensweisen, eine „biopolitische Normalisierung“ (Brunnett: 418ff.) für die „spätkapitalistischen Produktionsweisen“ (ebd.: 418) betrieben, die – unter Bezug auf Michel Foucault – als Herrschaftsweise beschrieben und kritisiert wird. Freilich muss man hier keinen antagonistischen Widerspruch entdecken, wenn die Neuausrichtung verhaltensbezogener Bedingungen von Gesundheit partizipativ in der „Community“ der Zielgruppen entwickelt wird, wie Gesine Bär und Ina Schaefer (259ff.) im dritten Beitrag des zweiten Teils einfordern. Eine Spannung zwischen beiden Perspektiven bleibt nichtsdestotrotz erhalten.

Eine für die Methodologie von Public Health zentrale Kontroverse um die Bedeutung und Begründung einer Evidenzbasierten Public Health (EbPH) spannt sich zwischen den drei Beiträgen von Peter von Philippsborn/Eva Rehfuess (303ff.), Ernst von Kardorff (330ff.) und Susanne Hartung (349ff.) auf. Im Wesentlichen handelt es sich – wenn auch unausgesprochen – um die Wiederkehr der Werturteilsdebatte des nimmer endenden Positivismus-Streites in den Sozialwissenschaften, nun aber im Gewand von Public Health. Diese saloppe Umschreibung des Fluchtpunktes der Kontroverse soll keineswegs ihre Bedeutsamkeit schmälern. Ganz im Gegenteil zeigt diese nachdrückliche Permanenz des Themas, dass hier noch keine „Lösung“ in Sicht ist – sofern sie überhaupt erreichbar ist. Die zur Entscheidung anstehende Schlüsselkontroverse dreht sich um die Kernfrage, ob die Methoden und Prinzipien der Evidence Based Medicine auf die populationsbezogene und die Lebenswelten („Settings“) der Menschen berücksichtigende Public Health-(Multi-)Disziplin übertragen werden dürfen. Während Peter von Philipsborn und Eva Rehfuess von der LMU-Universtität (303ff.) in München in einem differenzierten Beitrag begründen, dass dies bei Berücksichtigung methodologischer Vielfalt, fragestellungsbezogener Passung von Methoden und Berücksichtigung partizipativer Inklusion der Betroffenen möglich ist, sieht das Ernst von Kardorff anders. Zwar gesteht er der differenziert-quantitativen Position zu, auf Kritiken reagiert zu haben, aber im – zum Teil – forschungspolitisch motivierten Festhalten an objektivistischen Methodenverständnissen der EbPH sieht er eine Hegemonialisierung von Public Health-Praxis, die aufgrund unterkomplexer Methodenzugriffe bestehende kulturspezifische Bedingungsverhältnisse von Gesundheit / Krankheit einseitig manifestiere und damit bestimmte normative Wertstrukturen stabilisiere. So würden Gesundheitsherausforderungen als Risiken identifiziert, die durch (i) „Prävention und Kontrolle“ (339), (ii) „Individualisierung und Eigenverantwortung“ (339ff.), (iii) „Primärprävention“ und „Identifikation möglicher Krankheitsrisiken“ (342f.), (iv) die gleichzeitige Ausweitung von Gesundheit und Krankheitsdefinitionen (343), (v) digitale Techniken möglich gemachte „transparente Bürger“ (343f.) und (vi) Konstruktion neuer „diagnostischer Kategorien und Klassifikationen“ (344f.) bearbeitet würden. Diese Lösungsstrategien widersprächen dem beanspruchten „Objektivitäts- und Neutralisitätsanspruch von EbPH“ (337), indem – ohne große Partizipation – spezifische Problembearbeitungen vorgegeben würden. Es werden – so ließe sich schlussfolgern – bestimmte (kulturell geprägte) Wertentscheidungen als wissenschaftliche Wahrheit legitimiert. Eine kritische Methodendiskussion reiche folglich nicht aus, es bedürfe auch einer „kritische[n] Selbstreflexion von Public Health“, „den Blick auf die latenten Muster der Wahl ihrer Fragestellungen, Perspektiven und Schwerpunktsetzungen zu lenken“ (346). Public Health als Ideologiekritik?

Kann die „praxisbasierte Evidenz“ (Hartung: 349ff.) als Lösung dieses Dilemmas dienen? Der Ansatz, den Susanne Hartung vorstellt, ist deswegen erfrischend, weil er in seinem Zugriff auf die konkrete „Praxis“ vor Ort einerseits die kulturelle Bedingtheit von krankmachenden und gesunderhaltenden Faktoren akzeptiert und andererseits eine pragmatische, nichtsdestotrotz wissenschaftliche Begründung von evidenzbasierter Public-Health-Praxis zu leisten versucht, ohne künstlich konstruierte Forschungsdesigns aufrechtzuerhalten, die in der Praxis keine Verankerung finden. Im Gegensatz zur EbPH gibt es jedoch noch kein „geeignetes Verfahren“ (356) für die „Praxisbasierte Evidenz“ (PbE). Die partizipative Praxisforschung wird zwar als erfolgversprechende Strategie beschrieben und hat bereits zur Aufstellung der sog. „Praxisdatenbank des Kooperationsverbundes Gesundheitliche Chancengleichheit“ (362) geführt. Es ist m.E. aber durchaus noch ungeklärt, wie das grundsätzliche Dilemma von empirischen Studien, seien sie partizipativ ausgerichtet oder auch nicht, gelöst werden kann, dass die hohe interne Validität zumeist mit einer schwächeren externen Validität der Studienergebnisse einhergeht. Übersetzt in verständliche Prosa ist damit das Dilemma gemeint, dass jedwede Studienergebnisse zunächst einmal für die Studienpopulation gelten und die Übertragbarkeit auf andere Kontexte und Studienpopulationen, also ihre Generalisierung, nicht so einfach zu begründen und zu rechtfertigen ist. Obwohl die PbE dies zurecht an den kulturindifferenten Studien der (quantitativen) EbPH kritisiert, bleibt methodologisch m.E. bislang unklar, wieso die kultur- und kontextspezifischen Studienergebnisse – Hartung spricht hier von einem „best practice“ (364) – eine höhere externe Validität haben sollten, immerhin sind ihre Ergebnisse ja „kontextspezifisch“ gewonnen worden. Eine stärkere Generalisierung wäre nur möglich, sollten sich gleich gerichtete Praxisbedingungen identifizieren bzw. herstellen lassen. Der partizipatorische Ansatz umschifft dieses methodologische Problem geschickt; er behauptet, ganz im Sinne der befreiungstheologischen Tradition der Ottawa-Charta, die Betroffenen selbst wüssten, wie sie die Probleme angehen könnten. Die methodologische Kontroverse kann hier nicht entschieden werden, doch es mag etwas Wasser in den partizipatorischen Wein geschüttet werden, denn Partizipation allein gebiert noch keine effektiven Strategien. Das gesteht auch Susanne Hartung zu, wenn sie auf die Bedeutung von Datenbanken und wissenschaftlichen Erkenntnissen Bezug nimmt, an denen sich die partizipative Forschung orientieren solle. Im Wesentlichen erscheint PbE daher als der sich auf qualitative Forschungsansätze stützende Strang der Public Health-Forschung. Das gesellschaftspolitische Dilemma der Kontroverse um die (vermeintliche) Wertneutralität von EbPH oder auch PbE vermag er m.E. aber nicht aufzuheben. Diese Aufhebung erfordert letztlich eine politische Entscheidung über Werte, Programme und Maßnahmen, womit wir zum abschließenden Teil kommen.

Besonders lesenswert i- und deswegen soll ihm auch ausführlich Beachtung geschenkt werden – st gerade wegen der methodologischen Debatte zum Ende des vorherigen Teils der dritte, abschließende Teil des Bandes, der unter dem Titel „Das Verhältnis von Public Health und Politik“ (393-540) zum eigentlichen Thema des Sammelbandes vordringt. „Krankheit ist ohne Politik nicht heilbar“ (Deppe 1987), heißt ein Klassiker der Medizinsoziologie. „Gesundheit für alle ist ohne Politik nicht erreichbar – so die konstruierte Analogie des Rezensenten als heimliches Motto des gesamten Sammelbandes. Welchen Bezug zur Politik hat aber nun Public Health als Disziplin und Praxis? Wer nun eine konsistente Position erwartet hätte, wird enttäuscht, wenn auch bei einem Sammelband eine solche ernsthaft nicht erwartet werden kann. Es zeigt sich vielmehr, dass die Multidisziplin Public Health auch hier bei der Frage des Bezugs zum „Politischen“ wieder zum Tragen kommt. Die Beiträge fokussieren nicht nur aus einer wissenschaftstheoretischen Perspektive (analytisch, deskriptiv, erklärend, normativ) sehr unterschiedlich auf das Verhältnis von Public-Health-Wissenschaft und entsprechender Politik; sie gehen auch von zum Teil diametralen sozialtheoretischen und sogar disziplinären Zugängen auf das Verhältnis von Politik und Public Health zu.

Der renommierte Gesundheitswissenschaftler und Gesundheitspolitikforscher Thomas Gerlinger (393ff.) skizziert in seinem wissenschaftssoziologisch orientierten Beitrag das Politikfeld „Public Health“ im Hinblick auf die Strukturen und interessens- und wissensgetriebenen Akteure der Politikberatung sowie das Verhältnis von Politik und der Wissenschaft „Public Health“. Trotz vielfältiger Typen, Formen und Akteuren der institutionalisierten Politikberatung (ebd.: 394ff.) zeichneten sich „Politik“ und „Wissenschaft“ als eigenständige institutionalisierte Systembereiche (ebd.: 399ff.) durch unterschiedliche „Handlungslogiken“ (ebd.: 408) aus. Das hielt individuelle Akteure während der Corona-Pandemie aber nicht davon ab, zwischen den Bereichen hin und her zu changieren, sich auf beiden Feldern zu bewegen und damit die Grenzen zu verwischen (ebd.: 407; der Sammelband wurde offenbar Ende 2020 redaktionell abgeschlossen). Handlungslogiken und (kognitive) Perspektiven der beiden Bereich verschränken sich dabei notwendigerweise, denn Politik will wissenschaftliche Legitimation und Wissenschaft politisches Handeln zur Umsetzung von „Lösungen“ nutzen. Die Folge ist – wie Gerlinger in Anlehnung an den Wissenschaftssoziologen Peter Weingart (2001) formuliert -, „dass in modernen Gesellschaften Wissenschaft ihren Nimbus als neutrale, allein der Wahrheit verpflichtete Instanz eingebüßt hat.“ (Ebd.: 406) Dass jedoch dieser Anspruch in modernen Gesellschaften nicht verschwunden ist, zeigte sich ebenfalls in der Corona-Pandemie, wo sich jedoch auch die „häufige Widersprüchlichkeit und Uneindeutigkeit wissenschaftlicher Befunde einerseits, die Politisierung der Wissenschaft andererseits“ (ebd.) offenbart hat. Die aufgrund der Unklarheit wissenschaftlicher Befunde oft zu konstatierende geringe „Passfähigkeit“ (KM) wissenschaftlicher Erkenntnisformen und politischer Entscheidungen führe auf dem Feld von Public Health zu erheblichen „Hindernissen“ einer eindeutigen „Empfehlung“ (ebd.: 404ff.) – eine ernüchternde, aber notwendige Relativierung wissenschaftlicher Objektivitätsphantasien. Im Endeffekt kommt es – so könnte vermutet werden – unter Umständen zu einer transformatorischen Symbiose von „Politik“ und „Wissenschaft“, welche eine Entdifferenzierung beider Subsysteme zur Folge haben könnte. Eine Entwicklung, die Thomas Gerlinger in Anlehnung an den Bremer Soziologen Uwe Schimank (2012) nicht ganz von der Hand weisen will, wenn er dessen Befürchtungen zitiert; auch der zitierte Peter Weingart (2001) ist sich der Trennschärfe beider Bereiche nicht mehr so sicher.

Aufgrund dieser skeptischen Gesamtsicht überrascht es nicht, dass einige Beitrage des dritten Teils eine scharfe Kritik an vorherrschenden Trends der politischen Praxis von Public Health üben und – über die Erkenntnisse des zweiten Teils hinaus – sogar normative Entwürfe einer Public Health Policy oder wenigstens Ansatzpunkte benennen, an denen ein normativer Entwurf ansetzen sollte. Aus einer kritischen Position, die sich an Michel Foucault bzw. der sog. Social-Control-Schule der Medizinsoziologie (Gerhardt 1989) anlehnt, etwa kritisiert nicht nur der bereits erwähnte Aufsatz von Regina Brunnett (411ff.) die zunehmende „biopolitische Normalisierung“ von Lebensstilen. Auch Bettina Schmidt (426ff.) kritisiert die oft den Klienten von Prävention und Gesundheitsförderung, und das bedeutet vor allem den „unter Risiko“ stehenden Menschen, abgeforderte Anpassung an gesellschaftliche Anforderungen, die sie oft aber aufgrund mangelnder begünstigender Verhältnisse nicht wahrnehmen können. Sie unterstreicht zurecht, dass das Hauptziel der Menschen nicht sei, eine optimale Gesundheit zu erreichen, weshalb bisweilen erfolgende gesellschaftliche Anforderungen auf alleinige individuelle Verhaltensänderungen auch als „Herrschaftsinstrument“ zu betrachten seien – der „neosoziale Sozialstaat“ (Lessenich 2008) lugt hier erneut durch. Die einzig sinnvolle und lebenspraktische Strategie sei ein „gesundheitliche[s] Durchwursteln“ (Schmidt: 435), weshalb auch verhältnispräventive Maßnahmen (z.B. Fahrbahnschwellen vor Schulen, Gurtpflicht oder auch Lebensmittelhygiene) die Menschen dafür entbinden würden, ständig an „ihre“ Gesundheit zu denken. Sie sieht in der (nicht weiter bestimmten) „Benutzerfreundlichkeit“ ein „protektives Potenzial“ (ebd.: 437), zu dass auch die Methode des „Nudging“ (ebd.) gehören würde. Hier wird ihre kritische Abgrenzung von Verhaltensansätzen und Verhältnisansätzen in der Public Health Politik allerdings unscharf; denn Nudging zielt eindeutig auf (sozial erwünschte) Verhaltensänderungen. Die These, „Public Health-Profis“ würden zu „den Eliten einer Gesellschaft“ gehören und seien daher „dem Gemeinwohl verpflichtet“ und sollten darüber hinaus „politische, wirtschaftliche und wissenschaftliche Entscheidungsträger stärker als bisher als Zielgruppen für Gesundheitskompetenz-Programme adressieren“ (ebd.), ist normativ stark aufgeladen und trägt den durchaus ambivalenten Geruch eines „liberalen Paternalismus“ an sich, den von Philipsborn und Geffert (243f.) im zweiten Teil mit dem Konzept des Nudging verbunden haben. Schmidt suggeriert hier – unter Rückgriff auf funktionalistische Argumentationsmuster – als müssten Public Health-Experten sui generis am „Gemeinwohl“ orientiert sein (was immer das ist). Unterstellt ist dabei also genau eine solche wissenschaftliche Einheitlichkeit, die nötig ist, um zum politischen Feld Zugang zu erhalten, den Gerlinger doch als so schwierig gekennzeichnet hat, weil sich die Public Health-Forschung selbst bzgl. vieler Fragen nicht einig ist. Doch Public Health ist kein System kohärenter Wissenschaft, sondern – gerade in der engen Verquickung mit Politik – vielmehr in höchst disparate gesellschaftliche Diskurse eingebettet. Sie ist mehr ein Austragungs- bzw. Entscheidungsort für notwendig erachtete Public Health-Intervention als eine Sammlung fest etablierter Maßnahmen zur Prävention und Gesundheitsförderung. Daher ist Bettina Schmidts in Anlehnung an Babitsch (2019: 12) gestellte Forderung, Public Health Experten sollten „kritische Wächter“ sein und „herrschenden Vorstellungen“ (Schmidt: 437) gegenüber kritisch sein, sympathisch, aber bloß normativ und in der Praxis zweifellos strittig. Es fehlt hier ein Begriff von „Herrschaft“, der Richtung und Zielgruppen der kritischen Wacht angibt, um die es bei dieser geht.

In dem Beitrag von Raimund Geene (443ff.) werden die Potenziale und Limitationen von Health-in-All-Policies (HiAP) untersucht. Dabei handelt es sich um ein klassisches (normatives) Konzept der Weltgesundheitsorganisation (WHO), welches darauf drängt, gesellschaftliche Determinanten von Gesundheit / Krankheit in allen relevanten Politikfeldern zu reflektieren und entsprechend zu beeinflussen. Nach einer Skizze von finnischen Erfolgsbeispielen (v.a. in „Nordkarelien“) der Umsetzung einer solchen widmet er sich für den weiteren Verlauf seines Beitrags der Frage, was aus der Public Health-Strategie zur HIV-Prävention und Gesundheitsförderung der 1980er Jahre für den Umgang mit der Covid-19-Pandemie zu lernen ist. Er ist bzgl. der hier verfolgten Strategie der „Infektionsvermeidung“, die bis zur Zulassung von Impfstoffen in der Bekämpfung der Covid-19-Pandemie vorherrschte (und vor der die Endredaktion des Bandes stattfand), sehr kritisch. Unter Bezugnahme auf ein Papier einer hochrangigen Gruppe von Wissenschaftlern und Praktikern um Prof. Matthias Schrappe (et al. 2020), einen ehemaligen stellvertretenden Vorsitzenden des regierungsberatenden Sachverständigenrates zur Begutachtung der Entwicklung Gesundheitswesen (SVR-Gesundheit), weist er auf die paradoxen Folgen dieser Strategie hin, dass nämlich durch diese Strategie „die vulnerablen Gruppen mit degenerativen, chronischen oder anderen Vorerkrankungen […] einer fortlaufenden Bedrohung“ (Geene: 448) ausgesetzt würden. Im weiteren Verlauf plädiert er dafür, die partizipatorischen Elemente der erfolgreichen AIDS-Prävention auf die Covid-19-Problematik zu übertragen. Zu diesem Zweck hat sich auch das „Kompetenznetz Public Health zu Covid-19“, ein Zusammenschluss aus über 25 wissenschaftlichen Fachgesellschaften, etabliert. Die in der Pandemie zu beobachtende „Solidarität mit vulnerablen Gruppen“ (ebd.: 452) sei ein guter Ansatzpunkt und ermutigend für eine Etablierung einer umfassenden HiAP-Strategie in Deutschland. Trotz der zweifellos hohen Bedeutung von HiAP für eine Publich Health Policy kann Geenes Beitrag nicht richtig überzeugen. Denn erstens steht die im hinteren Teil herausgehobene hohe Solidarität mit vulnerablen Gruppen in einem gewissen Spannungsverhältnis mit den zu Beginn geäußerten Kritiken an der Strategie der „Infektionsvermeidung“, die ja gerade – in dieser Argumentationslogik – die vulnerablen Gruppen schädigte. Aber selbst wenn zugestanden wird, dass nur die Strategie falsch war, die vorhandene Solidarität also wirklich fassbar blieb, ist – zweitens – eine Übertragung der AIDS-Präventionsstrategie auf die Covid-19-Pandemie etwas fragwürdig. Denn bei Covid-19 handelt es sich um eine schwere Atemwegserkrankung, die durch Aerosole übertragen wird, während das AIDS-auslösende HIV-Virus vor allem über kontaminiertes Blut und manche Körperflüssigkeiten weitergegeben wird. Es wäre schon etwas mehr Differenzierung nötig, die AIDS-Präventions-Strategie auf die Situation der Covid-19-Pandemie zu übertragen. Grundsätzlich erblickt Geene trotz einiger Imitationen des HiAP-Ansatzes, die insbesondere in der „sozial ungleich“ verteilten „Krankheitslast“ (ebd.: 453) bestünden, Potenziale. So könne der universelle Charakter einer „potenzielle[n] Gesundheitsbedrohung“ (ebd.: 454) – wie eben auch Covid-19 – zu einer gesellschaftlichen Anstrengung führen, HiAP gewissermaßen im großen Stil einzuführen.

Zwei weitere Beiträge des dritten Teils setzen sich explizit mit den Public-Health-Implikationen der Covid-19-Pandemie zu diesem frühen Zeitpunkt (und noch ohne die Option der Impfung) auseinander. Joachim Larisch (513ff.) wagt den (frühen) Versuch, Aspekte internationaler Gesundheitszusammenarbeit während des „‚Corona’-Ausnahmezustand[s]“ (ebd.: 513) zu erörtern. Eine europäische oder gar globale Zusammenarbeit habe in den ersten Monaten der Covid-19-Pandemie nicht stattgefunden. WHO-Empfehlungen spielten bei der Lockdown-Entscheidung in Deutschland keine Rolle (ebd.: 519). Zeitaktuell betrachtet sind jene Empfehlungen – „lokale und regionale Ermittlung infizierter Personen, ihre Isolierung zur Unterbrechung von Infektionsketten und ihre medizinische Behandlung sowie die Identifizierung und gegebenenfalls Isolierung von unmittelbaren Kontaktpersonen im Mittelpunkt der Maßnahmen“ (ebd.) – laut Larisch nicht angewandt worden, sondern stattdessen panikgetrieben ein allgemeiner Lockdown durchgeführt worden. Er hält den „temporären (vollständigen) ‚lock down‘“ (ebd.: 520) für nicht sachgemäß und insbesondere werde der Verzicht auf „nicht pharmazeutische Interventionen“ (ebd. 521) – zumindest – auf globaler Ebene bald „Verteilungskämpfe“ um Impfstoffe u.Ä. hervorbringen (ebd.). Während diese Einschätzung zweifellos zutrifft und prophetisch anmutet – wenn auch kaum überraschend ist -, hält der Rezensent die unterstellte Missachtung der WHO-Empfehlungen bei der deutschen Anti-Covid-19-Maßnahmen für einen schlecht recherchierten Mythos. Dass diese Empfehlungen aufgrund verschiedener Implementationshindernisse (u.a. fehlende Digitalisierung und Personalmangel) nicht flächendeckend umsetzbar gewesen sind (und insbesondere die pauschale Einschränkung der Reisefreiheit dem Völkerrecht widersprochen hat), mag sein, bedeutet aber noch lange nicht, dass die WHO-Empfehlungen in toto nicht beachtet wurden. Daher ist auch die Auffassung, eine „solide, evidenzbasierte Basis für den Ausnahmezustand“ (ebd.: 518f) habe in Deutschland nicht bestanden, zumindest missverständlich. Die naheliegende Frage, ob daher aber der Lockdown nicht nötig war, lässt der Autor – glücklicherweise ? – offen. Zweifellos stimmt es, dass aufgrund erheblicher Defizite im Öffentlichen Gesundheitsdienst das „oberste Ziel der Maßnahmen die Verlangsamung des Anstiegs der Infektionen“ (ebd.: 517) zur Sicherung der Zugänglichkeit der „Kapazitäten der stationären gesundheitlichen Versorgung“ (ebd.: 520) qua Lockdown war. Larisch plädiert zukunftsgerichtet dafür, deren prioritäre Inanspruchnahme durch Covid-19-Patient:innen nicht zum Standardansatz zu machen, schon gar nicht weltweit, denn dann würden „die Behandlungsmöglichkeiten von Patienten mit anderen Erkrankungen“ und „die globalen Anstrengungen zur Bekämpfung anderer Infektionskrankheiten wie z.B. Malaria, HIV, Tuberkulose und Masern“ (ebd.: 521) reduziert. Ein sinnvoller Reflexionsbeitrag zur vorherrschenden Strategie der Pandemie-Bekämpfung. Insgesamt legt die Pandemie eine internationale (globale und europäische) Koordination nahe, „auch wenn die gegenwärtigen politischen Entwicklungen nicht optimistisch stimmen.“ (Ebd.: 522) Der dramatisierende Schlusssatz des Beitrags: „Nicht immer wächst angesichts der Gefahren das Rettende auch“ (ebd.), steht freilich in merkwürdigem Kontrast zur anfänglichen These einer unzureichenden Evidenzbasierung für den allgemeinen Lockdown in Deutschland, wenn damit nicht nur die mangelnde Datenbasis gemeint ist. Sinn ergibt der Schlusssatz nur in Bezug auf die strukturell mangelhafte internationale Kooperation zwischen Industrie- und Entwicklungsländern vor, während und nach der Covid-19-Pandemie. Die Perspektive von Global Public Health ist folglich immer noch nicht rosig.

Die beiden Herausgeber, Friedrich Schorb und Hennig Schmidt-Semisch, widmen sich in ihrem Beitrag zum Ende des Bandes (525ff.) einem heiklen, aber medizinsoziologisch klassischen und – im Angesicht der Debatte(n) um eine universelle Impfpflicht – überaus aktuellen Thema, nämlich Aspekten der „Punitivität im Kontext der Covid-19-Pandemie“ (ebd.: 525). Krankheit und Kriminalität sind auf den ersten Blick – so die Autoren – unterschiedliche Phänomene, die auch unterschiedlich gesellschaftlich reguliert werden. Doch so einfach scheint es nicht zu sein. Denn das verschämte Pendant zur „Klassenjustiz“ ist – wie sie historisch mit Bezugnahme auf einen aufklärerischen utopischen Roman von Samuel Butler („Erewhon or Over the Range“) – die „Punitiivität“ von Erkrankten, die „selbst dran schuld“ (Schmidt-Semisch 2000) sind. Doch das ist eigentlich nicht ganz modern. Denn die „Zuschreibung von Verantwortung“, wie sie unter Bezug auf die Kriminologie feststellen, ist bei beiden recht unterschiedlich: „Der Kriminelle wird für ein gewolltes Handeln zur Rechenschaft gezogen, dem Kranken aus einem ungewollten Zustand, an der er selbst leidet und aufgrund dessen ihm sein abweichendes Verhalten für eine gewisse Zeit nachgesehen wird, herausgeholfen; der Kriminelle wird bestraft“, so zitieren Schorb und Schmidt-Semisch (527) den Kriminologen Hess (1983: 15) , „der Kranke behandelt“. Doch die Grenzen verschwimmen seit einiger Zeit zwischen beiden Kategorien, vor allem wegen mehr medizinischen Wissens, das Behandlungen vielfältiger „Risiken“ verspricht und wegen der Anforderung nach „Eigenverantwortung“ in einer fiskalisch restringierten Kranken- und Gesundheitsversorgung. Es bildet sich eine sozial normierte Moral heraus, die eine „individuelle Pflicht zur Gesundheit“ (Schrob/Schmidt-Semisch.: 528) begründet – der „neosoziale Sozialstaat“ (Lessenich 2008) grüßt erneut. Kranke werden als „‚tatverdächtig‘“ betrachtet „‚aufgrund ihrer mangelnden Anstrengungen zur gesundheitlichen Selbstoptimierung‘“ (Schmidt 2010: 31, zit. n. Schorb/Schmidt-Semisch: 528) getrieben. Das galt vor der Pandemie bereits für manche chronisch Erkrankte und in der Pandemie nun auch für viele Menschen, unter ihnen Covid-19-Infizierte, Kontaktpersonen oder auch ansonsten Unbescholtene, aber mit Präventionsmaßnahmen Überzogene. Die „Punitivität“ der Maßnahmen zur Eindämmung der Covid-19-Pandemie ist Schorb und Schmidt-Semisch zufolge zudem durch eine soziale Schieflage geprägt. Nicht nur gehören sozial Benachteiligte zu den am stärksten Gefährdeten, auch die „wirtschaftlichen Folgen der Infektionsschutzmaßnahmen“ (ebd.: 532) treffen sie besonders stark (prekäre Beschäftigung, geringes Einkommen, fehlende Kinderbetreuung etc.). Doch hier stoppt die Bedeutung der „soziale[n] Frage“ (ebd.: 531) in der Pandemie noch nicht. Die vielfach durchgesetzte und bis in den Mainstream der Wissenschaft höchst umstrittene, mittlerweile weitgehend für falsch gehaltene, „Schließung von Bildungseinrichtungen“ (ebd.: 532) verringert die sowieso schon schlechten Bildungschancen sozial niedrig gestellter Schichten. Zudem zeigte sich, dass gerade in ärmeren Vierteln von Großstädten die Lockdowns besonders rigide überwacht wurden. Das bekannte Hochhaus in Göttingen ist ein trauriges deutsches Beispiel dafür. Ist das alles aber nun nur „Punitivität“ oder unvermeidbare Begleiterscheinung eines notwendigen öffentlichen Gesundheitsschutzes? Schorb und Schmidt-Semisch geben keine endgültige Antwort. Die Nutzung von digital gesteuerten Überwachungssystemen in China, die sie beschreiben (ebd.: 535f.), und die Debatte um einen „Immunitätsausweis“ (ebd.: 536), der die Bewegungsfreiheit in Gesellschaften regulieren, seien – wie mittlerweile in der 3. und 4. Welle für alle EU-Bürger:innen erfahrbar gewesen – kategorial als Punitivätsmaßnahmen einzuordnen. Ob es zu diesen eine Alternative gegeben habe, lassen die Autoren leider offen. Einen Hinweis auf die vermeidbaren staatlichen „Bestrafungsstrategien“ (KM) deuten sie zum Schluss ihres Beitrags an, wenn sie – völlig zutreffend – darauf hinweisen, dass die Covid-19-Eindämmungspolitik sich vor allem an individualisierenden Präventionsmustern orientiert: „Sanktioniert und problematisiert werden in erster Linie individuelle Verhaltensweisen, während strukturelle Risiken (etwa die Zustände in Massenunterkünften, Lagerhallen, Paketzentren oder Schlachthöfen) weitgehend akzeptiert werden.“ (Ebd.: 537)

Dass die harschen Maßnahmen zur Eindämmung der Corona-Pandemie auch mit strukturellen Problemen im Gesundheitswesen zu tun haben könnten, zeigen – wenn auch leider mehr implizit als explizit – Benjamin Wachtler und Nadja Rakowitz (475ff.) vom Verein demokratischer Ärztinnen und Ärzte (VdÄÄ) in ihrem Beitrag zum Zusammenhang von Ökonomisierung des Gesundheitswesens und Public Health. Zunächst schelten sie die forschungsstarke Public Health-Wissenschaftlergemeinde dafür, dass deren Protagonisten das „Prinzip der Parteilichkeit“ (ebd.: 478), das historisch von Anfang an bei der Sozialmedizin und auch noch der kritischen Public Health-Bewegung der 1960er und 1970er Jahre vorhanden gewesen sei, aufgegeben hätten. Nach Lektüre dieses Bandes kann eine solche pauschale Schelte freilich nur überraschen, sind doch allenthalben Strategien und Prinzipien der Anwaltschaft und Partizipation von Betroffenen und Klienten eingefordert. Public Health ist vom Anspruch her durchaus sozialkritisch angelegt. Etwas substanzieller wird das Argument dort, wo der Autor und die Autorin sich in Anlehnung an die – tatsächlich großartige – Tradition der Politischen Ökonomie des Gesundheitswesens anlehnen und die von „gesellschaftlicher Ungleichheit negativ Betroffenen, Benachteiligten, Ausgebeuteten und Unterdrückten“ (ebd.) als ihre Zielgruppe identifizieren. Hiermit machen sie natürlich ein großes Fass auf und unterstreichen – zurecht allerdings, wie der Rezensent meint -, dass gesundheitliche Ungleichheit und soziale Determinanten von Gesundheit und Krankheit stärker in den Forschungsfokus und die Public Health-Praxis gesetzt werden sollten. Insbesondere wird der Bericht der sog. Commission on Social Determinants of Health der Weltgesundheitsorganisation (WHO) aus dem Jahr 2008 hervorgehoben, der – geleitet von dem renommierten britischen Arzt und Sozialepidemiologen Sir Michael Marmot – sogar das „Konzept des ‚sozialen Mordes‘ von Friedrich Engels wieder aufgreift“ (Wachtler/Rakowitz: 486), ohne jedoch – so ihre Kritik – zu sagen, „wer die Verantwortung für diese ‚sozialen Morde‘“ (ebd.) trage. Doch auch sie sagen es nicht explizit, dabei ist wohl klar, welchen Mechanismus sie meinen: es ist „der“ Kapitalismus. Nun ist unbestritten, dass „der“ Kapitalismus, d.h. seine institutionell und historisch stets spezifischen Produktions- und Reproduktionsmechanismen, soziale Ungleichheit hervorbringt. Freilich schießt ihre Kritik ein wenig über das Ziel hinaus, wenn diese radikale Sichtweise aus den USA unbesehen und unbegründet in das wohlfahrtsstaatlich weitaus stärker geprägte Europa übertragen wird. Die Argumentation ist hier eher apodiktisch denn argumentierend und es bedürfte weiterer Argumentationsschritte, die tatsächlich zunehmende soziale (und gesundheitliche) Ungleichheit in Nordamerika und Europa zu erklären. Dies ist nötig und möglich, aber sie unterlassen es.

Der Abschnitt über die „Ökonomisierung der Gesundheitsversorgung“ (Wachtler/Rakowitz: 479ff.) zeigt hingegen, dass die „Wendung zur neoliberalen angebotsorientierten Politik seit den 1980er Jahren“ (ebd.: 480) das eigentliche Übel ist. Wobei der Begriff des „Neoliberalismus“ ziemlich unklar bleibt; auch hier wäre etwas mehr theoretische Erläuterung und begriffliche Präzision wünschenswert gewesen. Die Beschreibung von Ökonomisierungstendenzen in der ambulanten Medizin und vor allem im Krankenhaussektor hingegen überzeugt durch die zugespitzte Beschreibung von Steuerungsmechanismen, die u.a. bewirken, dass Krankenhäuser nur ökonomisch rational handeln, „wenn sie einerseits ihre Einnahmen steigern, was sie nur durch höhere Fallzahlen erreichen können, und andererseits ihre Kosten senken; also sparen sie vor allem am Pflegepersonal“ (ebd.: 482). Die Vermeidung der Überlastung der stationären Versorgung als oberstes Ziel der Pandemie-Politik, im Übrigen nicht nur in Deutschland, welches OECD-weit, neben Japan, die meisten Krankenhäuser (pro Einwohner) hat, begründet sich auch aus dem hausgemachten Mangel an Pflegepersonal, der im weiteren Verlauf der Pandemie zum großen Problem geworden ist. Was freilich irritiert am Beitrag von Wachtler und Rakowitz ist die unzureichende Behandlung des „Kerngeschäfts“ von Public Health, von Prävention und Gesundheitsförderung. Hiermit stellt sich ihr durchaus lesenswerter Artikel etwas quer zur Systematik des Sammelbandes. Dabei ist auch in Prävention und Gesundheitsförderung eine manifeste Ökonomisierungstendenz auf einem sozialen Wohlfahrtsmarkt zu beobachten (Mosebach/Walter 2021: 115ff.).

Public Health ist eine normative Wissenschaft, die – trotz der Kritik von Wachtler und Rakowitz – auch Partei ergreift. Strittig ist höchstens, für wen und mit welchen Mitteln und Erwartungen Partei ergriffen wird. Die Beiträge von Rainer Müller und Joachim Larisch einerseits und von Uwe H. Bittlingmayer, Florian Schumacher und Gökcen Yüksel andererseits versuchen nun tatsächlich diese Normativität und Parteilichkeit sozialtheoretisch auszubuchstabieren. Rainer Müller und Joachim Larisch (459ff.) versuchen die Diskurs- und Demokratietheorie Jürgen Habermas und Bernhard Peters (460ff.) mit ökonomischen Konzepten von Public Health als einem „öffentlichen Gut“ (465ff.) zu verbinden. Normativ wird dabei Gesundheit verstanden „als Entwicklung und Sicherung des Humanvermögens im Lebenslauf“, welches die „gesundheitswissenschaftliche(r) Forschung und Praxis“ (Müller/Larisch: 469) anleiten solle. Gesundheitswissenschafltiche Interventionen zur Stärkung des Humanvermögens (nach Franz Xaver Kaufmann, 2009) sollten den (i) rechtlichen Status, (ii) die Einkommensverhältnisse, (iii) die materielle und soziale Umwelt und (iv) die Handlungskompetenz verbessern (ller/Larisch: 470). Wie diese Maßnahmen jedoch im Verhältnis stehen zum Konzept der „politischen Öffentlichkeit“, insbesondere auch ihrer digitalen Konstitution und warum und wie die „transdisziplinäre ‚konzertierte Aktion‘ der beteiligten Fachdisziplinien“ von Public Health aussehen müsste, um „diese Herausforderungen“ (ebd: 471) zu bewältigen, bleibt nicht nur offen, sondern wird im Text gar nicht thematisiert. Viele offene Fragen stehen im Raum, die gerade im Artikel von Wachtler und Rakowitz angerissen werden. Wie lässt sich in dem normativen Rahmen von Müller und Larisch die Herausforderung sozialer Ungleichheit und gesellschaftlicher Dynamiken und Desintegrationsprozesse integrieren, die Jürgen Habermas mit seiner kritischen Theorie der Öffentlichkeit zumindest andenkt? Viele argumentative Linien und Brüche zeigen sich im Text und die Antworten fallen aus. Insofern kommt der Text über eine bloße sozialtheoretische Skizze nicht hinaus und erfordert noch eine große begriffliche Anstrengung, um eine kohärente normative Theorie begründen zu können. Möglicherweise hat der plötzliche Tod des diese Gedanken mutmaßlich initiierenden Erstautors (Rainer Müller), dem dieser Band gewidmet ist, eine fruchtbare Weiterentwicklung des Beitrags verhindert.

Zurück zu den sozialtheoretischen Wurzeln der Kritischen Theorie eines Max Horkheimer gehen dagegen Uwe H. Bittlingmayer, Florian Schumacher und Gökcen Yüksel (493ff.) mit ihrem Vorschlag, eine normative Theorie von Public Health als eine „Neuauflage des interdisziplinären Materialismus“ (ebd.: 493) im Sinne einer gesundheitsbezogenen „Gerechtigkeitstheorie“ zu begründen. Ihr ambitionierter, gut lesbarer und kritisch-reflektierter Beitrag zielt darauf ab, jenseits von „Kapitalismusforschung und Herrschaftsanalyse“ (ebd.: 508) eine „theoretische Analyse und empirische Bestimmung der Gesundheits-, Autonomie- und Freiheitsgrade von Gegenwartsgesellschaften“ (ebd.) zu entwickeln, um entsprechend gerechte Gesellschaften zu ermöglichen, in denen – so möchte der Rezensent es fassen – ein sozial gerechtes und selbstbestimmtes gesundes Leben aller möglich ist. Dies ist den Autoren zufolge keine „Phantasmagorie“ (ebd.: 506) und auch kein „Universalschlüssel zur Gesellschaftskritik“, sondern ein theoretisches und empirisches Arbeitsprogramm zur Revitalisierung kritischer und auch konstruktiver Gesundheitswissenschaft. Sie knüpfen einerseits an verschiedene kritische Zeitdiagnosen an und versuchen deren Sozialkritik, Künstlerkritik und Radikalkritik mit den gerechtigkeitstheoretischen Bausteinen des Capability-Ansatzes von Amartya Sen und Martha Nussbaum zu verbinden. In der sozialwissenschaftlichen Literatur über den Zustand „aktuelle[r] Formen der Vergesellschaftung“ (ebd.: 495) kommen diese nicht besonders gut weg. Diagnostiziert wird u.a. eine zunehmende „Schere zwischen Arm und Reich national und international“, eine „alarmierende Kinder- und Jugendarmut sowie Altersarmut“ (ebd.: 496). Auch die „seit mittlerweile sechzig Jahren (!) andauernden Beschwerden über soziale Ungleichheiten im Bildungssystem“ (ebd.) zeugten von der Aktualität der „Sozialkritik“. Freilich habe diese bislang kaum „Auswirkungen auf die realen Verhältnisse“ (ebd.), die die soziale Ungleichheiten hervorbrächten. Aus Public Health-Perspektive korrespondiert diese Sozialkritik mit der sozialepidemiologischen Diagnose zunehmender sozial bedingter gesundheitlicher Ungleichheiten (v.a. Wilkinson/Pickett 2010), wie auch Wachtler und Rakowitz in demselben Band hervorheben. Jenseits von Verteilungsfragen wird im Anschluss an die „Marxsche(n) Entfremdungskritik“ (ebd.: 497; kursiv im Original), eine Art „Künstlerkritik“ (Boltanski/Chiapello 2003) formuliert, die auf die beschränkten Autonomie- und Freiheitsgrade der Menschen abzielt. Bittlingmayer et al. halten insbesondere die theoretischen und empirischen Überlegungen von Hartmut Rosa (2005, 2009) für geeignet, „das Gelingen menschlicher Lebensführung“ (Bittlingmayer/Schumacher/Yüksel: 497) in den heutigen Gesellschaften zu problematisieren. Sie sehen bei seiner Hervorhebung von „gesamtgesellschaftlichen Beschleunigungen“ (ebd.) gesundheitswissenschaftlich relevante Anknüpfungspunkte, insofern jene „von Kontrollverlust, Verlust von Autonomie und Erhöhung des individuellen Stresslevels“ (Rosa 2009: 112, zit.m. Bittlingmayer/Schumacher/Yüksel: 497) begleitet seien. Sie plädieren dafür, Rosas Kritik unter Hinzuziehung des gesundheitswissenschaftlichen Konzeptes der Salutogenese gesundheitswissenschaftlichen zu systematisieren (ebd.: 498). Schließlich konstatieren sie eine dritte Kritikvariante in den Sozialwissenschaften, die sie als „Radikalkritiken“ (ebd.) kennzeichnen und der es um die radikale Kritik und weniger um die „reformerische“ Verbesserung der Gesellschaft gehe. Um die in der sozialwissenschaftlichen Literatur jedoch zum Ausdruck kommende Gesellschaftskritik gesundheitswissenschaftlich fruchtbar zu machen, integrieren sie die Grundbedürfnisse von Menschen, die die Gerechtigkeitstheoretikern Martha Nussbaum im Anschluss an Amartya Sen aufgestellt hat, in ihren theoretischen Analyserahmen. „Nussbaums Liste“, so die Autoren, „beinhaltet in der Lesart einer allgemeinen Public Health-Perspektive eine gerechtigkeitstheoretische Grundierung eines individuellen Anspruchs auf multidimensional verstandene Gesundheit.“ (Ebd.: 501) Diese normativen Setzungen von Nussbaum erscheinen ihnen jedoch als zu wenig auf die sozialen Ungleichheitsdynamiken in heutigen Markt-Gesellschaften bezogen, so dass sie für eine konzeptionelle Rekalibrierung dieser Grundbedürfnisse im Sinne einer „konkretistische[n] und selektive[n] Interpretation der Ottawa-Charta“ plädieren. Erstens gelte es, die gesunden Entscheidungen auch als die einfacheren zu gestalten, indem z.B. die Nahrungsmittelproduktion umgestellt, die Arbeitsbedingungen singstiftender und insgesamt die gesellschaftlichen Verhältnisse diese Wahlentscheidung unterstützen sollten (ebd.: 504f.). Zweitens sollten die Individuen, Gruppen und Klassen im Sinne der Ottawa Charta „Kontrolle über die eigenen Lebensbedingungen“ (ebd.: 505) erlangen und nicht den sozial selektierenden Dynamiken der „Lotterie der Geburt“, der „Bildungsinstitutionen“ und der „Arbeitsmärkte(n)“ (ebd.) ausgesetzt sein. Gesellschaftliche Institutionen sollten daher vor allem von „individuellen Bedürfnissen selbst gesteuert werden“ (ebd.; kursiv im Original). Im Hinblick auf die Bedürfniskriterien von Nussbaum und den von ihnen erweiterten Aspekten sozial selektierender Bedürfniserreichung folge „daraus wenig spektakulär, dass Deutschland keine gerechte Gesellschaft ist.“ (Ebd.: 503f.) Eine soziologisch gut belegbare These. Sie hoffen drittens darauf, empirische Indikatorensets entwickeln zu können, um die „Beschaffenheit gesellschaftlicher Institutionen mit der Erfassung individueller Gesundheit zu verschränken“ (ebd.: 506), um gewissermaßen – so ließe sich denken – Leitfäden an die Hand zu bekommen, nach denen die Weiterentwikcklung von gerechten Institutionen möglich wäre; eine Art „linkes Benchmarking“ (Hans-Ulrich Urban)? Sie wissen dabei selbst, dass ihre normative Konzeption „eine ganze Reihe unangenehmer Fragen“ aufwerfe und viele „offene(n) Baustellen“ zeige. Sie fordern visionäre Bilder „gerechter Institutionen“ (ebd.; kursiv im Original), die gleichsam einen Impuls geben sollen, um den gesellschaftlichen Wandel überhaupt erst anzuschieben. Neben dieser Frage nach dem Weg in die gerechten Institutionen sind weitere Problem zu bewältigen, so die Frage nach der Kombinationsmöglichkeit von „Freiheitsgraden und Gleichheitsdimensionen“ (ebd.: 507) in „westlich-kapitalistischen Demokratien“. Der Hinweis auf die Kontingenz der Geschichte ist – bei aller theoretischen Berechtigung des Arguments – natürlich etwas sehr pauschal, um die Wahrscheinlichkeit des Aufbaus von gerechten Institutionen in diesen Gesellschaften zu plausibilisieren. Bittlingmayer/Schumacher/Yüksel haben mit ihrem anregenden Beitrag auf ein großes Defizit der Public Health-Politik hingewiesen, nämlich dass in Bereich der primären Prävention und Gesundheitsförderung konkrete Reformkonzepte vorlägen, aber vor allem „Vollzugsdefizite“ (Rosenbrock/Gerlinger 2014: 111) ihre Umsetzung blockierten. Nach der Installierung des nationalen Präventionsgesetzes im Jahr 2015 wäre es vielleicht an der Zeit, nicht nur mit der akademischen „konzertierte Aktion“ der Fachgesellschaften, von der Müller und Larisch (471) in ihrem Beitrag sprachen, ernst zu machen, sondern auch die „von gesellschaftlicher Ungleichheit negativ Betroffenen, Benachteiligten, Ausgebeuteten und Unterdrückten“ (Wachtler/Rakowitz: 478) mit – um im Bild zu bleiben – ins „institutionelle Boot“ zu holen. Wie es indes gelingen kann, eine neue „Gesundheitsbewegung“ in schwierigen Zeiten zu etablieren, ist offen. Sicher ist nur, dass es ohne Politik nicht möglich sein wird, z.B. das institutionelle Prokrustebett des nationalen Präventionsgesetzes zum Katalysator von „gerechten Institutionen“ zu machen oder Health-in-All-Policies in Deutschland zu etablieren. Es bleibt noch viel zu tun. Das besprochene Buch zeigt Möglichkeiten und Grenzen auf und regt zum Nachdenken an; mehr kann ein Buch nicht leisten.

Zitierte Literatur

Babitsch, B. 2019: Gesundheitswissenschaften – eine Einführung, in: R. Haring (Hrsg.): Gesundheitswissenschaften, Berlin/Heidelberg: Springer, S. 1-12.

Blank, R. H./Burau, V./Kuhlmann, E. 2018: Comparative Health Policy. Fifith Edition, London: Palgrave.

Boltanski, L./Chiapello, E. 2003: Der neue Geist des Kapitalismus. Konstanz: UVK.

Deppe, H.-U. 1987: Krankheit ist ohne Politik nicht heilbar. Zur Kritik der Gesundheitspolitik, Frankfurt a.M.: Suhrkamp.

Gerhardt, U 1989: Ideas about Illness. An Intellectual and Political History of Medical Sociology, Houndmills/London: Macmillan.

Gerhardus, A. et al. 2010: Evidence-based Public Health, Bern: Huber.

Hess, H. 1983: Probleme der sozialen Kontrolle, in: H.J. Kerner/H. Göppinger/F. Streng (Hrsg.): Kriminologie – Psychiatrie – Strafrecht. Festschrift für Heinz Referenz zum 75. Geburtstag, Heidelberg, S. 3-24.

Lessenich, S. 2008: Die Neuerfindung des Sozialen. Der Sozialstaat im flexiblen Kapitalismus, Bielefeld: Transkript.

Kaufmann, F.-X. 2009: Sozialpolitik und Sozialstaat. Soziologische Analysen. 3., erw. Aufl., Wiesbaden: VS Verlag für Sozialwissenschaften.

Mosebach, K./Walter, U. 2021: , in: M. Tiemann/M. Mohokum (Hrsg.): Prävention und Gesundheitsförderung, Band 1, Berlin: Springer Nature, S. 107-121.

Rosa, H. 2005: Beschleunigung. Die Veränderung der Zeitstrukturen in der Moderne, Frankfurt a.M.: Suhrkamp.

Rosa, H. 2009: Kapitalismus als Dynamisierungsspirale – Soziologie als Gesellschaftskritik, in: K. Dörre/S. Lessenisch/H. Rosa (Hrsg.): Soziologie – Kapitalismus – Kritik. Eine Debatte, Frankfurt a.M.: Suhrkamp, S. 87-125.

Rosenbrock, R./Gerlinger, T. 2014: Gesundheitspolitik. Eine systematische Einführung. 3., vollständig überarbeitete Auflage, Bern et al.: Huber.

Schimank, U. 2012: Wissenschaft als gesellschaftliches Teilsystem, in: S. Maasen/M. Kaiser/M. Reinhart/B. Sutter (Hrsg.): Handbuch Wissenschaftssoziologie, Wiesbaden: Springer VS, S. 1113-123.

Schmidt, G. 2010: Der eigenverantwortliche Mensch, in: Das Gesundheitswesen 72, S. 29-34.

Schmidt-Semisch, H. 2000: Selber schuld. Skizzen versicherungsmathematischer Gerechtigkeit, in: U. Bröckling/S. Krasmann/T. Lemke (Hrsg.): Gouvernementalität der Gegenwart. Studien zur Ökonomisierung des Sozialen, Frankfurt a.M.: Suhrkamp, S. 168-193.

Schrappe, M. et al. 2020: Datenbasis verbessern, Prävention gezielt weiterentwickeln, Bürgerrechte wahren. Thesenpapier zur Pandemie durch SARS-CoV-/Covid-9 vom 0.04.2020, Monitor Versorgungsforschung, online-first, toi: https://doi.org/10.24945/MVF.03.20.1866-0533.2224 (12.04.22).

Strauss, R. 1957: The Nature and Status of Medical Sociology, in: American Sociological Review 22, S. 200-204.

Weingart, P. 2001: Die Stunde der Wahrheit. Zum Verhältnis der Wissenschaft zu Politik, Wirtschaft und Medien in der Wissensgesellschaft. Studienausgabe, Weilerswist: Velbrück.

Wilkison, /Pickett 2010: Gleichheit ist Glück. Warum gerechte Gesellschaften für alle besser sind, Berlin: Haffmans & Tolkemitt.

Klenk, Tanja/Pavolini, Emmanuele (Eds.): Restructuring Welfare Governance. Marketization, Managerialism and Welfare State Professionalism. Cheltenham und Northmapton. Edward Elgar 2015. 273 Seiten.

Tanja Klenk und Emmanuele Pavolini haben als Herausgeber/in in ihrem Sammelband einen Aspekt europäischer Wohlfahrtsstaatlichkeit in den analytischen Fokus gestellt, der gern und oft in der vergleichenden Wohlfahrtsstaatsforschung im Schatten verharrt: die Organisation öffentlicher Dienstleistungen. Das leitende Forschungsinteresse des Sammelbandes richtet sich auf die Effekte von New Public Management auf die organisationsintere Rolle von Professionen und deren Effekte auf die Dienstleistungserbringung. Neben den klassischen Bereichen der Kranken- und Pflegeversorgung widmen sich die Beiträge des Bandes auch den Feldern: Schulpolitik, Hochschulpolitik und Arbeitsvermittlung. Der meisten Beiträge des Sammelbandes fokussieren auf Veränderungsprozesse des Bildungssystems, welche sich ebenfalls am Reformleitbild des New Public Management orientieren.

Es ist gelungen, einen (weitgehend) systematischen Zugang zu diesen Feldern zu organisieren: Überblicksbeirägen im ersten Teil folgen vertiefende Fall(vergleichs)studien im zweiten. Der Beitrag von Mirko Noordegraaf zu Beginn des II. Teils kann als Einführung in die Veränderung von Steuerungsversuchen professioneller Berufsgruppen gelesen werden. Seine These ist, dass sich – sektor- und feldübergreifend – eine „New Governance of New Professionalism“ etabliert habe, die mit komplexen und zahlreichen Fällen konfrontiert werde und eine kollaborativ-wissenschaftliche Expertise, eine Fallpriorisierung und zunehmend auch eine Präventivorientierung hervorbringe.

Im Überblicksbeitrag von Emmanuele Pavolini werden die marktbasierten Gesundheitsreformen in Deutschland, England, Italien und Schweden skizziert, die bei aller Unterschiedlichkeit ähnliche institutionelle und organisatorische Reformen nach sich gezogen haben. Dezentralisierungs- und Vermarktlichungsprozesse zielten vor allem auf eine (wettbewerbsgetriebene) Kostendämpfungspolitik, die jedoch in national unterschiedliche Reformziele eingebettet bleibt. Während Kostendämpfungsgesichtspunkte vor allem in sozialversicherungsbasierten Systemen eine Rolle spielten (wobei der alleinige Zugriff auf Deutschland hier nicht überzeugen kann), würden staatlich organisierte Gesundheitssysteme auch Gleichheitsgesichtspunkte beachten (Schweden, England, aber auch Italien). In der Folge komme es zu äußerst widersprüchlichen Zielsetzungen, die auch die Professionen im Gesundheitssystem, allen voran die Ärzteschaft betreffe. Finanzielle Nachhaltigkeit stehe dabei oftmals im Widerspruch zu normativen Anforderungen eines gleich zugänglichen Gesundheitssystems, qualitativ hochwertiger Leistungen und der traditionellen Handlungs- und Entscheidungsautonomie der Ärzteschaft.

Ellen Kuhlmann und Viola Burau zeichnen diese konfliktiven Szenarien noch schärfer, indem sie – in Anlehung an die Governementality-Studies – auf den Wissens-Macht-Komplex zwischen Gesundheitsprofessionen und (kontrollierenden) Managern fokussieren. Im Hinblick auf strukturelle Veränderungen in Richtung eines evidenzbasierten Medizinmodells zeigen sie, dass die ursprünglich auf Kontrolle ausgerichteten Instrumentarien des neuen Modells, sie sprechen von „soft power of knowledge“, keineswegs die Macht und Autonomie der Ärzteschaft bzw. von Gesundheitsprofessionen insgesamt in Frage stellt. Aufgrund der notwendigen technischen Expertise dieser „disembodied knowledge“ – auch als „Evidenbasierung“ vs. „Eminenzbasierung“ bekannt – würden neue Akteure (kontrollierende Bürokratien) entstehen, aber die rationalistische Form des Wissens würde doch weiterhin die grundsätzliche Machtposition der Ärzteschaft nicht anrühren.

Auf dem Feld der (altenfokussierten) Langzeitpflege skizziert Hildegard Theobald im ersten Teil des Sammelbandes die strukturellen Veränderungen in europäischen Gesundheitssystemen und ihre Konkretisierung in drei europäischen Ländern: Schweden, Deutschland, Österreich. Reformanstrengungen in diesem Feld sind zum einen gekennzeichnet durch Kostendämpfungsinteressen und der normativen Zielsetzung des Empowerment von Bedürftigen bzw. Angehörigen, welche sich jedoch in jenen generellen Trend einpasst. Empowerment konkretisiert sich hier oft in der Form von (verbesserten) Wahlrechten zwischen professionellen Anbietern, die zunehmend privatwirtschafltich organisiert sind, und angeleiteter Selbsthilfe. Die Auswirkungen auf die Pflegekräfte auf diesem Feld sind ausgesprochen ambivalent. Einerseits ergibt sich – auch durch die Verwissenschaftlichung und Qualitätsorientierung der Pflege – eine größere Spannweite von Berufsperspektiven, andererseits führt diese Ausdifferenzierung der Berufsrolle zu Re-Hierarchisierungs- und Prekarisierungsprozessen unter den Pflegekräften. Im zweiten Teil ist leider keine Vertiefung zu diesem Politikfeld vorhanden, so dass auf Theobalds Überblickbeitrag zurückgegriffen werden muss.

Bastian Jantz und Tanja Klenk zeigen in ihrem Beitrag zunächst, dass NPM-Instrumente auch in der Vermittlung von Arbeitssuchenden in Europa eine bedeutsame Verbreitung gefunden haben. Die Einführung von Quasi-Märkten verläuft dabei jedoch nicht homogen, sondern entlang nationaler Entwicklungspfade und kann getrieben von der Nachfrageseite (Arbeitssuchenden), Angebotsseite (Arbeitgeber) oder staatlich eingebettet sein. Entsprechend unterscheiden sie unterschiedliche „market models“, deren Konfiguration für Dänemark, Deutschland und Großbritannien näher untersucht wird. In allen drei Ländern haben sich im Rahmen von NPM-Reformen nicht nur die institutionellen und organisatorischen Muster aktiver Arbeitsmarktpolitik in Richtung interner Märkte verändert, sondern mit privatwirtschaftlichen Arbeitsagenturen auch neue Akteure herausgebildet sowie die Rollen von Arbeitssuchenden und Arbeitsvermittlern verändert. Grundsätzlich – konstatieren die Autorin und der Autor – neigten privatwirtschaftliche Anbieter dazu, sich auf einfache, kostengünstige Vermittlungsfälle zu konzentrieren. Mehr noch: „evaluation studies indicate that service provision by private providers is not superior“ (112). Die Aktivierung von (Langzeit)-Arbeitslosen entspricht zudem nicht dem Bild des „Kunden“, denn es gilt eine asymmetrische Machtverteilung zwischen diesem und jenen Arbeitsvermittler*innen, die Sanktionsgewalt haben. Die Vergleichsergebnisse zeigen, dass die Arbeitsbedingungen von Fallmanagern in diesem Feld besonders durch bürokratisch empfundene Dokumentationsarbeit sich verschlechtert – kein überraschender Befund als Ergebnis von NPM-Reformmaßnahmen der Outputsteuerung. Darüber hinaus zeigt sich, dass die Arbeitsvermittler*innen selbst prekarisiert und Karrieremöglichkeiten erdrückt werden, so dass die Jantz und Klenk von „pressured professionals“ (113) sprechen. Letzlich offenbare sich ein Spannungsverhältnis zwischen politisch reguliertem Wettbewerb und dem Bedarf nach Reduzierung sozial unerwünschten Risiken in der Arbeitsvermittlung.

In dem parallelen Beitrag von Hennig Joregensen, Kelvin Baadsgaard und Iben Norup wird dieser Prozess der De-Professionalisierung von arbeitsvermittelnden Fallmanagern am Beispiel der dänischen aktiven Arbeitsmarktpolitik nochmals nachdrücklich belegt. Im einst gelobten „darling of European ‚flexicurity’ talk“ (163) haben mit den Reformen einer rechtskonservativen Regierung im Jahr 2001 NPM-Maßnahmen Einzug gehalten und die Sozialpartner entmachtet, die auch die Personalstruktur von Arbeitsagenturen und Rolle der Arbeitsvermittler restrukturierten. Die bislang dominierenden Sozialarbeiter*innen, welchen die Autoren einen hohen ethischen Standard und eine explizite Klientenzentrierung unterstellen, werden insofern deprofessionalisiert als die Standardisierung von Leistungen und die Output-Kontrolle einen direkten Klientenbezug erschweren. Gleichzeitig betreten weniger ethisch geschulte Fallmanager das Terrain der nunmehr kommunal organisierten Arbeitsagenturen und auch Kontrollmanager*innen werden organisatorisch aufgewertet (reprofessionalisiert), so dass „organizational efficiency based on the standards of the organization“ (179) im Vergleich mit bedarfsorientierter Klientenorientierung bedeutsamer werde. Die Autoren sehen in der Durchsetzung von NPM-Mechanismen im Rahmen von „work first“-Strategien (164) und der personalpolitischen Infragestellung ethisch geschulter Sozialarbeiter*innen eine Gefahr für die Klientenorientierung, denn deren Rechtsanspruch auf Unterstützung hänge nicht nur von gesetzlichen Regeln, sondern auch vom professionell gelebten Ethos ab.

Der Beitrag von Roberto Mascati, Alberto Stanchi, Matteo Turri, Massimiliano Vaira und Emmaneuele Pavolini widmet sich dem konvergenten „Governance Model“ des europäischen Universitätssystems und ist vor dem Hintergrund des – auch in Deutschland nicht unumstrittenen – Bologna-Prozesses mit Gewinn zu lesen. In Anlehnung an Reformkonzepte des New Public Management hat insbesondere die (oftmals auch nicht-akademische) Leitung der Universitäten an Bedeutung zugenommen, was die nicht nur die (kollegiale) Autonomie, sondern auch die Selbstverwaltungsstrukturen in ihnen schwächt. Die Unterschiede sind hier zwischen den Ländern noch erkennbar, der – widersprüchliche – Entwicklungstrend gehe aber dahin, die institutionelle Unabhängigkeit zu stärken, zugleich jedoch über Qualitätssicherungsmaßnahmen und Evaluationsprogramme die staatliche Kontrolle zu verstärken (Output-Orientierung), externe Stakeholder in Steuerungsgremien zu holen und den Führungsstil in Richtung privatwirtschaftliches Management (stärkere Konfliktorientierung) zu drehen. Die Auswirkungen auf die Beschäftigten im Unversitätssystem sind komplex und aufgrund historischer Pfadabhängigkeiten in den betrachteten Systemen (Italien, Deutschland, Niederlande, Großbritannien) noch unterschiedlich.

Michele Rostan, Flavio A. Ceravolo und Massimiliano Veira versuchen vermittels eine quantitativen Zugangs, die Auswirkungen von Vermarktlichungsprozessen und Managementreformen auf Universitätsprofessor*innen abzuschätzen. Ihre Vergleichsstudie zeigt, dass in den vier Vergleichsländern (Deutschland, Großbritannien, Italien, Niederland) ähnliche Veränderungen der Arbeitsbedingungen von Universitätsprofessor*innen zu beobachten sind. Die Zunahme von Drittmitteln zur Finanzierung von Forschung ist in allen Systemen ebenso zu beobachten wie die studentische und externe Evaluation von Lehre und Forschungsmitteln. Unterschiede bestehen zum einen zwischen Großbritannien und den Niederlanden auf der einen Seite im Unterschied zu Italien und Deutschland hinsichtlich der Performanz-Orientierung (Output), die noch stärker von der hierarchischen Bewertung von professionellen Output abhängt. Die Autoren vermuten hier einen Zeiteffekt, da die beiden erstgenannten Länder Vorreiter der Einführung von NPM-Mechanismen in die Teritärbildung waren. Nationale Besonderheiten zeigen jedoch, dass die Umsetzung formaler NPM-Mechanismen unterlaufen werden kann und so zu unterschiedlichen nationalen Variationen des „akademischen Kapitalismus“ (Richard Münch) führt.

Christine Teelken und Marian Thunnissen vergleichen das sich verändernde Verhältnis von Governance und Professionalismus im Hochschulwesen Großbritanniens, der Niederlande und Schwedens. Basierend auf zahlreichen Interviews in den Ländern kommen sie zu gemischten Ergebnissen. Einerseits habe die Bedeutung der Lehre und deren Evaluation erheblich zugenommen, ebenso wie Drittmittel für Forschungstätigkeiten. Andererseits habe diese Standardisierung und formale Evaluation von Forschungsprozessen aber auch zu einer höheren Kontrolle über die Forschungsinhalte geführt. Ein erstaunliches Ergebnis! Nicht überraschenderweise hat sich die anfängliche harte Kritik an Public Managementreformen innerhalb von vier Jahren (2007-2011) in eine Form von „rational resignation“ (249) gewendet – ein nicht repräsentatives Ergebnis.

Der zweite Beitrag von Emmanuele Pavolini zur Vermarktlichung und Manageralisierung der Schulpolitik beschreibt in vergleichender Perspektive die Reformmaßnahmen in größeren europäischen Ländern. Dabei kommt wieder das Muster der NPM-Innovatoren (Großbritannien, Schweden) und Nachahmern (Deutschland, Italien) zum Ausdruck, wenn auch die Geschwindigkeit und die Reforminhalte im Detail sehr unterschiedlich seien. Nichtsdestotrotz habe die Steuerung der Schulen über NPM-Instrumente ebenso zugenommen wie die Zahl der privatwirtschaftlichen Schulen und Differenzierung der Arbeitsbedingungen – zentrale Ziele von NPM-Marktmodellen.

Im zweiten Teil zeigt zunächst Uwe Schimank in einer theoretischen Reflexion, dass im Zuge von NPM-Reformen im Primär- und Sekundärbereich des Bildungssystems auch von einer Deprofessionalisierung von Schullehrer*innen gesprochen werden kann. Schließlich fragt Thorsten Peetz im Hinblick auf den originären PISA-Schock in Deutschland und die darauf folgenden Maßnahmen zum Umbau des Schulsystems (Primär- und Sekundärbereich), ob sich die Rolle von Schulleitern in Richtung eines Managers gewandelt habe, der kein primus inter pares mehr sein kann (bzw. darf). Er kommt auf der Grundlage qualitativer Interviews mit Schulleitern zu dem Schluss, dass sich zwar die Rolle von Schulleitern insofern geändert habe, als sie nunmehr zu „Motoren der Innovation“ oder „initiierenden Moderatoren“ (meine Übersetzung) geworden seien, die den schulischen Kommunikationsprozess steuerten. Im Zuge zunehmender Schulautonomie – bildungspolitisch als Modellschulen apostropohiert – werde damit der Schulleiter zu einer Art Generalmanager, der keine Lehre mehr übernehme, sondern bedingt dazu übergehe, interne Qualitätssicherung gegenüber seinen bzw. ihren Kolleg*innen durchzusetzen. Im Vergleich mit angloamerikanischen Pionieren jedoch fehle derzeit noch die finanzielle Sanktion des mangelnden Lehrefolgs durch Lehrer*innen, wodurch der von NPM-Maßnahmen induzierte Wandlungsprozess im deutschen Schulsystem „still modest“ (209) sei.

Allerdings – das zeigen die viele Beiträge in dem lesenswerten Sammelband – existiert wohl eine gewisse Ungleichzeitigkeit zwischen Reformmaßnahmen als auch national(staatlich)e Variationen. Uwe Schimanks generelle Einschätzung zu den Effekten von NPM-Reformen des öffentlichen Sektors auf die Beschäftigten und die Leistungsqualität, dass NPM nicht in jedem Fall ein Problem sei, kann zweifellos zugestimmt werden. Auch Tanja Klenks und Emmanuele Pavolinis Schlussfolgerung, dass die Interaktion auf der Mikroebene bei der Regulierung von Wohlfahrtsmärkten und insbesondere privatwirtschaftlichen Akteuren weiterer Forschung bedürfte, ist schlüssig.

Vielleicht ist es zur analytischen und vor allem normativen Einschätzung von NPM-Modellen aber hilfreich, sich deren makroökonomischen Kontext(en) zuzuwenden. Ihre Versprechen waren und sind, in Zeiten finanzieller Knappheit, hohe Leistungsqualität mit ökonomischer Effizienz zu kombinieren. Wenn NPM-Reformen nicht per se schlecht sind, stellt sich doch die Frage, ob das Ausmaß und der Grad „finanzieller Repression“ möglicherweise darüber entscheiden, ob NPM-Maßnahmen wirken oder nicht – Effizienzsteigerung ist nicht in jedem Fall gleichbedeutend mit Ausgabensenkung. Vielleicht läge hier ein erfolgversprechender Weg, die NPM-Reformen vom Kopf auf die Füße zu stellen. Es sollte – mit anderen Worten – auch bei NPM-Reformen nicht vergessen werden, dass „Austerität“ eine „gefährliche Idee“ (Mark Blyth) ist.

Mosebach, Kai, Hochschule Ludwigshafen am Rhein, Fachbereich Sozial- und Gesundheitswesen, kai.mosebach@hs-lu.de.

Review von Heubel et al (2010)

Friedrich Heubel, Matthias Kettner und Arne Manzeschke (Hrsg./2010): Die Privatisierung von Krankenhäusern. Ethische Perspektiven, Wiesbaden.

Im Jahre 2010 veröffentlichte die Arbeitsgruppe für Ethik in der Medizin (AEM) in Reaktion auf die erstmalige Privatisierung einer Universitätsklinik (Marburg/Gießen) Ergebnisse ihrer Jahrestagung unmittelbar im Anschluss an diese Privatisierung. Die spektakuläre (Teil-) Privatisierung (zu 95 %) der beiden hessischen Universitätsklinika war jedoch nur der äußere Anlass für die letztlich leitende Frage des Sammelbandes, nämlich: wie ist Krankenhausprivatisierung ethisch zu beurteilen?

Der äußerst lesenswerte Sammelband ist in zwei Teile strukturiert, einmal eine systematische Bestandsaufnahme zum Verständnis von Krankenhausprivatisierungen im deutschen stationären Versorgungssektor. Darauf aufbauend thematisiert ein zweiter Teil in reflexiver Perspektive, wie diese Krankenhauprivatisierungen der vergangenen 20 Jahren kritisch zu bewerten sind, wobei vor allem die materielle Privatisierung als Kernproblem bzw. ernsthafte Herausforderung anzusehen ist.

Krankenhauslandschaft nach Trägern und Rechtsformen

Der erste, systematische Übersicht Artikel von Franziska Prütz beschreibt die stationäre Krankenversorgung in Deutschland im Hinblick auf die Trägerstrukturen und die jeweils gewählten Rechtsformen, die zu einer gewissen Hinsicht in unterschiedlicher Weise miteinander kombiniert werden können. Privatisierung, so schreibt sie (Prütz 2010: 15), enthalte eine begriffliche Doppeldeutung:

„Verwendet man den Begriff der Privatisierung im Zusammenhang mit Krankenhäusern, so kann dies zwei Dinge bedeuten. Meist ist damit ein Wechsel des Krankenhausträgers gemeint, in dem Sinne, dass ein Krankenhaus von einem öffentlichen oder freigemeinnützigen auf einen privaten Träger übergeht. Außerdem kann sich Privatisierung auf die Rechtsform des Krankenhauses beziehen und damit dann die Umwandlung von einer öffentlich-rechtlich in in eine privatrechtliche Unternehmensform“ bedeuten.

Betrachtet man Krankenhäuser aus einer betriebswirtschaftlichen Perspektive vor allem als Unternehmen, so können Sachziele und/oder Formalziele zum Leitbild der jeweiligen Unternehmensphilosophie gemacht werden. Sachziele „beziehen sich dabei auf die Art und Weise, wie die Patientenversorgung geleistet wird (dazu gehören zum Beispiel Bedarfsgerechtigkeit, Kundenfreundlichkeit und Leistungsfähigkeit), während die Formalziele mit der ‚Zieltriade‘ der Rentabilität, Liquidität und Sekurität an die ‚Teilnahme des Unternehmens am Wirtschaftsprozess und Geldkreislauf‘ anknüpfen.“ (Ebd.: 17) während bis zu dem Gesundheitsstrukturgesetz 1993 die Sachziele die betrieblich-organisatorische Realität in Krankenhäusern beherrschten, orientieren sich zunehmend Krankenhäuser seitdem an Formalziele der Gewinn- oder wenigstens Überschussorientierung.

Franziska Prütz beschreibt ausführlich zunächst die idealtypischen Eigenschaften von freigemeinnützigen, öffentlichen und privatwirtschaftlichen Krankenhäusern – in Anlehnung an eine grundlegende Studie von Markus Wörz (2008) – , um dann akribisch die verschiedenen Rechtsformen in ihren zentralen Merkmalen zu beschreiben (Prütz 2010: 18ff.). Nach der Beschreibung der Entwicklung der Krankenhäuser und Betten im deutschen Gesundheitssystems von 2002-2008 und differenziert nach den voranstehend beschriebenen Rechtsformen, diskutiert sie „Alternativen zur materiellen Privatisierung“ (ebd.: 27ff.), die den Privatisierungsbegriff weiter aus differenzieren. Outsourcing, Public Private Partnerships, formelle Privatisierungsformen, Teilprivatisierungen und der Zusammenschluss zu Krankenhausketten bzw. Krankenhausverbünden als auch die Gründung von Fördervereinen stellen Möglichkeiten dar, wie sich privatwirtschaftliche Akteure am Krankenhausmarkt beteiligen bzw. öffentliche Krankenhausträger privates Kapital inkludieren können.

Die betriebswirtschaftliche bzw. kommunalpolitische Motivation für Privatisierungsprozesse sieht sie vor allem in dem erhofften Ziel auf Effizienzsteigerungen privatisierter Krankenhäuser gegeben. Abschließend – und erneut auf Markus Wörz’ (2008) Studie gestützt – skizziert sie die Unterschiede zwischen den Krankenhäusern unterschiedlicher Trägerschaft im Hinblick auf die Patientenversorgung, die Situation der Beschäftigten, im Hinblick auf Ausbildung, Forschung und Lehre sowie der Wirtschaftlichkeit der Häuser selbst (Prütz 2010: 31ff.). Ihre Kernaussagen sollen hier kurz zusammengefasst werden:

1. Hinsichtlich subjektiver Qualitätsindikatoren, wie zum Beispiel verschiedene Kriterien der Patientenzufriedenheit, zeigten Ergebnisse einer Patientenbefragung im Auftrag der Gmünder Ersatzkasse, dass zwischen den Jahren 2002 und 2005 „die Zufriedenheit mit der Versorgung in privaten Krankenhäusern“ (ebd.: 32) und „die besten Werte […] in freigemeinnützigen Häusern erreicht“ (ebd.) wurden. Obwohl in Deutschland auch objektive Qualitätsindikatoren gesammelt würden und vorlägen, sei bislang keine Auswertung erfolgt. Die berühmte Metaanalyse von Philip J. Devereux et al. (2002) über die Performance von Krankenhäusern in den vereinigten Staaten von Amerika unterstützt die bislang weichen Einschätzungen vorhandener deutscher Studien (Zeitpunkt: 2008!).

2. Die Situation der Beschäftigten in verschiedensten Krankenhäusern unterschiedlicher Trägerschaft lässt sich in Deutschland schon etwas besser abbilden. Als wesentliche Indikatoren können hierbei die so genannte Personalbelastungszahl und die Bezahlung des Personals bzw. Personalkosten herangezogen werden. Die Personalbelastungszahl setzt die Anzahl der zu versorgenden Betten bzw. der zu versorgenden Fälle in einem Jahr in ein Verhältnis zum Personal insgesamt, den ärztlichen Dienst, den Pflegedienst oder medizinisch-technischen Dienst. Die Ergebnisse ihrer Analyse der Krankenhausstatistik des statistischen Bundesamtes zeigt ein eindeutiges Ergebnis: „Es ist festzustellen, dass im Jahr 2008 die Personalbelastung in den freigemeinnützigen und privaten Krankenhäusern am höchsten war, vor allem im Pflegedienst […]. Von den öffentlichen Krankenhäusern wiesen die in privatrechtlicher Form organisierten die höchsten Belastungszahl auf; die niedrigsten Belastungszahlen fanden sich interessanterweise bei den Häusern in öffentlich-rechtlicher Form mit rechtlicher Selbstständigkeit.“ (Prütz 2010: 33) Kaum überraschend ist, dass in jedem vierten privaten Krankenhaus kein Tarifvertrag galt, während der entsprechende Anteil bei öffentlichen und freigemeinnützigen Krankenhäusern erheblich darunter liegt (0,5% bzw. 1,0%). Interessant ist, dass die Personalkosten in privatwirtschaftlich geführten Krankenhäusern niedriger liegen als in ihren freigemeinnützigen und öffentlichen Kontrahenten, aber gleichzeitig die Ärzte in privaten Krankenhäusern leicht mehr verdienen als die Kollegen und Kolleginnen in den Krankenhäusern alternativer Trägerschaft.

3. Die Krankenhausstatistik ermöglicht den Vergleich von Krankenhäusern mit Ausbildungsstätten. Eine entsprechende Analyse von Wörz (2008) zeige, dass in der größten Kategorie von Krankenhäusern – 500 und mehr Betten – private Krankenhäuser den geringsten Anteil an Ausbildungsstätten im Vergleich mit ihren öffentlichen und freigemeinnützigen Konkurrenten hatten.

4. Die Wirtschaftlichkeit von Krankenhäusern schließlich, zu deren Verbesserung sich die privatwirtschaftlichen Krankenhäuser bekannt haben bzw. anbiedern (vergleiche auch den Beitrag von Rainer Simbel in diesem besprochenen Sammelband), ist nicht nur international, sondern auch in Bezug auf das deutsche Gesundheitswesen am häufigsten untersucht. Insbesondere ist die mittlerweile mehrfach zitierte Studie von Markus Wörz (2008) hier hervorzuheben. Empirisch vor der Einführung von DRG angesiedelt, kommt er zu der Schlussfolgerung, dass „die öffentlichen Krankenhäuser durchweg die teuersten sind, wenn nicht nach Bettengrößenklassen differenziert wird; dann aber sind die öffentlichen Krankenhäuser nur in den größten Kategorien (500 und mehr bzw. 1000 und mehr Betten) am teuersten […], während die privaten Krankenhäuser in den mittleren (100 bis unter 202, 100 bis unter 500 Betten) am teuersten und in der unteren am günstigsten sind, wenn man Kosten pro Fall kalkuliert. Nicht überraschend erzielen private Krankenhäuser die höchsten Erlöse, wobei wichtig ist hier zu betonen, dass diese Ergebnisse vor der Einführung des administrieren Preissystems, Diagnosis Related Groups, berechnet wurden, nach deren Einführung eine Erlösspreizung nicht mehr möglich ist (s.u.).

Seine Schlussfolgerung ist: „das bedeutet, dass nicht ‚der private Trägerstatus als solcher (…) Die höheren Erlöse verursacht, sondern die Kombination von privatem Trägerstatus und Verbundzugehörigkeit‘“. (Wörz 2008: 202, zit. n. Prütz 2010: 37).

Die etwas jüngere Studie von Tiemann und Schreyögg, die mit einer anderen Methodik arbeitet, kommt sogar zu der Schlussfolgerung, dass die private Trägerschaft mit einer niedrigeren Effizienz im Vergleich zu ihren öffentlichen Kontrahenten einhergeht. Völlig konträr hierzu steht die Studie von Augurzky et al. (2008) zu den privaten Krankenanstalten in Deutschland die eine höhere Insolvenzwahrscheinlichkeit für öffentliche Krankenhäuser errechnet.

Betrachtet man also die verschiedensten Forschungsbeiträge vergleichend, so ergibt sich in mancher Hinsicht ein recht unklares Bild. Nicht überraschenderweise kommt Franziska Prütz (2010: 40) im Hinblick auf die Performance von Krankenhäusern unterschiedlicher Trägerschaft zu der Schlussfolgerung, „dass Forschungsbedarf besteht, besonders auf dem Gebiet der Versorgungsqualität, um die Frage zu klären, ob eher – wie es den Anschein hat – von einem Trade-Off zwischen Qualität und Wirtschaftlichkeit auszugehen ist oder beides miteinander einhergeht. Bezüglich der Wirtschaftlichkeit wird die Hypothese, dass der private Trägerstatus mit einer höheren Effizienz verbunden ist, zunehmend infrage gestellt.“

Krankenhäuser als Wirtschaftseinheiten – ökonomische Aspekte und Herausforderungen

Der Beitrag von Rainer Sibbel in dem besprochenen Sammelband sticht in ungewöhnlicher Weise heraus. Das gilt weniger für die theoretische Ausarbeitung und empirische Fundierung des Textes als für die positive Bewertung von Privatisierungsprozessen im deutschen Krankenhaussektor, die ein wenig quer steht zu den ansonsten recht kritischen Äußerungen und Beiträgen über Privatisierungsprozesse im Krankenhaussektor (wenig überraschend sucht man den Namen von Rainer Sibbel unter der abschließenden Stellungnahme der Arbeitsgruppe am Ende des Bandes, S. 195ff., vergeblich).

Der Beitrag ist demgemäß vor allem unter ideologiekritischen Gesichtspunkten von Interesse, konstruiert er doch ein recht grobschlächtiges Narrativ, das zwar nicht völlig plump die grundsätzliche Überlegenheit privatwirtschaftlich geführter Krankenhäuser in den Mittelpunkt stellt, sondern einem professionellen Management von Krankenhäusern, das sich freilich an erfolgreichen privatwirtschaftlich geführten Krankenhäusern ausrichtet, den entscheidenden Faktor zubestimmt bzw. zuweist, ein erfolgreiches Krankenhausmanagement durchzuführen. Hinter dem Rücken kommt dann aber eben doch das Narrativ des effizienteren privaten Krankenhaussträger hervor (kritisch zu diesem verbreiteten Narrativ: Mosebach 2013).

Seine Argumentation laviert mehrfach hin und her. Die wesentlichen Bausteine seiner Argumentationsganges sind (i) die Beschreibung des Strukturwandels im Gesundheitswesen als trägerübergreifende Rahmenbedingungen, (ii) die Skizze der Motive von Privatisierungen öffentlicher Krankenhäuser, (iii) der Stand der Privatisierung von Krankenhäusern in Deutschland und (iv) der Versuch, die Zunahme von Privatisierungsprozessen durch spezifische Erfolgsfaktoren privater Klinikbetreiber zu erklären.

ad 1) Unter Verweis auf seine eigene Habilitationsschrift (Sibbel 2004) beschreibt Rainer Sibbel zunächst sechs zentrale Faktoren, die als Treiber des Strukturwandels im Gesundheitswesen fungieren. Hierzu gehören neben den üblichen Verdächtigen, demographische Entwicklung und medizinischer bzw. medizinisch-technischer Fortschritt, auch Internationalisierungs- und Privatisierungsprozesse (Globalisierung) sowie der Wertewandel innerhalb der Gesellschaft, der mit anspruchsvolleren Konsumenten einhergeht – auch ein Bestandteil eines internationalisierten Narrativs – und schließlich noch gesetzliche Rahmenbedingungen, mit denen die Kostendämpfung einerseits und die Einführung des DRG-Systems andererseits gemeint ist. Der ökonomische Druck auf öffentlich geführte Krankenhäuser nimmt durch diese gesetzlichen Rahmenbedingungen und die kostentreibenden Randbedingungen erheblich zu, so dass schließlich sich öffentliche Träger für eine materielle Privatisierung von Krankenhäusern entscheiden.

Hiermit „… zieht sich der öffentliche Träger aus der Verantwortlichkeit für die Leistungserstellung zurück, letztlich weil alle anderen Handlungsoptionen – wie beispielsweise eine formelle Privatisierung, das heißt die Umwandlung von öffentlich betriebenen Kapitalgesellschaften – als weniger zielführend bzw. Erfolg versprechend erscheinen bzw. sich als solches erwiesen haben.“ (Sibbel 2010: 45)

Die Zielsetzung des Gesetzgebers – wie er unmittelbar davor schreibt – sind die „kontinuierliche Erhöhung des Kosten- und Wettbewerbsdrucks, die Wirtschaftlichkeit der Leistungserstellung in den Versorgungseinrichtungen zu verbessern, sektorenübergreifende integrierte Leistungsstrukturen zu fördern und gleichzeitig die Leistungsqualität transparenter zu machen.“ (Womit en passant alle ideologischen Bausteine der hegemonialen Strategie der wettbewerbsbasierten Kostendämpfungspolitik aufgebaut worden sind: Mosebach 2018) Der vorstehende ausführlich zitierte Textausschnitt suggeriert natürlich, dass die Zielsetzungen des Gesetzgebers am besten durch die materielle Privatisierung von Krankenhäusern erreicht werden. Genau das versucht Sibbel mit dem zweiten Baustein seines argumentativen Baukastens zu begründen.

ad 2) Gleich zu Beginn seines zweiten Bausteins überrascht der Autor mit der beiläufig hingeworfenen Bemerkung, dass „regulatorische Ansätze und öffentlich geprägte Strukturen“ sich als häufig „(zu) schwierig bzw. zu beharrlich“ erweisen würden, „um Qualitäts- und Effizienzpotenziale in ausreichendem Maße und zeitgerecht zu realisieren“ (ebd.: 46). Die Deregulierung und Einführung von Markt- bzw. Wettbewerbsprinzipien würde besonders durch die Privatisierung angeheizt. Diese Aussagen sind relativ evidenzfrei, vor allem wenn man die empirischen Ergebnisse des vorherigen Beitrags von Franziska Prütz reflektiert.

Das zweite Motiv für Krankenhauprivatisierungen, auf das Sibbel hinweist, handelt von den Entlastungen der öffentlichen Haushalte. Eine empirische Betrachtung zahlreicher Privatisierungsprozess von Krankenhäusern in einer Parallelveröffentlichung zu dieser Zeit legt auch hinsichtlich dieses zweiten Arguments eine gewisse Skepsis nahe. Einige Fallstudien aus dem Sammelband „Privatisierung von Krankenhäusern“ (Böhlke et al., Hamburg 2009) unterstützen eher die Interpretation, dass manche Privatisierungsprozesse zumindest mittelfristig mit erheblichen Finanzierungsrisiken für die öffentlichen Haushalte einhergegangen sind, da betriebliche Pensionslasten und vage Investitionszusagen die öffentlichen Haushalte keineswegs so sehr entlastet haben, wie der hier besprochenen Beitrag suggeriert.

Öffentliche Träger intervenieren Sibbel zu Folge zudem zu stark in die strategischen Entscheidungen von Krankenhausträgern, so dass das unprofessionelle Management von öffentlichen Krankenhäusern maßgeblich für die Defizite dieser Krankenhäuser sei. Dieses Argument ist wegen manifester historischer Ungenauigkeit und offensichtlichzem theoretischem Unverständnis recht irritierend. Zunächst gilt dieses Argument grundsätzlich nur für öffentliche Krankenhäuser in öffentlicher, und zwar vor allem nicht-selbständiger, Rechtsform. Wie Franziska Prütz in Ihrem vorhergehenden Beitrag nachdrücklich gezeigt hat, ist es das Ziel von formalen Privatisierungsprozessen, genau diese enge Bindung des Krankenhausmanagements von öffentlichen Einrichtungen an die politischen Entscheidungsträger zu überwinden. Dass öffentliche Träger trotz formaler Privatisierung immer noch zu viel intervenieren, müsste erst einmal empirisch nachgewiesen werden; das macht Sibbel jedoch nicht. Insofern ist die Aussage von Rainer Sibbel aufgrund der massiven Ausweitung formaler Privatisierungen hier mutmaßlich historisch überholt und folglich argumentativ leer.

Die argumentativen Leerhülsen gehen im Folgenden fröhlich weiter. Kein Argument ist zu dünn bzw. schlecht belegt, um die Überlegenheit von materiellen Privatisierungsprozessen anzupreisen. Zum einen hindere die Verfolgung des Sachziels: Versorgungsbedarfsdeckung die öffentlich geführten Krankenhäuser daran, ihre hierarchischen Organisationsstrukturen zu überwinden, eine bessere Kooperation zwischen den beteiligten Berufsgruppen zu etablieren und ihre Personalkosten zu senken. Angeblich alles Faktoren, die bei privatwirtschaftlich geführten Krankenhäusern besser sind – wie Sibbel natürlich unter Verweis auf die üblichen RWI- Auftragsstudien der privaten Krankenhausverbände zu belegen behauptet. Im DRG-System werden auch die Formalziele bei freigemeinnützigen und öffentlichen Krankenhäusern aufgewertet, zumal das Sachziel für sich genommen kaum für eine qualitativ hochwertige Versorgung genügen dürfte. Sibbel verweist selbst darauf, dass beide Ziele bei allen Trägern unter den neuen krankenhauspolitischen Bedingungen wichtig sind (Sibbel 2010: 51). Umso unverständlicher ist seine hier behauptete enthistorisierte Ineffizienz öffentlicher Krankenhausträger.

Unter Bezugnahme auf das SVR-Gesundheit 2001 behauptet Sibbel weiter, das „durch die mangelnde Prozessorientierung und Standardisierung sowie eine häufig ineffiziente veralteter Infrastruktur“ „die Selbstfinanzierungskraft des Krankenhauses durch eigenen erwirtschaftete Überschüsse insgesamt stark geschwächt [würde] bzw. […] nicht in ausreichendem Maße erschlossen werden“ könne (Sibbel 2010: 48). Seine Einschätzung der Gründe für die Privatisierung öffentlich geführter Krankenhäuser scheint eindeutig, wiederholt aber nur das leere Mantra dieses argumentativen Bausteins: „Letztlich erweisen sich die Defizite öffentlicher Strukturen aber häufig als zu groß, weshalb trotz der durchaus hohen Zahl formeller Privatisierungen letztlich [SIC!] oft doch der Verkauf des Krankenhauses einen privaten Träger die Ultima Ratio darstellt und erfolgt.“

ad 3) Im dritten Unterabschnitt, der mit „Stand der Privatisierung von Krankenhäusern in Deutschland“ (ebd.: 48) überschrieben ist, geht es nur am Rande um diesen Punkt. Eigentliches Thema ist die Spannung zwischen dem krankenhauspolitischen Oberziel der bedarfsgerechten Versorgung der Bevölkerung mit Gesundheitsleistungen, wie es im Krankenhausfinanzierungsgesetz niedergelegt ist (§ 1 Abs. 1 KHG), einerseits und dem betriebswirtschaftlichen Kernziel eines jeden Unternehmens, der „langfristige[n] Existenzsicherung als universelle[r] oberste[r] Zielsetzung“ (ebd.: 49) andererseits. Traditionellerweise werden in betriebswirtschaftlicher Hinsicht Formalziele (Erfolgsziele, Finanzziele) von Sachzielen (Leistungszielen, ethische Ziele) unterschieden. Während privatwirtschaftlich geführte Krankenhäuser eher den Formalzielen nacheifern, zielen öffentlich-rechtliche als auch freigemeinnützige Krankenhäuser eher auf die Erfüllung versorgungsbezogener Sachziele.

„Für öffentliche und freigemeinnützige Krankenhäuser ist finanzieller Erfolg Grundlage, um auch in Zukunft leistungsfähig im Sinne der Sachziele zu sein. Private Träger hingegen haben eher die Möglichkeit, die Sachziele so auszurichten, dass eine hohe Zielerreichung bei den Formalzielen daraus resultiert. Beiden muss aber bewusst sein, dass nur ein ‚Spielen auf beiden Manualen‘ langfristig die Existenz sichert.“ (Sibbel 2010: 51)

Dieses Zitat ist bemerkenswert. Im Grunde genommen sagt es aus, dass privatwirtschaftliche Krankenhäuser vor allem gewinnorientiert agieren. Wieso, so stellt sich Rainer Sibbel die Frage, konnte die Anzahl privatwirtschaftlicher Krankenhäuser in Deutschland dann derart wachsen, obwohl ein Teil der Gewinne „an die Anteilseigner […] als Renditen ausgeschüttet“ (ebd: 52) werden musste. Eine wirklich überzeugende Antwort liefert er an dieser Stelle nicht. Im Grunde sagt er, dass durch den hohen Kostendruck und die Steigerung der Leistungsverdichtung in privatwirtschaftlichen und freigemeinnützigen Krankenhäusern „ein höheres Effizienzniveau in ihrer Leistungserstellung“ (ebd.: 54) erreicht werden konnte (zu möglichen Qualitätseinbußen sagt er nichts). Wieso sind dann nicht die freigemeinnützigen Krankenhäuser in gleichem Maße gewachsen wie die privatwirtschaftlichen Krankenhäuser? Wie – so die auf den Nägel brennende Frage – kommt die höhere Effizienz zustande? (Beiläufig sei erwähnt, dass der Beitrag von Franziska Prütz zeigt, dass die Behauptung einer höheren Effizienz von privatwirtschaftlichen Krankenhäusern fragwürdig wird)

ad 4) Im letzten Absatz seines Beitrags widmet sich Rainer Sibbel (2010: 54ff.) den „Erfolgsfaktoren privater Klinikbetreiber“ (ebd.: 54) Und verwirrt den Leser zugleich mit einer knalligen Einschränkung: es lasse sich „kaum allgemein und vollends evidenzbasiert nachweisen, was die Erfolgsfaktoren privater Klinikbetreiber sind“ (ebd.). Der weitere Argumentationsgang ist nicht weniger kurios. Man höre und staune: der Erfolg der privatwirtschaftlichen Krankenhäuser lasse sich erstens aus den Schwächen, „die Institutionen allgemein und Krankenhäusern in öffentlicher Trägerschaft in besonderen zugeschrieben [SIC!] werden“ klar ableiten! Jetzt kommt es – zweitens – mit Knall: „Als marktbezogene Erfolgsfaktoren wird privaten Krankenhäusern und Trägern eine deutlich klarere und systematische Patienten-, Markt- und Wettbewerbsorientierung zugesprochen [SIC hoch 2], die bei einer Vielzahl von Fragen des strategischen Managements ansetzen.“ (Ebd.) Man reibt sich verwundert die Augen. Der Markterfolg der privatwirtschaftlichen Krankenhäuser beruht nur auf einem mehr oder weniger zugeschriebenen oder zugesprochenem Hörensagen?

In diesem ideologischen Freistil, der völlig evidenzfrei losmarschiert, geht es fröhlich weiter. Nicht, dass seine präsentierte empirische Evidenz fragwürdig wäre – es werden an dieser zentralen Stelle seines Textes schlicht keine Studien, die seine Argumentation stützen könnten, zitiert. Vielleicht verwechselt Rainer Sibbel die angloamerikanische und deutsche Bedeutung des Wortes evident. Zudem behauptete er, „Patientensicherheit und Qualitätsmanagement werden ggf. [SIC hoch 3] deutlich strukturierter und systematischer angegangen“ (ebd.), das Einweisermanagement und die Kommunikation mit den niedergelassenen Ärzten werde optimiert („Beziehungspflege“).

„Insgesamt erweisen sich private Träger bzw. Krankenhäuser häufig als flexibler und zukunftsorientierter im Hinblick auf die Entwicklungen im Gesundheitssystem und dessen Rahmenbedingungen, wie beispielsweise die Entwicklung und Diskussion rund um medizinische Versorgungszentren zeigt.“ (Ebd.).

Genau. Das ist ja evident. Was also sind seine Argumente? Ernst genommen, behauptet er, dass sich privatwirtschaftliche Krankenhäuser systematisch dem besseren Krankenhausmanagement verschreiben, wie er dankenswerterweise in seiner Habilitationsschrift gezeigt hat (er zitiert sich wirklich als einzige Quelle an dieser Stelle!). Aber die Beschreibung, wie etwas perfekt läuft bzw. laufen sollte oder könnte (präskriptive Unternehmensberatung), hat mit der realen Entwicklung nur bedingt etwas zu tun. Hier wird in klassischer Weise das Modell für die Realität gehalten. Nicht zu Unrecht ist eine solche Verwechslung von Realität und naivem Modelldenken als Modellplatonismus bezeichnet worden. Bestenfalls – und mit mehrfach gekreuzten Fingern – lassen sich seine Aufzählung theoretisch konstruierter und präskriptiv angepriesener Erfolgsfaktoren als „Hypothesen“ für Forschungsprojekte über mögliche Erfolgsfaktoren rechtfertigen. Um dies zu tun – und der Rezension eines weitgehend hilflosen Textes eine positive Wendung zu geben – wird der zentrale Absatz seiner Arbeit hier wörtlich zitiert (ebd.: 55):

„Als maßgebliche Erfolgsfaktoren aus produktions- und kostenorientierter Perspektive ist die konsequente Nutzung von Synergien und Vorteilen zu nennen, die sich einerseits aus Marktmacht und Unternehmensgröße, beispielsweise in der Beschaffung, erschließen lassen und die andererseits auf Spezialisierungs- und Erfahrungskurveneffekten basieren. Dazu zählen gerade auch Ansätze zur Standardisierung der Leistungsprozesse beispielsweise mit Hilfe von Clinical Pathways oder Checklisten sowie eine an den Prozessen ausgerichtete Organisations- und insbesondere auch Infrastruktur [Selbstzitat: hier]. Das geht häufig einher mit gezielten Strategien zur Personalakquisition wie zur Fort- und Weiterbildung [f&w-Beitrag zitiert]. Entscheidend dafür, die angeführten Erfolgspotentiale umsetzen und ausnutzen zu können, ist die gerade auf Seiten privater Träger oftmals vorhandene hohe Finanzkraft und Investitionsfähigkeit gepaart mit klareren Entscheidungs- und Rechtstrukturen, die es erlaubt, Zielsetzung gerechter und schneller auf veränderte Anforderungen und Potenziale reagieren zu können [SIC hoch 4]. Grundpfeiler insbesondere des wirtschaftlichen Erfolgs gerade der privaten Krankenhausbetreiber in einem DRG-System, d.h. bei pauschalierten Leistungsentgelte, ist die Effizienz der Leistungserstellung.“

Ein wahrlich grußeliger Absatz. Und nun kippt die Argumentation erneut. In dem letzten Absatz dieses vierten Abschnitts behauptete er – und damit seine ganze bisherige Argumentation auf den Kopf stellend –, dass der Erfolg der privatwirtschaftlichen Krankenhäuser vor allem auf den Schwächen und dem Beharrungsvermögen der öffentlich-rechtlichen Strukturen und Krankenhäuser beruhe. Mit einem Mal ist es jetzt plötzlich nicht mehr die Trägerschaft, die entscheidend ist, sondern die professionelle Führung (die man ja auch beraten kann!). Nachdem eben noch die privatwirtschaftlichen Krankenhäuser strukturell besser waren, ist es jetzt plötzlich nur noch das Management:

“ Wie sehr auch immer diese verschiedenen Faktoren im einzelnen oder in ihrer Wechselwirkung den Erfolg von Krankenhäusern und Klinikketten in privater Trägerschaft ausmachen, letztlich erscheint keiner der genannten Faktoren so zwingend und nachhaltig, dass Krankenhäuser in öffentlichen Strukturen unter professioneller Führung und mit entsprechend motivierten Personal diese nicht auch anstreben und realisieren könnten, die letztlich einige Beispiele öffentlicher Krankenhäuser und Krankenhausverbände auch zeigen.“ (Ebd.: 56)

Kein Wunder, dass ihn die anderen Autoren in der abschließenden Stellungnahme der Arbeitsgruppe nicht dabeihaben wollten. Es ist ein sehr dürftiger Beitrag zur Diskussion um Privatisierungsprozesse im deutschen Krankenhauswesen.

Krankenhausprivatisierung: auch unter DRG-Bedingungen ein Erfolgsmodell?