Man könnte bald von einem Gesetz der Serie oder noch zutreffender von einem medialen Dominoeffekt sprechen: sobald irgendein Mißstand thematisiert, sobald irgendein Fehlverhalten entlarvt ist, so dauert es nicht lange, bis ähnliche Fälle ans Licht der Öffentlichkeit kommen. Und dies gilt ganz unabhängig von der Art des Gegenstandes: hier unterscheiden sich verrückte Pflanzenfresser (BSE), nicht von medikamentenfressenden Verrückten (Radsport) oder anderen Gammelfleischskandalen.
Ist die erste verdorbene Fleischlieferung entdeckt, so dauert es gewiß nicht lange, bis in irgendeinem Kühlhaus tonnenweise grünlich-verfärbte Schweinehälften auftauchen. Und sobald sich der erste halbwegs geläuterte Exradstar ein Herz faßt und seine Verstrickung in die Praktiken der Leistungsmanipulation beichtet, darf man getrost schon die Taschentücher bereithalten, um sie den weiteren reuigen Sündern anzubieten.
Kaum anders verhält es sich mit der Pannenserie, die derzeit die bundesdeutsche Diskussion um die Sicherheit der Kernenergie bestimmt. Erst wurde ein Brand auf dem Reaktorgelände bekannt, sehr viel später offenbarte sich das wahre Ausmaß des Zwischenfalls und seitdem werden fast im täglichen Rhythmus weitere Versäumnisse publik: die Betreiber agieren so konfus, wie sich die Aufsichtsbehörden als zahnlos entpuppen. Vermutlich sind fehlerhafte Dübel noch das Geringste, was bislang verheimlicht wurde. Die ursprüngliche Rede von einer „spontanen Leckage“, wie ein Zwischenfall am 14.12.2001 im KKW Brunsbüttel ursprünglich bezeichnet wurde, erwies sich letztlich doch als nicht haltbar: immerhin war es zu einer erheblichen Knallgasexplosion gekommen, die eine Leitung des Reaktordruckbehälters auf fast 4 Metern aufriß. Unter „Leckage“ stellt man sich gemeinhin etwas anderes vor. Später kamen die Untersuchungsbehörden zu gänzlich anderen Lesarten, als die Betreiber glauben machen wollten. Als Fazit stellten die Fachleute fest, daß entweder der Vorfall „schamlos vernebelt“ werden sollte oder die Sachkunde „skandalös unterentwickelt“ sei. Nun ja, der Betrieb des Reaktors ging freilich weiter. Wie jetzt bekannt wird, gab es ähnliche Fälle bereits mehrmals zuvor.
Festzuhalten bleibt: der Betrieb von hochriskanten Technologien wird niemals ohne prekäre Notfallsitationen ablaufen; es kann niemals 100% Sicherheit geben. Wie zentral freilich die Sicherheitsorientierung und der Kontrollglaube sind und welche abfedernd-aufklärende Rolle hier Risikokommunikation spielen muß, soll im folgenden eingehend erörtert werden:
Die Thematisierung von Sicherheit bzw. Unsicherheit hat in den unterschiedlichsten Disziplinen eine zum Teil weit zurückreichende Tradition. So setzt bspw. das moderne Staatsdenken damit ein, daß Thomas Hobbes dem Staat explizit die Aufgabe zuweist, die Sicherheit seiner Bürger zu garantieren. Und Sicherheit ist schon hier verstanden als Status kollektiver und/oder individueller Gefährdungsfreiheit. Schon Hobbes und noch deutlicher John Locke formulieren als vornehmstes Staatsziel: die institutionellen Rahmenbedingungen sind derart zu gestalten, daß für alle Mitglieder des Gemeinwesens die Abwesenheit von (physischer) Bedrohung gewährleistet ist.
Damit trägt die Staatstheorie nunmehr dem humanen Grundbedürfnis nach Sicherheit Rechnung, das – wie Untersuchungen aus dem Bereich von Soziobiologie und Anthropologie zeigen – als quasi-anthropologische Konstante aufzufassen ist (vgl. Zelinka 1997). Je unübersichtlicher und komplexer sich freilich die Lebenswirklichkeit jedes Individuums gestaltet, desto stärker wächst das subjektive Sicherheitsbedürfnis. Und so ist an der Richtigkeit der Feststellung von John Dewey nicht zu zweifeln: „Man who lives in a world of hazards is compelled to seek for security.“ (Dewey 1929: 3)
In jüngerer Vergangenheit wird Sicherheit allerdings von wachsenden Bevölkerungsteilen immer häufiger als gefährdete Ressource empfunden (Kaufmann 1987: 38). Noch stärker als die ökonomisch orientierte Statussicherheit, wird vor allen Dingen die körperlich-gesundheitliche Sicherheit (resp. Unversehrtheit/Gesundheit) zu einem „Wert an sich“ erhoben. Inzwischen hat auch die Diskussion innerhalb des Verfassungsrechts eine Bringschuld des Staates problematisiert: dem Staat wird zum Teil gar eine Schutzverpflichtung zugewiesen, die aus einem „Grundrecht auf Sicherheit“ abgeleitet wird (vgl. Isensee 1983, Glaeßner 2002). Angesichts qualitativ neuer Gefährdungspotentiale und offensichtlichen Kontrolldefiziten sei – so die Forderung – Sicherheit als Staatsziel anzuerkennen (vgl. Stoll 2003).
Hier durchdringen sich also zwei der Bedeutungsebenen, in die sich der Terminus ‚Sicherheit’ untergliedern lässt:
1.) Das individuell-subjektive Sicherheitsbedürfnis: dieses kommt einerseits im individuellen Streben nach Vorhersehbarkeit und Kontrolle, andererseits durch das Vermeiden unkalkulierbarer Risiken zum Ausdruck. Dabei ist von zentraler Bedeutung, daß das Sicherheitsempfinden in maßgeblicher Weise das Ergebnis soziokultureller Wahrnehmungs- und Vermittlungsprozesse ist (Douglas/Wildavsky 1993); Laien nehmen (Un-)sicherheit als komplexes, multidimensionales Phänomenen wahr. Offizielle auf technischen Daten basierende Risikoeinschätzungen sind lediglich ein Teil davon und für das Gefühl von Sicherheit resp. Unsicherheit nicht allein ausschlaggebend, sondern werden durch individuelle, selektive Urteilsmuster ergänzt (vgl. MacGregor et al. 1999, Willis et al. 2005).
2.) Das institutionelle Arrangement zur Sicherstellung staatlicher Schutz- und Kontrollpflichten: Zielsetzung ist hierbei auf der einen Seite die Minimierung objektiv gegebener Gefährdungslagen (‚Risikoregulierung’); auf der anderen Seite gilt es aber zugleich, das Sicherheitsgefühl der Bürger zu stärken. Das Gefühl von Schutz und Verläßlichkeit kann nur über ausreichende ‚Risikokommunikation’ sichergestellt werden.
Dabei wird deutlich: sobald die Möglichkeiten des Einzelnen nicht mehr hinreichen, sein grundlegendes Sicherheitsbedürfnis aufrechtzuerhalten, sind kollektive Institutionen und Regelungsmechanismen gefragt, um dieses subjektiv wahrgenommene Sicherheitsdefizit zu kompensieren.
Selbsterzeugte Gefährdungslagen und kognizierte Unsicherheit
Für die Zeit seit etwa 1970 ist festzustellen, daß vor allem die unintendierten, ungesehenen Nebenfolgen der industriellen Wohlstandssteigerung zu einer Renaissance der Unsicherheit geführt haben. Dabei ist es nicht notwendig, daß bspw. eine tatsächliche Beeinträchtigung von Gesundheit und Leben bereits eingetreten ist. Denn während kognizierte Sicherheit, auf dem Bewußtsein beruht, die jeweilige Zukunft vorhersagen und kontrollieren zu können, ist diese essentielle Kontrollzuversicht im Falle kognizierter Unsicherheit verschwunden. Sie resultiert also aus der Konfrontation mit einer Zukunft, deren mögliche Ausprägungen weder als überschaubar, geschweige denn als kontrollierbar angesehen werden können. Unsicherheit ist in diesem Sinne das Bewußtsein, daß die Zukunft negative Überraschungen bereithalten könnte, ohne daß in der Gegenwart geeignete Mittel zur Verfügung stehen, diesen negativen Konsequenzen auszuweichen (Gasparini 2004).
Es bedarf also keineswegs der möglicherweise traumatischen Katastrophen wie Bhopal oder Tschernobyl, um ein diffuses Gefühl der Unsicherheit hervorzurufen. Es scheinen vielmehr die subtilen, alltäglichen „zivilisatorischen Selbstgefährdungen“ (Beck 1986: 63) zu sein, die sich etwa in Gestalt der Diskussionen um Elektrosmog, Trinkwasser- oder Luftverschmutzung, Ozonloch oder BSE-Krise, etc. zu einer tiefgreifenden Verunsicherung aufaddieren (vgl. Jaeggi 1991, Zwick 1998).
“The food we eat, the water we drink, the air we breathe, our habits and lifestyles, and, not least, the many technologies that we are becoming increasingly dependent upon, are all more or less imbued with uncertainty as to what their effects might be.” (Boholm 2003: 159)
Die Wahrnehmung einer potentiellen Betroffenheit reicht folglich aus, um das subjektive Sicherheitsempfinden nachhaltig zu stören. Das Ausmaß der Verunsicherung und die Bereitschaft, dennoch etwaige Risiken zu tolerieren, variiert – wie die Risikoperzeptionsforschung zeigt – individuell und situationsabhängig (Kahneman et al. 1982, Slovic et al. 2004). In die Risikobeurteilung von Betroffenen fließen v.a. die Freiwilligkeit der Risikoübernahme, Kosten-Nutzen-Kalküle, eigene Kontroll- und Ausweichmöglichkeiten, das Katastrophenpotential, der Bekanntheitsgrad einer Gefahrenquelle resp. deren Innovationsgrad und die kognitive Verfügbarkeit von Informationen mit ein.
„Die wichtigste Erkenntnis der psychologischen Risikoforschung ist […], daß in den Risikobeurteilungen der Öffentlichkeit sowohl Irrtum als auch Klugkeit stecken. […] Anstrengungen zur Risikokommunikation und zum Risikomanagement müssen scheitern, wenn sie nicht als ein interaktiver, in beide Richtungen laufender Prozess begriffen und strukturiert werden.“ (Jungermann/Slovic 1993: 202)
Diese Einsicht kann nicht hoch genug eingeschätzt werden. Die innerhalb von Experten festzustellende Tendenz, die in der Bevölkerung anzutreffende Unsicherheit und Skepsis als irrational oder gar als Hysterie abzutun, geht an der Sache vorbei: wenn Unsicherheit etwa durch Bürgerinitiativen oder Verbraucherschutzverbände artikuliert wird, ist dies ein sozialer Tatbestand. Denn weder korreliert ein objektiv gegebenes Gefahrenpotential mit dem Grad der wahrgenommenen Unsicherheit, noch führt die Minimierung von Gefahrenquellen automatisch zu einem Anstieg des Sicherheitsempfindens (vgl. Bonß 1997).
Die Risikoeinschätzung und die ‚gefühlte Unsicherheit’ von Laien weist – wie unzählige Studien belegen – eine erhebliche Diskrepanz zu Expertenurteilen auf (in jüngerer Zeit: Slovic et al. 2004, Renn 2004, Savadori et al. 2004). Allerdings ist dies nur bis zu einem gewissen Umfang auf ein Informations- und Wissensdefizit zurückzuführen. Weit größeren Einfluß auf die Risikoperzeption von Laien haben bestimmte Urteilsheuristiken, die allerdings gegenstandsspezifisch, im Zeitverlauf und hinsichtlich der sozialen Gruppenzugehörigkeit variieren (Shaw 2004). Die Unsicherheit bezüglich der Gefahren im Lebensmittelbereich unterscheidet sich bspw. von der Skepsis gegenüber der Nanotechnologie, Frauen zeigten während des BSE-Falles eine größere Zurückhaltung was den Fleischkonsum anging als Männer (vgl. Hansen et al. 2003).
Die von Verbrauchern wahrgenommene Unsicherheit wird daneben noch von einem weiteren Faktor beeinflußt: nämlich dem Gefühl, auf risikorelevante Entscheidungen Einfluß nehmen zu können oder wenigstens durch Verhaltensmodifikationen die persönliche Risikoausgesetztheit minimieren zu können. Doch je unüberschaubarer die Verantwortlichkeiten, je anonymer die Verfahrenswege, desto geringer die ‚Kontrollzuversicht/Kontrollfähigkeit’ (‚controllability’) der Betroffenen (Willis et al. 2005). Durch eine effiziente und sachangemessene Risikokommunikation, die vor allem ‚Stakeholder’ in Entscheidungsprozesse einbezieht, könnte diesem Problem begegnet werden (Leiss 2004, Frewer 2004).
Die Grenzen der Wissenschaft: Ambivalenzen der Wissensgenese
Neben diesem Aspekt individuell-subjektiver Unsicherheit kommt in der Auseinandersetzung mit den gesellschaftlichen Folgen industriellen Forschens und Handelns einer weiteren Unsicherheitsdimension eine wesentliche Bedeutung zu, die als ‚scientific uncertainty’ gekennzeichnet werden kann. Je nach Perspektive mag dieser zu erläuternde Sachverhalt als Paradoxon oder als schlichte Selbstverständlichkeit erscheinen: denn schließlich ist es die wesensmäßige Bestimmung von Wissenschaft mehr Sicherheit herzustellen. Innerhalb aufgeklärter Gesellschaften ist sie diejenige Institution, die mit rationalen Methoden immer mehr kausales Wissen erzeugen soll. Die Erweiterung der Kenntnisse dient dann als Orientierungswissen und bildet die Grundlage für technologisches Handeln.
Der Prozeß der Wissensgenese und -implementation ist in der Realität allerdings sehr viel ambivalenter: denn jeder Erkenntnisfortschritt geht zugleich damit einher, daß Bereiche des Nicht-Wissens auftauchen (Böschen 2002, Wehling 2003). Und jede weitere Innovation und Ausweitung von (technologischen) Handlungsmöglichkeiten führt dazu, daß deren hochkomplexe Wechselwirkungen kaum noch überschaubar und berechenbar sind.
„Je bestimmter […], genauer, in immer mehr Variablen und Kombinationen zerteilt man die Gegenstände oder Ereignisse beschreibt, desto unbestimmer […] und mehrdeutiger wird das Wissen darüber, wie sich ein System oder Gegenstand tatsächlich verhalten wird.“ (Gamm 2000: 178)
Am Beispiel der Fehler- und Schadensanfälligkeit großtechnischer Anlagen wurde bereits 1987 in einer maßgeblichen Studie von Charles Perrow auf diese strukturelle Problematik und Risikoträchtigkeit in der Handhabung sog. ‚komplexer Systeme’ hingewiesen (Perrow 1987, vgl. Sagan 2004).
Die Vielzahl von wissenschaftlichen Irrtümern und industriellen Unfällen mit kaum zu kalkulierenden Schadensverläufen veranlasste etwa Ulrich Beck zur Feststellung, daß „das Ergebnis des wissenschaftlichen Fortschritts nicht Sicherheit, sondern hergestellte Ungewißheit ist“ (Beck 1991: 157). Und auch von jeder weiteren Intensivierung von Forschungsanstrengungen ist – so der Tenor jüngerer wissenschaftssoziologischer Studien (Carrier 2000, Maasen 2001, Krohn 2003) – bestenfalls mehr Wissen, allerdings nicht mehr Sicherheit zu erwarten. Die unhintergehbare Restunschärfe des Wissens lässt sich nicht eliminieren. Und so ist die vor mittlerweile bald 25 Jahren von Mary Douglas und Aaron Wildavsky getroffene Bemerkung auch heute noch in gleichem Maße zutreffend:
„Once the source of safety, science and technology have become the source of risk.” (Douglas/Wildavsky 1993: 123)
Es gibt also einen Bestand an Unsicherheit trotz (oder in vielen Fällen: aufgrund von) Wissenschaft. Für das Feld des Umgangs mit Risiken ergeben sich aus diesem ‚gap of knowledge’ folgende Konsequenzen:
1.) Unsicherheit hinsichtlich der Wissensgenese: Der Transfer von wissenschaftlichen Erkenntnissen in Anwendungszusammenhänge setzt (gemäß einer eher naiven Vorstellung) voraus, daß vollständige Gewißheit hinsichtlich der Gültigkeit des in Frage stehenden Wissens besteht. Die politische Entscheidung für eine bestimmte Technologie (seien es denkbare Anwendungen der Nanotechnologie oder bereits verfügbare Optionen der Biotechnologie) ist allein auf der Grundlage von ‚robustem Wissen’ legitim. Andernfalls riskieren die Entscheider in der Politik den Entzug des Wählervertrauens; Verantwortliche in Industrie und Wirtschaft riskieren, daß das Unternehmen in Mißkredit gezogen wird.
Nachdem die Evidenz von Meßwerten, Zahlen und Daten keineswegs immer zweifelsfrei gegeben ist, bleibt allein der Konsens innerhalb der ‚scientific community’ als Entscheidungskriterium. Jedoch hat die Ausdifferenzierung und Demokratisierung des Wissenschaftssystems selbst zu einer ‚Heterogenisierung von Expertise’ geführt: der fachliche Widerstreit ist das Symptom, an dem die strukturelle Insuffizenz von Wissenschaft abzulesen ist, letztgültige Sicherheiten zu produzieren (Nowotny 1999, Nowotny et al. 2003).
Die Frage, die sich für die Gesellschaft stellt, ist dann nur, welcher Grad an Unsicherheit für tolerierbar erachtet wird. Aufgabe von Risikokommunikation vor diesem Hintergrund ist es, zu vermitteln, daß ein quantitativer Zuwachs an Wissen im Ergebnis zu einem qualitativ geringeren Gewißheitsniveau führen kann; gleichzeitig aber Entscheidungsregeln auf der Basis wissenschaftlicher Aussagen gefunden werden müssen. Wissenschaft ist allerdings auch und gerade in der Konfrontation mit ihren immanenten Unzulänglichkeiten alternativlos: „In Phasen der Verunsicherung steigt die Bedeutung von Experten“ (Bonß 1995: 23).
Für Prozesse der Risikokommunikation gilt es anzuerkennen und transparent zu machen, daß wissenschaftliches Nicht-Wissen kein Einzelfall, sondern die Regel ist. Um die Entscheidungsgrundlage zu verbreitern und ggf. gegenseitige Lerneffekte anzustoßen, kann es förderlich sein, Vertreter von Interessengruppen, NGO’s oder weiteren ‚Stakeholdern’ in Entscheidungs- und Beratungsgremien einzubinden:
„It is also in the interests of informed public debate that each side acknowledges that uncertainty is an inevitable part of the scientific process. […] A franker treatment of scientific uncertainty would be of long-run benefit to scientific advisory panels. Systematic treatment of scientific uncertainty will not diminish the authority of the pronouncements or recommendations of these committees. On the contrary, it will reinforce their authority by showing their ability to acknowledge and express uncertainty in a professionally responsible manner.” (Weiss 2002: 385)
2.) Unsicherheit hinsichtlich des ‚Riskassessment’: gerade innerhalb von Risikoanalysen-/abschätzungen ergeben sich naturgemäß weitreichende Unsicherheitsspielräume.
a) Bereits die Definition, was überhaupt als Schadensfall einzustufen ist, kann strittig und unsicherheitsbelastet sein;1 was aus der einen Perspektive noch als irrelevante Begleiterscheinung angesehen wird, ist von einem anderen Standpunkt aus betrachtet bereits eine tiefgreifende Beeinträchtigung. Hintergrund für Unbestimmtheiten dieser Art, sind aber meist weniger Defizite des Wissens, sondern ein Wertedissens zwischen verschiedenen Akteuren.
b) Handfeste wissenschaftlich-technische Kontroversen bestehen allerdings im Bezug auf Kausalitätsannahmen: der ursächliche Zusammenhang zwischen bestimmten Handlungen/Eingriffen oder einer angenommenen Schadstoffexposition und möglichen negativen Folgeerscheinungen ist kaum lückenlos herzustellen. Krankheitssymptome lassen sich jeweils nur indirekt auf konkrete Ursachen zurückführen. Unsicherheit besteht hier stets darüber, welcher Anteil individuellem Fehlverhalten, entsprechender Veranlagung, dem Zufall bzw. natürlicher Variabilität und der Wirkung zusätzlicher toxischer Stoffe beigemessen wird. Insbesondere die Abschätzung von Gesundheitsgefährdungen bei Schadstoffminimalexposition ist in hohem Maße unsicherheitsbehaftet.
Im Falle bspw. der Quecksilberbelastung durch Amalgamfüllungen kann kaum wissenschaftlich eindeutig eine verursachende Wirkung festgestellt werden. Ähnliches gilt u.a. für Gesundheitsbeeinträchtigungen durch Lösemittel, Umwelt-Östrogene, elektromagnetische Felder etc. (vgl. Rosenbrock/Maschewsky 1998). Problemverschärfend kommt hinzu, daß die Analyse- und Bearbeitungskapazität von toxikologischen Forschungseinrichtungen äußerst gering ist; angesichts von ca. 70.000 in Wohnräumen vorzufindenden Chemikalien wird deutlich, wie partiell und selektiv Risikoanalysen ausfallen müssen (EEA 2001). Und gerade wenn Ursache-Wirkungs-Zusammenhänge im Niedrig-Dosis-Bereich extrapoliert werden müssen, ist gesicherte Evidenz kaum herzustellen:
„Die Vielschichtigkeit, Komplexität und Unsicherheit in der Risikoanalyse von Schadstoffen erschweren eine eindeutige Lösung solcher konfligierender Expertenurteile.“ (Renn 2002: 46)
c) Der letzte Unsicherheitsaspekt bezieht sich auf die Identifizierung und Kategorisierung von Risikoszenarien allgemein: denn für bekannte, d.h. ‚definierte Risiken’ stehen bestimmte, erfolgsversprechende Handlungsstrategien bereit. Bei bekannten Gefahrenquellen liegt ein Mindestmaß an Erfahrungswissen vor. Solche Risiken sind charakterisiert dadurch, daß 1. die Häufigkeit, mit der ein Störfall/Exposition eintritt, bekannt ist, 2. zumindest Modellannahmen über mögliche Schadensverläufe und -kausalitäten existieren und 3. die Wahrscheinlichkeit bekannt ist, mit der bei einer gegebenen Exposition ein schädliche Wirkung zu erwarten ist. Die Unsicherheit ist also einerseits durch Kalküle abgefedert, andererseits kann ihnen mit den erprobten Strategien des Risikomanagements entgegengetreten werden.
Die Verunsicherung in der Auseinandersetzung mit hypothetisch riskantem Handeln geht allerdings so weit, daß auch bislang unbekannte, aber zukünftig nicht auszuschließende Schadensfälle in der Risikokommunikation Relevanz gewinnen (Wiedemann et al. 2004). Denn das oben skizzierte analytische Nicht-Wissen (‚gap of knowledge’) impliziert konsequenterweise auch, daß es nicht-gewußte, d.h. ‚diffuse Risiken’ gibt. Mangels Vergleichswissen und Informationen, können im Falle solcher kontingenter Risken auch keine Risikovorkehrungen getroffen werden (EPA 2000). Es bleibt nichts anderes übrig, als abzuwarten und sich überraschen zu lassen. Es ist eben das Charakteristikum nicht-identifizierter Risiken, daß ihr faktisches Auftreten nicht notwendig aber stets möglich ist.
Aber egal, ob es sich um konkrete oder rein hypothetische Bedrohungsszenarien handelt: Unsicherheit ist in Bezug auf Handlungsfolgen (i.S. ökologischer, finanzieller, politischer oder gesundheitlicher ‚bads’ or ‚goods’) immer gegeben.
Die Anerkennung von Wissenslücken und bestehender Unsicherheit ist daher als wesentliche Voraussetzung für eine sachgerechte Risikokommunikation anzusehen.
„Risikokommunikation im Bereich von Umweltrisiken ist deshalb unabdingbar mit der Vermittlung von Komplexität, Unsicherheit und Ambivalenz verbunden.“ (Renn 2002: 41)
Für die Risikokommunikation lassen sich vor diesem Hintergrund folgende Anforderungen formulieren:
Erstens: Risikokommunikation muß eine ‚Übersetzungsfunktion’ leisten: nämlich den Transfer von Expertenwissen (d.h. Stand der Forschung einschließlich der Wissenslücken resp. Nicht-Wissen) in adressatengerechte Information. Möglicherweise müßte in gesamtgesellschaftlicher Hinsicht zur Erlangung einer gewissen Frustrationstoleranz der Umgang mit Unsicherheit ‚eingeübt’ werden. Dies bedeutete aber eben nicht die Leugnung oder Bagatellisierung von Unsicherheitsmomenten; vielmehr muß eine transparente Kommunikation von Ungewißheit/Nicht-Wissen durch Wissenschaft, Industrie und Politik trainiert und ggf. von ‚Stakeholdern’ eingefordert werden.
Zweitens: Zielsetzung dabei ist, sich einer ‚consumer sovereignty’ anzunähern: nämlich die Verbraucher in die Lage zu versetzen, souverän und bewußt über Chancen und Risiken von Technologien zu entscheiden. Es geht also darum, Bürgerinnen und Bürger mit ‚Risikokompetenz’ auszustatten, oder wie es die Risikokommission formuliert:
„Kommunikation soll allen interessierten Bürgerinnen und Bürgern die Möglichkeit verschaffen, auf der Basis der Kenntnis der faktisch nachweisbaren Auswirkungen, der verbleibenden Unsicherheiten und der vertretbaren Interpretationsspielräume eine persönliche Beurteilung der jeweiligen Risiken vorzunehmen“ (Risikokommission 2003: 15)
Zusammenfassend läßt sich feststellen, daß Sicherheit durch Risikohandeln prekär geworden ist und das Vertrauen in die institutionalisierten Entscheidungs- und Bearbeitungsmechanismen mehr und mehr erodiert. Wie dargestellt wurde, reichen inzwischen auch wissenschaftliche Expertenurteile nicht mehr aus, um mögliche Zweifel auszuräumen; im Gegenteil: ein Großteil der Verunsicherung resultiert gerade aus konfligierenden, sich also gegenseitig zumindest teilweise widersprechenden Expertenmeinungen. Hier liegt eine der besonderen Herausforderungen, der sich die Risikokommunikation gegenübersieht. Widersprüche und Wissenslücken nicht zu thematisieren oder gar zu leugnen, ist als Kardinalfehler aller Kommunikationsbemühungen anzusehen. Jeder der die Hoffnung darauf setzt, daß das wahre Ausmaß der Gefährdung nicht bekannt wird, setzt fahrlässigerweise die elementare Ressource „Vertrauen“ aufs Spiel. Welche Faktoren hier relevant sind, wird im nächsten Teil der Artikelserie der Wissenswerkstatt behandelt.
Artikelserie zur Risikokommunikation:
Literatur:
Beck, Ulrich (1986): Risikogesellschaft. Auf dem Weg in eine andere Moderne. Frankfurt a.M.: Suhrkamp.
Beck, Ulrich (1991): Die Welt als Labor. Essays und Analysen, in: Beck, Ulrich (Hg.), Politik in der Risikogesellschaft. Frankfurt a.M.: Suhrkamp, S. 154-167.
Böschen, Stefan (2002): Risikogenese. Metamorphosen von Wissen und Nicht-Wissen, in: Soziale Welt, 53. Jg., S. 67-86.
Boholm, Asa (2003): The Cultural of Nature Risk: Can there be an Anthropology of Uncertainty?, in: Ethnos, 68. Jg. (Nr.2), S. 159-178.
Bonß, Wolfgang (1995): Vom Risiko. Unsicherheit und Ungewißheit in der Moderne. Hamburg: Hamburger Edition.
Bonß, Wolfgang (1997): Die gesellschaftliche Konstruktion von Sicherheit, in: Lippert, E. / Prüfert, A. & Wachtler, G. (Hg.), Sicherheit in der unsicheren Gesellschaft. Opladen: Westdeutscher Verlag, S. 21-41.
Carrier, Martin (2000): Empirische Hypothesenprüfung ohne Felsengrund, oder: Über die Fähigkeit, sich am eigenen Schopf aus dem Sumpf zu ziehen, in: Stadler, Friedrich (Hg.), Elemente moderner Wissenschaftstheorie. Zur Interaktion von Philosophie, Geschichte und Theorie der Wissenschaften. Wien, New York: Springer, S. 43-56.
Dewey, John (1929): The Quest for Certainty. Study of the relation of knowledge and action. New York: Minton Balch and Co.
Douglas, Mary & Wildavsky, Aaron (1993): Risiko und Kultur. , in: Krohn, Wolfgang & Krücken, Georg (Hg.), Riskante Technologien: Reflexion und Regulation (im Orig.: Risk and Culture. Berkeley, 1982). Frankfurt a.M.: Suhrkamp, S. 113-137.
EEA (2001): Europe’s Environment: The Second Assessment. European Environment Agency.
EPA (2000): Risk characterization handbook. U.S. Environmental Protection Agency. Washington, D.C.
Frewer, Lynn (2004): The public and effective risk communication, in: Toxicology Letters, 149. Jg. (Nr.149), S. 391-397.
Gamm, Gerhard (2000): Das Wissen der Gesellschaft, in: Gamm, Gerhard (Hg.), Nicht nichts. Studien zu einer Semantik des Unbestimmten. Frankfurt a.M.: Suhrkamp, S. 178-191.
Gasparini, Giovanni (2004): Anticipation and the surprises of everyday life, in: Social Science Information, 43. Jg. (Nr.3), S. 339-348.
Glaeßner, Gert-Joachim (2002): Sicherheit und Freiheit, in: Aus Politik und Zeitgeschichte, B 10-11. Jg., S. 3-13.
Hansen, Janus / Holm, Lotte / Frewer, Lynn et al. (2003): Beyond the knowledge deficit: recent reaserch into lay and expert attitudes to food risks, in: Appetite (Nr.41), S. 111-121.
Isensee, Wolfgang (1983): Das Grundrecht auf Sicherheit. Zu den Schutzpflichten des freiheitlichen Verfassungsstaates. Berlin, New York.
Jaeggi, Eva (1991): Psyche und Risikokommunikation, in: Krüger, Jens & Russ-Mohl, Stephan (Hg.), Risikokommunikation. Technikakzeptanz, Medien und Kommunikationsrisiken. Berlin: Edition Sigma, S. 67-74.
Jungermann, Helmut & Slovic, Paul (1993): Die Psychologie der Kognition und Evaluation von Risiko, in: Bechmann, Gotthard (Hg.), Risiko und Gesellschaft. Grundlagen und Ergebnisse interdisziplinärer Risikoforschung. Opladen: Westdeutscher Verlag, S. 167-207.
Kahneman, Daniel / Slovic, Paul & Tversky, Amos (1982): Judgment under uncertainty: heuristics and biases . New York: Cambridge University Press.
Kaufmann, Franz Xaver (1987): Normen und Institutionen als Mittel zur Bewältigung von Unsicherheit: Die Sicht der Soziologie, in: Bayerische Rückversicherung (Hg.), Gesellschaft und Unsicherheit. Karlsruhe: Verlag Versicherungswirtschaft, S. 37-48.
Krohn, Wolfgang (2003): Das Risiko des (Nicht-)Wissens. Zum Funktionswandel der Wissenschaft in der Wissensgesellschaft, in: Böschen, Stefan & Schulz-Schaeffer, Ingo (Hg.), Wissenschaft in der Wissensgesellschaft. Wiesbaden: Westdt. Verlag, S. 97-118.
Leiss, William (2004): Effective risk communication practice, in: Toxicology Letters (Nr.149), S. 399-404.
Maasen, Sabine (2001): Chaotics – ein Fall von Wissens(un)ordnung in der Wissensgesellschaft, in: Franz, H. / Kogge, W. / Möller, T. et al. (Hg.), Wissensgesellschaft. Transformationen im Verhältnis von Wissenschaft und Alltag (IWT-Paper 25). Bielefeld: Universität, S. 129-142.
MacGregor, Donald G. / Slovic, Paul & Malmfors, Torbjörn (1999): ‚How exposed is exposed enough?‘ Lay inferences about chemical exposure, in: Risk Analysis, 19. Jg. (Nr.4), S. 649-659.
Nowotny, Helga (1999): Es ist so – es könnte auch anders sein: über das veränderte Verhältnis von Wissenschaft und Gesellschaft. Frankfurt am Main: Suhrkamp.
Nowotny, Helga / Scott, Peter & Gibbons, Michael (2003): ‚Mode 2‘ Revisited: The New Production of Knowledge, in: Minerva (Nr.41), S. 179-194.
Perrow, Charles (1987): Normale Katastrophen. Die unvermeidbaren Risiken der Großtechnik. New York; Frankfurt/Main: Campus.
Renn, Ortwin (2002): Risikokommunikation – Umwelt und Gesundheit, in: Ministerium f. Umwelt und Verkehr Baden-Württ. in Zusammenarbeit mit der Akademie für Technikfolgeabschätzung (Hg.), Kommunikation über Umweltrisiken zwischen Verharmlosung und Dramatisierung. Stuttgart/Leipzig: S. Hirzel, S. 41-60.
Renn, Ortwin (2004): Perception of risks, in: Toxicology Letters (Nr.149), S. 405-413.
Risikokommission (2003): Ad-hoc-Kommission ‚Neuordnung der Verfahren zur Risikobewertung und Standardsetzung im gesundheitlichen Umweltschutz der Bundesrepublik Deutschland.‘ . Abschlußbericht der Risikokommission im Auftrag des Bundesministeriums für Gesundheit und Soziale Sicherung und des Bundesministeriums für Umwelt, Naturschutz und Reaktorsicherheit. Salzgitter: Geschäftsstelle c/o Bundesamt für Strahlenschutz.
Rosenbrock, Rolf & Maschewsky, Werner (1998): Präventionspolitische Bewertungskontroversen im Bereich ‚Umwelt und Gesundheit‘. Veröffentlichungsreihe der Arbeitsgruppe Public Health. Wissenschaftszentrum Berlin für Sozialforschung.
Sagan, Scott D. (2004): Learning from Normal Accidents, in: Organization & Environment, 17. Jg. (Nr.1), S. 15-19.
Savadori, Lucia / Savio, Stefania / Nicotra, Eraldo et al. (2004): Expert and Public Perception of Risk from Biotechnology. , in: Risk Analysis, 24. Jg. (Nr.5), S. 1289-1299.
Shaw, Alison (2004): Discourses of risk in lay accounts of microbiological safety and BSE. A qualitative interview study, in: Health, Risk & Society, 6. Jg. (Nr.2), S. 151-171.
Slovic, Paul / Finucane, Melissa L. / Peters, Ellen et al. (2004): Risk as Analysis and Risk as Feelings: Some Thoughts about Affect, Reason, Risk and Rationality, in: Risk Analysis, 24. Jg. (Nr.2), S. 311-322.
Stoll, Peter-Tobias (2003): Sicherheit als Aufgabe von Staat und Gesellschaft. Verfassungsordnung, Umwelt- und Technikrecht im Umgang mit Unsicherheit und Risiko. Tübingen: Mohr Siebeck.
Wehling, Peter (2003): Die Schattenseite der Verwissenschaftlichung. Wissenschaftliches Nichtwissen in der Wissensgesellschaft, in: Böschen, Stefan & Schulz-Schaeffer, Ingo (Hg.), Wissenschaft in der Wissensgesellschaft. Wiesbaden: Westdt. Verlag, S. 119-142.
Weiss, Charles (2002): Scientific uncertainty in advising and advocacy, in: Technology in Society (Nr.24), S. 375-386.
Wiedemann, Peter / Schütz, H. & Mertens, J. (2004): Kommunikation undeutlicher Risiken, (Unveröffentl. Diskussionspapier), URL: http://www.fz-juelich.de/mut/publikationen/preprints/kommunikation_undeutlicher_risiken.pdf, am: 16.7.2005.
Willis, Henry H. / DeKay, Michael L. / Fischhoff, Baruch et al. (2005): Aggregate, Disaggregate, and Hybrid Analyses of Ecological Risk Perceptions, in: Risk Analysis, 25. Jg. (Nr.2), S. 405-428.
Zelinka, Udo (1997): Sicherheit – ein Grundbedürfnis des Menschen?, in: Lippert, Ekkehard et al. (Hg.), Sicherheit in der unsicheren Gesellschaft. Opladen: Westdeutscher Verlag, S. 43-57.
Zwick, Michael M.(1998): Wahrnehmung und Bewertung von Technik in der deutschen Öffentlichkeit am Beispiel der Gentechnik, in: Pinkau, Claus & Stahlberg, Christina (Hg.), Deutsche Naturphilosophie und Technikverständnis: Historische Wirkungen im internationalen Vergleich. Stuttgart, Leipzig: S. Hirzel Verlag, S. 89-146.
Linktipps:
- Pergande, Frank: Brunsbüttel bleibt abgeschaltet, FAZ, 23.7.2007
- Dambeck, Holger: Serie von Wasserstoff-Explosionen enthüllt, Spiegel-Online, 23.7.2007
- v. Randow, Gero: Bitte nicht stören, Die ZEIT, 19.7.2007
- Projekt-Website EU-Projekt „STARC – Stakeholders in Risk Communication“ [Download des Abschlußberichts]
Literaturempfehlungen:
- Renn, Ortwin (2007): Risk Governance: Coping with Uncertainty in a Complex World. Earthscan Publications.
- Lofstedt, Ragnar E. (2005): Risk Management in Post Trust Societies. Palgrave Macmillan.
- Lundgren, Regina A. und McMakin, Andrea H. (2004): Risk Communication: A Handbook for Communicating Environmental, Safety, and Health Risks. Battelle Press.
- Frewer, Lynn (2004): The public and effective risk communication, in: Toxicology Letters, 149. Jg. (Nr.149), S. 391-397.
- Leiss, William (2004): Effective risk communication practice, in: Toxicology Letters (Nr.149), S. 399-404.
- Lofstedt, Ragnar (2003): Risk communication: pitfalls and promises, in: European Review, 11. Jg. (Nr.3), S. 417-435.
- Maxwell, Terrence A. (2003): The public need to know: emergencies, government organizations and public information policies, in: Government Information Quarterly (Nr.20), S. 233-258.
- Perrow, Charles (1987): Normale Katastrophen. Die unvermeidbaren Risiken der Großtechnik. Campus.
- Beck, Ulrich (1986): Risikogesellschaft. Auf dem Weg in eine andere Moderne. Suhrkamp.
- Als größtmögliches Negativszenario wurde bspw. für den Betrieb von Kernkraftwerken zur Energieerzeugung der ‚Bruch der Hauptkühlleitung’ angenommen und entsprechend die Risikoanalysen angefertigt. Andere – möglicherweise weit verhängnisvollerer Szenarien – wurden/werden größtenteils ausgeblendet. [↩]
3 Gedanken zu „Wenn Sicherheit fragil wird » Risikokommunikation in einer sensibilisierten Nebenfolgengesellschaft III“