Montag, April 04 2011 20: 19

Risikoakzeptanz

Artikel bewerten
(3 Stimmen)

Das Konzept der Risikoakzeptanz stellt die Frage: „Wie sicher ist sicher genug?“ oder genauer gesagt: „Die Bedingtheit der Risikobewertung wirft die Frage auf, welchen Risikostandard wir akzeptieren sollten, um menschliche Vorurteile zu kalibrieren“ (Pidgeon 1991). Diese Frage ist wichtig in Fragen wie: (1) Sollte es einen zusätzlichen Sicherheitsbehälter um Kernkraftwerke geben? (2) Sollten asbesthaltige Schulen geschlossen werden? oder (3) Sollte man zumindest kurzfristig alle möglichen Schwierigkeiten vermeiden? Einige dieser Fragen richten sich an die Regierung oder andere Regulierungsbehörden; andere richten sich an das Individuum, das sich zwischen bestimmten Handlungen und möglichen ungewissen Gefahren entscheiden muss.

Die Frage, ob Risiken akzeptiert oder abgelehnt werden sollen, ist das Ergebnis von Entscheidungen, die getroffen werden, um das optimale Risikoniveau für eine bestimmte Situation zu bestimmen. In vielen Fällen folgen diese Entscheidungen als fast automatisches Ergebnis der Ausübung von Wahrnehmungen und Gewohnheiten, die durch Erfahrung und Training erworben wurden. Immer wenn jedoch eine neue Situation entsteht oder Änderungen in scheinbar vertrauten Aufgaben auftreten, wie z. B. bei der Ausführung von Nicht-Routine- oder Semi-Routine-Aufgaben, wird die Entscheidungsfindung komplexer. Um mehr darüber zu verstehen, warum Menschen bestimmte Risiken akzeptieren und andere ablehnen, müssen wir zunächst definieren, was Risikoakzeptanz ist. Als nächstes müssen die psychologischen Prozesse erklärt werden, die entweder zu Akzeptanz oder Ablehnung führen, einschließlich Einflussfaktoren. Schließlich werden Methoden zur Änderung einer zu hohen oder zu niedrigen Risikoakzeptanz behandelt.

Risiko verstehen

Allgemein gesagt, wenn ein Risiko nicht abgelehnt wird, haben die Menschen es entweder freiwillig, gedankenlos oder gewohnheitsmäßig in Kauf genommen. So nehmen Menschen beispielsweise bei der Teilnahme am Straßenverkehr die Gefahr von Schäden, Verletzungen, Tod und Umweltverschmutzung in Kauf für die Möglichkeit des Nutzens aus erhöhter Mobilität; wenn sie sich entscheiden, sich einer Operation zu unterziehen oder nicht, entscheiden sie, dass die Kosten und/oder der Nutzen einer der beiden Entscheidungen größer sind; und wenn sie Geld in den Finanzmarkt investieren oder sich für einen Wechsel des Geschäftsprodukts entscheiden, werden alle Entscheidungen, die bestimmte finanzielle Gefahren und Chancen in Kauf nehmen, mit einem gewissen Maß an Unsicherheit getroffen. Schließlich hat die Entscheidung, in einem beliebigen Beruf zu arbeiten, auch unterschiedliche Wahrscheinlichkeiten, eine Verletzung oder einen Todesfall zu erleiden, basierend auf der statistischen Unfallhistorie.

Die Definition von Risikoakzeptanz, indem nur auf das Bezug genommen wird, was nicht abgelehnt wurde, lässt zwei wichtige Fragen offen; (1) was genau mit dem Begriff gemeint ist Risiko, und (2) die oft gemachte Annahme, dass Risiken nur potenzielle Verluste sind, die vermieden werden müssen, während es in Wirklichkeit einen Unterschied gibt, ob man Risiken nur toleriert, sie vollständig akzeptiert oder sie sogar wünscht, um Nervenkitzel und Aufregung zu genießen. Diese Facetten können alle durch das gleiche Verhalten (z. B. die Teilnahme am Straßenverkehr) ausgedrückt werden, haben aber unterschiedliche zugrunde liegende kognitive, emotionale und physiologische Prozesse. Es liegt auf der Hand, dass sich ein nur toleriertes Risiko auf ein anderes Maß an Engagement bezieht, als wenn man überhaupt den Wunsch nach einem gewissen Nervenkitzel oder „riskanten“ Gefühl hat. Abbildung 1 fasst Facetten der Risikoakzeptanz zusammen.

Abbildung 1. Facetten von Risikoakzeptanz und Risikoablehnung

SAF070T1

Wenn man den Begriff nachschlägt Risiko in den Wörterbüchern mehrerer Sprachen hat es oft die Doppelbedeutung von „Zufall, Gelegenheit“ einerseits und „Gefahr, Verlust“ (z. wej-ji auf Chinesisch, Risiko auf Deutsch, risiko auf Niederländisch und Italienisch, Risiko in Französisch usw.) auf der anderen Seite. Das Wort Risiko entstand und verbreitete sich im XNUMX. Jahrhundert als Folge eines Wahrnehmungswandels von der totalen Beeinflussung durch „gute und böse Geister“ hin zur Vorstellung von Chance und Gefahr eines jeden freien Individuums, seine eigene Zukunft zu beeinflussen . (Wahrscheinliche Ursprünge von Risiko liegen im griechischen Wort Rhiza, was „Wurzel und/oder Klippe“ bedeutet, oder das arabische Wort Nahrung bedeutet „was Gott und Schicksal für dein Leben bereithalten“.) Ebenso verwenden wir in unserer Alltagssprache Sprichwörter wie „Wer wagt, gewinnt nichts“ oder „Gott hilft den Tapferen“ und fördert damit die Risikobereitschaft und Risikobereitschaft. Das Konzept, das immer mit Risiko verbunden ist, ist das der Ungewissheit. Da fast immer eine gewisse Unsicherheit über Erfolg oder Misserfolg oder über die Wahrscheinlichkeit und Menge der Folgen besteht, bedeutet das Eingehen von Risiken immer auch das Eingehen von Ungewissheiten (Schäfer 1978).

Die Sicherheitsforschung hat die Bedeutung des Risikos weitgehend auf seine gefährlichen Aspekte reduziert (Yates 1992b). Erst in letzter Zeit treten mit der Zunahme abenteuerlicher Freizeitaktivitäten (Bungee-Jumping, Motorradfahren, Abenteuerreisen etc.) und mit einem tieferen Verständnis dafür, wie Menschen dazu motiviert werden, Risiken einzugehen (Trimpop 1994), wieder positive Folgen des Risikos zu Tage. Es wird argumentiert, dass wir Risikoakzeptanz und Risikobereitschaft nur verstehen und beeinflussen können, wenn wir die positiven Aspekte von Risiken ebenso berücksichtigen wie die negativen.

Risikoakzeptanz bezieht sich daher auf das Verhalten einer Person in einer Situation der Ungewissheit, das sich aus der Entscheidung ergibt, sich auf dieses Verhalten einzulassen (oder darauf zu verzichten), nachdem der geschätzte Nutzen größer (oder geringer) als die Kosten abgewogen wurde gegebenen Umständen. Dieser Prozess kann extrem schnell sein und nicht einmal in die Ebene der bewussten Entscheidungsfindung bei automatischem oder gewohnheitsmäßigem Verhalten eintreten, wie z. B. das Schalten von Gängen, wenn das Geräusch des Motors zunimmt. Auf der anderen Seite kann es sehr lange dauern und bedachtes Nachdenken und Debatten zwischen mehreren Personen beinhalten, beispielsweise wenn eine gefährliche Operation wie ein Weltraumflug geplant wird.

Ein wichtiger Aspekt dieser Definition ist der der Wahrnehmung. Da die Wahrnehmung und anschließende Bewertung auf den individuellen Erfahrungen, Werten und der Persönlichkeit einer Person basiert, basiert die Verhaltensakzeptanz von Risiken eher auf dem subjektiven Risiko als auf dem objektiven Risiko. Darüber hinaus kann eine Person nicht darauf reagieren, solange ein Risiko nicht wahrgenommen oder berücksichtigt wird, egal wie schwerwiegend die Gefahr ist. Der kognitive Prozess, der zur Risikoakzeptanz führt, ist also ein Informationsverarbeitungs- und Bewertungsprozess, der jedem Menschen innewohnt und extrem schnell sein kann.

Ein Modell, das die Identifizierung von Risiken als einen kognitiven Prozess des Identifizierens, Speicherns und Abrufens beschreibt, wurde von Yates und Stone (1992) diskutiert. In jeder Phase des Prozesses können Probleme auftreten. Beispielsweise ist die Genauigkeit bei der Identifizierung von Risiken eher unzuverlässig, insbesondere in komplexen Situationen oder bei Gefahren wie Strahlung, Gift oder anderen nicht leicht wahrnehmbaren Reizen. Darüber hinaus unterliegen die Identifizierungs-, Speicher- und Abrufmechanismen allgemeinen psychologischen Phänomenen wie Primats- und Neuheitseffekten sowie der Vertrautheitsgewöhnung. Das bedeutet, dass Personen, die mit einem bestimmten Risiko vertraut sind, wie z. B. das Fahren mit hoher Geschwindigkeit, sich daran gewöhnen, es als eine gegebene „normale“ Situation akzeptieren und das Risiko deutlich niedriger einschätzen als Personen, die mit der Aktivität nicht vertraut sind. Eine einfache Formalisierung des Prozesses ist ein Modell mit den Komponenten:

Reiz → Wahrnehmung → Bewertung → Entscheidung → Verhalten → Rückkopplungsschleife

Beispielsweise kann ein langsam fahrendes Fahrzeug vor einem Fahrer der Anreiz zum Überholen sein. Das Überprüfen der Straße auf Verkehr ist Wahrnehmung. Das Schätzen der Zeit, die zum Überholen benötigt wird, angesichts der Beschleunigungsfähigkeiten des eigenen Autos, ist eine Bewertung. Der Wert der Zeitersparnis führt zu der Entscheidung und dem folgenden Verhalten, das Auto zu überholen oder nicht. Der Grad des Erfolgs oder Misserfolgs wird sofort wahrgenommen und dieses Feedback beeinflusst spätere Entscheidungen über das Passverhalten. Bei jedem Schritt dieses Prozesses kann die endgültige Entscheidung, Risiken zu akzeptieren oder abzulehnen, beeinflusst werden. Kosten und Nutzen werden auf der Grundlage individueller, kontext- und objektbezogener Faktoren bewertet, die in der wissenschaftlichen Forschung als wichtig für die Risikoakzeptanz identifiziert wurden.

Welche Faktoren beeinflussen die Risikoakzeptanz?

Fischhoffet al. (1981) identifizierten die Faktoren (1) individuelle Wahrnehmung, (2) Zeit, (3) Raum und (4) Verhaltenskontext als wichtige Dimensionen der Risikobereitschaft, die bei der Untersuchung von Risiken berücksichtigt werden sollten. Andere Autoren haben andere Kategorien und andere Bezeichnungen für die Faktoren und Kontexte verwendet, die die Risikoakzeptanz beeinflussen. Zur Strukturierung dieser Vielzahl von Einflussfaktoren wurden die in Abbildung 2 zusammengefassten Kategorien Eigenschaften des Aufgaben- bzw. Risikoobjekts, Einzelfaktoren und Kontextfaktoren verwendet.

Abbildung 2. Faktoren, die die Risikoakzeptanz beeinflussen

SAF070T2

In normalen Modellen der Risikoakzeptanz wurden Folgen neuer technologischer Risiken (z. B. Genforschung) häufig durch quantitative Summenmaße (z. B. Todesfälle, Schäden, Verletzungen) beschrieben und Wahrscheinlichkeitsverteilungen über Folgen durch Schätzung oder Simulation ermittelt (Starr 1969 ). Die Ergebnisse wurden mit Risiken verglichen, die bereits von der Öffentlichkeit „akzeptiert“ wurden, und boten somit ein Maß für die Akzeptanz des neuen Risikos. Manchmal wurden Daten in einem Risikoindex präsentiert, um die verschiedenen Risikoarten zu vergleichen. Die am häufigsten verwendeten Methoden wurden von Fischhoff et al. (1981) als professionelles Urteil von Experten, statistische und historische Informationen und formale Analysen, wie z. B. Fehlerbaumanalysen. Die Autoren argumentierten, dass richtig durchgeführte formale Analysen die höchste „Objektivität“ haben, da sie Fakten von Überzeugungen trennen und viele Einflüsse berücksichtigen. Sicherheitsexperten erklärten jedoch, dass die öffentliche und individuelle Akzeptanz von Risiken möglicherweise auf voreingenommenen Werturteilen und von den Medien veröffentlichten Meinungen und nicht auf logischen Analysen beruht.

Es wurde angedeutet, dass die breite Öffentlichkeit häufig von den Medien und politischen Gruppen, die Statistiken zu Gunsten ihrer Argumente erstellen, falsch informiert wird. Anstatt sich auf individuelle Vorurteile zu verlassen, sollten nur professionelle Urteile auf der Grundlage von Expertenwissen als Grundlage für das Eingehen von Risiken herangezogen und die Öffentlichkeit von solchen wichtigen Entscheidungen ausgeschlossen werden. Dies ist auf erhebliche Kritik gestoßen, da es als eine Frage sowohl demokratischer Werte (Menschen sollten die Möglichkeit haben, über Angelegenheiten zu entscheiden, die katastrophale Folgen für ihre Gesundheit und Sicherheit haben können) als auch sozialer Werte (nützt die Technologie oder riskante Entscheidung den Empfängern mehr als diejenigen, die die Kosten tragen). Fischhoff, Furby und Gregory (1987) schlugen vor, entweder geäußerte Präferenzen (Interviews, Fragebögen) oder offenbarte Präferenzen (Beobachtungen) der „relevanten“ Öffentlichkeit zu verwenden, um die Akzeptanz von Risiken zu bestimmen. Jungermann und Rohrmann haben auf die Problematik der Ermittlung der „relevanten Öffentlichkeit“ für Technologien wie Kernkraftwerke oder Genmanipulation hingewiesen, da mehrere Nationen oder die Weltbevölkerung unter den Folgen leiden oder profitieren könnten.

Auch Probleme, sich ausschließlich auf Expertenurteile zu verlassen, wurden diskutiert. Auf Normalmodellen basierende Expertenurteile nähern sich eher statistischen Schätzungen als die der Öffentlichkeit (Otway und von Winterfeldt 1982). Wenn die Öffentlichkeit jedoch speziell gebeten wird, die Wahrscheinlichkeit oder Häufigkeit von Todesfällen oder Verletzungen im Zusammenhang mit einer neuen Technologie zu beurteilen, ähneln die Ansichten der Öffentlichkeit viel mehr den Expertenurteilen und den Risikoindizes. Die Forschung hat auch gezeigt, dass Menschen zwar ihre erste schnelle Einschätzung nicht ändern, wenn ihnen Daten zur Verfügung gestellt werden, sie sich jedoch ändern, wenn realistische Vorteile oder Gefahren angesprochen und von Experten diskutiert werden. Darüber hinaus wies Haight (1986) darauf hin, dass, da Expertenurteile subjektiv sind und Experten häufig über Risikoeinschätzungen uneinig sind, die Öffentlichkeit manchmal genauer in ihrer Risikoeinschätzung ist, wenn sie nach dem Unfall beurteilt wird (z. B. die Katastrophe von Tschernobyl ). Daraus wird der Schluss gezogen, dass die Öffentlichkeit bei der Beurteilung andere Risikodimensionen heranzieht als die statistische Zahl der Todesfälle oder Verletzungen.

Ein weiterer Aspekt, der beim Eingehen von Risiken eine Rolle spielt, ist, ob die wahrgenommenen Auswirkungen des Eingehens von Risiken positiv beurteilt werden, wie beispielsweise Adrenalinspiegel, „Flow“-Erfahrung oder gesellschaftliches Lob als Held. Machlis und Rosa (1990) diskutierten das Konzept des erwünschten Risikos im Gegensatz zum tolerierten oder gefürchteten Risiko und kamen zu dem Schluss, dass erhöhte Risiken in vielen Situationen eher als Anreiz denn als Abschreckung wirken. Sie fanden heraus, dass Menschen sich trotz der Medienberichterstattung, die die Gefahren betonte, durchaus nicht risikoscheu verhalten könnten. Betreiber von Vergnügungsparks berichteten beispielsweise, dass ein Fahrgeschäft immer beliebter wurde, als es nach einem Todesfall wiedereröffnet wurde. Nachdem eine norwegische Fähre gesunken war und die Passagiere 36 Stunden lang auf Eisbergen über Wasser gehalten wurden, erlebte die Betreibergesellschaft die größte Nachfrage, die sie jemals für die Überfahrt auf ihren Schiffen hatte. Die Forscher kamen zu dem Schluss, dass das Konzept des gewünschten Risikos die Wahrnehmung und Akzeptanz von Risiken verändert und unterschiedliche konzeptionelle Modelle erfordert, um das Risikoverhalten zu erklären. Diese Annahmen wurden durch Untersuchungen gestützt, die zeigten, dass für Polizisten auf Streife die körperliche Gefahr, angegriffen oder getötet zu werden, ironischerweise als berufliche Bereicherung empfunden wurde, während für Polizisten, die mit Verwaltungsaufgaben beschäftigt waren, dasselbe Risiko als schrecklich empfunden wurde. Vlek und Stallen (1980) schlugen vor, mehr persönliche und intrinsische Belohnungsaspekte in Kosten-Nutzen-Analysen einzubeziehen, um die Prozesse der Risikobewertung und Risikoakzeptanz vollständiger zu erklären.

Individuelle Faktoren, die die Risikoakzeptanz beeinflussen

Jungermann und Slovic (1987) berichteten von Daten, die individuelle Unterschiede in der Wahrnehmung, Bewertung und Akzeptanz „objektiv“ identischer Risiken zwischen Studenten, Technikern und Umweltaktivisten zeigen. Es wurde festgestellt, dass Alter, Geschlecht und Bildungsgrad die Risikoakzeptanz beeinflussen, wobei junge, schlecht gebildete Männer die höchsten Risiken eingehen (z. B. Kriege, Verkehrsunfälle). Zuckerman (1979) lieferte eine Reihe von Beispielen für individuelle Unterschiede in der Risikoakzeptanz und stellte fest, dass sie höchstwahrscheinlich von Persönlichkeitsfaktoren wie Sensationssuche, Extraversion, Selbstüberschätzung oder Erfahrungssucht beeinflusst werden. Auch Kosten und Nutzen von Risiken fließen in individuelle Bewertungs- und Entscheidungsprozesse ein. Bei der Beurteilung der Gefährlichkeit einer Situation oder Handlung kommen verschiedene Menschen zu einer Vielzahl von Urteilen. Die Vielfalt kann sich in der Kalibrierung manifestieren – zum Beispiel durch wertinduzierte Verzerrungen, die die bevorzugte Entscheidung weniger riskant erscheinen lassen, sodass übermütige Menschen einen anderen Ankerwert wählen. Persönlichkeitsaspekte machen jedoch nur 10 bis 20 % der Entscheidung aus, ein Risiko einzugehen oder abzulehnen. Andere Faktoren müssen identifiziert werden, um die verbleibenden 80 bis 90 % zu erklären.

Slovic, Fischhoff und Lichtenstein (1980) folgerten aus faktorenanalytischen Studien und Interviews, dass Laien Risiken qualitativ anders einschätzen, indem sie die Dimensionen Beherrschbarkeit, Freiwilligkeit, Furchtbarkeit und Vorbekanntheit des Risikos einbeziehen. Freiwilligkeit und wahrgenommene Kontrollierbarkeit wurden ausführlich von Fischhoff et al. (1981). Es wird geschätzt, dass freiwillig gewählte Risiken (Motorradfahren, Bergsteigen) eine etwa 1,000-mal höhere Akzeptanz haben als unfreiwillig gewählte, gesellschaftliche Risiken. Die Bedeutung von Freiwilligkeit und Kontrollierbarkeit wurde in einer Studie von von Winterfeldt, John und Borcherding (1981) untermauert, die den Unterschied zwischen gesellschaftlichen und individuellen Risiken stützt. Diese Autoren berichteten von einem geringeren wahrgenommenen Risiko für Motorradfahren, Stuntarbeit und Autorennen als für Atomkraft- und Flugunfälle. Renn (1981) berichtete über eine Studie über Freiwilligkeit und wahrgenommene negative Auswirkungen. Eine Gruppe von Probanden durfte zwischen drei Arten von Pillen wählen, während der anderen Gruppe diese Pillen verabreicht wurden. Obwohl alle Pillen identisch waren, berichtete die freiwillige Gruppe signifikant weniger „Nebenwirkungen“ als die verabreichte Gruppe.

Wenn Risiken einzeln als für viele Menschen schlimmere Folgen oder sogar katastrophale Folgen mit einer Eintrittswahrscheinlichkeit von nahe Null wahrgenommen werden, werden diese Risiken oft als nicht akzeptabel beurteilt, obwohl bekannt ist, dass es keine oder viele tödliche Unfälle gegeben hat. Dies gilt umso mehr für Risiken, die der beurteilenden Person bisher unbekannt waren. Die Forschung zeigt auch, dass Menschen ihr persönliches Wissen und ihre Erfahrung mit dem jeweiligen Risiko als zentralen Beurteilungsanker für die Akzeptanz klar definierter Risiken verwenden, während zuvor unbekannte Risiken eher nach dem Grad der Angst und Schwere beurteilt werden. Menschen unterschätzen eher selbst hohe Risiken, wenn sie über einen längeren Zeitraum exponiert waren, wie etwa Menschen, die unter einem Staudamm oder in Erdbebengebieten leben oder Jobs mit „normalerweise“ hohem Risiko haben, wie etwa im Bergbau unter Tage , Abholzung oder Bau (Zimolong 1985). Darüber hinaus scheinen die Menschen menschengemachte Risiken ganz anders zu beurteilen als natürliche Risiken und akzeptieren natürliche Risiken eher als selbst konstruierte, menschengemachte Risiken. Der von Experten verwendete Ansatz, Risiken für neue Technologien in den unteren und oberen „objektiven Risiken“ bereits akzeptierter oder natürlicher Risiken einzuordnen, scheint von der Öffentlichkeit nicht als angemessen wahrgenommen zu werden. Es kann argumentiert werden, dass bereits „akzeptierte Risiken“ nur toleriert werden, neue Risiken zu den bestehenden hinzukommen und neue Gefahren noch nicht erlebt und bewältigt wurden. Sachverständigenaussagen werden daher im Wesentlichen als Versprechen angesehen. Schließlich ist es sehr schwer festzustellen, was wirklich akzeptiert wurde, da viele Menschen sich der vielen Risiken, die sie umgeben, scheinbar nicht bewusst sind.

Selbst wenn sich die Menschen der sie umgebenden Risiken bewusst sind, tritt das Problem der Verhaltensanpassung auf. Dieser Prozess ist in der Risikokompensations- und Risikohomöostase-Theorie (Wilde 1986) gut beschrieben, die besagt, dass Menschen ihre Risikoakzeptanzentscheidung und ihr Risikoverhalten an ihr Zielniveau des wahrgenommenen Risikos anpassen. Das bedeutet, dass sich Menschen vorsichtiger verhalten und weniger Risiken eingehen, wenn sie sich bedroht fühlen, und umgekehrt mutiger werden und höhere Risiken eingehen, wenn sie sich sicher und geborgen fühlen. Daher ist es für Sicherheitsexperten sehr schwierig, Sicherheitsausrüstung wie Sicherheitsgurte, Skischuhe, Helme, breite Straßen, vollständig geschlossene Maschinen usw. zu entwerfen, ohne dass der Benutzer den möglichen Sicherheitsvorteil durch einen persönlichen Vorteil wie z erhöhte Geschwindigkeit, Komfort, verringerte Aufmerksamkeit oder anderes „riskanteres“ Verhalten.

Die Änderung des akzeptierten Risikoniveaus durch Erhöhung des Werts sicheren Verhaltens kann die Motivation erhöhen, die weniger gefährliche Alternative zu akzeptieren. Dieser Ansatz zielt darauf ab, individuelle Werte, Normen und Überzeugungen zu verändern, um alternatives Risikoakzeptanz- und Risikoverhalten zu motivieren. Zu den Faktoren, die die Wahrscheinlichkeit einer Risikoakzeptanz erhöhen oder verringern, gehören beispielsweise, ob die Technologie einen Nutzen bietet, der den gegenwärtigen Bedürfnissen entspricht, den Lebensstandard erhöht, neue Arbeitsplätze schafft, das Wirtschaftswachstum erleichtert, das nationale Ansehen und die Unabhängigkeit stärkt, strenge Anforderungen stellt Sicherheitsmaßnahmen, erhöht die Macht des Großkapitals oder führt zur Zentralisierung politischer und wirtschaftlicher Systeme (Otway und von Winterfeldt 1982). Ähnliche Einflüsse von Situationsframes auf Risikobewertungen wurden von Kahneman und Tversky (1979 und 1984) berichtet. Sie berichteten, dass 68 % der Probanden sich dafür entschieden, wenn sie das Ergebnis einer Operation oder Strahlentherapie mit einer Überlebenswahrscheinlichkeit von 44 % formulierten. Dies kann mit nur 18 % verglichen werden, die sich für die gleiche chirurgische oder Strahlentherapie entschieden haben, wenn das Ergebnis als 32 % Todeswahrscheinlichkeit formuliert wurde, was mathematisch äquivalent ist. Häufig wählen Probanden einen persönlichen Ankerwert (Lopes und Ekberg 1980), um die Akzeptabilität von Risiken zu beurteilen, insbesondere wenn es um kumulative Risiken im Laufe der Zeit geht.

Der Einfluss von „Emotional Frames“ (affektiver Kontext mit induzierten Emotionen) auf die Risikobewertung und -akzeptanz wurde von Johnson und Tversky (1983) gezeigt. In ihren Rahmen wurden positive und negative Emotionen durch Beschreibungen von Ereignissen wie persönlichem Erfolg oder dem Tod eines jungen Mannes hervorgerufen. Sie fanden heraus, dass Probanden mit induzierten negativen Gefühlen das Risiko von Unfällen und gewaltsamen Todesfällen unabhängig von anderen Kontextvariablen als signifikant höher einschätzten als Probanden der positiven emotionalen Gruppe. Andere Faktoren, die die individuelle Risikoakzeptanz beeinflussen, sind Gruppenwerte, individuelle Überzeugungen, gesellschaftliche Normen, kulturelle Werte, die wirtschaftliche und politische Situation und jüngste Erfahrungen, wie z. B. ein Unfall. Dake (1992) argumentierte, dass Risiko – abgesehen von seiner physischen Komponente – ein Konzept ist, das sehr stark von dem jeweiligen System von Überzeugungen und Mythen innerhalb eines kulturellen Rahmens abhängt. Yates und Stone (1992) listeten die individuellen Vorurteile (Abbildung 3) auf, von denen festgestellt wurde, dass sie die Beurteilung und Akzeptanz von Risiken beeinflussen.

Abbildung 3. Individuelle Vorurteile, die die Risikobewertung und Risikoakzeptanz beeinflussen

SAF070T3

Kulturelle Faktoren, die die Risikoakzeptanz beeinflussen

Pidgeon (1991) definierte Kultur als die Sammlung von Überzeugungen, Normen, Einstellungen, Rollen und Praktiken, die innerhalb einer bestimmten sozialen Gruppe oder Bevölkerung geteilt werden. Kulturelle Unterschiede führen zu unterschiedlicher Risikowahrnehmung und -akzeptanz, beispielsweise beim Vergleich der Arbeitssicherheitsstandards und Unfallraten in Industrieländern mit denen in Entwicklungsländern. Trotz der Unterschiede ist einer der konsistentesten Befunde zwischen den Kulturen und innerhalb der Kulturen, dass normalerweise dieselben Konzepte von Schrecklichkeit und unbekannten Risiken sowie von Freiwilligkeit und Kontrollierbarkeit auftauchen, aber sie erhalten unterschiedliche Prioritäten (Kasperson 1986). Ob diese Prioritäten ausschließlich kulturabhängig sind, bleibt umstritten. Beispielsweise konzentrieren sich die Briten bei der Abschätzung der Gefahren der Entsorgung giftiger und radioaktiver Abfälle mehr auf Transportrisiken; Ungarn mehr zu Betriebsrisiken; und Amerikaner mehr über Umweltrisiken. Diese Unterschiede werden auf kulturelle Unterschiede zurückgeführt, können aber genauso gut die Folge einer wahrgenommenen Bevölkerungsdichte in Großbritannien, der Betriebssicherheit in Ungarn und der Umweltbedenken in den Vereinigten Staaten sein, die situative Faktoren sind. In einer anderen Studie stellten Kleinhesselink und Rosa (1991) fest, dass die Japaner die Atomkraft als ein schreckliches, aber nicht unbekanntes Risiko wahrnehmen, während für die Amerikaner die Atomkraft eine überwiegend unbekannte Risikoquelle ist.

Die Autoren führten diese Unterschiede auf unterschiedliche Expositionen zurück, beispielsweise auf die Atombomben, die 1945 auf Hiroshima und Nagasaki abgeworfen wurden. Es wurden jedoch ähnliche Unterschiede zwischen hispanischen und weißen amerikanischen Bewohnern der Region San Francisco gemeldet. Daher können lokale kulturelle, Wissens- und individuelle Unterschiede eine ebenso wichtige Rolle bei der Risikowahrnehmung spielen wie allgemeine kulturelle Vorurteile (Rohrmann 1992a).

Diese und ähnliche Diskrepanzen in Schlussfolgerungen und Interpretationen, die aus identischen Fakten abgeleitet wurden, veranlassten Johnson (1991), vorsichtige Warnungen vor der kausalen Zuordnung kultureller Unterschiede zu Risikowahrnehmung und Risikoakzeptanz zu formulieren. Sorge bereiten ihm die weit verbreiteten Unterschiede in der Definition von Kultur, die daraus eine fast allumfassende Bezeichnung machen. Darüber hinaus fügen Meinungs- und Verhaltensunterschiede von Teilpopulationen oder einzelnen Unternehmensorganisationen innerhalb eines Landes weitere Probleme zu einer eindeutigen Messung der Kultur oder ihrer Auswirkungen auf die Risikowahrnehmung und Risikoakzeptanz hinzu. Außerdem sind die untersuchten Stichproben meist klein und nicht repräsentativ für die Kulturen als Ganzes, und oft werden Ursachen und Wirkungen nicht richtig getrennt (Rohrmann 1995). Weitere untersuchte kulturelle Aspekte waren Weltanschauungen wie Individualismus versus Egalitarismus versus Hierarchieglaube sowie soziale, politische, religiöse oder wirtschaftliche Faktoren.

Wilde (1994) berichtete beispielsweise, dass die Zahl der Unfälle umgekehrt proportional zur wirtschaftlichen Lage eines Landes ist. In Zeiten der Rezession sinkt die Zahl der Verkehrsunfälle, während in Zeiten des Wachstums die Zahl der Unfälle steigt. Wilde führte diese Ergebnisse auf eine Reihe von Faktoren zurück, beispielsweise dass in Zeiten der Rezession, da mehr Menschen arbeitslos und Benzin und Ersatzteile teurer sind, die Menschen folglich mehr darauf achten, Unfälle zu vermeiden. Andererseits haben Fischhoff et al. (1981) argumentierten, dass Menschen in Zeiten der Rezession eher bereit sind, Gefahren und unbequeme Arbeitsbedingungen in Kauf zu nehmen, um einen Arbeitsplatz zu behalten oder einen zu bekommen.

Die Rolle der Sprache und ihr Gebrauch in den Massenmedien wurden von Dake (1991) diskutiert, der eine Reihe von Beispielen anführte, in denen dieselben „Fakten“ so formuliert wurden, dass sie die politischen Ziele bestimmter Gruppen, Organisationen oder Regierungen unterstützten. Sind zum Beispiel Beschwerden von Arbeitnehmern über vermutete Gefahren am Arbeitsplatz „berechtigte Bedenken“ oder „narzisstische Phobien“? Sind Gefahreninformationen den Gerichten in Personenschadensfällen „stichhaltige Beweise“ oder „wissenschaftliches Treibgut“ zugänglich? Stehen wir vor ökologischen „Albträumen“ oder einfach nur „Zwischenfällen“ oder „Herausforderungen“? Die Risikoakzeptanz hängt somit von der wahrgenommenen Situation und dem Kontext des zu beurteilenden Risikos sowie von der wahrgenommenen Situation und dem Kontext der Richter selbst ab (von Winterfeldt und Edwards 1984). Wie die vorangegangenen Beispiele zeigen, hängen Risikowahrnehmung und -akzeptanz stark davon ab, wie die grundlegenden „Fakten“ präsentiert werden. Die Glaubwürdigkeit der Quelle, der Umfang und die Art der Berichterstattung in den Medien – kurz Risikokommunikation – ist häufiger ein Faktor, der die Risikoakzeptanz bestimmt, als es die Ergebnisse formaler Analysen oder Expertenurteile vermuten lassen. Risikokommunikation ist somit ein Kontextfaktor, der gezielt genutzt wird, um die Risikoakzeptanz zu verändern.

Risikoakzeptanz verändern

Um eine möglichst hohe Akzeptanz für eine Veränderung zu erreichen, hat es sich als sehr erfolgreich erwiesen, diejenigen, die die Veränderung akzeptieren sollen, in den Planungs-, Entscheidungs- und Steuerungsprozess einzubeziehen, um sie an die Unterstützung der Entscheidung zu binden. Basierend auf erfolgreichen Projektberichten listet Abbildung 4 sechs Schritte auf, die beim Umgang mit Risiken beachtet werden sollten.

Abbildung 4. Sechs Schritte zur Auswahl, Entscheidung und Akzeptanz optimaler Risiken

SAF070T4

Ermittlung „optimaler Risiken“

In den Schritten 1 und 2 treten große Probleme bei der Ermittlung der Erwünschtheit und des „objektiven Risikos“ des Ziels auf. während es in Schritt 3 schwierig zu sein scheint, die schlechtesten Optionen zu eliminieren. Sowohl für Einzelpersonen als auch für Organisationen scheinen große gesellschaftliche, katastrophale oder tödliche Gefahren die am meisten gefürchteten und am wenigsten akzeptablen Optionen zu sein. Perrow (1984) argumentierte, dass die meisten gesellschaftlichen Risiken wie DNA-Forschung, Kraftwerke oder das nukleare Wettrüsten viele eng miteinander verbundene Subsysteme besitzen, was bedeutet, dass ein Fehler in einem Subsystem viele andere Fehler auslösen kann. Diese aufeinanderfolgenden Fehler können aufgrund der Art des anfänglichen Fehlers, wie z. B. einem nicht funktionierenden Warnschild, unentdeckt bleiben. In komplexen technischen Systemen steigt das Unfallrisiko durch interaktive Störungen. So schlug Perrow (1984) vor, dass es ratsam wäre, gesellschaftliche Risiken lose gekoppelt (dh unabhängig kontrollierbar) zu belassen und eine unabhängige Bewertung von und einen Schutz vor Risiken zu ermöglichen und die Notwendigkeit von Technologien mit dem Potenzial für katastrophale Folgen sehr sorgfältig zu prüfen .

Kommunizieren von „optimalen Entscheidungen“

Die Schritte 3 bis 6 befassen sich mit der genauen Kommunikation von Risiken, die ein notwendiges Instrument zur Entwicklung einer angemessenen Risikowahrnehmung, Risikoeinschätzung und eines optimalen Risikoverhaltens ist. Die Risikokommunikation richtet sich an unterschiedliche Zielgruppen wie Anwohner, Mitarbeiter, Patienten und so weiter. Risikokommunikation nutzt verschiedene Kanäle wie Zeitungen, Radio, Fernsehen, verbale Kommunikation und all dies in verschiedenen Situationen oder „Arenen“, wie Schulungen, öffentliche Anhörungen, Artikel, Kampagnen und persönliche Kommunikation. Trotz wenig Forschung zur Wirksamkeit der Massenmedienkommunikation im Bereich Gesundheit und Sicherheit stimmen die meisten Autoren darin überein, dass die Qualität der Kommunikation weitgehend die Wahrscheinlichkeit von Einstellungs- oder Verhaltensänderungen bei der Risikoakzeptanz der Zielgruppe bestimmt. Auch die Risikokommunikation dient laut Rohrmann (1992a) verschiedenen Zwecken, von denen einige in Abbildung 5 aufgeführt sind.

Abbildung 5. Zwecke der Risikokommunikation

SAF070T5

Risikokommunikation ist ein komplexes Thema, dessen Wirksamkeit selten wissenschaftlich exakt belegt ist. Rohrmann (1992a) listete notwendige Faktoren zur Bewertung der Risikokommunikation auf und gab einige Ratschläge für eine effektive Kommunikation. Wilde (1993) trennte die Quelle, die Botschaft, den Kanal und den Empfänger und gab Vorschläge für jeden Aspekt der Kommunikation. Er führte Daten an, die beispielsweise zeigen, dass die Wahrscheinlichkeit einer effektiven Sicherheits- und Gesundheitskommunikation von Themen wie den in Abbildung 6 aufgeführten abhängt.

Abbildung 6. Faktoren, die die Wirksamkeit der Risikokommunikation beeinflussen

SAF070T6

Etablierung einer Risikooptimierungskultur

Pidgeon (1991) definierte Sicherheitskultur als ein konstruiertes Bedeutungssystem, durch das ein bestimmtes Volk oder eine bestimmte Gruppe die Gefahren der Welt versteht. Dieses System legt fest, was wichtig und legitim ist, und erklärt Zusammenhänge zu Fragen von Leben und Tod, Arbeit und Gefahr. Eine Sicherheitskultur wird geschaffen und wiederhergestellt, wenn sich ihre Mitglieder wiederholt auf eine Weise verhalten, die natürlich, offensichtlich und unbestreitbar erscheint und als solche eine bestimmte Version von Risiko, Gefahr und Sicherheit konstruiert. Solche Versionen der Gefahren der Welt werden auch erklärende Schemata enthalten, um die Verursachung von Unfällen zu beschreiben. Innerhalb einer Organisation, z. B. eines Unternehmens oder eines Landes, bilden die stillschweigenden und ausdrücklichen Regeln und Normen, die die Sicherheit regeln, das Herzstück einer Sicherheitskultur. Wichtige Bestandteile sind Regeln für den Umgang mit Gefahren, Einstellungen zur Sicherheit und Reflexivität zur Sicherheitspraxis.

Industrielle Organisationen, die bereits leben eine ausgefeilte Sicherheitskultur betonen die Bedeutung gemeinsamer Visionen, Ziele, Standards und Verhaltensweisen bei der Risikobereitschaft und Risikoakzeptanz. Da Unsicherheiten im Arbeitskontext unvermeidbar sind, muss ein optimales Gleichgewicht zwischen Risikobereitschaft und Gefahrenkontrolle gefunden werden. Vlek und Cvetkovitch (1989) erklärten:

Bei einem angemessenen Risikomanagement geht es darum, ein ausreichendes Maß an (dynamischer) Kontrolle über eine technologische Aktivität zu organisieren und aufrechtzuerhalten, anstatt kontinuierlich oder nur einmal Unfallwahrscheinlichkeiten zu messen und die Botschaft zu verbreiten, dass diese „vernachlässigbar niedrig“ sind und sein werden. . Daher bedeutet „akzeptables Risiko“ meistens „ausreichende Kontrolle“.

Zusammenfassung

Wenn Menschen glauben, dass sie ausreichende Kontrolle über mögliche Gefahren haben, sind sie bereit, die Gefahren in Kauf zu nehmen, um daraus Vorteile zu ziehen. Ausreichende Kontrolle muss jedoch auf fundierter Information, Einschätzung, Wahrnehmung, Bewertung und schließlich einer optimalen Entscheidung für oder gegen das „Risikoziel“ beruhen.

 

Zurück

Lesen Sie mehr 20351 mal Zuletzt geändert am Montag, den 22. August 2011 um 14:32 Uhr
Mehr in dieser Kategorie: " Risikowahrnehmung

HAFTUNGSAUSSCHLUSS: Die ILO übernimmt keine Verantwortung für auf diesem Webportal präsentierte Inhalte, die in einer anderen Sprache als Englisch präsentiert werden, der Sprache, die für die Erstproduktion und Peer-Review von Originalinhalten verwendet wird. Bestimmte Statistiken wurden seitdem nicht aktualisiert die Produktion der 4. Auflage der Encyclopaedia (1998)."

Inhalte

Referenzen zu Sicherheitsrichtlinien und Führung

Abbey, A und JW Dickson. 1983. F&E-Arbeitsklima und Innovation bei Halbleitern. Acad Manage J 26:362–368.

Andriessen, JHTH. 1978. Sicheres Verhalten und Sicherheitsmotivation. J Occup Acc 1:363–376.

Bailey, C. 1993. Verbessern Sie die Wirksamkeit von Sicherheitsprogrammen mit Wahrnehmungsumfragen. Prof. Saf Oktober: 28.–32.

Bluen, SD und C. Donald. 1991. Art und Messung des betrieblichen Klimas der Arbeitsbeziehungen. S Afr J Psychol 21 (1): 12–20.

Brown, RL und H. Holmes. 1986. Die Verwendung eines faktoranalytischen Verfahrens zur Bewertung der Gültigkeit eines Mitarbeitersicherheitsklimamodells. Unfall Anal Prev 18(6):445–470.

CCPS (Center for Chemical Process Safety). Nd Richtlinien für die sichere Automatisierung chemischer Prozesse. New York: Zentrum für chemische Prozesssicherheit der American Institution of Chemical Engineers.

Kauen, DCE. 1988. Quellen sont les mesures qui versichert le mieux la sécurité du travail? Etude menée dans trois pays en développement d'Asie. Rev Int Travail 127: 129–145.

Huhn, JC und MR Haynes. 1989. The Risk Ranking Method in Decision Making. Oxford: Pergamon.

Cohen, A. 1977. Faktoren erfolgreicher Arbeitsschutzprogramme. J. Saf Res. 9:168–178.

Cooper, MD, RA Phillips, VF Sutherland und PJ Makin. 1994. Reduzierung von Unfällen durch Zielsetzung und Feedback: Eine Feldstudie. J Occup Organ Psychol 67:219–240.

Cru, D und Dejours C. 1983. Les savoir-faire de prudence dans les métiers du bâtiment. Cahiers médico-sociaux 3:239–247.

Dake, K. 1991. Orientierende Dispositionen in der Risikowahrnehmung: Eine Analyse zeitgenössischer Weltanschauungen und kultureller Vorurteile. J Cross Cult Psychol 22: 61–82.

—. 1992. Mythen der Natur: Kultur und die soziale Konstruktion von Risiken. J Soc-Ausgaben 48: 21–37.

Dedobbeleer, N und F Béland. 1989. Die Wechselbeziehung zwischen Merkmalen der Arbeitsumgebung und der Wahrnehmung des Sicherheitsklimas der Arbeiter in der Bauindustrie. In Proceedings der 22. Jahreskonferenz der Human Factors Association of Canada. Toronto.

—. 1991. Eine Sicherheitsklimamaßnahme für Baustellen. J. Saf Res. 22:97–103.

Dedobbeleer, N, F Béland und P Deutsch. 1990. Gibt es einen Zusammenhang zwischen den Merkmalen von Baustellen und den Sicherheitspraktiken der Arbeiter und der Klimawahrnehmung? In Advances in Industrial Ergonomics and Safety II, herausgegeben von D. Biman. London: Taylor & Francis.

Dejours, C. 1992. Intelligence ouvrière et organization du travail. Paris: Harmattan.

De Joy, DM. 1987. Zuschreibungen und Reaktionen von Vorgesetzten bei multikausalen Arbeitsunfällen. J Occup Acc 9:213–223.

—. 1994. Management der Sicherheit am Arbeitsplatz: Analyse und Modell der Attributionstheorie. J. Saf Res. 25:3–17.

Denison, DR. 1990. Unternehmenskultur und organisatorische Effektivität. New York: Wiley.

Dieterly, D und B Schneider. 1974. Die Wirkung des organisatorischen Umfelds auf die wahrgenommene Macht und das Klima: Eine Laborstudie. Organ Behav Hum Perform 11:316–337.

Dodier, N. 1985. Die praktische Konstruktion der Arbeitsbedingungen: Erhaltung der Gesundheit und des alltäglichen Lebens in den Werkstätten. Sci Soc Santé 3:5–39.

Dunett, MD. 1976. Handbuch der Arbeits- und Organisationspsychologie. Chicago: Rand McNally.

Dwyer, T. 1992. Leben und Tod bei der Arbeit. Arbeitsunfälle als gesellschaftlich produzierter Fehler. New York: Plenumspresse.

Eakin, JM. 1992. Den Arbeitnehmern überlassen: Soziologische Perspektive auf das Management von Gesundheit und Sicherheit an kleinen Arbeitsplätzen. Int J Health Serv 22:689–704.

Edwards, W. 1961. Verhaltensentscheidungstheorie. Annu Rev Psychol 12:473–498.

Embrey, DE, P. Humphreys, EA Rosa, B. Kirwan und K. Rea. 1984. Ein Ansatz zur Bewertung menschlicher Fehlerwahrscheinlichkeiten unter Verwendung strukturierter Expertenurteile. In Nuclear Regulatory Commission NUREG/CR-3518, Washington, DC: NUREG.

Eyssen, G., J. Eakin-Hoffman und R. Spengler. 1980. Einstellungen von Managern und das Auftreten von Unfällen in einer Telefongesellschaft. J Occup Acc 2:291–304.

Field, RHG und MA Abelson. 1982. Klima: Eine Neukonzeption und ein vorgeschlagenes Modell. Hum Relat 35: 181–201.

Fischhoff, B. und D. MacGregor. 1991. Geschätzte Letalität: Wie viel die Leute zu wissen scheinen, hängt davon ab, wie sie gefragt werden. Risk Anal 3:229–236.

Fischhoff, B, L Furby und R Gregory. 1987. Evaluation freiwilliger Verletzungsrisiken. Unfall Anal Prev 19:51–62.

Fischhoff, B., S. Lichtenstein, P. Slovic, S. Derby und RL Keeney. 1981. Akzeptables Risiko. Cambridge: CUP.

Flanagan, O. 1991. Die Wissenschaft des Geistes. Cambridge: MIT Press.

Franz, J.P. 1992. Einfluss von Standort, Verfahrensausdrücklichkeit und Präsentationsformat auf die Verarbeitung und Einhaltung von Produktwarnungen und -anweisungen durch den Benutzer. Ph.D. Dissertation, University of Michigan, Ann Arbor.

Frantz, JP und TP Rhoades.1993. Menschliche Faktoren. Ein aufgabenanalytischer Ansatz zur zeitlichen und räumlichen Platzierung von Produktwarnungen. Menschliche Faktoren 35: 713–730.

Frederiksen, M, O Jensen und AE Beaton. 1972. Vorhersage des Organisationsverhaltens. Elmsford, NY: Pergamon.
Freire, P. 1988. Pädagogik der Unterdrückten. New York: Kontinuum.

Glick, WH. 1985. Konzeptualisierung und Messung des organisatorischen und psychologischen Klimas: Fallstricke in der Mehrebenenforschung. Acad Manage Rev. 10(3):601–616.

Gouvernement du Québec. 1978. Santé et sécurité au travail: Politique québecoise de la santé et de la sécurité des travailleurs. Québec: Offizieller Herausgeber von Québec.

Haas, J. 1977. Echte Gefühle lernen: Eine Studie über die Reaktionen von Hochstahlhüttenarbeitern auf Angst und Gefahr. Sozialarbeit Occup 4:147–170.

Hacker, W. 1987. Arbeitspsychologie. Stuttgart: Hans Huber.

Haight, FA. 1986. Risiko, insbesondere Verkehrsunfallrisiko. Unfall Anal Prev 18: 359–366.

Hale, AR und AI Glendon. 1987. Individuelles Verhalten bei der Gefahrenkontrolle. Vol. 2. Industrielle Sicherheitsserie. Amsterdam: Elsevier.

Hale, AR, B. Hemning, J. Carthey und B. Kirwan. 1994. Erweiterung des Verhaltensmodells bei der Gefahrenkontrolle. Band 3 – Erweiterte Modellbeschreibung. Technische Universität Delft, Safety Science Group (Bericht für HSE). Birmingham, Vereinigtes Königreich: Birmingham University, Industrial Ergonomics Group.
Hansen, L. 1993a. Jenseits des Engagements. Gefahren besetzen 55(9):250.

—. 1993b. Sicherheitsmanagement: Ein Aufruf zur Revolution. Prof. Saf 38(30):16–21.

Harrison, EF. 1987. Der Management-Entscheidungsprozess. Boston: Houghton Mifflin.

Heinrich, H, D Petersen und N Roos. 1980. Arbeitsunfallverhütung. New York: McGraw-Hill.

Hovden, J und TJ Larsson. 1987. Risiko: Kultur und Konzepte. In Risk and Decisions, herausgegeben von WT Singleton und J Hovden. New York: Wiley.

Howarth, C.I. 1988. Die Beziehung zwischen objektivem Risiko, subjektivem Risiko, Verhalten. Ergonomie 31:657–661.

Hox, JJ und IGG Kreft. 1994. Mehrstufige Analysemethoden. Sociol Methods Res 22(3):283–300.

Hoyos, CG und B. Zimolong. 1988. Arbeitssicherheit und Unfallverhütung. Verhaltensstrategien und Methoden. Amsterdam: Elsevier.

Hoyos, CG und E Ruppert. 1993. Der Fragebogen zur Sicherheitsdiagnose (FSD). Bern: Huber.

Hoyos, CT, U. Bernhardt, G. Hirsch und T. Arnhold. 1991. Vorhandenes und erwünschtes sicherheitsrelevantes Wissen in Industriebetrieben. Zeitschrift für Arbeits- und Organisationspsychologie 35:68–76.

Huber, O. 1989. Informationsverarbeitende Akteure bei der Entscheidungsfindung. In Process and Structure of Human Decision Making, herausgegeben von H. Montgomery und O. Svenson. Chichester: Wiley.

Hunt, HA und RV Habeck. 1993. Die Studie zur Prävention von Behinderungen in Michigan: Höhepunkte der Forschung. Unveröffentlichter Bericht. Kalamazoo, MI: EE Upjohn Institute for Employment Research.

Internationale Elektrotechnische Kommission (IEC). Nd Normentwurf IEC 1508; Funktionale Sicherheit: Sicherheitsbezogene Systeme. Genf: IEC.

Instrument Society of America (ISA). Nd Draft Standard: Anwendung von sicherheitstechnischen Systemen für die Prozessindustrie. North Carolina, USA: ISA.

Internationale Organisation für Normung (ISO). 1990. ISO 9000-3: Qualitätsmanagement- und Qualitätssicherungsstandards: Richtlinien für die Anwendung von ISO 9001 auf die Entwicklung, Lieferung und Wartung von Software. Genf: ISO.

James, LR. 1982. Aggregationsverzerrung bei Schätzungen der Wahrnehmungsübereinstimmung. J. Appl. Psychol. 67:219–229.

James, LR und AP Jones. 1974. Organisationsklima: Eine Überprüfung von Theorie und Forschung. Psychol Bull 81 (12): 1096–1112.
Janis, IL und L Mann. 1977. Entscheidungsfindung: Eine psychologische Analyse von Konflikt, Wahl und Verpflichtung. New York: Freie Presse.

Johnson, BB. 1991. Risiko- und Kulturforschung: Vorsicht. J Cross Cult Psychol 22: 141–149.

Johnson, EJ und A. Tversky. 1983. Affekt, Verallgemeinerung und Risikowahrnehmung. J Personal Soc Psychol 45:20–31.

Jones, AP und LR James. 1979. Psychologisches Klima: Dimensionen und Beziehungen individueller und aggregierter Arbeitsumgebungswahrnehmungen. Organ Behav Hum Perform 23:201–250.

Joyce, WF und JWJ Slocum. 1984. Kollektivklima: Vereinbarung als Grundlage zur Definition von Gesamtklima in Organisationen. Acad Manage J 27:721–742.

Jungermann, H. und P. Slovic. 1987. Die Psychologie der Kognition und Evaluation von Risiken. Unveröffentlichtes Manuskript. Technische Universität Berlin.

Kahneman, D und A Tversky. 1979. Prospekttheorie: Eine Analyse der Entscheidung unter Risiko. Econometrica 47:263–291.

—. 1984. Entscheidungen, Werte und Rahmen. Am Psychol 39:341–350.

Kahnemann, D, P Slovic und A Tversky. 1982. Urteil unter Unsicherheit: Heuristik und Verzerrungen. New York: Cambridge University Press.

Kasperson, RE. 1986. Sechs Thesen zur Öffentlichkeitsbeteiligung und ihre Relevanz für die Risikokommunikation. Risk Anal 6:275–281.

Kleinhesselink, RR und EA Rosa. 1991. Kognitive Repräsentation der Risikowahrnehmung. J Cross Cult Psychol 22: 11–28.

Komaki, J, KD Barwick und LR Scott. 1978. Ein verhaltensorientierter Ansatz zur Arbeitssicherheit: Ermittlung und Stärkung der sicheren Leistung in einer Lebensmittelherstellungsanlage. J. Appl. Psychol. 4:434–445.

Komaki, JL. 1986. Förderung der Arbeitssicherheit und Unfallverhütung. In Health and Industry: A Behavioral Medicine Perspective, herausgegeben von MF Cataldo und TJ Coats. New York: Wiley.

Konradt, U. 1994. Handlungsstrategien bei der Störungsdiagnose an flexiblen Fertigungseinrichtungen. Zeitschrift für Arbeits- und Organisationspsychologie 38:54–61.

Koopman, P und J Pool. 1991. Organisatorische Entscheidungsfindung: Modelle, Eventualitäten und Strategien. In der verteilten Entscheidungsfindung. Kognitive Modelle für kooperative Arbeit, herausgegeben von J. Rasmussen, B. Brehmer und J. Leplat. Chichester: Wiley.

Koslowski, M und B Zimolong. 1992. Gefahrstoffe am Arbeitsplatz: Organisatorische Einflüsse auf Gefahrenbewußstein und Risikokompetenz. In Workshop Psychologie der Arbeitssicherheit, herausgegeben von B. Zimolong und R. Trimpop. Heidelberg: Asanger.

Koys, DJ und TA DeCotiis. 1991. Induktive Maße des psychologischen Klimas. Hum Relat 44(3):265–285.

Krause, TH, JH Hidley und SJ Hodson. 1990. Der verhaltensbasierte Sicherheitsprozess. New York: Van Norstrand Reinhold.
Lanier, EB. 1992. Weniger Verletzungen und Kosten durch Teamsicherheit. ASSE J. Juli: 21.–25.

Lark, J. 1991. Führend in der Sicherheit. Prof. Saf 36(3):33–35.

Lawler, EE. 1986. High-Involvement-Management. San Francisco: Jossey-Bass.

Lehto, MR. 1992. Gestaltung von Warnschildern und Warnetiketten: Wissenschaftliche Grundlage für ersten Leitfaden. Int J Ind Erg 10: 115–119.

Lehto, MR und JD Papastavrou. 1993. Modelle des Warnprozesses: Wichtige Auswirkungen auf die Wirksamkeit. Sicherheitswissenschaft 16: 569–595.

Lewin, K. 1951. Feldtheorie in den Sozialwissenschaften. New York: Harper und Row.

Likert, R. 1967. Die menschliche Organisation. New York: McGraw Hill.

Lopes, LL und P-HS Ekberg. 1980. Test einer Ordnungshypothese bei riskanten Entscheidungen. Acta Physiol 45:161–167.

Machlis, GE und EA Rosa. 1990. Erwünschtes Risiko: Erweiterung der sozialen Verstärkung des Risikorahmens. Risk Anal 10:161–168.

März, J und H Simon. 1993. Organisationen. Cambrigde: Blackwell.

März, JG und Z Shapira. 1992. Variable Risikopräferenzen und der Fokus der Aufmerksamkeit. Psychol Rev 99: 172–183.

Manson, WM, GY Wong und B. Entwisle. 1983. Kontextanalyse durch das lineare Mehrebenenmodell. In Soziologische Methodologie, 1983–1984. San Francisco: Jossey-Bass.

Mattila, M, M Hyttinen und E Rantanen. 1994. Wirksames Aufsichtsverhalten und Sicherheit auf der Baustelle. Int J Ind Erg 13: 85–93.

Mattila, M, E Rantanen und M Hyttinen. 1994. Die Qualität der Arbeitsumgebung, Überwachung und Sicherheit im Hochbau. Saf Sci 17:257–268.

McAfee, RB und AR Winn. 1989. Die Verwendung von Anreizen/Feedback zur Verbesserung der Arbeitsplatzsicherheit: Eine Literaturkritik. J. Saf Res. 20(1):7–19.

Mc Sween, TE. 1995. Der wertebasierte Sicherheitsprozess. New York: Van Norstrand Reinhold.

Melia, JL, JM Tomas und A Oliver. 1992. Concepciones del clima organizacional hacia la seguridad laboral: Replication del modelo Confirmatorio de Dedobbeleer y Béland. Revista de Psicologia del Trabajo y de las Organizaciones 9(22).

Minter, SG. 1991. Schaffung der Sicherheitskultur. Occup Hazards August: 17–21.

Montgomery, H und O Svenson. 1989. Prozess und Struktur der menschlichen Entscheidungsfindung. Chichester: Wiley.

Moravec, M. 1994. Die Partnerschaft zwischen Arbeitgebern und Arbeitnehmern im 21. Jahrhundert. HR Mag Januar: 125–126.

Morgan, G. 1986. Bilder von Organisationen. Beverly Hills: Salbei.

Nadler, D und ML Tushman. 1990. Jenseits des charismatischen Führers. Führung und Organisationswandel. Calif Manage Rev. 32:77–97.

Näsänen, M und J Saari. 1987. Die Auswirkungen positiver Rückmeldungen auf Haushalt und Unfälle auf einer Werft. J Occup Acc 8:237–250.

Nationaler Forschungs Rat. 1989. Verbesserung der Risikokommunikation. Washington, DC: National Academy Press.

Naylor, JD, RD Pritchard und DR Ilgen. 1980. Eine Verhaltenstheorie in Organisationen. New York: Akademische Presse.

Neumann, PJ und PE Politser. 1992. Risiko und Optimalität. In Risk-taking Behaviour, herausgegeben von FJ Yates. Chichester: Wiley.

Nisbett, R. und L. Ross. 1980. Menschliche Inferenz: Strategien und Mängel des sozialen Urteilsvermögens. Englewood Cliffs: Prentice-Hall.

Nunnally, JC. 1978. Psychometrische Theorie. New York: McGraw-Hill.

Oliver, A, JM Tomas und JL Melia. 1993. Una segunda validacion cruzada de la escala de clima organizacional de seguridad de Dedobbeleer y Béland. Ajuste Confirmatorio de los Modelos unofactorial, bifactorial y trifactorial. Psicologica 14:59–73.

Otway, HJ und D von Winterfeldt. 1982. Jenseits des akzeptablen Risikos: Zur gesellschaftlichen Akzeptanz von Technologien. Policy Science 14:247–256.

Perrow, C. 1984. Normale Unfälle: Leben mit Hochrisikotechnologien. New York: Grundlegende Bücher.

Petersen, D. 1993. Die Etablierung einer guten „Sicherheitskultur“ hilft, Gefahren am Arbeitsplatz zu mindern. Occup Health Saf 62(7):20–24.

Taube, NF. 1991. Sicherheitskultur und Risikomanagement in Organisationen. J Cross Cult Psychol 22: 129–140.

Rabash, J. und G. Woodhouse. 1995. MLn-Befehlsreferenz. Version 1.0 März 1995, ESRC.

Rachmann, SJ. 1974. Die Bedeutung der Angst. Harmondsworth: Pinguin.

Rasmussen, J. 1983. Fähigkeiten, Regeln, Wissen, Signale, Zeichen und Symbole und andere Unterscheidungen. IEEE T Syst Man Cyb 3: 266–275.

Grund, JT. 1990. Menschliches Versagen. Cambridge: CUP.

Rees, JV. 1988. Selbstregulierung: Eine wirksame Alternative zur direkten Regulierung durch die OSHA? Gestüt J 16: 603–614.

Renn, O. 1981. Mensch, Technik und Risiko: Eine Studie zur intuitiven Risikoeinschätzung und Einstellung zur Kernenergie. Spezielle Berichte der Kernforschungsanlage Jülich.

Rittel, HWJ und MM Webber. 1973. Dilemmata in einer allgemeinen Planungstheorie. Pol Sci 4:155-169.

Robertson, A. und M. Minkler. 1994. Neue Gesundheitsförderungsbewegung: Eine kritische Untersuchung. Health Educ Q 21(3):295–312.

Rogers, CR. 1961. Über das Werden einer Person. Boston: Houghton Mifflin.

Rohrmann, B. 1992a. Die Bewertung der Wirksamkeit der Risikokommunikation. Acta Physiol 81:169–192.

—. 1992b. Risiko Kommunikation, Aufgaben-Konzepte-Evaluation. In Psychologie der Arbeitssicherheit, herausgegeben von B. Zimolong und R. Trimpop. Heidelberg: Asanger.

—. 1995. Risikowahrnehmungsforschung: Überprüfung und Dokumentation. In Arbeiten zur Risikokommunikation. Heft 48. Jülich: Forschungszentrum Jülich.

—. 1996. Wahrnehmung und Bewertung von Risiken: Ein interkultureller Vergleich. In Arbeiten zur Risikokommunikation Heft 50. Jülich: Forschungszentrum Jülich.

Rosenhead, J. 1989. Rationale Analyse für eine problematische Welt. Chichester: Wiley.

Rumar, K. 1988. Kollektives Risiko, aber individuelle Sicherheit. Ergonomie 31:507–518.

Rummel, RJ. 1970. Angewandte Faktorenanalyse. Evanston, IL: Northwestern University Press.

Ruppert, E. 1987. Gefahrenwahrnehmung – ein Modell zur Anforderungsanalyse für die verhaltensabhängige Kontrolle von Arbeitsplatzgefahren. Zeitschrift für Arbeitswissenschaft 2:84–87.

Saari, J. 1976. Merkmale von Aufgaben im Zusammenhang mit dem Auftreten von Unfällen. J Occup Acc 1:273–279.

Saari, J. 1990. Zu Strategien und Methoden in der betrieblichen Sicherheitsarbeit: Von Informations- zu Motivationsstrategien. J Occup Acc 12:107–117.

Saari, J. und M. Näsänen. 1989. Die Wirkung positiver Rückmeldungen auf Betriebswirtschaft und Unfälle: Eine Langzeitstudie auf einer Werft. Int J Ind Erg 4: 3: 201–211.

Sarkis, H. 1990. Was Unfälle wirklich verursacht. Präsentation beim Wausau Insurance Safety Excellence Seminar. Canandaigua, NY, USA, Juni 1990.

Sass, R. 1989. Die Auswirkungen der Arbeitsorganisation auf die betriebliche Gesundheitspolitik: Der Fall Kanada. Int J Health Serv 19 (1): 157–173.

Savage, LJ. 1954. Die Grundlagen der Statistik. New York: Wiley.

Schäfer, RE. 1978. Worüber sprechen wir, wenn wir über „Risiko“ sprechen? Eine kritische Untersuchung von Risiko- und Risikopräferenztheorien. RM-78-69. Laxenber, Österreich: Internationales Institut für Angewandte Systemanalyse.

Schein, EH. 1989. Organisationskultur und Führung. San Francisco: Jossey-Bass.

Schneider, B. 1975a. Organisationsklima: Ein Essay. Pers Psychol 28:447–479.

—. 1975b. Organisationsklima: Individuelle Präferenzen und organisatorische Realitäten neu betrachtet. J. Appl. Psychol. 60:459–465.

Schneider, B. und AE Reichers. 1983. Zur Ätiologie des Klimas. Pers Psychol 36:19–39.

Schneider, B., JJ Parkington und VM Buxton. 1980. Mitarbeiter- und Kundenwahrnehmung von Dienstleistungen in Banken. Adm. Sci Q 25:252–267.

Shannon, HS, V. Walters, W. Lewchuk, J. Richardson, D. Verma, T. Haines und LA Moran. 1992. Gesundheits- und Sicherheitsansätze am Arbeitsplatz. Unveröffentlichter Bericht. Toronto: McMaster-Universität.

Kurz, JF. 1984. Das gefährdete soziale Gefüge: Auf dem Weg zur sozialen Transformation der Risikoanalyse. Amer Social R 49: 711–725.

Simard, M. 1988. La prize de risque dans le travail: un phénomène organisationnel. In La prize de risque dans le travail, herausgegeben von P. Goguelin und X. Cuny. Marseille: Editions Octares.

Simard, M und A Marchand. 1994. Das Verhalten von Vorgesetzten in der Unfallverhütung und Wirksamkeit im Arbeitsschutz. Saf Sci 19:169–184.

Simard, M et A. Marchand. 1995. L'adaptation des superviseurs à la gestion partcipative de la prévention des unces. Relations Industrielles 50: 567-589.

Simon, HA. 1959. Theorien der Entscheidungsfindung in der Wirtschafts- und Verhaltenswissenschaft. Am Econ Rev 49:253–283.

Simon, H. A. et al. 1992. Entscheidungsfindung und Problemlösung. In Entscheidungsfindung: Alternativen zu Rational-Choice-Modellen, herausgegeben von M Zev. London: Salbei.

Simonds, RH und Y Shafai-Sahrai. 1977. Faktoren, die offenbar die Verletzungshäufigkeit in elf übereinstimmenden Paaren von Unternehmen beeinflussen. J SafRes 9(3):120–127.

Slovic, P. 1987. Risikowahrnehmung. Wissenschaft 236: 280–285.

—. 1993. Wahrnehmungen von Umweltgefahren: Psychologische Perspektiven. In Behavior and Environment, herausgegeben von GE Stelmach und PA Vroon. Amsterdam: Nordholland.

Slovic, P, B Fischhoff und S Lichtenstein. 1980. Wahrgenommenes Risiko. In Gesellschaftliche Risikobewertung: Wie sicher ist sicher genug?, herausgegeben von RC Schwing und WA Albers Jr. New York: Plenum Press.

—. 1984. Perspektiven der Verhaltensentscheidungstheorie auf Risiko und Sicherheit. Acta Physiol 56: 183–203.

Slovic, P., H. Kunreuther und GF White. 1974. Entscheidungsprozesse, Rationalität und Anpassung an Naturgefahren. In Natural Hazards, Local, National and Global, herausgegeben von GF White. New York: Oxford University Press.

Smith, MJ, HH Cohen, A. Cohen und RJ Cleveland. 1978. Merkmale erfolgreicher Sicherheitsprogramme. J. Saf Res. 10:5–15.

Schmied, RB. 1993. Branchenprofil Bau: Den hohen Unfallzahlen auf den Grund gehen. Occup Health Saf Juni: 35–39.

Schmied, TA. 1989. Warum Sie Ihr Sicherheitsprogramm unter statistische Kontrolle stellen sollten. Prof. Saf 34(4):31–36.

Starr, C. 1969. Gesellschaftlicher Nutzen vs. technologisches Risiko. Wissenschaft 165: 1232–1238.

Sulzer-Azaroff, B. 1978. Verhaltensökologie und Unfallverhütung. J Organ Behaviour Manage 2:11–44.

Sulzer-Azaroff, B. und D. Fellner. 1984. Auf der Suche nach Leistungszielen in der Verhaltensanalyse von Arbeitssicherheit und Gesundheitsschutz: Eine Bewertungsstrategie. J Organ Behav Manage 6:2:53–65.

Sulzer-Azaroff, B, TC Harris und KB McCann. 1994. Jenseits der Ausbildung: Organisatorische Leistungsmanagementtechniken. Occup Med: State Art Rev 9:2:321–339.

Swain, AD und HE Guttmann. 1983. Handbuch der menschlichen Zuverlässigkeitsanalyse mit Schwerpunkt auf Anwendungen in Kernkraftwerken. Sandia National Laboratories, NUREG/CR-1278, Washington, DC: US ​​Nuclear Regulatory Commission.

Taylor, DH. 1981. Die Hermeneutik von Unfällen und Sicherheit. Ergonomie 24:48–495.

Thompson, JD und A Tuden. 1959. Strategien, Strukturen und Prozesse organisatorischer Entscheidungen. In Comparative Studies in Administration, herausgegeben von JD Thompson, PB Hammond, RW Hawkes, BH Junker und A Tuden. Pittsburgh: Pittsburgh University Press.

Trimpop, RM. 1994. Die Psychologie des Risikoverhaltens. Amsterdam: Elsevier.

Tuohy, C. und M. Simard. 1992. Die Auswirkungen gemeinsamer Gesundheits- und Sicherheitsausschüsse in Ontario und Quebec. Unveröffentlichter Bericht, Canadian Association of Administrators of Labour Laws, Ottawa.

Tversky, A und D Kahneman. 1981. Das Framing von Entscheidungen und die Psychologie der Wahl. Wissenschaft 211: 453–458.

Vlek, C und G Cvetkovich. 1989. Soziale Entscheidungsmethodik für technologische Projekte. Dordrecht, Niederlande: Kluwer.

Vlek, CAJ und PJ Stallen. 1980. Rationale und persönliche Aspekte des Risikos. Acta Physiol 45:273–300.

von Neumann, J. und O. Morgenstern. 1947. Spieltheorie und ergonomisches Verhalten. Princeton, NJ: Princeton University Press.

von Winterfeldt, D und W Edwards. 1984. Konfliktmuster um riskante Technologien. Risikoanalyse 4:55–68.

von Winterfeldt, D, RS John und K Borcherding. 1981. Kognitive Komponenten von Risikobewertungen. Risk Anal 1:277–287.

Wagenaar, W. 1990. Risikobewertung und Unfallursachen. Ergonomie 33, Nr. 10/11.

Wagenaar, WA. 1992. Risikobereitschaft und Unfallverursachung. In Risk-taking Behaviour, herausgegeben von JF Yates. Chichester: Wiley.

Wagenaar, W, J Groeneweg, PTW Hudson und JT Reason. 1994. Förderung der Sicherheit in der Ölindustrie. Ergonomie 37, Nr. 12:1,999–2,013.

Walton, RE. 1986. Von der Kontrolle zum Engagement am Arbeitsplatz. Harvard Bus Rev. 63:76–84.

Wilde, GJS. 1986. Über das Konzept der Risikohomöostase hinaus: Anregungen für Forschung und Anwendung zur Prävention von Unfällen und lebensstilbedingten Erkrankungen. Unfall Anal Prev 18: 377–401.

—. 1993. Auswirkungen der Massenmedienkommunikation auf Gesundheits- und Sicherheitsgewohnheiten: Ein Überblick über Probleme und Beweise. Sucht 88:983–996.

—. 1994. Theorie der Risikohomöostase und ihr Versprechen für mehr Sicherheit. In Challenges to Accident Prevention: The Issue of Risk Compensation Behaviour, herausgegeben von R Trimpop und GJS Wilde. Groningen, Niederlande: STYX-Veröffentlichungen.

Jates, JF. 1992a. Das Risikokonstrukt. In Risk Taking Behaviour, herausgegeben von JF Yates. Chichester: Wiley.

—. 1992b. Risikoverhalten. Chichester: Wiley.

Yates, JF und ER Stone. 1992. Das Risikokonstrukt. In Risk Taking Behaviour, herausgegeben von JF Yates. Chichester: Wiley.

Zembroski, EL. 1991. Lehren aus menschengemachten Katastrophen. Im Risikomanagement. New York: Hemisphäre.


Zey, M. 1992. Entscheidungsfindung: Alternativen zu Rational-Choice-Modellen. London: Salbei.

Zimolong, B. 1985. Gefahrenwahrnehmung und Risikoeinschätzung bei der Unfallverursachung. In Trends in Ergonomics/Human Factors II, herausgegeben von RB Eberts und CG Eberts. Amsterdam: Elsevier.

Zimolong, B. 1992. Empirische Auswertung von THERP, SLIM und Ranking zur Schätzung von HEPs. Reliab Eng Sys Saf 35:1–11.

Zimolong, B und R Trimpop. 1994. Management der menschlichen Zuverlässigkeit in fortschrittlichen Fertigungssystemen. In Design of Work and Development of Personnel in Advanced Manufacturing Systems, herausgegeben von G. Salvendy und W. Karwowski. New York: Wiley.

Zohar, D. 1980. Sicherheitsklima in Industrieorganisationen: Theoretische und angewandte Implikationen. J Appl Psychol 65, No.1:96–102.

Zuckerman, M. 1979. Sensation Seeking: Jenseits des optimalen Erregungsniveaus. Hillsdale: Lawrence Erlbaum.