MyWork

Meine arbeitspezifisches Wissen

Meine arbeitspezifisches Wissen


Fichier Détails

Cartes-fiches 20
Langue Deutsch
Catégorie Technique
Niveau Autres
Crée / Actualisé 23.06.2021 / 25.06.2021
Lien de web
https://card2brain.ch/box/20210623_mywork
Intégrer
<iframe src="https://card2brain.ch/box/20210623_mywork/embed" width="780" height="150" scrolling="no" frameborder="0"></iframe>

Automatisierungspyramide

Die Automatisierungspyramide dient der Einordnung von Techniken und Systemen in der Leittechnik und stellt die verschiedenen Ebenen in der industriellen Fertigung dar.

Jeder Ebene kommt eine eigene Aufgabe in der Produktion zu, wobei es je nach betrieblicher Situation fließende Grenzen gibt. Entsprechend der Aufgabe der Ebene haben sich spezifische Techniken der analogen als auch digitalen Datenübertragung und -verarbeitung entwickelt.

Geschichte

Der Begriff Automatisierungspyramide kam mit der zunehmenden Automatisierung von Produktions- und Fertigungsbetrieben in den achtziger Jahren auf und umfasste anfangs die unteren drei Ebenen: Ein-Ausgabeebene, Automatisierung und Mensch-Maschine-Schnittstelle. Daneben entstand der heute kaum noch benutzte Begriff CIM-Pyramide, der die oberen drei Ebenen enthielt. Durch das Zusammenwachsen der verschiedenen Systeme werden seit den neunziger Jahren alle Ebenen in der Automatisierungspyramide dargestellt.

Ebenen in der Automatisierungspyramide

Die Pyramidendarstellung betont die Hierarchie der Ebenen. Die zunehmende Verteilung der eingesetzten Systeme von oben nach unten wird visualisiert. Beispiel: ein ERP-System, mehr als ein Leitsystem, einige Steuerungen (SPS) und tausende Ein- und Ausgangssignale.

- Ebene

  1. Unternehmensebene
  2. Betriebsleitebene
  3. (Prozess)leitebene
  4. Steuerungsebene
  5. Feldebene
  6. Sensor-/Aktorebene

- Eingesetzte Systeme

  1. ERP
  2. MES, MIS, LIMS
  3. Prozessleitsystem/HMI/SCADA
  4. SPS
  5. Prozesssignale, Ein-/Ausgabemodule, Feldbus
  6. Parallelverdrahtung oder intelligente Systeme wie z. B.:AS-Interface, IO-Link

- Typische Aufgaben

  1. Produktionsgrobplanung, Bestellabwicklung
  2. Produktionsfeinplanung, Produktionsdatenerfassung, KPI-Ermittlung; Material-Management, Qualitätsmanagement
  3. Bedienen und Beobachten, Rezeptverwaltung und Ausführung, Messwertarchivierung
  4. Steuerung, Regelung
  5. Schnittstelle zum technischen Produktionsprozess über Ein- und Ausgangssignale
  6. Einfache und schnelle Datensammlung, meist binärer Signale

Automatischer Signalbetrieb (aSB)

Mit dieser Funktion kann an einem zugeordneten Sig. (aSB-Sig.) das automatische Einstellen einer bestimmten Zugfahrstrasse angestossen werden.

Folgende Bedingungen können dazu verwendet werden:

Befahren einer Gleisfreimeldung (Gleisstromkreis, Achszähler)

Startende Züge (Ein rückliegendes Sig. wird als Anstossquelle eingetragen)

RSA durch die Leittechnik (Rechnergesteuerter Anstoss)

Diese Anstösse sind in den Bauunterlagen nicht ersichtlich.

FSA durch ein RBC (Fahrstrassengesteuerter Anstoss)

Diese Anstösse sind in den Bauunterlagen nicht ersichtlich.

Eine von einer UNIV-Logik ausgegebene Bedingung

Die UNIV-Logik kann dafür Stellwerkzustände wie Blockkriterien (vorgeblockt oder geblockt), Barrierenzustände (offen oder geschlossen) oder über ein Interface EMO1 eingelesene Meldungen (Schienenkontakte) verknüpfen.

Für den Anstoss des aSB-Sig.s gibt es in der Regel zwei AP (AP1 und AP2). Die AP können jeweils um die Zeit tv verzögert werden. Für Details wird auf die Anforderungsspezifikation des aSB „3BU 00210 0000 DSAPC“ verwiesen.

Im Zusammenhang mit dem automatischen Sig.betrieb (Projektierung und Einstellung pro aSB-Sig.) muss auch die Projektierung der Zuglenkung betrachtet werden.

Wird ein Anstosspunkt erkannt, hängt das Ziel der einzustellenden Fahrstrasse davon ab, welche Art von Zuglenkung projektiert ist. Folgende Arten können ausgewählt werden.

Starre Zuglenkung

unabhängig von der Leittechnik führt eine Fahrstrasse vom aSB-Sig. immer zum selben ZielSig..

Zuglenkung

Eine Fahrstrasse vom aSB-Sig. wird erst eingestellt, wenn von der Leittechnik ein ZielSig. empfange wurde.

Starre Zuglenkung und Lenkkriterium

Ist eine Verbindung zur Leitechnik aktiv, wird eine Fahrstrasse vom aSB-Sig. erst eingestellt, wenn von der Leittechnik ein ZielSig. empfangen wurde.
Ist keine Verbindung zur Leittechnik aktiv, wird eine Fahrstrasse automatisch zu dem als starres Ziel definierten Sig. eingestellt.

Keine Stellfunktion

An diesem Sig. werden keine Fahrstrassen automatisch eingestellt.

Eine Vergabe der Zuglenkziele erfolgt von der Leittechnik aufgrund der betrieblichen Situation.

Erfolgt ein Fahrstrassenanstoss durch ein RBC (FSA), muss ebenfalls ein Lenkkriterium vorhanden sein, damit eine Fahrstrasse eingestellt wird.

FRACAS

Failure Reporting, Analysis and Corrective Action System

▪ Systematisches Verfahren der Aufnahme und Analyse von Felddaten mit dem Ziel, Fehlerursachen zu identifizieren und korrektive Maßnahmen einzuleiten

▪ Geschlossener Kreislauf (FRACAS closed loop) und Failure Review Board (FRB) Reporting

- Fehler-Berichterstattung und Visualisierung - KPI: MTBF, MDBF, MTTR, … Analyse

- Abweichungen, Pareto-Diagramm

- Ursachenermittlung (root cause) Korrektive Maßnahme Vorschlag und Implementierung Kontrolle auf Verbesserung

- Bestätigung der Maßnahme Close-out Report FRB (Kontrollgremium)

Falsifikation

Falsifikation, auch Falsifizierung (von lat. falsificare „als falsch erkennen“) oder Widerlegung, ist der Nachweis der Ungültigkeit einer Aussage, Methode, These, Hypothese oder Theorie. Aussagen oder experimentelle Ergebnisse, die Ungültigkeit nachweisen können, heißen „Falsifikatoren“.

Eine Falsifikation besteht aus dem Nachweis immanenter Inkonsistenzen bzw. Widersprüche (Kontradiktion) oder der Unvereinbarkeit mit als wahr akzeptierten Instanzen (Widerspruch zu Axiomen) oder aus der Aufdeckung eines Irrtums.

Methodisch konfrontiert man die widersprüchlichen Aussagen, die aus der Ausgangsbehauptung folgen, als Gegenhypothese oder Antithese. Falsifikationismus In der Wissenschaft steht die Falsifikation im Rahmen einer Validierung als Ergebnis neben der Verifizierung.

In der Wissenschaftstheorie nach Karl Popper nimmt die Falsifizierbarkeit einer Theorie oder Hypothese eine zentrale Rolle ein. Sie ist eine formale Anforderung an eine Aussage oder Vorhersage. Popper ließ damit Klassen von Aussagen zu, die zwar prinzipiell nicht beweisbar sind, aber als „vorläufig akzeptabel“ gelten sollen bis sie widerlegt werden. Um das zu erlauben, muss nur geprüft werden, ob sich die Aussage prinzipiell überhaupt (formal) widerlegen lässt. Beispiel: Die Aussage „Das Virus C ist gefährlich.“ lässt sich nicht widerlegen.

Der Grund ist, dass der Begriff „gefährlich“ nicht scharf definiert ist. Die Aussage bleibt also aus mehreren Gründen unwiderlegbar. Deshalb wird sie aber nicht wahr, sondern „unwissenschaftlich“. Widerlegte Aussagen, Thesen, Theorien sind für die Wissenschaft als Methode des Kenntnisgewinns wertlos und werden verworfen.

Sinn haben sie nur mehr in der wissenschaftsgeschichtlichen Betrachtung, um Lehren aus falschen Ansätzen zu ziehen. Details und Probleme dieses Ansatzes werden unter Falsifikationismus behandelt. Hierbei ist zu beachten, dass Falsifizierungen die Funktion eines „Aktivitätstriggers“ übernehmen, das Problem näher zu untersuchen. Es ergibt sich methodologisch nicht zwingend, dass die Falsifizierung einer Aussage sofort die Verwerfung der zugrundeliegenden Theorie zur Folge hat (siehe auch Paradigma sowie Duhem-Quine-These).

OODA-Loop

Der OODA-Loop ist ein Informationsstrategiekonzept aus dem militärischen Bereich. Es definiert eine Entscheidungsschleife, die aufgrund eines neuen Ereignisses immer wieder durchlaufen wird.

Die Theorie versucht somit eine Verhaltensweise, eine Reaktion eines Individuums oder einer ganzen Organisation (z. B. Abteilung, Vereinigung, Staat) in einer (fremden) Umgebung gegenüber einem Ereignis abstrakt darzustellen. Diese wurde von dem Militärstrategen John Boyd (1927–1997) entwickelt und wird zur taktischen Analyse und psychologischen Paralyse eines Gegners verwendet.

Da diese Theorie von einem Entscheidungsprozess ausgeht, lassen sich einige Elemente der Theorie auf den wirtschaftlichen Bereich anwenden, wie zum Beispiel bei Geschäftsverhandlungen oder Lernprozessen.

OODA bedeutet im Einzelnen:

  • Observe – beobachten
  • Orient – orientieren
  • Decide – entscheiden
  • Act – handeln

Man kann unter Umständen einen Vorteil erlangen, indem man den OODA-Loop schneller durchläuft als der Gegner. Durch das eigene Handeln (am Ende der Schleife) verändert man die Situation, während der Gegner noch dabei ist, die alte Situation zu verarbeiten. Der Gegner ist gezwungen den Loop von vorne zu beginnen, ohne rechtzeitig gehandelt zu haben.

Im Bezug auf die Kriegsführung (militärisch oder wirtschaftlich) gilt es daher, den Schleifenlauf des Gegenüber mit Täuschung und Mehrdeutigkeit eines Ereignisses zu verlängern und mit gezielten Maßnahmen weitere Entscheidungsschleifen in einer Entscheidungsschleife einzubauen. Anhand falscher Informationen oder Ereignisse wird also das Denken und die Kräfte des Gegners auf einen falschen Weg gebracht und trifft letztendlich die falsche Entscheidung. Dadurch wird der Gegner nicht in der Lage sein, schnell oder sicher zu handeln oder gar handlungsunfähig gemacht.

Was ist ein Akronym?

Ein Akronym ist ein Sonderfall der Abkürzung. Akronyme entstehen dadurch, dass Wörter oder Wortgruppen auf ihre Anfangsbestandteile gekürzt werden.

RAMS - Reliability, Availability, Maintainability, Safety

Beschreibe den Einfluss von RAM auf die Gefährdungsrate und die Sicherheit.

Ausfallrate und Instandhaltungsrate hat Einfluss auf die Verfügbarkeit. Eine hohe Verfügbarkeit führt zu geringeren Gefährdungsraten. Diese beeinflusst das Risiko und somit auch die Sicherheit des Systems (siehe Graphik)

GAMAB

Das GAMAB-Prinzip (Globalement au moins aussi bon – Generell mindestens so gut) bedeutet: Ein neues System soll wenigstens so sicher bzw. risikoarm sein, wie irgendein bereits existierendes vergleichbares System (vgl. europäischen Bahn-Norm EN 50126, 1997).

Dieses Prinzip setzt den derzeitigen Sicherheitsstand als Mindestanforderung. Neue Systeme müssen diesen Stand wenigstens erreichen. Der technische Fortschritt wird damit schrittweise weiterentwickelt. Es geht von der Prämisse aus, dass das Risiko des vergleichbaren, sich bereits im Betrieb befindlichen Systems als akzeptiert gilt.

Das Prinzip kommt sinngemäß in der Eisenbahn-Bau- und Betriebsordnung EBO, §2 (Allgemeine Anforderungen) Absatz (2) zur Anwendung:

Von den anerkannten Regeln der Technik darf abgewichen werden, wenn mindestens die gleiche Sicherheit wie bei Beachtung dieser Regeln nachgewiesen ist. (Nachweis gleicher Sicherheit)

In der chemischen Industrie wird hierfür Begriff „Best practice“ angewendet.

In Frankreich ist es gebräuchliches Risikoakzeptanzkriterium.

ALARP-Prinzip

ALARP ist ein englisches Akronym und bedeutet as low as reasonably practicable (‚so niedrig, wie vernünftigerweise praktikabel‘).

Es handelt sich um ein Prinzip der Risikoreduzierung, das zum Beispiel im Risikomanagement Anwendung findet. Das ALARP-Prinzip besagt, dass Risiken auf ein Maß reduziert werden sollen, welches den höchsten Grad an Sicherheit garantiert, der vernünftigerweise praktikabel ist (Begrenzung der maximalen Schadenserwartung). Dies bedeutet zum Beispiel, dass bei der Produktentwicklung Maßnahmen für identifizierte Produktrisiken nur dann implementiert werden müssen, wenn sie auch vernünftigerweise praktikabel sind (finanziell und/oder technisch mit vertretbarem Aufwand realisierbar).

Das ALARP-Prinzip wird im Risikomanagement (siehe auch Probabilistische Sicherheitsanalyse) verwendet. Innerhalb eines Risikomanagementprozesses wird mit Hilfe eines Risikographen (RISK MATRIX)[1] festgelegt, welche Risiken im akzeptablen Bereich, welche im ALARP-Bereich und welche im inakzeptablen Bereich liegen. Die Einstufung des Risikographen erfolgt in der Regel projektspezifisch und setzt voraus, dass die beiden Parameter Eintrittswahrscheinlichkeit und Schadensausmaß definiert sind.

In einem kontinuierlichen Risikomanagementprozess werden vorhandene Risiken fortlaufend überwacht und bewertet sowie neue Risiken identifiziert. Anhand einer Bewertung der Parameter Eintrittswahrscheinlichkeit und Schadensausmaß für jedes einzelne Risiko erfolgt eine Einstufung desselben im Risikographen. Risiken, die im inakzeptablen Bereich liegen, müssen durch risikoverringernde Maßnahmen in den ALARP-Bereich gebracht werden. Ist dies nicht möglich, so ist mit Hilfe einer Kosten-Nutzen-Analyse (cost–benefit analysis)[1] zu klären, ob der zu erwartende Nutzen die Risiken überwiegt.

Minimale endogene Mortalität (MEM)

Die Minimale Endogene Mortalität (MEM) ist ein Begriff aus der Risikoanalyse für technische, sicherheitsrelevante Systeme, wie etwa Kraftwerke oder Bahnanlagen (siehe Probabilistische Sicherheitsanalyse). MEM ist ein Maß für das akzeptierte (unvermeidliche) Risiko, durch die betreffende Technologie zu Tode zu kommen.

Sie wird in der CENELEC-Norm EN 50126 beschrieben und konkretisiert als „0,0002 Todesfälle pro Person und Jahr“. Dies ist statistisch die Mortalität (Sterberisiko) eines europäischen Jugendlichen.

MEM wird hauptsächlich als absoluter Risikoschwellwert bei der Zulassung kompletter Systeme eingesetzt. Neue Systeme dürfen kein höheres Risiko haben als die bestehenden (in den Normen als GAMAB-Prinzip bezeichnet, von frz. Globalement Au Moins Aussi Bon). Da jeder Mensch „vielen“ (normiert: 20) technischen Systemen gleichzeitig ausgesetzt ist, wird pro System ein Schwellwert von 1/20 MEM = 0,00001 Tote/Jahr festgesetzt. Dieser Wert darf von geplanten Neuerungen nicht überschritten werden. Im Gegenteil müssen neue Technologien in aller Regel sicherer sein als alte, da der technische Fortschritt das ermöglicht (ALARP-Prinzip, von englisch as low as reasonably practicable).

MEM hat Einschränkungen:

  • Es ist nicht sicher, dass ein System, welches das MEM-Kriterium erfüllt, auch dem ESO-Standard entspricht.
  • Da MEM ein fixes Risikokriterium festlegt, ist es absolut und passt sich nicht der Gesellschaft an. Die Auffassung, ob etwas zu riskant ist, hängt von zahlreichen Faktoren ab, ob zum Beispiel eine Alternative existiert oder ob es erst kürzlich größere Unfälle gegeben hat, welche die Gesellschaft sensibilisieren.

Safe-Life-Methode

Die „Safe-Life-Methode“ ist eine Konstruktionsphilosophie, die vorwiegend im Flugzeugbau eingesetzt wird. Ihr liegt eine Lebensdauerberechnung einzelner Bauteile zugrunde (Life-Limited-Parts). In diesem Zeitraum ist davon auszugehen, dass kein Bauteilversagen aufgrund von Ermüdung auftritt. Nach Ablauf dieses Zeitraums wird das Bauteil ersetzt, unabhängig davon, ob es Schäden zeigt. Jedoch berücksichtigt diese Methode keine Überschreitung der Toleranzgrenzen, welche u. a. durch ein allzu hartes Landen mit einem Luftfahrzeug überschritten werden können. Eine Konstruktion nach der Safe-Life-Methode ist in der Regel statisch bestimmt, was bei Ausfall eines tragenden Bauteils zu einem Ausfall des kompletten Systems führt.

Ein Beispiel aus dem Flugzeugbau ist das Fahrwerk.

Im Gegensatz zur Safe-Life-Methode steht die Fail-Safe- und die Damage-Tolerance-Methode.

Fail-safe

https://de.wikipedia.org/wiki/Fail-Safe

Fail-safe (englisch für „versagenssicher“ o. „ausfallsicher“, zusammengesetzt aus fail, ‚ausfallen‘ u safe, ‚gefahrlos‘) bezeichnet jede Eigenschaft eines Systems, die im Fall eines Fehlers zu möglichst geringem Schaden führt. Bei einer Maschine o. Anlage werden systematisch Fehler unterstellt u danach versucht, die zugehörigen Auswirkungen so ungefährlich wie möglich zu gestalten. Dieses Prinzip wird in allen technischen Bereichen angewendet. In vielen Fällen gibt es hierfür branchenspezifische Sicherheitsvorschriften. Im übertragenen Sinn werden neben Bauteil- o. Energieausfall auch Bedienungsfehler betrachtet.

Die Standardfragen lauten, was passiert, wenn

die Haupt- o. Hilfsenergie ausfällt
ein Bauteil versagt (zerstört ist),
ein Bedienungsfehler vorliegt,
ein Feuer o. eine Explosion stattfindet,
eine uichtigkeit vorliegt.

Diese Fragen werden üblicherweise in einer FMEA (Failure Mode and Effects Analysis – „Fehlermöglichkeits- u Einflussanalyse“) untersucht u bewertet.

Komplexere Fragen ergeben sich, wenn

mehrere Probleme zusammenwirken,
absichtlich Probleme erzeugt werden.

Solche komplexe systemtechnischen Fragestellungen werden z. B. mit den Methoden der Zuverlässigkeitstechnik, wie Fehlerbaum- o. Ereignisbaumanalyse untersucht.

Im Einzelfall können weitere Fragen sinnvoll o. notwendig sein. Es ist unzulässig, die Fehlerbetrachtung auf die Steuerung o. Elektrik zu beschränken. Ebenso darf eine Betrachtung nicht durch Einschätzungen wie „selten“ o. „unwahrscheinlich“ unterdrückt werden. Ebenfalls darf die Unterstellung eines Ausfalls nicht einfach durch eine „Überdimensionierung“ eines konstruktiven Details ausgeschlossen werden. Beispiel: die Rohrleitung bricht (auch bei doppelter o. dreifacher Wandstärke). Die Folgen eines solchen Bruchs müssen analysiert werden.

Dem Bediener wird Fehlverhalten unterstellt. Dann kann man im Umkehrschluss den Bediener nicht als Garant für den sicheren Zustand betrachten. Kommt man zu keinem befriedigenden Ergebnis, dann kann die Planung von reduanten Bauteilen ein Ausweg sein. Bezogen auf das Thema Sicherheit sind dann solche Bauteile notwendig u nicht überflüssig.

SWOT-Analyse

Die SWOT-Analyse (engl. Akronym für Strengths (Stärken), Weaknesses (Schwächen), Opportunities (Chancen) und Threats (Risiken)) ist ein Instrument der strategischen Planung.

Sie dient der Positionsbestimmung und der Strategieentwicklung von Unternehmen und anderen Organisationen sowie in der Personal- und Führungskräfteentwicklung.


Die SWOT-Analyse wurde in den 1960er-Jahren an der Harvard Business School zur Anwendung in Unternehmen entwickelt.[4] Nach Henry Mintzberg ist es die Basis fast aller Versuche, den Prozess der Strategieentwicklung zu formalisieren (im Gegensatz zur Strategie als Innovation oder kreative Schöpfung).[5] Die Prinzipien der SWOT-Analyse sind erheblich älter als ihre Anwendung in Organisationen.

So sagt schon der chinesische General, Militärstratege und Philosoph Sunzi (544 – 496 v. Chr.): „Wenn du den Feind und dich selbst kennst, brauchst du den Ausgang von hundert Schlachten nicht zu fürchten. Wenn du dich selbst kennst, doch nicht den Feind, wirst du für jeden Sieg, den du erringst, eine Niederlage erleiden. Wenn du weder den Feind noch dich selbst kennst, wirst du in jeder Schlacht unterliegen.“

Überträgt man diesen Kerngedanken auf ein Unternehmen, ergeben sich daraus folgende Empfehlungen zur Entwicklung einer Strategie:

    Untersuchung des wirtschaftlichen und soziokulturellen Umfeldes auf mögliche Gefahren, Risiken und Chancen (neue Möglichkeiten).
    Einschätzung der finanziellen, personellen und technologischen Stärken und Schwächen des Unternehmens.
    Bewertung der Chancen im Hinblick darauf, ob sie durch eine Stärke begünstigt oder durch eine Schwäche behindert werden. Das Ergebnis sind realistische Chancen (mit einer hohen Erfolgswahrscheinlichkeit).
    Festlegung von Maßnahmen, die am besten geeignet sind, diese Chancen umzusetzen.
    Budgetierung und Auswahl von Kennzahlen zur Fortschritts- und Erfolgskontrolle.

Bei dieser Art von Strategien handelt es sich um so genannte Matching-Strategien (Nutzung von Chancen durch passende Stärken des Unternehmens). Häufig ist es notwendig, stattdessen oder begleitend Umwandlungs- und Neutralisierungsstrategien anzuwenden. Dabei geht es um die Umwandlung von Schwächen in Stärken oder von Risiken in Chancen – beziehungsweise die Neutralisierung von Risiken oder Schwächen.

Risiko

Das Risiko ist ein Mass für die Grösse einer Gefährdung u beinhaltet die Häufigkeit
bzw. Wahrscheinlichkeit u das Schadensausmass eines unerwünschten Ereignisses.
Erläuterungen
Im Risiko ist die Unsicherheit enthalten, dass ein bestimmtes Ereignis eintritt u welches Schadensausmass das Ereignis aufweisen wird. Das Risiko beschreibt damit einen
erwarteten Schaden, der mit einer bestimmten Wahrscheinlichkeit oder Häufigkeit eintritt. Im mathematischen Sinne entspricht es einem Schadenerwartungswert.
Das Risiko dient im Bevölkerungsschutz als Mass, um verschiedene Gefährdungen miteinander zu vergleichen, indem sie gleichermassen mit der Häufigkeit bzw. Eintrittswahrscheinlichkeit u dem Schadensausmass beschrieben werden.
Um kollektive Risiken miteinander vergleichen zu können, ist es auch gebräuchlich, diese
zu monetarisieren (monetarisiertes Risiko). Das heisst, die Schadensausmasse aller
Schadensindikatoren werden in Geldeinheiten ausgedrückt (siehe dazu auch Grenzkosten).
Die vorliegende Definition des Begriffs Risiko entspricht demjenigen in der formalen Entscheidungstheorie, die in der Regel auch in den Sicherheitswissenschaften sowie den Ingenieur- u Umweltwissenschaften verwendet wird.
Der Risikobegriff kann aus unterschiedlichen Blickwinkeln enger definiert werden:

Kollektives Risiko als Schadenerwartungswert aus gesellschaftlicher Sicht

Individuelles Risiko als Todesfallwahrscheinlichkeit aus der Sicht eines Individuums
Daneben gibt es weitere Eingrenzungen u Präzisierungen des Risikobegriffs für spezifische Anwendungen, beispielsweise:  

Prozessspezifisches / nicht prozessspezifisches Risiko: Es handelt sich um Begriffe des
internen Kontrollsystems der Buesverwaltung (IKS). Prozessspezifisch bedeutet, dass
sich das Risiko auf interne, finanzrelevante Geschäftsprozesse bezieht (z. B. Verbuchen
u Bezahlen einer Rechnung ohne Prüfung).

Operatives Risiko: Unter dem Begriff werden sämtliche Risiken verstanden, die bei
der Tätigkeit des Amtes einen Schaden verursachen können (aus der operativen Tätigkeit entstehend, d.h. die genannten prozessspezifischen Risiken sind Teil der operativen
Risiken).

Strategisches Risiko: Es entsteht vorwiegend aus dem Umfeld, aus Rahmenbedingungen, Politik u hat einen grossen Einfluss auf die Tätigkeit oder gar Existenz des Amtes
(z. B. Ressourcen werden massiv gestrichen).

In Regress nehmen

eine Zahlungsrückforderung stellen

Erkläre den Unterschied zwischen den Begriffen Gefahr, Gefährdung u. Ereignis.

Siehe Bild.

Erkläre das Schweizer-Käse-Modell