Entwicklung eines Vorgehens zum Safety Assessment für sicherheits-kritische Informationssysteme - Christina Schäfer - E-Book

Entwicklung eines Vorgehens zum Safety Assessment für sicherheits-kritische Informationssysteme E-Book

Christina Schäfer

0,0

Beschreibung

Informationssysteme erhalten in der heutigen Zeit immer mehr Bedeutung in unterschiedlichsten Berufszweigen. Insbesondere in sicherheits-kritischen Kontexten werden Aufgaben durch Informationstechnologien übernommen oder unterstützt. Die vorliegende Arbeit zielt auf eine Analyse des Entwicklungsprozesses von sicherheits-kritischen Informationssystemen und eröffnet Möglichkeiten, erhöhte Sicherheitsstrukturen in bestehende Prozesse zu integrieren. Zunächst wurden Indikatoren bezüglich des Risikos in der Entwicklung von Informationssystemen in der zivilen Gefahrenabwehr ermittelt und mit bestehenden Ansätzen verglichen. Darauf aufbauend wurde zum einen ein Safety Assessment als paralleler Entwicklungszweig festgelegt und zum anderen ein Methodenkatalog für den Kontext der zivilen Gefahrenabwehr erstellt. Methoden wurden im Kontext angewendet und auf ihren Beitrag zum Safety Assessment geprüft.

Sie lesen das E-Book in den Legimi-Apps auf:

Android
iOS
von Legimi
zertifizierten E-Readern
Kindle™-E-Readern
(für ausgewählte Pakete)

Seitenzahl: 225

Das E-Book (TTS) können Sie hören im Abo „Legimi Premium” in Legimi-Apps auf:

Android
iOS
Bewertungen
0,0
0
0
0
0
0
Mehr Informationen
Mehr Informationen
Legimi prüft nicht, ob Rezensionen von Nutzern stammen, die den betreffenden Titel tatsächlich gekauft oder gelesen/gehört haben. Wir entfernen aber gefälschte Rezensionen.



Christina Schäfer

Entwicklung eines Vorgehens zum Safety Assessment für sicherheits-kritische Informationssysteme in der zivilen Gefahrenabwehr am Beispiel der Feuerwehr

© 2019 Christina Schäfer

Autor: Christina Schäfer

Verlag & Druck: tredition GmbH, Hamburg

ISBN:

978-3-7482-1563-9 (Paperback)

978-3-7482-1564-6 (Hardcover)

978-3-7482-1565-3 (e-Book)

Das Werk, einschließlich seiner Teile, ist urheberrechtlich geschützt. Jede Verwertung ist ohne Zustimmung des Verlages und des Autors unzulässig. Dies gilt insbesondere für die elektronische oder sonstige Vervielfältigung, Übersetzung, Verbreitung und öffentliche Zugänglichmachung.

Bibliografische Information der Deutschen Nationalbibliothek:

Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über http://dnb.dnb.de abrufbar.

Entwicklung eines Vorgehens zum Safety Assessment für sicherheits-kritische Informationssysteme in der zivilen Gefahrenabwehr am Beispiel der Feuerwehr

zur Erlangung des akademischen Grades DOKTOR DER INGENIEURWISSENSCHAFTEN (Dr.-Ing.) der Fakultät für Maschinenbau der Universität Paderborn

genehmigte DISSERTATION

von Dipl.-Inf. Christina Schäfer aus Bochum

Tag des Kolloquiums: 05. Dezember 2018

Referent:          Prof. Dr.-Ing. Rainer Koch

Korreferent:      Prof. Dr. Gerd Szwillus

Zusammenfassung

Informationssysteme erhalten in der heutigen Zeit immer mehr Bedeutung in unterschiedlichsten Berufszweigen. Insbesondere in sicherheits-kritischen Kontexten werden Aufgaben durch Informationstechnologien übernommen oder unterstützt.

Die vorliegende Arbeit zielt auf eine Analyse des Entwicklungsprozesses von sicherheits-kritischen Informationssystemen und eröffnet Möglichkeiten erhöhte Sicherheitsstrukturen in bestehende Prozesse zu integrieren. Zunächst wurden Indikatoren bezüglich des Risikos in der Entwicklung von Informationssystemen in der zivilen Gefahrenabwehr ermittelt und mit bestehenden Ansätzen verglichen. Darauf aufbauend wurde zum einen ein Safety Assessment als paralleler Entwicklungszweig festgelegt und zum anderen ein Methodenkatalog für den Kontext der zivilen Gefahrenabwehr erstellt. Methoden wurden im Kontext angewendet und auf ihren Beitrag zum Safety Assessment geprüft.

Summary

Information systems are becoming more and more important in a wide variety of occupations today. In particular in safety-critical contexts, tasks are taken over or supported by information technologies.

The presented work provides an analysis of the development process of safetycritical information systems and opens possibilities to integrate increased safety structures into existing processes. First, indicators on civil safety information systems were identified and compared with existing approaches. Based on this, on the one hand, a Safety Assessment was defined as a parallel development process, and on the other hand, a method portfolio for the context of civil safety was created. Methods were applied in context and tested for their contribution to the Safety Assessment.

Vorwort und Danksagung

„Derjenige, der etwas zerbricht, um herauszufinden, was es ist, hat den Pfad der Weisheit verlassen.“ (J.R.R. Tolkien)

Die vorliegende Dissertation versucht einen Pfad für die Entwicklung von sicherheits-kritischen Informationssystemen zu schaffen, der eine gebrauchstaugliche Anwendung der Systeme in der zivilen Gefahrenabwehr schafft, ohne dass etwas „zerbricht“. Die Arbeit wurde im Rahmen meiner Tätigkeiten als Wissenschaftliche Mitarbeiterin in der Arbeitsgruppe „Computeranwendung und Integration in Konstruktion und Planung“ verfasst. Dazu war es mir möglich in verschiedene Forschungsprojekte Einblick zu erhalten, zu lernen und selbst zu gestalten. Dafür möchte ich besonders Dank an meinen Doktorvater Herrn Prof.-Dr.-Ing. Rainer Koch richten, für die Teilhabe in einem spannenden Forschungsfeld, die Betreuung meiner Arbeit und viele anregende Gespräche. Zusätzlich möchte ich meinen Dank an Herrn Prof. Dr. Gerd Szwillus ausdrücken, der maßgeblich meinen Start in das Themenfeld begleitet hat. Darüber hinaus hat der stets interessante Diskurs mit Kollegen und Freunden meine Arbeit geprägt, sodass ich sie hier nicht unerwähnt lassen möchte. Dass die vorliegende Arbeit letztlich fertiggestellt wurde, verdanke ich aber maßgeblich meiner Familie, die mich bestärkt, an mich geglaubt und mir immer wieder Mut gemacht hat, weiterzumachen. Dabei möchte ich insbesondere meinem Mann Daniel Schäfer, meinen Kindern Janina und Jonah und meinen Eltern Udo und Andrea Reck danken.

Damit bleibt: Es gilt mein Dank allen, die mich auf meinem Pfad hierhin begleitet haben!

Paderborn, den 12.12.2018

Christina Schäfer

Teile dieser Arbeit sind in folgenden Dokumenten vorveröffentlicht

• POTTEBAUM, J.; SCHÄFER, C.: IT-Systeme für das Krisenmanagement. In: Sicherheitskritische Mensch-Computer-Interaktion. Wiesbaden : Springer Fachmedien Wiesbaden, 2018, S. 253–276

• ZINKE, R.; KÜNZER, L.; SCHRÖDER, B.; SCHÄFER, C.: Integrating Human Factors into Evacuation Simulations - Application of the Persona Method for Generating Populations. Analytical Modeling and. In: Simulation Proceedings of the 14th ISCRAM Conference, 2017

• SCHAFER, C.; SAUERLAND, T.; POTTEBAUM, J.; MARTERER, R.; BEHNKE, D.; WIETFELD, C.; GRAY, P.; DESPOTOV, B.: Cloud-based semantic services for pan-European emergency preparation and planning. In: 2017 Annual IEEE International Systems Conference (SysCon) : IEEE, 2017 — ISBN 978-1-5090-4623-2, S. 1–7

• POTTEBAUM, J.; SCHAFER, C.; KUHNERT, M.; BEHNKE, D.; WIETFELD, C.; BUSCHER, M.; PETERSEN, K.: Common information space for collaborative emergency management. In: 2016 IEEE Symposium on Technologies for Homeland Security (HST) : IEEE, 2016 — ISBN 9781-5090-0770-7, S. 1–6

• SCHÄFER, C.; ZINKE, R.; KÜNZER, L.; HOFINGER, G.; KOCH, R.: Applying Persona Method for Describing Users of Escape Routes. In: Transportation Research Procedia Bd. 2 (2014), S. 636–641

• SCHÄFER, C.; KÜNZER, L.; ZINKE, R.: Intergation und Modellierung von menschlichen Faktoren für die Evakuierung von U-Bahn-Systemen. In: Proceedings of the INFORMATIK 2013. Koblenz, 2013

• FRIBERG, T.; SCHÄFER, C.; KOCH, R.: Methodology for Analysing Unstructured Usability Evaluation Data. In: . Berlin, Heidelberg : Springer, 2012, S. 249–260

• LINDEMANN, C. ; SCHÄFER, C. ; KOCH, R.: Requirements of Knowledge-Management in Industrial Organisations and the Sector of Public Safety and Security: Same or Different? In: Proceedings of the 8th International Conference on Intellectual Capital, Knowledge Management & Organisational Learning – ICICKM (2011)

• SCHÄFER, C ; POTTEBAUM, J ; LÖKEN, J ; und R. und KOCH: Geo-Entscheidungsunterstützung für die ABC-Gefahrenabwehr. In: Geoinformatik 2010. Kiel : Geoinformatik, 2010.

• RECK, C.: Entwicklung eines Konzepts zur modellbasierten Fehlerdiagnose. Informatiktage 2009, März 2009.

Inhaltsverzeichnis

1 Einleitung

1.1 Motivation und Problemstellung

1.2 Zielsetzung und Vorgehen

2 Handlungsbedarf – Nutzungsperspektive

2.1 Bedarf an IT-Unterstützung im Problemlösungsprozess zur Erhöhung des Wissens von Akteuren in der zivilen Gefahrenabwehr

2.2 Erfahrung und die Bedeutung des Wissens des Designers / Entwicklers über den Nutzer

2.3 Benutzerspezifische Qualitätseigenschaften

3 Grundlagen

3.1 Vorgehensmodelle zur Softwareentwicklung und die Einbeziehung des Benutzers

3.2 Wissen des Designers und Entwicklers über den Nutzer erhöhen

3.2.1 Aufgabenanalyse (Task-Analysis)

3.2.2 Zielanalyse

3.2.3 Szenario-Analyse

3.3 Wissen der Einsatzkräfte selbst durch und über das System erhöhen

3.3.1 Prototyping

3.3.2 Schulung und E-Learning

3.3.3 Wissensmanagement

3.3.3.1 Lessons Learned

3.3.3.2 Wissenskarten

3.4 Den Nutzer als Individuum/Rolle in der Entwicklung anerkennen und abbilden

3.4.1 Wissensakquise über den Benutzer

3.4.2 Benutzermodell und Gruppen-Benutzermodell

3.4.3 Mögliche Inhalte eines Benutzermodells

3.4.4 Repräsentation und Auswertung des Benutzermodells

4 Anpassung des Handlungsbedarfs

4.1 Entwicklungsmethodik

4.2 Methodenkatalog

5 Ermittlung von Risiko-Indikatoren für sicherheits-kritische Informationssysteme am Beispiel der Feuerwehr

5.1 Analyse von Feuerwehrstrukturen

5.1.1 Fazit zur Analyse der Feuerwehrstrukturen

5.2 Sichtung durchgeführter Analysen

5.2.1 Szenarien und Use Case

5.2.2 Sichtung von Anforderungen

5.2.2.1 Vergleich mit anderen Projektergebnissen

5.3 Vergleichende Literatur

5.4 Zusammenstellung der Indikatoren

6 Implikationen für die Entwicklung von sicherheits-kritischen Informationssystemen

6.1 Adaption des Softwareentwicklungsprozesses

6.1.1 Methoden in der Analyse

6.1.1.1 Erhebungsmethoden

6.1.1.2 Kreativmethoden

6.1.1.3 Analysemethoden

6.1.2 Methoden im Design und in der Implementierung

6.1.3 Methoden in der Evaluation

6.2 Wechselseitige Beziehung zwischen SAP und SDP

6.2.1 Auszug einer Hazard Analysis

6.3 Veröffentlichung eines Methodenkatalogs

7 Bewertung der Ergebnisse

8 Fazit

8.1 Zusammenfassung

8.2 Ausblick

9 Literaturverzeichnis

9.1 Unveröffentlichte Arbeiten

9.2 Studentische Arbeiten

10 Anhang

Verzeichnis der Abkürzungen

AAO

Alarm- und Ausrücke-Ordnung

ABC

Atomar, Biologisch, Chemisch

ABC-ErkKW

ABC- Erkunderkraftwagen

AKNZ

Akademie für Krisenmanagement, Notfallplanung und Zivilschutz

ANYWHERE

EnhANcing emergencY management and response to extreme WeatHER and climate Events

AirShield

Airborne Remote Sensing for Hazard Inspection by Network-Enabled Lightweight Drones

BBK

Bundesamt für Bevölkerungsschutz und Katastrophenhilfe

BMBF

Bundesministerium für Bildung und Forschung

BPEL

Business Process Execution Language

BPM

Business Process Management

bzw.

beziehungsweise

CBRN

Chemisch, Biologisch, Radiologisch und Nuklear

CIS

Common Information Space

DSS

Decision Support System

EAL

Einsatzabschnittsleiter

EPK

Ereignisgetriebene Prozessketten

FHA

Failure Hazard Analysis

FMEA

Fehlermöglichkeits- und -einflussanalyse

FwDV

Feuerwehrdienstvorschrift

GDT

Goal-Directed-Taskanalysis

GIS

Geo-Informationssystem

GOMS

Gesamtziel, Operatoren, Methoden, Selektionsregeln

GUI

Graphical User Interface

HW

Hardware

IS

Informationssystem

IT

Informationstechnologie

JPDL

jBPM Process Definition Language

LL

Lessons Learned

MEA

Means-End Analysis

OrGaMIR

Organisationsübergreifende Gefahrenabwehr zum Schutz von Menschen und kritischen Infrastrukturen durch optimierte Prävention und Reaktion

OWL

Web Ontology Language

PSSA

Preliminary System Safety Analysis

QoC

Quality of Context

RDF

Resource Description Framework

SA

Situation Awareness

SAP

Safety Assessment Process

SDP

System Development Process

SecInCoRe

Secure Dynamic Cloud for Information, Communication and Resource Interoperability based on Pan-European Disaster Inventory

SKIS

Sicherheits-kritisches Informationssystem

SKMMS

Sicherheits-kritisches Mensch-Maschine-System

SKS

Sicherheits-kritisches System

SSA

System Safety Analysis

SW

Software

TEL

Technische Einsatzleitung

UAV

Unmanned Air Vehicle

u.U.

unter Umständen

z.B.

zum Beispiel

Abbildungsverzeichnis

Abbildung 1-1 Zusammenhänge zwischen Sicherheits-kritischen Systemen, Sicherheits-kritischen Mensch-Maschine-Systemen und Sicherheits-kritischen Informationssystemen

Abbildung 1-2 Auswertung der Use Cases eines entscheidungsunterstützenden Informationssystems

Abbildung 1-3 Zusammenhang der Entwicklungsmuster der betrachteten Systemklassen

Abbildung 1-4 Relevante Themen in der Arbeit

Abbildung 1-5 Vorgehen in der Arbeit

Abbildung 2-1 Zusammenhang zwischen Risiko und Problem

Abbildung 2-2 Prozess zur Problemlösung in Anlehnung an den Risikomanagementprozess gemäß ISO 31000

Abbildung 2-3 Zusammenhänge zwischen Problemlöser, Kontext und Aufgabe

Abbildung 2-4 Detaillierter Problemlösungsprozess

Abbildung 2-5 Stakeholder Analyse

Abbildung 2-6 Beispiel Ursachen-Wirkungs-Diagramm

Abbildung 2-7 Störungsbehebungsprozess

Abbildung 2-8 Gesamtsystem AirShield

Abbildung 2-9 Verteilung der Aussagen zur Kapselung auf Rollen

Abbildung 2-10 Anforderung einer Maßnahme

Abbildung 2-11 Prozess der Maßnahmenbearbeitung

Abbildung 2-12 Benutzungsschnittstelle zur Entscheidungsunterstützung

Abbildung 2-13 Angaben der Probanden zum Prozess in Bezug zu ihrer Rolle

Abbildung 3-1 Relevante Themen bezogen auf Kapitel 3

Abbildung 3-2 Studie zu Hindernissen und Schwierigkeiten in der Softwareentwicklung von Forrester Consulting 2013

Abbildung 3-3 User Centred Design Process

Abbildung 3-4 Goal-Directed Design Process nach Alan Cooper

Abbildung 3-5 Wechselwirkung zwischen Nutzer, Aufgabe und Informationssystem

Abbildung 3-6 Wissensmanagementmodell nach Probst

Abbildung 3-7 Benutzermodellierungs-Prozess

Abbildung 3-8 Inhalte von Benutzermodellen

Abbildung 3-9 Persona Ontologie

Abbildung 4-1 Zusammenhänge zwischen verschiedenen Entwicklungsmethodiken

Abbildung 5-1 Relevante Themen in Kapitel 5

Abbildung 5-2 Vorgehen zur Identifizierung von Indikatoren

Abbildung 5-3 Brand in einer Recyclinganlage in Bochum [Quelle: www.notfallinfo.de]

Abbildung 5-4 Zusammenhänge von Fehlerursachen

Abbildung 5-5 Softwarequalität nach ISO 9126

Abbildung 5-6 Benutzbarkeit als Merkmal in der Analyse von Anforderungen

Abbildung 5-7 Situational Awareness Model von Endsley

Abbildung 5-8 Zeitverhalten als Merkmal in der Analyse von Anforderungen

Abbildung 5-9 Zusammenhänge zwischen den Indikatoren

Abbildung 6-1 Relevante Themen in Kapitel 6

Abbildung 6-2 „Safety Assessment Process“ und „System Development Process“ nach SAE ARP 4761 und SAE ARP 4754

Abbildung 6-3 Anpassung im Safety Assessment Process und System Development Process

Abbildung 6-4 Komponenten des Risikos

Abbildung 6-5 Methoden in der Analyse

Abbildung 6-6 Workshop-Ergebnisse aus dem Projekt SecInCoRe

Abbildung 6-7 Intervallspanne für Gruppenzugehörigkeit

Abbildung 6-8 Intervallspanne für Ortskenntnis

Abbildung 6-9 Hauptziele zur Nutzung von Software zur Erhöhung des Selbstschutzes

Abbildung 6-10 Weitere Zielanalyse zur Erhöhung

Abbildung 6-11 Auszug der Prozessanalyse im Projekt AirShield

Abbildung 6-12 Methoden im Design und in der Implementierung

Abbildung 6-13: Erster GUI-Demonstrator für die Komponente DSS

Abbildung 6-14: GUI-Prototyp

Abbildung 6-15: Erster Demonstrator des DSS

Abbildung 6-16: DSS-Client

Abbildung 6-17: Anzeige zusätzlicher Informationen zum Gefahrstoff

Abbildung 6-18 Erhöhung des Reifegrades während der Entwicklungszeit

Abbildung 6-19 Methoden in der Evaluation

Abbildung 6-20 Wechselwirkung zwischen SAP und SDP

Abbildung 6-21 Ergebnis der Evaluation des Projekts AirShield bezogen auf die Information

Abbildung 6-22 Aufbau einer Maßnahme

Abbildung 6-23 Abhängigkeiten zwischen dem Ereignis „falsche Informationen wurden bereitgestellt“ und deren Ursache und Wirkung

Abbildung 6-24 Auszug der Prozessanalyse in dem BMBF Projekt AirShield

Abbildung 6-25 Portfolio der Risiken

Abbildung 6-26 Methodenkatalog im ANYWHERE CIS

Abbildung 6-27 Methode Scenario-based Interview im ANYWHERE CIS

Abbildung 7-1 Zusammenhang zwischen Projekt und verwendeter Methode

Abbildung 10-1 Einzelne Faktoren im Entscheidungsfindungsprozess

Abbildung 10-2 Drei Dimensionen der Heterogenität von Konzepten einer Ontologie

Abbildung 10-3 Elemente der SecInCoRe Taxonomie

Abbildung 10-4 Semantische Suche

Abbildung 10-5 Visualisierung der GraphView

Tabellenverzeichnis

Tabelle 3-1 Techniken zur impliziten Informationserfassung über den Nutzer [Quelle: siehe [GSCM07]]

Tabelle 4-1 Für die Arbeit erfasste Guidelines

Tabelle 4-2 Guidelines in Kategorien zusammengefasst

Tabelle 5-1 Anfordern von entscheidungsunterstützenden Informationen

Tabelle 5-2 Planen einer Flugroute

Tabelle 5-3 Design Prinzipien nach Endsley [EnJo17]

Tabelle 6-1 Zielformulierung [Quelle: Verfasser]

Tabelle 6-2 Methoden Schablone [Quelle: Verfasser]

Tabelle 6-3 Methode Beobachtung [Quelle: Verfasser]

Tabelle 6-4 Methode Brainstorming / Mindmapping [Quelle: Verfasser]

Tabelle 6-5 Methode Clustering [Quelle: Verfasser]

Tabelle 6-6 Methode Personas [Quelle: Verfasser]

Tabelle 6-7 Methode Zielanalyse [Quelle: Verfasser]

Tabelle 6-8 Methode Prozessanalyse [Quelle: Verfasser]

Tabelle 6-9 Methode Prototyping [Quelle: Verfasser]

Tabelle 6-10 Methode Interview [Quelle: Verfasser]

Tabelle 6-11 Generische, potentielle Risiken bezogen auf relevante Informationen für die Entwicklung von SKIS [Quelle: Verfasser]

Tabelle 6-12 Schwere von Unfallklassen in militärischen Systemen [siehe auch [Stor96]]

Tabelle 10-1 Methode Regelbasiertes Benutzermodell [Quelle: Verfasser]

Tabelle 10-2 Meethode Ontologie [Quelle: Verfasser]

Tabelle 10-3 Methode Wissenskarten [Quelle: Verfasser]

Tabelle 10-4 Auswertung Anforderungsanalysen

Tabelle 10-5 Design-Prinzipien nach Endsley [EnJo17]

1 Einleitung

Viele Arbeitswelten werden in der heutigen Zeit zunehmend komplexer und weitreichend technisiert und somit wird auch die Möglichkeit zur IT-Unterstützung gegeben. Dieser gesellschaftliche Wandel erfordert dadurch auch ein Umdenken in der Entwicklung einer solchen Unterstützung.

1.1 Motivation und Problemstellung

Einsatzkräfte der Feuerwehr haben in allen Phasen des Crisis Management Cycles (siehe [DrMS15]) Mitigation, Preparedness, Response und Recovery Bedarf an IT-Unterstützung (siehe auch [PoSc18]).

Darüber hinaus können Aufgaben durch eine schnelle rezipierbare Unterstützung effizienter und sicherer erfüllt werden, z.B. durch Verwendung eines angemessenen Informationssystems. Ein solches Informationssystem kann damit Grundlage für die Entscheidungsfindung in komplexen Situationen sein. Nach Dörner (siehe [DKRS94]) sind Merkmale eines komplexen Systems die Anzahl der Variablen, die Vernetzung der Variablen, Intransparenz und eine Eigendynamik der Situation. Diese Eigenschaften treffen auf die Arbeitswelt der Feuerwehr zu. Daraus resultiert aber auch, dass ein Informationssystem für Einsatzkräfte der Feuerwehr durch die getroffenen Entscheidungen der Einsatzkräfte indirekt Einfluss auf die Umgebung und den Menschen in der entsprechenden Umgebung nimmt.

Die vorliegende Arbeit beschäftigt sich im Folgenden mit der Entwicklung und der Auswirkung auf die Entwicklung von sicherheits-kritischen Informationssystemen, also Systeme, die durch die Bereitstellung von Informationen Einfluss auf Entscheidungen von Menschen in sicherheits-kritischen Kontexten haben. Dazu wird in der Arbeit zwischen sicherheits-kritischen Systemen (SKS), sicherheits-kritischen Mensch-Maschine-Systemen (SKMMS) und sicherheitskritischen Informationssystemen (SKIS) unterschieden. „Unter einem Mensch-Maschine-System wird die zweckmäßige Abstraktion des zielgerichteten Zusammenwirkens von Personen mit technischen Systemen zur Erfüllung eines fremd- oder selbstgestellten Auftrags verstanden. Die allgemeine Struktur eines Mensch-Maschine-System ist die eines rückgekoppelten Systems, in dem ein Mensch oder ein Team entsprechend seiner organisatorischen Verankerung, seiner Zielstellung, des Auftrags und der wahrgenommenen Rückmeldung über Umgebung und Prozesszustand Entscheidungen fällt und das technische System steuert.“ [GiTi02] Des Weiteren definiert Johannsen (siehe [Joha93]) mindestens zwei notwendige Komponenten eines Mensch-Maschine-Systems:

• Den handelnden Menschen

• Die benutzbare Maschine

Ein sicherheits-kritisches Mensch-Maschine-System verursacht im Falle eines Schadensereignisses neben den hohen ökonomischen Auswirkungen für den Betreiber zusätzlich eine erhebliche Gefährdung von Mensch und auch Umwelt [Acat16].

Die nachfolgende Abbildung zeigt Zusammenhänge und Beispiele zu den in der vorliegenden Arbeit genannten Systemarten.

Quelle: Verfasser

Abbildung 1-1 Zusammenhänge zwischen Sicherheits-kritischen Systemen, Sicherheits-kritischen Mensch-Maschine-Systemen und Sicherheits-kritischen Informationssystemen

Bei der Entwicklung von SKS wird der Analyse und Berücksichtigung von Störfällen besondere Aufmerksamkeit geschenkt, da SKS auf die physische Umgebung direkt einwirken und daraus resultierend Schaden für das Umfeld und den Menschen hervorrufen können. Ein solcher Störfall wird in dem Kontext von SKS “Hazard” genannt. “A hazard is a state or set of conditions of a system (or an object) that, together with other conditions in the environment of the system (or object), will lead inevitably to an accident (loss event)” ([Leve01], S.177). Dazu werden in der Softwareentwicklung vier Phasen einbezogen: ”Hazard elimination“, ”Hazard reduction“, ”Hazard control“ und ”Damage minimization“ [BUOT11].

Im Gegensatz dazu stehen bei der Entwicklung von SKMMS die Usability und das Design der Benutzungsschnittstelle im Vordergrund.

Insbesondere im genannten Kontext der zivilen Gefahrenabwehr sind Aufgaben und Arbeitsabläufe komplex und es besteht die Anforderung des komplexen Problemlösens. Die Definition von Frensch und Funke (vgl. [FrFu95]) für komplexes Problemlösen zeigt verschiedene Dimensionen auf, die eine Unterscheidung des Problemlösers und damit eine individuelle Wahrnehmung von Komplexität induziert, wie „cognitive, emotional, personal, and social abilities and knowledge“. Dabei kann festgestellt werden, dass Komplexität ein subjektives Empfinden einer Person ist, denn „eine hohe Komplexität stellt hohe Anforderungen an die Fähigkeit des Akteurs, Informationen zu sammeln, zu integrieren und Handlungen zu planen“ [Dörn11].

Um das Zusammenspiel zwischen Systemen und Menschen zu verdeutlichen, mit besonderer Berücksichtigung von Auswirkungen im Fehlerfall, wurde hier ein Use Case basierter Ansatz verfolgt, um entsprechende Anwendungsfälle zu identifizieren und potentielle Fehler und Fehlerursachen aufzuzeigen (vgl.[DePB03]). Die gesammelten Use Cases und potentielle Nutzungsprobleme wurden analysiert. Ein Auszug aus dem Resultat der Analyse von Use Cases eines entscheidungsunterstützenden Informationssystems wird in der anschließenden Abbildung dargestellt. Die Pfeile in der Abbildung sollen den Verlauf der Analyse verdeutlichen.

Quelle: Verfasser

Abbildung 1-2 Auswertung der Use Cases eines entscheidungsunterstützenden Informationssystems

Einfache Use Cases wie „Informationen suchen“ können schon eine Vielzahl an Nutzungs-problemen hervorrufen, die damit Auswirkung auf Gesundheit und Leben von Menschen nehmen, wie in der Abbildung 1-2 verdeutlicht.

Für die vorliegende Arbeit stellt sich damit die Frage, wie risikobasierte Ansätze aus der Entwicklung von SKS, die potentielle Störfälle in den Mittelpunkt stellen, und Lösungswege aus dem Usability Engineering, die den Mensch fokussieren, angemessen zu kombinieren sind.

Die Zusammenhänge sind in der nachfolgenden Abbildung näher aufgeführt. Methoden, z.B. aus dem Usability Engineering, sind im inneren Kreis visualisiert und sind Basiselemente, die bereits aus verschiedenen Forschungsergebnissen vorliegen. Diese sollen entsprechend variiert und in den Entwicklungsprozess von SKIS eingebettet werden (mittlerer Kreis). Umfasst werden die Entwicklungsschritte von Elementen der Risikoanalyse (äußerer Kreis), die weitere relevante Grundlagen liefern, zurzeit aber nicht in die Entwicklungsparadigmen eingebettet sind. Ziel muss es daher sein, die vorhandenen Entwicklungsmuster folgerichtig zusammenzuführen und eine wechselseitige Vernetzung zu erzeugen.

Quelle: Verfasser

Abbildung 1-3 Zusammenhang der Entwicklungsmuster der betrachteten Systemklassen

1.2 Zielsetzung und Vorgehen

“Because software is like all capital, is embodied knowledge, and because that knowledge is initially dispersed, tacit, latent, and incomplete in large measure, software development is a social learning process. The process is a dialog in which the knowledge that must become the software is brought together and embodied in the software. The processprovides interaction between users and designers, between users and evolving tools, and between designers and evolving tools [technology].” ([Baet98], S. 20)

Baetjer versteht Software als verkörpertes Wissen, entstanden aus der Interaktion zwischen Nutzer, Designer und involvierten Werkzeugen. In der vorliegenden Arbeit wird zusätzlich das Risiko, das in der Interaktion entstehen kann oder der Nutzung der Software als weitere Größe in Betracht gezogen.

Ziel der Arbeit ist es somit, den Kontext und die Anforderungen der Arbeitswelt „zivile Gefahrenabwehr“ mit den Methoden und Entwicklungsansätzen von SKMMS und SKS in Beziehung zu setzen und ein optimiertes Verfahren für die Entwicklung der Systemklasse SKIS abzuleiten. Darüber hinaus sollen geeignete Maßnahmen zum Safety Assessment in den Entwicklungsphasen eines Informationssystems zum Lösen komplexer Probleme in der zivilen Gefahrenabwehr erarbeitet werden. Dabei stellt ein Safety Assessment eine Risikoüberprüfung und Beurteilung von Entwicklungsständen dar, in Bezug auf den zu erwartenden Anwendungskontext. Dazu soll im Folgenden ein Beispiel aus der Luftfahrt gegeben werden, sodass Risiken und Ursachen von Störfällen mit SKMMS aufgezeigt werden.

Fallbeispiel SKMMS (siehe [Bund02]) - Durch einen Zusammenstoß zweier Flugzeuge in 11.000 m Höhe ist im Jahr 2002 ein folgenschwerer Absturz verursacht worden – Der Absturz ist sowohl auf menschliches wie auch technisches Versagen zurückzuführen. Das Annäherungswarnsystem veranlasste eine rechtzeitige optische und akustische Warnung. Jedoch wurden widersprüchliche Angaben vom zuständigen Fluglotsen getätigt. Zudem lag ein erhöhter Stresspegel und Überlastung auf Seiten der Piloten und der Lotsen vor, sodass es zu dem entstandenen Fehler kam. Darüber hinaus bestand bei den Beteiligten ein geringes Vertrauen in das System, da aufgrund von Fehlalarmen die Bedeutung der Warnung unterschätzt und letztlich auf die Angaben des Fluglotsen vertraut wurde.

Die Luftfahrt bietet prägnante Beispiele für SKMMS. Gordon Dupont [Dupo17] stellt nach umfassender Analyse von Unfällen in der Luftfahrt mit seinen „Dirty Dozen“ Ursachen für diese Fehler auf, findet jedoch maßgeblich menschliche Ursachen:

• Lack of communication (mangelnde Kommunikation)

• Complacency (Selbstgefälligkeit)

• Lack of Knowledge (Fehlendes Wissen)

• Distraction (Ablenkung)

• Lack of Teamwork (Fehlende Zusammenarbeit)

• Fatigue (Müdigkeit)

• Lack of Resources (Fehlende Ressourcen)

• Pressure (psychischer und zeitlicher Druck)

• Lack of Assertiveness (Fehlendes Durchsetzungsvermögen)

• Stress (Stress)

• Lack of Awareness (Fehlende Übersicht)

• Norm (Standardisierung, ungeschriebene Regeln)

Die aufgeführte Liste stellt auch potentielle Risiken dar, die in der Entwicklung von neuen Systemen Berücksichtigung finden sollten, damit während der Nutzung die Fehlerrate reduziert werden kann.

Darüber hinaus zeigt das vorangegangene Beispiel deutlich die Probleme in der Automatisierung von Arbeitsabläufen und dem Zusammenspiel von Mensch und Technik. Vielfach müssen Menschen nur noch überwachende Tätigkeiten ausführen, sollen dann aber in Störungssituationen eingreifen und spontan folgerichtig handeln. Der Mensch muss so in schwierigen Fällen die Aufgaben erledigen, die sonst eine Maschine oder System übernimmt. Das Wissen über den Umgang mit dem System ist dann jedoch reduziert, da eine geringere Häufigkeit der Nutzung festzustellen ist [BaHL12]. Dieses Phänomen ist ebenfalls in der Luftfahrt vorzufinden, z.B. seit der Einführung des Autopiloten. Auch Herczeg (siehe [Herc14]) führt aus, dass ein durchdachtes Zusammenspiel zwischen menschlicher Kontrolle und technischer Automatisierung zu beachten ist.

Die zivile Gefahrenabwehr ist dazu differenziert zu betrachten. Eine vollständige Automatisierung ist auszuschließen, aber die Unterstützung durch Technologien und demnach auch durch Informationssysteme steigt stetig. Auf diese Weise rückt die Bedeutung von SKIS in den Mittelpunkt der Arbeit als eine Systemklasse, die nicht direkt in das Umfeld des Menschen eingreift, aber durch die Informationsbereitstellung weitreichend Einfluss nehmen kann.

Die Arbeit setzt folgerichtig drei Phasen für die Zielerreichung voraus: Es werden Entwicklungsmethodiken zur Entwicklung von SKIS analysiert und dabei auch Verfahren zur Entwicklung von SKS betrachtet, ein Methodenportfolio erstellt und daraus Vorgehensempfehlungen abgeleitet, um ein nachhaltiges Safety Assessment zu etablieren, siehe Abbildung 1-4.

Quelle: Verfasser

Abbildung 1-4 Relevante Themen in der Arbeit

Zur systematischen Identifikation von Potentialen und Bedarfen werden Schritt 1 und Schritt 2 aus Abbildung 1-4 weiter untergliedert:

Zu Schritt 1: Systementwicklung

1. Entwicklungsmethodik für SKS

2. Entwicklungsmethodik für Mensch-Maschine-Systeme

Zu Schritt 2: Methodenbaukasten

1. Wissen des Designers und Entwicklers über den Nutzer erhöhen:

• Methoden und Kreativtechnik zur Analyse (vgl. z.B. [PoRu15])

• Methoden des Usability Engineering’s (vgl. z.B. [Niel93])

2. Wissen der Einsatzkräfte selbst durch und über das System erhöhen:

• Methoden des Wissensmanagements (vgl. z.B. [Lehn14])

• Methoden des Lernens

3. Den Nutzer als Individuum in der Entwicklung anerkennen und das „Wissen des Systems“ über den Nutzer erhöhen:

• Methoden der Individualisierung und Benutzermodellierung (vgl. z.B. [Kobs04])

Alle aufgeführten Klassen von Methoden ermöglichen eine zielgerichtete Gestaltung von SKIS und bedürfen einer Prüfung und Adaption auf den beschriebenen Kontext. Zudem können darüber Eingangsgrößen für einen Safety Assessment Process gewährleistet werden. Insgesamt soll eine risikobewusste Entwicklung von SKIS ermöglicht werden.

Zur Erreichung des Ziels wird für die Arbeit folgendes Vorgehen festgelegt:

• Zunächst sollen bestehende Problem- und Bedarfsanalysen durchgeführt werden, um den Rahmen der Arbeit zu fixieren. In Kapitel 2 werden vom Verfasser Praxisbeispiele aufgeführt, die verschiedene Problemstellungen im Umgang mit SKIS darstellen. Zusätzlich werden in Kapitel 3 relevante Grundlagen zur Softwareentwicklungsparadigmen wie auch Methoden des Usability Engineerings, Benutzermodellierung und Wissensmanagements erarbeitet, sodass insgesamt ein Handlungsbedarf bestimmt werden kann (Kapitel 4).

• Auf Basis der Ergebnisse aus Kapitel 2, 3 und 4 sollen dann Indikatoren und Einflussgrößen in der zivilen Gefahrenabwehr erhoben werden, die grundsätzliche Risikopotentiale beinhalten (Kapitel 5).

• Damit kann dann anschließend ein valides Konzept zur Integration eines Safety Assessment in die Entwicklung von SKIS aufgebaut (siehe Kapitel 6) und evaluiert werden (siehe Kapitel 7). Die genannten Methoden wurden vom Verfasser im Zusammenhang zur zivilen Gefahrenabwehr durchgeführt, der überwiegende Teil bezieht sich also auf die Entwicklung von SKIS für die zivile Gefahrenabwehr. Zusätzlich wurden aber auch Methoden aufgeführt, die für die Analyse von Systemen oder zur Erhebung von Anforderungen genutzt wurden, die als Endanwender nicht Einsatzkräfte der zivilen Gefahrenabwehr haben, sich aber im Kontext auch auf Vorgänge in der zivilen Gefahrenabwehr beziehen, z.B. Systeme, die den Selbstschutz von Bürgern erhöhen sollen.

Das Vorgehen in der vorliegenden Arbeit wird in Abbildung 1-5 gezeigt.

Quelle: Verfasser

Abbildung 1-5 Vorgehen in der Arbeit

2 Handlungsbedarf – Nutzungsperspektive

Ein Handlungsbedarf ergibt sich zum einen aus identifizierten Lücken im aktuellen Stand der Technik und zum anderen aus beobachtbaren Problemen in der entsprechenden Domäne.

An dieser Stelle setzt Kapitel 2 an und diskutiert beobachtete bzw. identifizierte Probleme aus der Domäne „zivile Gefahrenabwehr“ bzw. aus der Nutzung von SKIS, sodass ein erster Handlungsbedarf abgeleitet werden kann. Dazu legt Kapitel 2.1 erste Grundsteine zur Definition von Problemen und Komplexität in der besagten Domäne. Darüber hinaus werden die Rolle von Erfahrung und Wissen zum Problemlösen beschrieben und schließlich individuelle Faktoren in der Systemgestaltung identifiziert.

Zur Einordnung des Handlungsbedarfs werden im Verlauf des Kapitels Annahmen (Annahme 1 bis Annahme 6) in Bezug zur Entwicklung und Nutzung von SKIS aufgestellt. Die Annahmen werden in Kapitel 4 wieder aufgegriffen, um den Handlungsbedarf mit dem Hintergrund des Stands der Technik zu vervollständigen. Diese Annahmen basieren auf den identifizierten Bedarfen, die im Folgenden vorgestellt werden.

Der Handlungsbedarf wird hier in zwei Aspekten aufgezeigt:

• Zunächst soll ein grundsätzlicher Bedarf der IT-Unterstützung und Potentiale für SKIS auch in komplexen Situationen aufgezeigt werden (siehe Kapitel 2.1)

• Neben dem grundsätzlichen Potential an IT-Unterstützung stehen bereits identifizierte Probleme in der Nutzung. Hier sollen in den folgenden Kapiteln 2.2 und 2.3 Beispiele aufgeführt werden, die zum einen den Differenzierungsbedarf zwischen einzelnen Nutzern, insbesondere mit Berücksichtigung von unterschiedlichen Wissens- und Erfahrungsständen, in den Mittelpunkt stellen (siehe Kapitel 2.2 und 2.3)

2.1 Bedarf an IT-Unterstützung im Problemlösungsprozess zur Erhöhung des Wissens von Akteuren in der zivilen Gefahrenabwehr

Probleme lassen sich im Allgemeinen mit dem „Kopf“ oder dem „Bauch“ lösen und insbesondere mit wachsender Erfahrung kann der „Bauch“ zur Entscheidungsfindung und so zur Problemlösung beitragen [Bund12].

Nicht immer ermöglicht der Handlungsrahmen (z. B. eines Feuerwehreinsatzes) die nötige Zeit für lang andauernde Analysen. Speziell Akteure, die SKIS in komplexen Kontexten verwenden, müssen schnell und effektiv auf Unerwartetes reagieren und dabei in einer risikobehafteten Umgebung nahezu fehlerfrei agieren, da ein Fehlverhalten der Akteure schwerwiegende Auswirkungen haben kann. [Mist05] Daraus kann folgende Annahme abgeleitet werden:

Annahme 1:. Fehler im Umgang mit zeit- und sicherheits-kritischen Informationssystemen verursachen gravierende Folgen für den Menschen und das Umfeld.

Im Folgenden werden Eigenschaften und Definitionen von Komplexität sowie Problemen dargestellt, um ein grundlegendes Verständnis für die vorliegende Arbeit zu bilden und den Bedarf an IT-Unterstützung bzw. der Nutzung von SKIS im Problemlösungsprozess aufzuzeigen.

Wohland und Wiemeyer (siehe [WoWi07]) beschreiben die Differenz zwischen kompliziert und komplex wie folgt: “Mit Wissen kann man komplizierte Aufgaben lösen, aber nur mit Können kann man komplexe Aufgaben lösen.” Detaillierter wird die Unterscheidung, wenn man sie auf die Möglichkeit der Beschreibbarkeit des Problems zurückführt. Während komplizierte Sachverhalte deterministisch beschreibbar sind, können komplexe Systeme selbst dann nicht beschrieben werden, wenn Informationen über Subsysteme und deren Abhängigkeiten vollständig vorliegen. Für das Lösen von komplexen Problemen in der zivilen Gefahrenabwehr kann damit die anschließende Annahme getroffen werden:

Annahme 2: