MTS HS17

MTS bei Frank Ritz

MTS bei Frank Ritz


Set of flashcards Details

Flashcards 164
Students 24
Language Deutsch
Category Psychology
Level University
Created / Updated 12.01.2018 / 28.01.2023
Weblink
https://card2brain.ch/box/20180112_mts_hs17
Embed
<iframe src="https://card2brain.ch/box/20180112_mts_hs17/embed" width="780" height="150" scrolling="no" frameborder="0"></iframe>

Individualisierbarkeit

Jeder soll nach seiner Façon selig werden“

Der Benutzer kann die Software an seine individuellen Fähigkeiten und Vorlieben anpassen.

Leitlinien
– Anpassung an individuelle Aufgaben
– Anpassung an individuelle Arbeitsumstände
– Anpassung an Fähigkeiten und Vorlieben

Lernförderlichkeit

„Lernen erlaubt“

Der Benutzer wird durch die Software beim Lernen unterstützt.

Leitlinien
– Einprägsames Interaktionswissen
– Informations- und Hilfesysteme
– Anregung zur Wissenserweiterung

Beispiel Icon-Leisten im Internet Explorer
Verständlichkeit von Icons → Icon + Text / Icon + dynamischer Text

Zusammenfassung Gebrauchstauglichkeit

• ist eine kundenorientierte Nutzungsqualität, keine Produktqualität → Gestaltung der Interaktionsbeziehung

• kann ohne Berücksichtigung des Nutzungskontext weder erreicht noch überprüft werden → vergeuden Sie keine Zeit mit einfachen Regeln der Art: „Schriftgröße mindestens 12pt.“ / „OK-Schaltfläche muss immer links sein.“ / „Verweise in einer WebSite sind immer blau unterstrichen.“

• ist das Ziel eines benutzerzentrierten Gestaltungsprozess → systematisches Vorgehen und Methoden z.B. nach ISO 13407

Wann muss an Usability gearbeitet werden?

Entwurf: Zu Beginn viele Design-Alternativen möglich.

Entwicklung: In Mitte (Kreuzung) spätester Zeitpunkt für Eingriff (wirtschaftlich)

Einführung: Kosten werden für Änderungen mit der Zeit immer teurer. Gutes Argument, weshalb Psychologen möglichst früh bei dem Design mitwirken sollten

Usability Engineering Lifecycle (nach Mayhew, 1999)

Usability-Engineering als Zyklus

Optimale Gestaltung:
Iterativ → fehlertolerant

Empirisch → risikominimierend

Sozial → konfliktminimierend

Drei Iterations-Zyklen (Usability)

Man könnte es unendlich weiterführen. wird aber oft aus wirtschaftlichen Gründen nicht gemacht. Die 3 Schritte sind jedoch unabdingbar.

3 Sichten wichtig:
Designer → haben Vorstellung welche Prozesse ablaufen und welche Ziele erreicht werden sollen
Ingenieure → wissen, wie es zu bauen ist
Nutzer → haben vertieftes Wissen über Aufgaben und Ziele

<- zwischen diesen 3 gibt es zahlreiche Interferenzen und verschiedene Interessen = mögliche Fehlerquellen
WICHTIG: immer orientieren an Person die dann System schlussendlich braucht

Wie wird Usability erreicht?

Methoden im Lebenszyklus

1. Vor-Planung
– Ideen entwickeln
→ Bedarfsanalysen / Fokusgruppen

2. Konzeption & Gestaltung
– Nutzung verstehen, Spezifikation
→ Aufgabenanalyse / Anforderungsanalyse / Modelle

3. Entwicklung & Erprobung
– Prototypen
→  Expertenevaluation / Benutzungs-Tests

4. Einführung & Betrieb
→ Training, Monitoring, Fehleranalysen

Verfahrensklassen & Ziel der Verfahren

Formative Verfahren: Vorschläge generieren

Summative Verfahren: Systeme beurteilen

Befragung und Beobachtung (inquiry) - Usability Methoden

Kontextstudie/Feldstudien
– Untersuchung der Anwendungsumgebung eines neu zu entwickelnden Produkts mittels strukturierter Befragung und Interviewtechnik.

– Untersuchung der Nutzung eines Produktes in seinem natürlichen Feld (nicht im Labor). Befragungen und Beobachtungen von Anwendung und Artefakten.

Interviews/Fokusgruppen
– Strukturierte und/oder informelle Befragungen über Erfahrungen und Präferenzen in Bezug auf das zu untersuchende Produkt.

Fragebögen
– Eignen sich besonders zur Befragung grosser Nutzerpopulationen

Erfahrungsberichte und Aktivitäts-Logs

Prüfung/Bewertung (inspection) – Usability Methoden

Heuristic evaluation
– Bewertung durch Usability-Experten ohne ausgeprägte formale Anforderungen
– Einfaches und schnelles Verfahren → oft nicht mehr als eine PP-Präsentation; Vorschläge präsentieren

Cognitive walkthrough
– Aufgabenszenarien
– Umgang mit dem Produkt wird durchgespielt
– bereits mit Prototypen oder Spezifikation möglich

Feature inspection
– Detailprüfung der Erfüllung bestimmter geforderter Merkmale → z.B. Einhaltung von Standards- oder Design-Guidelines

– Checklisten oder Computergestützte Verfahren

Test/Testverfahren (testing) – Usability Methoden

Aufgaben aus dem Nutzungskontext ableiten

An Produkt oder Prototyp bearbeiten lassen

Datenerhebung
– Lautes Denken
– Leistungsmessung
– Critical incident technique
– Fehleranalyse
– Blickregistrierung
– …

Usability Quick & Dirty

• Kontext – Analyse → mittels Kontext-Checkliste = gute Liste als Voraussetzung

• Prototypen – Inspection → Papierprototyp / Powerpoint

• Usability – Testing → wenige aber repräsentative Aufgaben / Beobachtung, Lautes Denken, Befragung

Begriffsbestimmung im Kontext Mensch-Technik-Interaktion

-> Problem der Monotonie

Übertragung von Funktionen vom Menschen auf die Maschine → Problem der Monotonie: wie monoton darf eine Arbeit sein? Warum wird wie viel Arbeit vom Menschen auf die Maschine übertragen?

„We define automation as the execution by a machine agent (usually a computer) of a function that was previously carried out by a human.“ (Parasuraman & Riley, 1997, p. 231).

„Automation is any sensing, detection, information-processing, decision-making, or control action that could be performed by humans but is actually performed by machine.“ (Moray, Inagaki & Itoh, 2000).

Beispiel 
Wie können wir hoch sensible Maschinen so verwenden, dass es nützlich ist? Je nach dem ist Mensch trotzt dem "Hype" um Maschinen besser geeignet!

Bewertungsebenen für Automatisierung

Makroebene – Gesellschaft
– Sozialverträglichkeit
– Akzeptanz

→ welche Formen von Automatisierung sind akzeptabel? z. B. Operationsroboter

Mesoebene – Organisation
– Wirtschaftlichkeit
– Sicherheit
– soziotechnische Systemgestaltung

→ fortschreitende Frage (hört nie auf): inwiefern sollen Dinge automatisiert werden?

Mikroebene – Mensch-Maschine-System
– Arbeitsqualität (Beeinträchtigungsfreiheit, Persönlichkeitsförderlichkeit)
– Human Factors
– Leistung
– Verlässlichkeit

→ inwieweit können Personen beeinträchtigungsfrei mit Maschine/Automatisierung arbeiten und sogar lernen, sich entwickeln dabei?

Ausmass von Automatisierung / Automatisierungsgrad

„…Quotient aus den automatischen Funktionen und der Summe aller Funktionen in einem Mensch-Maschine-System.“

→ erfordert die Bestimmung der Gesamtmenge an Funktionen

 

Automatisierung und Schritte der Informationsverarbeitung

Anzeigengestaltung: Wie bilden Anzeigen Informationen ab und erlauben eine möglichst gute Analyse?

Intelligente Funktionen Assistenzsysteme: Damit werden Menschen unterstützt → Unterstützungssysteme; dem Mensch werden Entscheidungen abgenommen

Mechanisierung manueller Operationen: Hier werden Menschen komplett ersetzt

Automatisierungsstufen

Manuell / Unterstützt / Automatisiert

Gegenüberstellung von
– kognitiven Prozessen bei der Aufgabenbewältigung durch den Operateur
– automatischen Schritten der Datenverarbeitung

Automatisierungsstufen (nach Sheridan, 2000)

Alles zwischen 1 und 8 sind verschiedene Mischformen zwischen Menschen machen alles oder Maschine macht alles

Automatisierungsstufen (nach Endsley, 1997)

Wahrnehmung/ Verarbeitung / Auswahl / Implementierung

Schätzung: 2020 werden im produzierenden Gewerbe weltweit 70% der Arbeitsschritte vollautomatisiert verlaufen (falls östliche Arbeit so billig bleibt)

Kriterien der Funktionsteilung
= Kosten / Leistung / Leistungsvoraussetzungen / Verlässlichkeit

Funktionsverteilung Mensch-Maschine:
Welche Funktionen sollen dem Menschen bzw. der Maschine übertragen werden?

→ Ohne Standardisierung keine Automatisierung! Deshalb kann nur umgesetzt werden, was durch Analyse der Tätigkeit berechnet werden kann

Übergeordnete Kriterien aus der Arbeitspsychologie
– Erhalt vollständiger Arbeitstätigkeiten (Ulich, 2001)
– Erhalt von Gestaltungs- und Handlungsspielräumen (Grote, 1999)
– Aufbau und Erhalt von Erfahrungswissen und Expertise

Gestaltungskriterien für konkrete Mensch-Maschine Funktionsteilung
– Wirtschaftlichkeit → muss andere Kriterien (Arbeitspsychologie) nicht ausschliessen, aber dominiert!!

– Maximale Automation → Kontrolle, Störungen und Schwankungen minimieren, Löhne senken: jedoch Trugschluss, weil Zukunft nicht vollständig prognostizierbar; wenn sich Grenzen des Systems verändern: es kommt zu Fehlern, Unfällen etc. Mit Veränderungen in Wirtschaft geht man mit Ängsten um und will starres System: jedoch wäre es besser flexibel zu sein!

– Leistungsvergleich

Beispiel einer MABA-MABA-Liste (nach Fitts, 1951)

Mensch ist besser
• Signalerkennung bei geringer Energiedichte → auch Reaktion auf unbekannte Signale, die bisher noch nicht aufgetreten sind! Vorteile von Menschen

• Mustererkennung
• Improvisation, Flexibilität
• Langzeitliche Informationsspeicherung und Zugriff

• Induktives Schliessen (vom Besonderen zum Allgemeinen) → können Maschinen (fast) nicht

• Beurteilung → Maschinen können nicht beurteilen; ihnen fehlen sämtliche Kategorien, sie können nur für Beurteilungen benützt werden

Maschine ist besser
• Rasche Antwort auf Signale
• Aufbringen grosser Kräfte
• Kurzzeitige Informationsspeicherung
• Deduktives Schliessen (vom Allgemeinen zum Besonderen) → aus bekannten Fakten Dinge ableiten z. B. eine Rechnung ausführen

• Ausführen vieler Operationen zugleich

Stärken von Mensch & Maschine

Mensch
– hochausgebildete Sensorik → nicht einzelne Modalitäten, sondern Aspekt der Verbindung der Modalitäten; wir können sehr schnell aus Vielzahl von Reizen interpretieren! z.B. funktionale Bindung etc.
– Improvisationsfähigkeit
– Bewältigung von „ungenau bestimmten“ Aufgaben

Maschine
– Hohe Geschwindigkeit
– exakte Wiederholung ohne Ermüdung
– Bewältigung von komplexen, aber „gut spezifizierten“ Aufgaben

Probleme der technikzentrierten Automation

• Psychologische Qualität der beim Menschen verbleibenden (Rest-)Tätigkeiten bleibt unberücksichtigt

• Annahme der Ausschaltung menschlicher Fehler illusionär → Verlagerung der Problematik von Bedienung auf Entwicklung ß Menschen entwickeln ja die Maschinen; darum gibt es auch dort Fehler! Denn Mensch ist nicht fehlerfrei

• Alternative „entweder Maschine ODER Mensch“ ist zu einfach

Menschzentrierte Automatisierungskonzepte

• Mensch und Maschine bilden ein kooperatives System, dessen Gesamtleistung optimiert werden muss

• Funktionsallokation soll so erfolgen, dass Mensch und Maschine sich bei der Aufgabenerfüllung optimal ergänzen. Mensch und Maschine werden als komplementär und NICHT als konkurrierend oder gegenseitig austauschbar angesehen

Ziele
– Optimierung der Verlässlichkeit des Mensch-Maschine-Systems
– Automatisierte Systeme als „Teampartner“ → sind verlässlich; heisst jedoch nicht zuverlässig! Sondern Anpassungsfähigkeit ist durch den Mensch gegeben! Maschine als "Teampartner"

Probleme und Ironien der Automatisierung

Probleme durch Automatisierung in MMS
• Out-of-the-loop unfamiliarity
• Ironien der Automatisierung
• Fehler durch Automatisierung - Mode Errors
• Inadäquates Vertrauen
• Kompetenzverlust

Überwachende Kontrolle (supervisory control)

= Primäre Aufgaben von Menschen in automatisierten Systemen

– Überwachung der Systemfunktionen (monitoring)
– Entdeckung von Abweichungen
– Diagnose von Fehlerursachen
– Eingriff im Fall unvorhergesehener Ereignisse oder Fehler der Automatik

 

 

Out-of-the-loop Unfamiliarity

Ironien der Automatisierung

• Entwickler automatisieren, was leicht zu beschreiben ist

• Die schwierigen Aufgaben bleiben dem Operateur überlassen → in solchen Situationen haben wir hohes Arrousal, hiesst jedoch noch nicht, dass wir dann richtig handeln! Kognitive Erschwernis: wird schwieriger für uns wenn wir nur noch schwierige Aufgaben haben und auch keine Routine mehr bei einfachen Aufgaben!

• In Situationen hoher Arbeitslast hilft die Automatik nicht

• das „automatische Kontrollsystem“ ist eingeführt worden, weil es die Aufgaben besser erfüllen kann als der Operateur, und doch wird vom Operateur verlangt, dass er das richtige Funktionieren des Systems überwacht

 

Zentrale Aussagen

• „Unzuverlässiger“ Mensch greift dann ein, wenn die „zuverlässige“ Technik versagt!

• „Unzuverlässiger“ Mensch plant und entwirft als Designer das automatisierte Arbeitssystem

• Fertigkeiten, Erfahrungen, Kenntnisse zur Steuerung gehen verloren (Kompetenzverlust). Diese Fertigkeiten werden aber gerade dann benötigt, wenn die Automatik ausfällt

• Unvereinbarkeit der Variabilität der Arbeitssituationen mit der Unflexibilität und Unvollständigkeit von Prozeduren

• Arbeitsprozesse werden durch Prozeduren formalisiert, um Risiken zu reduzieren

• Problematisches Vorgehen in hoch-variablen Umgebungen, in denen Initiative des Operateurs als nicht akzeptable Abweichung von der formalen Aufgabe und Prozedur aufgefasst wird. Die Bedeutsamkeit und Übereinstimmung von formaler Aufgabe und Prozedur in Bezug auf verschiedene Situationen muss hier gewährleistet sein

Mode Errors

= wenn technisches System Arbeitsmodus wechselt, ohne dass das der Mensch mitbekommt; z.B. Autopilot im Flugzeug stellt ab, ohne dass es Pilot merkt

• Operateure erkennen den Betriebsmodus der Automatik nicht und bewerten daher den Systemzustand falsch.

• Tritt insbesondere dann auf, wenn Modi durch die Automatik umgeschaltet werden.

Inadäquates Vertrauen

Zu hohes Vertrauen

– Complacency
– Hinweise und Vorschläge der Automatik werden ohne Prüfung akzeptiert → denn oft machen wir die Erfahrung, dass Automatik korrekt ist. Problem = ist nicht immer so!

Zu geringes Vertrauen

– Distrust
– Die Automatik wird nach Fehlern abgeschaltet.
– Das Potential, die Arbeitslast zu reduzieren bleibt ungenutzt

→ z.B. Warntöne werden einfach ausgeschaltet, weil sie meistens unbedeutend sind. Bspw. Messmaschinen im Spital: was ist aber, wenn Meldung wichtig gewesen wäre!?

Fertigkeitsverlust

Bei kognitiven Fertigkeiten stärker ausgeprägt als bei hoch überlernten psychomotorischen Fertigkeiten,

Reduzierbar durch regelmässiges Training ohne Automationsunterstützung
– Simulatortraining
– „on-the-job“ (z.B. flexible Funktionsallokation)

• Bedeutung von psychomotorischer Grundbegabung nimmt um so mehr zu, desto stärker Prozesse manueller Steuerung automatisiert werden
– Konsequenz für Personalauswahl (z.B. in der Luftfahrt)

Definition Fehler

Fehler als...
Ursache: z.B. ein Unfall ist durch „menschliche Fehler“ entstanden.
Ereignis/Handlung: Nur die Handlung, nicht ihr Ergebnis, wird betrachtet.
Folge: Nur das Ergebnis, nicht die Handlung, wird betrachtet.

Menschlicher Fehler
= ist eine nachträgliche Attribution einer Ursache für:
– ein beobachtetes (unerwünschtes) Ergebnis,
– die auf menschliches Handeln Bezug nimmt.

Kriteriumsproblem

Was ist ein „falsches“ Ergebnis?
– Bedarf eines Leistungskriteriums, das das korrekte Ergebnis vom fehlerhaften differenziert

Leistungskriterien
external: z.B. Systemparameter, die eingehalten werden müssen; wird in der Zuverlässigkeitsanalyse meist gewählt

internal: referieren auf Ziele, Zwecke oder Intentionen; wird in der (kognitiven) Psychologie präferiert

Probabilistische Risikoanalyse PRA

→ Risikobestimmung (Wahrscheinlichkeiten für spätere Entscheidungen); methodischer Ansatz zur Fehlervorhersage. Manche sagen auch Sicherheitsanalyse (PSA), gemäss Ritz jedoch falsch

Man überlegt, welche Schwachstellen auftreten können, Konsequenzen davon etc. und wie wahrscheinlich das jeweils ist.. → eher technische Sicht

Grundkonzept:

– Was könnte schief gehen?
– Wie wahrscheinlich ist das?
– Welche Konsequenzen sind denkbar?
– Wie wahrscheinlich sind die Konsequenzen?

Antworten durch Vergleich

– mit Kriterien (z.B. tolerierbare Konsequenzen, Grenzwerte)
– mit ähnlichen Systemen für Rückschlüsse

Risiko setzt sich zusammen aus (immer 2 Faktoren)
1 Schwere eines unerwünschten Ergebnisses
2 Wahrscheinlichkeit des Eintretens

Vorgehens-Schema
– Dekomposition in Einzelelemente oder Systemkomponenten
– Zuordnung von Ausfallwahrscheinlichkeiten
– Verknüpfung in Ereignisbäumen
– Kombination und Verrechnung zu Gesamtrisiko

Konstruktion Ereignis-Baum

 

Erstellen einer Liste von möglichen auslösenden Ereignissen, aus denen sich ein „Unfall“ entwickeln kann.

Für jedes auslösende Ereignis
– Untersuchung des Verhaltens an Verzweigungen (Erfolg oder Versagen einer geforderten Funktion)
– Wiederholung bis Ablauf unter Kontrolle oder Unfall eingetreten ist.

Mathematisches Systemmodell
→ Ermittlung von Wahrscheinlichkeiten
– der auslösenden Ereignisse
– der Verfügbarkeit von Funktionen

(nicht auswendig lernen oder berechnen)

Basiert auf negativ-Logik; alles was von 1 abgezogen wird, bedeutet: Wahrscheinlichkeiten, die kleiner als 1% sind

Wenn 1 Bremssystem ausfällt, ist Wahrscheinlichkeit gering, dass nochmals 2. Bremssysem ausfällt = Redundanzen (Diversitäten Spezialart von Redundanz = Redundanz die einem anderen chemischen technischen System folgt als vorheriges, z.B. zuerst mechanisches und dann manuelles etc.) → es bleibt übrig = Restrisiko; ist immer kleiner als 1 (damit versucht man zu beschreiben: Absicherung politische Entscheidung, ob ein System in Gesellschaft akzeptabel ist = entscheiden Aufsichtsbehörden)

Human Reliability Analysis HRA

= Übertragung der PRA (PSA) auf menschliche Funktionen

– Mensch als Systemkomponenten
– kann funktionieren oder ausfallen
– menschliche Fehler sind gleichgesetzt mit Komponentenausfällen
– nicht Ursachen werden analysiert, sondern Ausfallwahrscheinlichkeiten

 

Quantifizierung menschlicher Zuverlässigkeit

Aufgaben des Menschen werden nach Typen sortiert

Wahrscheinlichkeit fehlerhafter Ausführung wird bestimmt

-> Formel Bild

 

Methoden zur Ermittlung der Wahrscheinlichkeit
– Analyse der Aufgabenstruktur und Messung der Leistungen
– Messung der Zeitabhängigkeit
– Expertenschätzung

→ Voraussetzung: Tätigkeit in Operationen zerlegen; man kann dann bei jeder Operation die Wahrscheinlichkeit berechnen

Einfluss von Ausführungsbedingungen werden ermittelt
– Performance shaping factors (PSF)

Drift into Failure/Danger -> Alaska 261

• Menschen gehen Risiken ein; oft anlässlich von nicht offensichtlich risikoreichen Entscheidungen
– schrittweise
– jede Entscheidung ‚macht Sinn‘
– keine ‚schlechten Resultate‘ stellen die Entscheidung in Frage
– Erfolg in der Vergangenheit wird als Garant für künftigen Erfolg verstanden
– keine Richtlinien verletzt
– keine Gesetze gebrochen

→ aufgrund von sehr hohem Profitstreben! Jede Änderung wurde von den Behörden bewilligt; im Zeitverlauf wurden viele Einzelentscheide gefällt, die für sich stimmten; jedoch wurde nie das Gesamte betrachtet, was verheerend war!

Sicherheit
-> Im allgemeinen Verständnis

Allgemein / mathematisch
Ergebnisorientierte Aussage für 100%ige Wahrscheinlichkeit des Eintretens eines Ereignisses oder des Zutreffens einer Prognose

Ingenieurwissenschaftlich
Zustand der vorschriftsmässigen und gefahrenfreien Funktion eines Systems (ISO/IEC Guide 51, 1999)
→ Sicherheit, im Sinne eines positiven Sollzustandes = Zuverlässigkeit
→ System sicher, wenn „eine geforderte Funktion unter gegebenen Bedingungen während einer festen Zeitdauer ausfallsfrei ausgeführt wird“ (DIN 40041, 1990)

Kriterien für Zuverlässigkeit
– Korrektheit (Verlauf nach Vorgaben),
– Robustheit (auftretende Störungen können ausgeglichen werden)
– Ausfallsfreiheit (definierte Sicherheit gegen einen Ausfall)

→ Sicherheit kann man nicht steigern, sondern nur Sicherheitsleistung