GS1
Kartei Details
Karten | 68 |
---|---|
Lernende | 26 |
Sprache | Deutsch |
Kategorie | BWL |
Stufe | Universität |
Erstellt / Aktualisiert | 27.03.2013 / 01.02.2025 |
Weblink |
https://card2brain.ch/box/04scstammdatendata_warehouse_mis
|
Einbinden |
<iframe src="https://card2brain.ch/box/04scstammdatendata_warehouse_mis/embed" width="780" height="150" scrolling="no" frameborder="0"></iframe>
|
Lernkarteien erstellen oder kopieren
Mit einem Upgrade kannst du unlimitiert Lernkarteien erstellen oder kopieren und viele Zusatzfunktionen mehr nutzen.
Melde dich an, um alle Karten zu sehen.
Physischer Datenfluss => Definition
Quellsystem, PSA, ODS ins InfoCube (Data Mart)
Logischer Datenfluss => Definition
Beschreibt den Ladeflussbeschreibung, d.h. wie es abgewickelt wird.
Redudanz => Definition
Gleiches System mehrfach zur Verfügung hat, um bei einem Systemausfall wechseln zu können.
Datensicherheit => Definition
- Verfügbarkeit (nicht verloren)
- Vertraulichkeit (kein Zugriff von Dritten)
- Integrität (richtig und nachvollziehbar)
Cloud Vorteile => Aufzählen
- Verfügbarkeit
- immer aktuelle Software
- Wartung, Support, Up-date
- nicht an Standorte gebunden
- Änderungen Daten für alle sofort verfügbar
- nur Anwender
- keine Vorabinvestitionen
Cloud Nachteile => Aufzählen
- Sicherheit
- Klumpenrisiko
- hohe Kosten (für Anbieter)
- Abhängigkeit Internet
- sehr offen
- standard Lösungen
- Verlust Know-How
- weniger Einfluss
- Rechtliche Aspekte, welche berücksichtigt werden (zB. Zugriff Deutscher Staat aufgrund Steuerprüfung)
agregieren => Definition
= verdichten von Daten
granulierte Daten => Definition
feinste Daten, bis auf Ursprungsbeleg
Value driver tree => Definition
Ziel ist aufzuzeigen, welche Kosten den Gewinn beeinflussen
Horizontales Datawarehouse => Definition
= keine Daten abgespeichert. Nur Metadaten. Greift auf das operative System (OLTP) zu. Führt aber zu Performanceprobleme.
Data Mining => Definition
= bedeutet etwa, auseinem Datenberg etwas Wertvolles extrahieren. Zusammenhänge feststellen (zB. Geschiedene Väter Bier + Windeln)
= Analytische Application
Delta Verfahren (DMI-Verfahren) => Definition
Da die Datenbestände in den Quellysteme sehr viele Datensätze beinhalten können und somit der Extraktionsprozess sehr lange dauern könnte, nutzt man das Delta-Verfahren...
welche Datensätze sich seit dem letzten Laden der Daten verändert haben.
Delete: Welche Datensätze wurden seit dem letzten Laden gelöscht
Modify: Welche Datensätze wurden seit dem letzten Laden geändert
Insert: Welche Datensätze wurden seit dem letzten Laden hinzugefügt
Transformation => Definition
Umwandlung der Datensätze in eine einheitliche Form (zB. Datum)
Validation (eng. Sanity check) => Definition
Unterdisziplin der Transformation. Verstehen wir die Kontrolle eines konkreten Wertes....
ERM => Defintion
Entity relationship model = relationale Datenbank (x-verschiedene Tabellen stehen in Beziehungen)
Business Inteligence => Definition
ist der Prozess, der durch Anreicherung oder durch in Bezug setzen von Daten zu Informationen und weiter in Wissen verläuft.
Die technische Basis ist ein Data Warehouse (EDW).
Andere Bezeichnungen für Business Inteligence:
Management Information Systems (MIS)
- Decision Support Systems (DSS)
- Executive Information Systems (EIS)
- Data Warehouses (DWH)
- Enterprise Data Warehouse (EDW)
OLAP => Definition
On Line Analitic Processing
verstehen wir die Systeme, die aus den operativen OLTP-Systemen die für die Informationsaufbereitung notwendigen Daten extrahieren, in einer OLAP Datenbank speichern um da für die Auswertungen und Analysen zur Verfügung zu stehen.
Was bedeutet "in Memory-Technik"?
ermöglicht, dass die transaktionsbasierten – und analysenbasierte Systeme wieder zusammen geführt werden und auf der gleichen „In Memory" – Datenbank ausgeführt werden können. Das heisst, dass die Daten nicht mehr wie früher auf Festplatten (Disk) geschrieben werden, sondern direkt im Memory vorgehalten werden können. Diese Zugriffe auf die Memory – Bausteine (RAM) sind ca. 1„000 Mal schneller als die herkömmlichen Zugriffe auf die Festplatten da kein „Arm" auf der Festplatte die Daten lesen muss.
Es gibt also keine mechanischen Teile mehr beim speichern oder lesen der Daten. Ein solches System wird mittels Blade – Servern realisiert und bildet als Verbund ein massiv paralleles System (MPP, massive parallel processing).
Schichten der Data Warehouse Architektur
Analytische Applikation
- Management Cockpit, EIS/MIS
- Reporting, Berichtswesen
- Balanced Scorecard, CPM
- Planung, Budget, Forecasting
- Konsolidierung
Portal Schicht
- Berechtigungen/Navigationen und Präsentation
Data Mart Schicht
- Daten - verdichten in OLAP Datenbanken laden
- Applikatonsbezogene InfoCubes
Enterprice Data Warehouse Schicht
- Daten - Beschaffen - Extraktion, Transformation, - Validierung, -Laden. Granular, Belegsnah
Operative System (OLTP = On Lin Transaction Processing)
- Hier werden durch anlegen von Aufträgen , neuen Kunden, Bestellungen, usw. die Daten erzeugt.
OLTP-Systeme => Definition
Die Systeme, in denen die Geschäftsprozesse (Transaktionen) abgewickelt werden. Zum Beispiel ein neuer Auftrag (Bestellung) wird gebucht
EDW (Enterprice Data Warehouse) => Definition
Hier werden die Daten aus den operativen Systemen geprüft um später in die Data Mart„s geladen zu werden. Diese Schicht kann mit der Laderampe eines Fabrikationsbetriebes verglichen werden. Bevor das angelieferte Material (die Daten) in die Fabrikation kommt, wird eine Qualitätsprüfung unterzogen
Data Warehouse / Data Mart Schicht => Definition
Der logische und physische „Lagerort" für die Speicherung aller für die Auswertungen relevanter unternehmensweiten Daten
Portal System => Definition
(nicht direkt eine Schicht eines EDW) ermöglicht, alle OLTP- und OLAP – Zugriffe auf die Systeme (Wird in diesem Skript nicht behandelt)
Ânalytische Anwendungen => Definition
Anwendungen die auf Basis dieses Data Warehouse OLAP Auswertungen ermöglichen
OLTP Systeme => Defintion
Systeme bei denen die operativen Geschäftsprozesse wie Auftragsbearbeitung oder Lagerbewirtschaftung u.s.w. abgewickelt werden. Ist die Schicht wo die Daten erzeugt werden
Data Warehouse => Definition
Im Data Warehouse werden die notwendigen Daten für alle unternehmensweiten analytischen Applikationen gespeichert. Das Schlagwort heisst: „single point of truth, single point of access".
Im Data Warehouse müssen die Daten konsistent, validiert und transformiert abgelegt sein.
Administrator Workbench => Defintion
Data Warehouse muss wie jede Applikaton administriert wreden. Mit der Administrator Workbench werden:
- Die Ladeprozesse gesteuert (ETL Prozess)
- Die Berechtigungen gepflegt und
- Die Datenflüsse eingerichtet und überwacht
Die Administrator Workbench ist auch die „Umgebung", in der das Data Warehouse aufgebaut und konfiguriert wird.
Master- und Metadaten Repository => Definition
In den Datenspeicher Master- und Metadaten – Repository (Stammdaten und Metadaten) werden die entsprechenden Daten, die für das Data Warehouse relevant sind gespeichert.
Metadaten => Definition
Die Metadaten sind Daten, die Daten beschreiben zum Beispiel:
- Die Datenladeprozesse (Wann, was, woher, wie, wohin)
- Die Beschreibung der Datenmodelle der InfoCubes (Data Marts)
- Die Transformation
- Die Validierung
- Die Definition der Abfragen (Query) u.s.w.
-
- 1 / 68
-