Data Warehouse
xyz
xyz
Fichier Détails
Cartes-fiches | 16 |
---|---|
Langue | Deutsch |
Catégorie | Gestion d'entreprise |
Niveau | Université |
Crée / Actualisé | 02.06.2019 / 27.01.2021 |
Lien de web |
https://card2brain.ch/box/20190602_data_warehouse
|
Intégrer |
<iframe src="https://card2brain.ch/box/20190602_data_warehouse/embed" width="780" height="150" scrolling="no" frameborder="0"></iframe>
|
Sinn und Zweck von Data Management und Data Mining?
Systematische Erfassung, Auswertung, Verdichtung und Interpretation von Kundendaten.
Daten -> Informationen -> Wissen
Basis für umfassende, ganzheitliche Analyse um Kunde und deren Bedürfnisse genauer kennezulernen.
Definition Big Data
Einsatz von grossen Datenmengen (Volume) aus vielfältigen (Variety) und oft fragwürdigen (Veracity) Quellen mit einer hohen Erzeugungs- und Verarbeitungsgeschwindigkeit (Velocity), um daraus einen wirtschaftlichen Nutzen (Value) für das Unternehmen zu generieren.
Prinzip der horizontalen Skalierung: Leistungsfähigkeit durch mehrere verteilte Standardrechner und nicht einige wenige Superrechner
Prinzip der Datenlokalität: Programmcode wird auf die Server mit den zugehörigen Daten verteilt und ausgeführt
Wissen in Datenbanken? 4 versch.
- Shallow Knowledge: Dieses Wissen kann leicht durch den Einsatz von Query Tools aus strukturierten Datenbeständen extrahiert werden.
- Multi-Dimensional Knowledge: Dieses Wissen kann leicht durch den Einsatz von Query Tools aus strukturierten Datenbeständen extrahiert werden.
- Hidden Knowledge: Dieses Wissen ist in Daten und Informationen versteckt und kann durch den Einsatz von Data Mining Techniken eruiert werden.
- Deep Knowledge: Dieses Wissen ist nur auffindbar, wenn Hinweise oder Anleitungen über sein Domizil vorhanden sind.
Definition Data Mining?
Wird im Marketing zur Entdekcung von unbekannten Mustern, Trends und Korrelationen mit Hilfe von bekannten Verhaltensschemata aus der Vergangenheit eingesetzt.
Wird aufgeteilt in überwachtes und nicht überwachtes Lernen. Methoden: Neuronale Netze, Entscheidungsbäume, Clustering Algorithmen (z.B. Self orginizing maps), Warenkorbanalysen
Definition Business Intelligence?
Werkzeuge und Anwendungen mit eintscheidungsunterstützendem Charakter, die zur besseren Einsicht ins eigene Geschfäft und damit zum besseren Verständnis in die Mechanismen relevanter Wirkungsketten führen.
- Systemkomponenten, die Informationen aufbereiten und speichern
- Werkzeuge für die Wissensgenerierung
- Auswertungs- und Präsentationsfunktionalitäten
Was ist OLAP?
Online Analytical Processing --> Data Warehouse immer OLAP
Interaktive und vielfältige Zugriffe auf relevante und konsistente Informationen für Manager und qulifizierte Mitarbeiter.
The primary objective is data analysis and not data processing
Bsp.: Vergleich von Verkaufszahlen von April und Oktober
Was ist OLTP?
Online Transaction Processing
Unterstützt transaktionsorientiert die Abwiclung operativer Geschäftstätigkeit
The primary objective is data processing and not data analysis
Bsp.: Online Banking, Arline Ticket booking
Was ist ein Balanced Scorecard System?
Bietet einen raschen und nachvollziehbaren Einblick in aktuelle Unternehmens- und Marktsituationen.
4 zentrale BW-Themen: Kunden, Finanzen, Prozesse und Innovation --> Werden abgebildet durch repräsentative Kennzahlen.
Definition Data Warehousing
Prozess der Zusammenführung und Management von Daten aus versch. Quellen um detaillierte Sicht auf Geschäftsbereiche oder Gesamtunternehemen zu erhalten.
- DWH ist die Basis für Berichts- unt Controllingsysteme
Für was macht man ein DWH?
Mit dem Aufbau eines DWH wird das Ziel verfolgt die Defizite konventioneller Berichtssysteme zu überwinden.
- Integration von Informationen themenorientiert
- Unterstützung von Analyseprozessen durch das Ermöglichen eines einfachen und schnellen Zugriffs auf relevanten Informationen
- Begleitung der Analysen durch Metadaten
- Entstehung einer flexiblen anpassbaren Infrastruktur, die die Abdeckung neuer Informationsbedürfnisse sicherstellt.
Was ist der ETL Prozess?
Extraktion: Selektion der Daten in eine oder mehrere Zwischenspeicher (Staging Area)
Transformation: Bereinigung der Daten und Datenstrukturen
Laden: Daten werden ind DWH-Strukturen geladen
Was sind die Phasen der Datenbereinigung?
Parsing, Correction, Standardization & Enhancement, Matching, Consolidation (Zusammenführen) --> DWH
Was ist Normalisierung?
Soll sicherstellen, dass die Daten einen nützlichen Qualitätsstandard erfüllen.
1. Normalisierung: keine Multiplen eigenschaften
2. Normalisierung: Trennung der Schlüssel
3. Normalisierung: Abhängigkeit zwischen Nichtschlüsselattributen auflösen
Was ist Denormalisierung?
Normalisierungsschritt rückgängig machen um Performanceverbesserung zu erzielen.
Was sind die 4 Dimensionen des Datenqualitätsmanagement?
Konsistenz, Korrektheit, Vollständigkeit, Termintreue