xyz

Alessio Crincoli

Alessio Crincoli

Fichier Détails

Cartes-fiches 16
Langue Deutsch
Catégorie Gestion d'entreprise
Niveau Université
Crée / Actualisé 02.06.2019 / 27.01.2021
Lien de web
https://card2brain.ch/box/20190602_data_warehouse
Intégrer
<iframe src="https://card2brain.ch/box/20190602_data_warehouse/embed" width="780" height="150" scrolling="no" frameborder="0"></iframe>

Sinn und Zweck von Data Management und Data Mining?

Systematische Erfassung, Auswertung, Verdichtung und Interpretation von Kundendaten.

Daten -> Informationen -> Wissen

Basis für umfassende, ganzheitliche Analyse um Kunde und deren Bedürfnisse genauer kennezulernen.

Definition Big Data

Einsatz von grossen Datenmengen (Volume) aus vielfältigen (Variety) und oft fragwürdigen (Veracity) Quellen mit einer hohen Erzeugungs- und Verarbeitungsgeschwindigkeit (Velocity), um daraus einen wirtschaftlichen Nutzen (Value) für das Unternehmen zu generieren.

Prinzip der horizontalen Skalierung: Leistungsfähigkeit durch mehrere verteilte Standardrechner und nicht einige wenige Superrechner

Prinzip der Datenlokalität:  Programmcode wird auf die Server mit den zugehörigen Daten verteilt und ausgeführt

Wissen in Datenbanken? 4 versch.

  • Shallow Knowledge: Dieses Wissen kann leicht durch den Einsatz von Query Tools aus strukturierten Datenbeständen extrahiert werden. 
  • Multi-Dimensional Knowledge: Dieses Wissen kann leicht durch den Einsatz von Query Tools aus strukturierten Datenbeständen extrahiert werden. 
  • Hidden Knowledge: Dieses Wissen ist in Daten und Informationen versteckt und kann durch den Einsatz von Data Mining Techniken eruiert werden.
  • Deep Knowledge: Dieses Wissen ist nur auffindbar, wenn Hinweise oder Anleitungen über sein Domizil vorhanden sind.

Definition Data Mining?

Wird im Marketing zur Entdekcung von unbekannten Mustern, Trends und Korrelationen mit Hilfe von bekannten Verhaltensschemata aus der Vergangenheit eingesetzt.

Wird aufgeteilt in überwachtes und nicht überwachtes Lernen. Methoden: Neuronale Netze, Entscheidungsbäume, Clustering Algorithmen (z.B. Self orginizing maps), Warenkorbanalysen

Definition Business Intelligence?

Werkzeuge und Anwendungen mit eintscheidungsunterstützendem Charakter, die zur besseren Einsicht ins eigene Geschfäft und damit zum besseren Verständnis in die Mechanismen relevanter Wirkungsketten führen.

  • Systemkomponenten, die Informationen aufbereiten und speichern
  • Werkzeuge für die Wissensgenerierung
  • Auswertungs- und Präsentationsfunktionalitäten

Was ist OLAP?

Online Analytical Processing --> Data Warehouse immer OLAP

Interaktive und vielfältige Zugriffe auf relevante und konsistente Informationen für Manager und qulifizierte Mitarbeiter.

The primary objective is data analysis and not data processing

Bsp.: Vergleich von Verkaufszahlen von April und Oktober

Was ist OLTP?

Online Transaction Processing

Unterstützt transaktionsorientiert die Abwiclung operativer Geschäftstätigkeit

The primary objective is data processing and not data analysis

Bsp.: Online Banking, Arline Ticket booking

Was ist ein Balanced Scorecard System?

Bietet einen raschen und nachvollziehbaren Einblick in aktuelle Unternehmens- und Marktsituationen.

4 zentrale BW-Themen: Kunden, Finanzen, Prozesse und Innovation --> Werden abgebildet durch repräsentative Kennzahlen.

Definition Data Warehousing 

Prozess der Zusammenführung und Management von Daten aus versch. Quellen um detaillierte Sicht auf Geschäftsbereiche oder Gesamtunternehemen zu erhalten.

  • DWH ist die Basis für Berichts- unt Controllingsysteme

Für was macht man ein DWH?

Mit dem Aufbau eines DWH wird das Ziel verfolgt die Defizite konventioneller Berichtssysteme zu überwinden.

  • Integration von Informationen themenorientiert
  • Unterstützung von Analyseprozessen durch das Ermöglichen eines einfachen und schnellen Zugriffs auf relevanten Informationen
  • Begleitung der Analysen durch Metadaten
  • Entstehung einer flexiblen anpassbaren Infrastruktur, die die Abdeckung neuer Informationsbedürfnisse sicherstellt.

Wie sieht eine DWH-Architektur aus?

Was ist der ETL Prozess?

Extraktion: Selektion der Daten in eine oder mehrere Zwischenspeicher (Staging Area)

Transformation: Bereinigung der Daten und Datenstrukturen

Laden: Daten werden ind DWH-Strukturen geladen

Was sind die Phasen der Datenbereinigung?

Parsing, Correction, Standardization & Enhancement, Matching, Consolidation (Zusammenführen) --> DWH

Was ist Normalisierung?

Soll sicherstellen, dass die Daten einen nützlichen Qualitätsstandard erfüllen.

1. Normalisierung: keine Multiplen eigenschaften

2. Normalisierung: Trennung der Schlüssel

3. Normalisierung: Abhängigkeit zwischen Nichtschlüsselattributen auflösen

Was ist Denormalisierung?

Normalisierungsschritt rückgängig machen um Performanceverbesserung zu erzielen.

Was sind die 4 Dimensionen des Datenqualitätsmanagement?

Konsistenz, Korrektheit, Vollständigkeit, Termintreue