Business Intelligence
Aufgaben aus Übungsklausuren zum Modul BI
Aufgaben aus Übungsklausuren zum Modul BI
Kartei Details
Karten | 34 |
---|---|
Sprache | Deutsch |
Kategorie | BWL |
Stufe | Universität |
Erstellt / Aktualisiert | 03.02.2017 / 12.06.2017 |
Weblink |
https://card2brain.ch/box/20170203_business_intelligence
|
Einbinden |
<iframe src="https://card2brain.ch/box/20170203_business_intelligence/embed" width="780" height="150" scrolling="no" frameborder="0"></iframe>
|
Welche der folgenden Aussagen trifft nicht auf die lineare Regression zu?
Welches ist kein Schritt in evolutionäre Strategien, wie z.B. dem genetischen Algorithmus?
Welche der folgenden Aussagen trifft auf künstliche neuronale Netze (KNN) zu?
Welches der folgenden Aussagen trifft auf Entscheidungsbaumverfahren, wie z.B. CART, zu?
Zielbeziehungen
Indifferenz zwischen zwei Zielen liegt vor, wenn sich die Realisierung des einen Ziels nicht auf die Realisierung des anderen Ziels auswirkt.
Komplementarität, liegt dann vor, wenn die Erreichung des einen Ziels die Erreichung des anderen Ziels positiv beeinflusst
Konkurrenz. Dies bedeutet, dass die Realisierung eines Ziels zur Vermeidung oder Verschlechterung eines anderen Ziels führt.
Fehlerklassen
Semantische Fehler: fehlerhafte Eingabe der Daten, vorhandenen Daten bilden das Universum nicht korrekt ab, die Semantik der Daten stimmt also nicht (z.B. Messfehler) Fehler weicht inhaltlich von der Realität ab.
coverage Fehler: der durch die Datenmenge beschriebene Realitätsausschnitt ist kleiner als ursprünglich angenommen
syntaktische Fehler: ein Fehler in der Form der Daten vor, welcher es unmöglich macht, diese zu interpretieren
Hierarchische Clusteranalyse
Ziel •Konstruktion einer Hierarchie von Clustern (Dendrogramm), so daß immer die Cluster mit minimaler Distanz verschmolzen werden
Vorteile der hierarchischen Clusteranalyse sind die Flexibilität durch Verwendung komplexer Distanzmaße, dass das Verfahren außer der Distanzfunktion und der Fusionierungsmethode keine eigenen Parameter hat und dass das Ergebnis eine Cluster-Hierarchie ist, die auch Unterstrukturen erlaubt.
k-Means-Algorithmus
Verfahren zur Vektorquantisierung, das auch zur Clusteranalyse verwendet wird. Dabei wird aus einer Menge von ähnlichen Objekten eine vorher bekannte Anzahl von k Gruppen gebildet. Der Algorithmus ist eine der am häufigsten verwendeten Techniken zur Gruppierung von Objekten, da er schnell die Zentren der Cluster findet. Dabei bevorzugt der Algorithmus Gruppen mit geringer Varianz, und ähnlicher Größe.
Kriterien zur Beurteilung von Data-Mining Ergebnisse
Validät: wie gut geben Daten die Realität wieder
Neuigkeitsgehalt und Verständlichkeit
Nutzlichkeit
Apriori Algorithmus
ein Verfahren zur Assoziationsanalyse, einem Bereich des Data-Mining. Er dient der Auffindung von sinnvollen und nützlichen Zusammenhängen in transaktionsbasierten Datenbasen, die in Form von sogenannten Assoziationsregeln dargestellt werden. Eine häufige Anwendung des Apriori-Algorithmus ist die Warenkorbanalyse. Items sind hierbei angebotene Produkte und ein Einkauf stellt eine Transaktion dar, welche die gekauften Items enthält.
Der Support einer Itemmenge ist die Wahrscheinlichkeit, dass diese Itemmenge in einer Transaktion vorkommt.
Die Konfidenz misst für welchen Anteil der Transaktionen, in denen {\displaystyle X} vorkommt, auch {\displaystyle Y} vorkommt. Zur Berechnung der Konfidenz wird die Anzahl aller regelerfüllenden Transaktionen (also der Support) durch die Anzahl der Transaktionen, die {\displaystyle X} enthalten, geteilt.
Welche Aussage trifft auf generische Geschäftsmodelle zu?
Was wird in der Dimension Zielkunde im generischen Geschäftsmodell nicht dokumentiert?
Welches der folgenden Begriffe bezeichnet kein Prüfkriterum der Modellqualität?
Einordnung von TQM in die Systematik nach Zwirner / Einflussfaktoren nach Zwirner
- TQM ist ein gelebter Prozess, daher implementierung unabhängig von konkreten Fehlern
- TQM geht davon aus dass Fehler in jedem fall auftreten, daher proaktiver Ansatz
- TQM-Ansatz schafft in Phase3 die Voraussetzungen dafür, verschiedene Fehler aufgrund der verursachten Kosten unterschiedlich zu behandeln und Maßnahmen geeignet zu priorisieren.
- Maßnahmen, welche die Daten direkt betreffen und Qualitätsprobleme unmittelbar in den Daten beheben. Diese Maßnahmen sind Gegenstand der vierten Phase (reaktiven Charakter)
- fünfte Phase schafft Maßnahmen, welche nicht die Daten an sich sondern die verarbeitenden Prozesse und mittelbar auch Systeme betreffen (Der proaktive Aspekt des TQM-Ansatz steht und fällt also mit dieser Phase)
Die Darstellung des TQM nach English im Lehrbrief fokussiert dabei auf die Kosten, die durch Beibehaltung des identifizierten Problems entstehen. Dies sind keine unmittelbaren Kosten sondern sie können als die Opportunitätskosten verstanden werden, die dadurch entstehen keine perfekte Datenqualität zu haben. Demgegenüber zeichnet die Diskussion der Beurteilungskriterien nach Zwirner ein differenzierteres Bild, da dort zusätzlich die Kosten berücksichtigt werden, die für die Behebung des Problems anfallen würden.
Einflussfaktoren nach Zwirner:
- Bedeutung der Daten: wo wirken sich Fehler besonders negativ aus
- Anforderungen an die Datenqualität: aus Anforderungen ergeben sich unterschiedliche Konsequenzen
- Natur der Fehlerursache: Fachliche Fehler müssen innerhalb der Daten behoben werden, bei technischen Fehlern ist in der Regel das technische IS an sich zu verbessern.
- Art der möglichen Bereinigung: manuelle und die maschinelle Bereinigung
- Änderungshäufigkeit der Daten
- Anzahl der Datenfehler
- Maßnahmen zur Vermeidung neuer Fehler:
- Aufwand für Maßnahmen: Bei jeder Datenbereinigung sollte der Aufwand dem gewonnen Nutzen gegenübergestellt und abgewogen werden
These „Das Ziel des unternehmerischen Datenqualitätsmanagements sind fehlerfreie Daten“
Datenqualitätsmanagement dient, wie der Name schon sagt, der Sicherstellung der Datenqualität im Unternehmen. Der Begriff „fehlerfreie Daten“ in der These ist nicht klar definiert, jedoch kann, dem allgemeinen Sprachgebrauch folgend, angenommen werden, dass hier Bezug auf die intrinsische Datenqualität genommen wird. Im weiteren Sinne können einzelne Aspekte der kontextabhängigen Datenqualität (Vollständigkeit) und der Darstellungsqualität (Interpretierbarkeit) mit gemeint sein. Jedoch ist ganz eindeutig, dass Datenqualität nach Wang & Strong sehr viel mehr umfasst, als durch den Begriff „fehlerfreie Daten“ beschrieben werden kann. Sofern der Begriff „fehlerfreie Daten“ sich also auf die Datenqualitätskriterien bezieht, muss er als unzulässige Einschränkung verstanden werden und die These ist abzulehnen.
Argumentation mit Bezug auf English bzw. Zwirner (4 P) Der Begriff „fehlerfreie Daten“ beschreibt nicht nur, wie erläutert, eine Einschränkung des Ziels des Datenqualitätsmanagements auf eines, oder maximal auf wenige Kriterien, sondern auch einen absoluten Zielerreichungsgrad bezüglich dieser Kriterien. Fehlerfreie Daten sind im absoluten Sinne technisch unmöglich. Dem TQM-Ansatz kann unterstellt werden, dieses Ziel als Ideal trotzdem zu postulieren, im unternehmerischen Sinne muss das Ziel des Datenqualitätsmanagements jedoch nach Zwirner unter Berücksichtigung der Kosten formuliert werden. Daher ist in praktisch relevanten Szenarien Fehlerfreiheit kein operationalisierbares Ziel. Die These ist auch in dieser Interpretation abzulehnen.
Strategische Entscheidungssituationen (Boyd)
John Boyd konzipierte den „Observe – Orient – Decide – Act (OODA) Loop; er zeigt, wie Individuen oder Organisationen auf Umwelteindrücke reagieren [Ullmann 2007]:
Observation: (1) Sammeln externer Daten, (2) Feststellen von Trends, (3) Beobachtung von Interaktionen mit der Umgebung
Orientation: (1) Sammeln zusätzlicher Informationen, (2) Analyse und Synthese vor dem Hintergrund bisheriger Erfahrungen, (3) Einordnen der Erkenntnisse
Decision: (1) Hypothesentests, (2) Entscheiden
Action: (1) Agieren und Reagieren, (2) Ergebnisse und Reaktionen kontrollieren.
Taktische Entscheidungen - Geschäftsprozessmodellierung (Demin) Plan – Do –Check – Act (PDCA) Cycle
Plan: Erkenne eine Verbesserungsmöglichkeit, plane ihre Umsetzung.
Do: Führe Pilotstudie aus, teste die Auswirkungen der Maßnahme.
Check: Analysiere und bewerte die Testergebnisse.
Act: Setze die Maßnahme um und bewerte sie. Berichte über erfolgreiche Implementierungen, revidiere Fehlschläge durch erneutes Durchlaufen des PDCA Cycle
Im PDCA Cycle werden im Gegensatz zum OODA Loop vor allem unternehmensinterne Informationen verarbeitet.
Unter den Business Rules zeichnen sich Ableitungsregeln dadurch aus, dass auf bereitsbestehende Regeln und Informationen zurückgegriffen wird
Wenn Business Rules nur in einem eingeschränkten Zeitraum gelten, wird dies mit demBegriff der „Einschränkungen“ bezeichnet.
Das Durchführungslevel „vorherige Autorisierung“ bezeichnet den Sachverhalt, dassdie Umsetzung einer Business Rule stets von Vorgesetzten autorisiert werden muss.
Metadaten sind den eigentlichen Daten übergeordnet und können daher auch ohne diese interpretiert werden
Metadaten zeichnen sich durch zwei wesentliche Eigenschaften aus: das Beziehungs-merkmal und das Abstraktionsmerkmal.
Für Metadaten ist, genau wie für die eigentlichen Daten, ein explizites Qualitätsmanagement empfehlenswert
Die Rotation eines OLAP-Würfels um seine eigene Achse entspricht einer Pivotierung
„Drill-Down“ bezeichnet im OLAP das stärkere Aggregieren von Daten.
Die Abkürzung „ETL“ steht für „Extraktion, Transaktion, Lokation“.
Welche der folgenden Aussagen ist sinngemäß nicht durch die Definition von Know-ledge Discovery in Databases (KDD) nach Fayyad et al. (1996) gestützt? „Mittels KDD entdeckte Muster in Daten sind ...
Für welche Phase des OODA-Loop nach Boyd (1995) sind die Tätigkeiten „Daten sam-
meln“ und „Trends feststellen“ charakteristisch?
Zu welcher Phase des Entscheidungsprozesses gehört nach Reichmann (2006) die Plan-verabschiedung?
Was wird im Comprehensive Decision Model nicht als technologische Grundlage für dieInformationsversorgung genannt?