Last
Set of flashcards Details
Flashcards | 206 |
---|---|
Language | Deutsch |
Category | Micro-Economics |
Level | University |
Created / Updated | 06.06.2022 / 16.06.2022 |
Weblink |
https://card2brain.ch/box/20220606_digital_business_value_chain
|
Embed |
<iframe src="https://card2brain.ch/box/20220606_digital_business_value_chain/embed" width="780" height="150" scrolling="no" frameborder="0"></iframe>
|
Was ist der Unterschied zwischen supervised vs. unsupervised learning im Bereich Machine Learning?
- Supervised = Zielgrösse ist Klassifikation
- Unsupervised = Zielgrösse ist Regression (Ähnlichkeiten, Gruppierungen erstellen)
Was sind Schwierigkeiten beim Clustering?
Hochdimensionale Datensätze müssen dimensionsreduziert werden, um zu visualisieren.
Man weiss gar nicht recht, wonach man sucht
Unterschiedliche Clusteringverfahren und deren Initiierung führen zu unterschiedlichen Ergebnissen
Mit welcher Vorgehensweise geht man bei supervised learning vor'?
- Entscheidungsbaum
Was versteht man unter CRISP-DM?
Branchenübergreifender Standortprozess für Data Mining (Cross Industry Standard Process for Data Mining)
Welche Funktionen werden beim Data Mining eingesetzt?
- Businessexpertin
- Data Scientist
- Datenverwalterin
Wie entsteht Datenverständnis?
- Datenerhebung und -identifikation
- Erkundung der Daten
- Datenqualität prüfen
- Berücksichtigung der zeitnahen Verfügbarkeit von Daten
- Entddeckung interessanter Teildaten, erste Einsichten
- Hypothese bilden
Wie geht man bei der Datenaufbereitung vor?
- iterativ
- Transformierung inkl. Normalisierung, Standardisierung
- Bereinigungen
- Ziehung von Stichproben
- Merkmalasuwahl
Wie geht man bei der Modellierung von Daten vor?
- iterativ
- Auswertng verschiedener Arten von Algortihmen
- Parametereinstellung
Wie geht man bei der Evaluation von Daten vor?
- Auswwahl der richtigen Leistungsmasse
- Ist das Modell gut genug?
- Vergleiche zu anderen Modellen
- Gemeinsame Schlussforderung zum operativen Einsatz
Wie geht man bei der Umsetzung der Daten-Lösung vor?
- Prognosehäufigkeit und -art definieren
- Berücksichtigung aller zum aktuellen Zeitpunkt verfügbaren Daten
- Datenprodukt bestimmen
Wie läuft der CRISP-DM Kreislauf ab?
1. Business Understanding
2. Data Unterstanding
3. Data Preparation
4. Modeling
5. Evaluation
6. Deployment
Dazwischen liegt der Data-Store
Mit welchen Faktoren misst man die Leistung des Klassifikationsalgorithmus?
- Accuracy (Wie viele Fälle hat das Modell richtig prognostiziert?)
- Precision: (Wie viele der prognostizierten Fälle sind richtig?)
- Recall: (Anzahl der korrekt identifizierten Ausfälle (Positive)
- F1-Score (Harmonischer Mittelwert aus Precision und Recall)
Was ist die grosse Anforderung an Daten?
Die richtigen daten für die richtigen Personen zur richtigen Zeit zur Entscheidungsunterstützung bereitstellen
Entscheidungen können in drei verschiedenen digitalisierten Arten von IT-Ansätzen umgesetzt werden. Um welche handelt es sich dabei?
- rein digitale Prozesse (z.B. Netflix-Empfehlungen)
- Semiphysisch digitalisierte Prozesse (automatisch Ware nachbestellen, sobald Lager Mindestwert unterschreitet)
- Vollständig digital gesteuerte physikalische Prozesse (Roboter entscheiden über notwendige Reaktion und führen Sie aus)
Wie kann Business Analytics bezeichent werden?
Business Analytics bezeichent Technologien, Systeme, Methoden und Anwendungen, die Daten erfassen, verarbeiten und analysieren, um damit eine Entscheidungsunterstützung oder Automatisierung mit einem Mehrwert für das Unternehmen zu ermöglichen.
Wie erfolgt die Abgrenzung zwischen Business Intelligence und Business Analytics?
BI wird generell eine reine Ex-post- (vergangenheitsbezogen) und BA eine Ex-ante-Perspektive (zukunftsbezogen) unterstellt. Mit den zukünftigen Modellen und Prognosen ermöglichst BA die Verschiebung der Entscheidungsfindung vom Menschen auf IT-Systeme. Während bei BI die Ergebnisse immer von Menschen auf die Zukunft übertragen werden müssen (Bauchgeführl oder Erfahrungen).
Wie funktioniert Business Analytics?
Daten werden mit allen Modellierungsdaten in der Vergangenheit erstellt, aber die Zielvariable liegt noch in der Zukunft bis zum Datum, an dem die Attribute in der Zeitachse der für die Modellierung verwendeten Daten gesammelt werden.
Welche analytischen Methoden zur Datenanalyse gibt es?
- Descriptie Analytics (Was ist geschehen) und Real-Time Analytics (Was geschieht gerade) --> Beschreibende Analyse
- Diagnostic Analytics (Warum ist es geschehen) --> Ursachenanalyse
- Predictive Analytics (Was könnte geschehen?) --> Vorhersagende Analyse
- Prescriptive Analytics (Was soll geschehen?) --> Vorschreibende Analyse
Wie wird der Modellerfolg einer Regression gemessen?
- mittlere absolute Fehler (MAE) --> wie nah sind die Vorhersagen am tatsächlichen Wert, basierend auf dem Abstand zum Wert
- Wurzel des mittleren quadrierten Fehlers (RMSE) --> quadrierter Abstand messen
Welche zwei Ansätze gibt es für das Clustering?
- Collaborative filtering: Personen die in der Vergangenheit dasselbe gewählt haben, machen dies auch in der Zukunft
- Content-based filtering: Produkte werden Personen basierend auf ihren früheren Käufen zugeschrieben
Wie funktionieren neuronale Netzwerke im Bereich Machine Learning?
- Ähnelt dem Geheirn, indem es mehrere Schichten hat
- Jede Schicht lernt eine höhere Abstraktion
Aus welchen sechs Komponenten besteht ein neuronales Netz?
- Input Node
- Verbindung
- Gewichtete Summe
- Bias
- Aktivierungsfunktion
- Output Node
In welche Kategorien können neuronale Netze kategorisiert werden?
- Convolutional Neural Networks (CNN)
--> vorallem für Bild Analyse
- Recurrent Neural Networks (RNN)
--> Informationen in Relationen setzen
--> RNN hat Schlaufen und kann sich erinnern
Was ist die Unterscheidung zwischen Weak AI und Strong AI?
- Weak AI
--> Fundamentale Funktionen wie Sehen, Hören, Reden
--> Kann gelernt werden und wird nicht explizit programmiert
- Strong AI
--> Eine Kombination aus mehreren Weak AI um einen Menschen zu imitieren
Was sind die sechs Prinzipien in Bezug auf AI + Ethik?
- Fairness
- Reliability & Safety
- Privacy & Security
- Inclusiveness
- Transparency
- Accountability
Was sind Eigenschaften von Computer Vision?
- Bild Klasiifizierung
- Szenen und Aktivitätserkennung in Videos
- Personen und Gebäude in Bilder erkennen
Was sind Methoden vom Hard Data Mining?
- Entscheidungsbäume
- Clusterverfahren
- Regressionsanalyse
- Assoziationsanalyse
Was sind Methoden vom Soft Data Mining?
- Fuzzy Clustering
- Evolutionäre Algorithmen
- Künstliche Neuronale Netze
- Probalistisches Schliessen
- Inductive Fuzzy Classification (supervsied learning)
Worum geht es beim Data Mining?
Digital Gold, Wert aus Daten generien.
Was wird mit dem Map/Reduce-Verfahren erzielt?
- hohe parallelität
- hohe Effizienz
für die Datenverarbeitung
Welche vier essentielle Faktoren müssen erfüllt sein damit es sich um eine "Free Software" handelt?
1. Die Freiheit das Programm so nutzen, wie man es sich wünsch.
2. Die Freiheit zu studieren, wie das Programm funktioniert und zu ändern wie es funktionieren soll. Zugang zum Source Code ist ein Bedingung hierfür.
3. Die Freiheit um Kopien zu umverteilen, damit anderen geholfen werden kann
4. Die Freiheit eigene modifizierten Kopien an andere zu verteilen. Damit wird anderen Nutzern die Chance gegeben davon zu profitieren. Der Zugang zum Source Code ist eine zwingende Bedingung hierfür.
--> Auch bezeichnet unter dem Begriff "inpsect, use, modify and sell"
Was definiert die Open-Source Initiative?
Der Begriff "Open Source" darf auf alle Softwares angewendet werden, deren Lizenzverträge den folgenden drei charakteristischen Merkmalen entsprechen:
- Die Software (d.h. der Quelltext) liegt in einer für den Menschen lesbaren und verständlichen Form vor. In der Regel handelt es sich bei dieser Form die Quelltexte in einer höheren Programmiersprache.
- Die Software darf beliebig kopiert, verbreitet und genutzt werden. Für Open-Source-Software gibt es keine Nutzungsbeschränkungen, weder bezgl. der Anzahl Nutzer noch bezgl. der Anzahl Installationen.
- Die Software darf verändert und in der verändernden Form weitergegeben werden.
Was ist der Unterschied zwischen Freier Software und Open-Source-Software?
Freie Software: fokussiert auf den Aspekt der Nutzerkontrolle über Software und sieht diese als wichtiges soziales, politisches und ethisches Anliegen.
Open-Source-Software: fokussierte auf praktischer Nutzen für die Allgemeinheit. Softwareinfrastruktur ist frei verfügbar und ermöglicht kollaborative Entwicklung.
Weshalb wird Opern-Source von Privaten und Unternehmen umgesetzt?
- Entwicklungskosten zu senken
- Marktanteile zu gewinnen
- Selbstlosigkeit und Rücksicht gegenüber der Öffentlichkeit (Fortschritt für Alle)
Was sind die Vorteile von Open-Source-Software?
- An der Entwicklung ist eine beliebig hohe Anzahl von Personen beteiligt. Der Aufwand für die Entwicklung wird geteilt und jeder kann vom anderen profitieren.
- Keine Abhängigkeit zu einer Herstellerfirma. Bei proprietärer Software müssen Änderungen beim Hersteller beantragt werden.
- Die Nutzung von Open-Source-Software ist an keine oder nur wenige Bedingungen geknüpft. Vervielfältigung und Weiterverwendung ergeben keine Lizenzkosten.
- Open-Source-Software ermöglicht Einblick in den Quelltext und somit in die Analyse des Quellcodes.
- Mehraugenprinzip führt dazu, dass alles stabiler und zuverlässiger wird.
- Überprüfbarkeit eines Programmes auf bewusste eingebrachte, Nutzer-ungewollte Mechanismen wie Backdoors werden schneller erkannt.
Was sind die sechs Level von Open Source?
- Stage 0 = Open Source hat keinen Wert oder es wird nicht genutzt
- Stage 1 = Passive Benutzung
- Stage 2 = Kollaboration - Beiträge an den Quellcode und Ressourcen leisten
- Stage 3 = Champion - Projektführung und ausführenden Support
- Stage 4 = Strategisch - Definiertes Geschäftsmodell um Geschäftsziele zu erreichen
- Stage 5 = Aggresiv - Veränderung und Disruption herbeiführen, sowie Wettbewerbsvorteile erzielen
Was sind die 10 Prinzipien von Open Data?
1. Vollständigkeit (Alle öffentlichen Daten werden verfügbar gemacht)
2. Primärquelle (Die Daten werden an ihrem Ursprung gesammelt)
3. Zeitnah (Daten werden umgehend zur Verfügung gestellt)
4. Zugänglich (Daten werden für alle zugänglich gemacht)
5. Maschinenlesbar (Daten werden strukturiert gesammelt)
6. Nicht diskriminierend (Daten sind allen verfügbar)
7. Nicht proprietär (es wird keine proprietäre Software zum Lesen benötigt)
8. Freie Lizenz (Daten sind unter ein freien Lizenz verfügbar)
9. Permanent verfügbar (Datenbestände sind permanent online)
10 Kostenlos (Daten sind kostenlos verfügbar)
Was sind Argumente für die Freigabe von Behördendaten?
1. Anrecht auf freie Daten (den Bürgern gehören die Behördendaten)
2. Demokratie (Freier und ungehinderter Datenzugang)
3. Wirtschaftlichkeit (durch öffentl. Daten werden Prozesse und Missstände sichtbar)
4. Innovation (Innovationspotential von Open Government Data wird als hoch angesehen)
Was sind Herausforderungen und Lösungsansätze bei Open Data Freigabe?
1. Datenfreigabe darf Geschäftsmodell nicht negativ beeinflusse - Datenfreigabe passt zur Organisations-Strategie
2. Datenschutz: Grundsätzlich keine Freigabe von Personendaten - Auslassen von kritischen Datenfeldern
3. Sicherheit: Menschenleben und Staatssicherheit darf nich gefährdet werden - Auslassen von kritischen Datenfeldern
4. Datenqualität: Qualität wird durch Open Data sichtbar - Prüfen der Daten auf Vollständigkeit, Genauigkeit, Aktualität, Konsistenz
5. Externes Interesse: Einschätzung öffentl. Interesse ist schwierig - Überlegen wer sich für Daten interessiert, Zielgruppen ansprechen
6. Aufwand: Daten maschinenlesbar zu machen kann aufwendig sein - Kosten-Nutzen Überlegungen bei Datenaufbereitung, priorisieren
Wie ist das 5 Star Open Data Model von Tim Berners-Lee aufgebaut?
1. PDF
2. XLS
3. CSV
4. RDF
5. LOD