GS1

Stefan Karlik

Stefan Karlik

Kartei Details

Karten 68
Lernende 26
Sprache Deutsch
Kategorie BWL
Stufe Universität
Erstellt / Aktualisiert 27.03.2013 / 01.02.2025
Weblink
https://card2brain.ch/box/04scstammdatendata_warehouse_mis
Einbinden
<iframe src="https://card2brain.ch/box/04scstammdatendata_warehouse_mis/embed" width="780" height="150" scrolling="no" frameborder="0"></iframe>

PLM => Zusammenfassung

  • Alle produktrelevanten Daten über den gesamten Produkt- Lebenszyklus verwalten
  • Gründe für PLM, Marktanforderungen, schnellere Entwicklung, Kostendruck, kürzere Produktlebenszyklen
  • Stammdaten, Produktmodell, Produktstrukturen, Stücklisten, Dokumente, Klassifizierung, Arbeitsplan
  • PLM Prozesse, Prozessmodelle und das Konfigurationsmodell
  • Aufbau von Dokumenten im PLM, Check in / Check out Applikationsintegration
  • Neutralformate PDF, STEP, TXT was ist zu beachten.

Unterschied zwischen Artikel und Materialstamm?

Wesentlicher Unterschied ist, dass der Artikelstamm noch vetriebsrelevante Daten beinhaltet.

Strukturmodell => Definition

Ein Produktmodell besteht aus einer Vielzahl von Informationen. Diese werden strukturiert gegliedert.

PLM Prozess => Aufzählen

1. Idee und Antrag ein neues Produkt  zu entwickeln

2. DTO Develop to Order: Entwicklungsprozess, heute vernetzt mit den Lieferanten und der Produktion

3. Entwicklung abgeschlossen neues Produkt kann hergestellt werden

4. Kundenauftrag trifft ein

5. Produktion gemäss DTO

6. Auslieferung an Kunden

7. Start des Kundenservices

8. Serviceaktivitäten

9. Ziel zufriedenenKunden

DTO => Definition

= Develop to Order

MTO => Definition

Manufacturing to Order

MTS => Definition

= Manufacturing to Stock

ECM => Definition

Engineering Change Management

= werden Änderungen in jeder Phase protokolliert

ETO => Defintion

= Engineering to Order

Prozess Statusnetzwerk => Wiedergeben

Es kontrolliert die  verschiedenen Versionen von Dokumenten und Stücklisten usw.. Spezielle Dokumente werden via Statusnetzwerk auf einen Freigabeprozess geschickt.

Back up => Definition

Sicherheitskopie, um das operative System wieder herstellen zu können.

frühes Archiv => Definition

Ziel papierloses Büro. D.h. Dokumente werden eingescannt und abgespeichert

spätes Archiv => Defintion

Daten werden auf eine andere Festplatte abgespeichert

Physischer Datenfluss => Definition

Quellsystem, PSA, ODS ins InfoCube (Data Mart)

Logischer Datenfluss => Definition

Beschreibt den Ladeflussbeschreibung, d.h. wie es abgewickelt wird.

Redudanz => Definition

Gleiches System mehrfach zur Verfügung hat, um bei einem Systemausfall wechseln zu können.

Datensicherheit => Definition

  • Verfügbarkeit (nicht verloren)
  • Vertraulichkeit (kein Zugriff von Dritten)
  • Integrität (richtig und nachvollziehbar)

 

Cloud Vorteile => Aufzählen

  • Verfügbarkeit
  • immer aktuelle Software
  • Wartung, Support, Up-date
  • nicht an Standorte gebunden
  • Änderungen Daten für alle sofort verfügbar
  • nur Anwender
  • keine Vorabinvestitionen

Cloud Nachteile => Aufzählen

  • Sicherheit
  • Klumpenrisiko
  • hohe Kosten (für Anbieter)
  • Abhängigkeit Internet
  • sehr offen
  • standard Lösungen
  • Verlust Know-How
  • weniger Einfluss
  • Rechtliche Aspekte, welche berücksichtigt werden (zB. Zugriff Deutscher Staat aufgrund Steuerprüfung)

agregieren => Definition

= verdichten von Daten

granulierte Daten => Definition

feinste Daten, bis auf Ursprungsbeleg

Value driver tree => Definition

Ziel ist aufzuzeigen, welche Kosten den Gewinn beeinflussen

Horizontales Datawarehouse => Definition

= keine Daten abgespeichert. Nur Metadaten. Greift auf das operative System (OLTP) zu. Führt aber zu Performanceprobleme.

Data Mining => Definition

= bedeutet etwa, auseinem Datenberg etwas Wertvolles extrahieren. Zusammenhänge feststellen (zB. Geschiedene Väter Bier + Windeln)

= Analytische Application

Delta Verfahren (DMI-Verfahren) => Definition

Da die Datenbestände in den Quellysteme sehr viele Datensätze beinhalten können und somit der Extraktionsprozess sehr lange dauern könnte, nutzt man das Delta-Verfahren...

welche Datensätze sich seit dem letzten Laden der Daten verändert haben.

Delete: Welche Datensätze wurden seit dem letzten Laden gelöscht

Modify: Welche Datensätze wurden seit dem letzten Laden geändert

Insert:  Welche Datensätze wurden seit dem letzten Laden hinzugefügt

 

Transformation => Definition

Umwandlung der Datensätze in eine einheitliche Form (zB. Datum)

Validation (eng. Sanity check) => Definition

Unterdisziplin der Transformation. Verstehen wir die Kontrolle eines konkreten Wertes....

ERM => Defintion

Entity relationship model = relationale Datenbank (x-verschiedene Tabellen stehen in Beziehungen)