Suche

» erweiterte Suche » Sitemap

Informatik

Yasin Yakut

Erzielen von Wettbewerbsvorteilen durch Data Mining in Produktion und Logistik

ISBN: 978-3-95425-896-3

Die Lieferung erfolgt nach 5 bis 8 Werktagen.

EUR 44,99Kostenloser Versand innerhalb Deutschlands


» Bild vergrößern
» weitere Bücher zum Thema


» Buch empfehlen
» Buch bewerten
Produktart: Buch
Verlag: disserta Verlag
Erscheinungsdatum: 01.2015
AuflagenNr.: 1
Seiten: 120
Abb.: 71
Sprache: Deutsch
Einband: Paperback

Inhalt

Diese Studie widmet sich dem Thema Anwendungsfelder für Data Mining in Produktion und Logistik . Data Mining Verfahren sind in der Praxis weit verbreitet und unterstützen mit wertvollem Wissen Geschäftsführungen bei Ihren Entscheidungen. Vor allem aus den Bereichen Vertrieb und Marketing ist Data Mining nicht mehr wegzudenken. Anhand von vorhandenen Daten können z.B. Informationen generiert werden, um verfeinerte Werbestrategien zu bilden, die umsatzfördernd sind. Da aber auch in der Produktion und Logistik durch die zunehmende Automatisierung Unmengen an Daten anfallen, ergibt sich hier ebenfalls die Möglichkeit diese nach Optimierungspotential zu untersuchen. In diesem Zusammenhang soll diese Studie bei der Aufdeckung neuer Einsatzmöglichkeiten mitwirken. Einige Unternehmen setzen mittlerweile Data Mining Methoden effizient in der Produktions- bzw. Logistikkette ein und profitieren von den Vorteilen: Kostspielige Reparaturen werden durch präventive Wartungen vermieden Fehler werden schneller diagnostiziert und gezielt beseitigt Lagerkosten können mit den geeigneten Erkenntnissen gesenkt werden. All das verborgene Wissen in den Datenbergen könnte Unternehmen durch den Einsatz von Data Mining Methoden viel Geld, Zeit und vor allem Nerven ersparen. In dieser Untersuchung wird zudem aufbauend auf den Erkenntnissen einer Online-Befragung, der Einsatz von Data Mining in einem der potentiellen Anwendungsbereiche beispielhaft umgesetzt und hinsichtlich der erzielbaren Potentiale bewertet.

Leseprobe

Textprobe: Kapitel 2, Datenanalyse für die Wissensgenerierung: Schon zu seiner Zeit stellte Bacon fest, dass Wissen Macht bewirkt. Diese Aussage bewahrheitet sich vor allem im Informationszeitalter. Aufgrund der technologischen Entwicklung entstehen Unmengen an Daten, die zu Wissen führen können. In diesem Kapitel wird der Prozess der Wissensgenerierung aus Daten betrachtet. Zu Beginn wird das Business Intelligence als Ordnungsrahmen für Managementunterstützungssysteme dargestellt, unter die die Schritte der Datenbereitstellung, Datenanalyse und Datenvisualisierung fallen. ‘Als Management Support Systeme (MSS) bzw. Managementunterstützungsysteme (MUS) werden alle DV-Anwendungssysteme bezeichnet, die das Management, d. h. die Fach- und Führungskräfte einer Unternehmung, bei ihren vielfältigen Aufgaben unterstützen.’ Die Ebenen werden einzeln durchgegangen, wobei die Fokussierung auf die Datenanalyse und explizit auf Data Mining gerichtet ist. 2.1, Business Intelligence als Ordnungsrahmen: Die englische Sprache dominiert von jeher Begriffswahl in der Informationstechnik. Hierbei fehlt es allerdings bei der Übersetzung in die deutsche Sprache und in der Interpretation nicht selten an Übereinstimmung. Die wörtliche Übersetzung von Business Intelligence (BI) ins Deutsche lautet ‘Geschäftsintelligenz’, wobei dies die Bedeutung hier nur unzureichend widerspiegelt. Das Ziel von Business-Intelligence- Systemen führt zu einem deutlicheren Ausdruck, wenn ‘Intelligence’ im Sinne von Einsicht oder Verständnis interpretiert wird. Dazu ist die Erklärung von Krahl u. a. angemessen und dient auch als Gegenstand des dieser Untersuchung zu Grunde liegenden weiten Business-Intelligence-Begriffsverständnisses. Sie verstehen BI als Überbegriff für entscheidungsunterstützende Technologien, die Daten über das Unternehmen und dessen Umwelt für die Sammlung und Aufbereitung sowie deren Darstellung in Form von geschäftsrelevanten Informationen für Analyse-, Planungs- und Steuerungszwecke zum Gegenstand haben. ‘Durch 'Intelligence' im Sinne von Einsicht, Verständnis oder Aufklärung soll Transparenz über betriebswirtschaftliche Zusammenhänge auf Basis verfügbarer Daten erzeugt werden.’ Ziel ist das Nutzen der gewonnenen Erkenntnisse, die zur besseren Einsicht in das eigene Geschäft und damit zum besseren Verständnis in die Mechanismen relevanter Wirkungsketten führen. Der BI-Ordnungsrahmen kann hierbei in Ebenen dargestellt werden, wobei zwischen Bereitstellung, Analyse und Visualisierung unterschieden wird. Zusammenfassend lässt sich also Business Intelligence als begriffliche Klammer kennzeichnen, die verschiedene Konzepte und Techniken im Gebiet der entscheidungsunterstützenden Systeme beinhaltet. 2.2, Datenbereitstellung im Data Warehouse: Die Erkenntnis, dass ein Informationsvorsprung zu Wettbewerbsvorteilen führen kann, etabliert die Information immer häufiger als vierte Säule zu den drei herkömmlichen Produktionsfaktoren Arbeit, Boden, Kapital. Informationen basieren hierbei auf Daten, die entweder intern aus dem Unternehmen stammen oder externen Charakter aufweisen. Die Erfassung und Verwaltung von Daten fallen in den Aufgabenbereich der Datenbereitstellung, jedoch stellt dies mittlerweile keine Herausforderung mehr dar. In fast jedem Unternehmen werden Personaldaten eingegeben oder Verkäufe durch Scanner-Kassen erfasst. Komplex wird es erst, Daten in verschiedenen Datenformaten mit unterschiedlicher Qualität aus heterogenen Datenmodellen und Datenbanksystemen zu vereinen, um sie für Analysen aufzubereiten. Data-Warehouse-Systeme sind dafür ausgelegt, Aufgaben solcher Art zu bewältigen. Sie bilden eine Infrastruktur zur analytisch orientierten Bereitstellung von Datenbeständen, wobei die Qualität, Integrität und Konsistenz des Datenmaterials erst in einem vorausgehenden Prozess hergestellt werden müssen. Inmon, einer der Pioniere in diesem Bereich, lieferte hierzu im Jahr 1996 eine erste Definition, die bis heute prägend ist: ‘A data warehouse is a subject-oriented, integrated, non-volatile, and time-variant collection of data in support of management’s decisions.’ Daraus ergeben sich folgende Merkmale eines Data Warehouses: - Themenorientierung (subject-oriented): Die interne Klassifizierung erfolgt anhand entscheidungsrelevanter Geschäftsthemen bzw. Geschäftsobjekten wie z. B. Kunde, Artikel oder Niederlassung. - Vereinheitlichung (integrated): Ein zentrales Merkmal des Data Warehouse Konzepts ist der formal- und strukturell vereinheitlichte Datenbestand, der im Rahmen der Datenübernahme durch Extraktion, Transformation und Laden (ETL) der heterogenen Quelldaten erfolgt. - Beständigkeit (non-volatile): Benutzer eines Data-Warehouse-Systems können nur lesend auf den Datenbestand zugreifen, wodurch eine Beständigkeit sichergestellt ist. Darüber hinaus werden ältere Daten nicht gelöscht oder durch neue ersetzt, sondern lediglich ergänzt. - Zeitorientierung (time-variant): Für zeitraumbezogene Analysen bedarf es neben aktueller auch historischer Daten. Deshalb sind Daten im Data Warehouse anhand ihres Zeitbezugs zu identifizieren. Somit werden Vergleiche über längere Zeit möglich. Die Definition von Immon ist mit der Erkenntnis, dass eine anforderungsgerechte Bereitstellung entscheidungsrelevanter Informationen nur durch eine gesonderte Aufbewahrung der benötigten Daten erfolgen kann, erweitert worden. Diesbezüglich ist die Definition von Gabriel u. a. aktuell und allgemein akzeptiert: ‘Data Warehouses sind von den operativen Datenbeständen getrennte, logisch zentralisierte dispositive Datenhaltungssysteme. Ideal typischerweise dienen sie unternehmensweit als einheitliche und konsistente Datenbasis für alle Arten von Managementunterstützungssystemen.’ Dabei bilden Datenquellen, wie der Begriff verrät, den Ursprung eines Data Warehouses. Die Beschaffenheit der Informationen aus dem Data Warehouse ist somit unmittelbar von der Beschaffenheit der Datenquellen abhängig. Daher erweist sich die Auswahl geeigneter Datenquellen als besonders wichtig. Eine besondere Rolle spielen dabei die Qualitätsanforderungen, die ausschlaggebend für ein erfolgreiches Data-Warehouse-Vorhaben sind. Im Folgenden wird deshalb darauf näher eingegangen. 2.3, Datenqualität: Wie bereits im vorigen Kapitel erwähnt, herrscht eine Korrelation zwischen der Qualität betrachteter Daten und der Qualität der daraus generierten Informationen. Dabei ist zu berücksichtigen, dass die Beurteilung der Qualität sehr subjektiv geprägt und jeweils vom Anwender bestimmt wird. Würthele definiert Datenqualität daher wie folgt: ‘mehrdimensionales Maß für die Eignung von Daten, den an ihre Erfassung/ Generierung gebundenen Zweck zu erfüllen. Diese Eignung kann sich über die Zeit ändern, wenn sich die Bedürfnisse ändern.’ Diese Definition macht deutlich, dass das Qualitätsverständnis für die Daten nicht starr ausfällt, sondern vom Zeitpunkt der Betrachtung abhängt. Um die Datenqualität für die Bewertung des Erfüllungsgrades durch den Datennutzer messbar zu machen, sind Qualitätskriterien notwendig, die den Daten zugeordnet werden. In der Praxis besteht das Ziel dabei nicht darin, einen hundertprozentigen Erfüllungsgrad der Kriterien zu erreichen. Vielmehr geht es darum, anwendungs- oder kundenbezogene Richtwerte festzulegen. Im Folgenden wird auf die wichtigsten Qualitätskriterien näher eingegangen: - Korrektheit: Die erfassten Daten müssen inhaltlich und formal mit der Realität übereinstimmen. Ein Beispiel aus dem Produktionsbereich sind Rüstkosten pro Auftrag, die einerseits wahrheitsgemäß und anderseits in einem vordefinierten Format ermittelt werden müssen (€/Auftrag, $/Auftrag). - Konsistenz: Ein Datensatz darf in sich und zu anderen Datensätzen keine Widersprüche aufweisen. Zum Beispiel kann die Durchlaufzeit eines Produktes nicht null sein und auch nicht kleiner als die Bearbeitungszeit in einem Prozessschritt. - Zuverlässigkeit/Nachvollziehbarkeit: Hinsichtlich der Datenwerte muss ein Vertrauen herrschen, sodass die Entstehung der Daten nachvollziehbar organisiert werden sollte. In der Logistik sind z. B. Angaben über durchschnittliche Lagerbestände anhand diverser Formeln zuverlässig und transparent festzuhalten. - Vollständigkeit: Ein Datensatz muss alle notwendigen Attribute enthalten. Es ist z. B. nicht möglich, Angaben über Nacharbeitskosten in der Produktion zu treffen, wenn nachbearbeitete Produkte im System nicht erfasst werden oder bei der Übermittlung verloren gegangen sind. Ebenfalls ist die Nutzung nicht regelmäßig gepflegter Daten problematisch. Für den Umgang mit solchen Attributen können analog die Methoden verwendet werden, die Runkler bei der Behandlung von Ausreißern einsetzt: - Ersetzung der fehlenden Werte durch Maximal- oder Minimalwerte - Ersetzen durch den Mittelwert der umgebenden Daten - Ergänzung durch verschiedene Algorithmen - Entfernen des betroffenen Attributes oder der gesamten Daten - Ersetzung durch den Wert Null - Genauigkeit: Die Daten müssen in dem jeweils geforderten Detaillierungsgrad vorliegen. Bearbeitungszeiten eines Bauteils müssen diesbezüglich auf die Sekunde genau bestimmt werden, um eine präzise Aussage über die Durchlaufzeiten treffen zu können. - Aktualität/Zeitnähe: Alle Datensätze müssen je nach Anwendung den Aktualitätskriterien entsprechen und zu dem vom Anwender benötigten Zeitpunkt zur Verfügung stehen. Demnach benötigt das Management z. B. vor Abgabe eines Angebotes aktuelle Angaben über die freien Kapazitäten in der Produktion. Qualitativ mangelhafte Daten können im Data Warehousing einen erheblichen Extraaufwand verursachen. Auswirkungen können wie folgt sein: - Zusätzlicher Zeit- und Kostenaufwand zur nachträglichen Beseitigung von Qualitätsmangeln. - Taktische und strategische Fehlentscheidungen aufgrund fehlerhafter Datenanalysen. - Unzufriedenheit und daraus folgend Demotivation von Anwendern, die sich wiederum negativ auf die Leistung auswirken. Um dem Leitsatz ‘Garbage in garbage out’ in einem Data Warehouse vorzubeugen, gibt es in der Literatur verschiedene Publikationen, mit denen die Datenqualität sichergestellt werden kann.

Über den Autor

Dipl.-Kfm. techn. Yasin Yakut, wurde 1986 in Ludwigsburg geboren. Sein Studium der technisch orientierten Betriebswirtschaftslehre an der Universität Stuttgart schloss der Autor im Jahre 2013 mit dem akademischen Grad Dipl.-Kfm. techn. erfolgreich ab. Bereits während des Studiums sammelte der Autor umfassende praktische Erfahrungen in der Produktion- und Logistikbranche. Die Faszination von dem Potential der Datenanalyse motivierte ihn anschließend, diese Bereiche zu kombinieren und sich der Thematik des vorliegenden Buches zu widmen.

weitere Bücher zum Thema

Bewerten und kommentieren

Bitte füllen Sie alle mit * gekennzeichenten Felder aus.


script>