Suche

» erweiterte Suche » Sitemap

RWS


» Bild vergrößern
» weitere Bücher zum Thema


» Buch empfehlen
» Buch bewerten
Produktart: Buch
Verlag: Igel Verlag
Erscheinungsdatum: 06.2018
AuflagenNr.: 1
Seiten: 114
Abb.: 39
Sprache: Deutsch
Einband: Paperback

Inhalt

Das aktuelle Zeitalter ist stark von Veränderungen geprägt. Veränderungen in der IT haben eine bisher noch nie dagewesene Geschwindigkeit erreicht. Ein Unternehmen ist nur dann wettbewerbsfähig, wenn dieses auf eintretende Veränderungen schnell reagieren kann. Diese Fähigkeit wird auch mit dem Begriff Agilität beschrieben. Auch im Bereich der Business Intelligence spielt die Agilität eine entscheidende Rolle. Aus diesem Anlass prägten einige Mitglieder des TDWI (The Data Warehouse Institute) den Begriff Agile Business Intelligence . In diesem Buch wird analysiert, was sich hinter der agilen Business Intelligence verbirgt. Zu Beginn der Analyse werden im ersten Kapitel der Hintergrund und die Motivation zur Thematik, die Zielsetzung der Arbeit und die Herangehensweise beschrieben. Zur Schaffung des richtigen Rahmens und zur Einführung des Lesers in die Thematik, findet in Kapitel zwei eine Erläuterung der Begriffsarten, der Business Intelligence, der BI-Projekte und der Agilität statt. Im dritten Kapitel erfolgt die Darstellung der agilen Business Intelligence überwiegend aus Sicht der TDWI. Aber auch die Sichtweise außerhalb der TDWI, z.B. aus der Sicht des Marktforschungsunternehmens Forrester, wird aufgezeigt. Kapitel vier dient der Beschreibung agiler Vorgehensmodelle, Methoden, Architekturen und Techniken losgelöst von der Thematik Business Intelligence. Dabei soll die Darstellung der bereits in Kapitel drei vorgestellten Vorgehensmodelle und Methoden vertieft und weitere agile Vorgehensmodelle und Methoden vorgestellt werden, die eventuell im Rahmen der agilen Business Intelligence eingesetzt werden könnten. Nachfolgend werden in Kapitel fünf einige Praxisbeispiele zu agilen BI-Projekten vorgestellt. Abschließend erfolgt in Kapitel sechs eine Synthese der zuvor analysierten und dargestellten Aspekte und die Beantwortung der Frage Was ist ‚Agile Business Intelligence‘?

Leseprobe

Textprobe: Kapitel 3.5.3 Engines: Durch den Engine-Ansatz können Beladeprozesse auf Basis standardisierter, übergeordneter und revisionssicherer Strukturen durch den Fachbereich oder die IT-Abteilung verändert werden. Die Änderungen erfolgen dabei über revisionssicher abgelegte Steuerungsschnittstellen. Um den zentralen Entwicklungsprozess nicht zu beeinflussen, werden keine Änderungen am eigentlichen ETL-Code oder am Prozesssteuerungssystem vorgenommen. Wenn für die Entwicklung der Engine produktive Daten benötigt werden, dann erfolgt die Entwicklung innerhalb einer Sandbox. Andernfalls kann die Entwicklung der Engine auch in einer normalen Testumgebung erfolgen. Sandbox, Engine und Bypass sind zentrale Architekturkomponenten, die von der IT oder dem BICC bereitgestellt werden, wodurch ein Einsatz dieser Komponenten in einem dezentralen Ansatz nicht umsetzbar ist. 3.5.4 Bypässe In der Medizin werden operative Überbrückungen von Passage-Hindernissen als Bypass bezeichnet. Im Bereich der BI wird darunter eine kurzfristige Behebung eines Engpasses bei der Datenbereitstellung unter Überbrückung einer oder mehrerer Datenhaltungsebenen verstanden. Bypässe werden im Bereich der BI eingesetzt, um Daten zeitnah über einen modularen ETL-Prozess in das vollständig integrierte DWH zur Verfügung zu stellen, ohne dabei die bestehenden Infrastruktur zu beachten. Die Integration der Daten in die bestehende Infrastruktur kann dann rückwirkend in dem nächsten Release erfolgen. 3.5.5 In-Memory Nicht nur die Menge an Daten steigt, sondern auch die Anzahl der Nutzer, die auf diese Daten zugreifen. Somit steigen die Anzahl und die Dauer von Zugriffen auf die benötigten Daten. Die relationalen Datenbanken können die Anforderungen der Nutzer ab einer bestimmten Datenmenge nicht mehr zufriedenstellend erfüllen. Die In-Memory Datenbanken (IMDB) stellen eine Alternative zu den weit verbreiteten relationalen Datenbanken dar. Somit soll durch In-Memory-Technologien eine schnelle Verarbeitung von großen Datenmengen ermöglicht werden. Bisher gängige Lösungen bezüglich der Architektur und Herangehensweise erreichen allmählich ab einer bestimmten Menge von Daten ihre Grenzen, da es innerhalb dieser immer schwieriger wird, einen performanten Zugriff auf die Daten zu ermöglichen. Dieser Herausforderung, die durch In-Memory Computing gelöst werden sollen, kommen die sinkenden Preise für Hauptspeicher und die wachsende Anzahl an CPU-Kernen pro CPU sehr entgegen. Denn durch die sinkenden Preise für RAM werden diese Speicherbereiche immer größer. Bei den In-Memory Datenbanken werden die operativen Daten über Skripte direkt in den Hauptspeicher und nicht in ein zentrales DWH repliziert. Durch diese Art der Datenspeicherung sollen, auf Grund der höheren Zugriffsgeschwindigkeit und den effizienteren Zugriffsalgorithmen, schnellere Zugriffszeiten auf die Daten ermöglicht werden. Die Abfragewerte liegen bei RAM im Nanosekunden-Bereich, während diese bei herkömmlichen festplattenbasierten Datenbanken im Millisekunden-Bereich liegen. Durch die In-Memory-Technologie könnten somit die aufwändigen Modellierungen von Daten in Star- und Snowflake-Schemata überflüssig gemacht werden. Außerdem soll durch die performante Speicherung, Verarbeitung und Abfrage von großen Datenmengen durch den Einsatz von der In-Memory-Technologie viel Zeit und Aufwand eingespart werden, welche für die physikalische Modellierung der Daten benötigt werden würde. Durch diesen Zeitgewinn könnten sich die Anwender wieder fokussierter dem Business zuwenden. Grundsätzlich ist die effektive Nutzung der wachsenden Datenflut im gesellschaftlichen und wirtschaftlichen Umfeld wettbewerbsentscheidend. Die In-Memory-Technologie soll einen Ansatz zur Integration der Daten für die Beherrschung der großen Datenflut im Sinne von analytischen Möglichkeiten bieten. Die Einsatzmöglichkeiten von In-Memory-Computing sind sehr umfangreich. Im Bereich der Business Intelligence bringen diese vor allem einen Mehrwert bei den Ad-hoc-Abfragen mit sich. Sie müssen hoch performant sein, da ansonsten keine ausreichende Akzeptanz der BI-Anwender zu erwarten ist. Des Weiteren werden erst durch den Einsatz von In-Memory-Computing Echtzeitanalysen möglich, da der klassische Beladungsprozess (ETL-Prozess) für diese Anforderungen nicht ausreicht. In-Memory-Computing ist aber nicht nur eine Maßnahme zur Performance-Steigerung. Durch Verschlankung der Strukturen, d.h. durch die Weglassung von Maßnahmen wie Aggregattabellen, Zwischenschichten oder performanceorientierte Modifikationen am Star-Schema, die nur der Performance-Steigerung dienen, erfolgt eine Vereinfachung und dadurch in der Regel auch eine Beschleunigung bei Änderungen an den bestehenden Lösungen. Durch diese Vereinfachung wird auch die Datenhaltung für Anwender zugänglicher und somit auch die Verlagerung von Gestaltungsaufgaben zu den Fachbereichen leichter. Zusammenfassend wird somit durch den Einsatz von In-Memory-Technologien die inhaltliche Agilität über alle Schichten der Datenhaltung hinweg gefördert. Die Datenspeicherung im Hauptspeicher bei In-Memory Datenbanken hat allerdings auch Nachteile. Bei einem Systemausfall gehen die Daten im Hauptspeicher verloren. Um den Verlust der Daten im Falle eines Systemausfalls zu minimieren, erfolgen Erfassungen von den Zuständen der Daten und Speicherung dieser auf persistenten Speichermedien in vordefinierten Zeitintervallen. Somit kann es zu einem Verlust von Daten bei einem Systemausfall nur noch zwischen den Zeitintervallen kommen. Eine weitere Absicherung vor Datenverlust kann durch den Einsatz von NVRAM erfolgen. Bei Non-Volatile Random-Access Memory handelt es sich dabei um Hauptspeicher mit einer eigenen Stromversorgung. Bei diesen kann der letzte Datenzustand vor dem Systemausfall im Falle eines solchen wieder hergestellt werden. Außerdem muss die benötigte Datenqualität bereits vor der Speicherung der Daten ausreichend vorliegen, da hier der ETL-Prozess nicht mehr enthalten ist, wodurch die Daten vor der Ablage nicht mehr aufbereitet werden. Laut Bachmann und Kemper ist [es] insofern mehr als fraglich, ob für tiefergehende Analysen tatsächlich auf eine entsprechend angepasste Datenstruktur verzichtet werden kann. Und selbst bei In-Memory-Lösungen ist der adressierbare Speicherraum nicht ohne weiteres unbegrenzt nutzbar. Sollen durch diese Lösung Datenmengen bis zu einigen Terabyte, wie es aktuell in DWHs möglich ist, verarbeitet und zu Analysezwecken repliziert werden, so wird auch hier Programmierungsaufwand notwendig. Ein Lösungsansatz für diese Herausforderung ist der Einsatz von Komprimierungsalgorithmen, durch die die Daten vor dem Laden in den Arbeitsspeicher komprimiert werden.

Über den Autor

Nelli Weiß, B.Sc. M.A., wurde 1987 in Karaganda in Kasachstan geboren. Ihr duales Studium der Wirtschaftsinformatik an der Dualen Hochschule Baden-Württemberg in Ravensburg schloss die Autorin im Jahre 2010 mit dem akademischen Grad Bachelor of Science erfolgreich ab. Den akademischen Grad Master of Art in der Fachrichtung Business Process Management erlangte die Autorin im Jahre 2017 im Rahmen eines nebenberuflichen Masterstudiums an der Fachhochschule Vorarlberg in Dornbirn.

weitere Bücher zum Thema

Bewerten und kommentieren

Bitte füllen Sie alle mit * gekennzeichenten Felder aus.