Sie sind hier
E-Book

Data Warehouse. Komponente der Business Intelligence und Qualitätsfaktor des Reportings

Komponente der Business Intelligence und Qualitätsfaktor des Reportings

AutorSimon Schäfer
VerlagGRIN Verlag
Erscheinungsjahr2009
Seitenanzahl88 Seiten
ISBN9783640290949
FormatPDF/ePUB
Kopierschutzkein Kopierschutz
GerätePC/MAC/eReader/Tablet
Preis34,99 EUR
Bachelorarbeit aus dem Jahr 2009 im Fachbereich BWL - Unternehmensforschung, Operations Research, Note: 1,0, Ruhr-Universität Bochum, 46 Quellen im Literaturverzeichnis, Sprache: Deutsch, Abstract: Im Zeitalter der Informationstechnik hat sich die Masse an Daten und Informationen, denen wir tagtäglich begegnen oder die uns verfügbar gemacht werden, immense Ausmaße angenommen. Die Quantität dieser Daten - insbesondere im Business Umfeld - kennt kaum Grenzen und immer wieder eröffnen sich neue Datenquellen aus denen wichtige Informationen gewonnen werden können. Doch wie sieht es mit der Qualität dieser Daten aus? Betrachtet man das Controlling eines multinationalen Unternehmens, erkennt man schnell, dass hier Datenströme aus den unterschiedlichsten Quellen mit den unterschiedlichsten Strukturen, Volumina und Qualitäten auflaufen. Diese Daten manuell zu strukturieren, zu vereinheitlichen, zu transformieren, zu analysieren, zu speichern und schließlich zu kommunizieren, ist eine Aufgabe, die einfach nicht mehr realisierbar ist. Selbst moderne Tabellenkalkulationen oder operative Datenbanksysteme stoßen so schnell an ihre Grenzen. Es wird ein Umfeld bzw. System benötigt, welches diesen Ansprüchen gerecht wird. Ein Business Intelligence Umfeld mit einem zentralen Data Warehouse kann vielen dieser Anforderungen mehr als gerecht werden. Die neu aufgestellte Datenbasis steht dem gesamten Unternehmen zur Verfügung und führt so zu einer Vereinheitlichung der Datenstrukturen sowie deren Semantik. Eine funktionierende Business Intelligence erlaubt dem Unternehmen in kürzester Zeit, hochaktuelle Informationen und dynamische Berichte zu generieren, um flexibel am Markt agieren zu können. Komplexe Data Mining Anwendungen finden Muster in den Daten, um Geschäftsprozesse zu optimieren, die verborgenen Wünsche des Kunden aufzudecken oder völlig neue Geschäftsmodelle zu entwickeln. Ziel dieser Arbeit ist es, einen fundierten Überblick über die Bedeutung der Business Intelligence, des Data Warehouse sowie dem Reporting in diesem Umfeld zu geben und am Ende mögliche Umsetzungsmöglichkeiten zu demonstrieren.

Kaufen Sie hier:

Horizontale Tabs

Leseprobe

3 Das Data Warehouse


 

3.1 Konzept des Data Warehouse


 

Das grundlegende Konzept eines Data Warehouse wurde von W.F. Inmon erst 1993 aufgestellt und definiert. Bereits in der Einleitung des Kapitels „The Data Warehouse Environment“ seines Werks „Building the Data Warehouse“ stellt er mit der Aussage „[…] data warehouse is a subject-oriented, integrated, nonvolatile, and time-variant collection of data in support of management’s decisions.[…]“ fest, welche Anforderungen an die Datenhaltung gestellt werden sollten.[27]

 

Subjektorientiert: Meist werden Daten nach einem speziellen Muster bzw. einer speziellen Struktur in den einzelnen Datenbanken oder Datenbeständen abgelegt. Diese Strukturen erhalten die Daten, weil sie sehr stark an die Bedürfnisse der Anspruchsgruppen oder auch die Prozessabläufe des Unternehmens angelehnt sind.[28] Für eine entsprechende Möglichkeit der Weiterverarbeitung und des Verständnisses ist diese Vorgehensweise durchaus berechtigt. Soll jedoch ein Data Warehouse aufgebaut und die entsprechenden Datenbestände generiert werden, so ist diese Orientierung an die Prozesse oder Bedarfsanmelder des Unternehmens die falsche Herangehensweise. Da die Daten nicht nur von einer Person, Anspruchsgruppe oder einem Prozess genutzt werden, ist es wichtig bei der Strukturierung der Daten die Orientierung auf die Datenbestände selbst zu legen.[29]

 

Integriert: Eine integrierte Datenstruktur wird dadurch erreicht, dass die Datenbestände innerhalb des Data Warehouse keine Redundanzen aufweisen und auch keine Inkonsistenzen bestehen. Durch eine Vereinheitlichung der Datenstrukturen im Rahmen des Transformationsprozesses und der einhergehenden Beseitigung von Disharmonien wird diesem Umstand Rechnung getragen.[30] An dieser Stelle sei auf das Metadatenmanagement verwiesen, welches eine hilfreiche Rolle bei der Schaffung einer integrierten Datenstruktur spielt.

 

Nicht-Volatil: Die Nicht-Volatilität der Daten bezeichnet eine gewisse Persistenz, da eine Abfrage, die man beispielsweise vor einem Monat ausgeführt hat, im nächsten Monat zum gleichen Ergebnis führen sollte. Nutzer des Data Warehouse sollten daher wenn möglich nur reine Leserechte bei der Verwendung der Datenbestände haben. Nur so kann sichergestellt werden, dass die Daten dauerhaft Bestand haben.[31] Ausnahmen sind hier sicherlich spät erfolgte Korrekturbuchungen in den operativen Systemen, die noch nicht im Data Warehouse erfasst worden sind.

 

Zeitraum bezogen: Operative Systeme, die auf dem OLTP basieren, zeichnen sich dadurch aus, dass sie Daten zeitpunktbezogen speichern. Ein Zugriff auf operative Daten, um einen Zeitraum abzudecken, ist daher nicht zu empfehlen. Auf der einen Seite sind Daten über längere Zeiträume gar nicht in den operativen Systemen vorhanden und auf der anderen Seite würde die Aggregation der einzelnen Zeitpunktdaten viel länger dauern und zudem noch die Performanz der operativen Systeme belasten. Die Strukturen in einem Data Warehouse sind also so zu planen, dass die Datenhaltung zeitraumbezogen stattfinden kann.[32]

 

Trotz dieser Grunddefinition mit den abgeleiteten Anforderungen kommt es häufig vor, dass der Begriff des Data Warehouse wortwörtlich mit „Datenwarenhaus“ übersetzt wird und so völlig andere Interpretationen in der Praxis entstehen lässt.[33] Eine bessere Definition liefern Hannig und Schwab, die das Data Warehouse als einen Datenvorrat von internen und externen Quellen ansehen, der die Basis für die nachfolgenden Informationssysteme stellt und somit eine Kernkomponente aller Data Warehouse Konzepte darstellt.[34]

 

3.2 Referenzarchitektur eines Data Warehouse


 

3.2.1 Aufbau der Architektur


 

Im 2. Kapitel wurde ein idealtypisches Umfeld einer BI Plattform behandelt und festgehalten, dass es sich um häufig vorkommende Komponenten handelt, die jedoch nicht zwangsläufig implementiert werden müssen. Auch gibt es keine allgemein gültige und akzeptierte Definition, die den Objektumfang eines BI Systems beschreibt. Bei einem Data Warehouse – eine der Kernkomponenten der BI – hat sich jedoch eine gewisse Referenzarchitektur entwickelt, die im Großen und Ganzen von der Fachwelt akzeptiert wird.[35] Die nachfolgende Abbildung stellt diese Referenzarchitektur grafisch dar und zeigt zudem die unterschiedlichen Informationsflüsse auf, die innerhalb der Data Warehouse Architektur eingeleitet werden. Da auch die Open Source Lösungen von dieser Referenzarchitektur ausgehen, wird die Abbildung nachfolgend noch näher erläutert.

 

Abbildung 6: Referenzarchitektur eines Data Warehouse

 

Quelle: Eigene Darstellung in Anlehung an Navrade (2008), S. 15.

 

Intern besitzt das Data Warehouse auf der einen Seite die Datenbestände oder auch Operanden. Diese werden innerhalb des Schemas als dunkelblaue Zylinder dargestellt. Die hellblauen Rechtecke mit den abgerundeten Kanten bezeichnen verschiedene Prozesse und werden daher auch Operatoren genannt. Operanden und Operatoren stehen in der Referenzarchitektur untereinander in zwei möglichen Varianten in Beziehung. Diese Beziehungen werden auf der einen Seite mit den durchgezogenen Linien illustriert, die den Datenfluss markieren und auf der anderen Seite mit den unterbrochenen Linien, welche für die Kontroll- und Steuerungsflüsse stehen.

 

3.2.2 Datenquellen


 

Im vorigen Kapitel wurde bereits der ETL-Prozess als Teil der BI Umgebung angesprochen. Dieser wird hier noch einmal auf eine andere Weise dargestellt. Ausgehend von einer Datenquelle wird hier der ETL-Prozess als Datenfluss eingeleitet, der durch die Extraktion in den Arbeitsbereich (staging area) gelangt und zusätzlich an den Metadatenmanager gesendet wird. Das Metadatenmanagement ist für die Beschreibung der Daten innerhalb des Data Warehouse verantwortlich und benötigt daher ebenfalls den Datenfluss, um über die einzelnen Phasen des ETL-Prozesses informiert zu werden. Der Monitor überwacht diesen Prozess und prüft, ob neue Datenquellen verfügbar sind oder sich die Struktur von bereits bekannten Datenquellen verändert hat. Die Prüfung nach der Änderung von Inhalten zählt primär nicht dazu, da bereits vorab festgelegt wird, in welchen Zeitabständen die Aktualisierungen des DW durchgeführt werden.[36] Bei Auffälligkeiten meldet er dies an den Data Warehouse Manager weiter, der die Extraktions- und Transformationsprozesse entsprechend neu erstellen bzw. anpassen kann.[37]

 

3.2.3 Metadatenmanager und Repositorium


 

Neben grundlegenden Informationen über die Daten, wie z.B. deren Struktur, Format oder Inhalt, werden im Metadatenmanagement auch noch Informationen über diese Daten gespeichert, die eher mit deren Anwendung zu tun haben, wie z.B. auf welche Transformationsregeln zurückgegriffen wird sowie für welche Systeme oder Auswertungen diese benötigt werden.[38] Idealerweise werden sämtliche Metadaten in einem zentralen Repository (Repositorium) abgelegt, auf welches nicht nur der Metadatenmanager, sondern auch andere Bezugspersonen zugreifen können, um Datenstrukturen besser zu verstehen oder aus ihnen bestimmte Schlussfolgerungen ziehen zu können.[39]

 

Problematisch wird es, wenn kein zentrales Repository verwendet wird, sondern einzelne Anwendungen oder Funktionsbereiche eigene Repositorys aufstellen und verwalten. Hier muss der Metadatenmanager dafür Sorge tragen, dass die Datendefinitionen innerhalb der Repositorys einheitlich sind und dass er entsprechende Werkzeuge bereithält, die über verschiedene Versionen der Metadaten in den einzelnen Repositorys informieren. Um diese Problematik zu vermeiden, wurde von der Object Management Group der „Common Warehouse Metamodel“ Standard entwickelt, der es ermöglichen soll, Metadaten applikationsübergreifend auszutauschen.[40] Als weitere Aufgaben des Metadatenmanagers werden die Steuerung und Administration der Benutzerzugriffe sowie die Zurverfügungstellung von Analyse- und Entwicklungswerkzeugen genannt.[41]

 

3.2.4 Arbeitsbereich


 

Im Arbeitsbereich werden nun die einzelnen Transformationsschichten abgearbeitet, die über den Data Warehouse Manager bzw. dem Metadatenmanager initiiert worden sind. Nach Abschluss des Prozesses wird der bereinigte Datenbestand mit dem Operator „Laden“ in die Basisdatenbank übertragen und steht somit erstmals der Phase der Datenhaltung zur Verfügung....

Blick ins Buch

Weitere E-Books zum Thema: Prozessmanagement - Geschäftsprozesse

ITILV2, ITILV3 und ISO/IEC 20000

E-Book ITILV2, ITILV3 und ISO/IEC 20000
Gegenüberstellung und Praxisleitfaden für die Einführung oder den Umstieg Format: PDF

ITIL® UND ISO/IEC 20000 IM GRIFF - IN JEDEM FALL - Lassen Sie sich gezielt bei einer Einführung von ITIL® oder einem Wechsel von ITIL® V2 zu V3 oder zu ISO/IEC 20000 unterstü…

Konsum, Dividenden und Aktienmarkt

E-Book Konsum, Dividenden und Aktienmarkt
Eine Kointegrationsanalyse Format: PDF

Yvonne Seiler erörtert im Rahmen einer empirischen Analyse den Zusammenhang zwischen Konsum, Dividenden und Marktkapitalisierung mittels Kointegration und zeigt so eine gegenüber den herkömmlich…

Erfolgreiches Beschwerdemanagement

E-Book Erfolgreiches Beschwerdemanagement
Wege zu Prozessverbesserungen und Kundenzufriedenheit Format: PDF

Eine Kundenbeschwerde als zunächst einmal unangenehmes Ereignis kann Ausgangspunkt für beachtliche Qualitätsschübe innerhalb eines Unternehmens sein. Damit sowohl die Kunden als auch die…

Prognoserechnung

E-Book Prognoserechnung
Format: PDF

Mit diesem Buch liegen kompakte Beschreibungen von Prognoseverfahren vor, die vor allem in Systemen der betrieblichen Informationsverarbeitung eingesetzt werden. Praktiker mit langjähriger…

Informationsgehalt von Credit Ratings

E-Book Informationsgehalt von Credit Ratings
Eine empirische Analyse europäischer Aktien- und Anleihemärkte Format: PDF

Steffen Hundt analysiert erstmals den europäischen Wandelanleihemarkt. Aufgrund der spezifischen Stichprobenkomposition werden darüber hinaus Intensitätsvergleiche zwischen verschiedenen…

Konsum, Dividenden und Aktienmarkt

E-Book Konsum, Dividenden und Aktienmarkt
Eine Kointegrationsanalyse Format: PDF

Yvonne Seiler erörtert im Rahmen einer empirischen Analyse den Zusammenhang zwischen Konsum, Dividenden und Marktkapitalisierung mittels Kointegration und zeigt so eine gegenüber den herkömmlich…

Weitere Zeitschriften

Bibel für heute

Bibel für heute

BIBEL FÜR HEUTE ist die Bibellese für alle, die die tägliche Routine durchbrechen wollen: Um sich intensiver mit einem Bibeltext zu beschäftigen. Um beim Bibel lesen Einblicke in Gottes ...

Correo

Correo

 La Revista de Bayer CropScience para la Agricultura ModernaPflanzenschutzmagazin für den Landwirt, landwirtschaftlichen Berater, Händler und am Thema Interessierten mit umfassender ...

crescendo

crescendo

Die Zeitschrift für Blas- und Spielleutemusik in NRW - Informationen aus dem Volksmusikerbund NRW - Berichte aus 23 Kreisverbänden mit über 1000 Blasorchestern, Spielmanns- und Fanfarenzügen - ...

Das Grundeigentum

Das Grundeigentum

Das Grundeigentum - Zeitschrift für die gesamte Grundstücks-, Haus- und Wohnungswirtschaft. Für jeden, der sich gründlich und aktuell informieren will. Zu allen Fragen rund um die Immobilie. Mit ...

Die Versicherungspraxis

Die Versicherungspraxis

Behandlung versicherungsrelevanter Themen. Erfahren Sie mehr über den DVS. Der DVS Deutscher Versicherungs-Schutzverband e.V, Bonn, ist der Interessenvertreter der versicherungsnehmenden Wirtschaft. ...