Sie sind hier
E-Book

Handbuch Data Science

Mit Datenanalyse und Machine Learning Wert aus Daten generieren

AutorBernhard Ortner, Georg Langs, Mario Meir-Huber, Rania Wazir, Stefan Papp, Wolfgang Weidinger
VerlagCarl Hanser Fachbuchverlag
Erscheinungsjahr2019
Seitenanzahl288 Seiten
ISBN9783446459755
FormatPDF/ePUB
KopierschutzWasserzeichen
GerätePC/MAC/eReader/Tablet
Preis31,99 EUR
•Umfassender Überblick über die verschiedenen Anwendungsfelder von Data Science
•Fallbeispiele aus der Praxis machen die beschriebenen Konzepte greifbar
•Vermittelt das notwendige Wissen, um einfache Datenanalyse-Projekte durchzuführen
Dieses Buch bietet Ihnen einen Überblick über die verschiedenen Aspekte von Data Science und beschreibt, welchen Wert Sie in einer Big Data-Umgebung aus Daten generieren. So können z. B. Unternehmen auf Basis analysierter Daten schneller Entscheidungen treffen, Kosten reduzieren oder neue Märkte erschließen.
Das Buch nähert sich dem Thema Data Science von mehreren Seiten. Zum einen zeigt es, wie Sie Big Data-Plattformen aufbauen und einzelne Tools auf Daten anwenden. Darüber hinaus werden statistisch-mathematische sowie rechtliche Themen angeschnitten. Abgerundet wird das Buch mit Fallbeispielen aus der Praxis, die veranschaulichen wie aus Daten generiertes Wissen unterschiedliche Industrien nachhaltig verändert. Nach der Lektüre des Buches wird der Leser in der Lage sein, einfache Datenanalyse-Projekte durchzuführen.
EXTRA: E-Book inside. Systemvoraussetzungen für E-Book inside: Internet-Verbindung und Adobe-Reader oder Ebook-Reader bzw. Adobe Digital Editions.

Stefan Papp ist selbstständiger Berater und auf Big Data-Technologien spezialisiert mit denen er Daten aufbereitet und analysiert. Außerdem unterrichtet er an Fachhochschulen, arbeitet als Hadoop-Trainer und schreibt Fachbücher sowie Artikel für mehrere Fachzeitschriften.
Wolfgang Weidinger ist Präsident der Vienna Data Science Group (www.vdsg.at), einer gemeinnützigen Vereinigung von und für Data Scientists. Er hat als Data Scientist in den verschiedensten Branchen und Bereichen wie Start-Ups, Finanzwirtschaft, Consulting und Großhandel gearbeitet und dort unter anderem Data-Science-Teams aufgebaut und geleitet.
Mario Meir-Huber leitet die Daten-, Analytics- und AI-Strategie innerhalb der A1 Telekom Austria Group. Ein weiterer Schwerpunkt seiner Arbeit sind Advanced Analytics.
Bernhard Ortner arbeitet derzeit als Berater im Bereich Big Data- und Cloud-Architekturen. Seine Tätigkeit umfasst dabei die Adaption vorhandener Prozesse um BigData und das Etablieren von Big-Data-Standards und Best Practices.
Georg Langs ist Assoz. Professor an der Medizinischen Universität Wien und leitet dort das Computational Imaging Research Lab der Universitätsklinik für Radiologie und Nuklearmedizin. Er ist Mitgründer des Spin-offs contextflow GmbH, das Software für AI-basierte Bildsuche entwickelt.
Rania Wazir ist Mathematikerin und arbeitet als Consulting Data Scientist im Bereich Natural Language Processing. Darüber hinaus ist sie Co-Organisatorin der data4good-Initiative des VDSG, die Vorzüge und potenzielle Nachteile der Digitalisierung, u. a. durch Vorträge und Hackathons, einem breiteren Publikum vermittelt.

Kaufen Sie hier:

Horizontale Tabs

Leseprobe
2Grundlagen Datenplattformen

Stefan Papp

„Perfektion ist nicht dann erreicht, wenn es nichts mehr hinzuzufügen gibt,
sondern wenn man nichts mehr weglassen kann.“ – Antoine de Saint-Exupéry

 

Ziel von Data-Science-Initiativen in Organisationen ist es, Wert aus Daten zu generieren. Der generierte Nutzen liegt im Regelfall darin mit neuen Erkenntnissen

       Kosten zu reduzieren,

       schnellere Entscheidungen zu treffen und

       neue Märkte zu erschließen.

Bevor mit Machine- und Deep-Learning-Algorithmen aus Daten neue, wertvolle Erkenntnisse gewonnen werden können, müssen die Daten aufbereitet werden. In der Praxis gibt es immer wieder Entscheider in Firmen, die sich erhoffen, dass für diesen ersten Schritt so gut wie kein Aufwand nötig ist, dass mit den Daten alles passt, und dass die neu rekrutierten Data Scientists, die so nebenbei ins sonstige Low-Cost-Gehaltschema des Unternehmens passen, nur mit der Arbeit beginnen müssen. Diese Superhirne – mitunter stellt man sie sich als Geeks mit Hornbrillen vor – schauen sich dann zwei oder drei Tage die Daten an und präsentieren Erkenntnisse, die das Geschäft für immer revolutionieren werden. Das Top-Management wird reich, das Unternehmen floriert und der Data Scientist kriegt – weil er brav war – ein Fahrrad geschenkt, damit er gesund bleibt, wenn er künftig ins Büro radelt.

„Quick Wins“, also Situationen, in denen Data Scientists beim erstmaligen Explorieren der Daten bereits merkbare Erkenntnisse liefern können, kommen vor, sind aber äußerst selten. In der Realität haben die meisten Firmen mit konventionellen analytischen Verfahren schon einen Großteil der Innovationsmöglichkeiten abgegrast. Über die Jahre haben sich Analysten bereits den Kopf darüber zerbrochen, wie man Umsätze optimieren und Kosten reduzieren kann. Daher sind durch analytische Auswertungen, die im Regelfall mit BI-Methoden durchgeführt werden, keine wesentlichen Verbesserungen zu erwarten.

Wir werden in den nachfolgenden Kapiteln zeigen, dass es neue Analyse-Methoden gibt, die meist mit dem Begriff „Big Data“ zusammengefasst werden. Bisher ignorierte Datenquellen können mithilfe künstlicher Intelligenz erforscht werden. Unternehmen, die sich Wettbewerbsvorteile verschaffen wollen, sollten von diesen Möglichkeiten Gebrauch machen, um am Markt zu bestehen. Wir werden auch darauf eingehen, dass der Erfolg vieler dieser Projekte nicht garantiert ist.

Armand Ruiz beschreibt in einem Artikel das „80/20 Data Science Dilemma“1: 80 % der Zeit fließen in die Datenaufbereitung, aber nur 20 % in die Analyse. Diese Zahlen können variieren, im Internet kann man hierzu zahlreiche Studien und Meinungen finden. Ein wesentlicher Faktor für die Dauer der Aufbereitung von Daten ist die Qualität der Quelldaten.

Eine Datenplattform muss neben der Eignung zur erwähnten Aufbereitung der Daten auch noch weitere Anforderungen erfüllen. Sie muss robust sein, damit Daten nicht verloren gehen. Ebenso müssen die Daten vor unbefugtem Zugriff geschützt werden und die Datenplattform muss den Datenschutzrichtlinien entsprechen.

Die Tätigkeit, aus Daten Wert zu generieren, kann in unterschiedlicher Weise betrachtet werden. Die in Kapitel 1 vorgestellten Rollen in einem Team sind eine Möglichkeit Bereiche zu kategorisieren. In diesem Zusammenhang wurde schon ausgeführt, dass die Datenverarbeitung mehrere Phasen durchläuft.

Bild 2.1 Schichten einer Datenplattform

In Bild 2.1 sind die Schichten einer Datenplattform dargestellt. Im Folgenden werden wir das technische Fundament von Data-Science-Projekten beschreiben, und zwar bottom-up von den Hardwaregrundlagen bis zu den APIs, welche von den Data Scientists verwendet werden. Wem diese Abschnitte zu technisch sind, der kann gerne einzelne Sektionen überspringen. Das Verständnis der Grundlagen kann für Data Scientists aber von Vorteil sein, damit sie besser verstehen, wie ihre Modelle skalierbar gemacht werden können.

Der erste Blick gilt den Hardware- und Operating-System-Grundlagen. Wir müssen die Hardwaresysteme so konfigurieren, dass sie den Anforderungen genügen und der operative Betrieb sichergestellt ist. Da diese Schicht nur das technische Fundament einer Datenplattform ist, gibt es – anders als bei den restlichen Schichten – keine Referenz auf den Begriff Data. Wir bezeichnen diesen Bereich als Systems Engineering.

Die logische Ebene oberhalb des Systems Engineering ist die Data Platform. Die Datenplattform umfasst alle Softwarekomponenten, die nötig sind, um Daten auf mehreren Knoten verteilt zu speichern. Wir werden dabei Object Storage, DFS (Distributed File System) und MPP (Massive Parallel Processing) miteinander vergleichen. Wir werden auch zeigen, dass es die datenlegende Wollmilchsau nicht gibt. Für spezifische Anforderungen gibt es spezifische Lösungen, die je nach Industrie unterschiedlich sein können.

Oberhalb der Data Platform befindet sich die Schicht des Data Engineerings. Diese Disziplin beschreibt die Prozesse, wie Daten für analytische Zwecke aufbereitet werden. Wir werfen dabei einen Blick auf Verarbeitungskonzepte wie Streaming und Batch. Zum Data Engineering gehören auch Programmiersprachen, CI/CD und andere Themen, die die Verarbeitung von Daten unterstützen.

Bild 2.2 Zonen-Diagramm einer Datenarchitektur

Bild 2.2 stellt verschiedene Bausteine einer Datenarchitektur dar und gliedert sie in mehrere Ebenen. Die konkrete Implementierung kann sich je nach Anforderungen unterscheiden.

Abgesehen von der Frage, wie Daten effizient für analytische Zwecke aufbereitet werden, gibt es auch weitere Faktoren, die das Data Engineering und eine Daten-Architektur beeinflussen können.

       Data Governance: Diese Disziplin beschreibt, wie Daten verwaltet werden müssen, um regulativen Vorgaben zu entsprechen. Data Governance spielt speziell in Branchen mit hohen gesetzlichen Auflagen (z. B. Banken) eine große Rolle.

       Data Security: Diese Disziplin stellt sicher, dass Daten vor unbefugtem Zugriff geschützt sind. Man kann sie weiter in Plattformsicherheit (Schutz vor unbefugtem Zugriff auf die Plattform durch z. B. Hackerangriffe) und Datensicherheit (Schutz vor unbefugtem Zugriff auf Daten durch auf die Plattform autorisierte Anwender) unterteilen. Data Security kann auch in Data-in-Rest und Data-in-Motion kategorisiert werden. Data-in-Rest repräsentiert die Sicherheit abgelegter Daten, Data-in-Motion sichert die Datenübertragung ab.

       Data Monetisation: Oftmals wird Data Science getrennt von analytischen Anwendungsfällen betrachtet, mit denen Unternehmen Wert generieren wollen. Unternehmen sprechen beispielsweise vom „Churn Business Case“, um zu beschreiben, wie sie Daten erforschen wollen, die Erkenntnisse bringen sollen, welche Kunden mit welcher Wahrscheinlichkeit ein Abonnement stornieren werden. Data Scientists hingegen sprechen von Regressionsmodellen, um diese Kunden zu identifizieren. Die funktionalen Anforderungen an den „Business Case“ (z. B. wie schnell die Informationen den Sachbearbeitern zur Verfügung stehen müssen), wirken sich auch aufs Engineering aus. In Kapitel 9 gehen wir auf einzelne Anwendungsfälle im Detail ein.

2.1Anforderungen

Der bekannte IT-Evangelist Martin Fowler prägte den Begriff der polyglotten IT-Landschaften.2 Dieses Prinzip sagt aus, dass die unterschiedlichen Anforderungen an IT-Landschaften mit ihrem Innovationsgrad wachsen und verschiedene Systeme spezifische Herausforderungen lösen, aber kein System ein Allheilmittel für alle Probleme ist. Werkzeuge, die sich für spezifische Anwendungsfälle eignen, können für andere Anwendungsfälle unpassend sein.

Bild 2.3 Polyglotte Speicherung (Polyglot Persistence)

Veranschaulichen wir das Prinzip der polyglotten Datenwelt anhand eines praktischen Referenzbeispiels: Ihnen sind Caches und relationale Datenbanken vermutlich zumindest vom Namen her ein Begriff. In beiden Speicherarten könnten Daten abgelegt werden. Stellen Sie sich nun vor, Sie haben die Aufgabe folgende Daten zu speichern:

       Kundenstammdaten,

       Ergebnisse einer Auswertung, die temporär für andere Systeme bereitstehen müssen.

Würden Sie die Kundenstammdaten in den Cache und die Zwischenergebnisse in die relationale Datenbank speichern? Wohl kaum. Sie würden sicher den Cache nur für temporäre Daten als Zwischenspeicher nutzen und die Kundenstammdaten in die Datenbank legen.

Caches und Datenbanken sind vielleicht die augenscheinlichsten Bausteine, um die Unterschiede verschiedener Formen von Datenspeicherung zu verdeutlichen.

Geht man einige Ebenen tiefer, so kann man relationale Datenbanken NoSQL-Datenbanken gegenüberstellen. Für stark strukturierte Daten, wie Kundenstammdaten, werden Sie vermutlich weiterhin eine relationale Datenbank verwenden, aber was ist, wenn Sie beispielsweise semi-strukturierte Daten im JSON-Format erhalten oder wenn Sie Daten erhalten, die aus Schlüssel und Wert-Paaren gebildet werden? Dann gibt es dazu...

Blick ins Buch

Weitere E-Books zum Thema: Informatik - Algorithmen - Softwaresysteme

Softwaretechnik

E-Book Softwaretechnik
Format: PDF

Software-Projekte geraten oft in Schwierigkeiten: Zeit und Budget werden überschritten; das Projekt tritt auf der Stelle; im schlimmsten Fall wird es ohne Ergebnis abgebrochen. Manche…

Softwaretechnik

E-Book Softwaretechnik
Format: PDF

Software-Projekte geraten oft in Schwierigkeiten: Zeit und Budget werden überschritten; das Projekt tritt auf der Stelle; im schlimmsten Fall wird es ohne Ergebnis abgebrochen. Manche…

Softwaretechnik

E-Book Softwaretechnik
Format: PDF

Software-Projekte geraten oft in Schwierigkeiten: Zeit und Budget werden überschritten; das Projekt tritt auf der Stelle; im schlimmsten Fall wird es ohne Ergebnis abgebrochen. Manche…

Software Engineering

E-Book Software Engineering
Architektur-Design und Prozessorientierung Format: PDF

Das Lehrbuch behandelt alle Aspekte der Software-Entwicklung, besonders aber Methoden und Richtlinien zur Herstellung großer und qualitativ hochwertiger Softwareprodukte. Es vermittelt das zur…

Software Engineering

E-Book Software Engineering
Architektur-Design und Prozessorientierung Format: PDF

Das Lehrbuch behandelt alle Aspekte der Software-Entwicklung, besonders aber Methoden und Richtlinien zur Herstellung großer und qualitativ hochwertiger Softwareprodukte. Es vermittelt das zur…

Weitere Zeitschriften

Archiv und Wirtschaft

Archiv und Wirtschaft

"Archiv und Wirtschaft" ist die viermal jährlich erscheinende Verbandszeitschrift der Vereinigung der Wirtschaftsarchivarinnen und Wirtschaftsarchivare e. V. (VdW), in der seit 1967 rund 2.500 ...

Baumarkt

Baumarkt

Baumarkt enthält eine ausführliche jährliche Konjunkturanalyse des deutschen Baumarktes und stellt die wichtigsten Ergebnisse des abgelaufenen Baujahres in vielen Zahlen und Fakten zusammen. Auf ...

caritas

caritas

mitteilungen für die Erzdiözese FreiburgUm Kindern aus armen Familien gute Perspektiven für eine eigenständige Lebensführung zu ermöglichen, muss die Kinderarmut in Deutschland nachhaltig ...

Computerwoche

Computerwoche

Die COMPUTERWOCHE berichtet schnell und detailliert über alle Belange der Informations- und Kommunikationstechnik in Unternehmen – über Trends, neue Technologien, Produkte und Märkte. IT-Manager ...

DGIP-intern

DGIP-intern

Mitteilungen der Deutschen Gesellschaft für Individualpsychologie e.V. (DGIP) für ihre Mitglieder Die Mitglieder der DGIP erhalten viermal jährlich das Mitteilungsblatt „DGIP-intern“ ...

Die Versicherungspraxis

Die Versicherungspraxis

Behandlung versicherungsrelevanter Themen. Erfahren Sie mehr über den DVS. Der DVS Deutscher Versicherungs-Schutzverband e.V, Bonn, ist der Interessenvertreter der versicherungsnehmenden Wirtschaft. ...

rfe-Elektrohändler

rfe-Elektrohändler

rfe-Elektrohändler ist die Fachzeitschrift für die CE- und Hausgeräte-Branche. Wichtige Themen sind: Aktuelle Entwicklungen in beiden Branchen, Waren- und Verkaufskunde, Reportagen über ...

Euro am Sonntag

Euro am Sonntag

Deutschlands aktuelleste Finanz-Wochenzeitung Jede Woche neu bietet €uro am Sonntag Antworten auf die wichtigsten Fragen zu den Themen Geldanlage und Vermögensaufbau. Auch komplexe Sachverhalte ...