Big Data – Marketing-Hype oder echter Mehrwert?

Alles nur heiße Luft? Oder müssen sich Unternehmen strategisch auf Big Data einstellen? Wir haben fünf Experten aus unterschiedlichen Bereichen zu einer Diskussionsrunde zum Thema Big Data eingeladen.

Stefan Sexl: Wenn man den Business Itelligence oder Data Warehouse Markt beobachtet, ist das Thema Skalierung seit Jahren ein Marketing-Schlachtfeld der Anbieter, die versuchen, sich in Terabyte und Petabyte gegenseitig zu übertrumpfen. Jetzt kommt die Big Data Welle – was ist eigentlich neu an dem Thema?

Wolfgang Martin: Das Thema ist in der Tat nicht neu, aber es ist jetzt neu hochgekommen. Es ist vor allen Dingen im Augenblick noch ein technologisches Thema, das ganz vorsichtig in Richtung Business getrieben wird. Inhaltlich geht es um die berühmten drei V: Volume, Variety und Velocity. Mit Volume ist das riesige Datenvolumen gemeint. In 2012 rechnet man mit einer Neuproduktion an Daten – also ein Plus auf das bereits Vorhandene – in einem Umfang von 2,5 Zettabyte. Variety steht für die Vielzahl der Quellen. Neben den sozialen Medien gehören dazu die ganzen Lokalisierungsdaten des mobilen Internet, aber auch von Ablesegeräten und Sensoren. Die dritte Komponente, Velocity, deckt das Bedürfnis ab, all diese Daten jetzt und in Echtzeit analysieren zu wollen.

Neben Volumen, Variety und Velocity sehe ich grundsätzlich auch noch den steigenden Bedarf an Analytik im Unternehmen. Diese vier Charakteristika machen Big Data aus und sind jetzt erst so richtig aufgekommen, weil wir über entsprechende Technologien verfügen, die wir vorher einfach nicht hatten. Sowohl Technologien, die Big Data erzeugen, als auch Technologien, um mit dem Volumen, der Quellenvielzahl und der Realtime-Anforderung auch tatsächlich umgehen zu können.

Thomas Zeutschler
: Big Data ist für mich ein eher technischer Begriff, mit dem man im Business-Kontext gar nichts anfangen kann. Das mag daran liegen, dass es viele Unternehmen gibt – und dazu zähle ich auch Henkel – die gar kein Big Data-Problem haben. Wir bei Henkel haben derzeit Data Warehouse-Technologien, mit denen wir 70, 80 Terabyte wunderbar handhaben können. Die großen, unstrukturierten Datenströme, bei denen Big Data seine Stärken ausspielt, haben wir überhaupt nicht. Natürlich gibt es im Umfeld Marketing und Werbung sehr, sehr viele Informationen. Aber hier stellt sich die Frage: Will ich diese Informationen selber haben, oder genügt es mir, sie über einen Service zu beziehen? Ob die dann Big Data machen oder alles auf einen Zettel schreiben, ist zunächst einmal völlig irrelevant.

Und ich gebe zu bedenken, dass bereits seit Ewigkeiten Kassensysteme existieren, die genau verfolgen, wann wo welcher Kunde vor Ort ist, diese Informationen mit Abverkaufsraten verknüpfen und daraus eine automatische Personaleinsatzplanung für die nächste Woche generieren. Insofern ist die Frage berechtigt, was an Big Data denn tatsächlich neu ist. Die Technologie und was damit gemacht werden kann, ist absolut faszinierend. Aber man muss genau schauen, was ist jetzt Hype und was führt zu höherer Marge oder verbesserten Abläufen im Unternehmen.

Alexei Khalyako
: Aus meiner Sicht läuft die ganze Diskussion über Big Data nicht in die richtige Richtung. Lediglich eine viel größere Speicherkapazität zu haben, ist nicht Big Data. Es ist das gleiche Storage-Modell wie früher, wenn auch größer, aber das Konzept an sich hat sich nicht geändert. Dabei spielt auch eine Rolle, um welche Art von Daten es sich hierbei handelt: Unstrukturierte, komplexe Daten wie Weblogs, aber auch Mess- und seismische Daten. Charakteristisch für diese oftmals maschinell produzierten Daten sind ein hoher Detailierungsgrad und eine höhere Frequenz bei der Bereitstellung der Informationen. Natürlich ist in diesem Zusammenhang eine größere Speicherkapazität gefragt. Aber das alleine greift zu kurz. Man darf die Komplexität bei der notwendigen Überführung, vor allem einer schnellen Überführung, in ein relationales Modell nicht außer Acht lassen. Um die Daten letztendlich auch analysieren zu können, gilt es also noch andere, wesentlich wichtigere Aspekte in den Kontext Big Data miteinzubeziehen.

Gernot Molin: Die ganze Big Data-Story kommt meiner Meinung nach aus dem Bereich der Search Engines & Social Media Plattformen. Neben der Tatsache, dass dort generell viel mehr Daten entstehen, gibt es auch erste Erfolgsbeispiele: Unternehmen, die bewiesen haben, dass sich mit dieser Technik irrsinnig viel Geld verdienen lässt, wenn es gelingt, Massendaten sinnvoll in einen Mehrwert zu übersetzen. Hier liegt auch der Unterschied zur klassischen Business Intelligence Welt, wo erst die Strukturen der Analysesysteme aufgebaut werden, bevor man sie mit Daten befüllt und analysiert. Die Lösung wird also bis zu einem gewissen Grad am Reißbrett aufgebaut und die Fragen, die beantwortet werden sollen, müssen bereits im Vorfeld definiert werden. Bei Big Data ist hingegen eher der Ansatz zu beobachten, dass Daten vorerst einfach gesammelt und abgelegt werden können und später in unterschiedlichster Form analysiert werden können. Die Notwendigkeit, im Vorfeld logische und physische Datenmodelle zu definieren, besteht hier nicht.


Stefan Sexl: Wer sind die Nutznießer von Big Data?

Wolfgang Martin
: Der Nutzen, der heute von Unternehmen gesehen wird, betrifft vor allem die Bereiche Kundenorientierung, Customer Relationship Management und Customer Experience Management. Big Data erlaubt den Marketingleuten, ihre 360 Grad-Kundensicht zu einer 360 Grad-Marktsicht zu erweitern. Marketing profitiert im Moment am meisten davon. Und Marketing in Consumer-orientierten Unternehmen hatte schon immer eine starke Rolle, war auch sehr innovativ und technologisch ein Vorreiter. Ebendas sehen wir auch heute im Kontext von Big Data.

Gernot Molin: Big Data kommt bei der Interaktion zwischen Unternehmen mit ihren Kunden ins Spiel. Letztendlich geht es darum herauszufinden, was den Kunden bewegt und wie das Unternehmen die Kundenbedürfnisse besser erfüllen kann. Grundsätzlich können alle Abteilungen, die in diesen Prozess involviert sind, einen großen Vorteil aus Big Data ziehen, wenn Big Data es ermöglicht, bis dato verborgene Trends und Information zugänglich zu machen.

Mario Palmer-Huke: Letztlich wird der Stakeholder natürlich derjenige sein, der den größten Nutzen aus Big Data zieht. Das wird oft Marketing sein, kann aber nach meiner Erfahrung durchaus auch die Produktentwicklung oder der Vertrieb sein.

Alexei Khalyako: Wir haben bislang nur wenige Verwendungsszenarien gesehen. Der Finanzbereich braucht genaue Daten – das ist und bleibt ein ganz traditioneller BI-Bereich. Denkbar ist, dass Marketanalytiker von Big Data profitieren oder jemand, der für eine Webshop-Plattform und dort für die richtige Positionierung von Produkten verantwortlich ist.

Wolfgang Martin: Neben Kundendaten spielen auch Messdaten eine große Rolle. Beispielsweise profitiert alles, was proaktive Wartung betrifft, von Big Data. Ebenso lässt sich das Gesundheitswesen aufführen, Stichwort Krebsforschung. Zwar kommt einem immer zuerst Marketing in den Kopf, aber es gibt eine ganze Reihe von Stakeholdern in unterschiedlichen Feldern.

 
Stefan Sexl: Herr Palmer-Huke, Sie sind permanent in Kontakt mit vielen großen Kunden. Wo stehen die, was das Thema Big Data anbelangt? Lassen sich bestimmte Branchen identifizieren, die sich sehr engagieren? Wie sieht es denn tatsächlich in der Praxis aus?

Mario Palmer-Huke: Wenn sich überhaupt ein Trend ablesen lässt, dann sind es diejenigen Firmen, die bereits bei anderen Wellen wie dem klassischen Enterprise Data Warehouse oder Business Intelligence als Pioniere unterwegs waren. Ansonsten lässt sich das nicht an einzelnen Branchen festmachen. Das Feld ist sehr heterogen, und ob ein Unternehmen auf der Big Data-Welle mitreitet, ist vor allem unternehmenskulturgetrieben.

Interessanterweise sehe ich vereinzelt auch Firmen, die sich bis vor einigen Jahren nie als Vorreiter bei solchen Technologiethemen hervorgetan haben, inzwischen als ziemlich innovativ in einigen Teilbereichen von Big Data. Das liegt meines Erachtens daran, dass sich solche Ansätze relativ einfach –will sagen unabhängig von der aktuellen DWH-Architektur- ausprobieren lassen und nicht erst ein Dreijahresprojekt von der IT absegnet werden muss.

Alexei Khalyako
: Big Data ist definitiv ein Trend. Und sicherlich wird es einige Firmen geben, die Big Data-Projekte implementieren. Aber ich sehe nicht, dass es für die breite Masse Sinn macht. Abgesehen von Facebook, Amazon, Google etc. ist es schwer zu sagen, welche Firmen von einer Investition in Big Data profitieren. Auf jeden Fall bietet Big Data bei Web- und Trendanalysen eine gute Unterstützung. Hier kommt es nicht darauf an, wenn ein Fehler pro hundert oder tausend auftritt. Big Data ist auch deshalb für solche Dinge geeignet, weil es hier nicht um schöne Performance geht. Auch können solche Auswertungen problemlos einige Stunden laufen. Wichtig ist, dass man am Ende eine Zahl geliefert bekommt, die man analysieren und interpretieren kann. Bei traditioneller BI kommt es hingegen darauf an, dass man schnell Ergebnisse bekommt und dass sie präzise sind.

Des Weiteren sehe ich Potenzial bei Firmen, die mit geografischen Informationen arbeiten; ebenso Webshops, E-Commerce. Ein paar Beispiele gibt es auch in der Energiebranche, wo man versucht, große Datenmengen zu analysieren. Ob es noch weitere Kernbereiche gibt, wird sich mit der Zeit herausstellen. Auf jeden Fall halte ich überall da, wo man bestimmte und ganz präzise Antworten braucht, Big Data für nicht besonders effektiv und sehe keine Vorteile im Vergleich zu traditioneller BI.

 
Stefan Sexl: Welche organisatorischen Veränderungen sehen Sie durch Big Data auf uns zukommen?

Mario Palmer-Huke: Wenn man sich die Vielfalt von Quellen und Daten anschaut, die bereits jetzt zum Großteil gar nicht mehr im Unternehmen selbst gemessen werden, dann ist schon klar, dass sich organisatorisch etwas ändern muss, wenn ich Big Data effizient im Unternehmen betreiben will und das Ganze von Erfolg gekrönt sein soll. Organisation wirdein Riesenthema sein, weil aufgrund der unklaren data ownership von externen Daten bzw. der verschiedenen Nutznießer von Big Data z.B. Data Quality-Prozesse völlig neu definiert werden müssen.

Thomas Zeutschler
: Man mag die Daten im Unternehmen haben, aber was vor allem fehlt, ist die Expertise im Umgang damit. Bin ich überhaupt in der Lage, diese Daten richtig zu betrachten? Und die richtigen Schlüsse daraus zu ziehen? Insbesondere große Unternehmen sind personell gar nicht ausgestattet mit Mitarbeitern, die über eine entsprechende Expertise verfügen. Erst wenn diese Hürde überwunden ist, können Unternehmen einen Nutzen aus Big Data ziehen.

Wolfgang Martin
: Es gibt in der Tat neue Rollen im Unternehmen. Dort sind sogenannte Data Scientists im Entstehen begriffen – also Mittler, die zwischen IT und Business stehen und ein ganz bestimmtes Profil haben. Sie müssen nicht nur in der Lage sein, diese neuen Technologien zu beherrschen, sondern auch das Thema im Unternehmen voranzutreiben und Nutzen zu stiften.

Und aufseiten der Unternehmen selbst gibt es einerseits diejenigen, die so ein bisschen in Big Data schnuppern und zu anderen diejenigen, die versuchen, eine professionelle Infrastruktur aufzubauen. Letztere Herangehensweise wird als operatives Big Data bezeichnet. Den dritten Ansatz nennt man High-Resolution-Management. Hier gilt es, im Umgang mit den Informationen neue Managementregeln zu finden – das sehe ich allerdings noch etwas entfernt.

Thomas Zeutschler: Als Unternehmen gilt es genau zu überlegen, ob man sich die ganzen Informationen überhaupt selbst ins Boot holen will. Oder ob es nicht sinnvoller ist, sie von Dritten zu beziehen. Wir haben uns jedenfalls ganz klar für die externe Variante entschieden. Das hat den Vorteil, dass wir bei Themen wie Social Media relativ schnell auf ein Niveau kommen, auf das wir es in der Kürze der Zeit aus eigener Kraft gar nicht schaffen würden.

Wolfgang Martin: Sie sprechen in der Tat einen neuen Aspekt an, Herr Zeutschler, nämlich, dass Big Data nicht nur Auswirkungen in den Unternehmen hat, sondern auf den Markt insgesamt. Es entstehen neue Dienstleister bzw. existierende Dienstleister, die Datendienste anbieten, müssen sich neu positionieren. Es wird viele Mittler geben, die es Unternehmen ermöglichen, bestimmte Aspekte von Big Data zu nutzen. Als Beispiel sei hier die Geo-Codierung erwähnt.

 
Stefan Sexl: Welche Auswirkungen hat Big Data auf die bisherigen BI-Architekturen und -Prozesse?

Wolfgang Martin
: Im Augenblick wird gerne ausgeblendet, dass der „Single Point of Truth“ baden geht. Was im Enterprise Data Warehouse galt, muss im Big Data neu definiert werden, denn die klassische 100 Prozent-Regel funktioniert einfach nicht mehr und muss neuen Qualitätsbegriffen weichen. Das bedeutet, Big Data erfordert nicht nur Technologie, nicht nur analytische Methodik, sondern auch ganz neue Vorgehensweisen und Begriffsbestimmungen im Information Management.

Mario Palmer-Huke
: Ich glaube, dass die größte Herausforderung organisatorischer Natur ist, technisch ist das mit den mittlerweile zur Verfügung stehenden Technologien relativ simpel.

Gernot Molin
: Wir haben in den letzten 15 Jahren zwanghaft versucht, den „Single Point of Truth“ herzustellen und sind jetzt alle ein bisschen verkatert, weil das nicht perfekt geklappt hat. Jetzt gilt es einzusehen, dass es nichts Absolutes gibt und Arbeitsweisen zu finden, die näher an der tatsächlichen Realität sind. Diese Erkenntnis wurde den Technologien, die hinter Big Data liegen, zu Grunde gelegt.

Wolfgang Martin: Hinsichtlich der Qualität von Unternehmensdaten agiert man in der Analytik bei Big Data genau entgegengesetzt: Anstatt die Ausreißer zu beseitigen, sucht man gerade nach ihnen und versucht die Information zu interpretieren, die dahinter steckt. Das bedeutet im Umkehrschluss nicht, dass Data Profiling und Data Cleansing Unsinn wären. Bei Unternehmensdaten ist das das A&O, aber im Big Data hat das einen völlig anderen Sinn.

Gernot Molin
: Auch aus einer schlechten Datenbasis lassen sich eben sehr gut Trends herauslesen, wenn die Datenbasis einfach nur breit genug ist.

 
Stefan Sexl: Wie können sich Unternehmen im Zeitalter von Big Data aufstellen?

Mario Palmer-Huke
: Das ist stark davon getrieben, wie man im Unternehmen oder in einzelnen Abteilungen Daten nutzen will. Es geht nicht um den Abgesang auf die etablierten Organisationsstrukturen oder darum, das eine für das andere abzuschaffen. Was an Datenqualitätsmanagement vorhanden ist, wird beibehalten. Es geht vielmehr um eine Ergänzung – die allerdings nicht in die bestehenden Strukturen passt. Kernproblem ist die Agilität. Die organisatorischen Strukturen müssen flexibler werden, sonst ist das Anwendungsproblem nicht mehr relevant, bis ich die Daten vorliegen habe. Um eine breite Nutzung zu gewährleisten, wird es auf der IT- ebenso wie auf der Fachseite Änderungen geben müssen. So etwas wie Data Knowledge Worker oder ein Help Desk für die Datenanalyse.

Wolfgang Martin: Ich sehe zwei Trends im Unternehmen: Zum einen birgt Big Data eine große Chance für die IT, die Datenbeschaffung wieder zu ihrem Thema zu machen und wertschöpfend tätig zu sein. Hier kommt es zu einem neuen, kollaborativen Modell zwischen IT und Business: Während das gesamte Management von Big Data bei der IT angesiedelt ist, liegt die Verantwortung für die Analysen auf der fachlichen Seite. Darüber hinaus sehe ich in sehr stark marketingbetriebenen Unternehmen, dass Marketing entweder eine eigene IT bekommt oder die IT Marketing untergeordnet wird. Solche Dinge sind in jüngster Vergangenheit tatsächlich schon vorgekommen.

Gernot Molin: “Managing uncertainty is the new norm.” Das wird uns in den nächsten fünf bis zehn, vielleicht auch 15 Jahren begleiten. Weil einfach die Voraussehbarkeit und die Distanz der Voraussehbarkeit oftmals nicht mehr so gut funktioniert. Zudem geht Big Data mit vielen Daten einher, die nicht unbedingt in-house entstehen und die insofern nur schwer nachvollziehbar sind. Ich glaube, der Umgang mit diesen Daten wird viel evolutionärer werden müssen. Diese neuen Technologien tragen hoffentlich dazu bei, dass diese Iterationsschritte extrem schnell ablaufen können. Neben der Forderung nach agileren Organisationsstrukturen sehe ich auch das Thema Data Security im Kommen, weil man wissen will, was mit den Daten geschieht. Und Big Data wird wohl auch „Big Security“ zu einem Thema machen.

 
Stefan Sexl: Um mal zu den Technologien zu kommen – wenn man über Big Data redet, fällt immer wieder der Begriff Hadoop. Ist das eine Schlüsseltechnologie oder gar DIE Schlüsseltechnologie? Wie schätzen Sie das ein?

Alexei Khalyako
: Hadoop spielt eine ganz wichtige Rolle. Deswegen hat Microsoft auch entschieden, diese Technologie zu unterstützen. Es gibt zwei Modelle, mit denen sich der Unterschied zwischen Hadoop und der traditionellen relationalen Verwendung von Dateien charakterisieren lässt: Das eine ist „bring the compute to the data“ – das macht Hadoop. Das andere Modell ist „bring the data to the compute“, also das BI-System mit Daten befüllen. Hier hat Hadoop den Riesenvorteil, dass man die Daten quasi unendlich skalieren kann und dafür keine High-End-Lösung braucht, sondern eine bzw. mehrere Commodity-Maschinen ausreichen. The more power you need the more computer you set up – das ist eine einfache Lösung. Wohingegen im traditionellen Bereich die Server irgendwann an ihr Limit kommen.

Wolfgang Martin
: Big Data zieht sich durch den ganzen Stack der Architektur von Analytik – von Datenhaltung bis hin zu Information Management und Analytik. Hadoop ist zunächst einmal ein alternatives Datenhaltungssystem, weil es keinerlei Transaktionsorientierung enthält. Bei Hadoop handelt es sich also um eine neue Datenhaltungsmethode, die parallel zu SQL-Datenbanken einzusetzen ist. Diese duale Strategie setzt sich jetzt mehr und mehr durch. Die Idee von einer Datenbank für alles, wie wir sie im Enterprise Data Warehouse noch hatten, ist definitiv passé.

Mario Palmer-Huke
: Ich halte Hadoop für eine massiv überschätzte Technologie, einen Hype. Wenn es um wirklich große Volumen geht, wie Facebook oder Google es aufweisen, macht das durchaus Sinn. Das ist abe nur die eine Facette von Big Data, für 90 oder 95 Prozent der Anwendungsfälle wird Hadoop praktisch nicht relevant sein – zumindest nicht in den nächsten Jahren, denn dafür ist es einfach zu groß und zu komplex zu bedienen. Die Zeiten, in denen man eine Datenbank hat, in der wirklich alles drin liegt, sind meines Erachtens unwiederbringlich vorbei. Es wird Technologievielfalt geben. Das kann Hadoop sein, das jedoch wird in vielen Fällen nicht Hadoop sein.

Wolfgang Martin: Es gibt inzwischen einige Ansätze, die versuchen, Hadoop realtime-fähig zu machen. In zwei, drei Jahren wird es vielleicht auch ein realtime-Hadoop geben. Heute muss man ganz klar sagen, Hadoop ist batch.

Gernot Molin: In der Tat wird es immer mehr in Richtung real-time gehen müssen. Gewisse Fakten müssen einfach zeitnah vorhanden sein. Dennoch sehe ich in Hadoop großes Potenzial für künftige Technologien. Hadoop wird nie die Datenbank für alles werden. Wenn es Mutter Natur in 3 Mrd. Jahren Evolution nicht schafft, dass im Gehirn alle Daten an einem Platz gespeichert werden, sondern in unterschiedlichen Regionen, dann werden wir das mit Datenbanken auch nicht schaffen, weil es dann schlichtweg einfach nicht geht. Hadoop ist jetzt schon nicht die Lösung für alles, aber in den nächsten paar Jahren erwarte ich mir dort große Innovation, was ich hingegen von den alten, klassischen BI-Technologien, sprich OLAP oder RDBMS, nicht behaupten kann.

Wolfgang Martin
: Dem stimme ich zu. Die Technologie ist noch sehr unreif. In Projekten wird eher auf Mango DB, Couch DB oder andere Ansätzen zurückgegriffen, die etwas ausgereifter sind. Allerdings hat Hadoop eine große Chance, sich langfristig durchzusetzen, weil einfach viel Macht dahinter steht – das muss man auch sehen. Aber die real-time-Fähigkeit fehlt nun einmal. Weil es im Big Data viele Datenströme gibt, sind auch andere Technologien angesagt: Alles, was Complex Event Processing betrifft, hat jetzt ein Revival.

 
Stefan Sexl: Gibt es neben Couch DB, Mango DB und NO SQL noch weitere erwähnenswerte Schlüsseltechnologien?

Wolfgang Martin
: Definitiv. Es geht nicht nur um Datenhaltung, sondern auch um Analytik. Nachdem 90 Prozent der Daten in Big Data unstrukturiert vorliegen, liegt alles, was Analytik mit unstrukturierten Daten erlaubt, vor allem Textanalytik, ganz stark im Trend. Erstmals ist es möglich, Videos zu analysieren, Tonalitäten in Blogs und Tweets auszuwerten. Mit Big Data lässt sich demnach eine ganz neue Dimension an Informationen erschließen. Hinzu kommt alles, was mit Data Discovery zu tun hat und dass Fachabteilungen ihre Daten nun eigenständig analysieren können. Nicht zuletzt verfügen wir inzwischen über die richtigen Geräte wie leicht zu bedienende Tablets, mit denen man die notwendige Visualisierung vornehmen kann. Hier kommt also einiges an Innovationen aufseiten der User zusammen, was es uns erlaubt, jetzt tatsächlich mit Big Data umzugehen.

Gernot Molin
: Maschinen lernen, die Sprache von Menschen zu interpretieren. Weil sie nun in der Lage sind, Grammatik, Semantik und selbst emotionalen Schwingungen zu verarbeiten, wird es erstmals möglich, das aufzunehmen, was am Markt geschieht. Harte Fakten wie Umsatzzahlen können mit bislang nicht fassbaren Marktbewegungen verknüpft werden – z.B. Ich will: Umsätze von Produkt A in Region B sehen, wo Kunden im Call-Center angerufen, sich beschwert haben und unzufrieden aus dem Call gegangen sind. Das eröffnet völlig neue Interpretations- und Analysemöglichkeiten in der Beziehung zwischen Unternehmen und ihren Kunden – und hier liegt auch der echte Mehrwert von Big Data.

Mario Palmer-Huke
: Bei den klassischen Datenbanken setzt sich Massive Parallel Processing – kurz MPP – bei den Volumen jetzt wirklich durch. Das war bis vor fünf Jahren quasi ein Monopol von Teradata. Hier gibt es mittlerweile 10 bis 20 ernst zu nehmende Anbieter.

Wolfgang Martin: Nischentechnologien, mit denen man alle möglichen Daten aus allen möglichen Quellen ziehen kann und mit deren Hilfe wir ohne Schnittstellen an Daten gelangen, werden in Big Data zunehmend wichtig. Dazu zählen Quellenextraktion und semantische Crawler-Technologien. Der Vollständigkeit halber können wir auch Technologien nennen, die sterben werden. Ich sehe OLAP als eine absolut tote Technologie. Im Zeitalter der analytischen Datenbanken werden OLAP-Strukturen als eigene Technologie nicht mehr benötigt, weil man innerhalb der eigenen, schnellen Datenbanktechnologie OLAP-Würfel on the fly in realtime erzeugen und entsprechend analysieren kann. Zwar wird es ein schleichender Tod sein, aber wenn ich in einem Unternehmen wäre, würde ich heutzutage nicht mehr in OLAP-Technologie investieren.

Thomas Zeutschler
: Was ist denn OLAP? Und was ist der Unterschied zu Big Data? OLAP kennzeichnet sich durch eine mehrdimensionale Strukturierung der Daten, was für viele praktische Problemstellungen eine sinnvolle Sicht auf die Dinge eröffnet. Heutzutage sind die OLAP-Datenbanken schon sehr, sehr leistungsfähig – und zwar nicht nur darin, mir deskriptiv eine Zahl anzuzeigen, sondern auch Schlüsse daraus zu ziehen und auf Dinge hinzuweisen. Big Data ist eher unstrukturiert und geht aus heutiger Sicht immer Hand in Hand mit Expertentum. Was fehlt, ist eine Intelligenz, die das Ganze konsumierbar macht und den Endanwendern die Informationen ordentlich aufbereitet. Vor diesem Hintergrund glaube ich nicht, dass OLAP tot ist.

Wolfgang Martin
: Dem, was Sie gesagt haben, stimme ich auch voll zu. Dennoch bin ich davon überzeugt, dass die klassische OLAP-Technologie sterben und durch die schnellen, analytischen Datenbanken ersetzt werden wird. Mit denen bekommt man OLAP-Technologie virtuell geliefert und kann OLAP wesentlich besser betreiben als mit der heutigen OLAP-Technologie. Auch alles, was mit Extraktion, Transform und Load (ETL) zu tun hat, wird sich drastisch verändern, weil der T-Teil nicht mehr physikalisch ausgeführt wird. Angesichts der riesigen Datenmengen ist das überhaupt nicht mehr möglich, das wird stattdessen auf der Meta-Ebene ausgeführt. Es wird also ein ganzer Schub an Innovationen auf uns zukommen, die wir jetzt in Big Data kennenlernen und woraus sich Neuerungen für den gesamten IT-Bereich ergeben werden.

Gernot Molin: SAP macht in diesem Umfeld viele interessante Sachen, aber auch bei Microsoft tut sich einiges. Bei großen Datenmengen ist der Datentransformationsaufwand so extrem hoch, dass bei komplexen Anfragen eine dynamische Ressourcenallokation sehr interessant sein wird. Da halte ich den potenziell monolithischen HANA-Appliance-Ansatz eher für eine Einschränkung, wohingegen mir der Hadoop-on-Azure-Ansatz mit der Cloud sehr gut gefällt. Denn bei solchen Cloud-Lösungen kann man sich je nach Bedarf die benötigten Hardware-Resourcen hinzuholen.

Wolfgang Martin: Model-driven-architecture wird wahr. Das Drei-Ebenen-Modell – physikalisch, Metaebene, Metamodellebene – lässt sich mit diesen Technologien tatsächlich umsetzen. Neben einer völlig neuartigen Architektur werden wir auch einen völlig neuartigen Ansatz der Modellierung erleben, weil wir mit diesen Möglichkeiten innerhalb von ein, zwei Jahren in der Lage sind, Unternehmensdatenmodelle aufzubauen und flexibel und agil zu gestalten – was bisher völlig ausgeschlossen war.

 
Stefan Sexl: Schlägt sich der Big Data-Trend nur auf das Backend nieder, ändert sich lediglich die Informationsaufbereitung, oder müssen wir uns auch auf Änderungen an der Frontend-Seite einstellen?

Mario Palmer-Huke
: Ein klares Ja – wir müssen uns auf Änderungen einstellen. Wenn neue Nutzergruppen Big Data und Analytik im Unternehmen nutzen, dann wird es auch heterogenere Präsentationsmöglichkeiten geben müssen. Mit der gleichen Vielfalt, die derzeit bei der Datennutzung zu beobachten ist, wird sich auch die Art der Präsentation flexibler zeigen müssen. Das geht für mich Hand in Hand.

Gernot Molin: Gerade auch mit Blick auf die neuen Tablet-Systeme erhoffe ich mir mehr Innovation. Bislang sind mir alle Ansätze einfach noch zu klassisch.

Alexei Khalyako
: Wir sehen Big Data und speziell Hadoop als Datenquelle, auf die man direkt zugreifen kann und die man für Analysen nutzen kann. Oder sie liefert Daten, die ganz traditionell im Data Warehouse/BI-Bereich weiterverarbeitet werden. Es gibt heute schon die Möglichkeit, Daten aus Hadoop in Excel zu bekommen. Und in Zukunft wird es wohl möglich sein, Dateien direkt vom SQL Server zu laden. Hadoop wird wie ein riesiger Speicher verwendet und von ganz traditionellen Microsoft-Tools ergänzt.

Gernot Molin

Head of Advanced Analytics

pmOne Analytics GmbH

Gernot Molin ist Head of Advanced Analytics bei der pmOne AG sowie Geschäftsführer der pmOne Analytics GmbH. Vor mehr als 15 Jahren im Business-Intelligence-Markt gestartet, fokussiert er sich seit einiger Zeit auf Advanced Analytics und Big Data. Gefragt ist seine Fachkompetenz insbesondere bei Unternehmen, die eine konzernweite Big Data-Strategie entwickeln wollen sowie bei der Konzeption und Einführung von Lösungen im Umfeld Advanced Analytics und Data Science. Erfolgreiche Projekte hat Gernot Molin unter anderem bei runtastic, Roche, Novartis und Henkel realisiert.

https://www.pmone.com •  Blog-Beiträge von diesem Autor