Den Mut aufbringen, Fakten zu vertrauen

Gernot Molin, Leiter Data Warehouse Solutions bei pmOne, bringt im ersten Teil des Interviews Licht in den Begriffsdschungel von Big Data & Co. Vor allem aber zeigt er auf, dass im Zeitalter von Big Data auch die Zeit für einen Paradigmenwechsel in den Unternehmen gekommen ist. Ein Plädoyer, weniger nach Intuition und Bauchgefühl zu entscheiden, sondern sich mehr auf die von Algorithmen gelieferten Ergebnisse zu verlassen.

Interview zum Thema Big Data, Teil 1

Gernot Molin, Leiter Data Warehouse Solutions bei pmOne, bringt im ersten Teil des Interviews Licht in den Begriffsdschungel von Big Data & Co. Vor allem aber zeigt er auf, dass im Zeitalter von Big Data auch die Zeit für einen Paradigmenwechsel in den Unternehmen gekommen ist. Ein Plädoyer, weniger nach Intuition und Bauchgefühl zu entscheiden, sondern sich mehr auf die von Algorithmen gelieferten Ergebnisse zu verlassen.

 

Big Data – was ist das überhaupt?

Abgesehen davon, dass Big Data ein unglaubliches Hype-Wort ist, umfasst der Begriff all das, bei dem Daten in größeren Mengen anfallen. Nach unserer Ansicht ist es jedoch mit dem Sammeln von Daten nicht getan. Natürlich fallen in immer mehr Bereichen immer mehr Daten an. Wir im Business-Intelligence-Geschäft sind es gewohnt, diese Daten zu analysieren. Versucht man jedoch, sich in einem Excel-ähnlichen Frontend oder in einem Ad-hoc-Browser durch Milliarden von Datensätzen zu arbeiten, um daraus sinnvolle Ergebnisse abzuleiten, funktioniert das irgendwann nicht mehr. Bei diesen Mengen bedarf es einfach komplexerer mathematischer und statistischer Methoden. Diese fassen wir unter dem Begriff ‚Data Analytics‘ zusammen.

 

Hier gehen wir also einen Schritt weiter. Es geht nicht einfach nur darum, die Mengen an Daten zu speichern, sondern daraus auch sinnvolle Informationen zu generieren. Das ist der wirklich interessante Teil, denn hier lässt sich in der Tat ein Mehrwert für unsere Kunden ableiten. Allerdings gelten bei Data Analytics im Vergleich zu Business Intelligence auch ganz andere Regeln.

 

Inwiefern lässt sich Data Analytics abgrenzen vom klassischen Data Mining, das es schon seit Jahrzehnten gibt?

Datensätze auf Ausreißer und Korrelationen hin zu untersuchen, ist in der Tat etwas, das Anwender im Data Mining bereits seit Jahren, wenn nicht Jahrzehnten, tun. Doch schaut man sich die Technologien und Hardware-Plattformen an, mit denen Anwender früher Data Mining betrieben haben, wird schnell klar, dass das nur mit kleinen Datenmengen funktionieren konnte. Mit Massen an Daten hat es schlichtweg zu lange gedauert, um als Unternehmen noch angemessen reagieren zu können. 

 

Hier kommt dann die ganze technologische Innovation der letzten zehn Jahre ins Spiel. Das ist zum einen der Bereich In-Memory-Computing. Diese Datenbanken legen die Daten im Arbeitsspeicher bzw. so nah wie möglich an der CPU ab anstatt in Festplattenlaufwerken. Das führt zu deutlich höheren Zugriffsgeschwindigkeiten und ermöglicht es, Daten wesentlich schneller auszulesen, zu kalkulieren und zu analysieren. Hinzu kommt der Wechsel von seriellen/sequentiellen zu massiv parallelen Architekturen. Hier hat sich in den letzten fünf Jahren ein Wechsel bei den Datenbanken vollzogen, zum Beispiel bei Microsoft vom SQL Server auf das Parallel Data Warehouse – PDW – oder jetzt das Analytics Platform System – APS. Kennzeichnend für diese Architekturen sind, dass anstatt auf einem Server mehrere Server-Knoten zu einer Einheit gebündelt werden, was zu einer hohen Skalierbarkeit hinsichtlich der Datenmengen und der Performance führt.

 

Seitdem diese neuen Technologien im Data Mining-Bereich Einzug gehalten haben, ist es möglich, statistische Analysen jetzt nicht mehr nur mit einem kleinen, ausgewählten Datenbestand durchzuführen, sondern auf einer kompletten Datenbasis hochparallel – und das auch noch hochperformant. Dadurch ergeben sich ganz neue Möglichkeiten, was letztendlich den großen Unterschied zwischen Data Mining und Data Analytics ausmacht.

 

Also ist Data Mining jetzt veraltet und abgelöst worden von Data Analytics?

Es ist eine logische Weiterentwicklung, resultierend aus der Zusammenführung mehrerer Technologien. Mit dem neuen Schlagwort Data Analytics wird dem, was man schon lange macht, vor dem Hintergrund des Big Data-Hypes ein neuer Namen verpasst, vergleichbar mit dem einstigen Wechsel von ‚Decision Support Systeme‘ zu ‚Business Intelligence‘. Allerdings wird der Begriff Data Mining dem, was jetzt damit möglich ist, auch nicht mehr gerecht. Bei Data Analytics gibt es durchaus große technologische Veränderungen, die diese Namensänderung rechtfertigen.

 

Steht uns jetzt ein großer kultureller Wandel bevor, was die Vorgehensweise der Unternehmen/des Managements bei der Entscheidungsfindung betrifft – sprich weniger intuitiv, dafür mehr datengetrieben?

Nur von einem technologischen Wandel zu sprechen, wäre in der Tat zu kurz gegriffen. Denn um ernsthaft zu versuchen, aus Data Analytics Kapital zu schlagen, ist es mit der Installation einer neuen Software nicht getan. Vielmehr gilt es, einen tiefgreifenden Wechsel von usergetriebener Analyse zu maschinen- bzw. statistisch-mathematisch unterstützter Analyse zu vollziehen. Dazu bedarf es aus Unternehmenssicht eines mutigen Schritts. So ein großer, kultureller Shift in der Art und Weise, wie Unternehmen agieren, ist nicht von heute auf morgen zu bewältigen. Allerdings können diejenigen Unternehmen, die hier schnell agieren, auch am schnellsten von den Vorteilen profitieren.

 

Warum dauert dieser Prozess des Umdenkens so lange und was tun Sie, um hier Abhilfe zu schaffen?

Im Prinzip handelt es sich bei Data Analytics um einen sehr professionellen Trial- und Error-Prozess. Entsprechen die Daten, die wir in Experimenten erheben, dem, was ich prognostiziert habe, dann sprechen wir in der Wissenschaft von einer Theorie, die vermutlich richtig ist – bis neue Erkenntnisse zu einer Erweiterung der Theorie führen. Alles andere wird gnadenlos ausgesiebt. Genau so müssen Unternehmen letztendlich auch vorgehen. 

 

Freilich gibt es bereits zahlreiche Theorien darüber, wie Kunden und Lieferanten agieren oder wie der Markt tickt. Schaut man sich die Daten genauer an, kann man häufig feststellen, dass diese Theorien jeglicher Faktengrundlage entbehren oder dass die Fakten gar eine völlig andere Sprache sprechen. Den Fakten zu vertrauen, damit tut sich heute die Gesellschaft generell noch schwer, und nicht anders sieht es bei den Unternehmen aus. Nicht mehr – wie in klassischen Unternehmensstrukturen üblich – nach Intuition und Bauchgefühl zu entscheiden, sondern sich ernsthaft auf die von Maschinen gelieferten Ergebnissen zu verlassen, setzt einen kulturellen Wandel voraus. Das heißt nicht, dass Bauchgefühl und Intuition immer falsch sind. Oft bestätigen Daten und Fakten diese Gefühle. Genauso oft machen Daten aber auch transparent, wie oft unsere Intuition wie vielen systemischen Denkfehlern aufsitzt.

 

Wir als pmOne versuchen zu helfen, indem wir Ängste nehmen, Vertrauen gewinnen und die Einsicht vorantreiben, dass diese mathematischen oder statistischen Methoden nicht abstrus, sondern wertvoll sind. In der Praxis sieht das ganz häufig so aus, dass wir die Unternehmen darin unterstützen, mit geringstmöglichem Aufwand ein Data Analytics-Projekt zu starten. Die ersten Erfolge rechtfertigen dann weitere Investitionen.

 

Eignet sich Data Analytics für alle Unternehmen? Sprechen wir hier von einem Massenmarkt, oder gibt es Vorreiter-Branchen?

Ich gehe davon aus, dass es sich eine Investition in Data Analytics irgendwann für alle Unternehmen rentieren wird. Da es sich um eine junge Technologie handelt, geht das derzeit mit einem höheren Einführungs- und Implementierungsaufwand einher. Das heißt aber zugleich, dass sich für Unternehmen, die durch das Analysieren der Daten von großen Return on Investments profitieren, eine frühzeitige Investition besonders auszahlt.

 

Je weiter sich die Software dann entwickelt und je kürzer die Implementierungszyklen werden, desto mehr wird Data Analytics für die breite Masse und diejenigen Unternehmen relevant, die heute vielleicht noch zurückhaltend bis kritisch eingestellt ist.

 

Auf jeden Fall gibt es jetzt schon Branchen, aus denen das Thema nicht mehr wegzudenken ist. Genauso gibt es Branchen, für die es immer schon relevant war – ich denke hier an Versicherungskonzerne, Telekommunikationsunternehmen oder gewisse Bankbereiche. Die haben immer schon mit solchen Analysen gearbeitet und viel Geld investiert. Sehr medienwirksame Sektoren, die über gewaltige Datenbestände verfügen, sind natürlich der gesamte Online-Handel sowie die Internetriesen Google, Facebook etc. Von dort dringt die Bewegung auch immer weiter in andere Bereiche vor.

 

 

Gewähren Sie uns ein paar Einblicke in die Praxis – welche Unternehmen profitieren denn inwiefern davon, große Datenmengen zu analysieren?

Einer unserer Kunden ist sehr erfolgreich im Sport- und Gesundheitsbereich. Um seine Kunden noch besser zu betreuen und seinen Markt zu vergrößern, ist das Unternehmen sehr darauf bedacht, interessante Informationen aus seinen Daten abzuleiten. Durch den Einsatz neuer Technologien haben wir gemeinsam schon sehr bemerkenswerte Möglichkeiten aufgetan, um Kunden besser zu verstehen und somit Umsätze und Margen zu steigern. 

 

Aber auch in klassischen Unternehmen, sei es im Versandhandel oder im Retail-Bereich, ergeben sich unzählige Möglichkeiten, um Absatzplanung oder Einkauf und Disposition zu optimieren.

 

Hier haben wir die ersten Projekte realisiert, wo sich auch bereits die ersten großen Erfolge eingestellt haben. Allerdings unterliegen wir gerade bei Data Analytics-Projekten sehr strengen Non-Disclosure-Vorschriften; manche Unternehmen wollen auf keinen Fall publik machen, dass sie in diesem Bereich Projekte am Laufen haben.

 

In Teil 2 unseres Big Data-Interviews geht es um konkrete Anwendungsszenarien sowie um Vorteile und Handlungsempfehlungen für Unternehmen.

Gernot Molin

Head of Advanced Analytics

pmOne Analytics GmbH

Gernot Molin ist Head of Advanced Analytics bei der pmOne AG sowie Geschäftsführer der pmOne Analytics GmbH. Vor mehr als 15 Jahren im Business-Intelligence-Markt gestartet, fokussiert er sich seit einiger Zeit auf Advanced Analytics und Big Data. Gefragt ist seine Fachkompetenz insbesondere bei Unternehmen, die eine konzernweite Big Data-Strategie entwickeln wollen sowie bei der Konzeption und Einführung von Lösungen im Umfeld Advanced Analytics und Data Science. Erfolgreiche Projekte hat Gernot Molin unter anderem bei runtastic, Roche, Novartis und Henkel realisiert.

https://www.pmone.com •  Blog-Beiträge von diesem Autor