Wie beeinflusst Cloud-Technologie Analytics-Projekte in Unternehmen?

Teil 2 des Interviews mit Gernot Molin: Es ist egal, ob die Basistechnologie einen Rüssel hat. Welche Relevanz hat Hadoop? Wieviel Statistik-Kenntnisse muss ein Controller heutzutage mitbringen? Und wie ist es um seine persönliche Bereitschaft bestellt, Daten preiszugeben?

Inwieweit wirkt sich die Cloud beziehungsweise das Versprechen der Cloud auf Advanced Analytics aus?

Gernot Molin

Gernot Molin

Die Vorteile liegen auf der Hand: Unendliche Rechenzeit in der Cloud, unendliche Datenspeicherreservoirs. Es besteht für niemanden mehr die Notwendigkeit, Hadoop oder Spark-Fuhrparks lokal zu installieren und dafür Strom zu verbrauchen, wenn man sie bei Bedarf in der Cloud einfach hochziehen kann. Warum Hardware und Softwarelizenzen teuer einkaufen, wenn man sie einfach mieten kann? Das Administrieren entfällt ebenfalls. Und speziell für den analytischen Bereich gilt: Wenn Komponenten ausfallsicher laufen sollen – warum sollte ich das On-Premise machen, wenn es günstiger in der Cloud zu kriegen ist? Ich kann die Daten letztendlich an einem Ort, nämlich in der Cloud, repliziert automatisch zusammenführen. Und dort kann ich dann auch direkt meine Analysen durchführen.

 

Sind es tatsächlich speziell deutsche Unternehmen, die hier sehr zurückhaltend agieren?

In der Tat, ja. Größtes Hindernis ist die Angst um den Datenschutz, überhaupt die Angst, Neuland zu betreten. Wir denken aber, dass Microsoft mit der „deutschen Cloud“, bei dem T-Systems der Datentreuhänder und Vertragspartner nach deutschem Recht ist, ein sehr attraktives Angebot am Markt platziert hat, das immer mehr Kunden überzeugen wird.

 

Welche Relevanz hat die Technologie Hadoop, von der so viel die Rede ist, für Predictive Analytics und für Ihre Kundenprojekte? Und wie sieht es bei Spark aus?

Im Prinzip handelt es sich um zwei Schichten: Während Hadoop quasi als Basistechnologie fungiert, läuft die eigentliche Analyse auf Spark. Der Erwerb der Technologie Hadoop alleine bringt also zunächst einmal keinen großen Nutzen hinsichtlich Datenanalyse. Aber im Endeffekt ist es schon so, dass Projekte überwiegend auf Hadoop basieren – gerade wenn es sich um große Datenmengen handelt. Wir halten Hadoop für ein sehr nützliches Werkzeug und eine gute Plattform, was die Speicherung und Handhabung sehr großer Datenmengen anbelangt. Wenn es allerdings um analytische Vorhersagemodelle geht, dann kommt Spark als zusätzliche Plattform ins Spiel. Diese hat sich hier im Bereich komplexe Analytics als Quasi-Standard etabliert. Im Endeffekt haben beide Technologien ihre Vor-und Nachteile, deswegen gilt wie so oft auch hier „das Beste aus beiden Welten“: 80 bis 90 Prozent der Projekte, die wir ausrollen, basieren daher auf einer Kombination aus Spark und Hadoop oder Spark und Azure.

 

Azure ist ein Cloud-Angebot von Microsoft. Was hat Microsoft in diesem Bereich noch zu bieten?

Hier sind als erstes Azure Data Lake und das neue Angebot Azure Data Lake Analytics zu nennen.

Azure Data Lake umfasst alle erforderlichen Funktionen, die Entwickler, Data Scientists und Analysten benötigen, um Daten problemlos speichern zu können. Diese Anwendung auf bzw. mit Hadoop ist als eine erweiternde Komponente zu sehen, in die Daten gespeichert werden. Für den Anwender ist Azure Data Lake von der grundlegenden Technologie Hadoop ein Stück entfernt. Azure Data Lake kann man sich als eine Art Verpackung für Hadoop vorstellen, an die sich beliebige Hadoop-Knoten anbinden lassen. Darauf abgestimmt sind die Angebote Azure Data Lake Analytics und Azure IoT Hub.

Die Technologie ist ja nur Mittel zum Zweck: Unternehmen brauchen gute Komponenten zur Speicherung von Daten, um diese mit bekannten und neuen Verfahren einfach und schnell analysieren zu können. Da ist es egal, ob die Basistechnologie einen Rüssel hat, oder nicht. Wir beurteilen die Angebote von Microsoft in vielen Belangen als führend. Insbesondere, was das Preis-Leistungsverhältnis angeht.

 

Kommen wir auf die Endanwender zu sprechen: Viele Controller und Berichtsersteller haben sich in den letzten Jahren OLAP- oder Business-Intelligence-Technologien angeeignet und interessieren sich jetzt für Advanced Analytics. Was empfehlen Sie? Welche Technologien gehören in ein paar Jahren zum Rüstzeug dieser Zielgruppe? Oder bleiben diese neuen Anwendungen ausgebildeten Statistikern vorbehalten?

Gerade bei der Visualisierung oder auch bei der Interaktion aufgrund sprachlicher Eingaben – über Apple Siri, Microsoft Cortana oder Amazon Echo – wird sich in nächster Zeit noch einiges tun. Und zwar durch die Integration in die klassischen Tools. Das nützt direkt den Endanwendern, die hierdurch künftig besser auf Daten zugreifen und sie analysieren lassen können. Es wird also leichter werden, an Zahlen zu gelangen, die aus prädiktiven Komponenten kommen oder die Informationen über prädiktive Komponenten liefern. Außerdem wird es mehr visuelle Darstellungsmöglichkeiten und Analytics geben.

Aber es gibt eben auch einen Teilbereich, der den Data Scientists vorbehalten bleiben sollte. Die Tools und die Reports werden mächtiger und liefern bessere Informationen. Doch dass Controller statistische Modelle rechnen, erachte ich nicht als sinnvoll. Das eigentliche statistische Doing sehe ich nach wie vor bei speziell ausgebildeten und geschulten Mitarbeiterinnen und Mitarbeitern.

 

Zum Schluss noch eine persönliche Frage: Lassen Sie sich gerne „durchleuchten“? Gibt es überhaupt noch die Möglichkeit, sich den Bestrebungen nach dem „gläsernen Kunden“ zu entziehen?

Wer sagt schon ‚Ja‘ auf die Frage, ob er sich gerne durchleuchten lässt? Aber in der Praxis erkläre ich mich letztendlich doch mit vielem einverstanden – einfach auch deshalb, weil ich gewisse Benefits davon habe. Wenn ich mir anschaue, welche Apps sich auf meinem Handy befinden, die irgendwelche Daten sammeln… Letztendlich ist es also schon so, dass ich bereit bin, Daten abzugeben, um Dienste zu nutzen.

 

Welche Vorteile sehen Sie?

Ich denke dabei an die ganzen Mapping-Anwendungen. Wenn ich zulasse, dass meine Routenprofile übermittelt werden, bekomme ich im Gegenzug auch viel bessere Staueinschätzungen und weiß, wie lange ich tatsächlich von A nach B brauche. Oder nehmen wir Informationen wie Location Based Services, die mir beispielsweise gut bewertete Restaurants in der Nähe meines aktuellen Standorts vorschlagen. Das basiert schließlich auf Kollaboration und darauf, dass andere zuvor bereits Bewertungen vorgenommen haben. Das Konzept der Wisdom of the Crowd wird an Bedeutung zunehmen und ich halte das letztendlich auch für hilfreich. Natürlich gibt es hier Grenzen, denn wer würde beispielsweise schon wollen, dass seine kompletten medizinischen Daten irgendwo im Netz liegen?

 

Also sehen Sie den großen Datenmarktplatz als ein Geben und Nehmen, als eine Art von Tauschgeschäft?

Ja, und solange es so ist, halte ich das für gut. Und solange man die Chance hat, gewisse Dinge auch mal abzuschalten, ist das okay für mich.

Vielen Dank für das Gespräch.

 

Alle Webinare zum Advanced Analytics finden Sie in der Gesamtliste der Webinare unter diesem Link.

 

 

Gernot Molin

Head of Advanced Analytics

pmOne Analytics GmbH

Gernot Molin ist Head of Advanced Analytics bei der pmOne AG sowie Geschäftsführer der pmOne Analytics GmbH. Vor mehr als 15 Jahren im Business-Intelligence-Markt gestartet, fokussiert er sich seit einiger Zeit auf Advanced Analytics und Big Data. Gefragt ist seine Fachkompetenz insbesondere bei Unternehmen, die eine konzernweite Big Data-Strategie entwickeln wollen sowie bei der Konzeption und Einführung von Lösungen im Umfeld Advanced Analytics und Data Science. Erfolgreiche Projekte hat Gernot Molin unter anderem bei runtastic, Roche, Novartis und Henkel realisiert.

https://www.pmone.com •  Blog-Beiträge von diesem Autor