„Ohne Hirnschmalz funktioniert es nicht“

Keine großen finanziellen Investments, wenig Manpower und erste Ergebnisse nach wenigen Wochen – eigentlich traumhafte Bedingungen beim Start eines IT-Projekts. Dennoch schrecken viele Unternehmen davor zurück, sich konkret mit Big Data auseinanderzusetzen. Und die, die es bereits erfolgreich tun, reden nicht gerne darüber. Gerade weil Best Practices rar sind, sind die Erkenntnisse von Marktkennern umso wertvoller: Für den zweiten Teil unseres Big Data-Interviews hat das Solutions-Tandem der pmOne, Gernot Molin und Markus Nemeth, Rede und Antwort gestanden. Ein Gespräch über neue Methoden bei der Kundenbindung, konkrete Anwendungsszenarien und praktische Handlungsempfehlungen.

Interview zum Thema Big Data, Teil 2 

Keine großen finanziellen Investments, wenig Manpower und erste Ergebnisse nach wenigen Wochen – eigentlich traumhafte Bedingungen beim Start eines IT-Projekts. Dennoch schrecken viele Unternehmen davor zurück, sich konkret mit Big Data auseinanderzusetzen. Und die, die es bereits erfolgreich tun, reden nicht gerne darüber. Gerade weil Best Practices rar sind, sind die Erkenntnisse von Marktkennern umso wertvoller: Für den zweiten Teil unseres Big Data-Interviews hat das Solutions-Tandem der pmOne, Gernot Molin und Markus Nemeth, Rede und Antwort gestanden. Ein Gespräch über neue Methoden bei der Kundenbindung, konkrete Anwendungsszenarien und praktische Handlungsempfehlungen.

 

Welche Vorteile haben die Unternehmen durch Data Analytics?

Markus Nemeth: Unternehmen sind mit Data Analytics in der Lage, aus einer Masse von Daten interessante Korrelationen herauszulesen. Das war vorher so nicht möglich. Informationssysteme sind bislang eher für historische Betrachtungen verwendet worden. Mittlerweile sind wir dank Predictive Analytics soweit, dass wir nicht nur effektiver prognostizieren, sondern auch verschiedenste Situationen simulieren können. Und allein mit diesen Informationen lässt sich schon unheimlich viel anstellen: Sie können einem Unternehmen höhere Margen, mehr Umsatz oder einen beachtlichen Kundenzuwachs bescheren. Auch fällt es auf Basis dieser Prognosen leichter, frühzeitig auf sich abzeichnende Probleme zu reagieren. So lässt sich beispielsweise das Kundenverhalten wesentlich besser einschätzen als früher. Welche Kunden sind abwanderungsgefährdet? Solche Analysen, die früher sehr oberflächlich und auf einer aggregierten Ebene durchgeführt wurden, ermöglichen es heute, frühzeitig Kundenbindungsmaßnahmen einzuleiten. Das gilt sowohl für die Gesamtheit der Kunden, genauso gut sind jedoch auch Einzelbetrachtungen möglich.

Durch diese Prognose-Fähigkeiten sind Unternehmen also in der Lage, viel flexibler auf den Markt und auf Kundenveränderungen zu reagieren – und das verschafft ihnen durchaus einen gewaltigen Vorteil.

 

Um noch etwas konkreter auf Anwenderszenarien einzugehen – mit welchen Wünschen kommen Anwenderunternehmen auf Sie zu?

Gernot Molin: Das ist ganz unterschiedlich. Es gibt solche, die sich schon mehr oder weniger mit dem Thema auseinander gesetzt haben, aber vielleicht noch zögerlich und unsicher sind. Und es gibt diejenigen, die sagen ‚Ich hab von diesem Big Data gehört – wo kann ich das kaufen? Und wenn ich’s dann habe, auf welchen Knopf muss ich drücken, damit die Euros rauskullern‘. So funktioniert’s natürlich nicht.

 

Am Anfang muss einfach Hirnschmalz investiert werden, um herauszufinden, um welche Use Cases es überhaupt geht. Da hilft oft Unterstützung von außen. Es gibt viele Strategie- und Unternehmensberater, die sich in diesem Bereich tummeln. Was man tatsächlich braucht, ist eine Person, die sich mit den disruptiven Technologien auskennt und weiß, was hier Stand der Dinge ist. Sie muss darüber hinaus einzuschätzen können, wie diese Technologien den Kunden am besten unterstützen können.

 

Es geht darum, Daten zu durchforsten und Potential für Anwendungsfälle zu finden, die es am Anfang zu erarbeiten gilt. In diesem Stadium – wir nennen es das Data Analytics-Labor – sollte so wenig Geld wie möglich in IT-Technologie gesteckt werden. Alles, was man dafür braucht, ist entweder kostenfrei oder zu ganz geringen Kosten beziehbar. Ein Investment ist erst dann sinnvoll, wenn sich ein Use Case bestätigt hat.

 

Für diesen ersten Schritt ist es sinnvoll, Experten zu Rate ziehen. Wir als pmOne unterstützen hier sehr gerne, weil wir die am Markt verfügbaren Technologien verstehen und sie in Zusammenarbeit mit dem Kunden auf seine speziellen Bedingungen runterbrechen können.


Viele Kunden wollen gar nicht, dass in der Öffentlichkeit über ihre Big Data-Projekte berichtet wird. Können Sie dennoch ein bisschen aus dem Nähkästchen plaudern – woran arbeiten Sie zurzeit und was ist besonders spannend?

 

Markus Nemeth: Letztendlich dreht sich alles um die Kundenbindung. Insofern hat sich im klassischen analytischen CRM sehr viel getan. Es geht darum, Kunden zu segmentieren, sie besser zu verstehen und diejenigen zu identifizieren, die unzufrieden sind, um dann frühzeitig gegenzusteuern zu können. Von der analytischen Kundensegmentierung ist schon lange die Rede, aber jetzt ist es einfach auch machbar und aus finanzieller und zeitlicher Sicht sinnvoll. Hier arbeiten wir mit Kunden aus den unterschiedlichsten Branchen zusammen. Flugunternehmen, Online-IT-Unternehmen oder wie erwähnt der Logistik-Bereich – überall dort ist die Steigerung der Kundenzufriedenheit immens wichtig.

 

Ein neuer Bereich, in dem sich gerade extrem viel tut, ist Predictive Maintenance: Hier geht es um die Ausfallwahrscheinlichkeiten von Maschinen. Mit Predictive Maintenance wird versucht, diese Ausfälle frühzeitig zu erkennen und auf den Kunden zuzugehen, um ein für ihn attraktives Wartungsfenster zu finden. Zum Beispiel um eine Fertigungsstraße dann zu reparieren, wenn der Strom gerade sehr teuer ist, damit sie wieder läuft, wenn er wieder billiger wird. Da herrscht unter den Maschinenbauern in Deutschland hohes Interesse. Letztendlich geht es auch wieder um Kundenbindung, denn wenn die Maschine ausfällt, besteht die Möglichkeit, dass der Kunde abwandert. Erkenne ich potenzielle Schäden, bevor sie eintreten, kann ich auf den Kunden zugehen, um ein passendes Wartungsfenster zu finden. Auf diese Weise lassen sich Probleme vermeiden und Kunden an das Unternehmen binden.


Warum haben die im Data Analytics-Bereich innovativen Unternehmen kein Interesse daran, dass über diese Aktivitäten berichtet wird?

Gernot Molin: All diesen Unternehmen ist sehr wohl bewusst, dass ihnen die Algorithmen, die sie in diesem Zusammenhang aufbauen, einen Wettbewerbsvorteil verschaffen. Das setzt auch ein gewisses Vertrauen zum Dienstleister voraus. Damit hier keine Abhängigkeiten entstehen, will der Kunden dieses Know-how natürlich möglichst für sich behalten. Deshalb legen die Unternehmen viel Wert darauf zu verhindern, dass der Algorithmus einfach abgepackt und weitergereicht wird oder gar später im Internet veröffentlicht wird. Vor diesem Hintergrund sind die strikten Bestimmungen in diesem Bereich durchaus nachzuvollziehen.


Gehen wir einen Schritt zurück: Wenn sich jemand noch nicht konkret damit beschäftigt hat – wie sollte man vorgehen, um Data Analytics einzuführen, welche Empfehlungen haben Sie da?

 

Gernot Molin: Als erstes sollte man sich mit den Use Cases auseinander setzen. Aufschlussreich ist es, wenn man dazu die richtigen Leute im Unternehmen befragt. Meistens sind es diejenigen, die schon immer Ideen hatten und versucht haben, diese technisch umzusetzen. Das können die unterschiedlichsten Charaktere sein, die es zu identifizieren gilt, wie zum Beispiel der Excel-Crack im Marketing oder Sales, der komplette Analyse-Spreadsheets aufgebaut hat. Hier sind oft bereits Fragestellungen vorhanden, die bislang technisch nicht abbildbar waren. Solche Ansatzpunkte einfach mal zu sammeln, verschafft schon mal eine gute Ausgangsposition. 

 

Weiterhin empfehlenswert ist es, in Manpower zu investieren und ein Data Analytics-Labor aufzusetzen. Das kann mit günstigen Open Source-Technologien starten und verproben, ob ein bestimmter Use Cases stimmt und weiterverfolgt werden sollte. Ist das geschehen und lässt man den richtigen Leuten, ohne in klassischen Projekten gefangen zu sein, ein wenig Zeit, passiert der Rest fast von selbst. Use Cases kommen auf, an die anfangs noch keiner gedacht hat. Auch wir von pmOne haben Ressourcen für diesen Step, wollen aber mittel- und langfristig erreichen, dass der Kunde das Labor selbst weiterbetreibt. 

 

Auf jeden Fall ist das bis dahin notwenige Investment für ein Großunternehmen bei weitem kein großes – wir reden hier von 0,5 bis zwei Mitarbeitern. Viel schwieriger ist der Paradigmenwechsel in der Unternehmenskultur, der mit diesem ersten Schritt einhergehen muss. 


Wie sieht es aus mit Technologie-Investitionen?

Markus Nemeth: Wir arbeiten sehr viel mit Open Source-Software, aber auch mit Microsoft-Technologie. Die haben eigentlich alles an Software, was man für so ein Labor braucht – von In-Memory-Technologie bis hin zu komplexeren statistischen Algorithmen, die entweder fast kostenfrei zur Verfügung stehen oder über Cloud-Services zu einem dreistelligen bis niedrig vierstelligen Eurobetrag beziehbar sind. Auch SAP bietet hier interessante Cloud-Services an, die sich etwa im gleichen Kostenrahmen bewegen.

 

Der Vorteil der Software von Microsoft und SAP ist, dass sie über angenehmere Bedienoberflächen verfügt. Die Open Source-Varianten sind zum Teil umfangreicher in der Funktionalität, aber man sollte schon erfahrener Programmierer sein – als einfacher Datenbank-Administrator kommt man damit nicht zurecht.


Also relativ überschaubare Projektvolumina – wie lange muss man denn rechnen, bis erste Ergebnisse vorliegen und wie geht es dann weiter? 

Gernot Molin: In den Fällen, die wir begleitet haben, konnten wir innerhalb von sechs bis zehn Wochen einen Use Case bestätigen oder entkräften. Ist der Nachweis erbracht, müssen noch ein paar Wochen investiert werden um zu prüfen, ob es auch einen Business Case gibt, bei dem sich dann auch eine ROI-Rechnung aufstellen lässt. Es dauert also nicht länger als drei Monate, um diese erste Validierung durchzuführen und abzubilden.

 

Erst wenn sich ein Szenario im Labor erfolgreich angelassen hat, beginnt die klassische IT-Projektarbeit. Dabei hört die Laborarbeit nicht auf. Das ist vielmehr ein immerwährender Prozess, denn es können immer neue Use Cases aufpoppen, die es zu überprüfen gilt. Es ist ein bisschen vergleichbar mit Goldwaschen am Fluss – in diesem Labor werden unzählige Kilogramm an Sand durchgesiebt. Aber wenn Sie ein Goldkörnchen finden – und das werden Sie, wahrscheinlich sogar mehrere davon – dann hat sich das Bewegen der Tonnen von Sand ausgezahlt.

 

Vielen Dank für das Gespräch.