Wachsende Bedeutung trotz mangelnder Zielerreichung

Expertenrunde diskutiert aktuelle Studienergebnisse zum Thema Data Warehouse

Expertenrunde zum Data Warehouse

 

Stefan Sexl: Eine besondere Auffälligkeit in der Data Warehouse-Studie betrifft das Wachstum: Die sogenannten datenintensiven Branchen und die nicht-datenintensiven Branchen haben offensichtlich die Plätze getauscht. Mit Industrie und IT liegen zwei Branchen ganz vorne, die das stärkste Wachstum erwarten und die an den ‚Klassikern‘ wie Finanzdienstleistern und Handel vorbeiziehen. Was sind die Gründe dafür? Stimmt die klassische Einteilung nicht mehr, gibt es einen Nachzieheffekt oder gar noch andere Ursachen?

Peter Lehmann
: Ich bin der Meinung, dass das Thema Business Intelligence immer weiter in andere Unternehmensbereiche vorrückt. Neben den Klassikern Finanzen, Controlling, Vertrieb taucht BI plötzlich auch in der Qualitätssicherung, im Produktionsprozess-Management oder in der Materialwirtschaft auf. Und da sind wir in Bereichen, in denen wir es mit sehr datenintensiven Informationssystemen zu tun haben. Deshalb glaube ich, dass das Datenwachstum mit den klassischen Branchen weniger zu tun hat, sondern dass man schlichtweg die vielfältigen Möglichkeiten in den Unternehmen erkannt hat. Nun werden Mining-Technologie im Qualitätsmanagement betrieben, und dazu werden diese Daten nun gebraucht, die aus einer Insellösung nun dann langsam ins Data Warehouse überführt werden. Außerhalb der klassischen Bereiche werden eigentlich alle Unternehmen datenintensiv. Beispiel Materialwirtschaft: Selbst wenn man bei einem Mittelständler, der nur 5000 oder 10.000 Materialien hat, die Lagerbewegungen analysieren will, hat man es schlagartig mit sehr vielen Daten zu tun.

 


Mario Palmer-Huke
: Ich halte das durchaus für einen Nachzieheffekt. Wenn Sie sich einen Händler oder ein Telekommunikations-Unternehmen hierzulande anschauen, haben diese ein gesättigtes Business-Modell. Klassische Telkommunikations-Unternehmen zum Beispiel befinden sich auf so hohem Niveau, da ist das Wachstum relativ begrenzt – und mithin stagniert auch das Datenwachstum. Hingegen beginnen die Manufacturer-Industrie, klassische Konsumgüterersteller und Automobilhersteller damit, zum Beispiel Daten aus sozialen Netzwerken mit dem Ziel zu nutzen, Wettbewerbsvorteile zu erzielen. Hier kommt eine signifikante Datenmenge zusammen.



Steffen Vierkorn
: Ich würde sogar noch einen Schritt weiter gehen, weil ich glaube, dass sich zudem die Business Intelligence in den Organisationen immer weiter ausbreitet. Bei Automotive zum Beispiel sehen wir heue verstärkt Projekte im Qualitätsmanagement. Teilweise auch mit unstrukturierten Daten, die man auszuwerten versucht. Das heißt, dort werden die Datenvolumina in Kürze sehr stark ansteigen. Bedingt durch die Finanzkrise hat sich in der Produktionsindustrie zudem ein gewisser Stau gebildet. Und jetzt steigt man wieder mit Vollgas in die Themen ein, weil man – vielleicht auch durch die Krise – den Mehrwert deutlich erkannt hat. Zusätzlich zu der Umfrage können wir aus der Marktbeobachtung heraus erkennen, dass verstärkt Projekte angegangen werden, in denen Massendaten eine große Rolle spielen.



Kai-Uwe Kalka
: Wir leben heute in einer Welt, die zunehmend vernetzt ist, zunehmend auf Daten basiert. Ich glaube, wir machen diese großen Datenmengen, mit denen wir leben, auch immer zugänglicher für Leute, die sie dann mit einfachen Werkzeugen auswerten können. Es ist einfach ein Trend der Zeit, dass das Datenvolumen zunimmt.



Markus Nemeth
: Ganz recht, Datenvolumina nehmen generell zu. Die Unternehmen wollen immer mehr steuern und sich Wettbewerbsvorteile sichern, die man nur durch eine prozessoptimierte Sicht auf die Daten bekommt. Das bedeutet, dass auch immer mehr Daten verarbeitet werden müssen.


Stefan Sexl: Einigkeit also bei der wachsenden Bedeutung des Data Warehouse – die Zielerreichung allerdings ist laut unserer Studie verbesserungswürdig. Fachanwender sehen vor allem die Geschwindigkeit bei der Umsetzung neuer Anforderungen kritisch; die Branche spricht vom „agilen Datawarehouse“. Daher die Frage: Sind die Architekturen heute einfach zu schwerfällig?

Peter Lehmann: Diesen Eindruck kann ich bestätigen. Meine Absolventen und Studenten berichten mir regelmäßig über Erlebnisse in den verschiedensten Unternehmen – das ist sehr spannend. Dabei hab ich festgestellt, dass sich Fachbereiche einerseits vermehrt Informatiker einstellen, der ihre Anforderungen gegenüber der IT vertritt. Sie sind mit Hindernissen konfrontiert, die letztendlich in der Schwerfälligkeit der Architektur gründen – Berechtigungen, Zugriffe, Geschwindigkeiten. Hinzu kommt, dass zumindest in den Großunternehmen eine komplexe SAP-Infrastruktur das Leben erschwert, besonders wenn es um das Thema BI geht. Und das nicht nur von der Architektur und der Technologie her gesehen, sondern von der gesamten Organisation. Aus meiner Sicht ist das eine ganz große Bremse. Die Schwerfälligkeit gründet darüber hinaus auch in der heterogenen BI-Landschaft. Es gibt unzählige Tools, die ‚mal so schnell‘ angeschafft wurden und mithin auch sehr viele Informationsinseln. Das kann man den Fachabteilungen noch nicht mal zum Vorwurf machen. Der Druck hinsichtlich der Problemstellung ist oftmals so groß, dass nicht lange gefackelt wird. Aber gerade diese Heterogenität der BI-Landschaft macht den Unternehmen schwer zu schaffen, weil es ‚out of control‘ der IT geschieht. Was wir vorne predigen, von Integration, Enterprise Data Warehouse Architektur und ‚single point of truth‘, findet in den Unternehmen faktisch nicht statt. Tatsächlich leben die Fachabteilungen ihr eigenes Ding, und man wurschtelt sich so durch. Dieses ‚Management by muddling through‘ ist erschreckend häufig heute.



Steffen Vierkorn: Lange Zeit wurde stringent das Konzept verfolgt, alles in ein zentrales Data Warehouse, idealerweise in ein zentrales Datenmodell zu packen. Das wird gerade stark hinterfragt am Markt. Der Aufwand, alles zu standardisieren bzw. übergreifend abzustimmen und Ähnliches, ist sehr hoch, was ein Treiber für diese ‚agilen Data Warehouse‘-Architekturen ist. Der Endanwender rückt wieder mehr in den Fokus. Es wird versucht, dessen Anforderungen so schnell wie möglich zu bedienen und Architekturen zu entwickeln, bei denen Umsetzungseschwindigkeit im Vordergrund steht – natürlich wird eine zielführende Datenkonsolidierung und -bereinigung weiter angestrebt.




Stefan Sexl: Herr Kalka, wie sehen Sie das als Anwender?


Kai-Uwe Kalka: Die gängigen Architekturen, die heute im Data Warehouse verwendet werden, sind einfach zu langsam. Insofern kann ich dem nur beipflichten, denn schließlich treffen wir betriebswirtschaftliche Entscheidungen auf Basis dieser Daten. Bis wir die aus den Daten gewonnenen Informationen dann in der Hand halten, kann es passieren, dass sich die Situation schon wieder komplett geändert hat. Es gilt, technische Antworten darauf zu finden, damit ein schnellerer Zugriff auf die Daten ermöglicht wird.



Steffen Vierkorn
: Die agile Architektur, so wie sie heute diskutiert wird, kann auf unterschiedlichsten Ebenen umgesetzt werden. Da ist gerade sehr viel Spiel im Markt. Gerade in den nächsten Wochen und Monaten kommen sehr viele neue Lösungen heraus, die dieses agile Konzept technologisch mehr unterstützen werden. Dabei geht es nicht unbedingt nur um ‚in memory‘-Architekturen. Ich spreche eher von neuen Architektur-Varianten, bei denen man beispielweise vom Frontend wieder einen Zugriff auf lokale Daten zulässt, dass man von Fachanwenderhand entwickelte Berichte auf eine Enterprise-Suite überführen kann, dass Werkzeuge bei der Data-Warehouse-Modellierung verstärkt in den Fokus rücken, mit denen auch der Fachanwender seine Definitionen hinterlegen kann.



Mario Palmer-Huke: Da muss ich zum Teil widersprechen. Mit ‚in memory‘ kann man durchaus erreichen, dass Businessapplikationen alle auf dem gleichen Datenbestand laufen. Selbst wenn das nur für Kernprozesse oder Teile meiner Unternehmensführung erreicht wird, habe ich das ganze Thema, Daten von A nach B zu bewegen, und dafür Prozesse, Entwicklungsaufwand, Modellierung schaffen zu müssen, überwunden. Was im Umkehrschluss dazu führt, dass Projektlaufzeiten deutlich schneller werden.



Steffen Vierkorn: Das sehe ich nicht ganz so. Rein ‚in memory‘ wird es nicht gelingen, die Transformation zu eliminieren. Ich geben Ihnen Recht, dass mit der Technologie neue Use Cases möglich sind, gerade wenn wir in Richtung Realtime-Verfügbarkeit und Ähnliches denken. Trotz alledem – wenn bestimmte Sichten für die Auswertung generiert werden müssen, weil sie in den Ursprungsdaten so nicht vorliegen oder Datenqualitätsprobleme vorhanden sind, wird Ihnen die reine Technologie keinen Geschwindigkeitsvorteil verschaffen.



Peter Lehmann: Ich sehe ‚in memory‘ mehr als technologisches Feature an, dass wir sicherlich brauchen und das einschlägt, aber das BI-Problem hinsichtlich Schwerfälligkeit letztendlich nicht lösen wird. Es wird zwar alles um einiges schneller werden, aber was nutzt das dem Anwender, wenn das Business-Szenario nicht unterstützt wird und er kein Vertrauen in diese Daten hat. Dass BI ‚mission critical‘ und aufwändig ist, dieses Bewusstsein ist in den Unternehmen einfach nicht vorhanden. Die Tools suggerieren nämlich, dass man nur mal eben installieren muss und dann gleich loslegen kann. Das sehe ich als Problem.



Kai-Uwe Kalka
: Ob ‚in memory‘ oder nicht, ist für mich keine Frage, denn ich glaube, der Key-Treiber und das, was den Aufwand nachher generiert, ist die Integration der Daten und somit der Informationsgewinn.



Mario Palmer-Huke
: Die Frage ist doch, wie man ‚in memory‘ nutzt. Wenn eine Datenbasis alle Applikationen beliefert, dann sind die Daten von Haus aus integriert.



Kai-Uwe Kalka
: Die Daten anzuzeigen, ist nicht das Problem. Das Wichtige ist für mich nach wie vor das Know-how, um Daten miteinander zu verbinden. Da muss technologisch etwas getan werden, damit wir – wenn wir die Daten aus A nach B geholt haben – nicht erst aufwändig analysieren müssen. Hier bedarf es unterstützender Werkzeuge.



Markus Nemeth
: Es gibt Verbesserungsbedarf aufseiten der reinen Infrastruktur, aber auch bei der Prozessmodellierung. Worum geht’s denn in den Projekten? Immer um das Thema Harmonisierung, und zwar nicht auf aggregierter Ebene, sondern bis zur kompletten Durchgängigkeit auf die Ebene der Geschäftsvorfälle im Unternehmen. Diese Kette, vom Vorsystem bis zum Dashboard-Bericht, muss in der Prozessmodellierung technisch bereitgestellt werden und das bei optimaler Time-to-Market. Ich glaube, dass sich auf der Seite der Geschäftsprozessmodellierung neue Möglichkeiten auftun, um schneller ans Ziel zu gelangen und die Zielsetzung des Kunden noch besser zu verstehen. Da tut sich gerade einiges am Markt.



Kai-Uwe Kalka: Wenn man sein Ziel sauber transportieren kann bis runter in die Entwicklung, ist natürlich auch die Fehlerquote eine bessere. Einen Weg, um da hinzukommen, sehe ich im Prototyping, das wir auch mit pmOne sehr stark betreiben.


Stefan Sexl: Wir haben darüber gesprochen, Fachanwender in den Mittelpunkt zu stellen, fachübergreifend zu konzipieren und auswerten zu können. Laut Anwenderbefragung ist der Durchdringungsgrad hier relativ gering. Wir haben einen Kunden in der Runde, der fachübergreifend ein Data Warehouse konzipiert – was ist denn so schwierig daran?

Kai-Uwe Kalka
: Fachübergreifend heißt ja, dass man alle Seiten verstehen und dieses Know-how zentralisieren muss. Zudem müssen Schnittstellen zu den Fachbereichen geschaffen werden, aber genauso ist es notwendig, das Geschäft zu kennen und zu verstehen, was die Fachbereiche eigentlich wollen. Das wiederum muss in die Entwicklung transportiert werden, was insgesamt eine große Herausforderung darstellt und einer gewissen Kernkompetenz bedarf.



Steffen Vierkorn: Eine der größten Herausforderungen, die wir immer wieder sehen, ist es, Einigkeit unter den Fachbereichen herbeizuführen. Historisch bedingt werden meist ganz andere Inhalte und Definitionen gelebt. Diese muss man in gewisser Weise auch konsolidieren, um überhaupt integrieren zu können und dies auch an entsprechender Stelle durchgesetzt zu bekommen.



Mario Palmer-Huke
: Bei einigen Unternehmen steht einfach die Unternehmenskultur im Weg. Wenn eine dezentrale Kultur vorherrscht, ist eine Zentralisierung des Know-hows für ein Data-Warehouse- oder Business-Intelligence-Projekt schwer durchsetzbar, weil es wenig Anreize für die einzelnen Organisationen gibt. Dann muss viel Vorarbeit geleistet und müssen Prozesse geschaffen werden, die sicherstellen, dass die Leute mit Herzblut dabei sind. Aber das ist wahnsinnig schwierig.



Kai-Uwe Kalka
: Wir sind in der glücklichen Position, dass wir das Data Warehouse zentral relativ gut gestalten können. Denn es ist sicherlich ein Problem, wenn sich jeder so sein Erkerchen baut. Bis zu einem gewissen Grad ist das akzeptabel, aber man muss genau hinterfragen, was die Leute überhaupt mit den Daten vorhaben und welche Entscheidungen sie treffen wollen. Viele Fachanwender können gar nicht abschätzen, was alles in einem Entwicklungsprozess drinnen steckt. Dann muss man manchmal auch sehr stark und stringent sein und den Fachanwender zu seinem Ziel führen.

 


Steffen Vierkorn: Die Diskussion mit dem einzelnen Fachbereich, was denn der Mehrwert ist eines integrierten Ansatzes versus eine Applikation, die nur auf seine Bedürfnisse zugeschnitten ist, ist ein Dauerthema. Wir stellen immer wieder fest, dass Unternehmen sich zumindest bei einzelnen Fachbereichen schwer tun, entsprechende Überzeugungsarbeit zu leisten – gerade wenn diese Bereiche viel Kompetenz oder politisches Durchsetzungsvermögen im Unternehmen haben.



Kai-Uwe Kalka
: Es ist auch sehr stark abhängig von der Position, die man im Unternehmen einnimmt. Zum Beispiel: Wenn Sie mit Teamleitern sprechen, wollen diese in der Regel mehr integrierte Daten und aggregierte Daten sehen und auswerten. Wenn Sie mit jemand Spezifischem aus einem Fachbereich sprechen, der gezielt einer speziellen Aufgabe nachgeht, möchte dieser oft sehr granulare und weniger integrierte Daten sehen und auswerten.



Steffen Vierkorn
: Gerade auch bei international aufgestellten Organisationen ist es sehr interessant zu beobachten, wie bestimmte Länder versuchen, sich abzukapseln, weil sie einfach den Mehrwert einer integrierten Lösung gar nicht sehen. Demgegenüber hat eine Holding oder zentrale Organisation naturgemäß eine ganz andere Sicht auf die Dinge.


Stefan Sexl: Fachübergreifende Konzeption ist also ein inhaltliches Thema, kein technologisches?

Markus Nemeth
: Wenn es wirklich ‚ein Guss‘ werden soll, kommt die technische Seite noch hinzu. In Summe macht das die Herausforderung aus. Dann sind sowohl Hardwarehersteller als auch Softwarehersteller und auch Berater gefragt, das Ganze nochmal hinsichtlich ‚time-to-market‘ zu optimieren.

 


Steffen Vierkorn
: Ich sehe es primär als ein organisatorisches Thema an, aber Technologie kann sehr stark unterstützen. Und wir sind noch einen riesigen Schritt davon entfernt, das effizient zu tun. Ich möchte noch einen Punkt aufgreifen – das ganze Thema Metadatenmanagement gehört auch dazu. Transparent zu machen, was gibt’s für Inhalte, in welcher Applikation stecken die Inhalte, welche Definitionen wurden vorgenommen und Ähnliches. Gerade an der Stelle sehen wir momentan sehr viel Bewegung. Da gibt es sicherlich großen Aufholbedarf aufseiten der Technologie.


Stefan Sexl: Metadatenmanagement ist auch in der Studie mit 75 Prozent am häufigsten als Thema genannt worden, mit dem sich die Unternehmen im Bereich Data Warehouse beschäftigen. Ist diese fachübergreifende Thematik zugleich der Grund, der diese hohe Quote treibt?

Steffen Vierkorn
: Es ist definitiv ein großer Treiber, aber nicht der einzige. Es gibt noch weitere in Richtung Metadatenmanagement. Man denke nur an den Datenfluss von der Quelle bis in den Bericht hinein. Da ist zunächst mal der Fokus nicht übergreifend, sondern generell: Von wann sind die Daten? Wo sind die Daten? Was ist denn mit den Daten passiert, bis sie im Bericht landen? Unternehmen versuchen, diese Metadaten nicht nur für die Technik aufzubereiten und zur Verfügung zu stellen, sondern wirklich für jeden Berichtsempfänger. Er soll sich selber informieren können, wie diese Information generiert worden ist.



Peter Lehmann: Das Thema Metadaten ist ein Thema für sich. Wie will ich einen Betrieb steuern ohne Metadatenmanagement? Es geht ja nicht nur darum, ein solches System aufzubauen, sondern es will auch permanent betrieben werden. Ein fachliches Metadatenmanagement zu haben, ist unerlässlich. Ich muss wissen, wie ich mein zentrales Unternehmensdatenmodell managen möchte, so vieles ist ganz stark von fachlichen Metadaten abhängig. Dieses ganze Thema ist meiner Meinung nach noch nicht gelöst. Der Druck ist offensichtlich nicht stark genug, als dass da wirklich etwas passiert. Obendrein scheint es ein schwieriges Thema zu sein, sonst wären die Produkte schon längst auf dem Markt.



Markus Nemeth: Die Idee ist ja, mit den Metadaten in Zukunft beim Aufbau einer neuen Datenbank nicht jedes Mal bei Null anfangen zu müssen, sondern bereits auf Metadatenebene Dinge so zu verknüpfen, dass Projektentwicklungen beschleunigt werden können. Aus meiner Sicht sind Metadaten der Schlüssel zur künftigen Verbesserung von Data Warehouse-Lösungen im Sinne einer höheren Geschwindigkeit bei der Entwicklung. Stichwort: Parametergesteuerte Entwicklung.


Stefan Sexl: Ein Data Warehouse kostet Geld, Investitionen gehören gerechtfertigt – daher ist der ROI seit vielen Jahren ein Killerthema – wie nähert man sich als Anwender dem Thema ROI?

Markus Nemeth
: ROI entsteht aus meiner Sicht am ehesten bei einer integrierten Lösung. Das gilt auch für Data Warehouse-Lösungen, bei denen der ROI um einiges höher ist, wenn eine integrierte Lösung geschaffen worden ist. Unter dem Aspekt der Zielerreichung ist es ist nun mal das Bestreben des Topmanagements, permanent und auch bei jeder Veränderung eine durchgängig integrierte Lösung zu haben – runter bis auf die Ebene der Details.



Mario Palmer-Huke
: Es ist ein grundsätzliches Problem, den ROI für Reporting, Data Warehouse oder Entscheidungsunterstützung zu ermitteln und wir sind durch diesen „schmerzhaften“ Prozess schon in mehreren Projekten hindurchgegangen. Eine klassische Kosten-Nutzen-Rechnung mag im Einzelfall aufgehen, funktioniert aber für die Masse der Unternehmen nicht, da z.B. der Nutzen der Vermeidung einer Fehlentscheidung schwer zu beziffern ist. Mir scheint die einzige praktikable Möglichkeit zu sein, dass man das Thema indirekt angeht, das heißt, an andere Faktoren koppelt. Wenn man durch eine Kette aufzeigen kann, dass es eine hinreichende oder notwendige Unterstützung geben muss, um ein allgemeines Geschäftsziel zu erreichen, lässt sich über einen Allokationsmechanismus eine belastbare Zahl ermitteln.



Steffen Vierkorn
: In einzelnen Fällen ist es durchaus möglich, einen ROI auf Einzelapplikationen oder Projektebene zu errechnen. Es gibt Kostensenkungen oder Absatzerhöhungen, die sich tatsächlich messen lassen. Aber die meisten Kunden geraten ins Stocken, sobald sie einen Nutzen für die Organisation beziffern sollen, der nicht wirklich hart in finanziellen Kennzahlen nachweisbar ist. Schwierig ist es auch, die Zeitersparnis bei Mitarbeitern zu ermitteln, denn häufig weiß man gar nicht, wie viel Zeit anfiele, würde diese Applikation nicht ausgerollt. Zum anderen sehe ich es als große Herausforderung an, einen ROI für ein ,Gesamt Data Warehousing’ zu berechnen. Hier gibt es Nebeneffekte, die man gar nicht wirklich in Geld beziffern kann.




Stefan Sexl: Fragt das Management nach dem ROI, Herr Kalka?

Kai-Uwe Kalka: Wir haben eine integrierte Data Warehouse-Lösung geschaffen, die uns die Sicht auf relevante Daten überhaupt erst ermöglicht. Wir sind noch in der Aufbauphase, aber es war uns immer wichtig, auf den Teilstrecken etwas zu Tage zu fördern, etwas zu produzieren mit dem Data Warehouse, was uns hilft, das Unternehmen erfolgreicher zu steuern. Beispielsweise mussten wir vor dem Data Warehouse für einzelne Strecken die Rentabilität mühselig per Excel errechnen, leider gab es keine übergreifende Lösung. Heute haben wir eine im Data Warehouse integrierte Streckergebnisrechnung, die uns per Knopfdruck sagt, welche Strecken wie rentabel sind. Hinsichtlich des ROI ist es natürlich sehr schwierig, hier eine verlässliche Aussage zu treffen, weil wir es mit etwas zu tun haben, das es vorher in der Form gar nicht gegeben hat.


Stefan Sexl: Zurück zu einem organisatorischen Thema: Business Intelligence Competence Center liegen im Trend und verbreiten sich zunehmend in den Unternehmen. Allerdings steht der Nachweis des Nutzens noch aus. Dass Unternehmen, die auf dieses Modell setzen, signifikant erfolgreicher sind als Unternehmen ohne BICC, ist bislang nicht erwiesen. Brauchen wir noch etwas Geduld, oder waren die Erwartungen zu groß?

Peter Lehmann
: Ich war selbst an der Konzeption mehrerer BICC beteiligt. Das erste Problem ist es, geeignete Ressourcen zu finden. Punkt 1: Um ein BICC in einem Unternehmen zu etablieren, braucht es einen BICC-Leiter, der ein sehr breites Kreuz hat und sich durchsetzen kann. Punkt 2: Ich muss so ein BICC organisatorisch ganz oben aufhängen und mit der nötigen Durchsetzungskraft ausstatten, damit es nicht von vornherein zum Scheitern verurteilt ist. Technologisch kann ich dem Modell viel Positives abgewinnen. Aber wenn es nicht gelingt, das zentrale Datenmodell zusammen zu halten, wird ein BICC schnell zur netten Abteilung, die Papiere schreibt und letztendlich nichts bewirkt.



Mario Palmer-Huke: Nach meiner Erfahrung haben Unternehmen, die das Thema organisatorisch angehen – sei es in Form eines BICC oder wie immer man es nennen mag – eine deutlich höhere Erfolgsrate in Data Warehouse-Projekten als Unternehmen, die das nicht tun. Ich glaube, dass die organisatorische Beschäftigung bzw. Einordnung im Sinne eines BICC durchaus ein Erfolgsfaktor für das Projekt an sich ist.

Steffen Vierkorn: Wir haben mit 400 Unternehmen empirische Untersuchungen zum BICC gemacht. Die qualitativen Bewertungen von allen Anwendern mit BICC sind deutlich besser ausgefallen hinsichtlich Umsetzung in der Geschwindigkeit, Datenqualität und Ähnliches als bei den anderen. Die Unterschiede betragen beachtliche 20, 25 Prozent, was darauf hinweist, dass solche Erfolge durchaus messbar sind. Zum anderen ließ sich feststellen, dass ein BICC nach einem Jahr keine übermäßigen Erfolge belegen kann. Ab dem dritten Jahr hingegen ist der Erfolg in den Ergebnissen sehr deutlich sichtbar. Diesen Effekt sehen wir übrigens auch in der Praxis, wenn wir unsere Kunden begleiten.


Stefan Sexl: Was halten Sie vom Thema Mobile Devices/Smartphones/Tablets – handelt es sich um einen Hype, weil das Management solche Geräte selbst gerne nutzt, oder ist es ein nachhaltiger Trend?

Steffen Vierkorn: Zunächst ist es definitiv ein Trend und kein Hype mehr. Wir sehen, dass die Themen bereits angekommen sind bei den Unternehmen und mobile Lösungen auch verstärkt implementiert werden. Momentan ist das Thema ‚Mobile‘ sehr managementgetrieben, aber in den vergangenen Monaten ist ein starker Wandel zu sehen. Jetzt haben wir den ersten Großkunden, der seinem Salesteam kein Notebook mehr zur Verfügung stellt, sondern lediglich ein Tablet. Mithin müssen auch entsprechende Information geliefert werden. Als weiteren Treiber sehen wir an, dass diese Mobile-Applikationen verstärkt auch analytische Szenarien abbilden können. Wir sprechen jetzt nicht mehr nur von Mobile Reporting, sondern es handelt sich in der Tat um mobile BI. Das ist definitiv ein Thema, das wir in der nächsten Zeit sehen werden.



Peter Lehmann: Ich beobachte ebenfalls, dass das Thema kommt. Eigentlich geht es um den mobilen Zugriff auf Informationen – unabhängig davon, ob es mit Business Intelligence oder Enterprise Resource Planning (ERP) zu tun hat. Auch ERP wird mobiler. Und sobald die großen Vier – also SAP; Oracle, IBM und Microsoft – das immer mehr pushen, wird es auch im Markt angenommen werden.



Kai-Uwe Kalka
: Aus Kundensicht kann ich sagen, dass dies auch ein Topthema für uns ist, das immer relevanter wird und dem wir uns im nächsten Quartal auch strategisch widmen werden. Das ist ganz klar eine Richtung, die wir bedienen müssen und auf die wir Antworten finden müssen.


Stefan Sexl: Wodurch getrieben? Ist es das Management, das Geräte angeschafft hat, oder gibt es andere Gründe?

Kai-Uwe Kalka: Es ist das Management, das sich diese Geräte angeschafft hat, aber es wird immer weiter in die anderen Bereiche hineingetragen. Die Leute wollen mobil sein und die Informationen dort abrufen, wo sie gerade unterwegs sind. Früher war es das Laptop, heute geht der Trend immer mehr zu den mobilen Geräten.



Mario Palmer-Huke: Die mobilen Geräte schalten Sie an und dann sind Sie online, das geht einfach viel schneller und unkomplizierter als früher mit dem Laptop. Das gleiche gilt für Smartphones, die de facto immer online sind, so dass Sie viel mehr Nutzungsmöglichkeiten haben. Hinzu kommt, dass sich das Nutzungsverhalten durch die sinkenden Preise verändert hat.



Steffen Vierkorn: In der Vergangenheit wurde Technologie stark von Unternehmen in den Privatbereich getrieben. Beim Thema Mobile sehen wir interessanterweise ja genau den umgekehrten Prozess; der Endanwender kommt aus dem Privatkonsumbereich. Und die Privatanwender mit der Gewöhnung an diese Technologie drücken diese Themen jetzt in die Unternehmen hinein, die sich daran einstellen müssen.

 


Mario Palmer-Huke: Dadurch sind die Enterprise-Themen auch erst nachgelagert. Den Gedanken, dass man die Technologie im Umfeld von Geschäftsprozessen nutzen könnte, hatte ursprünglich keiner. Deshalb glaube ich auch, dass die größte Herausforderung in diesem mobilen Umfeld gar nicht in der BI liegt, sondern in der Sicherheit. Gerade für uns als Hardwarehersteller ist das ein großes Thema. Die gewünschte Mobilität zu gewährleisten, wird auch eine riesige Herausforderung hinsichtlich der Absicherung von Daten darstellen.




Stefan Sexl: Letzte Frage: Was sind die Trendthemen der nächsten zwei, drei Jahre? Was wird rund um das Thema Data Warehouse aus Ihrer Sicht noch passieren?

Markus Nemeth: Parametergesteuerte Entwicklung, beispielsweise im ETL-Bereich. Ich denke, dass die Templates weiter sehr stark gefragt sein werden, bei denen nicht jedes Mal von Null die ETL-Kette programmiert werden muss, sondern auf zu 80 Prozent vorgefertigte Templates aufgesetzt werden kann, die parametergesteuert angereichert und ausgerollt werden. Diesen Trend haben wir im Consulting bereits in den letzten Monaten ausmachen können.



Kai-Uwe Kalka: Trend wird weiter das Thema ‚time-to-market‘ sein, ‚Realtime‘ wird unter Umständen eine immer größere Rolle spielen. Auch dass die Daten aus dem Data Warehouse den operativen Systemen zur Verfügung stehen, also die umgekehrte Richtung des üblichen Datenflusses. Integration wird von zentraler Bedeutung sein, intelligente Algorithmen aus der BI, mit denen Massendaten gescannt und so aufbereitet werden können, dass bestimmte Sachverhalte sichtbar werden. Nicht zu vergessen mobile Anwendungen und Frontends.



Steffen Vierkorn: Ich möchte noch auf einen weiteren Aspekt aufmerksam machen, den wir noch gar nicht behandelt haben, und zwar das ganze Thema Kollaboration, also Zusammenarbeit rund um die Business Intelligence. Was darüber hinaus ganz stark adressiert wird, ist die vermehrte Einbindung von BI-Content in operative Prozesse. BI wird immer mehr zum integralen Bestandteil operativer Prozesse, wodurch sich auch die Nutzerbasis erweitern wird.



Mario Palmer-Huke: Was ich stark im Kommen sehe, ist die verstärkte Einbindung unstrukturierter Daten. Wir sehen interessanterweise über alle Industrien hinweg und bis in den öffentlichen Bereich hinein ein extrem starkes Interesse daran, unstrukturiert vorliegende Daten zu bewerteten und Daten in die analytische Entscheidungsfindung einzubeziehen. Hier gilt es, das ohne großen manuellen Aufwand hinzubekommen.



Peter Lehmann: Ich glaube ebenfalls ganz fest an das Thema Social BI, also Auswertung dessen, was in den sozialen Netzwerken abläuft. Das zweite Thema, das ich in diesem Zusammenhang sehe, ist das Text- oder Web-Mining. Einfach weil unheimlich viele Informationen, die für den Wettbewerb interessant sind, in nicht-strukturierter Form vorliegen.

Markus Nemeth

Head of Advanced Analytics

pmOne Analytics GmbH

Als Projektleiter und Architekt hat Markus Nemeth bereits zahlreiche Projekte für Data Warehousing, Reporting, operative Planung und Data Analytics zum Erfolg geführt. Von 2004 bis 2010 unterrichtete er zudem an der Fach-hochschule Technikum Wien das Fachgebiet Data Warehouse. Bei pmOne hat Markus Nemeth zunächst als Geschäftsführer den Aufbau der pmOne GmbH in Österreich unterstützt und gestaltete dann als Vice President bei mittelständischen Kunden und DAX-Konzernen deren strategische Ausrichtung zu Themen wie Advanced Analytics. Seit September 2015 ist er Geschäftsführer der neugegründeten pmOne Analytics GmbH, die sich auf Projekte für Advanced und Predictive Analytics fokussiert.

https://www.pmone.com •  Blog-Beiträge von diesem Autor