In dieser vierteiligen Reihe möchten wir Ihnen die Funktionsweise und Vorteile einer Analytics Platform näher bringen. Die Analytics Platform ist ein Modern Data Warehouse (MDWH) mit gezielter Ausrichtung auf Data Science Use Cases. Durch einen Data Lake als Datenfundament können hierbei sowohl strukturierte, als auch unstrukturierte Daten abgelegt werden. Die Aufbereitung dieser Daten erfolgt in der Regel durch ein Rechencluster (z.B. Apache Spark). Die aufbereiteten Daten werden dann den weiteren Nutzern zugeführt. Dies kann beispielsweise über eine relationale Datenbank, z.B. in Form eines DWHs, erfolgen, oder aber per Data Science Workspace, der es den Data Scientisten ermöglicht, Use Cases umzusetzen.

In dieser vierteiligen Reihe möchten wir Ihnen die Funktionsweise und Vorteile einer Analytics Platform näher bringen. Die Analytics Platform ist ein Modern Data Warehouse (MDWH) mit gezielter Ausrichtung auf Data Science Use Cases. Durch einen Data Lake als Datenfundament können hierbei sowohl strukturierte, als auch unstrukturierte Daten abgelegt werden. Die Aufbereitung dieser Daten erfolgt in der Regel durch ein Rechencluster (z.B. Apache Spark). Die aufbereiteten Daten werden dann den weiteren Nutzern zugeführt. Dies kann beispielsweise über eine relationale Datenbank, z.B. in Form eines DWHs, erfolgen, oder aber per Data Science Workspace, der es den Data Scientisten ermöglicht, Use Cases umzusetzen.

Die täglich, wöchentlich und monatlich abgehobene Bargeldsumme ist an jedem Geldautomaten individuell. Je genauer eine Bank diese individuelle Bargeldmenge vorhersagen kann, desto weniger Kunden gehen „leer aus“ und es entgehen der Bank weniger Zinserträge durch „ungenutztes“ Bargeld. In unserem Blogbeitrag zeigen wir, wie wir ein zuverlässiges Prognosesystem für eine Bank entwickelt haben.

Die Cloud liegt allerorts im Trend. Den meisten Unternehmen ist das Wesentliche Für-und-Wider bekannt. Doch es gibt auch weniger bekannte Argumente (für die Cloud), die Entscheidern helfen können, die Chancen und Risiken besser abzuschätzen. In unserem Blogbeitrag werfen wir einen Blick auf fünf „versteckte“ Cloud-Vorteile.

Power BI bietet beispiellose Funktionen zum Integrieren und Transformieren von Daten. Diese Ausgabe ist oft nützlich, um sie einem vorhandenen SQL-Data Warehouse hinzuzufügen. In diesem Beitrag erklären wir, wie Sie Power BI-Tabellen mit SQL Server (Azure oder lokal) synchronisieren und laden und diesen Prozess automatisieren können.

Die Planung und Durchführung einer Reise ist ein Paradebeispiel für die digitale Customer Journey, die Besuchern entlang der Nutzung von Portalen, Apps und Services absolvieren. Wer es schafft, die dabei generierten Datenmengen – unter Einhaltung der DSGVO - in einem Customer Analytics Hub zusammenzuführen, kann mithilfe von KI-getriebenen Analysen beispielsweise die Besuchererlebnisse verbessern, Touristenströme systematisch lenken und die Nutzeransprache situativ und individuell gestalten. Das Customer-Analytics-Team von pmOne widmet sich entsprechenden Lösungen, die mit der Analyse der Customer Journey Mehrwerte für die Bereiche Tourismus, Smart City, Destinationsmarketing oder Stadtplanung schaffen.

Microsoft hat kürzlich Azure Bicep veröffentlicht. Dabei handelt es sich um eine Domain Specific Language, die Vorlagen für den Azure Ressource Manager (ARM-Templates) kompiliert und anschließend Ressourcen in Azure bereitstellt. Einer der bisherigen Marktführer in diesem Bereich ist HashiCorp mit der Lösung Terraform. Dieses etabliertes Infrastructure-as-Code-Tool stellt ein ausgereiftes Framework bereit und wird zudem von Microsoft sowie Hunderten anderen Cloud-Anbietern unterstützt. Dieser Beitrag soll einige Grundlagen zu Infrastructure-as-Code und ARM-Templates vermitteln und widmet sich anschließend dem Vergleich zwischen Azure Bicep und Terraform. Ziel ist es, erste Einblicke in die Unterschiede und die jeweiligen Vorteile der beiden Technologien zu geben.

Beim Thema Self-Service-BI/AI/Analytics gehen die Meinungen auseinander: Die einen befürchten komplexen Wildwuchs, die anderen fühlen sich durch ein rigides Regelwerk ausgebremst. Bei solchen Kontroversen hilft oft eine Analogie. In diesem Blogbeitrag betrachten wir deshalb die Ess- und Kochgewohnheiten und schlagen die Brücke zur Frage nach den Self-Services, denn auch hier sind Geschmäcker, Skills und Situationen oftmals verschieden. Manchmal passt die Daten-Tiefkühlpizza besser und manchmal ist genug Zeit für eine frische, selbstgemachte BI-Pasta.

Produzierende Unternehmen sammeln in der Regel umfangreiche Daten in der Produktion. Die eingesetzten Fertigungsanlagen sind jedoch komplex und haben viele Stellschrauben, so dass nicht immer klar ist, welche Einstellungen zu guten Ergebnissen führen. Das ist ein ideales Einsatzszenario für Machine Learning und Artificial Intelligence. Der Verpackungs- und Beschichtungsspezialist Mondi trat in diesem Zuge an pmOne heran, um „Operating Windows“ für eine ihrer Fertigungsanlagen zu bestimmen. Damit sind Bereiche - oder eben Fenster - gemeint, in denen einzelne Stellschrauben sich während der Produktion bewegen dürfen, um eine gute Produktqualität bei gleichzeitig hohem Fertigungsdurchsatz sicherzustellen. Dieser Aufgabe hat sich das Advanced Analytics Team der pmOne gewidmet und damit zu einem neuen wichtigen Assistenzsystem in der Fertigung beigetragen.

Das Potential, welches in den stetig wachsenden Datenvolumen von Unternehmen schlummert, war nie größer als heute. Vor allem Methoden aus dem Umfeld von Data Science und Machine Learning versprechen wahre Wunder, wenn man der häufigen Nutzung dieser Begriffe als Buzzwords Glauben schenken mag. Oft ist dies mit der Vorstellung verbunden, dass man lediglich eine Software installieren und einen Algorithmus laufen lassen muss, damit die Optimierung bestehender Prozesse erfolgen kann. Bevor das Optimierungspotenzial jedoch erschlossen werden kann, sind einige Hürden zu meistern. Aber was sind die erfolgsversprechenden Vorgehensweisen, damit Data Science Projekte gelingen und Erfolge langfristig gesichert werden können?