Die Komplexität der Unternehmensplanung beherrschen

Predictive Analytics-Methoden gewinnbringend im Controlling einsetzen – darum geht es in dieser kleinen Blog-Reihe. Im letzten Teil berichtet Prof. Dr. Karsten Oehler von einschlägigen Erfahrungen aus einem Vorreiterprojekt in der Automobilbranche.

Häufig existiert die Vorstellung, man drehe an einem Parameter wie beispielsweise dem Währungskurs und könne dann vollautomatisiert und in Echtzeit die Konsequenzen auf die Zielgrößen betrachten.

 

Was die technische Umsetzung angeht, ist dies sicherlich relativ einfach zu realisieren. Ein aussagekräftiges Szenario benötigt jedoch deutlich mehr. Zwei Beispiele:

 

  • Aufgrund einer ungünstigen Währungsrelation lohnt sich die Produktion eines Produkts nicht mehr. Hier ist eine (Folge-)Entscheidung bzgl. des Standorts zu treffen.
  • Andere Handlungsaktivitäten wie der Eintritt in andere regionale Märkte werden durch die Veränderung der Rahmenparameter nun attraktiv.

 

Es geht also darum, umfassende Szenarien zu erstellen und dabei die vorhandenen automatischen Ableitungen zu nutzen, aber auch die Wirkungen von Anpassungsentscheidungen zu integrieren. Insofern ist es notwendig, alle getätigten Änderungen im Rahmen einer Simulation zu Szenarien zusammenzuführen. Neue Szenarien sollten leicht aus der Basislösung und vorhandenen Szenarien erstellbar sein. Diese Simulationen dienen dem gemeinsamen Verständnis bezüglich einer Umwelt- und Unternehmensentwicklung. Dies macht es üblicherweise erforderlich, dass mehrere Planer einbezogen werden. Der Verarbeitungsprozess ist somit sinnvollerweise verteilt.

 

Im Zusammenspiel einer existierenden Planungslösung und "R" ist für den Automotive-Sektor eine solche Lösung als Prototyp aufgebaut worden. Über einen langfristigen Zeitraum können die beschriebenen Entscheidungen in beliebigen Szenarien durchgespielt und mit alternativen Szenarien verglichen werden. Zusätzlich ist es möglich, Risiken zu Bandbreiten und die Aggregation mittels Monte-Carlo-Simulation einzubeziehen. Funktionsbibliotheken unterstützen verteilungsabhängige Zufallszahlen und große Datenspeicher, so dass Value@Risk-Berechnungen erstellt werden können.

 

Verschlankung der Planung? Ja, aber nicht pauschal.

Eine Herausforderung ist die zunehmende Komplexität der Unternehmensplanung:

 

  • Häufig ist die Planung durch einen hohen Detaillierungsgrad geprägt. Ein Grund dafür ist, dass Positionsrahmen verwendet werden, die aus operativen Systemen (z.B. der Kostenrechnung) übernommen werden.
  • Um eine Grundlage der Produktionsplanung zu schaffen, wird der Absatz sehr detailliert geplant. Für die Anforderungen einer integrierten Gesamtplanung ist diese Granularität aber meistens nicht notwendig.
  • Aus der hohen Granularität entstehen Folge-Aufwendungen: Eine Leistungsverrechnung wird beispielsweise durch eine zu detaillierte Kostenstellenstruktur komplex. Die Aktualisierung durch einen Jahresend-Forecast wird, sofern sie nicht automatisiert wird, aufwendiger.

 

Viele Unternehmen streben daher an, die Planung zu verschlanken – und gehen dabei oft pauschal vor: Erlös- und Kostenpositionen werden bereichsübergreifend zu Gruppen zusammengefasst. Einige Positionen werden nicht mehr detailliert geplant, sondern nur noch fortgeschrieben. Dieser Ansatz unterscheidet – sinnbildlich gesprochen – nicht zwischen überflüssigem Fett und existentiell notwendigem Muskelfleisch. Vielmehr werden ungeachtet ihrer planerischen Bedeutung alle Planungsobjekte vereinfacht. Ein unerwünschter Effekt bei dieser Vorgehensweise ist, dass damit auch Transparenz verloren geht. So sind bei Abweichungsanalysen die Ursachen häufig nicht mehr nachvollziehbar.

 

Im Zeitalter von Advanced Analytics scheint diese Vorgehensweise zu wenig differenziert. Grundsätzlich benötigt jeder Bereich eine individuelle Betrachtung hinsichtlich der Genauigkeit, mit der geplant werden sollte. Welche Planungspositionen sind am genauesten zu betrachten? Wo sind potentielle Abweichungen zu erwarten? Warum kann nicht beispielsweise der vergangene Kontrollerfolg Grundlage der Verschlankung sein? Bei der Reduktion der Kostenobjekte sollte der Planungs- bzw. Kontrollzweck immer im Vordergrund stehen. Auch zu diesem Zweck kann Predictive Analytics eingesetzt werden.

 

In der Regel sind mehrere Einflussfaktoren der ABC-Analyse zu betrachten:

 

  • Ein wichtiger Treiber ist sicherlich die Betragshöhe der potentiellen Planungsgrößen. Geringwerte Positionen können zusammengefasst werden.
  • Welche Positionen verursachten in der Vergangenheit die höchsten Abweichungen? Es ist unmittelbar einleuchtend, dass Positionen mit potentiell hohen Abweichungen genauer geplant werden sollten.
  • Wie ist die Beeinflussbarkeit? Personalkosten sind beispielsweise in der Regel trotz absoluter Betragshöhe kurzfristig nicht beeinflussbar.
  • Wo führten Anpassungsmaßnahmen in der Vergangenheit zu Erfolgen?

 

Granularitätstreiber 

Abbildung: Granularitätstreiber

 

Mit den gewählten vier Einflussfaktoren erhält man schon ein deutlich differenzierteres Bild. Wie geht man allerdings nun vor, um aus diesen Hinweisen konkrete Bündelungsaktivitäten abzuleiten? Hierbei handelt es sich um eine typische Segmentierung. Als Ergebnis stehen bereichsindividuelle Gruppierungsvorschläge zur Verfügung. Weitere Einflussfaktoren für eine Verdichtung sind auch Abhängigkeiten zwischen den Positionen: Gibt es Positionen, die korrelieren? Dies wird dann interessant, wenn die Modellreduktion nicht nur über Positionen, sondern auch über andere Dimensionen wie Kostenstellen, Bereiche oder Produkte durchgeführt wird. Hier können sogenannte Stellvertreter-Objekte erzeugt werden.

 

Ein schwierigerer Punkt ist auch hier der Umgang mit funktionalen Abhängigkeiten, die bereits skizziert wurden. Detaillierte Produktions- und Kostenfunktionen werden in ERP-Systemen modelliert und könnten für die Ableitung von Planungswerten genutzt werden. Aber diese sind für Simulationen und für die Budgetierung zu granular. Im Rahmen der Produktionsplanung gibt es Ansätze zur Aggregation dieser Abhängigkeiten, um Details planen zu müssen. Die Übertragung solcher Ansätze auf die Budgetierung steht allerdings noch aus.

 

Deutliche Effektivitätssteigerung bei Planungs- und Kontrollprozessen

Wichtig ist bei der Umsetzung einer solchen verschlankten Lösung ist, dass die entsprechende Planungssoftware auch die bereichsdifferenzierende Verdichtung unterstützt: Planungsmasken müssen dynamisch je Planungsobjekt unterschiedliche Planungspositionen anbieten. Bereichsbezogene Verdichtungen müssen auf dieser Basis darstellbar sein.

 

In einem Pilotprojekt ist mit einer solchen prediktiven Vorplanungsphase begonnen worden. Startpunkt war die Vorgabe eines gewünschten Reduktionsgrads. Der Anspruch war, eine deutliche Reduzierung von 70 Prozent der Planungspositionen zu erreichen. Die Analyse erfolgte individuell pro Kostenstelle. Für jeden Planungsbereich ist ein individueller Positionsrahmen erstellt worden, der sich aus Verdichtungen eines Basisrahmens ergab. So konnte sichergestellt werden, dass Ist-Daten einfach zugeordnet werden konnten. Die ersten Erfahrungen sind durchaus positiv. Der Planungs- und Kontrollprozess ist deutlich effektiver. Allerdings hat sich herausgestellt, dass eine Verschlankung kein einmaliger Vorgang ist. Strukturen haben die Tendenz, sich zu verselbständigen. Dies ist bei einer Planungsverschlankung nicht anders. Da die Aggregation auch die Struktur der Abweichung verändert, werden Veränderungen hinsichtlich der Einflussfaktoren unterhalb der Planungsstruktur unter Umständen nicht bemerkt. Es ist also notwendig, dass ein solches System von Zeit zu Zeit hinsichtlich des Zweckbezugs hinterfragt wird.

 

Insgesamt lässt sich für einen flächendeckenden Einsatz von Predictive Analytics festhalten, dass eine Integration in bereits existierende Anwendungen ein erfolgskritischer Faktor ist. Auch wenn etablierte Systeme in ihren analytischen Funktionen meist limitiert sind, sind innovative Gesamtlösungen auf eine enge Anbindung an bereits vorhandene Anwendungen angewiesen.