
Wenn Forecasting im Handel scheitert

Eine präzise Prognose der Nachfrage ist im Handel essenziell, um sowohl Umsatz zu generieren als auch gleichzeitig Kosten zu vermeiden. Sortimentsplanung, Disposition, Preisgestaltung und Logistik profitieren stark davon, Entwicklungen möglichst präzise abzuschätzen. Nachfrageverläufe sind eher selten stabil oder rein saisonal, sondern werden von einer Vielzahl nicht-linearer Einflussfaktoren geprägt. Promotionen, Preisänderungen, externe Ereignisse oder sich kurzfristig verändernde Kundenpräferenzen führen zu Mustern, die mit klassischen, überwiegend linearen Verfahren nur unzureichend abgebildet werden können.
Vor diesem Hintergrund gewinnt der Einsatz datengetriebener Verfahren im Forecasting an Bedeutung. Sie versprechen, komplexere Zusammenhänge und Muster besser zu erkennen und somit eine fundierte Grundlage für operative Entscheidungen zu schaffen. In der Praxis werden neue Tools und Lösungen häufig mit der Erwartung eingeführt, bestehende Schwächen in Planung und Steuerung weitgehend auszugleichen – eine Erwartung, die sich nur selten erfüllt.
Warum Projekte selten an der Technologie scheitern
Die Einführung moderner Forecasting-Lösungen erfolgt mit einer klaren Erwartung: Fortschrittliche Algorithmen, bessere Datenverarbeitung und automatisierte Prozesse sollen zu präziseren Prognosen und einer effizienteren Steuerung führen.
In der Realität jedoch dann: Projekte verzögern sich, Ergebnisse bleiben hinter den Erwartungen zurück, und der erhoffte Effekt auf die P&L bleibt aus. Der Grund des Scheiterns liegt selten an der Technologie – es ist, wieder einmal, eine Kombination aus falschen Erwartungen, unzureichender Datenbasis und organisatorischen Defiziten.
Ein Problem besteht darin, dass die eigentlichen Herausforderungen, die es schon mit traditionellen Methoden gab, nicht sauber adressiert werden. Unklare Zielgrößen oder nicht definierte Entscheidungsprozesse bleiben bestehen in der Annahme, dass das System diese ausgleichen wird.
In der Folge starten Projekte überstürzt ohne klares Zielbild. Es bleibt offen, welche konkrete Verbesserung erreicht werden soll. Statt den tatsächlichen operativen Effekt zu bewerten, wird häufig auf Kennzahlen wie die Prognosegenauigkeit zurückgegriffen. Diese liefern zwar eine formale Bewertung, sagen aber wenig darüber aus, ob sich Entscheidungen tatsächlich verbessern.
Datenqualität als strukturelles Problem
Neben den Erwartungen ist die Datenbasis einer der zentralen Schwachpunkte von Forecasting-Initiativen. In der Praxis wird Datenqualität häufig als IT-Thema verstanden bzw. schon fast abgetan, dem sich Fachbereiche nicht annehmen. In der Folge kann es passieren, dass Daten uneinheitlich erfasst, unvollständig gepflegt oder nicht konsistent fortgeführt werden. Relevante Einflussfaktoren fehlen oder sind nicht eindeutig definiert.
Da Daten Grundlage für Prognosen sind, bestimmt ihre Qualität die Qualität der Prognosen und der darauf basierenden Entscheidungen. Ein Forecast ist also nur so gut wie die Realität, die in den Daten abgebildet ist. Fehlt diese Grundlage, wird aus Präzision keine bessere Entscheidung, sondern nur eine vermeintlich präzise falsche Entscheidung.
Systeme erkennen Muster nur auf Basis dessen, was sie „sehen“. Ist die Datengrundlage lückenhaft oder verzerrt, entstehen keine ungenauen, sondern systematisch falsche Prognosen. Nachfrage wird über- oder unterschätzt, Entwicklungen werden fehlinterpretiert, und Entscheidungen führen nicht zu den erhofften Ergebnissen.
Greifbar wird das bei Einflüssen wie Aktionen oder Sondereffekten. Werden solche Faktoren nicht sauber erfasst, erscheinen sie im System als reguläre Nachfrage. Kurzfristige Ausschläge werden zu vermeintlichen Trends mit direkten Auswirkungen auf Bestände, Verfügbarkeit und Abschriften.
Die Organisation als limitierender Faktor und Lösung
Auch wenn die Ambitionen von Initiativen realistisch sind und die Datenbasis belastbar ist, steht und fällt der Erfolg neuer Lösungen – wie so oft – mit der Organisation. Verankerung und Verantwortlichkeiten sind unklar, und der notwendige Management-Support fehlt.
Dabei ist eine erste Maßnahme vergleichsweise einfach: die klare Zuordnung von Zuständigkeiten. Es braucht eine Person oder Funktion, die Verantwortung für die relevanten Daten übernimmt. Neben klassischen Master Data Leads sind auch funktionsnahe Rollen wie Procurement Data Leads oder Assortment Data Leads denkbar. Sie stellen sicher, dass die richtigen Daten in der notwendigen Qualität zur Verfügung stehen. Idealerweise verfügen sie neben ihrem fachlichen Hintergrund ebenfalls über ein technisches Verständnis, sodass Business und IT nicht nebeneinander agieren und die Nutzungsperspektive konsequent mitgedacht wird.
Neben der organisatorischen Anpassung ist jedoch auch eine prozessuale Angleichung erforderlich, die in der Umsetzung deutlich aufwendiger ist. Forecasting wird dabei nicht als zusätzliches System eingeführt, sondern geht mit einer Anpassung der zugrunde liegenden Entscheidungslogiken einher. Wirkung entsteht erst dann, wenn Prognosen systematisch in Entscheidungen eingebettet werden.



