Der Bereich der Supply-Chain-Prognosen hat sich im Laufe der Jahre erheblich weiterentwickelt und ist von traditionellen statistischen Methoden zu ausgefeilteren, auf Deep Learning basierenden Ansätzen übergegangen.
Diese Entwicklung wurde durch die Notwendigkeit vorangetrieben, komplexe Schwankungen bei Angebot und Nachfrage besser zu antizipieren und gleichzeitig das Potenzial großer Mengen an verfügbaren Daten zu nutzen.
In diesem Artikel werden wir die Entwicklung der Prognosemethoden untersuchen und uns dabei auf klassische statistische Methoden, neuronale Netze und die jüngsten Fortschritte beim Deep Learning konzentrieren.
Statistische Methoden (immer noch praktikabel, schnell, aber weniger leistungsfähig)
Das Thema Prognosen ist alt und umfangreich. Bereits Mitte des 18. Jahrhunderts fanden sich Spuren von Prognosen in Zeitungen. In dieser Zeit, als es noch keine Computer gab, waren die Ansätze rein statistisch – Methoden, die im Laufe der Zeit getestet und verfeinert wurden, aber immer noch nützlich sind.
Zu den am häufigsten verwendeten Ansätzen gehören die (S)ARIMA ((Seasonal) AutoRegressive Integrated Moving Average) Modelle, die Holt-Methode und die Holt-Winters Variante.
Diese Methoden ermöglichen die Verwendung relativ einfacher mathematischer Formeln zur Berechnung einer recht zuverlässigen Prognose auf der Grundlage der Umsatzhistorie. Mit dieser Art von Prognose ist es sogar möglich, Trends und saisonale Schwankungen zu erfassen.
Der Hauptvorteil dieser Methoden ist ihre Einfachheit und Schnelligkeit bei der Implementierung. Außerdem handelt es sich um spezialisierte Methoden. Abhängig von der Struktur der Absatzhistorie (stationär, saisonal, intermittierend usw.) bestimmen die Prognostiker, welche Methode in ihrem spezifischen Kontext angemessen ist. Diese Methoden haben sich auch im Laufe der Zeit weiterentwickelt und den technologischen Fortschritt berücksichtigt, insbesondere was die Verfügbarkeit und Verarbeitung von Daten betrifft.
Auch heute noch sind diese Methoden weit verbreitet und zeigen bei bestimmten Datensätzen Ergebnisse, die mit denen von Algorithmen des maschinellen Lernens vergleichbar sind, insbesondere wenn sie in Ensembles verwendet werden.
Statistische Methoden haben jedoch ihre Grenzen. Sie können meist nicht eine große Anzahl externer Einflussfaktoren, wie z.B. meteorologische Daten, berücksichtigen. Diese Methoden sind in erster Linie univariat, d.h. sie stützen sich in unserem Fall ausschließlich auf Verkaufsdaten, ohne andere Informationsquellen zu berücksichtigen.
Obwohl herkömmliche statistische Methoden immer noch weit verbreitet sind und in bestimmten Situationen zufriedenstellende Ergebnisse liefern, wurden sie nach und nach durch ausgefeiltere, auf Deep Learning basierende Ansätze ersetzt, die es ermöglichen, komplexere Herausforderungen bei der Prognose in der Lieferkette zu bewältigen.
Diese statistischen Methoden bleiben jedoch für schnelle und einfache Prognosen relevant, wenn die Komplexität der Daten relativ gering ist.
Aufstieg der neuronalen Netze (Langzeitgedächtnis, Gated Recurrent Unit)
Long Short-Term Memory (LSTM) und Gated Recurrent Units (GRU) basieren auf neuronalen Netzwerkarchitekturen.
Neuronale Netze, die einst aufgrund ihrer begrenzten Rechenleistung vernachlässigt wurden, erlebten um 2016-2017 dank der Entwicklung von Convolutional Neural Networks (CNNs) einen erneuten Aufschwung des Interesses. Ein Convolutional Neural Network (CNN) ist eine Art von neuronaler Netzwerkarchitektur, die ursprünglich eingesetzt wurde, um Muster in Bildern zu Klassifizierungszwecken zu erkennen. Sie werden auch im Zusammenhang mit Zeitreihen verwendet, was ihren Einsatz bei Prognosen erklärt.
LSTMs und GRUs können die sequentiellen Abhängigkeiten sowohl von aktuellen als auch von vergangenen Ereignissen berücksichtigen, wodurch es möglich ist, komplexe Muster in Zeitreihen zu erfassen.
Beide Technologien basieren auf überwachtem Lernen. Das Netzwerk wird anhand einer Reihe von historischen Sequenzen trainiert, um zukünftige Werte vorherzusagen. Während des Lernprozesses werden die neuronalen Netzwerke auf der Grundlage ihrer Vorhersagen bewertet und passen die Verbindungsgewichte ihrer Neuronen an, um Fehler zu minimieren.
Neueste Methoden (DeepAR, N-BEATS, ...)
Mit der zunehmenden Popularität von Deep Learning sind neue Ansätze entstanden, insbesondere um komplexere Prognosen zu erstellen.
Zu den jüngsten Methoden, die zur Verbesserung der Vorhersagegenauigkeit im Bereich der Lieferkettenprognose eingesetzt werden, gehört eine Architektur namens DeepAR, die von Amazon im Jahr 2017 entwickelt wurde. DeepAR ist ein Modell, das auf rekurrenten neuronalen Netzen (RNNs) basiert und gleichzeitig einen probabilistischen Ansatz zur Schätzung von Verteilungen über zukünftige Werte verwendet. Dieser Ansatz ermöglicht die Bereitstellung von Konfidenzintervallen für Vorhersagen, was für die Entscheidungsfindung in einer unsicheren Umgebung sehr wertvoll ist.
Eine faszinierende Eigenschaft von DeepAR ist seine Fähigkeit, die Nachfrage vorherzusagen, ohne dass eine direkte Datennormalisierung erforderlich ist. Dies bedeutet, dass es Zeitreihen mit sehr unterschiedlichen Größenordnungen und Asymmetriegraden verarbeiten kann, was im Kontext der Lieferkette üblich ist. Das Modell ist in der Lage, selbst für Produkte, für die nur wenige historische Daten verfügbar sind, genaue Vorhersagen zu treffen.
DeepAR ist ein globales Modell, d.h. es kann aus mehreren Zeitreihen lernen und dadurch die Prognosegenauigkeit verbessern, indem es gemeinsame Ähnlichkeiten und Strukturen nutzt.
Das Modell wurde an verschiedenen Datensätzen evaluiert und hat vielversprechende Ergebnisse gezeigt, die sogar die modernsten Modelle seiner Zeit übertreffen. Außerdem erfordert es weniger Vorverarbeitung als bestimmte andere Modelle und kann mit minimalen Parameteranpassungen für verschiedene Zeitreihen verwendet werden.
DeepAR ist in der Lage, komplexe Strukturen wie z.B. Saisonalität zu erlernen, was es zu einer leistungsstarken Methode zur Verbesserung der Prognosegenauigkeit im Kontext der Lieferkette macht.
Hochmoderne Methoden (Temporal Fusion Transformers, Informer, Autoformer, ...)
Transformers, eine 2017 eingeführte Klasse von neuronalen Netzwerkarchitekturen, revolutionieren derzeit den Bereich der Lieferkettenprognosen.
Wie frühere Methoden, z.B. LSTMs und GRUs, sind Transformers darauf ausgelegt, sequenzielle Daten zu verarbeiten. Um dies zu erreichen, nutzen sie Aufmerksamkeitsmechanismen, um Beziehungen zwischen verschiedenen Zeitsequenzen zu modellieren.
Transformatoren arbeiten auf der Grundlage von zwei Hauptblöcken: dem Encoder und dem Decoder. Der Encoder erstellt eine Vektordarstellung der Verkaufsreihen. Die Vektoren werden dann vom Decoder in Prognosen umgewandelt, alles unter der Aufsicht von Aufmerksamkeitsmechanismen, die dabei helfen zu erkennen, welche Eingabesequenzen für die Prognose am wichtigsten sind.
Die Hauptstärke von Transformers liegt in ihrer Fähigkeit, langfristige Abhängigkeiten in Zeitreihen effektiv zu verwalten. Durch den Einsatz von Aufmerksamkeit können sie komplexe Beziehungen und Wechselwirkungen zwischen verschiedenen Zeiträumen erkennen und so saisonale Trends, Wachstumsmuster und Verhaltensänderungen in Lieferkettendaten erfassen.
Die Vorteile von Transformers für die Prognose von Lieferketten sind vielfältig. Ihre Fähigkeit, langfristige Abhängigkeiten zu modellieren , verbessert die Prognosegenauigkeit, insbesondere bei Zeitreihen mit nicht linearen Trends und unregelmäßigen Zyklen.
Allerdings benötigen sie oft mehr Rechenleistung und Speicherressourcen als traditionellere Methoden. Nichtsdestotrotz revolutionieren Transformers viele Bereiche, und Sie haben wahrscheinlich schon von ihnen gehört, ohne es zu wissen, zum Beispiel von Generative Pre-trained Transformer 3 (GPT-3).
----------------------------
Die Entwicklung von Prognosen hängt von einer Reihe von Kriterien ab: Verfügbarkeit von Daten, Rechenkapazität von Maschinen usw. Traditionelle statistische Ansätze werden auch heute noch verwendet, aber die Suche nach größerer Genauigkeit in Verbindung mit der Integration mehrerer Einflussfaktoren treibt die Entwicklung neuer Deep-Learning-Modelle voran.
Methoden, die auf neuronalen Netzen wie LSTM und GRU basieren, haben erhebliche Fortschritte gemacht, aber neuere Architekturen, die auf Transformers basieren, verschieben die Grenzen, indem sie in einigen Fällen eine bessere Interpretierbarkeit, eine größere parallele Verarbeitungskapazität und eine bessere Erfassung langfristiger Abhängigkeiten bieten.
Zukünftige Herausforderungen in Bezug auf Transformers und komplexe neuronale Netzwerkmodelle im Allgemeinen drehen sich um die Minimierung von Rechen- und Speicherkosten. Dieses Thema wird in der wissenschaftlichen Literatur immer häufiger behandelt, insbesondere bei aktuellen Problemen der Bild- und Texterzeugung.