„In God we trust, all others must bring data“[1]
Seit Beginn der IT werden Daten in digitaler Form auf numerischer Basis zu Informationen verarbeitet. Die Qualität der Ergebnisse hing schon immer von der Qualität und Zuverlässigkeit der Eingangsdaten ab und das wird auch in Zukunft so sein. Ergänzend ist das dahinterliegende Rechenmodell von entscheidender Bedeutung, denn es verarbeitet die Eingangsdaten zu nutzbringenden und effizienzsichernden Ergebnissen. Um laufend noch mehr Daten für einen noch besseren Lagerbetrieb zu verarbeiten, führt mittlerweile kein Weg mehr an der Digitalisierung vorbei.
Schon allein essenziellste Daten, wie zum Beispiel valide Materialstammdaten, beinhalten enormes Potenzial, um ein Warenlager möglichst effizient und effektiv zu steuern.
Valide Materialstammdaten generieren
Folgende Fragen können dabei helfen, die Qualität und Verbesserungspotenziale der Daten zu eruieren:
- Sind die im Lager verwendeten Behälter an die Artikelgrößen und die benötigten Mengen optimal an die Lagerbedürfnisse angepasst?
- Welche Möglichkeit der (wiederkehrenden) Kontrolle des Inhalts/Füllstands auf Basis der bekannten Daten gibt es?
- Wie hoch ist der Anteil an Fehlmengen (oder Überbeständen), die aus Problemen bei der Mengenerfassung resultieren?
- Wurden eventuell existierende gesetzliche Vorgaben (zum Beispiel Zusammenlagerungsverbote gewisser Lagerware) durchgehend nachweislich beachtet?
Ineffiziente Lagerhaltung vermeiden
Doch was passiert, wenn auf bestimmte Parameter in der Lagerhaltung nicht ausreichend geachtet wird? Welche Auswirkungen haben ineffiziente Lagerhaltung und damit einhergehende mangelhafte Materialstammdaten?
- Hohe Aufwendungen aufgrund nicht auf die Nachschubmenge abgestimmter Behältergröße:
Es müssen bereits geöffnete, jedoch nicht vollständig entleerte Nachschubgebinde im Großlager wieder zurückgestellt werden. Der Grund dafür liegt darin, dass der fehlerhaft gewählte Aufnahmebehälter für das effizientere Kleinteilelager beim Umpacken die Mengen des angelieferten Gebindes nicht aufnehmen kann. - Die Gefahr struktureller Instabilitäten des Regals aufgrund von Überlast: Mangels der korrekten Erfassung von Artikelgewichten und durch das daraus resultierende Fehlen oder Fehler bei aktuellen Lastberechnungen können Bereiche überlastet werden. Das merkt man allerdings erst dann, wenn es im wahrsten Sinne des Wortes zu spät ist.
- Mehrfache Lagerung des identischen Artikels auf unterschiedlichen Lagerplätzen aufgrund unerkannter Doppel- und Mehrfacherfassungen: Schon allein ein Abgleich auf Basis des mit dem Artikel verbundenen Herstellercodes könnte Platz sparen.
- Beschädigungen von Artikeln mangels entsprechender Hinweise auf Zerbrechlichkeit oder Ähnliches.
- Häufige Auswahl von überdimensionierten Versandgebinden und enormer Verbrauch an Füllmaterial bei der Verpackung.
- Verderben von Ware durch Überschreiten von MHD-Daten oder anderen maximalen Zeitintervallen für die Lagerung.
- Zerstörung von Ware aufgrund fehlender Daten zu speziellen Lagerungsanforderungen (Umweltbedingungen, elektrostatisch geschützt etc.).
Intralogistische Prozesse hinterfragen und Optimierungspotenziale erkennen
In diesem Fall ist es unglaublich wichtig, ein gewisses Bewusstsein für Optimierungspotenziale im Lager zu schaffen. Denn erst das Wissen von dieser Möglichkeit der Effizienzsteigerung regt dazu an, intralogistische Prozesse zu hinterfragen und in weiterer Folge auch zu optimieren.
Lagerbetreiber, die sich über wettbewerbsfähige Logistikkosten freuen, verfügen über dieses wertvolle Know-how. Diese Lager ermöglichen beispielsweise:
- Höhere Volumenauslastung durch effizientere Gebindenutzung
- Automatisierte verlässliche Packmuster und Packbildberechnungen, nachdem Dimensionen und Gewicht für die Optimierungsalgorithmen korrekt sind
- Automatisierte Vorprüfung von kommissionierten Aufträgen anhand des Gesamtgewichts dank verlässlicher Gewichtsangaben bei den Artikeln
- Effiziente Nachschubabläufe aufgrund aktueller Produktkategorisierungen und damit exakte Mengenbestimmungen für den jeweiligen Nachschubprozess
Die Frage „Inwieweit bin ich mit meinem Lager auf Industrie 4.0 vorbereitet?“ impliziert die Frage „Wie gut ist mein Datenfundament für Industrie 4.0 vorbereitet?“. Nur wenn eine entsprechende Datenqualität gegeben ist, kann der Realisierungspartner auch die entsprechenden Rahmenbedingungen für einen zukunftssicheren Lagerbetrieb schaffen.
[1] Anm.: Das Zitat wird W. Edwards Deming zugeordnet, die Urheberschaft ist aber umstritten.
Über den Autor:
Markus Klug absolvierte das Studium der Technischen Mathematik an der TU Wien, forschte in Glasgow an Kernel-Methoden zum Zweck des Einsatzes in ereignisdiskreten Simulationsmodellen und leitete nationale und internationale Forschungsprojekte mit Schwerpunkten in den Bereichen Transportlogistik, Standortlogistik und weltweite Supply Chains am Forschungszentrum Seibersdorf.
Seit 2013 ist Markus Klug bei SSI Schäfer für den Einsatz von Datenanalyse und Simulation zuständig sowie erweitert um die Themen Data Science und Künstliche Intelligenz / Maschinelles Lernen.