[starbox]

Analyse des Bedarfs an einem Arbeitsmanagementsystem

Von Saad Ahmad, Executive Vice President von Smart IS International

Blue Yonder (BY) -Tabellen enthalten wertvolle Informationen, die wichtige Key Performance Indicators (KPIs) für eine Site bestimmen können. Solche Daten existieren in Tabellen wie „dlytrn“, die extrem groß und nicht einfach abzufragen sind. Darüber hinaus ist es aufgrund von Bereitstellungsentscheidungen möglich, dass ein Kunde über mehr als eine Instanz der Software verfügt, in der diese Daten gespeichert sind.

In mehreren Fällen implementieren Kunden ein Arbeitsmanagementsystem (LMS), um wichtige Arbeitsstatistiken zu erhalten. Die BY-Benutzergemeinschaft geht im Allgemeinen davon aus, dass zur Analyse der Arbeitsdaten das gesamte LMS installiert werden muss.

Wir haben mehrere Fälle gesehen, in denen Kunden nach einer teuren Implementierung des LMS Schwierigkeiten haben, Daten zu pflegen. Das liegt daran, dass ihr eigentliches Ziel die ganze Zeit darin bestand, Statistiken zu erhalten. Dieses Papier soll nicht implizieren, dass Arbeitsmanagementsysteme im Allgemeinen nicht benötigt werden. Wenn das Ziel jedoch darin besteht, die Arbeitsstatistik zu analysieren, verfügt ein BY WMS-System bereits über alle erforderlichen Datenelemente.

In der heutigen Ära von „Big Data“ hat sich eine Reihe neuer Ansätze herausgebildet. Zum Beispiel – wenn wir Arbeitsdaten über einen langen Zeitraum analysieren müssen; Müssen wir wirklich Zeitstudien machen? Müssen wir wirklich in die Messung der Geschwindigkeit eines Fahrzeugs investieren, wenn es sich durch das Lager bewegt? Müssen wir wirklich wissen, wie lange es dauert, von einem Ort zum anderen zu reisen? Während wir in der Vergangenheit davon ausgegangen wären, dass wir dies tun, können wir jetzt statistische Prinzipien auf große Datenmengen anwenden, um diese Werte zu erkennen, ohne im Voraus in die zugrunde liegenden Leitungen zu investieren, die für eine vollständige LMS-Implementierung erforderlich sind.

Dies ist analog zur Untersuchung der Dynamik eines Waldes. Wenn wir es untersuchen wollen, besteht ein Ansatz darin, die Prozesse in einem Baum zu untersuchen und sie dann auf den Wald anzuwenden. Das wird funktionieren, aber es ist kein effizienter Weg, die Dynamik eines Waldes zu verstehen. Eine Alternative wäre, den Wald alleine zu betrachten. Das Erfordernis eines vollständigen LMS zum Abrufen der Arbeitsstatistik entspricht der Abbildung der Prozesse eines Baums zum Verständnis der Gesamtstruktur.

Wenn wir beispielsweise aus anderen Mechanismen wissen, dass unsere Sendungen keine Qualitätsprobleme aufweisen und die Höhe der damit verbundenen Rücksendungen kein Problem darstellt; Dann können wir davon ausgehen, dass alle mit den relevanten „Jobcodes“ verbundenen Prozesse gemäß den Standardarbeitsanweisungen ausgeführt werden. Vor diesem Hintergrund kann eine typische „Glockenkurve“ verwendet werden, um die Leistung zu analysieren:

Im Gegensatz zum typischen LM-Ansatz, bei dem die Leistung einer Aufgabe auf der Vorabmetrik für den Job basieren sollte, können wir diese Kennzahl einfach anhand der Glockenkurve definieren. Wir können der Leistung daher eine Note zuweisen und diese verwenden, um die akzeptable Leistung zu definieren.

Wenn wir das System seit Jahren verwenden, wissen wir bereits, wie lange die Bewegungen zwischen verschiedenen Lagerbereichen gedauert haben. Da wir dieses Wissen bereits haben; Müssen wir dann die Fahrzeuggeschwindigkeit messen? Selbst in diesem Fall können wir die oben genannte Strategie verwenden, um die Leistung zu verstehen.

Aufgaben und Auftragscodes

BY LMS stellt interessante Konzepte für „Aufgaben“ und „Jobs“ vor.

  • Job ist eine Folge von Aktivitäten, die zur Ausführung eines bestimmten Anwendungsfalls erforderlich sind. Einige Implementierungen definieren sie detaillierter als andere. Zum Beispiel können wir sagen, dass das Verschieben einer vollen Palette von einem Ort zu einem anderen eine Aufgabe ist. In ähnlicher Weise können wir sagen, dass das Durchführen eines Palettenbauvorgangs eine Aufgabe ist. In einigen Fällen können wir die Palettenauswahl aus bestimmten Bereichen als einen bestimmten Auftrag definieren. Job erstellt dann die Grundeinheit, um die Akzeptanz der Benutzerleistung zu definieren. Bei der Definition eines Jobs können wir auch Aktivitäten außerhalb des Systems definieren. Diese Daten helfen bei der Definition der SOP und der Zeit, die zum Abschließen einer einzelnen Instanz des Jobs benötigt wird.
  • Die für einen Auftrag erforderliche Reisezeit wird anhand der Lagerkarte separat berechnet.
  • Zuweisungen sind Gruppen von Aktivitäten, die eine Instanz des Jobs darstellen.
  • BY LMS geht davon aus, dass die Startzeit einer Zuweisung die Endzeit der vorherigen Zuweisung ist. Das ist ein interessantes Konzept, das das Gesamtsystem vereinfacht, bei dem wir nicht das Ende jeder Aufgabe unabhängig markieren müssen.

Wenn wir die zugehörige Einrichtung eines Jobs analysieren, werden wir feststellen, dass er auf den Konzepten „Aktivitätscodes“ und „Bereiche“ basiert. Daher ermittelt LM diese Werte basierend auf dem zugrunde liegenden WMS-Kontext und den zugrunde liegenden WMS-Konzepten.

Es ist sicherlich möglich, die meisten dieser Daten aus der WMS-Dlytrn-Tabelle abzurufen. Die Daten werden hier bereits erfasst und wir müssen sie nur noch ernten.

Das Konzept einer Zuweisung ist etwas schwierig, da dlytrn selbst zu detailliert ist – aber im Jahr 2020 sollte uns die Anzahl der Zeilen in einer Tabelle nicht einschüchtern. Wir können die Zuweisungsdaten aus der dlytrn-Tabelle erstellen, indem wir sie objektiv definieren. Zum Beispiel kann eine typische Bestandsbewegungszuordnung definiert werden als:

  • Für einen bestimmten Benutzer und ein bestimmtes Gerät – bewegen zum Gerät markiert den Beginn einer Aufgabe. Wir können dlytrn_id als Zuweisungsnummer betrachten. Wenn es keine Bewegungen gäbe vom Gerät Von dieser Dlytrn-Reihe bis zur vorherigen Dlytrn-Reihe, in der die Produkte bewegt wurden zum Gerät, dann sollte es die gleiche Zuordnung wie die vorherige sein. Dies gilt für den Fall der Aufnahme mehrerer Paletten.
  • Bewegung von einem Gerät markiert das Ende einer Aufgabe. Wir können die Zuordnungsnummer ermitteln, indem wir die vorherige Bewegung nachschlagen zum Gerät vom selben Benutzer und Gerät.

Mit diesem einfachen Algorithmus können wir dlytrn-Zeilen auf dieselbe Weise gruppieren, wie BY LM sie gruppiert. Während der LM diese erstellt, während die Aktivitäten stattfinden, wird unsere Logik danach angewendet, aber das Endergebnis wird das gleiche sein.

Für eine bestimmte Aufgabe kennen wir auch die beteiligten Quellbereiche und verschiedene dazwischen angemeldete Aktivitätscodes. Diese Informationen können verwendet werden, um den Jobcode abzuleiten.

Mit LMS war der Fluss:

  1. Erstellen Sie den Jobcode.
  2. Die Zuordnung wird zu Beginn der Arbeit erstellt. Und es ist an den Job gebunden.
  3. Aktivitäten sind mit der Aufgabe verbunden.

Im Smart Is-Ansatz:

  1. Aktivitäten finden zuerst statt und werden in dlytrn angemeldet.
  2. Wir gruppieren Aktivitäten als Analyseübung in Aufgaben.
  3. Basierend auf den Aktivitäten in der Aufgabe leiten wir den Job ab, der ausgeführt wurde.

Das Ergebnis ist jedoch, dass wir die Leistung objektiv mit derselben Granularität messen können, die LMS ohne den damit verbundenen Overhead bereitgestellt hat. Wir haben auch einige zusätzliche Vorteile:

  • Wir kennen objektiv die „Endzeit“ einer Aufgabe und die „Startzeit“ der nächsten Aufgabe, damit wir den Overhead zwischen den beiden aufeinanderfolgenden Aufgaben messen können. Das kann einige interessante Wahrheiten über die Aktivitäten auf dem Boden ergeben.
  • Da dies eine analytische Übung ist; Wir können die Maßnahmen neu definieren und auf historische Daten anwenden.

Um dieses Konzept ins rechte Licht zu rücken, haben wir weniger als 15 Minuten gebraucht, um 14,5 Millionen Zeilen in dlytrn zu analysieren und die Zuordnungen für jede Zeile auf einem Entwicklungsklassencomputer zu ermitteln. Dies bedeutet, dass die erste Analyse der Daten zwar mehrere Stunden dauern wird, der laufende tägliche Prozess jedoch in wenigen Minuten abgeschlossen sein wird. Dies führt zu einem Datensatz, in dem den Zeilen in dlytrn eine Zuweisungskennung zugeordnet ist, um sie für die weitere Analyse zu gruppieren – zum Beispiel:

Sobald die Daten auf diese Weise gruppiert sind, können wir im Laufe der Zeit eine eingehendere Analyse für Geschäftsanwendungsfälle durchführen. Wir können dasselbe Konzept verwenden, um die Dlytrn-Daten zu gruppieren und verschiedene Arten von Zuweisungen zu erstellen – einschließlich angepasster Anwendungsfälle.

Denken Sie vor allem nicht einmal daran, den Milliarden-Zeilen-Dlytrn-Tisch in Ihrer Archivinstanz zu löschen. Das ist kein Overhead, sondern eine Goldmine. Es besteht die Möglichkeit, dass die meisten Ihrer Fragen aus dieser Datenquelle beantwortet werden können und Sie sie im Laufe der Zeit und in verschiedenen Lagern problemlos vergleichen können. Unsere allgemeine Empfehlung lautet: Befolgen Sie die Auszüge für eine solche Analyse:

  • Dlytrn, trlract, invact, ordact
  • Alle versandbezogenen Daten für versendete Sendungen bis hin zu Bestandsdetails. Es sollte auch pckwrk- und pckmov-Tabellen enthalten
  • Alle empfangenden Tabellendaten

Nachdem die Daten einmal aus allen Instanzen extrahiert wurden, empfehlen wir, dass wir sie in den letzten zwei Tagen täglich aus der Produktionsinstanz extrahieren. Basierend auf der Infrastruktur des Kunden können diese Daten in der Kundendatenbank gespeichert werden. Heutzutage ist es jedoch möglicherweise optimaler, sie in Cloud-Stores zu übertragen. Der Vorteil der letzteren Strategie ist nicht nur eine vereinfachte Infrastruktur, sondern auch eine bessere Leistung für die endgültige Analyse. Beispielsweise kann eine Lösung wie Google BigQuery problemlos Ad-hoc-Zugriff auf Milliarden von Zeilen ermöglichen. Das Erstellen von Dashboards wird auch in einer Cloud-basierten Umgebung vereinfacht.

Smart IS kann helfen, da wir alle Aspekte dieser Domäne genau verstehen. Wir verstehen die Kernkonzepte von LM und verfügen über fundierte Kenntnisse des BY WMS. Wir kennen auch die Feinheiten des Aufbaus großer Data Warehouses und Visualisierungen in einer Vielzahl von Toolsets. Wir können einen kleinen Projektumfang mit festen Gebühren anbieten, um vorhandene Daten in ein Cloud-Repository zu extrahieren, sowie die Möglichkeit, die Daten und einige vordefinierte Dashboards zu untersuchen.