Gastbeitrag
16.10.2020, 08:00 Uhr
Machine Learning für beste Artikeldatenqualität
Die Vielzahl der Stammdaten von Artikeln und deren Komplexität stellt den Handel vor grosse Herausforderungen in Sachen Qualität. Der Einsatz von Algorithmen senkt Fehlerquoten und auf diese Weise Prozesskosten sowie Umsatzeinbussen.
Der Autor: Lars Klimbingat ist Leiter des Competence Centers für Stammdatenmanagement und Prozesse beim Beratungshaus retailsolutions.
www.retailsolutions.ch
www.retailsolutions.ch
(Quelle: retailsolutions)
Eine hochautomatisierte Steuerung der Warenwirtschaft ist im Retail ein entscheidender Faktor für die Wettbewerbsfähigkeit. Voraussetzung hierfür sind Stammdaten von bester Qualität. Sie müssen durchgängig konsistent und aktuell sein, da ansonsten Geschäftsprozesse nicht effizient und (teil-)automatisiert über verschiedene Verkaufskanäle hinweg ablaufen können. Wichtig sind deshalb Standardisierung und Einhaltung höchster Qualitätsstandards bei der Verwaltung der Daten.
Gerade dies aber stellt die meisten Einzelhändler vor enorme Herausforderungen. Das liegt hauptsächlich an der schieren Menge der Daten und deren Komplexität. Allein ein Vollsortimenter mit 50 Filialen kann, bezogen auf den Artikelstamm im Warenwirtschaftssystem, gut und gern 1,5 Millionen Artikel verteilt über tausende von Warengruppen, täglich 1000 und mehr neu anzulegende Artikel und damit Dutzende Millionen Artikeldatensätze aufweisen. Ein einzelner Stammdatensatz kann aufgrund der eingehenden Informationen zu Produkt und Lieferant und unter Einhaltung gesetzlicher und unternehmensinterner Geschäftsregeln sowie Referenzdaten über 100 Attribute enthalten.
Viele komplexe Regeln
Welche Attribute in welcher Ausprägung es zu erfassen und zu pflegen gilt, hängt von den eingehenden Informationen und den daraus folgenden Regeln ab. Die Auswahl und Anwendung der Regeln erfordern indes ein vertieftes Prozesswissen, denn normalerweise gilt es hier, mehrere Tausend Regeln zu beachten. Die Konstellationen dieser Regeln können durch die Anwender kaum mehr überblickt werden.
Die Folge: Die Qualität der Daten im ERP ist mehrheitlich mehr schlecht als recht, was wiederum zu einem erhöhten Aufwand für die Korrektur und zu Umsatzverlusten führt. In der Praxis können falsch erfasste Artikeldaten beispielsweise zur Folge haben, dass Warenlieferungen am falschen Ort ankommen. Werden etwa Tiefkühlwaren infolge fehlerhafter Daten an ein Lager ohne Kühlbereich geliefert, müssen ganze Wagenladungen mit Lebensmitteln vernichtet werden. Ein anderes Beispiel sind unterschiedliche Verkaufspreise bei Aktionen: Werden etwa artgleiche Artikel, z. B. Tafelschokolade mit unterschiedlichen Geschmacksrichtungen, im ERP-System manuell zusammengefasst und deshalb Regeln nicht immer konsequent umgesetzt, kommt es zu unterschiedlichen Preisen in den Ladengeschäften. Dass sich solche Fehler in Zeiten von Social Media auch schnell viral verbreiten und schlecht für die Kundenzufriedenheit sind, versteht sich von selbst. Vom daraus entstehenden Korrekturaufwand einmal ganz zu schweigen.
Machine Learning für höhere Datenqualität
Schwierigkeiten bei der Stammdatenpflege bereiten bei der oft eingesetzten Standardlösung SAP for Retail bereits einfachste Regeln, weshalb viele Anwender die Lösung um Eigenentwicklungen erweitern. Dies bedeutet aber wiederkehrend hohe Kosten für Wartung, mangelnde Flexibilität und daraus folgend unzureichende Funktionalitäten. Standardisierte Add-ons, die modifikationsfrei ins ERP integriert werden können, schaffen hier Abhilfe. Damit lassen sich Prüfregeln ohne Programmierung flexibel erstellen und anpassen, ohne dabei die IT-Abteilung zu beanspruchen.
“Machine Learning kann die Fehlerquote um einen Drittel senken„
Lars Klimbingat
Seit einiger Zeit ermöglicht der Einsatz von Machine Learning eine (Teil-)Automation der Kontrolle und dadurch eine Senkung der Fehlerquote um bis zu 30 Prozent und mehr mit entsprechend niedrigeren Prozesskosten. Algorithmen identifizieren hierfür Plausibilitätsregeln, schlagen diese sowie entsprechende Korrekturen den Anwendern automatisch vor oder führen gar autonom Fehlerkorrekturen durch. Dabei wird das System laufend mit neuen Trainingsdaten versorgt und erlernt so nach und nach die korrekte Klassifizierung. Angaben zur Fehlerwahrscheinlichkeit und Plausibilität der Korrekturvorschläge sowie Warn- und Fehlermeldungen verbessern zusätzlich die Nachvollziehbarkeit durch die Anwender, was wiederum deren Akzeptanz erhöht.