Wann sind Verkaufsdaten im B2B-Großhandel KI-ready?
„Sind unsere Daten brauchbar für KI?“
Das ist eine der häufigsten Fragen, wenn es um den konkreten Einsatz von KI-Anwendungen im B2B-Großhandel geht. In diesem Blogartikel erfahren Sie, wie Sie Ihre Datenquantität und Qualität besser einschätzen und überprüfen können.
Vielleicht sind Sie in einer Situation, in der Sie Ihre Verkaufsdaten nutzen möchten, um KI-basierte Empfehlungen für Ihr Vertriebsteam zu bekommen!
Verkaufsdaten für KI-basierte Verkaufsprognosen
Eine der beliebtesten KI-Anwendungen im B2B-Großhandel ist Predictive Sales Analytics. Dabei geht es darum, die eigenen ERP-Daten (Verkaufsdaten) nutzbar zu machen.
Großhandelsunternehmen zeichnen sich durch eine große Anzahl an Kunden und Produkten aus. Daraus ergeben sich viele Verkaufsdaten. Wer im Wettbewerb bestehen will, darf diesen Datenschatz nicht ungenutzt lassen.
KI-basierte Predictive Sales Software Systeme (wie die Qymatix Software) erstellen auf Basis der ERP-Daten Verkaufsprognosen für den Vertrieb. So lassen sich Cross-Selling-Chancen nutzen, bei hoher Abwanderungsgefahr rechtzeitig Kundenbindungsmaßnahmen einleiten und Preise individuell festlegen.
Die Basis dafür sind Verkaufsdaten aus ERP-Systemen. Welche Voraussetzungen müssen diese erfüllen, um KI-fähig zu sein?
Es gibt quantitative und qualitative Anforderungen. Schritt für Schritt gehen wir die wichtigsten Punkte durch.
Datenquantität
Die meisten mittelständischen Großhandelsunternehmen werden von Natur aus mit der Quantität keine Probleme haben. Tausende von Produkten und Kunden führen zwangsläufig zu genügend Verkaufstransaktionen pro Jahr.
Dennoch ist die Quantität für KI-basiertes maschinelles Lernen unumgänglich. KI-Systeme suchen in Datensätzen nach wiederkehrenden Mustern. Je mehr Daten zur Verfügung stehen, desto zuverlässiger können solche Muster gefunden werden.
Anforderungen an die Datenquantität:
1. Große Datenmengen: KI-Modelle benötigen umfangreiche historische Daten, um aussagekräftige Muster zu erkennen und zuverlässige Vorhersagen zu treffen. Beispielsweise müssen Verkaufstransaktionen über mehrere Jahre vorliegen, um saisonale Schwankungen und langfristige Trends zu identifizieren.
Es gibt keine universelle Zahl, da der genaue Bedarf von der Komplexität der Aufgabenstellung und den verwendeten Algorithmen abhängt. Dennoch können folgende Richtwerte genannt werden:
2. Mindestens 30.000 bis 50.000 Transaktionen sind eine gute Ausgangsbasis für einen ersten Proof-of-Concept von Prognosemodellen wie z.B. Cross-Selling-Analysen im B2B-Großhandel. Für komplexere Anwendungen, wie die dynamische Preisgestaltung oder Kundenabwanderungsprognosen, sollten mindestens hunderttausend Transaktionen zur Verfügung stehen.
Diese Zahlen ermöglichen es dem Modell, genügend Datenpunkte für verschiedene Produkte, Kunden und Zeiträume zu analysieren und verlässliche Muster zu identifizieren.
3. Vielfältigkeit der Transaktionen: Der Datensatz muss eine große Anzahl unterschiedlicher Verkaufsereignisse enthalten. Das bedeutet, dass möglichst viele Transaktionen mit unterschiedlichen Produkten, Kunden und Verkaufsregionen erfasst werden sollten, um das Modell mit einer breiten Datenbasis zu trainieren.
4. Zeitliche Abdeckung: Ein KI-Modell benötigt Daten, die über einen längeren Zeitraum gesammelt wurden. In der Regel sollten Daten über mehrere Jahre verfügbar sein, um sowohl kurzfristige als auch langfristige Entwicklungen erkennen zu können. Dies ist eine Faustregel: Für einen ersten Proof of Concept sollten mindestens die Daten eines Jahres enthalten sein.
Insgesamt gilt: Je mehr Daten in hoher Auflösung und über einen längeren Zeitraum verfügbar sind, desto besser kann ein KI-Modell im B2B-Großhandel funktionieren.
Datenqualität
Die Datenqualität ist ein wenig schwieriger… oder nennen wir es beim Namen: lästig.
Nicht umsonst gibt es den Spruch: „Everyone wants clean data but nobody wants to clean data!”
Bevor wir zu den Voraussetzungen kommen, hier ein Tipp zur Vorhergehensweise, wenn Sie mit KI im Vertrieb starten wollen und sich bezüglich der Datenqualität unsicher sind:
Die Hauptvoraussetzung ist die Quantität. Diese hat man oder man hat sie nicht. Die Datenqualität ist Fleißarbeit.
Erfahrene Predictive Sales Software Anbieter schauen sich mit Ihnen gemeinsam Ihre Daten an und geben dann konkrete Empfehlungen, wie es weitergehen kann. In den meisten Fällen sieht das so aus:
• Es sind nur kleine „Aufräumarbeiten“ zu erledigen, die maximal einen halben Tag / Tag in Anspruch nehmen. Dafür lohnt es sich nicht, den KI-Roll-Out zu verschieben. Je nach Entgegenkommen des Software-Anbieters können diese kleinen Reinigungsaufgaben auch übernommen werden.
• Die Daten sind sehr pflegeintensiv. Die „Aufräumarbeiten“ würden den Arbeitsaufwand eines Tages deutlich übersteigen. Hier lohnt es sich, im Vorfeld entweder interne Experten einzusetzen oder einen externen Dienstleister zu beauftragen.
Fehlerhafte oder unvollständige Daten führen zu fehlerhaften Modellen. Für maschinelles Lernen müssen die Daten korrekt, vollständig und frei von Inkonsistenzen sein. Fehlerhafte Eingaben (z. B. falsche Preise oder fehlende Transaktionsdetails) verzerren die Analyse und die Vorhersagen. Daher ist auch dieser „lästige“ Punkt wichtig. Sie alle kennen den Spruch: „Bullshit in, Bullshit out“.
Sechs wichtige Kriterien für Datenqualität
1. Verschiedene Datenpunkte (Attribute) pro Transaktion in Tabellenform: Für jedes Verkaufsereignis sollten Details wie Produktname, Preis, Menge, Kunde, Verkaufsdatum und Region erfasst werden. Diese Attribute sollten standardisiert in einer Tabellenform vorliegen. Gute Predictive Sales Software Anbieter geben Ihnen ein Template oder direkt eine Abfrage für Ihr ERP-System.
2. Daten-Konsistenz: Daten sollten über den gesamten Datensatz hinweg konsistent sein. In einem B2B-Großhandel sollten z.B. gleiche Produkte und Kunden immer einheitlich erfasst werden. Inkonsistenzen führen zu ungenauen Vorhersagen, da das Modell unterschiedliche Begriffe oder Formate nicht richtig interpretieren kann.
Beispiel: Datumsangaben in verschiedenen Formaten (DD/MM/YYYY und MM/DD/YYYY) oder Produktnamen mit unterschiedlichen Schreibweisen (z.B. „Prod-123“ und „123-Prod“).
Folgen: Unterschiedliche Formate können zu fehlerhaften Verknüpfungen oder Missverständnissen im Modell führen, da ähnliche Daten nicht korrekt zusammengeführt werden.
3. Aktualität der Daten: Maschinelles Lernen erfordert aktuelle Daten, um auf dem neuesten Stand der Marktentwicklungen und Kundenverhalten zu bleiben. Veraltete Daten führen zu ungenauen Prognosen, da sie die neuesten Entwicklungen und Marktveränderungen nicht widerspiegeln.
Beispiel: Eine monatliche oder sogar wöchentliche Aktualisierung von ERP- Daten ermöglicht es den Modellen, neue Trends und Kundenveränderungen zeitnah zu berücksichtigen.
4. Nicht zu viele fehlende Daten (Missing Data)
Problem: Einzelne Werte oder ganze Felder fehlen in Datensätzen, wie z.B. ein fehlender Verkaufspreis, Kunde oder Datum.
Erkennung: Fehlende Daten lassen sich durch die Analyse der Datensätze auf Null-Werte oder leere Felder entdecken.
Folgen: Fehlen wichtige Datenpunkte, kann das Modell keine präzisen Vorhersagen treffen, z.B. über Preissetzungen oder Verkaufsprognosen, weil essenzielle Informationen fehlen.
Beispiel: Wenn bei einer Verkaufsprognose der Preis eines Produkts fehlt, kann das Modell keine korrekte Einschätzung zum Preisakzeptanzverhalten der Kunden abgeben.
5. Keine falschen oder unplausiblen Werte (Outliers)
Problem: Daten enthalten Werte, die nicht in den normalen Bereich fallen oder offensichtlich falsch sind, wie z.B. unrealistisch hohe oder niedrige Preise oder Mengen.
Erkennung: Durch statistische Analysen (z.B. Standardabweichungen) können solche Werte als Ausreißer identifiziert werden.
Folgen: Ausreißer können das Modell verzerren, indem sie zu übermäßig gewichteten falschen Mustern führen. Insbesondere bei Preisanalysen oder Verkaufsprognosen können extreme Werte unbrauchbare Ergebnisse liefern.
Beispiel: Ein Preis von 1 Euro für ein Produkt, das normalerweise 10.000 Euro kostet, oder eine bestellte Menge von 1.000.000 Stück, wenn der Durchschnittswert bei 100 liegt.
6. Duplikate entfernen
Problem: Einträge im Datensatz sind doppelt vorhanden, was zu einer Überrepräsentation bestimmter Transaktionen führt.
Erkennung: Duplikate lassen sich durch das Überprüfen von mehrfachen gleichen Einträgen für dieselben Felder (z.B. gleiche Transaktionsnummern, Kundennamen oder Datumsangaben) identifizieren.
Folgen: Duplikate verfälschen die statistischen Auswertungen und die Gewichtung einzelner Transaktionen im Modell, was zu ungenauen Ergebnissen führen kann.
Beispiel: Eine Transaktion wird zweimal aufgezeichnet, was die Verkaufszahlen für dieses Produkt fälschlicherweise erhöht und dadurch falsche Prognosen generiert.
BERECHNEN SIE JETZT DEN ROI VON QYMATIX PREDICTIVE SALES SOFTWARE
Wann sind Verkaufsdaten im B2B-Großhandel KI-ready? – Fazit.
Die meisten B2B-Großhandelsunternehmen werden im Bereich der Datenquantität keine Probleme haben. Die Datenquantität ist auch ausschlaggebend für einen Use-Case für KI. KI-basierte Predictive Analytics Systeme sind erst ab einer gewissen Datenmenge rentabel, da nur so versteckte Potenziale sichtbar werden. Bei weniger Daten sind regelbasierte Analysen mit bekannten Tabellenkalkulationssystemen wie Excel völlig ausreichend.
Qualitativ sind sechs Hauptkriterien wichtig zu klären. Erfahrene Predictive Sales Software Anbieter unterstützen Sie dabei, den besten Weg zur qualitativen KI-Readiness zu finden!
Sie wollen mit KI im Großhandelsvertrieb starten und sind sich noch unsicher bezüglich Ihrer Daten? Vereinbaren Sie einen ersten Termin mit uns!