Warum der elektronische Austausch von Geschäftsdaten radikal neu gedacht werden sollte

175 000 000 000 000 000 000 000 Byte. Das sind 175 Milliarden Terabyte. Oder 175 Zettabyte. Ein unvorstellbares digitales Datenvolumen, das wir schon in 5 Jahren weltweit zu verarbeiten haben. 80% davon werden dann aufs Konto von Unternehmen gehen, wobei der Anteil der Echtzeit-Daten auf 30% gestiegen sein wird. Das prognostiziert eine gemeinsame Studie des Festplatten-Produzenten Seagate und des IT-Marktforschungsinstituts IDC. Der globale E-Business-Markt wird also weiter datenbefeuert und sich zu einer hyperkomplexen Daten-Matrix fortentwickeln, die für alle beteiligten Unternehmen eine echte Herausforderung darstellt.

Schon heute definieren weit mehr als 160 verschiedene branchenübergreifende Schnittstellen-Standards den globalen Austausch digitaler Daten. Da gibt es diverse Klassifizierungsstandards, Datenstrukturstandards, Datenübertragungsstandards, Transaktionsstandards, offene Standards und auch proprietäre Standards – also die, die Unternehmen nur für ihr eigenes Produkt entwickeln. Von dieser Komplexität weiß auch die Lebensmittelbranche ein Lied zu singen.

Doch wenn das Datenvolumen, das gesammelt und verwertet werden soll, immer gigantischer und gigantischer wird – sind unterschiedlichste fachliche und technische Standards dann überhaupt noch sinnvoll und zeitgemäß? Stichwort „Höchste Effizienz bei immer komplexer werdenden elektronischen Geschäftsprozessen“. Ich habe dabei auch die so genannten prediktiven Analysen im Kopf, mit denen Prognose-Daten erhoben und viel erfolgreicher nutzbar gemacht werden können. Für mich gehören diese Analysen zur Daten-Zukunft.

Schnittstellen Standards

Auf diese und weitere wichtige Aspekte werde ich in diesem Beitrag eingehen. Doch zunächst einmal – ganz allgemein skizziert – die Standards, die für die Lebensmittelbranche aktuell am wichtigsten und an Komplexität nicht gerade arm sind:

So weit zu den Schnittstellen-Standards, die von der Lebensmittelbranche aktuell am häufigsten genutzt werden. Das Heraus- und Überforderungspotential wird jedenfalls nicht geringer werden in den kommenden Jahren. Zumal sich schon zum jetzigen Zeitpunkt ein deutliches Problem bei der Nutzung solcher und ähnlicher Standards beobachten lässt.

Firma A zu Firma B:
Housten, wir haben ein Effizienz-Problem!

Der elektronische Datenaustausch über Schnittstellen-Standards ist abhängig von den technischen Voraussetzungen der beteiligten Geschäftspartner. Deren jeweilige IT-Systeme sind häufig aber sehr unterschiedlich beschaffen – wovon die verantwortlichen Personen auf beiden Seiten mindestens ebenso häufig keine Kenntnis haben. So passiert es zum Beispiel, dass klassische XML-Daten von der Absenderseite beliebig strukturiert und formatiert werden – von der Empfängerseite aber nicht erkannt, verstanden und verarbeitet werden können. Das Ergebnis ist natürlich kein gutes: Projekte verkomplizieren und verlängern sich, Budgets werden überschritten, und um die Zufriedenheit der involvierten Mitarbeiter steht es auch nicht immer zum Besten. Und damit auch nicht um die hohe Prozess-Effizienz, die mit Schnittstellen-Standards doch eigentlich angestrebt wird. Notwendig wäre ein zuverlässiges Projektmanagement. Das findet aber gar nicht erst den Weg auf die Agenda, weil das Verständnis für diese besondere IT- und Schnittstellen-Problematik meist einfach fehlt. So lässt sich aus meiner Sicht die Zukunft eines wirklich effizienten elektronischen Datenaustausches nur schwer bewerkstelligen. Es sei denn, wir denken um. Und lenken unsere Aufmerksamkeit zunächst auf ein Daten-Prognose-Modell, das auch für die Lebensmittelindustrie immer wichtiger werden wird – gerade in Zeiten einer sich weiter verkomplizierenden, globalen Daten-Matrix. 

Prediktive Analysen:
Daten schneller als in Echtzeit

Als Experte für die Digitalisierung der Gastronomie- und Lebensmittelbranche interessiere ich mich auch für Prognose-Daten, die mit so genannten prediktiven Analysen erhoben werden. Erst vor kurzem habe ich dazu einen Vortrag des innovativen Zukunftsforschers Sven Gabor Jansky besucht. Seine Ausführungen machten sehr deutlich, wie wichtig prediktive Analysen schon heute sind und bald noch wichtiger sein werden. Im Kern geht es dabei um das Kundenverhalten von morgen. Darum, es analytisch und exakt vorherzusagen, um frühzeitig auf sich mutmaßlich ändernde Kunden- und Marktbedürfnisse reagieren zu können. Eigens entwickelte Modelle und Algorithmen kommen dafür zum Einsatz, mit denen Daten über einen langen Zeitraum gesammelt, analysiert, ausgewertet und in Prognosen übersetzt werden. Die richtige Daten-Verwertungsstrategie ist dabei ebenso entscheidend wie die Datenqualität an sich.

Lieferanten und Gastronomen:
Beide profitieren

Prediktive Analysen werden bereits von einigen führenden Lebensmittellieferanten genutzt. Weil sie genau über ihre Daten „von gestern“ Bescheid wissen, können sie heute ihre Produktion und Logistik hocheffizient planen. Denn die Vorlieben ihrer Kunden sind schon bekannt. Regionale wie saisonale Besonderheiten halten keine Überraschungen mehr bereit. Nachfrageschwankungen sind erkennbar, bevor sie überhaupt entstehen. So werden bestens austarierte Versorgungsketten mit geringen Lagerständen möglich, welche gleichzeitig immer lieferbereit sind. In der richtigen Produktmenge der richtige Marke für den richtigen Kunden.

Prediktive Analysen sind deshalb auch für Gastronomiebetriebe ein Modell der Zukunft. Wie hoch waren die Gästezahlen der vergangenen Jahre an diesem und jenem Wochentag? Wie hoch an diesem und jenem Feiertag? Wie hoch in den Osterferien, Sommerferien, Weihnachtsferien? Welche Gerichte und Getränke wurden jeweils wie oft verkauft? Je qualitativer diese und weitere Antworten ausfallen, desto besser können Gastronomen planen – sowohl ihr Personal als auch ihre Einkäufe als auch ihre Marketing-Aktivitäten. Mit dem Ergebnis, das nun ein gutes ist: Kosten werden übers gesamte Geschäftsjahr vielfach eingespart, Lebensmittel deutlich weniger verschwendet, Zielgruppen viel genauer angesprochen.

So weit zu den prediktiven Analysen und den Erfolgspotentialen, die sie mit sich tragen. Doch was hat das nun mit der digital-globalen Datenmasse und den diversen Schnittstellen-Standards des E-Business zu tun? Sie ahnen bereits, worauf ich hinaus möchte? Dann komme ich nun zu einer zugegebenermaßen radikalen Vision.

Gemeinsame Schnittstellen Standards

In Zukunft gibt es nur noch einen Schnittstellen-Standard. Einen Standard für den gesamten elektronischen Austausch geschäftlicher Daten weltweit. Einen Standard, der die Struktur, den Versand, den Empfang und die Verarbeitung aller Daten definiert. Einen Standard, den alle Branchenplayer der Lebensmittelindustrie und darüber hinaus nutzen und in wirklich effiziente Geschäftsprozesse gießen. Weil Datenübertragung und -management dann wirklich einfach sind. Weil neue Händler und Produzenten allein per Schnittstellen-Aktivierung ins System eingebunden werden – ohne Mehraufwand. Und weil mit nur einem Schnittstellen-Standard auch die Lebensmittel-Transparenz deutlich erhöht wird.

Es fällt mir schwer daran zu glauben, dass das Handling bald mehrerer hundert Milliarden Terabyte mit den gelernten Automatismen der Branche zu beantworten ist. Nämlich weiter auf ein jetzt schon kaum zu überblickendes Angebot an Schnittstellen-Standards zu setzen, die bekannte Probleme eher verschärfen als sie zu lösen imstande sind. Ganz zu schweigen von den Kosten, die sie verursachen. Zum Beispiel was die Entwicklung und den Betrieb solcher Standards, aber auch häufig anfallende Lizenzgebühren betrifft.

Ein unabhängiger Expertenkreis.
Für eine gemeinsame Technologie

Mir ist natürlich bewusst, dass sich bis heute ein riesiger Wirtschaftszweig mit hunderttausenden Unternehmen im E-Business-Markt etabliert hat. Die Abhängigkeiten sind groß. Der Druck, sich nachhaltig zu sich verändern, wird aber auch nicht gerade kleiner. Und so bleibt die Zukunft des elektronischen Datenaustauschs ein äußerst spannendes Business-Segment – das aus meiner Sicht neu gedacht und neu diskutiert werden sollte. Idealerweise in einem unabhängigen Expertenkreis, der aus Vertretern der Digitalisierungsbranche, Wirtschaftspolitik und Forschung besteht. Im Prinzip wissen wir bereits um die genauen Bedürfnisse der Unternehmen. Um die fachlichen und technischen Spezifikationen, die jeweils notwendig sind und bedient werden müssen. Fehlt nur noch das gemeinsame Engagement, eine gemeinsame und deshalb zukunftsweisende Schnittstellen-Technologie zu entwickeln. Schritt für Schritt. Die Herausforderung ist groß. Aber nicht unlösbar.

Dazu würde ich mich gerne mit Ihnen austauschen.

Herzlichst,
Ihr Thomas Primus

Thomas Primus

CEO & Co-Founder von FoodNotify

Der studierte Betriebswirt Thomas Primus mit großer Leidenschaft für Lebensmittel, IT und Gamification kehrte 2013 der Finanzindustrie den Rücken. 2014 gründete er mit 3 Partnern sein eigenes Unternehmen, FoodNotify. Das IT-Unternehmen entwickelt cloud-basierte, unabhängige digitale Lösungen für die Gastronomie-Branche und gilt als Pionier bei der Digitalisierung der Lebensmittelbranche und von Lebensmitteldaten. Sein Steckenpferd ist die Vorhersage von Warenflüssen in der Gastronomie.