Beiträge

Shared Data – Datenmodelle der Zukunft

26.9.2019 / Falk Borgmann, Strategy Consultant, Deepshore GmbH

Vor 78 Jahren erfand Konrad Zuse den ersten Computer. Vor etwa 50 Jahren wurden die ersten Vorläufer von EDI-Nachrichten in den USA ausgetauscht. Und vor ca. 25 Jahren wurde das XML-Format geboren. Adaptiert man 78 Jahre der Computergeschichte auf die Entwicklung der Menschheit, wurde das Konzept zum Austausch von Daten zwischen unabhängigen Computersystemen quasi in der Steinzeit erfunden. Ein schlechtes Konzept ist es sicherlich nicht, denn der Erfolg gibt ihm recht. Ganze Disziplinen und Zweige der IT machen heute nichts anderes, als sich um Schnittstellen zu kümmern.

Die Schnittstelle: Wenn es um Datenaustausch geht, kann sie eigentlich niemand leiden, sie gilt meist als kompliziert, kostet Geld und macht nichts als Ärger. Aber ohne sie kann eine moderne IT Infrastruktur nicht leben. Wer kennt eine große IT-Lösung, die nicht schon einmal ein produktives Problem mit Schnittstellen gehabt hätte?

Heute, zu einer Zeit, in der jeder von Digitalisierung und Innovation spricht, darf in einigen Bereichen des Datenaustausches davon ausgegangen werden, dass sich das Konzept der klassischen Schnittstelle innerhalb der nächsten Jahre verändern wird. Dabei geht es nicht darum, bessere Verfahren oder Formate zu entwickeln. All das hat nichts mit Innovation, sondern eher etwas mit altem Wein in neuen Schläuchen zu tun. Es geht vielmehr um die Frage, wie einige Systeme in Zukunft Daten teilen bzw. verarbeiten. Hier werden neue Konzepte entwickelt und es ist an der Zeit, in einigen Bereichen alte Denkstrukturen über Bord zu werfen. Man sollte aber nicht versuchen, alle fachlichen Systemprozesse auf einer einzigen technischen Datenplattform zu vereinigen, um alle Schnittstellen loszuwerden. Ich will nicht sagen, dass dies ausgeschlossen ist, jedoch liegen sinnvolle Innovation und Fantasterei häufig dicht beieinander. Konzepte, die mit einer ernst zu nehmenden Wahrscheinlichkeit Erfolg haben wollen, müssen eine valide Perspektive für die heutige Welt liefern, um Aufmerksamkeit zu erhalten.

Taucht man eine Ebene tiefer als in die reine Fachlichkeit von IT Anwendungen ab, in die technische Architektur, nähert man sich den einzelnen Datenspeichern der klassischen IT-Systeme. Hier finden sich in erster Linie Datenbanken und File Stores. Nehmen wir also einmal an, man würde nicht die Fachlogik der Lösungen, sondern Teile der darunter liegenden Datenpersistenzen vereinheitlichen. Nehmen wir weiter an, man könnte das in einer Form erreichen, bei der einzelne Systeme nicht auf den gleichen, sondern auf denselben Daten arbeiteten. Als Beispiel können wir uns einen Verkaufsbeleg einer Kasse eines großen Einzelhändlers vorstellen. Dieser Beleg wird typischerweise von einer Kasse produziert und über ein EAI-System als physikalischer Datensatz in ein ERP, ein DWH und ein Archiv übertragen. Der gleiche Datensatz, also in dem Beispiel dreimal kopiert, dreimal verarbeitet und dreimal erneut gespeichert, um anschließend fachlich/inhaltlich im jeweiligen System prozessiert zu werden. Stellen wir uns nun alternativ vor, dass die Kasse den Beleg direkt in einen Datenspeicher produziert, der die Anforderungen eines steuerrechtlich legalen Archivs erfüllt. Genau an der Stelle wäre es doch ein Vorteil, wenn ein ERP oder ein DWH sich seine Informationen jeweils direkt aus eben diesem Datenspeicher holen würde, ohne eine datenlogistische Infrastruktur als Zwischenschicht. Dies bedeutete, dass wir bei dem Szenario weder eine klassische Dateischnittstelle oder das damit verbundene Handling hätten. Eine starke Reduktion bei Aufwänden der Fehlerbearbeitung und im technischen Clearing wären die Folge. Weniger Monitoring, Betriebsaufwände und zu guter Letzt würden wesentliche Teil der EAI-Infrastruktur überflüssig werden. Bei einem großen Unternehmen sprechen wir in dem Bereich von durchaus relevanten Aufwänden und Kosten. Natürlich müssten bei diesem Szenario die Fachsysteme entsprechend in der Lage sein, mit der bereitgestellten Datenstruktur umzugehen.

Betrachtet man die typische Infrastruktur einer klassischen Konzern-IT, findet man: ERP, DWH, CRM, Archiv, EAI, etc. ... Klar wird: Wir haben heute große und komplizierte Gemischtwarenläden innerhalb der IT. Siloartige Gebilde, die in den meisten Fällen über Schnittstellen zum Datenaustausch miteinander verbunden sind. Das gilt in der echten Welt übrigens auch für die „Module“ großer Systemhäuser. Wenn ein Vertriebsmitarbeiter von vollintegrierten Modulen spricht, ist nicht selten von gut getesteten Schnittstellen zwischen diesen Systemteilen die Rede. Selbst innerhalb solcher „geschlossenen“ Systeme werden Daten häufig redundant auf teuren Speichern abgelegt. Gegen eine gewollte Datenredundanz spricht an sich nichts, jedoch handelt es sich in dem Fall monolithischer Systeme nicht um ein gezieltes Verteilten auf z. B. preiswerten Cloudstorage, sondern meist um dedizierte und teure Persistenzen einzelner Systeme.

DeepshoreAbb. exemplarische Systemlandschaft (Bsp. Kassendaten)

DeepshoreAbb. exemplarische Systemlandschaft (Bsp. Kassendaten)

Warum sollten sich aber diese Systeme nicht zumindest an den Stellen die Daten teilen, an denen es technisch Sinn machen würde? Warum können z. B. ein Archiv und ein DWH nicht auf denselben Daten arbeiten? Ganz einfach: weil es physisch und technisch getrennte Systeme sind. Aber warum muss das so sein? Redundante Infrastrukturen und Datenversorgungen sind teuer und nicht immer sinnvoll. Die Frage ist also, wie ein alternatives Konzept in diesem Bereich aussehen könnte, das die Datenpersistenzen verschiedener Systeme an genau den Stellen vereinheitlicht, an denen sich ein Mehrwert ergibt. Versucht man einen Datensatz an sich als Service für unterschiedliche fachliche Anforderungen zu begreifen, ist man schon einen ganzen Schritt weiter, sich von den siloartigen Denkmustern der 90er-Jahre zu lösen. Um sich dieser Vision auch technisch zu nähern, hilft es, die drei großen IT-Hypes der letzten Jahre zu betrachten. Was haben Big Data, Blockchain und Künstliche Intelligenz gemeinsam? Sie basieren technisch alle im Kern auf Konzepten, die häufig oder ausschließlich auf verteilte Systeme setzen. Das Stichwort ist: verteilte Systeme. Ein verteiltes System ist ein Computersystem unabhängiger Instanzen, die jedoch von außen betrachtet, als ein einzelnes System agieren. Wie es der Name schon vermuten lässt, haben sie architektonisch den Vorteil, an verschiedenen Standorten verfügbar und ausfallsicher implementierbar zu sein. Nun muss man solch ein verteiltes System noch als Grundlage einer Datenpersistenz für einen Shared Data Services-Gedanken betrachten. Systeme speichern ihre Daten demnach in einem gemeinsamen und verteilten System. Einige fachliche Funktionen von Systemen könnten sogar gänzlich überflüssig werden, da diese im Rahmen eines Servicemodells quasi mitgeliefert würden. Ein Beispiel wäre z. B. das klassische Langzeitarchiv im steuerrechtlichen Kontext.

Verfolgt man diesen Ansatz weiter, wären sogar Shared-Infrastructure-Modelle zwischen einzelnen Firmen möglich. So ist die Rechnungsstellung eines Lieferanten denkbar, der seine Rechnung nicht mehr elektronisch via Mail/EDI übermittelt, sondern direkt in einem geteilten Datenspeicher erzeugt, auf den dessen Kunde gleichermaßen Zugriff hat. Wurde die Rechnung übermittelt? Ist sie korrekt übertragen worden? Wer ist für den Fehler im Verarbeitungsprozess verantwortlich? Ist sie signiert? Müsste sie im konkreten Fall signiert sein? All diese Fragen wären überflüssig. Gewissermaßen ein Datensatz als Service.
Die Herausforderungen einer solchen Architektur sind sicherlich nicht trivial, jedoch nicht unmöglich zu lösen. Die Komplexität hängt, wie immer, von der konkreten Ausprägung bzw. den Anforderungen ab.

Vor etwa 25 Jahren, als XML erfunden wurde, begann auch das kommerzielle Handyzeitalter mit den ersten SMS-Funktionen. Heute fotografieren, filmen und bezahlen wir mit dem Smartphone. Es kann uns navigieren und wir lassen unsere Umwelt via Social Media an unserem Leben teilhaben. Ob alles besser wird, sei hier dahingestellt, jedoch ändern sich die Konzepte, wie wir und auch Unternehmen miteinander interagieren.

Das klassische Schnittstellenkonzept, bei dem ein Datensatz von einem Computersystem zu einem anderen System durch eine eigene Software- & Serverinfrastruktur übertragen und anschließend in teuren Speichermedien verwaltet wird, ist ein erfolgreiches, aber in Teilen der IT auch ein auslaufendes Modell. Die Zukunft liegt für einige Anwendungsfälle in verteilten Systemen mit Shared Data Modellen. Hier lassen sich langfristig signifikant IT-Kosten einsparen und technische Prozesse verschlanken.

Es existiert ein enormes Potenzial, das die großen Software-System-Häuser und deren Kunden noch nicht erkannt haben oder aber nicht erkennen wollen. Zum Teil ist das auch nachvollziehbar, da sich einige Hersteller auf die Problemlösungen in diesem Bereich spezialisiert haben und nicht zuletzt durch unnötig komplizierte Projekte in dem Umfeld gutes Geld verdienen: Cloud, Big Data und KI. Neue Anwendungsgebiete und Technologien bringen Verteilung mit und es ist nur eine Frage der Zeit, bis sich neue Modelle auch in der „alten IT-Welt“ der etablierten Unternehmens-IT durchsetzen. Befeuert durch den Digitalisierungsdruck arbeiten duzende von Firmen an neuen Konzepten und Ansätzen in diesem Bereich. Die Frage ist nicht ob, sondern welche Modelle und Technologien sich hier durchsetzen werden und wie sich die klassische IT-Welt gegenüber dieser Entwicklung aufstellen wird.

Aus unserem Special
»BLOCKCHAIN: COMPLIANCE FÜR DIE BUSINESS CLOUD«
Beitrag 17/18
Teilen: