Geldinstitute

18.02.2019 von Ingrid Vollweiter und Fuad Sahinovic, STRANGE Consult GmbH

Das Geschäft mit den Daten

Daten- und Informationsmanagement: Anforderung und Chance zugleich. Die strategische Agenda der Regulatorik zeigt eine Weiterentwicklung zur Mikrodatenverarbeitung mit dem Ziel weiterer Verbesserungen von Transparenz und Steuerungsfähigkeit.

Datenmanagement – ein Zukunftsfeld und Differenziator für erfolgreiche Banken

Die disruptiven und regulatorischen ­Einflüsse bestimmen zunehmend den Finanzdienstleistungsmarkt; Informationen und Daten werden zu einem der Key-Assets. Zukunftsfähige Finanzinstitute müssen bereits jetzt in der Lage sein, Mehrwertleistungen aus anderen Branchen im Sinne Lifecycle-Partner ihrer Kunden zu integrieren. Nur so lässt sich das gesamte Potenzial zukünftiger Kundenbedürfnisse ganzheitlich abdecken. Das gilt auch und gerade für das Mikrodatenmanagement. 

Die Bedeutung der drei „V“ steigt

 

Im Kontext der regulatorischen Anforderungen aus EZB, BaFin und Bundesbank wird die Größe des Datenbestandes und Vielfalt der Datenquellen und -strukturen mit den sogenannten „3 V“ (Volume, Variety, Velocity) immer bedeutender. Darüber hinaus gewinnt auch die „Veracity“ (Richtigkeit, Wahrhaftigkeit) als weiteres Merkmal im Daten- und Informations­management an Bedeutung. Die Verarbeitung von Mikrodaten stellt unterschiedliche Anforderungen bzw. Aspekte an die Gewinnung, Verarbeitung und Analyse von großen Datenmengen. Von den verarbeitenden Systemkomponenten werden die Anforderungen von Echtzeitsystemen erwartet: Hochverfügbarkeit bzw. garantierte Erreichbarkeit, geringe Latenz und horizontale Skalierbarkeit. 

In Echtzeitsystemen werden zwei Arten von Latenzen unterschieden: Auf der einen Seite die Zeitspanne bis eine Information entgegengenommen und an die entsprechende Komponente weitergeleitet wird. 

Zum anderen die Dauer, die das System benötigt, um neue Daten zu verarbeiten und dem Benutzer zur Verfügung zu stellen. Sie garantieren zusammen ein zuverlässiges System, welches im Bereich Echtzeit- und Streaming-Datenverarbeitung eingesetzt werden kann. 

Mikrodaten bilden Transaktionen und ­finanzielle Beziehungen zwischen wirtschaftlichen Subjekten ab. Weitere Datenquellen können dieses Bild komplementieren bzw. verdichten oder aggregieren. Die logische Konsequenz aus der Aggregation von Mikrodaten erzeugt die Möglichkeiten, daraus Makrodaten zu ­gewinnen indem sie Erwartungen bzw. Sentiments der Marktteilnehmer (explizit) messen. Für Banken und Sparkassen bedeutet das: Sollten sie in der Lage sein diesen Datenschatz zu heben, winken neue, dringend benötigte Geschäfts­modelle. Aber nur wenn alle Prozesse compliant abgebildet sind.

Innovation immer wichtiger 

 

Gerade große Banken wissen um die ­Bedeutung von Innovation. Von 1955 bis 2014 waren 89 Prozent der Fortune 500 Unternehmen nicht mehr auf der Liste. Streaming Data beschreibt den kontinuierlichen Datenfluss, der von Systemen verarbeitet werden muss. Durch technische Neuerungen werden die bisherigen Datenflüsse um ein Vielfaches größer. Dieser Effekt wird durch Smart Every­thing, Internet of Every­thing bzw. Internet of Things verstärkt. Streaming Data wird hauptsächlich durch drei Eigenschaften charakterisiert: Immer an, immer fließend, durch die lose Strukturiertheit der Daten und einer hohen Kardinalität der einzelnen Datensätze. Die Vernetzung befeuert den Wandel. Die verändernden Anforderungen an die Datenverarbeitungen bieten enorme Möglichkeiten für neue disruptive und agile Systeme für den Finanzdienstleistungsmarkt, welche von FinTechs als neue Player angeboten werden. 

Daten als Anforderung und Asset für Wettbewerbsvorteile

 

In den Unternehmen gibt es keinen zentralen Server, wo die eine richtige Datei liegt (Single Point of truth), sondern es gibt eine Systemwelt. Die Datenzentriertheit wird durch den Zugriff auf das verteilte System im technischen oder physischen Sinn, die Richtigkeit der Information (vgl. Single Point of Truth) und z. B. durch das Proof of Stake-Konzept (Blockchain) gegeben. Ein langfristig ausgerichteter Einsatz von digitalen Trendthemen wie etwa Distributed Ledger Technolo­gien (DLT) und Blockchain erweitern hochgradig das strategische Modell eines datenzentrierten Unternehmens. 

Hier liegen in Zukunft die eigentlichen Assets, denn sie liefern wertvolle Potenziale für die klassischen Finanzdienstleister mit Hilfe unternehmensübergreifender Erweiterungen der Daten und Back-Office-Prozesse zu den Regulatoren und Partnerunternehmen wie den Clearinghäusern. Am Beispiel der DLT wird deutlich, wie interne Datenhaltungs- bzw. Reconciliation-Prozesse die Reporting Möglichkeiten verein­fachen, Potenziale aus der Verarbeitung von Kundendaten steigern und gleich­zeitig die Sicherheit der Informationen sicherstellen können. 

Hierfür ist ein Umbau von Anwendungs- und Datensilos zu „Data Hubs“, in diesem Fall internen ­Distributed Ledgers, eine Voraussetzung.

Gigantische, rasant wachsende Datenmengen in Verbindung mit hoch performanten, neuen IT-Frameworks machen es nicht einfacher, sondern schwieriger und komplexer, verlässliche Informationen zu generieren. Die Komplexität erfordert unter anderem neue Kompetenzprofile von Mitarbeitern und Organisationsstrukturen. Die Entwicklung von einer manuellen, inselorientierten und in transparenten Datenwelt zu einer hoch automatisieten, über Unternehmensgrenzen hinweg konsistenten und integren Datenbewirtschaftung ist erforderlich. Dabei ist das jeweilige Geschäftsmodell auf eine neue Daten- und Informationsebene zu heben. 

Reifegradmodell hilft bei der Umsetzung

 

Datenzentrierung und die Nutzungsmöglichkeiten von Daten als Asset sind nicht auf Knopfdruck möglich. Aus der Erfahrung braucht es einen Entwicklungs­prozess des Unternehmens, um in eine effiziente Nutzungsmöglichkeit der Daten und Informationen zu wachsen. Das STRANGE Reifegrad-Modell kennt ­dabei vier Reifegrade auf dem Weg zu ­einem daten- und informationszentrierten Unternehmen. Die Reifegrade bauen aufeinander auf und können nicht wirklich „übersprungen“ werden.

Der projektorientierte und oft technische Aufbau von operationalen Datenhaltungssystemen und die bedarfsorientierte Weiterentwicklung des Reifegrads 1 bilden die Grundlage für den Bedarf von individuellen Lösungen (IDV) zur Zusammenführung, Verdichtung, Berechnung und Darstellung von Daten. Darüber hinaus entsteht ein erhöhter Aufwand durch kaskadierte und schwer nachvollziehbare Daten nebst der Implementierung von unabhängigen Plausibilisierungsschritten.

Im Reifegrad 2 ist ein zentrales Datawarehouse das Fundament einer nachhaltigen Datenarchitektur und bildet einen unternehmensweiten „Single Point of Truth“ für strukturierte Daten. Zusammen mit einem automatisierten Data Governance Rahmenwerk entsteht ein Ökosystem, welches fortwährend die Integrität und notwendige Transparenz des unternehmensweiten Datenuniversums und einer immer schneller wachsenden Datenmenge garantiert.

Die Big Data Analyse im Reifegrad 3 ermöglicht die Auswertung von sehr großen Datenmengen, unterschiedlichsten Datenquellen und Datenformaten sowie das Erkennen von komplexen Zusammenhängen und Mustern (Golden Nuggets). Die neugewonnenen Informationen erlauben eine zeitnahe und zielgerichtete Anpassung von Produkten und Kundenservices, bzw. ermöglichen eine Ausrichtung der Unternehmensstrategie an eine sich immer schneller verändernde Marktumgebung.

Im Reifegrad 4 wird mittels Machine Learning und Künstlicher Intelligenz in Minuten das Erkennen von Mustern in riesigen und sehr komplexen Datenmengen erlernt, für die Menschen mehrere Jahre benötigen. Die Regel ist: Je mehr integre Datenquellen und Datenformate, desto besser und schneller können nicht nur bestehende Muster, sondern Muster-Veränderungen und sogenannte Events, analysiert werden. Damit entsteht die Möglichkeit, situativ und individuell ­kundenzugeschnittene Services und Produkte anzubieten, bzw. schnell auf komplexe Marktveränderungen frühzeitig zu reagieren. 

Ausblick und Entwicklungsmöglichkeiten

 

In einem Portal werden auf den Kunden ­zugeschnittene Informationen, Produkte und Angebote angezeigt. Dafür muss ein semantisches Bild (Customer DNA) erstellt werden. Wichtig für die Erzeugung und den erfolgreichen Einsatz eines solchen Bildes sind die vorgelagerten Analysen: Angefangen bei dem fachspezifischen Wissen und Verständnis für den grundlegenden Geschäftszweck (Business Understanding). Über das Verständnis der vorhandenen ­Daten (Data Understanding), welche dann selektiert und homogenisiert werden müssen (Data Preparation). 

Im letzten Schritt werden Modelle entwickelt, welche die ­Daten interpretieren und Informationen daraus generieren können (Modell Building). Diese Modelle können als Grundlage für Machine Learning dienen. So können Systeme die Customer Journey begleiten, indem sie durch prädiktive Analyse individuelle Verhaltensweisen voraussagen und entsprechend auf den Kunden reagieren. 

Fazit

 

Mit der im Markt bereits etablierten Innovation zur Betriebsautomatisierung wird die Grundlage für eine umfängliche Digitalisierung im Datenmanagement Umfeld gelegt. Jedoch entsteht der Mehrwert von Daten nicht ausschließlich durch die Digitalisierung, sondern durch das Zusammenspiel einer nachhaltigen Datenarchitektur und eines umfänglichen Data Governance Rahmenwerks, welches eine unternehmensweite ­Datenintegrität und Transparenz garantiert.