Geldinstitute > Strategie

09.01.2018 von Michael Rohde, STRANGE Consult GmbH und Mete Demez, BIG.Cube GmbH

Das wahre Gold der Banken sind ihre Daten und Informationen

Die aktuellen Banksysteme können diese nicht effizient zur Verfügung stellen. Die größten Herausforderungen für die Organisation und die Systeme liegen in einem durchgängigen und nachhaltigen Umgang und der Bereitstellung von Daten.

Michael Rohde, STRANGE Consult GmbH

Mete Demez, BIG.Cube GmbH

Vier große Herausforderungen – Digitalisierung, regulatorische Anforderungen, Rentabilitätsdruck und Modernisierung der Unternehmensstruktur – bedingen ­einen Paradigmenwechsel in der Aufstellung der Finanzinstitute in Organisation und Systemen.

• Digitalisierung
Die Finanzdienstleister haben erkannt, dass sich die Erwartungen und das Verhalten der Kunden drastisch verändert haben. Zur Erfüllung dieser Kundenerwartungen sind erhebliche Anstrengungen für ein ­digitales und automatisiertes Banking ­notwendig.

• Regulatorische Anforderungen
Das Management regulatorischer Anforderungen verfolgt aktuell primär das Ziel einer transparenten und nachvollzieh­baren Umsetzung der Vielzahl an Regeln aus dem Aufsichtsrecht. Die Heraus­forderung liegt zunehmend darin, die Effizienz von Change und Run nach den Vorgaben aus einem regulatorischen ­Office sicherzustellen.

• Rentabilitätsdruck
Dem Rentabilitätsdruck begegnen Finanzdienstleister mit Initiativen zur Kostensenkung und Ertragssteigerung. Während nach der Finanzkrise Kostensenkungsprogramme dominiert haben, werden nun Initiativen zur Ertragssteigerung als leicht wichtiger eingestuft. Auf der Kostenseite ist es schwieriger geworden, weitere Produktivitätssteigerungen und Kostensenkungen zu realisieren, wenn der Kundenertrag sich ­permanent reduziert.

• Modernisierung der Unternehmensstruktur
Die Umsetzung der Herausforderungen erfordert einen signifikanten Umbau des Operating Model hin zu agilen und flexiblen Organisationsmodellen. Insbesondere entsteht von den FinTechs mit ihren unkomplizierten Transaktions- und Interaktionsverfahren sowie den daraus branchenübergreifend gestalteten Mehrwertservices für die Kunden ein zusätzlicher Transformationsdruck, der Strukturveränderungen bei den Finanzdienstleistern erfordert.

Getrieben von immer weitergehenden regulatorischen Anforderungen, stehen die Finanzdienstleister vor der Herausforderung, zunehmend umfangreichere und granularere Daten in Echtzeit für Reporting, Risikomanagement und zur operativen Steuerung der Bank bereitzustellen. Die Vorgaben erstrecken sich nicht nur auf die Inhalte und Quantität der benötigten Daten, sondern haben nicht zuletzt durch BCBS 239 gerade auch die Qualität der Daten und ihres Managements in der Prozesskette im Fokus. Anstehende Initiativen wie BIRD, ERF und SSD schreiten in diese Richtung weiter voran. Als zusätzlichen Treiber erfordert die Digitalisierung von Vertriebskanälen sowie den Front- und Backoffice-Funktionen unbedingt eine übergreifende, konsistente und qualitätsgesicherte Datenbasis, ohne die eine kanalübergreifende Bearbeitung von Kundenanfragen oder eine unterbrechungsfreie Prozessautomatisierung nicht möglich ist. Für die Unternehmen gilt es, den dafür notwendigen technischen und prozessualen Veränderungen durch den Aufbau eines effizienten Data Quality Managements (DQM) zu begegnen.

Vielschichtige Herausforderungen im Unternehmen


Der Paradigmenwechsel führt dazu, dass Finanzdienstleister weltweit in einem nie dagewesenen Ausmaß zahlreiche Herausforderungen parallel und in hoher Geschwindigkeit bewältigen müssen. Es gibt nicht (mehr) den einen Hebel – es ist vielmehr ein Zusammenspiel vieler Maßnahmen erforderlich.

In diesem Umfeld sind in vielen Instituten systemseitige Lösungen umgesetzt worden, die mit ihrer Datenbewirtschaftung zwar die aktuellen Anforderungen an ein regulatorisches Reporting erfüllen, jedoch zu Defiziten in ihrer Gesamtarchitektur und ihrer Datenqualität geführt haben: Die bestehenden Architekturen erzeugen durch ihre siloartigen Strukturen zum Teil erhebliche „run the bank“-Kosten (bspw. für manuelle Korrekturen, Interimsverfahren, Datenkonsistenzlösungen). Sie gehen einher mit hohen „change the bank“-Kosten (bspw. die Ergänzung bestehender Reports um neue Informationen oder die Einbindung neuer Datenquellen in ein DWH). Sie sind durch die wiederholte Verarbeitung derselben Daten in verschiedenen Verarbeitungsstufen für verschiedene Meldungen gekennzeichnet. Daraus ergibt sich für die strategische Ausrichtung der IT Landschaft, dass die klassische Architekturpyramide durch eine moderne (datenbasierte) Architekturpyramide zu ersetzen und operativ anzuwenden ist. Die ­Datenarchitektur stellt die Grund­lage für die IT Definition dar. Auf der prozessualen Seite sind die Verantwortlichkeiten, Rollen und die Regeln für die Daten häufig nicht eindeutig zugeordnet oder können durch die Verteilung über die verschiedenen Bereiche nicht wahrgenommen werden. Als Folge dieser fehlenden Governance sind typischerweise wichtige Datendomänen oder ­Berechnungsmethoden bestimmter Kennziffern nicht unternehmensein­heitlich definiert. Sie müssen aufwendig manuell übergeleitet werden oder führen zu mehrdeutigen oder widersprüchlichen Reportings an die Vorstandsebene.

Erschwerend kommt hinzu, dass in vielen Fällen Probleme mit der Datenqualität erst ex post nach langwierigen Analysen erkannt werden. Es fehlen Verfahren zum Aufdecken und Beheben solcher Abweichungen. Dieser fehlenden Transparenz muss mit etablierten Messverfahren und aussagekräftigen Kennziffern für eine dauerhafte Bewertung der Datenqualität entgegen gewirkt werden.


 

DQM Regelkreislauf – die Erfolgsbasis


Sowohl die regulatorischen Anforderungen für Risikodaten als auch die Notwendigkeit, die Datenqualität im Unternehmen für die Digitalisierung und Prozessautomatisierung insgesamt zu heben, setzen die Einführung eines effizienten Data Quality Managements voraus. STRANGE hat dafür zusammen mit seinem Partner Big Cube ein Konzept entwickelt, dessen Elemente im abgestimmten Zusammenspiel aus einer übergreifenden und steuernden Data Governance als Ordnungsrahmen, dem eigentlichen Data Quality Management mit seinem regelkreis­basierten Prozess und den Komponenten des Data Quality Layers bestehen. Alle drei Elemente werden in einem auf die Situation der Bank angepassten Vorgehen umgesetzt. Der DQM-Regelkreislauf gewährleistet die vollständige Implementierung des Datenqualitäts-Managements über alle Systeme der Bank und sorgt für eine kontinuierliche Verbesserung der Daten­qualität.

In der Data Governance wird der Rahmen für das geforderte Datenqualitäts-Management gesetzt. Dazu gehört der Aufbau einer übergreifenden Organisationsstruktur mit einem zentralen DQM-Comittee und dem Chief Data Officer als Head of Data Quality, sowie dezentralen Data Ownern in Fach- und IT-Bereichen. Mit der Beschreibung ihrer Rollen und Aufgaben (zum Beispiel als Data Provider oder Data Consumer) sind die Verantwortlichkeiten festgeschrieben. Eine klare und effiziente Kommunikation und Eskalation von Datenqualitätsproblemen bis zum Senior Management sind festgelegt.

Das Data Quality Management sorgt für die Etablierung eines kontinuierlichen Data Quality Prozesses. Er folgt dabei einem regelkreisbasierten Ansatz. Es definiert Metadaten und ein Data Dictionary zur Klassifizierung und eindeutigen Bestimmung der Daten. Auf Basis von ­toolgestützten Methoden werden Data Quality Probleme erkannt und analysiert. Ebenso werden im Regelkreis die benötigten Metriken zur Data Quality festgelegt und implementiert. Ein Data Quality Reporting und Statistiken auf Basis von Metriken zur Messung sorgen für die notwendige Transparenz im Ablauf und für die beteiligten Stakeholder.

Der Data Quality Layer ist die technische Plattform für das DQM und die in der Data Governance und im Data Quality Management etablierten Organisationsstrukturen und Prozesse. Die hier definierten Regeln und Kennzahlen werden dort ab­gebildet, geprüft und als Reports zugänglich gemacht.

 



Die „Analytics Live Plattform“ von Big Cube ist eine Lösung, die auf der SAP HANA EIM Architketur aufgebaut ist und als zentrales Herzstück das Produkt Q-Thor den BIG.Cube beinhaltet. Über die SAP HANA Komponente Replication Layer werden beliebige operative Quellsysteme (relationale Datenbanken, Legacy Systeme, SAP ERP, ...) zur Replikation der Daten in real-time angebunden. Im Data Quality Layer des ­Produktes Q-Thor durchlaufen die ­Daten die definierten Quality Regeln in Echtzeit. Die Ergebnisse der Prüfungen werden im Presentation Layer mittels des Q-Thor Cockpits in Dashboards real-time zur Verfügung gestellt. Zudem erfolgt eine automatisierte Benachrichtigung der Data Owner im Fehlerfall, der somit die aufgedeckten Abweichungen umgehend prüfen und beheben kann, ­bevor der Fehler im weiteren Verar­beitungsprozess in die angrenzenden Systeme vererbt wird.

Die Menge der Daten in den Unternehmen steigt kontinuierlich an und erhöht somit die Kosten zur Sicherstellung der Datenqualität, die immer noch in vielen Unternehmen mit „Handarbeit“ durchgeführt wird. Durch den Einsatz z. B. von SAP Predictive Analytics Modellen werden Muster erkannt, potentielle Fehlerquellen abgeleitet und zukünftige Fehler von vornherein vermieden. Auf diese Weise wird der Regelkreis permanent und effizient durchlaufen und die erforderliche Datenqualität sichergestellt. Als technisches Zielbild von Q-Thor ist eine evolutionäre Weiterentwicklung der Architektur, entsprechend der Roadmap der SAP, zum Beispiel mit der Integration von SAP/4HANA und SAP BW/4HANA, vorgesehen.

 

Die „Analytics Live Plattform“ von Big Cube ist eine Lösung, die auf
der SAP HANA EIM Architektur aufgebaut ist (Quelle: Grafik STRANGE Consult GmbH)

 

 

Fazit


Der strategische Wandel hin zu einem datenzentrierten Unternehmen ermöglicht den Finanzdienstleistern die künftigen regulatorischen, digitalen und wettbewerbs-differenzierenden Herausforderungen effizient und effektiv zu bewältigen. Dieser Wandel geht einher mit der konsequenten und ganzheit­lichen Nutzung der neusten Technologien, wie sie unter anderem SAP im HANA Umfeld unter der Voraussetzung eines fachlichen und durchgängig definierten Datenmodells bietet. Hierzu ist es unabdingbar, dass unter Berücksichtigung der modernen Architektur­pyramide die Grundvoraussetzungen für eine geschäftsorientierte, zukunftsweisende und regulatorikkonforme IT Strategie 2020ff ganzheitlich gelegt werden ­müssen.

Für eine zukunftsweisende und umsetzbare Lösung stehen die beiden Partnerschaftsunternehmen STRANGE Consult GmbH mit seinem IT Strategie und Data Centric Enterprise Modell und BIG.Cube GmbH mit seiner herausragenden Erfahrung im Business Intelligence ­Umfeld und seiner Echtzeit-Quality-­Lösung auf HANA Basis. Beide Unternehmen interagieren über eine ausgefeilte IT ­Architektur im Sinne einer durchgängigen ­Lösung.

 

Autoren:

Michael Rohde, Gründer und Geschäftsführer der STRANGE Consult GmbH

Mete Demez, Geschäftsführer der BIG.Cube GmbH