28. September 2017 von Christof Weiser
Wie Big Data dabei helfen kann, das Risikomanagement zu optimieren
Banken und Risikomanagement
Vor einem Jahrzehnt wurde die Welt von einer schweren wirtschaftlichen Krise getroffen. Ursache der Finanzkrise 2007 war unter anderem ein mangelndes beziehungsweise fehlerhaftes Risikomanagement der Banken. Um eine erneute Krise zu vermeiden, ist es zwingend notwendig, vorhandene Werkzeuge zur Bewertung von Risiken zu verbessern und wirksame neue zu erschließen. Dies liegt im ureigenen Interesse der Finanzinstitute, wird aber auch von Regulierungsbehörden gefordert und überwacht. Positionen eines Marktteilnehmers, die erhöhten Markt- oder Kreditrisiken ausgesetzt sind, müssen von diesem mit mehr Kapital unterlegt werden. Die Gründe dafür sind vielschichtig und komplex. Entsprechend gehen sehr verschiedene Daten in großer Menge in die Risikoberechnung ein.
Die bestehenden Mittel zur Risikoberechnung werden den gestiegenen Anforderungen heutzutage nur noch zum Teil gerecht. Die aktuellen Anforderungen an die Bewertungsinstrumente sind anspruchsvoller als je zu vor. Dies war für uns der Anlass, passende Technologien zu suchen und Kompetenzen im Rahmen eines Proof of Concept aufzubauen.
In diesem Blog-Beitrag widmen wir uns dem Kontrahentenrisiko. Dieses besteht für einen Marktteilnehmer dann, wenn einer seiner Geschäftspartner ausfällt, von dem er noch Zahlungen zu erwarten hat. Unter diesen Umständen entfällt der Gewinn und er muss sich durch ein entsprechendes Ersatzgeschäft wieder eindecken (Wiedereindeckungsrisiko).
Die Beschaffung von Eingangsdaten für die Berechnung war eine große Herausforderung in unserem Projekt. Mangels Verfügbarkeit echter Daten haben wir uns entschieden, Werte zu generieren. Diese wurden mithilfe von Monte-Carlo-Simulationen verschiedenen Szenarien – sogenannten Zukunftsszenarien – unterzogen. Ihre Ergebnisse bilden die Grundlage der Berechnung von Kennzahlen wie der PFE – Potential Future Exposure.
Big Data und Risikomanagement
In der technischen Umsetzung haben wir Big-Data-Technologien eingesetzt. Diese eignen sich besonders für Berechnungen im Risikomanagement. Die folgenden drei Schlüsselwörter definieren Big Data:
- Velocity – Geschwindigkeit bei Datentransfer und Datenverarbeitung
- Variety – Umgang mit verschiedenen Datenquellen und Datentypen
- Volume – Umfang der Daten
Nachfolgend ist aufgelistet, wie wir uns vorstellen, was diese drei Begriffe im Kontext der Berechnung des Kontrahentenrisikos konkret im Anwendungsfall einer Bank bedeuten können:
- Velocity: Sachbearbeiter in einer Bank müssen bei neuen Ereignissen schnell handeln und haben es mit immer kürzer werdenden Reaktionszeiten zu tun. Modellberechnungen von Hand werden nahezu unmöglich.
- Variety: Die Heterogenität der Eingangsinformationen erschwert die einheitliche Verarbeitung.
- Volume: Täglich fällt eine Masse von Trades an, die der Sachbearbeiter bei seiner Risikoanalyse berücksichtigen muss.
Diese drei Schlüsseleigenschaften zeichnen Big Data als geeignetes Mittel für die Berechnung des Kontrahentenrisikos (Counter Party Risk) aus.
Die Anforderungen an die Berechnung von Kennzahlen aus verschiedenen Quellen, wie etwa Live-Daten, historischen Daten und simulierten Szenarien, können durch den Einsatz von Big Data erfüllt werden. Die Verarbeitung ist dabei auch vergleichsweise ressourcenschonend.
Infrastruktur einer Big-Data-Anwendung
adesso hat diese Aufgabe in die Hände von Studenten gelegt und dafür ein Team an zwei Standorten geschaffen. Die technische Umgebung haben diese selbst evaluiert und ausgewählt. Im Big-Data-Umfeld stehen einige Möglichkeiten zur Verfügung. Schließlich hat sich das studentische Team für die Technologie „Apache Spark“ im Prototypen entschieden. Spark ermöglicht ein Zwischenspeichern von Daten, sodass keine aufwändigen Datenbankzugriffe erfolgen müssen. Mit einem Rechnerverbund konnten große Datenmengen auf verschiedene Knoten verteilt und verarbeitet werden. Spark kann seine Stärken besonders mit NoSQL-Datenbanken ausspielen. Daher rundet die Datenbank „HBase“ die technische Infrastruktur des Projekts ab.
Als Big Data Provider wurde Apache Spark im Cluster aufgesetzt (in der rechten Abbildung grün). Dieses benötigt einen Master, der die Number Crunching Jobs auf die einzelnen Slaves verteilt. Die Datenhaltung wurde mit Hadoop umgesetzt (in der Abbildung rot). Auch hier kommt eine Master-Slave-Architektur zum Einsatz. In diesem Szenario wurden beide Master-Instanzen auf einem Rechner installiert, was aufgrund der unterschiedlichen Ausstattungen ratsam ist. Für die Visualisierung mit einer ansprechenden Weboberfläche wurde zusätzlich ein leichtgewichtiger Webserver verwendet.
Ausblick und Fazit
Im Moment realisieren wir in Zusammenarbeit mit der smarthouse adesso financial solutions GmbH den Anschluss an Live-Daten und an historische Daten für unsere Analysen. Kenntnisse im Bereich Big-Data-Risikomanagement sollen mit der Unterstützung durch smarthouse ausgebaut und gefestigt werden.
Der Use Case zur Berechnung des Kontrahentenrisikos lässt sich nach unserer Einschätzung auf viele andere Fachgebiete anwenden. Für die Zukunft sehen wir die Nutzung von Big-Data-Technologien im Bankenumfeld als selbstverständlich an und werden noch weitere Einsatzszenarien entwerfen.