Big Data Analytics in der Finanzindustrie - Starke Motoren, zu wenig Öl? - Empolis Blog

Big Data Analytics in der Finanzindustrie – Starke Motoren, zu wenig Öl?

0

Viele Daten, nichts dahinter? Wie man frei verfügbare Informationen und künstliche Intelligenz für die Finanzindustrie nutzen kann.

Auf den ersten Blick ist die Finanzwelt ein dankbares Anwendungsgebiet für Data Engineers und ihre mächtigen Algorithmen: Zahlengetriebene Prozesse, die seit Dekaden IT-gestützt ablaufen und Unmengen an historischen Daten bereitstellen sowie ein definiertes Set an KPIs, wodurch die guten von den bösen, die gewinnbringenden von den verlustbehafteten Verträgen unterschieden werden können – schöne Finanzwelt, sollte man meinen.

Viele Daten, nichts drin!

Erst bei genauerer Betrachtung der Datenbanken von Finanzunternehmen offenbart sich: Da steht ja kaum etwas drin! Natürlich ist da jede Transaktion mit Zeit und Ort, Absender und Empfänger sowie einer Referenz zum zugrundeliegenden Vertrag erfasst. Aber der Kontext, in dem eine Transaktion stattgefunden hat, ist selten strukturiert beschrieben.

Diese Daten enthalten nämlich nicht den jeweiligen Kontext sowie wichtige Informationen zur Risikobewertung eines Geschäfts: Welche Ereignisse könnten zum Ausfall eines Kreditnehmers führen? Welche politischen Entwicklungen in Asien können die Lieferkette eines Versicherungsnehmers in Europa gefährden? Welche Kosten verursacht der sechsstündige Ausfall eines Rechenzentrums in Irland?

Tatsächlich liegen die Informationen, die zur Beantwortung solcher Fragen benötigt werden, den Banken und Versicherungen vor. Kaum ein größeres Kreditrisiko, das nicht in ausgiebigen Gutachten fundiert bewertet wurde; kaum ein Industrierisiko, das nicht von Ingenieuren vor dem Abschluss eines Versicherungsvertrags besichtigt und im Detail beschrieben worden wäre.

Die Crux ist dabei nur: Aus diesen Beschreibungen fließen allzu oft nur die Daten in die Sammlung strukturierter Informationen, die sich auf bereits bekannte Key Performance Indikatoren (KPI) abbilden lassen. Das Gros der Informationen in solchen Gutachterberichten wird hingegen kaum einmal gelesen, sondern lediglich ordnungsgemäß archiviert.

Und schon diese Expertenberichte enthalten nur Bruchteile der Informationen, die zur Einschätzung von Kredit-, Versicherungs- oder Vertragsrisiken herangezogen werden könnten.

Es gibt eine frei verfügbare Fülle an Informationen – Nutzen wir sie!

Pressemitteilungen, Nachrichten in sozialen Medien, Lokal- und Wirtschaftsnachrichten, Mitteilungen von Aufsichtsbehörden, Statements von NGOs oder auch – gerne unterschätzt – Wettervorhersagen stellen viel mehr Informationen zu Finanzrisiken bereit, als einzelne Experten in ihren Gutachten berücksichtigen könnten. Und das regelmäßig frei Haus und in Echtzeit.

Warum nutzen wir diese Informationen nicht, um Risiken besser zu bewerten, Gefahren früher zu erkennen und auf Schäden schneller zu reagieren?

Die Antwort darauf ist denkbar einfach: Weil das erst einmal Arbeit macht!

Künstliche Intelligenz ist in aller Munde. Und der Diskurs, der in Politik und Feuilletons über die Macht künstlicher Intelligenz geführt wird, weckt geradezu den Eindruck, als müssten wir einfach nur die gewünschten Datenquellen aufzählen, auf einen Knopf drücken und warten, bis aussagekräftige Reports und – bei Bedarf – eine Warnung direkt auf dem Bildschirm des zuständigen Entscheiders generiert werden.

Besser noch: Die Maschine selbst trifft ohne menschliches Eingreifen die richtige Entscheidung.

Das wäre schön und, ja, da wollen wir hin. Aber noch sind wir nicht an diesem Punkt. Niemand bietet heute ein Standardsoftwareprodukt an, das ohne weiteren Aufwand ein Risikogutachten von einem Schadenbericht unterscheiden, aus dem Volltext eines Schadenberichts eine klassifizierte Liste der Schadenursachen extrahieren oder aus dem Risikogutachten die Eintrittswahrscheinlichkeit aller genannten Gefahren benennen könnte.

E+ / Getty Images Plus

Und wie können wir jetzt Künstliche Intelligenz nutzen?

Geht das also alles gar nicht? – Doch, natürlich geht das. Die Daten sind da, die Technologien sind da und auch das Wissen, wie wir die Technologien auf die Daten anwenden müssen. Was noch fehlt, sind all die Wissensmodelle, Trainingsdaten und linguistischen Regeln, um die richtigen Informationen zu erkennen, zuverlässig zu extrahieren und in den richtigen Analysen bereitzustellen.

Und dazu eine Portion Realismus: Ein Text verwandelt sich nicht in eine fehlerfreie Datenbank, wenn man ihn einfach durch einen Klassifikator schickt – so einfach ist es nicht. Im Gegenzug: selbst Informationen, die in Texten gar nicht explizit benannt sind, lassen sich erkennen.

Die Frage, ob sich etwas realisieren lässt, ist meistens keine der Informationstheorie, sondern eine an das Verhältnis von Kosten und Nutzen.

Ich möchte das in einer Reihe von Beiträgen demnächst gerne an einem konkreten Beispiel durchgehen, bei dem die Frage geklärt werden soll: Wie müssen wir vorgehen, um alle Informationen zu gewinnen, die wir für die Bewertung und das Monitoring eines Finanzrisikos benötigen?

Hierzu bedienen wir uns der fiktiven „Mount Polley Mining Corporation“ in Kanada. Für das Beispiel soll es dabei zunächst keine Rolle spielen, um welches Finanzprodukt es geht: sei es ein Investitionskredit, eine Sachversicherung oder eine Haftpflichtversicherung.

Für unser Beispiel beschränken wir uns auf öffentliche Quellen, die wir nur finden müssen. In meinem nächsten Artikel zeige ich Ihnen, wie sich so eine Datenrecherche besser umsetzen lässt, als durch manuelles „Googeln“.

Danach werden wir Stück für Stück einzelne Informationen aus den gefundenen Quellen extrahieren, bis wir ein umfassendes Bild von diesem Risiko haben – und Sie einen guten Einblick in die Möglichkeiten von Content Analytics.

Seien Sie gespannt auf den nächsten Teil!

Teilen:

Über den Autor

Alexander Firyn

Alexander Firyn studierte Theater- und Kulturwissenschaft in Leipzig und Berlin mit Schwerpunkt auf Theorie und Geschichte digitaler Medien und arbeitet als Senior Consultant und Projektleiter bei der Empolis Information Management GmbH in Kaiserslautern. Nach Lehrtätigkeiten an der HU Berlin, der Universität Siegen und der Arbeit als freiberuflicher Entwickler von Datenbankanwendungen in der Wissenschaftslandschaft war er von 2006 bis 2012 am Fraunhofer ISST als wissenschaftlicher Mitarbeiter angestellt und arbeitete an dieser Stelle über fünf Jahre in der Begleitforschung zum BMWi-Forschungsprogramm THESEUS. Von 2012 bis 2014 war er als Consultant am Fraunhofer FOKUS angestellt und hat eine Vielzahl von Projekten zum Architekturmanagement und zu Fragen des E-Government für Bundes- und Landesministerien bearbeitet. Seit 2014 hat er seinen Schwerpunkt von der Konzeption und Beratung von Lösungen auf deren Umsetzung verlegt und verantwortet bei Empolis verschiedene Entwicklungsprojekte im Smart Information Management, insbesondere für Kunden aus der Finanzwirtschaft.

Sagen Sie Ihre Meinung!