„Der Algorithmus“ liefert uns in der Lebensversicherung Vorhersagen zu Sterbe- und Stornowahrscheinlichkeiten sowie Wahrscheinlichkeiten zum Eintritt der Berufsunfähigkeit – aber wann können wir darauf vertrauen, dass diese Prognose stimmt? Wie können wir Schwächen erkennen? Wie stellen wir Vertrauen in Ergebnisse her, von denen wir überzeugt sind, und wie stellen wir sicher, dass diese Ergebnisse nicht diskriminieren?
Moderne Analysemethoden werden auch in der deutschen Lebensversicherung immer wichtiger. Ob für die Analyse von Schäden, Vorhersagen über Stornowahrscheinlichkeiten oder eine bessere Kundenansprache: Viele Lebensversicherungen beschäftigen inzwischen spezielle Data Scientists, die IT‑affin und mit R oder Python großgeworden sind und Lösungsansätze mit neuronalen Netzen, Lasso-GLMs (Generalized Linear Models) oder Gradient-Boosting-Methoden erstellen. Gleichzeitig bringen Data Scientists oft nicht das tiefe produktspezifische Wissen mit, um Daten und Ergebnisse vollständig zu interpretieren und die Übersetzung der Ergebnisse in Handlungen umsetzen zu können. Empfänger dieser Analysen sind oft z. B. verantwortliche Aktuare und Vorstände, die ein tiefes klassisches Verständnis von Versicherungen mitbringen – denen aber der Zugang zu neuen Modellen fehlt.
Das birgt die Gefahr, dass Projekte nicht die richtigen Ziele setzen, falsch umgesetzt werden, oder hervorragende Ergebnisse nicht verwendet werden, weil Entscheider nicht überzeugt werden können – und auch das Risiko, dass in übertriebener Modellgläubigkeit Ergebnisse akzeptiert und falsche Schlüsse gezogen werden. Wie gelingt es, hier zu einer gemeinsamen Sprache zu kommen, um optimale Ergebnisse zu erzeugen und Akzeptanz für diese zu finden? Während es sicherlich in jedem Einzelfall Besonderheiten gibt, haben wir mit den folgenden Vorgehensweisen projektübergreifend sehr gute Erfahrungen gemacht.
Entscheider und Stakeholder früh in den Prozess einbeziehen
In jedem komplexen Data-Science-Projekt sollten die verschiedenen betroffenen Disziplinen vertreten sein – das können je nach Projekt z. B. Aktuare, Risikoprüfer oder Schadenmanager sein. Auch die späteren Entscheidungsträger werden idealerweise früh und wiederholt eingebunden. Neben einem ganzheitlichen Verständnis der zu lösenden Aufgabe führt dies auch zu einer gemeinsamen Sprache und dazu, die Bedenken und Sichtweisen der unterschiedlichen Bereiche früh zu verstehen und berücksichtigen zu können. Dass Entscheider früh das Gefühl vermittelt bekommen, Einfluss nehmen zu können, hilft dabei, Vorbehalte abzubauen.
Ausführliche deskriptive Analyseteile erstellen
Durch einen ausführlichen beschreibenden Teil erhalten alle involvierten Parteien einen wichtigen Überblick über die Grundlagen und können eine Intuition entwickeln. So fühlen sich auch Ansprechpartner, die sich mit den komplexeren Auswertungen schwertun, zumindest am Anfang abgeholt und bauen weniger Widerstände auf.
Interpretierbarkeit des Modells berücksichtigen
Ein neuronales Netz mag beeindruckender klingen als ein GLM und je nach Fall bessere Ergebnisse liefern oder nicht – ist aber auf jeden Fall schwieriger nachzuvollziehen. Ebenso kann ein Wald von Entscheidungsbäumen bessere Ergebnisse liefern als ein einzelner Baum – der einzelne Baum wird dafür anschaulicher sein. Bei der finalen Wahl des verwendeten Modells – von denen im Laufe eines Projektes oft verschiedene Arten getestet werden – ist daher ein Zuwachs an Genauigkeit im Ergebnis gegenüber einem Verlust an Interpretierbarkeit abzuwägen.
Qualitätstests mit darstellen und erklären
Data Scientists plausibilisieren ihre Ergebnisse auf vielfache Weise. Diese Tools und Metriken, die nicht auf eine spezielle Fragestellung limitiert sind, sind nicht allen klassischen Aktuaren, Risikoprüfern oder Vorständen vertraut. Sie lassen sich aber erklären und geben auch den nicht an der Auswertung beteiligten Personen die Sicherheit, dass hier mit Sorgfalt gearbeitet wurde. Ein Verständnis für die verwendeten Qualitätstests ermöglicht es auch, Felder zu identifizieren, die damit eben nicht gut getestet werden können.
Modellergebnisse mit Fachexpertise hinterfragen
Selbst wenn die späteren Entscheider nicht im Detail verstehen, wie ein Modell funktioniert, gibt es fallspezifisch fast immer Möglichkeiten, die Ergebnisse kritisch zu hinterfragen, ohne in eine vage Ablehnung zu verfallen.
Angenommen ein Modell sagt aufgrund von Merkmalen wie Alter, Geschlecht, Vorerkrankungen, und Lifestylemerkmalen die Sterblichkeit vorher. Kommt es dann für größere Aggregate auf Werte, die man erwarten würde? Haben also z. B. Männer eine höhere Sterblichkeit als Frauen, steigt die Sterblichkeit mit dem Alter an und hat Pankreaskrebs einen stärkeren Einfluss als weißer Hautkrebs?
Wie gut sind bekannte Sondereffekte modelliert – gibt es im genannten Beispiel etwa einen Unfallbuckel und ist dieser bei Männern stärker ausgeprägt als bei Frauen?
Welche Daten wurden warum nicht betrachtet? Fehlen Ausreißer, die in diesem speziellen Kontext von großer Wichtigkeit wären – z. B. bei Extremschäden in der Krankenversicherung?
Fallen die Antworten hierfür befriedigend aus, ist dies eine gute Bestätigung. Unerwartete Effekte können mögliche Modellschwächen offenlegen oder zu interessanten neuen Einsichten führen.
Keine Angst vor sehr grundlegenden Fragen
Es gibt sicher Modellfragen, die so technisch sind, dass Laien nach der Antwort nicht viel schlauer sind als vorher; z. B. aus wie vielen Schichten ein Machine-Learning-Modell besteht. Aber wie die Entscheidung für diese Wahl getroffen wurde, sollte verständlich erklärt werden können. Diese Reflexion kann auch für den Data Scientist hilfreich sein.
Auch Fragen zum Datensatz sollten immer gestellt werden – wenn z. B. aus einem sehr kurzen Datenzeitraum für sehr lange Zeiträume Prognosen hergeleitet werden, ist dies zumindest ein Warnsignal. Z. B. bei der Vorhersage von Auswirkungen von Erkrankungen auf die Sterblichkeit würde es sich in diesem Fall anbieten zu prüfen, ob die Prognose für chronisch progrediente Krankheiten wie Diabetes ähnlich gut ist wie für plötzliche Ereignisse wie einen Herzinfarkt.
Umgekehrt sollten die Datenspezialisten häufig nachfragen, warum bestimmte Vermutungen aufgestellt werden, Erwartungshaltungen bestehen oder Ergebnisse für (un‑)plausibel gehalten werden, um so ein besseres Verständnis für das entsprechende Themenfeld zu entwickeln.
Mittelfristig wird Data Science zum natürlichen Werkzeugkasten der Aktuare gehören. Gleichzeitig bleibt das Tempo von Digitalisierung und Veränderung hoch, so dass es immer Techniken geben wird, die nur eine Handvoll Spezialisten im Unternehmen beherrschen. Umso wichtiger ist es, neben den technischen Fähigkeiten auch die Kommunikationskultur in den Unternehmen zu stärken, um Fragestellungen interdisziplinär und ganzheitlich beantworten zu können. Suchen Sie dabei Unterstützung für Ihr Projekt? Dann sprechen Sie uns gerne an!