Predictive Analytics Zukunftsorientierte Datenanalyse

 Home | News | Hefte | Online-Artikel | Kommentare | Trends | Tipps | Impressum | CeBIT 2013 | Cloud | Rechenzentrum | Infrastruktur | Services | Business Intelligence | Kommunikation | IT-Security | Geschäftsprozesse | Effizienz

 

Home
News
Trends
Hefte
Online-Artikel
Kommentare
Service-Angebote
Feedback
Abonnement
Tipps
Impressum
Veranstaltungen


manage it als
 ePaper


9-10 2012

5-6 2012 | 3-4 2012
1-2 2012 | 11-12 2011
9-10 2011 | 5-6 2011
3-4 2011 | 1-2 2011
11-12 2010 |
9-10 2010

7-8 2010 | 5-6 2010
 




 

 


 





 

 

 

Predictive Analytics bei Vertriebssteuerung und -controlling: Status Quo und Perspektiven in der Versicherung

Zukunftsorientierte Datenanalyse

Zukunftsorientierte Prognosemodelle im Rahmen der Predictive Analytics gewinnen immer mehr an Bedeutung. Welche Einsatzbereiche finden sich bereits heute im Spektrum von Versicherung für Predictive Analytics, welche Chancen und – welche Restriktionen – sind diesem Konzept gesetzt?

 

Z

urzeit kann man eine Renaissance der Data-Mining-Idee beobachten. Nachdem Anfang der 2000er Jahre ein wesentlicher Baustein der Business Intelligence gesehen wurde, war es in den letzten Jahren zunehmend ruhig um dieses Thema geworden.

Nun taucht das Konzept im Kontext von Business Analytics oder Predictive Analytics wieder auf. Gartner sieht in seinem aktuellen Hype Cycle das Thema Predictive Analytics kurz vor der Erreichung des Plateau der Produktivität.

In Zeiten der Finanzkrise und eines sich dramatisch wandelnden Marktes war und ist der Einsatz von zukunftsorientierten Prognosemodellen ein aktuelles Thema auch in der Versicherungsbranche.

Insbesondere BI-Anbieter wie SAS und IBM (SPSS) setzten bei der Weiterentwicklung ihrer BI-Plattformen konsequent auf das Thema Predictive Analytics – und bieten analytische Modelle und Lösungen für Versicherungen.

 

Prediction – oder das Vorhersehen des künftig zu Erwartenden.

Unter dem Begriff »Predictive Analytics« werden im allgemeinen Sprachgebrauch die zukunftsorientierte Datenanalyse sowie das Erstellen von Prognosemodellen verstanden. Predictive Analytics wird dem Themenbereich »Business Analytics« zugerechnet, der häufig als die Weiterentwicklung oder Erweiterung der klassischen Business Intelligence bezeichnet wird. Gartner spricht hier treffend vom »Shift from measurement to analysis, forecasting and optimization«.

 

Abbildung  1: Predictive Analysis im Spektrum der BI-Technologien.

Quelle: TDWI

 

Entscheidungsträger werden aufgrund immer stärker wachsender und zu verarbeitender Datenmengen gezwungen sein, auf immer stärker prognoseorientierte Modelle zu setzen und diese auch in operativeren Entscheidungsprozessen systematisch zu nutzen, um künftige Entwicklungen am Markt zu antizipieren und rechtzeitig agieren zu können. Bereits seit knapp zwanzig Jahren werden daher Predictive-Analytics-Werkzeuge (PA) insbesondere in Branchen, wie der Telekommunikation, des Handels, des Bankings – aber auch in der Versicherungswirtschaft erfolgreich eingesetzt.

 

Der Versicherungsmarkt im Umbruch

Nicht erst seit dem Ausbruch der Finanzkrise im Jahr 2009 vollzieht sich im Versicherungsmarkt ein dramatischer Wandel.

Einerseits trifft die Finanzkrise die Versicherungen hart, da sich aufgrund der deutlich erhöhten Volatilität der Marktbewertungen das Anlagerisiko stark erhöht hat beziehungsweise die Anlagemöglichkeiten für die eingenommenen Versicherungsbeiträge stark eingeschränkt sind. Spätestens seit der Griechenland-Krise sind Staatsanleihen – eine bisher als sicher geltende Assetklasse und somit ein Hauptinstrument des Assetmanagements von Versicherungen – durchaus mit erheblichen Risiken belastet. Niedrige Zinsen führen zu ernsten Problemen, da Versicherungen darauf angewiesen sind ihre Beitragseinnahmen wirtschaftlich anzulegen, um künftige zu erwartende Risiken zu decken und Mindestverzinsungszusagen halten zu können.

Anderseits verändert sich auch der Versicherungsmarkt selbst. Die Zeiten des stetigen Wachstums der Versicherungen sind – zumindest in den Industriestaaten – vorbei. In einem gesättigten Markt stagnieren die Beitragseinnahmen. Aufgrund der Globalisierung drängen im Kampf um mehr Marktanteile neue internationale Anbieter in den deutschen Markt. Zugleich stiegen die Kosten der Schadenregulierung in den letzten Jahren stetig an. Ein hoher Kostendruck und damit eine zunehmend geringe Marge für die Versicherung ist die Folge.

Abbildung  2: Stagnierende Beitragseinnahmen ausgewählter Branchen der deutschen Sachversicherungen in Millionen Euro

(Quelle: GDV, 2009)

 

Der Wettbewerb um die Versicherungskunden wird härter und auch die Kunden haben sich verändert! Der traditionelle Versicherungskunde – langfristig konservativ orientiert, mit allen Produkten bei einem Versicherer versichert und einmal gewonnen, treu an seine Versicherung gebunden – wird zunehmend von neuen Kundentypen verdrängt.

Da gibt es den vertragsorientierten Kundentyp, der dem Best-of-Breed-Ansatz folgend, kostenorientiert seine Versicherungsrisiken beim jeweils attraktivsten Versicherer abdeckt. Ein Trend der sich maßgeblich auf das Internet mit seinen Vergleichsportalen und die daraus resultierende Transparenz der Versicherungsangebote stützt. Für diese Kunden werden kostengünstige Standardprodukte angeboten – die ohne komplizierte Mechanik quasi industrialisiert erbracht werden können.

Abbildung 3: Neues Kundenverhalten in der Versicherung

(Quelle: Benölken, Gerber, Skudlik, 2005)

 

Dem Gegenüber steht eine zweite Kundengruppe, für die nicht der Preis, sondern vielmehr die erbrachte Leistung im Vordergrund steht. Dieser individualistische Kundentyp erwartet individuell auf seine persönlichen Bedürfnisse zugeschnittene Versicherungsprodukte und vor allem Premium-Services. Für diese spürbaren Mehrwerte ist er bereit höhere Beiträge zu zahlen.

Um sich diesen Veränderungen und Entwicklungen stellen zu können, sind die Versicherer im viel stärkeren Maße als in der Vergangenheit gezwungen, frühzeitig die richtigen Entscheidungen zu treffen, die richtigen Produkte, zur richtigen Zeit, über den richtigen Vertriebskanal dem richtig ermittelten Kundentyp anzubieten und vor allem ihre Services noch stärker an den Kundenbedürfnissen auszurichten.

 

Heutige Anwendungsgebiete von Predictive Analytics in der Versicherung

Die Nutzung von mathematisch, statischen Verfahren für zukunftsorientierten Prognosemodelle ist kein neues Thema in der Assekuranz. Zumindest nicht bei den größeren Versicherern. In fast allen großen Versicherungen finden sich heute schlagkräftige Statistikabteilungen, die sich dediziert auch mit Predictive Analytics beschäftigen.

Wesentliche Prognose- und Analyse-Schwerpunkte liegen heute vor allem auf dem analytischen Customer Relationship Management beziehungsweise der Customer Intelligence sowie der damit eng verbunden Vertriebssteuerung.

Häufige Fragestellungen, die mit analytischen Modellen prognostiziert werden, sind beispielsweise:

Customer Lifetime Value / Kundenwert:

  • In welchen Segmenten und wie entwickelt sich künftig der Kundenstamm?
  • Mit welchen Strategien lässt sich das zukünftige Kundenverhalten beeinflussen?
  • Welche Entscheidungsmerkmale sprechen dafür, dass Endkunden ein Produkt kaufen?
  • Über welche Kommunikationskanäle lassen sich in den unterschiedlichen Kundensegmenten am besten ansprechen?
  • Wie lassen sich Kundensegmente langfristig loyalisieren und nachhaltig entwickeln?
  • Wie können Budget und Ressourcen bei kundenorientierten Investitionsvorhaben am effektivsten eingesetzt und gesteuert werden?

Churn Management/ Attrition:

  • Welche Kunden werden wahrscheinlich in nächster Zeit kündigen beziehungsweise sind stornogefährdet?
  • Wie lassen sich unzufriedene Kunden erkennen bevor sie eine Kündigungsabsicht äußern?
  • Welche Maßnahmen zur Kündigungsverhinderung oder gar Kündigerrückgewinnung sind unter Berücksichtigung ökonomischer Kennzahlen, wie beispielsweise des Kundenwertes, in der jeweiligen Konstellation am erfolgversprechendsten?

Lead Management/ Aktionsmanagement

  • Wie kann die Reichweite und Wirksamkeit von Marketing-Kampagnen erhöht werden?
  • Up- und Cross-Selling: Welche Kunden haben eine hohe Abschlussaffinität hinsichtlich weiterer ausgewählter Produkte?
  • Zu welchem Anlass hat ein Vertreterbesuch die größte Wirksamkeit?

Vertriebsplanung / Standortplanung

  • Wie entwickeln sich die Kunden regional?
  • Welche Vertriebswege sind für welche Produkte und Kundensegmente effektiv und effizient?
  • Welche Agenturstandorte werden wo regional benötigt?
  • Welche Agenturen und Makler werden künftig welchen Umsatz mit welchem Produkt erwirtschaften?
  • Welche Produkte müssen sich wie oft verkaufen, um künftigen Entwicklungen des Marktes zu begegnen?
  • Wie entwickelt sich der Markt im Zeitraum X für bestimmte Produkte?

 

Eingesetzte Verfahren und Modelle

Zur Beantwortung der fachlichen Fragenstellungen werden unterschiedliche mathematisch-statistische Verfahren des (datengetriebenen) Data Mining und der hypothesenbasierten multivariaten Statistik genutzt. Der Einsatz von Data Mining dient hierbei der Entdeckung von komplexen Strukturen, Zusammenhängen oder Besonderheiten in großen Datenmengen. Die daraus abgeleiteten Hypothesen/ Modelle werden dann mit Hilfe von realen Daten und Algorithmen hinsichtlich ihrer Prognosegüte überprüft.

Abbildung 4: Cross-Industry Standard Process for Data Mining

(Quelle: www.crisp-dm.org)

 

Dieser in der Praxis häufig auf dem »Cross-Industry Standard Process for Data Mining« (CRISP-DM) basierende Prozess wird im Kontext der Predictive Analytics als Scoring bezeichnet. Das prinzipielle Vorgehen beim Scoring lässt sich vereinfacht durch folgende Schritte darstellen:

 

Verständnis des fachlichen Kontextes

  • Klärung der fachlichen Zielsetzung des Prognosemodells (Scorecard): Insbesondere der fachlichen Spezifikation des zu prognostizierenden Ereignisses sowie des avisierten Prognosezeitraumes.
  • Festlegung des künftigen Einsatzszenarios: In welchen (operativen) Prozessen soll die Scorecard eingesetzt werden?
  • Festlegung von Kriterien der Wirksamkeit der Scorecard: Was soll mit dem Scorecard-Einsatz erreicht werden und wie lässt sich das Ergebnis bewerten?

 

Datenbereitstellung und Datenaufbereitung

  • Klärung welche Daten aus fachlicher Hinsicht zu berücksichtigen sind, in welchem Umfang diese überhaupt (technisch) vorhanden sind und ob zusätzlich extern zu beschaffene Daten, wie zum Beispiel Markt- und Milieudaten benötigt werden,
  • Analyse der Datenqualität der zur Modellbildung heranzuziehenden Daten,
  • Ggf. Umsetzung und Einhaltung möglicher Restriktionen des Datenschutzes,
  • Separierung der Daten in Trainingsdaten zur Modellierung und in von den Trainingsdaten unabhängige Testdaten zur Validierung.

 

Scorecard-Modellierung

  • Aufbau eines statistischen, kontextbezogenen Prognosemodells, das den Einfluss von Merkmalen auf ein Ereignis/Gegenereignis (bei den meisten Einsatzgebieten von Scorecards handelt es sich um die Vorhersage zweier Ausprägungen wie bspw. »Kunde kündigt« und »Kunde kündigt nicht«) auf Basis von vorhandenen Beobachtungen analysiert und Wahrscheinlichkeiten aufgrund des Modells berechnet.
  • In der Praxis bilden Scorecards häufig ein multivariates Modell ab, in dem durch passende mathematische Verknüpfung verschiedene Merkmale zu einem Modell zusammengeführt werden.
  • Zum Einsatz kommen unterschiedlichste Data-Mining-Verfahren, wie zum Beispiel Neuronale Netze, Entscheidungsbäume und logistische Regressionen.
  • Welches Verfahren für das jeweilige Prognosemodell am besten geeignet ist hängt sowohl von den zur Verfügung stehenden Daten ab als auch von der Fachlichkeit des zu analysierenden Ereignisses.

 

Scorecard-Evaluation

  • Zur kontinuierlichen Verbesserung des betrachteten Prognosemodells werden systematisch die strukturellen Einflüsse der betrachteten Merkmale analysiert und nicht signifikante Besonderheiten herausgefiltert.
  • Bewertung der Prognosegüte: Mittels der unabhängigen Validierungsmenge wird die Aussagekraft der Scorecard gemessen und anhand von etablierten Kennzahlen die Prognosegüte bewertet.

 

Scorecard-Einsatz

  • Anwendung der Scorecard in den definierten Einsatzszenarios, das heißt Einbettung in die operativen Geschäftsprozesse und Durchführung der Prognose auf Basis aktueller (täglicher, wöchentlicher oder monatlicher) Daten.
  • Kontinuierliche Messung der Prognosegüte und Wartung des statistischen Modells, das in regelmäßigen Abständen immer weiter trainiert und validiert wird, um die Prognosegüte stetig zu verbessern.

 

Dieses Vorgehen lässt sich in vielen modernen Versicherungsunternehmen finden und ist in diesen seit mehreren Jahren etabliert. Obwohl ein etabliertes Standardvorgehen existiert, sind darüber hinaus eine Fülle von Einflussfaktoren zu managen, die über den erfolgreichen Einsatz von Predictive Analytics in der Versicherungsbranche entscheiden.

 

Kritische Erfolgsfaktoren

Von zentraler Bedeutung für den Erfolg einer entwickelten Scorecard sind insbesondere:

  • die Klärung der fachlichen Zielsetzung,
  • die Auswahl des passenden mathematisch-statistischen Modells,
  • die Qualität der zugrundeliegenden Datenbasis und
  • die richtige Interpretation der erzielten Prognoseergebnisse und der daraus abgeleiteten Maßnahmen.

 

Das hört sich auf den ersten Blick trivial an, ist es aber in keiner Weise. In der Praxis zeigt sich drüber hinaus, dass die Prognosegüte – und damit der Nutzen – stark mit der versicherungsfachlichen und mathematisch-statistischen Kompetenz der durchführenden Data Mining Spezialisten korrelieren.

Im Versicherungsumfeld kommen im Hinblick auf die benötigten Kunden- und Vertriebsdaten einige weitere branchenspezifische Besonderheiten hinzu. Im modernen Versicherungsvertrieb werden unterschiedlichste Vertriebswege, wie AO-Vertreter, Makler, Strukturvertriebe, Onlineplattformen, Internet oder B2B-Partner, wie beispielsweise Autohäuser oder Automobilhersteller, genutzt. Die Beschaffung (und Standardisierung) der zur Modellentwicklung und Modellanwendung notwendigen Vertriebsdaten stellt hierbei eine erhebliche Herausforderung dar. Erschwerend wirkt hierbei auch die rechtliche Unabhängigkeit der Vertreterschaft, die als selbstständige Handelsvertreter rechtlicher und wirtschaftlicher Eigentümer ihrer Daten sind. Zusätzlich schränken die an die Versicherung gestellten datenschutzrechtlichen Anforderungen sowohl den Umfang als auch die Qualität der zur Analyse heranziehbaren Daten maßgeblich ein. Vor allem Mehrsparten-Versicherungen, in denen die einzelnen Sparten Sach-, Kranken- und Lebensversicherung in rechtlich selbständigen Unternehmen organisiert sind, haben gerade im Blick auf personenbezogene Daten strenge Regeln zu befolgen.

Der Prozess der Scorecard-Modellierung ist selbstverständlich toolgestützt und basiert auf dem Einsatz von statistischen Werkzeugen. Eigenständige Data-Mining-Lösungen, wie beispielsweise des SAS Enterprise Miner 6.2 oder des IBM SPSS Modeler 14, sind zurzeit jedoch in den Versicherungen noch gering vertreten, da mit Einsatz dieser Werkzeuge teilweise beträchtliche Investitionen verbunden sind. Daher kommen bei der Scorecard-Entwicklung in der Assekuranz häufig die bereits für andere Zwecke eingesetzten statistischen Werkzeuge, wie beispielsweise SAS| STAT zum Einsatz.

Der Einsatz von echten Data Mining Suiten kann allerdings zu einer Erhöhung der Scoring-Produktivität führen, stellt aber – zumindest zurzeit – aus Sicht vieler Versicherer noch keinen echten kritischen Erfolgsfaktor dar, da auch mit den etablierten statistischen Werkzeugen gleichwertige Ergebnisse erzielt werden können. Der von einigen Data-Mining-Anbietern verfolgte Ansatz in ihren Suiten vorkonfigurierte versicherungsspezifische Prognosemodelle bereitzustellen, um die Einstiegshürden für kleinere Versicherungen zu senken, ist allerdings Angesichts des starken Einflusses der notwendigen Kombination von Fach- und Statistikwissen der Analysten sowie der jeweiligen Heterogenität der Versicherer hinsichtlich Prognose-Inputdaten – zumindest zu hinterfragen.

Ein echter Fortschritt in der Toolunterstützung zeichnet sich indessen an anderer Stelle ab:

Durch den immer breiter werdenden Einsatz von Prognosemodellen, steigt auch die Komplexität und Vielzahl der in die Analysen einbezogenen Datenquellen – die Sicherstellung der Datenqualität gewinnt somit zunehmend an Gewicht. Eine Entwicklung, der durch die Anbieter durch die Integration von Data-Quality-Lösungen in ihre BI-Suiten Rechnung getragen wird.

Gerade in kundenfokussierten Prognosen, deren Ergebnis häufig zu direkter Kommunikation oder einer (mit Kosten verbundenen) Interaktionen mit dem Kunden führt, ist eine qualitativ hochwertige – systematisch qualitätsgesicherte – Kundendatenbasis ein absolutes Muss. Wird hier zu wenig getan, wirkt schnell das GIGO-Prinzip – »Garbage In, Garbage Out«. Die komplexesten und hochentwickeltsten Prognosemodelle nützen nur, wenn qualitativ hochwertige Daten die Grundlage der Analyse und Prognose sind.    

Die wichtigste Innovation stellt jedoch die immer stärkere Verankerung von Scorecards in die operativen Geschäftsprozesse dar. Kommen heute analytische Prognosemodelle hauptsächlich im rein dispositiven Umfeld – wie beispielsweise der Vertriebs- und Aktionsplanung – zur Anwendung, so gewinnt künftig der systematische Einsatz in operativen Anwendungssystemen an Bedeutung. Immer mehr Werkzeuganbieter bieten daher die Möglichkeit über definierte Service-Schnittstellen die zugrundeliegenden Statistikkomponenten in operativen Anwendungssystemen, wie zum Beispiel Web-Anwendungen, zu integrieren. So werden beispielsweise bereits heute Scorecards in Kundenportalen von Versicherungen eingesetzt, um den Kundendialog zu analysieren und zu steuern. Anhand bekannter Kundenmerkmale wird der jeweilige Portalbesucher unter Nutzung von Scorecards in Echtzeit analysiert und die für ihn wahrscheinlich interessantesten Produkte und Services prognostiziert, die dann unmittelbar im Dialog angezeigt werden. Erste Erfahrungen zeigen, dass hierdurch signifikante Steigerung des Verkaufserfolges erzielt werden können.

Resümee.

Zunehmender Wettbewerb- und Kostendruck sowie verändertes Kundenverhalten zwingen die Assekuranz künftig noch in viel stärkerem Maße ihre begrenzten Ressourcen zielgerichteter einzusetzen. Dem Ausbau und Erhalt der eigenen Kundenbasis kommt dabei eine überragende Bedeutung zu.

Bereits heute befindet sich in vielen großen Versicherungen Predictive Analytics erfolgreich im Einsatz. Aufgrund der technologischen Weiterentwicklung wird das Einsatzspektrum von Prognosemodellen jedoch immer umfangreicher. Künftig werden Scorecards nicht nur dispositiv, sondern auch direkt eingebettet in die operativen Prozesse an Bedeutung gewinnen. Die größte Einstiegshürde zum Aufbau von Scorecards für kleinere und mittlere Versicherer bildet – neben der oft nicht unbeträchtlichen Investition in die analytischen Werkzeuge – vor allem die Skillfrage. Häufig sind Spezialisten, die sowohl über exzellentes versicherungsspezifisches Know-how, als auch über eine hervorragende mathematisch-statististische Expertise verfügen, intern nicht verfügbar.

Eine Lösung für diese Herausforderung ist es, bei den ersten Schritten zum Aufbau von eigenen Scorecards nicht gleich zuviel zu wollen, sondern zusammen mit einem erfahrenen Partner, der über hinreichende Branchen- und Mathematikkompetenz verfügt, sukzessive das Thema und die eigene Mitarbeiter zu entwickeln sowie die notwendigen Prozesse zu etablieren. Auch die Investitionen lassen sich – abhängig vom einzusetzenden Statistikverfahren – durch die Nutzung von kostengünstigere Open-Source-Werkzeugen für Data Mining und Statistik, wie zum Beispiel R ( http://www.r-project.org/) oder dem RapidMiner ( http://rapid-i.com /), begrenzen.

Ein erstes Projekt muss nicht gleich mehrere Mannjahre umfassen. Erste Ergebnisse lassen sich oft bereits nach kurzer Zeit erzielen und schrittweise ausbauen.

Axel Kummer, Falk Lehmann

__________________________________________

Axel Kummer, COO, metafinanz Informationssysteme GmbH

Falk Lehmann, Head of Business Intelligence, metafinanz Informationssysteme GmbH

 


 Folgen Sie »manage it« auf Google+


 

Impressum | Mediadaten | Wir-ueber-uns
Copyright © 2003-2013  ap Verlag GmbH