En los seguros de vida, el «algoritmo» nos proporciona predicciones sobre las probabilidades de fallecimiento, cancelación de pólizas así como la posibilidad de que se produzca una incapacidad laboral, pero ¿cuándo podemos estar seguros de que esas predicciones son ciertas? ¿Cómo podemos identificar los puntos débiles? ¿Cómo confiar en los resultados de los que estamos convencidos y cómo asegurarnos de que no sean discriminatorios?
Los métodos modernos de análisis son cada vez más importantes también en el ámbito de los seguros de vida. Ya sea para analizar los siniestros, predecir las tasas de cancelación o mejorar la interacción con el cliente, muchas compañías de seguros de vida emplean ahora científicos de datos especializados en tecnologías de la información que han crecido con R o Python y crean soluciones con redes neuronales, modelos lineales generalizados (GLM o Lasso) o métodos de gradient-boosting. Al mismo tiempo, los científicos de datos a menudo carecen de un conocimiento específico profundo sobre el producto, algo que es necesario para una interpretación completa de los datos y los resultados y para traducirlos en acciones. Los destinatarios de estos análisis suelen ser, por ejemplo, los actuarios responsables y las juntas directivas, que aportan un profundo conocimiento clásico de los seguros, pero a los que les falta acceso a nuevos modelos.
Esto conlleva el riesgo de que los objetivos de los proyectos no sean los adecuados, que se ejecuten de forma incorrecta o que se desaprovechen resultados excelentes porque no se puede convencer a los responsables de la toma de decisiones, además del riesgo de que una confianza excesiva en los modelos dé lugar a aceptar resultados y extraer conclusiones erróneas. ¿Cómo podemos llegar a un lenguaje común para obtener los mejores resultados y lograr su aceptación? Si bien no cabe duda de que cada caso tiene sus particularidades, hemos acumulado muy buenas experiencias con los siguientes enfoques en distintos proyectos.
Involucrar a los responsables de la toma de decisiones y a las partes interesadas en una fase temprana del proceso
En cualquier proyecto complejo de ciencia de datos las diferentes disciplinas implicadas deberían estar representadas, por ejemplo actuarios, suscriptores o gestores de siniestros, en función del proyecto específico. Lo ideal sería que los posteriores responsables de la toma de decisiones participaran en una fase temprana y de forma recurrente. Además de una comprensión integral de la tarea que se debe resolver, esto también desemboca en un lenguaje común y una comprensión temprana de las preocupaciones y los puntos de vista de los diferentes sectores y da pie a la posibilidad de tenerlos en cuenta. El hecho de que los encargados de la toma de decisiones se sientan capaces de influir en una etapa temprana ayuda a disipar las reservas.
Crear fragmentos de análisis descriptivos detallados
Una sección descriptiva detallada proporciona a todas las partes implicadas una visión general importante de los aspectos básicos y les permite desarrollar sus ideas. De este modo, los interlocutores que tienen dificultades con las evaluaciones más complejas se sienten a gusto, al menos al principio, y ofrecen menos resistencia.
Tener en cuenta la interpretabilidad del modelo
Una red neuronal puede sonar como algo más impactante que un GLM y, dependiendo del caso, puede dar mejores resultados o no, pero en cualquier caso es más difícil de entender. Del mismo modo, un bosque de árboles de decisión puede dar mejores resultados que un solo árbol, pero el árbol individual será más ilustrativo. Por lo tanto, a menudo se ponen a prueba diferentes variantes en el transcurso de un proyecto y, a la hora de elegir el modelo que se va a utilizar, hay que sopesar el aumento de la precisión del resultado frente a la pérdida de interpretabilidad.
Incluir pruebas de calidad en las presentaciones y las explicaciones
Los científicos de datos comprueban la verosimilitud de sus conclusiones de muchas maneras. No todos los actuarios clásicos, suscriptores o juntas directivas están familiarizados con estas herramientas y métricas que no se limitan a una pregunta específica. Sin embargo, son fáciles de explicar y les transmiten seguridad a las personas que no participan en la evaluación en el sentido de que se ha trabajado con esmero. La comprensión de las pruebas de calidad utilizadas también permite identificar los campos que no pueden ser probados correctamente con ellas.
Cuestionar los resultados de los modelos con experiencia especializada
Incluso si los responsables de la toma de decisiones no entienden en detalle cómo funciona un modelo, suele haber formas de cuestionar críticamente los resultados de cada caso sin caer en un vago rechazo.
Supongamos que un modelo predice la mortalidad debido a características como la edad, el sexo, las enfermedades previas y las circunstancias del estilo de vida. ¿Son los valores de los subconjuntos más grandes los que cabría esperar? Por ejemplo, ¿tienen los hombres una tasa de mortalidad mayor que la de las mujeres? ¿Aumenta la mortalidad con la edad? ¿Tiene el cáncer de páncreas un mayor impacto que el cáncer de piel no melanoma?
¿En qué medida se modelan bien los efectos especiales conocidos? ¿Existe, por ejemplo, una curva de accidente en el ejemplo anterior y es más pronunciada en los hombres que en las mujeres?
¿Qué datos no se tuvieron en cuenta y por qué? ¿Hay valores atípicos que serían de gran importancia en este contexto concreto, por ejemplo en caso de daños extremos en el seguro de enfermedad?
Si las respuestas a estas preguntas son satisfactorias, se trata de una buena confirmación. Los efectos inesperados pueden revelar posibles debilidades del modelo o dar lugar a nuevas percepciones interesantes.
No tener miedo a las preguntas muy básicas
Seguramente hay preguntas de modelos que son tan técnicas que no les sirven de mucho a los profanos en la materia una vez sabida la respuesta; por ejemplo, cuántos niveles tiene un modelo de aprendizaje automático. Pero debe explicarse de forma comprensible cómo se ha hecho la elección. Esta reflexión también puede ser útil para el científico de datos.
Siempre hay que hacerse preguntas sobre el juego de datos: por ejemplo, si se hacen predicciones a partir de un período de datos muy corto para pronósticos a muy largo plazo, esto es como mínimo una señal de advertencia. Por ejemplo, al predecir el impacto de las enfermedades en la mortalidad sería útil considerar si el pronóstico para enfermedades crónicas progresivas como la diabetes es tan bueno como para eventos repentinos como un infarto de miocardio.
Por su parte, para comprender mejor el tema en cuestión, los especialistas en datos deberían preguntarse a menudo por qué se hacen ciertas suposiciones, por qué se albergan unas determinadas expectativas o por qué los resultados se consideran plausibles o no plausibles.
A medio plazo, la ciencia de datos formará parte de la caja de herramientas habitual de los actuarios. Al mismo tiempo, el ritmo de la digitalización y el cambio sigue siendo rápido, por lo que siempre habrá técnicas que solo dominen un puñado de especialistas en la empresa. Por este motivo, además de las capacidades técnicas, es aún más importante reforzar la cultura de la comunicación en las empresas para responder a las preguntas de manera interdisciplinaria e integrada.
¿Busca ayuda para su proyecto? ¡En ese caso, no dude en contactar con nosotros!