Mapfre Insurance, filial del grupo en Estados Unidos, está empleando modelos generativos y de datos sintéticos para combatir el fraude en los seguros de Hogar.
Así, con la ayuda de sistemas de IA que aplican machine learning y análisis de grafos, los equipos de Advanced Analytics y Technical Claims han desarrollado un proyecto con el que se pueden identificar patrones de fraude en los siniestros.
El modelo generativo empleado ha sido el Conditional Tabular Generative Adversarial Networks (CTGAN, por sus siglas). Al declararse un parte de Hogar, el modelo evalúa su probabilidad de fraude, derivando casos sospechosos para una posterior investigación más detallada.
La aseguradora destaca que el uso de datos sintéticos en el entrenamiento del modelo de IA permite superar el desequilibrio y la escasez de siniestros fraudulentos históricos, mejorando la capacidad del algoritmo para identificar patrones de fraude. Además, estos datos sintéticos permiten la simulación de escenarios complejos y la mejora de modelos de IA sin comprometer la privacidad de datos personales.
Tipos de modelos generativos y sus aplicaciones
Entre los modelos generativos más destacados se encuentran las Generative Adversarial Networks (GANs), los Conditional Tabular Generative Adversarial Networks (CTGAN), los Autoregressive Models (AR) y los Autoencoder Models. ¿En qué consiste cada uno? Desde Mapfre lo explican:
- Generative Adversarial Networks (GANs): crean imágenes, vídeos y audios sorprendentemente realistas. Un ejemplo práctico es la creación de rostros de personas que no existen, utilizados en la industria del entretenimiento para generar personajes de videojuegos o películas.
- Conditional Tabular Generative Adversarial Networks (CTGAN): generan datos tabulares sintéticos, preservando, en todo momento, la privacidad. Por ejemplo, en el sector financiero, pueden simular datos de transacciones bancarias para probar algoritmos sin exponer información sensible del cliente.
- Autoregressive Models (Modelos Autorregresivos, en español, o AR): son modelos basados en series temporales que predicen el siguiente elemento en una secuencia, fundamentales en herramientas de predicción de texto o en la generación automática de música, donde cada nota se basa en las anteriores.
- Autoencoder Models: son modelos diseñados para comprimir o codificar los datos de entrada para reducirlos a su máxima expresión, volviendo a reconstruir o decodificar después la información original a partir de la representación comprimida. Se entrenan a partir de Machine Learning no supervisado. Un ejemplo de estos modelos son los Variational Autoencoder (VAEs), aplicados en la creación de imágenes.
Fuente: Füture