9 - Proyecto: segmentación de clientes con Modelos de Mezcla Gaussiana

Lección 9 del curso Probabilidad Nivel Avanzado.

En la lección anterior vimos una explicación detallada de los Modelos de Mezcla Gaussiana que nos permiten estimar la distribución de un set de datos así como realizar tareas de clustering (o agrupamiento).

En esta lección aplicaremos de forma práctica lo aprendido acerca de estos Modelos de Mezcla Gaussiana (Gaussian Mixture Models, GMM) para resolver un problema de segmentación de clientes.

En particular, usaremos un set de datos que contiene información de diferentes clientes de un centro comercial y sus patrones de consumo asociados y entrenaremos un GMM para clasificar a cada cliente dentro del segmento más adecuado. Además, usaremos las agrupaciones generadas por el modelo para caracterizar cada uno de estos segmentos.

Contenido exclusivo suscriptores

Suscríbete y accede al código fuente y al video con la explicación detallada de esta lección. Además podrás disfrutar de todos los cursos de la Academia Online

¡Muy bien! Acabamos de hacer uso de los Modelos de Mezcla Gaussiana para construir un modelo no supervisado que nos permite clasificar cada cliente en diferentes tipos de segmento, tomando como base variables numéricas como la edad, los ingresos anuales y el puntaje de compra.

Durante el análisis exploratorio hicimos uso de la [correlación] y de gráficos tipo matriz de dispersión para verificar que las variables mencionadas anteriormente son independientes y que por tanto podemos usarlas como variables predictoras al momento de construir el modelo.

Además, vimos que gracias a la librería Scikit-Learn se requieren tan sólo 2 líneas de código para entrenar este modelo.

Sin embargo, tal vez el reto más interesante fue la determinación del número de agrupaciones para segmentar nuestro set de datos. Y en este caso hicimos uso del método del codo junto con el puntaje silueta con lo cual estimamos que el número ideal de agrupaciones para este set de datos es K=7.

Así que entrenamos el modelo con este número de agrupaciones lo que al final nos permitió caracterizar cada uno de estos segmentos de cliente en términos de su edad, nivel de ingreso y puntajes promedio.

Y con esto culminamos este tercer módulo del curso, en donde hemos visto todos los elementos conceptuales y prácticos asociados a estos Modelos de Mezcla Gaussiana.

En el próximo módulo, el último del curso, nos enfocaremos en otros modelos probabilísticos muy sencillos pero a la vez muy poderosos: los Modelos de Naive Bayes.

Y en la próxima lección comenzaremos con lo esencial: entendiendo qué son y para qué sirven estos Modelos de Naive Bayes.

Ver todas las lecciones de este curso