8 - Modelos de Mezcla Gaussiana: explicación detallada

Lección 8 del curso Probabilidad Nivel Avanzado.

En la lección anterior vimos qué son y para qué sirven los Modelos de Mezcla Gaussiana que permiten realizar tareas de estimación de la distribución de un set de datos o de agrupamiento (clustering), ambas tareas muy comunes en Ciencia de Datos y Machine Learning.

En esta lección veremos entonces todo el componente matemático detrás de estos Modelos de Mezcla Gaussiana.

Y en el primer video de esta lección comenzaremos viendo un concepto muy sencillo pero que resulta clave para entender cómo funcionan los Modelos de Mezcla Gaussiana. Así que comenzaremos hablando de la Distribución Gaussiana Multidimensional:

Contenido exclusivo suscriptores

Suscríbete para tener acceso al video con la explicación detallada de esta lección. Además podrás disfrutar de todos los cursos de la Academia Online

Bien, acabamos de ver la idea básica de la distribución Gaussiana Multidimensional, que simplemente obedece a la misma idea de la Distribución Gaussian Convencional pero que se aplica para el caso en el cual tenemos múltiples variables en nuestro set de datos.

Teniendo clara esta idea, en el siguiente video vamos a plantear el problema que nos permitirán resolver precisamente los Modelos de Mezcla Gaussiana (o GMM por sus siglas en Inglés: Gaussian Mixture Models).

Así que comenzaremos planteando un sencillo problema de agrupamiento y luego lo formalizaremos matemáticamente:

Contenido exclusivo suscriptores

Suscríbete para tener acceso al video con la explicación detallada de esta lección. Además podrás disfrutar de todos los cursos de la Academia Online

Bien, acabamos de dar una formalización matemática al problema de agrupamiento que queremos resolver a través del uso de Modelos de Mezcla Gaussiana.

En esencia tenemos una función de costo que nos permite calcular la probabilidad de que nuestros datos provengan precisamente de una mezcla Gaussiana, y lo que queremos hacer es encontrar los parámetros que maximizan esta función.

Entonces, en el siguiente video nos enfocaremos precisamente en la forma de maximizar esta función, que es precisamente el componente central de los Modelos de Mezcla Gaussiana:

Contenido exclusivo suscriptores

Suscríbete para tener acceso al video con la explicación detallada de esta lección. Además podrás disfrutar de todos los cursos de la Academia Online

¡Excelente! Acabamos de ver todos los detalles matemáticos que explican el funcionamiento de los Modelos de Mezcla Gaussiana.

En últimas el problema consiste en maximizar una función de costo.

Y para encontrar los parámetros de cada distribución Gaussiana que hace parte de la mezcla, y que a la vez maximiza la función de costo, necesitamos llevar a cabo un algoritmo iterativo conocido como el algoritmo de Expectativa-Maximización (o EM por sus siglas en Inglés: Expectation-Maximization) que nos permite partir de un set inicial de parámetros y refinarlo poco a poco hasta llegar a valores muy cercanos a los ideales, logrando de esta forma ajustar estos parámetros a la distribución de nuestros datos y al número de agrupaciones definidas (que es precisamente un parámetro de entrada al algoritmo).

Además, en este último video vimos los pasos que usualmente debemos llevar a cabo cuando queremos hacer uso de los Modelos de Mezcla Gaussiana para procesar datos en nuestros diferentes proyectos.

Así que en este punto ya tenemos todos los detalles de los Modelos de Mezcla Gaussiana y lo único que nos resta es poner en práctica todas estas ideas.

Entonces, en la próxima lección (la última de este módulo) veremos cómo usar los Modelos de Mezcla Gaussiana para abordar un problema de segmentación de clientes.

Ver todas las lecciones de este curso