1.13 - Lo esencial de Probabilidad y Estadística para Deep Learning

Lección 13 de la sección “Introducción al Deep Learning” del curso Fundamentos de Deep Learning con Python.

Introducción

En la lección anterior vimos los conceptos básicos de Cálculo Diferencial para Deep Learning. En esta lección culminaremos este repaso de conceptos fundamentales, revisando aquellos asociados a Probabilidad y Estadística.

Contenido exclusivo suscriptores

Suscríbete para tener acceso al video con la explicación detallada de esta lección. Además podrás disfrutar de todos los cursos de la Academia Online

Probabilidad

La probabilidad es una medida que se tiene de la certeza de que ocurra o no un evento en particular.

Por ejemplo, una probabilidad de $0$ indica que se tendrá una total certeza de que el evento no ocurrirá. Por otra parte, una probabilidad de $1$ indica una total certeza de que el evento efectivamente ocurrirá, mientras que una probabilidad de $0.5$ ¡no nos da ninguna certeza!, es como el lanzamiento de una moneda: no sabemos si caerá en cara o sello.

Teniendo en cuenta el ejemplo anterior es importante observar que la probabilidad es una cantidad numérica que se encuentra en el rango de $0$ a $1$.

Conceptos básicos

Reglas básicas de probabilidad

Contenido exclusivo suscriptores

Recuerda suscribirte para acceder al video con la explicación detallada de esta lección. Además podrás disfrutar de todos los cursos de la Academia Online

Conclusión

Bien, acabamos de terminar este repaso de los conceptos fundamentales de Probabilidad y Estadística, que junto con las dos lecciones anteriores (sobre Álgebra Lineal y Cálculo Diferencial) nos permitirán comprender el funcionamiento interno de las diferentes arquitecturas de Deep Learning que veremos en el curso.

¡Con esto hemos culminado esta primera sección del curso! así que ya estamos listos para adentrarnos en la segunda sección, en donde veremos la primera arquitectura de Deep Learning: las Redes Neuronales.

Ver todas las lecciones de este curso