1.13 - Lo esencial de Probabilidad y Estadística para Deep Learning
Lección 13 de la sección “Introducción al Deep Learning” del curso Fundamentos de Deep Learning con Python.
Tabla de contenido
Introducción
En la lección anterior vimos los conceptos básicos de Cálculo Diferencial para Deep Learning. En esta lección culminaremos este repaso de conceptos fundamentales, revisando aquellos asociados a Probabilidad y Estadística.
Suscríbete para tener acceso al video con la explicación detallada de esta lección. Además podrás disfrutar de todos los cursos de la Academia Online
Probabilidad
La probabilidad es una medida que se tiene de la certeza de que ocurra o no un evento en particular.
Por ejemplo, una probabilidad de $0$ indica que se tendrá una total certeza de que el evento no ocurrirá. Por otra parte, una probabilidad de $1$ indica una total certeza de que el evento efectivamente ocurrirá, mientras que una probabilidad de $0.5$ ¡no nos da ninguna certeza!, es como el lanzamiento de una moneda: no sabemos si caerá en cara o sello.
Teniendo en cuenta el ejemplo anterior es importante observar que la probabilidad es una cantidad numérica que se encuentra en el rango de $0$ a $1$.
Conceptos básicos
- Espacio muestral (S): es el conjunto de todos los resultados u observaciones posibles. Por ejemplo, en el lanzamiento de un dado el espacio muestral será $S = {1,2,3,4,5,6}$
- Evento: es un suceso, o un conjunto de sucesos, que se encuentran dentro del espacio muestral. Si por ejemplo lanzamos el dado una vez, el evento será igual a ${5}$, mientras que si hacemos tres lanzamientos el evento será por ejemplo ${1,3,4}$
- Probabilidad ($P(A)$): es la medida de la certeza de tener el evento $A$ dado un espacio muestral $S$. Por ejemplo, volviendo al lanzamiento del dado, $P(4) = 1/6$. Es decir, la probabilidad de que al lanzar el dado éste caiga en el número $4$ es igual a $1/6$
Reglas básicas de probabilidad
- $0 \leq P(A) \leq 1$: es decir, como lo mencionamos anteriormente, cualquier probabilidad que calculemos siempre estará en el rango de $0$ a $1$
- $P(S) = 1$: esto quiere decir que el espacio muestral ($S$) tiene una probabilidad del 100% de ocurrencia, pues contiene precisamente todos los resultados u observaciones posibles.
Recuerda suscribirte para acceder al video con la explicación detallada de esta lección. Además podrás disfrutar de todos los cursos de la Academia Online
Conclusión
Bien, acabamos de terminar este repaso de los conceptos fundamentales de Probabilidad y Estadística, que junto con las dos lecciones anteriores (sobre Álgebra Lineal y Cálculo Diferencial) nos permitirán comprender el funcionamiento interno de las diferentes arquitecturas de Deep Learning que veremos en el curso.
¡Con esto hemos culminado esta primera sección del curso! así que ya estamos listos para adentrarnos en la segunda sección, en donde veremos la primera arquitectura de Deep Learning: las Redes Neuronales.