1.12 - Lo esencial de Cálculo Diferencial para Deep Learning

Lección 12 de la sección “Introducción al Deep Learning” del curso Fundamentos de Deep Learning con Python.

Introducción

En la lección anterior vimos los conceptos básicos de Álgebra Lineal para Deep Learning. En esta lección continuamos con este repaso de conceptos fundamentales, y en particular veremos los elementos de Cálculo Diferencial necesarios para entender el funcionamiento de los diferente modelos de Deep Learning que veremos en el curso.

Contenido exclusivo suscriptores

Suscríbete para tener acceso al video con la explicación detallada de esta lección. Además podrás disfrutar de todos los cursos de la Academia Online

Derivada

La derivada es una operación aplicada a una función matemática y que permite medir la tasa de cambio (o pendiente) de dicha función para un valor específico de la variable independiente.

Algunas de las principales derivadas y reglas de derivación que debemos tener presentes para este curso son:

Derivadas parciales

Las derivadas que mencionamos en la sección anterior se referían en principio a funciones que tienen una sola variable independiente. Cuando tenemos funciones con dos o más variables independientes podemos calcular dichas derivadas con respecto a cada una de esas variables, y en este caso hablamos de las derivadas parciales.

Al momento de calcular estas derivadas lo que hacemos es considerar que todas las demás variables independientes (exceptuando la variable de interés) se comportan como una constante, y posteriormente aplicamos las mismas reglas de derivación mencionadas anteriormente (suma, cadena, etc.) para obtener la derivada parcial de interés.

Contenido exclusivo suscriptores

Recuerda suscribirte para acceder al video con la explicación detallada de esta lección. Además podrás disfrutar de todos los cursos de la Academia Online

Conclusión

Aunque no haremos uso extendido de las derivadas (y en particular de las derivadas parciales) a lo largo del curso, sí resulta fundamental tener claros estos conceptos, pues constituyen la base de los algoritmos de optimización (como el Gradiente Descendente) y de entrenamiento (como backpropagation) que veremos en la siguiente sección y que se usan precisamente para entrenar los diferentes modelos de Deep Learning usados en la actualidad.

En la próxima lección continuaremos revisando estos conceptos básicos, y especificamente nos enfocaremos en los elementos básicos de Probabilidad y Estadística para Deep Learning.

Ver todas las lecciones de este curso