13 - El gradiente y su relación con la derivada

Lección 13 del curso Cálculo para Ciencia de Datos y Machine Learning.

Introducción

En la lección anterior hablamos de la regla de la cadena aplicada a derivadas parciales. Y en esta lección retomaremos el concepto de la derivada parcial para introducir el Gradiente de una función, un sencillo concepto que es de uso extendido en el Deep Learning.

Contenido exclusivo suscriptores

Suscríbete para tener acceso al video con la explicación detallada de esta lección. Además podrás disfrutar de todos los cursos de la Academia Online

Repaso: la derivada parcial

Recordemos que en el caso de funciones multivariadas podemos aplicar las mismas reglas de derivación vistas en el caso de las funciones de una sola variable, lo único que cambia es la notación.

El gradiente: combinando derivadas parciales en vectores

Y podemos combinar todas estas derivadas parciales en un vector (como los vistos en el curso de Álgebra Lineal para Ciencia de Datos y Machine Learning) con lo cual podremos tener una notación más compacta.

Cada elemento de este vector será una de las derivadas parciales, y a este vector le daremos el nombre de gradiente y usaremos la letra griega ∇ (nabla) para referirnos a este gradiente.

Ejemplo de cálculo del gradiente

Contenido exclusivo suscriptores

Recuerda suscribirte para acceder al video con la explicación detallada de esta lección. Además podrás disfrutar de todos los cursos de la Academia Online

Conclusión

Acabamos de ver cómo extender el concepto de derivada de una función a una representación vectorial como es el gradiente, una herramienta matemática muy usada especialmente en algoritmos de Machine Learning.

Así que para cerrar este módulo en la próxima lección hablaremos en detalle de las principales aplicaciones de la derivada en Ciencia de Datos y Machine Learning.

Ver todas las lecciones de este curso