14 - La derivada en la Ciencia de Datos y Machine Learning

Lección 14 del curso Cálculo para Ciencia de Datos y Machine Learning.

Introducción

A lo largo de este módulo hemos hablado del concepto de derivada y hemos visto cómo aplicar este concepto a funciones de una y de múltiples variables, y en la lección anterior hemos hablado del concepto del gradiente y su relación con la derivada.

Así que en este punto ya tenemos todos los elementos conceptuales con respecto a este tema, así que lo único que nos resta antes de cerrar este módulo es ver las principales aplicaciones de la derivada en Ciencia de Datos y Machine Learning.

Contenido exclusivo suscriptores

Suscríbete para tener acceso al video con la explicación detallada de esta lección. Además podrás disfrutar de todos los cursos de la Academia Online

Optimización

Un primer campo de aplicación del concepto de derivada en el Machine Learning es la optimización (del cual hablaremos en detalle en el último módulo del curso).

La idea general es que durante el entrenamiento el modelo de Machine Learning hace uso de los datos para ajustar sus parámetros con el fin de generar las correspondientes predicciones.

Y este proceso de ajuste de parámetros se logra de forma iterativa comparando la predicción generada por el modelo con el valor de referencia a través de la función de error, la cual depende precisamente de los parámetros del modelo.

Y la idea es encontrar los mejores parámetros del modelo que minimicen la función de error. Y esto es precisamente la optimización.

Algoritmos como el Gradiente Descendente hacen uso precisamente de la derivada y de técnicas de optimización para minimizar de forma automática esta función de error.

Entrenamiento de Redes Neuronales

Y otra de las principales aplicaciones es en el entrenamiento de las Redes Neuronales.

Un algoritmo fundamental en este caso es el algoritmo de backpropagation y que ha sido uno de los desarrollos fundamentales para lograr implementar los modelos que existen actualmente.

Con este algoritmo resulta posible actualizar de forma iterativa los parámetros de la Red Neuronal haciendo uso de conceptos como la derivada parcial y la regla de la cadena que vimos en lecciones anteriores.

Contenido exclusivo suscriptores

Recuerda suscribirte para acceder al video con la explicación detallada de esta lección. Además podrás disfrutar de todos los cursos de la Academia Online

Conclusión

Muy bien, en este punto ya tenemos un panorama claro de lo que es la derivada y de sus principales aplicaciones especialmente en el Machine Learning.

Así que con esto cerramos este módulo. En la próxima lección comenzaremos con el cuarto módulo del curso en donde hablaremos de la Integral, la operación inversa a la derivada y que también resulta de importancia en varias técnicas de Ciencia de Datos y Machine Learning.

En la próxima lección comenzaremos entonces entendiendo el concepto de la Integral en funciones univariadas.

Ver todas las lecciones de este curso