20 - Optimización global y local

Lección 20 del curso Cálculo para Ciencia de Datos y Machine Learning.

En la lección anterior vimos una técnica básica para la obtención de máximos y mínimos de usando el concepto de derivada de una función.

Y allí vimos que ese enfoque tenía dos principales limitaciones, pues era necesario conocer la expresión matemática de la función y además esta debía tener un único máximo o mínimo.

En esta lección veremos la idea de máximos y mínimos locales y globales y veremos en qué consiste el principio de optimización para los casos en los cuales la función depende de una o múltiples variables y además tiene múltiples máximos o mínimos locales.

En estos casos entenderemos además cómo los algoritmos de entrenamiento, como el Gradiente Descendente usado en Deep Learning, usan el concepto de derivada para desplazarse por estos máximos/mínimos locales hasta encontrar el máximo/mínimo global.

Contenido exclusivo suscriptores

Suscríbete para tener acceso al video con la explicación detallada de esta lección. Además podrás disfrutar de todos los cursos de la Academia Online

Muy bien, acabamos de ver qué son los máximos y mínimos locales y globales, así como el principio general de funcionamiento de algoritmos como el gradiente descendente, que permiten iterativamente recorrer la función en búsqueda del mínimo global usando como guía la magnitud de la derivada.

Y con lo visto hasta el momento ya tenemos claros los principios de optimización que resultarán relevantes especialmente al momento de entender diferentes técnicas de Machine Learning.

Así que para cerrar este módulo y este curso sólo nos resta ver cuáles son las principales aplicaciones de este concepto de optimización en el Machine Learning, que será precisamente el tema de la próxima lección.

Ver todas las lecciones de este curso