Lecciones

Resumen de cada lección de los cursos de la Academia:

3.6 - Los Strides

(Julio 29, 2021 - Fundamentos de Deep Learning con Python)

En esta lección hablaremos de los strides, una operación que permite reducir el tamaño del mapa de características obtenido tras la convolución.

3.5 - El Padding

(Julio 28, 2021 - Fundamentos de Deep Learning con Python)

En esta lección hablaremos del padding, que permite evitar reducciones drásticas en el tamaño del volumen de salida tras la convolución.

3.4 - La Convolución

(Julio 27, 2021 - Fundamentos de Deep Learning con Python)

En esta lección veremos a través de un ejemplo a paso en qué consiste la Convolución, la operación que da el nombre a las Redes Convolucionales

3.3 - El filtro o kernel

(Julio 26, 2021 - Fundamentos de Deep Learning con Python)

En esta lección veremos el principio de funcionamiento del filtro o kernel, el elemento esencial de cualquier Red Convolucional

3.2 - Retos del procesamiento de imágenes y limitaciones de las Redes Neuronales

(Julio 10, 2021 - Fundamentos de Deep Learning con Python)

En esta lección veremos lo difícil que es lograr que un computador logre analizar una imagen del mundo real, y por qué las Redes Neuronales no logran realizar esta tarea.

3.1 - El sistema de visión humano y las Redes Convolucionales

(Julio 10, 2021 - Fundamentos de Deep Learning con Python)

En esta lección veremos el principio de funcionamiento del Sistema de Visión Humano y su relación con las Redes Convolucionales

2.26 - Proyecto Final: Predicción del Riesgo de Diabetes con Redes Neuronales

(Julio 10, 2021 - Fundamentos de Deep Learning con Python)

En esta lección desarrollaremos el proyecto final de esta sección: una Red Neuronal para predecir el riesgo de diabetes

2.25 - Aspectos prácticos para la implementación de Redes Neuronales

(Julio 10, 2021 - Fundamentos de Deep Learning con Python)

En esta lección veremos algunas sugerencias importantes a tener en cuenta para la implementación y entrenamiento de Redes Neuronales

2.24 - Otros algoritmos de optimización: Adam

(Julio 10, 2021 - Fundamentos de Deep Learning con Python)

En esta lección veremos cómo el algoritmo Adam combina lo mejor del algoritmo del Momentum y de RMSPROP para mejorar el proceso de entrenamiento

2.23 - Otros algoritmos de optimización: RMSPROP

(Julio 10, 2021 - Fundamentos de Deep Learning con Python)

En esta lección veremos cómo el algoritmo de RMSPROP, con un tamaño de paso variable, permite agilizar el proceso de entrenamiento

2.22 - Otros algoritmos de optimización: Gradiente Descendente con Momentum

(Julio 10, 2021 - Fundamentos de Deep Learning con Python)

En esta lección veremos cómo el algoritmo del Gradiente Descendente con momentum permite acelerar el proceso de entrenamiento

2.21 - Otros algoritmos de optimización: el gradiente descendente estocástico y mini-batch gradient descent

(Julio 10, 2021 - Fundamentos de Deep Learning con Python)

En esta lección veremos cómo funcionan los algoritmos del gradiente descendente estocástico y mini-batch gradient descent.