3.10 - Arquitectura de una Red Convolucional
Lección 10 de la sección “Redes Convolucionales” del curso Fundamentos de Deep Learning con Python.
Tabla de contenido
Introducción
En la lección anterior hablamos del pooling, y vimos cómo esta operación permite reducir la redundancia de información espacial en la imagen procesada. Con esto ya tenemos todos los elementos para definir la arquitectura de una Red Convolucional.
Como veremos a continuación, una Red Convolucional típica combina el principio de funcionamiento de una Red Neuronal con los conceptos de filtro o kernel, convolución, padding, strides y pooling para, de forma eficiente, extraer características relevantes de una imagen o volumen.
Veamos entonces cómo combinar estos ingredientes en lo que se conoce como una Red Convolucional.
Suscríbete para tener acceso al video con la explicación detallada de esta lección. Además podrás disfrutar de todos los cursos de la Academia Online
De la Neurona Artificial a una capa convolucional
Una capa convolucional usa una arquitectura equivalente a la de la Neurona Artificial vista anteriormente, con algunas modificaciones:
- En lugar de un vector de entrada tendremos una imagen o volumen
- En lugar de los coeficientes/parámetros de la neurona, hablaremos de los coeficientes de los filtros
- En lugar de hacer una multiplicación vectorial para realizar la transformación, usaremos la convolución entre la imagen/volumen y el (los) filtro(s)
- Seguiremos usando un coeficiente de bias (b) y una función de activación no lineal
- A la salida, en lugar de una cantidad numérica tendremos un volumen
De la capa a la Red Convolucional
La idea básica es conectar en cascada (es decir una seguida de la otra) capas convolucionales seguidas de capas de pooling (usualmente max-pooling) que progresivamente reducirán el ancho y alto del volumen procesado y que a la vez incrementarán su profundidad (es decir la cantidad de características extraídas).
Así, en las capas más profundas de la red tendremos cada vez características más complejas en el volumen procesado.
Posteriormente, el volumen obtenido tras la última capa convolucional será “aplanado” usando una pequeña Red Neuronal, que permitirá conectar dicho volumen procesado a la capa de salida, que podrá ser una función de activación tipo sigmoidal o softmax, dependiendo de la tarea para la cual entrenemos la Red.
Recuerda suscribirte para acceder al video con la explicación detallada de esta lección. Además podrás disfrutar de todos los cursos de la Academia Online
Conclusión
Muy bien, ya hemos visto cómo interconectar todos los elementos vistos hasta el momento en la arquitectura básica de una Red Convolucional que nos permite pasar de una imagen original a una salida numérica correspondiente, por ejemplo, a un clasificador.
En las próximas lecciones comenzaremos a ver diferentes arquitecturas de Redes Convolucionales que son referentes en la actualidad. En particular, en la próxima lección comenzaremos hablando de LeNet, la red precursora de todas las Redes Convolucionales existentes en la actualidad.