4.2 - Principio de funcionamiento de una Red Neuronal Recurrente

Lección 2 de la sección “Redes Recurrentes y LSTM” del curso Fundamentos de Deep Learning con Python.

Introducción

En la lección anterior vimos una introducción a las Redes Recurrentes y hablamos del concepto de secuencia.

En esta lección hablaremos un poco más en detalle de esta arquitectura, y veremos específicamente su principio de funcionamiento.

Contenido exclusivo suscriptores

Suscríbete para tener acceso al video con la explicación detallada de esta lección. Además podrás disfrutar de todos los cursos de la Academia Online

Limitaciones de las Redes Neuronales y las Redes Convolucionales

Como lo vimos en las dos secciones anteriores, las Redes Neuronales y las Redes Convolucionales pueden alcanzar un desempeño impresionante procesando datos de tipo no-secuencial.

Sin embargo, al procesar secuencias se debe contar con una arquitectura capaz de:

  1. Procesar datos (secuencias) de tamaño variable
  2. Tener en cuenta la correlación entre los elementos de la secuencia

Desafortunadamente ni las Redes Neuronales ni las Convolucionales satisfacen estos requerimientos.

Características de las Redes Recurrentes

Las Redes Recurrentes están en capacidad de recibir y procesar cada elemento de la secuencia y a la vez teniendo en cuenta la correlación y el orden de sus elementos.

Así, en lugar de múltiples entradas, una por cada elemento de la secuencia, la Red Recurrente tiene una sola entrada y procesa un elemento de la secuencia a la vez. Esto permite procesar secuencias de cualquier longitud.

Además, para preservar la correlación y el orden existente entre los elementos de la secuencia, la Red Recurrente comparte la información resultante de este procesamiento entre un instante de tiempo y otro.

Contenido exclusivo suscriptores

Recuerda suscribirte para acceder al video con la explicación detallada de esta lección. Además podrás disfrutar de todos los cursos de la Academia Online

Conclusión

Ya tenemos claro porqué las Redes Neuronales y las Convolucionales no resultan adecuadas para el procesamiento de secuencias.

Y también vimos cómo las Redes Recurrentes resuelven este inconveniente, procesando un elemento a la vez y compartiendo la información del elemento procesado para los instantes de tiempo posteriores.

En la próxima lección veremos en detalle cómo se logran estos dos aspectos. Así que nos enfocaremos en la arquitectura de una Red Neuronal Recurrente.

Ver todas las lecciones de este curso