2.13 - Idea intuitiva acerca de las Redes Neuronales

Lección 13 de la sección “Redes Neuronales” del curso Fundamentos de Deep Learning con Python.

Introducción

En la lección anterior vimos de forma práctica cómo resolver un problema de Clasificación Multiclase en Keras. Con esto, junto con los conceptos vistos sobre la Neurona Artificial, ya estamos listos para comenzar a hablar de la primera arquitectura del Deep Learning: las Redes Neuronales.

En particular en esta lección veremos de forma intuitiva las características y principio de funcionamiento de esta arquitectura.

Contenido exclusivo suscriptores

Suscríbete para tener acceso al video con la explicación detallada de esta lección. Además podrás disfrutar de todos los cursos de la Academia Online

El problema a resolver

Volvamos al problema que hemos venido analizando en las lecciones anteriores: clasificar a un grupo de estudiantes con base en el puntaje obtenido en una prueba (“Alto” o “Bajo”) y asumiendo que este depende de las horas de sueño y de estudio.

Pero en este caso añadiremos un elemento adicional: la frontera de decisión NO es lineal.

Teniendo en cuenta esta condición, encontraremos que la clasificación binaria, realizada por una sola Neurona Artificial no resultará adecuada en este caso, pues dicha neurona sólo está en capacidad de obtener fronteras de decisión lineales.

Idea intuitiva de una Red Neuronal

Sin embargo, si usamos más de una neurona, es decir si combinamos múltiples neuronas lograremos obtener una frontera de decisión NO lineal.

En este caso particular necesitaremos un total de tres neuronas, que al ser interconectadas adecuadamente permitirán obtener una frontera de decisión NO lineal que permitirá a su vez clasificar los datos correctamente.

Y esta interconexión de neuronas recibe el nombre de Red Neuronal. Y funciona precisamente porque la nueva frontera de decisión será una combinación NO lineal de las fronteras de decisión lineales que individualmente aporta cada neurona en la Red.

Las Redes Neuronales Profundas (Deep Neural Networks)

Y este mismo concepto de interconexión de neuronas lo podemos generalizar a Redes con múltiples capas ocultas.

Y de esto se deriva el término Deep Neural Networks: entre más capas ocultas agreguemos a nuestra red, más profunda será y más complejas serán las fronteras de decisión que se pueden obtener. ¡Y este es el principio de funcionamiento del Deep Learning!

Así, las Redes Neuronales en general se conocen como “aproximadores universales de funciones”, porque usando múltiples capas ocultas podemos obtener fronteras de decisión tan complejas como queramos.

Contenido exclusivo suscriptores

Recuerda suscribirte para acceder al video con la explicación detallada de esta lección. Además podrás disfrutar de todos los cursos de la Academia Online

Conclusión

Acabamos de ver el principio general de funcionamiento de una Red Neuronal y de una Red Neuronal profunda, pero de forma muy intuitiva.

Sin embargo, aún nos quedan varias preguntas por resolver:

  1. En el caso de estas Redes Neuronales, ¿estamos limitados únicamente al uso de las funciones de activación sigmoidal y softmax, o existen otras opciones?
  2. ¿Cómo se realiza el entrenamiento de la Red Neuronal?
  3. ¿Cómo determinar el tamaño que debe tener la Red para un problema en particular?

En las próximas lecciones daremos respuesta a cada una de estas preguntas, comenzando con la próxima lección en la cual hablaremos en detalle de las Funciones de Activación.

Ver todas las lecciones de este curso