2.5 - La Regresión Lineal Múltiple

Lección 5 de la sección “Redes Neuronales” del curso Fundamentos de Deep Learning con Python.

Introducción

En la lección anterior vimos cómo implementar el algoritmo de Regresión Lineal en Python. En ese caso asumimos que el modelo contaba con una sola variable independiente (o característica de entrada): el área del inmueble.

En esta lección veremos cómo se puede extender esta idea de la Regresión Lineal a múltiples dimensiones, es decir a situaciones en las que tengamos modelos con múltiples variables independientes (es decir múltiples características de entrada).

Contenido exclusivo suscriptores

Suscríbete para tener acceso al video con la explicación detallada de esta lección. Además podrás disfrutar de todos los cursos de la Academia Online

El problema a resolver

Partamos del problema analizado originalmente en el caso de la Regresión Lineal simple: la predicción del precio de un inmueble (variable dependiente) dada el área del mismo (variable dependiente). Supongamos en este caso que el precio dependerá, además del área, de la antigüedad (en años) del inmueble así como del número de habitaciones. Es decir que en este caso tendremos tres variables independientes (área, antigüedad y número de habitaciones).

La idea es entonces encontrar un modelo que permita relacionar las variables independientes (entradas) con la variable dependiente (el precio del inmueble).

Características del modelo

Si la relación entre el precio y estas tres variables sigue siendo lineal podemos entonces expresar el precio como una combinación lineal de las variables independientes. Así que nuestro modelo tendrá ahora un total de 4 parámetros por entrenar.

El entrenamiento del modelo

Podemos usar los mismos conceptos vistos en el caso de la Regresión Lineal simple para entrenar este nuevo modelo. En particular:

Y con esto ya lograremos entrenar un modelo capaz de predecir el precio del inmueble a partir de las características de entrada.

Contenido exclusivo suscriptores

Recuerda suscribirte para acceder al video con la explicación detallada de esta lección. Además podrás disfrutar de todos los cursos de la Academia Online

Conclusión

Acabamos de ver que las mismas ideas de la Regresión Lineal simple se pueden extender para resolver un problema en múltiples dimensiones. En este caso particular asumimos un vector de entrada de dimensionalidad 3 (correspondiente a las tres variables independientes), pero las mismas ideas que vimos para el entrenamiento del modelo se pueden extender a n dimensiones.

En la siguiente lección hablaremos de una variante del algoritmo del Gradiente Descendente visto anteriormente: el Gradiente Descendente estocástico con “mini-batch”, que es la implementación usada en la práctica al momento de implementar diferentes modelos de Deep Learning.

Ver todas las lecciones de este curso