1.11 - Lo esencial de Álgebra Lineal para Deep Learning
Lección 11 de la sección “Introducción al Deep Learning” del curso Fundamentos de Deep Learning con Python.
Tabla de contenido
Introducción
En la lección anterior vimos una introducción a Pandas para Deep Learning, y vimos cómo usar esta librería para la lectura y manipulación de sets de datos en formato tabular.
En esta lección veremos los conceptos fundamentales de Álgebra Lineal requeridos para comprender el funcionamiento de las diferentes arquitecturas de Deep Learning que veremos a lo largo de este curso.
Suscríbete para tener acceso al video con la explicación detallada de esta lección. Además podrás disfrutar de todos los cursos de la Academia Online
Escalares y vectores
- Un escalar es simplemente una cantidad numérica, como por ejemplo la temperatura o el valor de una acción de la bolsa en un momento dado.
- Usaremos letras cursivas y en minúscula para denotar escalares (ejemplo: $x$), mientras que usaremos letras minúsculas y en negrilla para denotar los vectores (ejemplo: $\textbf{x}$)
- Por otra parte los vectores son arreglos unidimensionales de cantidades escalares. Por ejemplo, podemos tener un vector $\textbf{x}$ que contenga las características de una persona: edad, altura, peso.
- En adelante denotaremos los elementos (escalares) de un vector $\textbf{x}$ usando subíndices para indicar posiciones. Ejemplo: $x_1, x_2, …, x_n$
- La dimensionalidad de un vector se define como el número de elementos. Por ejemplo, el vector $\textbf{x} = [3, 5]$ tiene una dimensionalidad de 2, porque contiene precisamente dos elementos.
Matrices y tensores
- Las matrices son arreglos bidimensionales de datos (es decir que se encuentran organizados como si fuesen una tabla, con un cierto número de filas y columnas.
- Usaremos letras mayúsculas y en negrilla para denotar las matrices (ejemplo: $\textbf{X}$) y, al igual que con los vectores, usaremos letras minúsculas y en cursiva para denotar los elementos (escalares) de la matrix (ejemplos: $x_{11}, x_{12}, …, x_{mn}$ donde $m,n$ indican la fila y la columna en la que se encuentra el elemento)
- La transpuesta de una matriz se denota como $\bf X^T$ (que se lee como “transpuesta de equis”) y se obtiene simplemente tomando la matriz original (en este caso $\bf X$) e intercambiando las filas y las columnas
- Los tensores son arreglos de más de dos dimensiones. Por ejemplo, podemos tener un tensor $\bf Y$ con $m$ filas, $n$ columnas y $o$ planos de profundidad, es decir con una dimensionalidad igual a 3
Operaciones más comunes
- Producto punto entre dos vectores: se obtiene multiplicando de manera individual (uno a uno) los elementos de cada vector, y luego sumando los resultados. También es posible obtener este resultado calculando la transpuesta del primer vector y realizando una multiplicación vectorial con el segundo. Este producto punto siempre da como resultado una cantidad escalar
- Norma de un vector: corresponde simplemente a la magnitud del vector, y se calcula sumando el cuadrado de cada uno de sus elementos y luego aplicando la raíz cuadrada al resultado de esta suma.
Recuerda suscribirte para acceder al video con la explicación detallada de esta lección. Además podrás disfrutar de todos los cursos de la Academia Online
Conclusión
Bien, acabamos de ver los elementos esenciales de Álgebra Lineal para el Deep Learning. Estos conceptos los retomaremos más adelante cuando analicemos las Redes Neuronales en la próxima sección del curso.
En la próxima lección continuaremos revisando estos conceptos básicos, y especificamente nos enfocaremos en los elementos básicos de Cálculo Diferencial para Deep Learning.