Contenidos

Tema anterior

Clase 1: Introducción

Próximo tema

Clase 3: Transformaciones lineales y subespacios fundamentales

Esta página

Clase 2: Espacios Vectoriales y Multiplicación de Matrices

Bibliografía de la Clase:

  • Introduction to Linear Algebra. Gilbert Strang. Chapter 1 Vectors y Matrices
  • Numerical Linear Algebra.Chapter 1: Lecture 1 Matrix-Vector Multiplication
  • Linear Algebra Course, Gilbert Strang. Video-lecture 1 y Video-lecture 3 [StrangVL].

Espacios Vectoriales

Desde el punto de vista físico, un vector es una cantidad con magnitud y dirección:

Porsche

Desde el punto de vista matemático un vector se define formalmente como un elemento del espacio vectorial [Wolfram]. En el espacio vectorial $\mathbb{R}^{3}$ (espacio Euclideano de dimensión 3), sus elementos corresponden a vectores tridimensionales de la forma:

v=\begin{bmatrix}v_{1} \\ v_{2} \\ v_{3}\end{bmatrix}

Ahora es importante definir formalmente un espacio vectorial:

Un espacio vectorial $V$ es un conjunto que es cerrado bajo la suma de vectores y la multiplicación escalar. Para un espacio vectorial en general, los escalares son miembros de un campo $F$ (\mathbb{R},\mathbb{C},\mathbb{Q}), por lo tanto $V$ se denomina espacio vectorial sobre $F$

Por lo tanto, un espacio vectorial debe cumplir con:

\forall x,y \in V \ \ \forall \lambda , \mu \in F: \lambda x + \mu y \in V

Ejemplo 1: Espacio vectorial V(\mathbb{R}^{3},+,\cdot \lambda), donde cada elemento del espacio es representado como un tupla de 3 números de \mathbb{R}^{3}.

Ejemplo 2: P_{n}=\{\text{Polinomios de grado } \leq n, n \in \mathbb{N} }:

p(x)=\sum_{j=0}^{n} a_{j}x^{j}

q(x)=\sum_{j=0}^{n} b_{j}x^{j}

\lambda , \mu \in \mathbb{C}

r(x)= \lambda p(x) + \mu q(x) = \sum_{j=0}^{n}(\lambda a_{j} + \mu b_{j})x^{j} \in \mathbb{P_{n}}

Por lo tanto, P_{n} es un espacio vectorial con escalares en \mathbb{C}.

Combinaciones Lineales

Los vectores, elementos del espacio vectorial, se pueden sumar (y restar) y multiplicar por escalares. Combinando ambas operaciones se obtienen las combinaciones lineales.

Definición: Sean \bf{x} y \bf{y} dos vectores del espacio vectorial V, la suma de \lambda \bf{x} y \mu \bf{y} es la combinación lineal de \bf{x} y \bf{y}.

Hay 4 cuatro combinaciones lineales importanes:

  • Suma de vectores: 1\bf{v_{1}} + 1\bf{v_{2}}
  • Diferencia de vectores: 1\bf{v_{1}}-  1\bf{v_{2}}
  • Vector 0: 0\bf{v_{1}} +  0\bf{v_{2}}
  • Vector \lambda \bf{v_{1}} en la dirección de \bf{v_{1}} \rightarrow \lambda \bf{v_{1}} + 0 \bf{v_{2}}

Vectores Linealmente Dependientes

Los vectores \bf{u}, \bf{v} son linealmente dependientes (l.d.) ssi \exists \lambda
, \mu ,\text{ no todos cero } \in \mathbb{R}:  \lambda \bf{u} + \mu \bf{v} = 0. Esto es equivalente a:

\mu_{1}, \mu_{2} \ldots \mu_{n} \text{ son l.d. ssi }  \exists \lambda_{j} \text{ no todos cero }\in \mathbb{R} \ (j=1:n): \sum_{j=1}^{n} \lambda_{j}\mu_{j}=0 \ \ \text{(vector nulo)}

En la expresión precedente, es importante el término \exists \lambda_{j}, el cual implica que no todos los \lambda_{j} son 0, es decir, existen números \lambda_{j} que permiten que un vector pueda ser expresado como la suma de otros vectores.

Vectores Linealmente Independientes

\bf{u}, \bf{v} \text{ son linealmente independientes l.i si } \forall \lambda , \mu \in \mathbb{R}:  \lambda \bf{u} + \mu \bf{v}=0 \text{ ssi } \lambda = \mu = 0.

La idea es que un vector no se pueda expresar mediante la suma de otros vectores.

Más combinaciones lineales

Responder:

Si \bf{u}, \bf{v}, \bf{w} \in V(\mathbb{R}^{3},+,\cdot \lambda):

  • ¿Qué se obtiene con todas las combinaciones lineales \mu \bf{u}?
  • ¿Qué se obtiene con todas las combinaciones lineales \mu \bf{u} + \lambda \bf{v}?
  • ¿Qué se obtiene con todas las combinaciones lineales \mu \bf{u} + \lambda \bf{v} + \delta \bf{w}?

Transformación Lineal

La transformación x \rightarrow Ax (A matriz de m\times n), es lineal si para cualquier x, y \in \mathbb{R}^{n}/\mathbb{C}^{n} y cualquier \alpha \in
\mathbb{C}/\mathbb{R} se cumple:

A(x+y) = Ax + Ay

A(\alpha x) = \alpha Ax

Resolución de Ax=b

Se puede pensar en dos enfoques para resolver el clásico problema de Ax=b (que será un tema de análisis en nuestro curso): enfoque fila y enfoque columna. Si tomamos el ejemplo propuesto en [StrangVL]:

  • Enfoque fila

\begin{array}{lll}
2 x - y &= &0\\
-x + 2 y &= &3
\end{array}

fila01
  • Enfoque columna

x \begin{bmatrix} 2 \\ -1 \end{bmatrix} + y \begin{bmatrix} -1 \\  2 \end{bmatrix} = \begin{bmatrix}0  \\ 3 \end{bmatrix}

  • ¿Cómo sería la gráfica de este enfoque?

Ejercicio en clase

Ahora pasemos a \mathbb{R}^{3}:

\begin{array}{ lll}
2x -y  &= &0\\
-x +2y -z &= &1\\
-3y + 4z &= & 4\\
\end{array}

Enfoque Fila:

  1. Generar matrices A, b \text{ y }  x

  2. Graficar enfoque fila

    2.1 Geométricamente, ¿qué representa cada fila?

    2.2 Geométricamente, ¿qué se obtiene con la intersección de “dos filas”?

    2.3 Geométricamente, ¿qué se obtiene con la intersección de “tres filas”?

Enfoque Columna

  1. Escribir sistema de ecuaciones como combinación lineal de A
  2. Sin realizar cálculos, solo mirando la combinación lineal, ¿cuál sería una solución?

Multiplicación de Matrices y Vectores

Multiplicación Matriz Vector

Multiplicar Ax=b:

\begin{bmatrix}
-1 &0 &2\\
2 &4 &1\\
0 &-3 &0\\
\end{bmatrix} \begin{bmatrix}
1 \\ -1 \\ 4
\end{bmatrix}= b

Considerar la matriz A_{m\times n} y el vector n-dimensional x:

b_{i}=\sum_{j=1}^{n}a_{ij}x_{j} \  \ \ i=1 \ldots m. \ \ (1)

Sea a_{j} la j-ésima columna de A, vector de dimensión m, se puede reescribir (1):

b=Ax= \sum_{j=1}^{n}x_{j}a_{j}

Multiplicar nuevamente Ax=b usando este enfoque, ¿qué se obtiene?

¡Esto corresponde a las combinaciones lineales de los vectores columnas de la matriz A! \rightarrow Es importante para entender los algoritmos que se verán en la clase

Multiplicación Matriz Matriz

Enfoque Producto Punto

Consideremos el producto B_{l\times n}=A_{l\times m}C_{m\times n}

b_{ij}=\sum_{k=1}^{m}a_{ik}c_{kj}

Enfoque Columna

Sea a_{k} la k-ésima columna de la matriz A:

b_{j}=Ac_{j}=\sum_{k=1}^{m}c_{kj}a_{k}

Esto corresponde a las combinaciones lineales de los vectores columnas de la matriz A, (a_{k}) , con los coeficientes c_{kj} !!.

Enfoque Fila

Sea c^{k} la k-ésima fila de la matriz C:

b^{j}=a^{j}C=\sum_{k=1}^{m}a_{jk}c^{k}

Esto corresponde a las combinaciones lineales de los vectores filas de la matriz C, (c`{k}) , con los coeficientes a_{jk} !!.

Enfoque Columna Fila

Tarea (exposición opcional próxima clase), explicar la multiplicación de matrices enfoque columna fila

[Wolfram]Vector. Wolfram MathWorld. http://mathworld.wolfram.com/Vector.html
[StrangVL]MIT OpenCourseWare (OCW). Linear Algebra, Gilbert Strang. Video Lectures. http://ocw.mit.edu/courses/mathematics/18-06-linear-algebra-spring-2010/video-lectures/