26 abr 2021

Álgebra Lineal Parte 2/4: Valores propios, vectores propios y subespacios propios

En esta entrada vamos a regresar a la pregunta original que motivó nuestra discusión de los valores propios y vectores propios en primer lugar: dada una transformación lineal $T: V\to V$ sobre un espacio finito dimensional $V$, ¿Es posible encontrar una base $\beta$ de $V$ tal que la matriz asociada $[T]_{\beta}^{\beta}$ es una matriz diagonal?

Definición 1. Un operador lineal $T:V \to V$ sobre un espacio finito dimensional $V$ es diagonalizable si existe una base $\beta$ de $V$ tal que la matriz asociada $[T]_{\beta}^{\beta}$ es una matriz diagonal.

Esta definición también se puede formular para matrices; si $A$ es una matriz de orden $n\times n$, entonces $A$ es la matriz de $T:F^{n}\to F^{n}$ dada por la multiplicación a izquierda por $A$. En este caso podemos decir que $A$ es diagonalizable cuando $T$ es diagonalizable. De los resultados para cambios de base, esto es equivalente a decir que existe una matriz invertible $Q\in M_{n\times n}(F)$, denominada matriz de cambio de base $Q=[I]_{\beta}^{\gamma}$, para la cual $Q^{-1}A Q = [I]_{\gamma}^{\beta}[T]_{\gamma}^{\gamma}[I]_{\beta}^{\gamma} = [T]_{\beta}^{\beta}$ es una matriz diagonal.

Definición 2. Una matriz $A\in M_{n\times n}(F)$ es diagonalizables sobre $F$ si existe una matriz invertible, $Q\in M_{n\times n}(F)$ para cual $Q^{-1}AQ$ es una matriz diagonal.

Recuerden que hay que tener un particular cuidado con el campo $F$, ya que la diagonalización de una matriz depende parcialmente del campo $F$ sobre el cual se esté trabajando.

Recuerde que se dice que dos matrices $A$ y $B$ de orden $n\times n$ son similares si existe una matriz invertible $n\times n$ tal que $B= Q^{-1}AQ$. Por lo tanto, una matriz es diagonalizable precisamente cuando es similar a una matriz diagonal.

Nuestro objetivo es caracterizar las transformaciones lineales.

Polinomio característico y similaridad. Si $A$ y $B$ son similares, entonces ellas tienen el mismo polinomio característico, determinante, traza y valores propios (y sus valores propios tienen las mismas multiplicidades).

Demostración. Suponga que $B = Q^{-1}AQ$. Para el polinomio característico, se computa simplemente $\det(\lambda I - B) =$ $\det(Q^{-1}(\lambda I)Q - Q^{-1}AQ)=$ $\det(Q^{-1}(\lambda I - A)Q) = $ $ \det(Q^{-1})\det(\lambda I -A)\det(Q)= $ $\det(\lambda I - A)$.

El determinante y la traza son ambos coeficientes para el polinomio característico así que ellos son también iguales.

Finalmente, los valores propios son las raíces del polinomio característico, así que llos son los mismos y ocurren con la misma multiplicidad para $A$ y $B$.

$\Box$

Los vectores propios para matrices similares también esta cercanamente relacionados:

Valores propios y similaridad. Si $B = Q^{-1}AQ$, entonces $v$ es un vector propios de $B$ con valor propio $\lambda$ si y solo si $Qv$ es un vector propio de $A$ con valor propio $\lambda$.

Demostración. Dado que $Q$ es invertible, $v=0$ si y sólo si $Qv=0$. Ahora asumamos que $v\neq 0$. Primero suponemos que $v$ es un vector propio de $B$ con valor propio $\lambda$. Entonces $A(Qv)=Q(Q^{-1}AQ)v=Q(Bv)=Q(\lambda v) = \lambda (Qv)$, esto quiere decir que $Qv$ es un vector propio de $A$ con valor propio $\lambda$.

Inversamente, si $Qv$ es un vector propio de $A$ con valor propio $\lambda$. Entonces $Bv = Q^{-1}A(Qv) = Q^{-1}\lambda (Qv) = \lambda (Q^{-1}Qv) = \lambda v$, así $v$ es un vector propio de $B$ con valor propio $\lambda$.

Corolario. Si $B = Q^{-1}AQ$, entonces los subespacios propios para $B$ tienen las mismas dimensiones como los subespacios propios para $A$.

En esencia, diaganalizabilidad es equivalente a la existencia de una base de vectores propios:

Diagonalizabilidad. Un operador lineal $T:V\to V$ es diagonalizable si y solo si existe una base $\beta$ de $V$ que consiste de vectores propios de $T$.

Demostración. Suponga primero que $V$ tiene una base de vectores propios $\beta = \{v_1, v_2,\dots, v_n\}$ con sus respectivos valores propios $\lambda_1, \lambda_2, \dots, \lambda_n$. Entonces por hipótesis, $T(v_i)=\lambda_i v_i$, y así $[T]_{\beta}^{\beta}$ es la matriz diagonal con entradas en la diagonal principal $\lambda_1,\dots, \lambda_n$.

Inversamente, suponga que $T$ es diagonalizable y sea $\beta = \{v_1,\dots, v_n\}$ una base tal que $[T]_{\beta}^{\beta}$ es una matriz diagonal cuyas entradas son $\lambda_1, \cdots, \lambda_n.$ Entonces por hipótesis, cada $v_1$ es no cero y $T(v_i)=\lambda_i v_i$ para cada $v_i$ es un vector propio de $T$.

$\Box$

Aunque el resultado anterior da una caracterización de las transformaciones diagonalizables, no es enteramente obvio como para determinar que tal bases de vectores propios existe

Resulta que esencialmente se puede verificar esta propiedad en cada espacio propio. Se ha provado antes, que la dimensión de cada $\lambda$ - subespacio propio de $T$ es menor o igual que la multiplicidad de $\lambda$ como una raíz del polinomio característico.

Dado que que el polinomio característico tiene grado $n$, esto quiere decir que la suma de las dimensiones de los $\lambda$ - subespacios no es superios a $n$, y puede ser superior a $n$ solo cuando cada subespacio propio tiene dimensión igual a la multiplicidad de sus correspondientes valores propios.

El objetivo ahora, es mostrar que si cada subespacio propio tiene dimensión igual a la multiplicidad de sus correspondientes valores propios, entonces la matriz será diagonalizable.

Pero para hacer esto, antes se necesita un resultado intermedio acerca de la independencia de los vectores propios que tienen distintos valores propios.

Independencia de los vectores propios. Si $v_1$, $v_2$,..., $v_n$ son vectores propios de $T$ asociados a los distintos valores propios $\lambda_1, \lambda_2, \dots, \lambda_n$ cuando $v_1,\dots, v_{n}$ son linealmente independientes.

Demostración. Razonando por inducción sobre $n$. Es caso base para $n=1$ es trivial, dado que por definición un vector propio no puede ser zero. Suponga ahora que $n\leq 2$ y eque se tiene la dependencia lineal $a_1v_1+\cdots + a_nv_n=0$ para los vectores propios $v_1, \dots, v_n$ teniendo distintos valores propios $\lambda_1, \cdots \lambda_n$.

Aplicando ahora $T$ a ambos lados $T(a_1v_1+\cdots + a_nv_n) = a_1(\lambda_1 v_1) +\cdots + a_n(\lambda_n v_n) = 0$. Pero si ahora restamos la dependencia original por un factor de $\lambda_1$ se ontiene la nueva relacipon:

\begin{equation} a_2(\lambda_2-\lambda_1)v_2 + a_3(\lambda_3 - \lambda_1)v_3 + \cdots a_n(\lambda_n - \lambda_1)v_n = 0. \end{equation}

Por la hipótesis inductiva, todos los coeficientes de esta dependencia debe ser cero, y así se tienen $\lambda_k \neq \lambda_1$ para cada $k$, así se concluye que $a_2 = \cdots = a_n = 0$. Entonces $a_1 v_1 = 0$ implica que $a_1 = 0$, con lo que se concluye la prueba.

$\Box$

A continuación vamos a formalizar la noción de tener todos los valores propios en $F$.

Definición. Si $p(x)\in F[x]$, se dice que $p(x)$ es factorizable en $F$ si $p(x)$ se puede escribir como el producto de factores lineales en $F[x]$, es decir $p(x)=a(a-r_1)(x-r_2)\cdot\cdots \cdot(x-r_d)$ para algún $a, r_1, r_2, \dots, r_d\in F$.

Informalmente, un polinomio es factorizable sobre $F$ cuando todas sus raíces son elementos de $F$.

Ejemplo 1. El polinomio $x^2 -2$ no es factorizable en $\mathbb{Q}$, pero si es completamente factorizable sobre $\mathbb{R}$ dado que se puede escribir $x^2-2 =(x-\sqrt{2})(x-\sqrt{2})\in \mathbb{R}[x]$. Observe que las raíces $\sqrt{2}$ y $-\sqrt{2}$ del polinomio no son elementos de $\mathbb{Q}$ pero si son elementos de $\mathbb{R}$.

Ejemplo 2. El polinomio $x^2-1$ es factorizable sobre $\mathbb{Q}$, dado que se puede escribir $x^2-1 = (x-1)(x+1)$ en $\mathbb{Q}[x]$.

Si $A$ es una matriz de orden $n\times n$, se dice que todos sus valores propios están en $F$ cuando el polinomio característico de $A$ es factorizable en $F$.

Ahora vamos a establecer un criterio de diagonalización de matrices:

Creterio de diagonalización. Una matriz $A\in M_{n\times n}(F)$ es diagonalizable sobre $F$ si y solo si todos los valores propios están den $F$, y para cada valor propio $\lambda$, la dimensión del $\lambda$ - espacio es igual a la multplicidad de $\lambda$ como una raíz del polinomio característico.

Demostración. Si la matriz $A$ de orden $n\times n$ es diagonalizable, entonces las entradas de la diagonal de sus diagonalización son los valores propios de $A$, así ellos deberán estár en el campo escalar $F$.

Además, por teorema anterior sobre diagonalización, $V$ tiene una base $\beta$ de vectores propios para $A$. Ahora, para cualquier valor propio $\lambda_i$ de $A$, sea $b_i$ el número de elementos de $\beta$ que tienen valor propio $\lambda_i$, y sea $d_i$ la multiplicidad de $\lambda_i$ como una raíz del polinomio característico.

Por lo tanto $\sum_i b_i = n$ dado que $\beta$ es una base para $V$, y $\sum_i d_i = n$, de los resultados anteriores el polinomio característico $b_i \leq d_i$. Por lo tanto $n = \sum_i b_i \leq \sum_i d_i = n$, así $b_i = d_i$ para cada $i$.

Por otro lado, suponga que los valores propios de $A$ están en $F$ y que $b_i = d_i$ para todo $i$. Entonces sea $\beta$ la unión de las bases para cada subespacio propio de $A$. Por hipótesis, $\beta$ contiene $\sum_i b_i = \sum_i d_i = n$ vectores, así se concluye que es una base $n$ - dimensional para el espacio $V$, ahora solo debemos demostrar que son linealmente indipendientes.

Explicitamente, sea $\beta_i = \{v_{i, 1}, \dots, v_{i, j_i}\}$ la base de los $\lambda_i$ - subespacios para cada $i$, así que $\beta = \{v_{1, 1}, v_{1, 2},\dots, v_{k, j}\}$ y $Av_{i, j} = \lambda_i v_{i, j}$ para cada par $(i, j)$.

Suponga que hay dependencia $a_{1, 1} v_{1, 1} + \cdots + a_{k, j} = 0$. Sea $w_i = \sum_{j} a_{i, j} v_{i, j}$, y observe que $w_i$ tiene $Aw_i = \lambda_i w_i$, y sea $w_1 + w_2 +\cdots + w_k = 0$.

Si alguno de los $w_i$ es no nulo, entonces se tendría un dependecia linela no trivial entre los valores propios de $A$ con distinto valores propios, pero estos es imposible por teorema anterior.

Por lo tanto, cada $w_i=0$, quiere decir que $a_{i, 1}v_{i, 1}+\cdots + a_{k, j_i}v_{i, j_i} = 0$. Pero como $\beta_i$ es linealmente independiente, todos los coeficientes $a_{i, j}$ deben ser cero. Por lo tanto, $\beta$ debe ser linealmente independiente y por lo tanto es una base para $V$.

$\Box$

Corolario. Si $A\in M_{n\times n} (F)$ tiene $n$ valores propios distintos en $F$, entonces $A$ es diagonalizable sobre $F$.

Demostración. Para cada valor propio se debe tener multiplicidad uno como una raíz del polinomio característico. Dado que hay $n$ valores propios y la suma de sus multiplicidades es también $n$. Entonces la dimensión de cada valor propio es igual a uno (dado que la dimensión siempre está entre uno y la multiplicidad). Así por el teorema anterior, $A$ es diagonalizable.

$\Box$

La prueba del teorema de diagonalización da un procedimiento explicito para determinar la diagonalizabilidad y la diagonalización de una matriz. Para determinar cuando una transformación lineal $T$ (o matriz) es diagonalizable, y hallar una base $\beta$ tal que $[T]_{\beta}^{\beta}$ es diagonal (o una matriz $Q$ con $Q^{-1}AQ$ diagonal), se siguen los siguientes pasos:

  1. Encontrar el polinomio característico y los valores propios de $T$ (o $A$).
  2. Encontrar una base para cada subespacio propio de $T$ (o A).
  3. Determinar si $T$ (o $A$) es diagonalizable. Si la dimensión de cada subespacio propio es igual a número de veces que los valores propios aparecen como raíces del polinomio característico, en otro caso $T$ es no diagonalizable.
  4. Para una transformación lineal $T$ diagonalizable, sea $\beta$ una base de los vectores propios para $T$. Para una matriz $A$, la matriz $Q$ de diagonalización puede ser tomada como la matriz cuyas columnas son una base de vectores propios de $A$.

Ejemplo 3. Para $T:\mathbb{R}^{2}\to \mathbb{R}^{2}$ dado por $T(x, y)=\langle -2y, 3x + 5y\rangle$, determinar cuando $T$ es diagonalizable y si es así, hallar una base $\beta$ tal que $[T]_{\beta}^{\beta}$ es diagonal.

La matriz $A$ asociada para $T$ relativa a la base estandar es:

In [1]:
from sympy import Matrix, factor
In [2]:
A = Matrix([[0, -2], [3, 5]])

Computamos el polinomio característico

In [3]:
polynomial = A.charpoly()
factor(polynomial.as_expr())
Out[3]:
$\displaystyle \left(\lambda - 3\right) \left(\lambda - 2\right)$

Por lo tanto los valores propios son $\lambda = 2, 3$. Datoa que los valores propios son distintos, entonces $T$ es diagonalizables.

Usaremos la siguiente función para calcular las transformaciones $T_\lambda = \lambda I - A$:

In [4]:
from sympy import eye
def eigen_transformation(eigenvalue, A):
    identity = eye(A.shape[0])
    return eigenvalue * identity - A
In [5]:
T_2 = eigen_transformation(eigenvalue=2, A=A)
In [6]:
T_3 = eigen_transformation(eigenvalue=3, A=A)

Luego los espacios propios para las transformaciones propias $T_2$ y $T_3$ son:

In [7]:
T_2.nullspace()
Out[7]:
[Matrix([
 [-1],
 [ 1]])]
In [8]:
T_3.nullspace()
Out[8]:
[Matrix([
 [-2/3],
 [   1]])]

Esto quiere decir que $[1, -1]^{\top}$ es una base para el $2$ - subespacio propio, y $[-2, 3]^{\top}$ es una base para el $3$ - subespacio.

Por lo tanto para $\beta = \{[1, -1]^{\top}, [-2, 3]^{\top}\}$, se puede ver que:

\begin{equation} [T]_{\beta}^{\beta} = \begin{bmatrix} 2 & 0 \\ 0 & 3 \end{bmatrix} \end{equation}

En efecto:

In [9]:
Q = Matrix([[1, -2], [-1, 3]])
In [10]:
Q.inv()*A*Q
Out[10]:
$\displaystyle \left[\begin{matrix}2 & 0\\0 & 3\end{matrix}\right]$

Ejemplo 4. Para la matriz $A = \begin{bmatrix} 1 & -1 & -1 \\ 0 & 1 & -1 \\ 0 & 0 & 1 \end{bmatrix}$ determinar si existe una matriz diagonal $D$ y matriz $A$ con $D = Q^{-1}AQ$, y si es así, encontrarla.

In [11]:
from sympy import Matrix, factor
In [12]:
A = Matrix([[1, -1, -1], [0, 1, -1], [0, 0, 1]])

Sus valores propios son:

In [13]:
A.eigenvals()
Out[13]:
{1: 3}

Los valores propios son $\lambda = 1, 1, 1$. Esto se puede comprobar fácilmente debido a que $A$ es una matriz triangular y por lo tanto su polinomio característico es $\det(\lambda I - A) = (\lambda - 1)^3$.

Por otro lado la transformación propio $T_1$ es:

In [14]:
T_1 = eigen_transformation(eigenvalue=1, A=A)
In [15]:
T_1
Out[15]:
$\displaystyle \left[\begin{matrix}0 & 1 & 1\\0 & 0 & 1\\0 & 0 & 0\end{matrix}\right]$

Donde su espacio nulo es:

In [16]:
T_1.nullspace()
Out[16]:
[Matrix([
 [1],
 [0],
 [0]])]

Por lo tanto el $1$ - subespacio propio es generado por $[1, 0, 0]^{\top}$. Dado que la dimensionalidad de este espacio no es igual a la multiplicidad de $\lambda = 1$, entonces la matriz $A$ no es diagonalizable y por lo tanto no existen las matrices $D$ y $Q$.

Ejemplo 5. Para la matriz $\begin{bmatrix} 1 & -1 & 0 \\ 0 & 2 & 0 \\ 0 & 2 & 1 \end{bmatrix}$, determine si existe una matriz diagonal $D$ y una matriz invertible $Q$ tal que $D = Q^{-1}AQ$, si es así, encontrarlas.

In [17]:
from sympy import Matrix, factor
In [18]:
A = Matrix([[1, -1, 0], [0, 2, 0], [0, 2, 1]])
In [19]:
polynomial = A.charpoly()
In [20]:
factor(polynomial.as_expr())
Out[20]:
$\displaystyle \left(\lambda - 2\right) \left(\lambda - 1\right)^{2}$

Así, los valores propios son $\lambda = 1, 1, 2$.

Las tranformaciones propias sociadas respectivamente a cada valor de $\lambda$ son:

In [21]:
T_1 = eigen_transformation(eigenvalue=1, A=A)
In [22]:
T_2 = eigen_transformation(eigenvalue=2, A=A)

Sus respectivos subespacios serían:

In [23]:
T_1.nullspace()
Out[23]:
[Matrix([
 [1],
 [0],
 [0]]),
 Matrix([
 [0],
 [0],
 [1]])]
In [24]:
T_2.nullspace()
Out[24]:
[Matrix([
 [-1/2],
 [ 1/2],
 [   1]])]

Por lo tanto $\{[1, 0, 0]^{\top}, [0, 0, 1]^{\top}\}$ es una base para el $1$ - subespacio propio y $\{[-1, 1, 2]^{\top}$ es una base para el $2$ - subespacio propio.

Dado que la dimensionalidad de cada subespacio propio es igual a su multiplicidad de su respectivo valor propio, entonces $A$ es diagonaizable y se toma a $D$ y $Q$ como:

In [25]:
D = Matrix([[1, 0, 0], [0, 1, 0], [0, 0, 2]])
In [26]:
Q = Matrix([[1, 0, -1], [0, 0, 1], [0, 1, 2]])

Ahora hay que comprobar que $D = Q^{-1}AQ$ y en efecto se tiene:

In [27]:
D == Q.inv()*A*Q
Out[27]:
True

Observación. Se puede tomar tambień las siguientes matrices $D$ y $Q$:

In [28]:
D = Matrix([[2, 0, 0], [0, 1, 0], [0, 0, 1]])
In [29]:
Q = Matrix([[-1, 1, 0], [1, 0, 0], [2, 0, 1]])

Y nuevamente se comprueba que $D = Q^{-1}A Q$.

In [30]:
D == Q.inv()*A*Q
Out[30]:
True

Es decir no hay una razón particular para para preocuparse mucho sobre qué matriz diagonal diagonal, siempre que se organicen los vectores propios y los valores propios de manera correspondiente. También se podría haber utilizado cualquier otra base de los espacios propios para construir $Q$.

Sabiedno que una matriz es diagonalizable, esta puede ser muy útil para realizar algunos cálculos complejos.

Por ejemplo, si $A$ es una matriz diagonalizable con $D = Q^{-1}A Q$, entonces es muy fácil computar cualquier pontencia de $A$. Explicitamente, dado que se puede escribir $A = QD^{-1}$, entonces $A^{k}=(QDQ^{-1})^{k}=QD^{k}Q^{-1}$. Pero como $D$ es diagonal, entonces $D^{k}$ es simplemente una matriz diagonal cuyas entradas son las $k$ potencias de las entradas de $D$.

Ejemplo 5. Si $A = \begin{bmatrix} -2 & -6 \\ 3 & 7 \end{bmatrix}$, encontrar una formula de la $k$ potencia $A^{k}$, para un entero positivo.

In [31]:
from sympy import Matrix, factor, symbols
In [32]:
k = symbols('k')
In [33]:
A = Matrix([[-2, -6], [3, 7]])
In [34]:
A.eigenvals()
Out[34]:
{4: 1, 1: 1}

Los valores propios son $\lambda = 4, 1$. Así las transformaciones propias serían:

In [35]:
T_4 = eigen_transformation(eigenvalue=4, A=A)
In [36]:
T_1 = eigen_transformation(eigenvalue=1, A=A)

Y sus respectivos espacios nulos serían:

In [37]:
T_4.nullspace()
Out[37]:
[Matrix([
 [-1],
 [ 1]])]
In [38]:
T_1.nullspace()
Out[38]:
[Matrix([
 [-2],
 [ 1]])]

Por lo tanto una base para el $4$ - subespacio propio es $\{[-1, 1]^{\top}\}$ y una base para el $1$ - subespacio propio es $\{[-2, 1]^{\top}\}$. Así las matrices $D$ y $Q$ serían:

In [39]:
D = Matrix([[1, 0], [0, 4]])
In [40]:
Q = Matrix([[-2, -1], [1, 1]])

Luego, $D^{k}$ y $A^{k}$ son:

In [41]:
D**k
Out[41]:
$\displaystyle \left[\begin{matrix}1 & 0\\0 & 4^{k}\end{matrix}\right]$
In [42]:
A**k
Out[42]:
$\displaystyle \left[\begin{matrix}2 - 4^{k} & 2 - 2 \cdot 4^{k}\\4^{k} - 1 & 2 \cdot 4^{k} - 1\end{matrix}\right]$

Finalmente, hay que verificar que $A^{k} = QD^{k}Q^{-1}$.

In [43]:
A**k == Q* D**k * Q.inv()
Out[43]:
True

También se puede usar la diagonalización de una matriz para probar nuevos teoremas de una forma más simple. He aquí un ejemplo típico.

Definición. Si $T:V\to V$ es un operador y $p(x) = a_0 + a_1 x+\cdots a_nx^n$ es un polinomio, se define: $$p(T)= a_0 I + a_1 T + \cdots a_n T^{n}.$$ Similarmente, si $A$ es una matriz de orden $n\times n$, se define: $$p(A) = a_0 I + a_1 A + \cdots a_n A^{n}.$$ Es fácil comprobar que $Q^{-1}p(A)Q = p(Q^{-1}AQ)$.

Caley-Hamilton. Si $p(x)$ es el polinómio característico de la matriz $A$, entonces $p(A)$ es la matriz cero.

El mismo se resultado se dá para el polinomio característico del operador lineal $T:V\to V$.

Ejemplo 6. Para la matriz $\begin{bmatrix} 2 & 2 \\ 3 & 1 \end{bmatrix}$, se tiene:

In [44]:
from sympy import Matrix, factor, symbols, eye
In [45]:
A = Matrix([[2, 2], [3, 1]])

con polinomio característico:

In [46]:
A.charpoly().as_expr()
Out[46]:
$\displaystyle \lambda^{2} - 3 \lambda - 4$

Se computar fácilmente $A^{2} - 3 A - 4I_{2}$, en efecto:

In [47]:
A**2 - 3 * A - 4 * eye(2)
Out[47]:
$\displaystyle \left[\begin{matrix}0 & 0\\0 & 0\end{matrix}\right]$

Demostración. Si $A$ es diagonalizable, entonces $D = Q^{-1} A Q$ con $D$ diagonal, y sea $p(x)$ el polinomio característico de $A$. La diagonal de entradas de $D$ son los valores propios $\lambda_1,\dots, \lambda_n$ de $A$. por lo tanto son raíces del polinómio característico, es decir $p(\lambda_1)=\cdots=p(\lambda_n)=0$.

Se puede verificar fácilmente que:

\begin{equation} p(D)=p\left(\begin{bmatrix} \lambda_1 & & \\ &\ddots & \\ & & \lambda_n\end{bmatrix}\right) = \begin{bmatrix} p(\lambda_1) & & \\ &\ddots & \\ & & p(\lambda_n)\end{bmatrix} = \begin{bmatrix} 0 & & \\ &\ddots & \\ & & 0\end{bmatrix}=0. \end{equation}

Luego $p(A) = Q p(D) Q^{-1} = 0$ cómo se quería probar.

En el caso de una matriz $A$ no diagonalizable, la prueba del teorema de Cayley Hamilton es sustancialmente más dificil. Este caso se tratará en la sigueinte sección usando la forma canónica de Jordan.

Bibliografía

  1. Evan Dummit, 2020, Linear Algebra - part 4: Eingenvalues, Diagonalization, and the Jordan Form.
  2. SymPy Development Team. 2021. Sympy 1.8 documetation.

Contacto

  • Participa del canal de Nerve a través de Discord.
  • Se quieres conocer más acerca de este tema me puedes contactar a través de Classgap.

Si el post fue de tu agrado muestra tu apoyo compartiéndolo, suscribiéndote al blog, siguiéndome o realizando una donación.

11 abr 2021

Álgebra Lineal Parte 1/4: Valores propios, vectores propios y subespacios propios

En esta ocasión, vamos a hablar de valores propios y vectores propios: estos son valores y vectores característicos asociados a un operador lineal $T:V\to V$ que permiten estudiar a $T$ en una forma particularmente conveniente. Nuestro objetivo final es describir métodos para encontrar una base para $V$ tal que la matriz asociada $T$ tenga una forma especialmente simple.

Primero vamos a describir el proceso de diagonalización, procedimiento que se hace para encontrar una base tal que la matriz asociada a $T$ sea una matriz diagonal, y que caracteriza a los operadores lineales que son diagonalizables.

Desafortunadamente, no todos los operadores lineales son diagonalizables, así que también vamos a discutir un método para calcular la forma canónica de una matriz, el cual es la representación más cercana posible a una matriz diagonal. Finalmente estudiaremos unas aplicaciones de la forma canónica de Jordan, incluyendo el teorema de Cayley-Hamilton que es para cualquier matriz que satisface su polinómio característico.

Valores propios, vectores propios y el polinómio característico

Suponga que se tiene una transformación lineal $T:V\to V$ de un espacio vectorial finito dimensional en sí mismo. Vamos a probar que existe una base $\beta$ de $V$ tal que la matriz asociada a $T$ es una matriz diagonal. La motivación para resolver esto, es porque es deseable describir a $T$ en la forma más simple posible, ¿Y hay otra forma más simple que una matriz diagonal?

Suponga que $\beta = \{v_1, \dots, v_n\}$ y que la matriz asociada a $T$ es la matriz diagonal $[T]_{\beta}^{\beta} =\operatorname*{diag\,} (\lambda_1, \dots, \lambda_n)$. Bajo este supuesto, se tiene que $[T]_{\beta}^{\beta}(v_i)=\lambda_i v_i$ para cada $1\leq i\leq n$; la transformación lineal $T$ se comporta como la multiplicación de un escalar $\lambda_i$ por un vector $v_i$. Inversamente, si se tiene una base $\beta$ de $V$ tal que $[T]_{\beta}^{\beta}(v_i)=\lambda_i v_i$ para algún escalar $\lambda_i$, con $1\leq i \leq n$, entonces la matriz asociada $[T]_{\beta}^{\beta}$ es una matriz diagonal.

Esto sugiere que hay que estudiar los vectores $v$ tal que $T(v) = \lambda v$ para algún escalar $\lambda$.

Definición. Si $T:V\to V$ es una transformación lineal, un vector no nulo $v$ con $T(v)=\lambda v$ es una vector propio de $T$, y le corresponde un escalar $\lambda$ llamado valor propio de $T$.

No se considera el vector cero como un vector propio. La razón de esta convención es para asegurar que si $v$ es un vector propio, entonces le corresponde un valor propio $\lambda$ único. Tambien observe que implícitamente $\lambda$ debe ser un elemento del campo escalar de $V$, dado que en otro caso $\lambda v$ no tendría sentido.

Cuando $V$ es un espacio de funciones, se usa a menudo las palabras funciones propias en lugar de vectores propios.

Veamos algunos ejemplos de transformaciones lineales y vectores propios

Ejemplo 1. Si $T:\mathbb{R}^2\to \mathbb{R}^2$ es una transformación con $T(x, y) = [2x+3y, x+4y]^\top$, entonces $v=[3, -1]^\top$ es una vector propio de $T$ con valor propio $\lambda = 1$, por lo tanto $T(v) = [3, -1]^\top = v$. En efecto:

In [1]:
def T(x, y):
return (2 * x + 3 * y, x + 4 * y)
In [2]:
T(3, -1) == (3, -1)
Out[2]:
True

Ejemplo 2. Si $T:M_{2\times 2}(\mathbb{R})\to M_{2\times 2}(\mathbb{R})$ es la transformación transposición, entonces la matriz $\big[\begin{smallmatrix} 1 & 1 \\ 1 & 3 \end{smallmatrix}\big]$ es un vector propio de $T$ con valor propio $\lambda = 1$, en efecto:

In [3]:
from sympy import Matrix
In [4]:
def T(w):
return w.T
In [5]:
A = Matrix([[1, 1], [1, 3]])
In [6]:
T(A) == A
Out[6]:
True

Ejemplo 3. Si $T:P(\mathbb{R})\to P(\mathbb{R})$ es la transformación dada por $T(f(x))=xf'(x)$, entonces para cualquier entero $n\geq 0$, el polinomio $p(x) = x^n$ es una función propia de $T$ con valor propio $n$, dado que $T(x^{n})=nx^{n}$. Esto lo vemos en Python así:

In [7]:
from sympy import symbols, diff
In [8]:
x = symbols('x')
n = symbols('n')
In [9]:
def f(x):
return x**n
In [10]:
def T(f):
return x * diff(f, x)
In [11]:
T(f(x)) == n * f(x)
Out[11]:
True

Ejemplo 4. Si $V$ es un espacio infinito diferenciable de funciones y $D:V\to V$ es el operador diferenciación, la función $f(x) = e^{rx}$ es una función propia con valor propio $r$, para cualquier número real $r$, dado que $D(e^{rx})=re^{rx}$.

In [12]:
from sympy import symbols, exp, diff
In [13]:
x = symbols('x')
r = symbols('r')
In [14]:
def f(x):
return exp(r*x)
In [15]:
def D(f):
return diff(f, x)
In [16]:
D(f(x)) == r * f(x)
Out[16]:
True

Ejemplo 5. Si $T:V\to V$ es cualquier transformación lineal y $v$ es un vector no nulo en $\ker (T)$, entonces $v$ es un vector propio de $V$ con valor propio cero. En efecto, los vectores propios asociados a cero son precisamente los vectores no nulos en $\ker (T)$.

Encontrar los vectores propios es una generalización del cálculo del kernel de una transformación lineal, en efecto, se puede reducir el problema de encontrar los vectores propios a computar el kernel de una transformación lineal relacionada.

Criterio del valor propio. Si $T: V\to V$ es una transformación lineal, el vector no nulo $v$ es un vector propio de $T$ con valor propio $\lambda$ si y sólo si $v$ está en el $\ker(\lambda \operatorname{id} - T) = \ker(T-\lambda \operatorname{id})$, donde $\operatorname{id}$ es la transformación identidad sobre $V$.

Este criterio reduce el cálculo de los vectores propios a computar el kernel de una colección de transformaciones lineales.

Demostración: Asuma que $v\neq 0$. Entonces $v$ es un vector propio de $T$ con valor propio $\lambda$ si, y solo si $T(v)=\lambda v$ si, y solo si $(\lambda\operatorname{id})v - T(v) =0$ si, y solo si $(\lambda \operatorname{id} - T)(v) = 0$ si, y solo si $v$ pertenece al kernel de $\lambda \operatorname{id}-T$. La equivalencia $\ker (\lambda \operatorname{id} - T) = \ker(T-\lambda \operatorname{id})$ es también inmediata.

$\Box$

Es importante resaltar que hay algunos operadores lineales que no tienen vectores propios.

Ejemplo 6. Si $I:\mathbb{R}[x]\to \mathbb{R}[x]$ es el operador integración, $I(p)=\int_{0}^{x}p(t)dt$, no tiene vectores propios. En efecto, si se supone que $I(p)=\lambda p$, esto es $\int_{0}^{x}p(x)dt = \lambda p(x)$. Entonces derivando a ambos lados con respecto a $x$ y aplicando el teorema fundamental del cálculo se deduce que $p(x) = \lambda p'(x)$. Si $p$ tiene un grado positivo $n$, entonces $\lambda p'(x)$ debería tener un grado a lo sumo de $n-1$, que no es igual a $p(x)$. Por lo tanto, $p$ debe ser el polinomio constante. Pero el único polinomio constante con $I(p) = \lambda p$ es el polinomio cero, el cual por definición no es un vector propio. Por lo tanto, $I$ no tiene vectores propios.

En otros casos, la existencia de los vectores propios dependen del campo escalar que se está usando.

Ejemplo 7. Si se considera $T:F^2 \to F^2$ definido por $T(x, y) = \langle y, -x\rangle$, no tiene valores propios cuando $F=\mathbb{R}$, pero si tiene vectores propios cuando $F=\mathbb{C}$. En efecto si $T(x, y) = \lambda \langle x , y\rangle$, se tiene que $y=\lambda x$ y $-x = \lambda x$, así que $(\lambda^{2} + 1)y=0$. Si $y$ fuera cero, entonces $x=-\lambda y$ sería tambien cero, imposible. Por lo tanto $y\neq 0$ y así $\lambda^{2}+1=0$. Cuando $F=\mathbb{R}$ no existe tal escalar $\lambda$, y por lo tanto en este caso no hay vectores propios. Sin embargo, cuando $F=\mathbb{C}$, se tiene que $\lambda =\pm i$, y entonces los vectores propios son $[x, -ix]^{\top}$ con valor propio $i$ y $[x, ix]^{\top}$ con valor propio $-i$.

Calcular los vectores propios en general de transformaciones lineales sobre espacio infinito dimensionales pueder ser muy complicado.

Por ejemplo, si $V$ es un espacio infinito diferenciable de funciones, entonces calcular los vectores propios de la transformación $T:V\to V$ con $T(f)=f''+xf'$ requiere resolver la ecuación $f''+x f'=\lambda f$ para un $\lambda$ arbitrario. Es bastante díficil resolver esa ecuación diferencial particular para una $\lambda$ en general, al menos sin recurrir a utilizar una expansión en serie infinita para describir las soluciones, además las soluciones para la mayoría de los valores de $\lambda$ son funciones no elementales.

En el caso finito dimensional, el problema se puede resolver usando matrices

Valores propios y matrices. Suponga que $V$ es un espacio vectorial finito dimensional con una base ordenada $\beta$ y tal que $T:V\to V$ es una transformación lineal. Entonces $v$ es un vector propio de $T$ con valor propio $\lambda$ si y solo si $[v]_{\beta}$ es un vector propio de la multiplicación a la izquierda por $[T]_{\beta}^{\beta}$ con valor propio $\lambda$.

Demostración: Observe que $v\neq 0$ si y sólo si $[v]_{\beta}\neq 0$. Entonces cuando $v$ es un vector de propio de $T$ entonces $T(v)=\lambda v$, es decir, $[T(v)]_{\beta} = [\lambda v]_{\beta}$ esto es $[T]_{\beta}^{\beta}[v]_{\beta}$ si y solo si $[v]_{\beta}$ es un vector propio de la multiplicación a la izquirda por $[T]_{\beta}^{\beta}$.

$\Box$

Valores propios y vectores propios de una matriz

Ahora vamos a estudiar los valores y vectores propios de una matriz. Por conveniencia, vamos a establecer esta definicion:

Definición. Para una matriz $A$ de orden $n\times n$, un vector no nulo $x$ con $Ax = \lambda x$ es un vector propio de $A$, y le corresponde un escalar $\lambda$ llamado valor propio de $A$.

Ejemplo 8. Si $\big[\begin{smallmatrix} 2 & 3 \\ 1 & 4 \end{smallmatrix}\big]$, el vector $x = [3, -1]^{\top}$ es un vector propio de $A$ con valor propio $1$. En efecto:

In [17]:
from sympy import Matrix
In [18]:
A = Matrix([[2, 3], [1, 4]])

Ensympyes fácil definir vectores columna, estos se definen mediante una lista de elementos:

In [19]:
x = Matrix([3, -1])
In [20]:
A*x == x
Out[20]:
True

Ejemplo 9. Si $A = \begin{bmatrix}2 & -4 & 5\\ 2 & -2 & 5 \\ 2 & 1 & 2\end{bmatrix}$, el vector $x = [1, 2, 2]^{\top}$ es un vector propio de $A$ con valor propio cuatro. En efecto:

In [21]:
from sympy import Matrix
In [22]:
A = Matrix([[2, -4, 5], [2, -2, 5], [2, 1, 2]])
In [23]:
x = Matrix([1, 2, 2])
In [24]:
A*x == 4*x
Out[24]:
True

Ejemplo 10. Los valores y vectores propios tambien pueden involucrar número complejos, incluso si la matriz $A$ tiene solo entradas de número reales. Usualmente se asumen que el campo escalar del espacio vectorial es $\mathbb{R}$ al menos que se especifíque otro caso. A continuación veamos un ejemplo en $\mathbb{C}$.

Sea $A = \begin{bmatrix}6 & 3 & -2\\ -2 & 0 & 0 \\ 6 & 4 & 2\end{bmatrix}$, el vector $x = [1-i, 2i, 2]^{\top}$ es una vector propio de $A$ con valor propio $i+1$. En efecto:

In [25]:
from sympy import Matrix, I, expand
In [26]:
A = Matrix([[6, 3, -2], [-2, 0, 0], [2, 2, 0]])
In [27]:
x = Matrix([1-I, 2*I, 2])
In [28]:
A*x == expand((I+1)*x)
Out[28]:
True

Para este ejemploI es el número imaginario $i$, y el comando expand se utilizó para expandir los productos.

En principio parece que una matriz puede tener muchos vectores propios con muchos valores propios. Pero en efecto, cualquier matriz $n\times n$ tiene unos pocos valores propios, y hay una forma simple de encontrarlos todos utilizando determinantes.

Cálculando valores propios. Si $A$ es una matriz de orden $n\times n$, el escalar $\lambda$ es una valor propio de $A$ si y sólo si $\det(\lambda I - A) =0.$

Demostración. Suponga que $\lambda$ es un valor propio asociado con el vector no nulo $x$. Entonces $Ax=\lambda x$, o como vimos antes $(\lambda I - A)x = 0$. De los resultados para matrices invertibles, se sabe que la ecuación $(\lambda I - A)x$ tiene solución no nula para $x$ si y solo si la matrix $\lambda I - A$ es no invertible, lo cual es equivalente a decir $\det (\lambda I - A) =0$.

$\Box$

Cuando se expande el determinante $\det(\lambda I - A)$, se obtiene un polinomio de grado $n$ en la variable $\lambda$, como se puede verificar por inducción.

Definición. Para una matriz $A$ de orgen $n\times n$, el polinomio de grado $p(\lambda) = \det(\lambda I - A)$ es llamado el polinomio característico de $A$, y precisamente su raíces son los valores propios de $A$.

Algunos autores define el polinomio característico como el determinante de la matriz $A-\lambda I$ en lugar de $\lambda I - A$. Aca se define de esta forma porque el coficiente de $\lambda^{n}$ siempre será $1$, en llugar de $(-1)^{n}$.

Así para encontrar los valores propios de una matriz, solo se necesita encontrar las raíces del polinómio característico.

Cuando se investiga las raíces para un polinomio de grado pequeño, el siguiente caso de test para las raíces racionales es amenudo útil.

Criterio de las raíces racionales de un polínomio. Suponga que $p(\lambda) = \lambda^{n}+\cdots + b$ tiene coeficientes enteros y el coeficiente principal igual a uno. Entonces cualquier número racional que es una raíz de $p(\lambda)$ debe ser un entero que divide a $b$.

La proposición reduce la cantidad de prueba y error necesaria para encontrar raíces racionales de polinomios, ya que solo necesitamos considerar los números enteros que dividen al término constante.

Por supuesto, un polinomio genérico no tendrá una raíz racional, por lo que para calcular valores propios en la práctica generalmente se necesita usar algún tipo de procedimiento de aproximación numérica, como el método de Newton para $n$ raíces.

Ejemplo 11. Encontrar los valores propios de $A = \big[\begin{smallmatrix} 3 & 1 \\ 2 & 4 \end{smallmatrix}\big]$. Primero encontramos su polinomio característico.

In [29]:
from sympy import Matrix, factor
In [30]:
A = Matrix([[3, 1], [2, 4]])
In [31]:
polynomial = A.charpoly()
factor(polynomial.as_expr())
Out[31]:
$\displaystyle \left(\lambda - 5\right) \left(\lambda - 2\right)$

Como vemos los ceros del polinomio característico son $\lambda =2$ $\lambda=5$, por lo tanto los valores propios de $A$ son $2$ y $5$.

Ejemplo 12. Encontrar los valores propios de $A = \begin{bmatrix}1 & 4 & \sqrt{3}\\ 0 & 3 & -8 \\ 0 & 0 & \pi\end{bmatrix}$.

Observe que el determinante de $\lambda I - A es$: $$\det(\lambda - A) = \begin{bmatrix}\lambda - 1 & -4 & -\sqrt{3}\\ 0 & \lambda - 3 & 8 \\ 0 & 0 & \lambda -\pi\end{bmatrix} = (\lambda - 1)(\lambda - 3)(\lambda - \pi)$$ debido a que la matriz es triangular superior. Por lo tanto los valores propios son $1, 3, pi$.

In [32]:
from sympy import Matrix, factor, pi, sqrt
In [33]:
A = Matrix([[1, 4, sqrt(3)], [0, 3, -8], [0, 0, pi]])
In [34]:
polynomial = A.charpoly()
factor(polynomial.as_expr())
Out[34]:
$\displaystyle \left(\lambda - 3\right) \left(\lambda - 1\right) \left(\lambda - \pi\right)$

La idea del ejemplo anterior funciona en general:

Valores propios de una matriz triangular. Los valores propios de una matriz triangular superior o inferior son las entradas de la diagonal principal.

Demostración. Si $A$ es una matriz triangular superior de orden $n\times n$ (o inferior), entonces se tiene que $\lambda I - A$ también es una matriz triangular superior (o inferior). Luego por las propiedades de los determinantes, $\det(\lambda I - A)$ es igual a el producto de las entradas de la diagonal principal de $\lambda I - A$. Dado que estas entradas son simplemente $\lambda - a_{i, i}$ para $1\leq i\leq n$, los valores propios son $a_{i, i}$ para $1\leq i\leq n$, es decir, simplemente las entradas de la diagonal principal de $A$.

$\Box$

Puede ocurrir que el polinomio característico tenga raíces repetidas. En tal caso, cada valor propio tiene multiplicidad y se incluye el valor propio el número de veces restante cuando son listados todos los valor propios.

Por ejemplos, si una matriz tiene el polinomio caractístico $\lambda^{2}(\lambda - 1)^{1}$, se puede decir que los valores propios son cero con multiplicidad dos, y uno con multiplicidad tres. Los valores propios se deberían listar como $\lambda = 0, 0, 1, 1, 1$.

Ejemplo 12. Encontrar los valores propios de la matriz $A = \begin{bmatrix}1 & -1 & 0\\ 1 & 3 & 0 \\ 0 & 0 & 0\end{bmatrix}$. En este caso se tiene:

In [35]:
from sympy import Matrix, factor
In [36]:
A = Matrix([[1, -1, 0], [1, 3, 0], [0, 0, 0]])
In [37]:
polynomial = A.charpoly()
factor(polynomial.as_expr())
Out[37]:
$\displaystyle \lambda \left(\lambda - 2\right)^{2}$

Por lo tanto, el polinomio característico tiene las raíces $\lambda = 0$ de multiplicidad uno y a $\lambda=2$ de multiplicidad dos. De esta forma la matriz $A$ tiene los valores propios $\lambda = 0$ de multiplicidad uno y a $\lambda = 2$ de multiplicidad dos. Y se listarían como $\lambda = 0, 2, 2.$

Ejemplo 12. Encontrar los valores propios de la matriz $A = \begin{bmatrix}1 & 1 & 0\\ 0 & 1 & 1 \\ 0 & 0 & 1\end{bmatrix}$.

En este caso como $A$ es triangular superior, los valores propios son las entradas de la diagonal principal, así $A$ tiene por valor propio a $\lambda = 1$ con multiplicidad tres. Y se listaría como $\lambda = 1, 1, 1.$

In [38]:
from sympy import Matrix, factor
In [39]:
A = Matrix([[1, 1, 0], [0, 1, 1], [0, 0, 1]])
In [40]:
polynomial = A.charpoly()
factor(polynomial.as_expr())
Out[40]:
$\displaystyle \left(\lambda - 1\right)^{3}$

Note también que un polinomio característico podría tener raíces no reales, incluso si la entradas de la matriz son reales.

Dado que el polinomio característico tiene coeficientes reales, los valores propios no reales serán pares conjugados de números complejos. Además, los vectores propios para estos valores propios no necesariamente contienen entradas no reales.

Ejemplo 13. Encontrar los valores propios de $A =\big[\begin{smallmatrix} 1 & 1 \\ -2 & 3\end{smallmatrix}\big]$. En este caso se tiene:

In [41]:
from sympy import Matrix, factor, I
In [42]:
A = Matrix([[1, 1], [-2, 3]])
In [43]:
polynomial = A.charpoly()
factor(polynomial.as_expr(), extension=[I])
Out[43]:
$\displaystyle \left(\lambda - 2 - i\right) \left(\lambda - 2 + i\right)$

Los valores propios son $\lambda = 2 + i, 2 -i$.

Subespacios propios

Usando el polinomio caraterístico, se pueden encontrar todos los valores propios de una matriz $A$ sin calcular los vectores propios asociados. Sin embargo, también se quiere encontrar los vectores propios asociados para cada valor propio.

Subespacios propios. Si $T: V\to V$ es una transformación lineal, entonces para cualquier valor fijo de $\lambda$, el conjunto $E_{\lambda}$ de vectores en $V$ que satisface $T(v)=\lambda v$ es un subespacio de $V$. Este espacio $E_{\lambda}$ se denomina subespacio propio asociado al vector propio $\lambda$ o simplemente $\lambda$ - subespacio.

Observe que $E_{\lambda}$ es precisamente el conjunto de vectores propios asociados a $\lambda$ junto con el vector cero.

Los subespacios propios de una matriz $A$ son definidos de la misma forma. $E_{\lambda}$ es el espacio de vectores $v$ tal que $Av = \lambda v$.

Demostración. Por definición, $E_{\lambda}$ es el kernel de la transformación lineal $\lambda \operatorname{id} - T$, y por lo tanto es un subespacio de $V$.

$\Box$

Ejemplo 14. Encontrar todos los valores propios, y una base para cada subespacio propio, para la matriz $A = \big[\begin{smallmatrix} 2 & 2 \\ 3 & 1 \end{smallmatrix}\big]$.

In [44]:
from sympy import Matrix, factor, eye, I
In [45]:
A = Matrix([[2, 2], [3, 1]])
In [46]:
polynomial = A.charpoly()
factor(polynomial.as_expr(), extension=[I])
Out[46]:
$\displaystyle \left(\lambda - 4\right) \left(\lambda + 1\right)$

En este caso los valores propios son $\lambda = -1, 4$ cada uno de multiplicidad uno.

In [47]:
A.eigenvals()
Out[47]:
{4: 1, -1: 1}

De forma general se puede definir la aplicación $f(\lambda)=\lambda\operatorname{id} - A$ de la siguiente forma:

In [48]:
def eigen_transformation(eigenvalue, A):
identity = eye(A.shape[0])
return eigenvalue * identity - A

Para $\lambda = -1$, se tiene matriz asociada:

In [49]:
B = eigen_transformation(eigenvalue=-1, A=A)
B
Out[49]:
$\displaystyle \left[\begin{matrix}-3 & -2\\-3 & -2\end{matrix}\right]$

Y su kernel o espacio nulo es

In [50]:
B.nullspace()
Out[50]:
[Matrix([
[-2/3],
[ 1]])]

De decir que el $-1$-subspacio propio es $1$-dimensional y es generado por $\big[\begin{smallmatrix} -2 \\ 3 \end{smallmatrix}\big]$.

Para $\lambda=4$ se debe encontrar el espacio nulo de la matriz:

In [51]:
B = eigen_transformation(eigenvalue=4, A=A)
B
Out[51]:
$\displaystyle \left[\begin{matrix}2 & -2\\-3 & 3\end{matrix}\right]$

Aplicando el método nullspace se tiene:

In [52]:
B.nullspace()
Out[52]:
[Matrix([
[1],
[1]])]

Así, el $4$-subespacio propio es $1$-dimensional y es generado por $\big[\begin{smallmatrix} 1 \\ 1 \end{smallmatrix}\big]$.

Ejemplo 15. Encontrar todos los valores propios y una base para cada subespacio propio, para la matriz: \begin{equation}\begin{bmatrix} 0 & 0 & 0 \\ 1 & 0 & -1 \\ 0 & 1 & 0 \end{bmatrix}.\end{equation}

In [53]:
from sympy import Matrix, factor, eye, I
In [54]:
A = Matrix([[0, 0, 0], [1, 0, -1], [0, 1, 0]])
In [55]:
polynomial = A.charpoly()
factor(polynomial.as_expr(), extension=[I])
Out[55]:
$\displaystyle \lambda \left(\lambda - i\right) \left(\lambda + i\right)$

En este caso los valores propios son $\lambda = 0, i, -i.$

Para $\lambda = 0$, se busca el espacio nulo de la matriz:

In [56]:
B = eigen_transformation(eigenvalue=0, A=A)
B
Out[56]:
$\displaystyle \left[\begin{matrix}0 & 0 & 0\\-1 & 0 & 1\\0 & -1 & 0\end{matrix}\right]$

cuyo espacio nulo viene dado por:

In [57]:
B.nullspace()
Out[57]:
[Matrix([
[1],
[1]])]
[0],

por lo tanto el $0$-espacio propio es $1$ - dimensional y es generado por $[1, 0, 1]^{\top}$.

Para $\lambda = i$ se tiene:

In [58]:
B = eigen_transformation(eigenvalue=I, A=A)
B.nullspace()
Out[58]:
[Matrix([
[0],
[1]])]
[I],

Así el $i$-espacio propio es generado por $[0,i, 1]^{\top}$.

Y para $\lambda = -i$ se tiene:

In [59]:
B = eigen_transformation(eigenvalue=-I, A=A)
B.nullspace()
Out[59]:
[Matrix([
[ 0],
[ 1]])]
[-I],

y finalmente el $(-i)$-espacio propio es generado por $[0, -i, 1]^{\top}$.

Note que en el ejemplo anterior, con una matriz real se pueden encontrar valores propios complejos conjugados asociados a vectores propios que también son complejos conjugados. Estos no es un accidente:

Valores propios conjugados. Si $A$ es una matriz real y $v$ es un vector propio con valores propios $\lambda$, entonces el complejo conjugado $\bar{v}$ es un vector propio con valor propio $\bar{\lambda}$. En particular, una base para $\bar{\lambda}$-subespacio propio es dado por el complejo conjugado de una base para el $\lambda$ - subespacio propio.

Demostración. La primera afirmación se sigue de la observación que el complejo conjugado de un producto o una suma es propiamente el producto o la suma de los complejos conjugados, así si $A$ y $B$ son cualquier par de matrices compatibles en tamaño para la multiplicación, se tiene $\overline{A\cdot B} = \overline{A}\cdot\overline{B}$.

Por lo tanto, si $Av= \lambda v$, tomando complejos conjudagos dados por $\overline{A}\overline{v}=\overline{\lambda}\overline{v}$, y dado que $\overline{A} = A$ porque $A$ es una matriz real, se puede ver que $A\overline{v} =\overline{\lambda}\overline{v}$, por lo tanto, $\overline{v}$ es un vector propio con valores propio $\overline{\lambda}.$

La segunda afirmación se sigue de la primera, dado que la conjugación compleja no afecta la independencia lineal o la dimensión.

$\Box$

Ejemplo 16. Encontrar todos los valores propios, y una base para cada valor propio, para la matriz $A = \big[\begin{smallmatrix} 3 & -1 \\ 2 & 5 \end{smallmatrix} \big]$.

In [60]:
from sympy import Matrix, factor, eye, I
In [61]:
A = Matrix([[3, -1], [2, 5]])
In [62]:
polynomial = A.charpoly()
factor(polynomial.as_expr(), extension=[I])
Out[62]:
$\displaystyle \left(\lambda - 4 - i\right) \left(\lambda - 4 + i\right)$

El espacio nulo para $\lambda = 4+i$ es:

In [63]:
B = eigen_transformation(eigenvalue=4+I, A=A)
B.nullspace()
Out[63]:
[Matrix([
[-1/2 + I/2],
[ 1]])]

de donde se concluye que el $(4 + i)$ - subespacio propio es $1$ - dimensional y es generado por $[-1/2 + i/2, 1]^{\top}$.

Ahora para $\lambda = 4- i$ el $(4-i)$-subespacio también es $1$ - dimensional y es generado por $[-1/2 - i/2, 1]^{\top}.$

El siguiente resultado sobre valores propios puede ser útil en los cálculos de doble verificación:

Valores propios, traza y determinantes. El producto de los valores propios de $A$ es el determinante de $A$ y la suman de los valores propios de $A$ es igual a la traza de $A$.

Recuerde que la traza de una matriz es definida por la suma de las entradas de su diagonal principal.

Demostración. Sea $p(\lambda)$ el polinomio característico de $A$. Si se expande el producto de $p(\lambda)=(\lambda -\lambda_1)(\lambda -\lambda_2)\cdot\cdots\cdot (\lambda -\lambda_n)$, se encuentra que el termino constante es igual a $(-1)^{n}\lambda_1\lambda_2\cdots\lambda_n$. Pero el termino constante también es $p(0)$, y dado que $p(\lambda) = \det (\lambda I - A)$ se tiene $p(0)=\det(-A)=(-1)^{n}\det(A)$, por lo tanto $\lambda_1\lambda_2\cdots \lambda_n =\det(A)$.

Además también de la expansión de $p(\lambda)=(\lambda -\lambda_1)(\lambda -\lambda_2)\cdot\cdots\cdot (\lambda -\lambda_n)$, se tiene que el coeficiente de $\lambda^{n-1}$ es igual a $-(\lambda_1 +\cdots+\lambda_n)$.

Si se expande el determinante $\det(\lambda I - A)$ para encontrar el coeficiente de $\lambda^{n-1}$, por una proceso de inducción se puede demostrar que el coeficiente es el negativo de la suma de las entradas de la diagonal principal de $A$.

Por lo tanto, igualando las dos expresiones se muestra que la suma de los valores propios es igual a la traza de $A$.

$\Box$

Ejemplo 16. Encontrar los valores propios de la matriz $$A = \begin{bmatrix} 2 & 1 & 1 \\ -2 & -1 & -2 \\ 2 & 2 & -3 \end{bmatrix}$$ y verificar las formulas para la traza y el determinante en terminos de los valores propios.

In [64]:
from sympy import Matrix, Trace
In [65]:
A = Matrix([[2, 1, 1], [-2, -1, -2], [2, 2, -3]])
In [66]:
polynomial = A.charpoly()
polynomial.as_expr()
Out[66]:
$\displaystyle \lambda^{3} + 2 \lambda^{2} - \lambda - 2$

Para encontrar los valores propios, se puede resolver la ecuación cúbica $\lambda^3 + 2\lambda^2 - \lambda -2 = 0$ o simplemente:

In [67]:
A.eigenvals()
Out[67]:
{1: 1, -1: 1, -2: 1}

Los valores propios son $\lambda = 1, -1, -2$, y su suma es $1 + (-1) + (-2) = -2$ y el producto $(1)\cdot (-1) \cdot (-2) = 2$. Por otro lado la traza de $A$ es:

In [68]:
Trace(A).simplify()
Out[68]:
$\displaystyle -2$

y el determinante de $A$ es:

In [69]:
A.det()
Out[69]:
$\displaystyle 2$

En todos los ejemplos anteriores, la dimensión de cada subespacio era menor o igual que la multiplicidad de los valores propios como raíces del polinomio característico. Esto es verdad en general.

Multiplicidad de los valores propios. Si $\lambda$ es un valor propio de la matriz $A$ el cual aparece exactamente $k$ veces como una raíz del polinomio característico, entonces la dimensión del subespacio propio corresponde a $\lambda$ es a lo menos uno y a lo sumo $k$.

Recuerde que el número de veces que $\lambda$ aparece como una raíz del polinomio característico se denomina usualmente como la multiplicidad algebraica de $\lambda$, y la dimensión del subespacio propio correspondiente a $\lambda$ se denomina multiplicidad geométrica y es menor o igual que la multiplicidad algebraica.

Ejemplo 17. Si el polinomio característico de una matriz es $(\lambda - 1)^{3}(\lambda -3)^{2}$, entonces el subespacio propio para $\lambda = 1$ es a lo sumo 3 - dimensional y el subespacio propio para $\lambda=3$ es a lo sumo 2 - dimensional.

Demostración. La afirmación de que un subespacio propio tiene al menos dimensión uno es inmediata, porque si $\lambda$ es una raíz del polinomio característico hay al menos un vector no nulo asociado a él.

Para la otra afirmación, observe que la dimensión de el $\lambda$ - subespacio es la dimensión del espacio homogéneo del sistema $(\lambda I - A) x = 0$.

Si $\lambda$ aparece $k$ veces como una raíz del polinomio característico, entonces cuadno se hace $\lambda I - A$ entonces al reducir esta matriz a la forma escalonada por filas $B$, $B$ debe tener al menos $k$ fila no nulas.

Por otro lado, la matriz $B$ (y por lo tanto $\lambda I - A$ también, dado que la nulidad y el rango de una matriz no cambian por las operaciones filas) debería tener a cero como un valor propio más de $k$ veces, porque $B$ está en forma escalonada y por lo tanto es triangular superior.

Pero el número de filas nulas en una matriz cuadrada en la forma escalonada es el mismo número de columnas que no tiene pivote, es decir, es el número de variables libres, el cual es la dimensión del espacio solución.

Así, de todos los argumentos anteriores, se puede ver que la dimensión de los subespacios propios es a lo sumo $k$.

$\Box$

Bibliografía

  1. Evan Dummit, 2020, Linear Algebra - part 4: Eingenvalues, Diagonalization, and the Jordan Form.
  2. SymPy Development Team. 2021. Sympy 1.8 documetation.

Contacto

  • Participa de la canal de Nerve a través de Discord.
  • Se quieres conocer más acerca de este tema me puedes contactar a través de Classgap.