Recuerda que para dos matrices cuadradas \( A,B\), \( det(AB)=det(A)det(B)\). Es necesario recordar también el siguiente resultado de álgebra lineal
Si \( A\in \mathbb{R}^{n\times n}\), entonces existe una matriz \( P\in GL(\mathbb{R}^n)\) tal que \[ PAP^{-1}=J_A=diag[J_1,...,J_m], \] donde cada \( J_i\) es una matriz cuadrada de la forma
- \(J_i=\lambda_iI+N_{n_i}\) si \( \lambda_i\) es un autovalor real de \( A\).
- \(J_i=J_{2n}(a_j,b_j)+N_{2n_j}^2\) si \( a_j+ib_j\) es un autovalor complejo de \( A\).
La matriz diagonal por bloques \( J_A\) se llama forma canónica de Jordan real de \( A\).
Veamos ahora qué pasa con las formas canónicas de matrices con autovalores de multiplicidad uno. Sea \( A\in K^{n\times n}\) con \( K=\mathbb{R}\) o \( K=\mathbb{C}\), tenemos que los autovalores de \( A\) son las raíces del polinomio característico \( P_A(\lambda)=det(A-\lambda I)\). Luego que una matriz tiene \( n\) autovalores contando multiplicidad. Sea \( \lambda_0\) un autovalor de \( A\), el autoespacio asociado se define como \( Ker(A-\lambda_0 I)\), es decir, \[ Ker(A-\lambda_0 I)=\{v\in K^n:(A-\lambda_0 I)(v)=0_{K^n}\} \] El autoespacio al ser un subespacio vectorial admite una base. Los autovectores de \( A\) asociados a \( \lambda_0\) serán entonces los elementos de cualquier base del autoespacio \( A-\lambda_0 I\). (De acá que \( 0_{K^n}\) nunca será un autovalor.)
Sean \( \lambda_1,...,\lambda_n\in K\) todos los autovalores de \( A\) cada uno de multiplicidad algebraica 1. Si denotamos \[ W_i=Ker(A-\lambda_i I)\hspace{10pt}\forall i\in \{1,..,n\} \] Entonces
- dim\(W_1\)=...=dim\(W_n=1 \).
- \(K^n=W_1\bigoplus ... \bigoplus W_n\).
Tenemos las siguientes posibilidades.
parte real\( s_j \) y
parte imaginaria\( t_j\) y formamos la matriz con columnas \( P^{-1}=[v_1,...,v_r,s_1,t_1,...,s_k,t_k]\).
Sean \( \lambda_1,...,\lambda_k\in K \) los autovalores de una matriz \( A\in K^{n\times n}\) con multiplicidad algebraica \( d_1,...,d_k\) respectivamente. Denotando \[ W_i=Ker((A-\lambda_i I)^{d_i})\hspace{10pt}\forall i\in \{1,..,k\} \] Entonces, sea \( T_A\) la transformación lineal asociada a \( A\) definida como \( T_A(x)=Ax\),
- \((T_A-\lambda_j I)_{|W_j}\) como transformación lineal de \( W_j\) a \( W_j\) es nilpotente.
- dim\(W_j=d_j\) para todo \( j\in \{1,...,k\}\).
- \(K^n=W_1\bigoplus ... \bigoplus W_n\).
\( Ker((A-\lambda_i I)^{d_i})\) se conoce como el autoespacio generalizado de \( A\) asociado al autovalor \( \lambda_i\) y se denota por
\[
E_{d_i}(A,\lambda_i) = Ker((A-\lambda_i I)^{d_i})
\]
Si todos los autovalores tienen multiplicidad algebraica 1, esta proposición se reduce a la proposición anterior.
Observación: Si \( A\in K^{n\times n}\) tiene un único autovalor \( \lambda\) de multiplicidad algebraica \( n\), tenemos que \( K^n= E_{n}(A,\lambda)\), entonces \( N=A-\lambda I\) es nilpotente, digamos de orden \( r+1\leq n\), entonces como \( N \) conmuta con \( \lambda I\) conmutan, tenemos que \[ e^A=e^{\lambda I +N}=e^\lambda \left( I+N+\frac{1}{2!}N^2+...+\frac{1}{r!}N^r\right) \]
Si \( V\) es un \( K\)-espacio vectorial de dimensión \( d\) y \(N\in \mathcal{V} \) es nilpotente de orden \( k\), \( k\leq d\), entonces existen vectores linealmente independientes \( u_1,...,u_r\in V\) tales queMás aún, el conjunto \[ B=\{N^{k_1-1}(u_1),N^{k_1-2}(u_1),...,u_1,...,N^{k_r-1}(u_r),N^{k_r-2}(u_r),...,u_r\} \] es una base ordenada de \( V\) en la cual \( N\) se representa por la matriz \[ diag[N_{k_1},...,N_{k_r}] \]
- \(Z_ {k_1}(u_1),...,Z_{k_r}(u_r)\) son subespacios cíclicos asociados a \(N \).
- \(k=k_1\geq k_2 \geq ...\geq k_r\geq 1\) y \( k_1+...+k_r=d\).
- Si \(p\in \{1,...,r\}\) es tal que \( k_{p+1}=...=k_r=1\) entonces \( u_{p+1},...,u_r\in Ker(N)\).
- \(V=Z_{k_1}(u_1)\bigoplus ...\bigoplus Z_{k_r}(u_r)\).
Sean \( \lambda_1,...,\lambda_r\in K\) los autovalores distintos de la matriz \( A\in K^{n\times n}\) con multiplicidad algebraica \( d_1,...,d_r\). Por el teorema de la descomposición espectral tenemos que
\[
K^n=E_{d_1}(A,\lambda_1)\bigoplus...\bigoplus E_{d_r}(A,\lambda_r)
\]
Además \( (A-\lambda_i I)_{|E_{d_j}(A,\lambda_j)}\) como transformación lineal de \( E_{d_i}(A,\lambda_i)\) en \( E_{d_i}(A,\lambda_i)\) es nilpotente de orden \( k_j\leq d_j\). Por el teorema de la forma canónica de una matriz nilpotente existe una base \( B_j=\{v_1^j,...,v_{d_j}^j\}\) de \( E_{d_i}(A,\lambda_i)\) en la que \( N_j= A-\lambda_j I\) se representa por una matriz diagonal compuesta de matrices nilpotentes canónicas. Luego que \( B=B_1\cup ...\cup B_r\) es una base de \( K^n\) y por tanto la matriz de columnas \( P^{-1}=[v_1^1,...,v_{d_1}^1,...,v_r^r,...,v_{d_r}^r]\) es inversible.
Recuerda que dado una PVI \( x'=Ax\) con \( x(0)=x_0\), la solución es única y viene dada por
\[
\phi(t)=e^{tA}x_0=P^{-1}e^{tJ_A}Px_0
\]
Como \( tJ_A\) es una matriz por bloques diagonal, podemos aplicar la exponencial directamente en cada bloque y así obtenemos la solución.
Es importante que recuerdes que si
\[
J_A=
\begin{bmatrix}
1 & 2 \\
-2 & 1
\end{bmatrix}
\]
Entonces por su simetría, tenemos que
\[
e^{tJ_A}=e^t\begin{bmatrix}
cos 2t & sen 2t\\
-sen 2t & cos 2t
\end{bmatrix}
\]
Ahora recuerda que si una matriz \(2 \times 2 \) tiene un único autovalor de multiplicidad 2, entonces no hay necesidad de calcular \( P\).
En efecto, sea
\[
A=
\begin{bmatrix}
3 & -4 \\
1 & -1
\end{bmatrix}
\]
El autovalor de \( A\) es 1 y tiene multiplicidad 2, entonces la matriz
\[
N=A-\lambda I = A-I
\]
es nilpotente. Como este matriz es distinto al 0, entonces debe ser nilpotente de orden 2. Luego que
\[
e^{tA}=e^{t(I+N)}=e^{tI}e^{tN}=e^t\left( I +tN \right)
\]
El cálculo luego nos muestra que
\[
e^{tA}=e^t
\begin{bmatrix}
1+2t & -4t \\
t & 1-2t
\end{bmatrix}
\]
Observe que no escribimos \( tI\) sino \( I\) dado que corresponde a \( (tN)^0\).
Sea \( A\in K^{n\times n}\). Un resultado conocido es el teorema de Cayley-Hamilton que señala que la matriz evaluada en su polinomio característico es igual a la matriz nula, es decir, \( P_A(A)=\Theta \). De acá que \( A^k\) es combinación lineal de las demás potencias de \( A\) menores o iguales a \( n\).
Si \( A\in \mathbb{R}^{n\times n}\) y \(\lambda_1,...,\lambda_n\in K \) son sus autovalores repetidos de acuerdo a la multiplicidad, entonces \[ e^{tA}=\sum_{k=0}^{n-1}r_{k+1}(t)P_{k}(A) \] en donde \( P_0(A),...,P_{n-1}(A)\in K^{n\times n}\) se definen como \[ P_0(A)=I\hspace{10pt}P_k(A)=\prod_{j=1}^k(A-\lambda_jI)\hspace{10pt},1\leq k\leq n \] y \( r_1,...,r_n:\mathbb{R}\to K\) son soluciones de los PVI \[ \begin{cases} r_1'(t)=\lambda_1 r_1(t)&,r_1(0)=1\\ \vdots&\\ r'_{k+1}(t)=\lambda_{k+1}r_{k+1}(t)+r_k(t)&,r_{k+1}(0)=0,\hspace{10pt} 1\leq k\leq n-1 \end{cases} \]
Luego la dificultad de calcular la matriz \( P^{-1}\) se pasa a calcular las soluciones del sistema de ecuaciones \( \mathbf{r}'=M\mathbf{r}\).
Veamos un ejemplo. Sea
\[
A=\begin{bmatrix}
4 & -3\\
8 & -6
\end{bmatrix}
\]
Tenemos que \( P_A(\lambda)=\lambda(\lambda+2)\), con el algoritmo de Putzer tenemos que
\[
e^{tA}=r_1(t)P_0(A)+r_2(t)P_1(A)
\]
Donde \( P_0(A)=I\), \( P_1(A)=A-\lambda_1I\), podemos elegir cualquier valor para \(\lambda_1\), asignamos el valor de 0, luego
\[
e^{tA}=r_1(t)I+r_2(t)A
\]
Ahora, tenemos el sistema
\[
\begin{cases}
r_1'=\lambda_1r_1(t),&r_1(0)=1\\
r_2'=\lambda_2r_2(t)+r_1(t),&r_2(0)=0
\end{cases}
\]
manteniendo la elección tenemos \( \lambda_1=0,\lambda_2=-2\)
Resolvemos
\[
e^{tA}=I+\left( \frac{1}{2}-\frac{1}{2}e^{-2t}\right)A
\]
Observación: Este método funciona exactamente del mismo modo si los autovalores son repetidos, son reales, complejos, etc., lo cual es una ventaja sobre los métodos previos.
Sea \( A\in \mathbb{R}^{n\times n}\), \( b:J\to \mathbb{R}^{n\times 1}\) es una función matricial continua en el intervalo \( J\) con \( t_0\in J\) y \( x_0\in \mathbb{R}^{n\times 1}\). Entonces el siguiente sistema \[ \begin{cases} x'=Ax+b(t)\\ x(t_0)=x_0 \end{cases} \] tiene una única solución que viene dado en términos de la siguiente fórmula \[ \psi(t)=e^{(t-t_0)A}x_0+e^{tA}\int_{t_0}^te^{sA}b(s)ds,\hspace{10pt}\forall t\in J \]
Muchas veces es computacionalmente muy dificil resolver estas ecuaciones incluso con la fórmula general.
Sea \( A\in \mathbb{R}^{n\times n}\), su flujo asociado \[ \varphi_A :\mathbb{R}\times \mathbb{R}^n\to \mathbb{R}^n \] se cumple queObserve que existe la derivada parcial \(\frac{\partial \varphi_A}{\partial t} \) en todo punto \( \mathbb{R}\times \mathbb{R}^n\). Se observa también que para todo \( t\in \mathbb{R}\), la matriz asociada a la transformación lineal \( (\varphi_A)_t\) pertenece a \( GL(\mathbb{R}^n)\). Es evidente también que para todo \( t_1,t_2\in \mathbb{R}\) \[ (\varphi_A)_{t_1+t_2}=(\varphi_A)_{t_1}\circ (\varphi_A)_{t_2} \] \[ (\varphi_A)_{0}=I \]
- \( \varphi_A (0,x)=x\hspace{10pt} \forall x\in \mathbb{R}^n\).
- \( \varphi_A (t+s,x)=\varphi_A(t,\varphi_A(s,x))\hspace{10pt} \forall t,s\in \mathbb{R},\forall x\in \mathbb{R}^n\).
Si la función \( F:\mathbb{R}\times \mathbb{R}^n\to \mathbb{R}^n\) cumple queAhora veremos que las soluciones de \( x'=Ax\) generan una partición del espacio \( \mathbb{R}^n\).Entonces existe una única matriz \(A\in \mathbb{R}^{n\times n} \) tal que \( F\) es su flujo asociado.
- Existe la derivada parcial \(\frac{\partial F}{\partial t}\) en todo punto \( \mathbb{R}\times \mathbb{R}^n\).
- \(F_t\) es una transformación lineal de \( \mathbb{R}^n \) en \( \mathbb{R}^n\) para todo \( t\in \mathbb{R}\).
- \(F_{t_1+t_2}=F_{t_1}\circ F_{t_2}\) para todo \( t_1,t_2\in \mathbb{R}\).
- \(F_0=I\).
Sea \( A\in \mathbb{R}^{n\times n}\) y \( \varphi_A\) su flujo asociado. Se cumple
- Para todo \(x,y\in \mathbb{R}^n\) fijos, \[ \mathcal{O}_A(x)\cap \mathcal{O}_A(y)=\emptyset \lor \mathcal{O}_A(x)=\mathcal{O}_A(y) \]
- Para todo \( x\in \mathbb{R}^n\), \[ x\in Ker(A) \iff \mathcal{O}_A(x)=\{x\} \] En particular \( \mathcal{O}_A(0)=\{0\}\).
Las conjugaciones \( \equiv_{top}\), \( \equiv_{C^r}\) y \( \equiv_{lin}\) son relaciones de equivalencia en \( \mathbb{R}^{n\times n}\).
Es evidente que para todo \(r\in [1,\infty] \), \[ A\equiv_{lin} B \implies A\equiv_{C^r} B \implies A\equiv_{top} B \] El siguiente resultado nos dice que las matrices cuadradas solo admiten dos clasificaciones, la topológica y la lineal.
Sean \( A,B\in \mathbb{R}^{n\times n}\), las siguientes afirmaciones son equivalentes
- \(A\equiv_{C^1} B\).
- \( A\) y \( B\) son matrices semejantes (o similares), es decir, \(\exists P\in GL(\mathbb{R}^n):PA=BP\).
- \(A\equiv_{lin} B\).
Sabemos que toda matriz \( A\in \mathbb{R}^{n\times n}\) es similar a su forma canónica de Jordan \( J_A\in \mathbb{R}^{n\times n}\). De acá que cada clase de equivalencia admite un representante cuya exponecial es facil de calcular.
Observación: Toda \(h\in Diff^1(\mathbb{R}^n) \) conjugación \( C^1\) entre \( A\) y \( B\) induce una conjugación lineal entre \( A\) y \( B\) que viene dada por \( h'(0)\in GL(\mathbb{R}^n)\).
Sean \( \lambda_1, \lambda_2\) los autovalores de \( A_{2\times 2}\). Existe las siguientes posibilidades
Si \( A\in \mathbb{R}^{n\times n}\) y \(\lambda \) es un autovalor de \( A\) entonces para todo autovector \( v\in K^n-\{0\}\) de \( A\) asociado a \(\lambda \) se cumple que \[ e^{tA}v=e^{\lambda t}v,\hspace{10pt} \forall t\in \mathbb{R} \]
Si \( 0\in \mathbb{R}^n \) es un atractor de \( A\in \mathbb{R}^{n\times n}\), entonces todos los autovalores de \( A\) tienen parte real negativa.
La demostración corre por el método del absurdo, supón que existe un autovalor con parte real no negativa, de acá se obtiene un absurdo analizando \( \lim_{t\to +\infty}|\varphi_A(t,v)|\) donde \( v\) es un autovector asociado a este autovalor.
Observación: Si \( 0\in \mathbb{R}^n\) es un atractor de \( A\in \mathbb{R}^{n\times n}\) entonces \( A\) es una matriz invertible. Para esto recordamos que \[ det(A)=\prod_{i=1}^n \lambda_i \] Como cada autovalor es distinto de 0, \( det(A)\neq 0\), luego que la matriz es invertible, i.e., \( A\in GL(\mathbb{R}^n)\).
Si \( J\) es una matriz real del tipo \[ J=\lambda I + N_n\in \mathbb{R}^{n\times n}, \hspace{10pt} \lambda\in \mathbb{R} \] o del tipo \[ J=J_{2n}(a,b)+N_{2n}^2\in \mathbb{R}^{n\times n},\hspace{10pt}\lambda=a+ib\in \mathbb{C} \] entonces existen reales no negativos \(a_0,...,a_{n-1} \) tales que \[ ||e^{tJ}||\leq e^{at}\left( a_0+a_1 t +...+a_{n-1}t^{n-1} \right),\hspace{10pt}\forall t\geq 0 \]
Si \( A\in \mathbb{R}^{n\times n}\) tiene todos sus autovalores con parte real negativa entonces existen constantes \( \mu >0\) y \( K\leq 1\) tales que \[ |\varphi_A(t,x)|\leq Ke^{-\mu t}|x|, \hspace{10pt} \forall x\in \mathbb{R}^n,\forall t\geq 0 \]
Vamos a ver ahora que el hecho de que \( 0\in \mathbb{R}^n\) sea atractor o repulsor es invariante por conjugaciones topológicas.
Sean \( A,B\in \mathbb{R}^{n\times n}\), si \( 0\in \mathbb{R}^n\) es un atractor de \( A\) y \( A\equiv_{top} B\), entonces 0 es un atractor de \( B\).
Si \( A\in \mathbb{R}^{n\times n}\) es tal que \( A\equiv_{top}-I\) entonces \( 0\in \mathbb{R}^n\) es un atractor de \( A\).
La demostración sigue de demostrar que 0 es un atractor de \( -I\) lo cual es realizado facilmente por definición.
Sea \( A\in \mathbb{R}^{n\times n}\) y suponga que existen constantes \( \mu >0\) y \( K\geq 1\) tales que \( |\varphi_A(t,x)|\leq Ke^{-\mu t}|x|\), \( \forall x\in \mathbb{R}^n,\forall t\geq 0\). Entonces existe un producto interno \( <\cdot,\cdot >_A\) en \( \mathbb{R}^n\) tal que la órbita \( \mathcal{O}_A(x)\) de cualquier punto \( x\in \mathbb{R}^n-\{0\}\) intersecta en un único punto a cada una de las esferas de la familia \( \{S_A(r)\}_{r>0}\) donde \[ S_A(r)=\{x\in \mathbb{R}^n: < x , x >_A=r^2\} \]
Dada la matriz \( A\in \mathbb{R}^{n\times n}\), las siguientes afirmaciones son equivalentes
- \(A \equiv_{top} -I\).
- \( 0\) es un atractor de \(A\).
- Todos los autovalores de \( A\) tienen parte real negativa.
- Existen constantes \(\mu >0\), \( K\geq 1\) tales que \( |\varphi_A(t,x)|\leq Ke^{-\mu t}|x|\), \( \forall x\in \mathbb{R}^n,\forall t\geq 0\).
Sean \( A,B\in \mathbb{R}^{n\times n}\), \( A\equiv_{top} B\) si y solo si \( -A\equiv_{top} -B\).
Dada la matriz \( A\in \mathbb{R}^{n\times n}\), las siguientes afirmaciones son equivalentes
- \(A \equiv_{top} I\).
- \( 0\) es un repulsor de \(A\).
- Todos los autovalores de \( A\) tienen parte real positiva.
- Existen constantes \(\mu >0\), \( K\geq 1\) tales que \( |\varphi_A(t,x)|\geq K^{-1}e^{\mu t}|x|\), \( \forall x\in \mathbb{R}^n,\forall t\geq 0\).
Observación: \( 0\in \mathbb{R}^n\) es un atractor de \( A\) si y solo si \( i(A)=n\).
El contenido de está entrada ha sido parcialmente redactado por F. Peña-Garcia y parcialmente recopilado y traducido de los textos que se listan en las referencias. No reclamo derechos intelectuales sobre cualquier parte del texto.
Esta página web existe gracias a GitHub, \(\LaTeX \) y \(MathJax\).