La diferencia entre matrices diagonalizables y normales

Universidad Interamericana de Puerto Rico - Recinto de Ponce
1
La diferencia entre matrices diagonalizables y normales
Por: Álvaro Lecompte Montes
Universidad Interamericana de Puerto Rico, Recinto de San Germán
1. Introducción
La diagonalización de las matrices se remonta a antes de la invención de las mismas, a la
forma normal de elipses, parábolas o hipérbolas. La teoría se expande en el siglo XIX a los
modos propios de los sistemas dinámicos, los ejes principales de inercia de un sólido o las
direcciones principales de esfuerzo-deformación en la teoría de la elasticidad. Actualmente la
misma se emplea en prácticamente todos los problemas de múltiples variables.
El objetivo general es la reducción del problema lineal de n variables a n problemas de una
variable, independientes entre sí. Buena parte de varios cursos universitarios de matemáticas se
dedica a este algoritmo. Sin embargo, quizás por la fragmentación con que se presenta, algunos
aspectos permanecen confusos. Por ejemplo, ¿cómo saber si la diagonalización se puede lograr
o no, antes de empezarla? Las matrices “normales” son diagonalizables y la condición de
normalidad se verifica fácilmente. Pero, ¿cuál es realmente la diferencia entre las matrices
normales y las demás diagonalizables?
Cuando no se logra la diagonalización, la matriz se puede reducir a la forma casi-diagonal
de Jordan, la forma de matriz triangular superior de Schur en una base ortonormal o la forma
de valores singulares, esto con dos bases ortonormales diferentes. Cada una de estas
descomposiciones puede ser útil, pero no es lo mismo que con matrices normales o
diagonalizables. ¿Cuál es realmente el obstáculo para la diagonalización? En todo caso, los
algoritmos numéricos más eficientes de diagonalización, para las matrices grandes, se diseñan
pasando por alguna de estas formas generales y la explicación de cómo se consiguen ayuda a
comprender el proceso de la diagonalización.
El detalle de la teoría se encuentra en los textos de álgebra lineal avanzados [1], de álgebra
abstracta [2] o de teoría de operadores [3], por lo que en este trabajo iremos directamente a los
posibles resultados, desde un punto de vista más práctico. Además, se indica cómo lograr las
descomposiciones de las matrices con el software disponible. En esta primera parte se enfatiza
la diferencia o semejanza entre las matrices diagonalizables y las normales. En una segunda
Revista 360/ No.9/ 2014
Universidad Interamericana de Puerto Rico - Recinto de Ponce
2
parte revisamos las formas de descomposición generales y cómo solventan la inexistencia de la
forma diagonal cuando esta es imposible.
2. Matrices diagonalizables
Las matrices diagonalizables son aquellas que se pueden factorizar de la forma:
A = C D C-1
(1)
Donde C es una matriz invertible, D diagonal y C-1 la inversa de C. La matriz diagonal D
tiene componentes no nulas solamente en la diagonal. La definición, como se ha dado, no es
verificable hasta terminar el proceso. Para saber si la matriz es diagonalizable hay que
conseguir la D, y la C y en medio del proceso se puede observar si se se logra o no la
diagonalización.
La matriz invertible C-1 cambia de las coordenadas originales x’s a unas nuevas
coordenadas y’s de la forma y = C-1 x. La matriz C regresa de esas coordenadas a las originales.
Desde un punto de vista más abstracto, C =
a la base estándar S.
representa una matriz de cambio de una base, B
Las nuevas coordenadas van por ejes en la dirección de los vectores de la
base B, que no necesariamente son perpendiculares entre sí. Las columnas de C se componen de
las coordenadas de los vectores de B en la base estándar. En el algoritmo tradicional de
diagonalización se calcula primero la D, luego la C y de última la inversa C-1, como se indica
enseguida.
La diagonalización se consigue si la base B está compuesta por vectores {u1, u2, …, un}
para los cuales A uj = λj uj, donde λj es el número que aparece en la diagonal en la posición j.
Los vectores u tales que: A u = λ u, para algún número λ, se llaman vectores propios de A y el
número λ se llama valor propio de A. Para diagonalizar necesitamos encontrar una base B de
vectores propios.
Los valores propios se pueden conseguir por el siguiente método atribuido al inglés Arthur
Cayley (1821-1895) y al irlandés William Hamilton (1805-1865), al menos para las matrices 2
x 2 y 3 x 3. El mismo fue luego extendido a todas las matrices por el francés Camille Jordan
Revista 360/ No.9/ 2014
Universidad Interamericana de Puerto Rico - Recinto de Ponce
3
(1822-1895). Por la misma definición de valor propio, para cada uno de ellos la matriz (A – λ I)
no es invertible. Por tanto, según la regla de Cramer para la inversa de una matriz (descubierta
por el suizo Gabriel Cramer (1704-1752)), su determinante debe ser cero:
Det(A – λ I) = 0
(2)
Vista como una ecuación para la λ, el lado derecho es un polinomio de grado n en la
variable λ, llamado el polinomio característico de la matriz A. Los valores propios son entonces
raíces del polinomio característico. Viceversa, cada raíz del polinomio característico es un valor
propio y tiene al menos un vector propio no nulo, que se puede conseguir resolviendo la
ecuación lineal A u = λ u, donde ahora λ ya es un número conocido.
Todo polinomio de grado n tiene n raíces en los números complejos, aunque algunas de
ellas pueden ser repetidas. Si el valor propio no es repetido, el vector propio es único, salvo un
cambio de escala. Además, los vectores propios de valores propios distintos son independientes
entre sí. El problema para lograr la base puede ocurrir si tenemos valores propios que son
raíces de multiplicidad mayor a 1 en el polinomio característico. Estos valores propios de
multiplicidad alta pueden tener más de un vector propio independiente asociado con ellos, pero
también puede ser que no tenga tantos como la multiplicidad algebraica. El número máximo de
vectores propios independientes asociado con un valor propio se conoce como la multiplicidad
geométrica. La matriz es diagonalizable si la multiplicidad geométrica de cada valor propio
coincide con su multiplicidad en el polinomio característico.
El proceso completo de conseguir los valores y vectores propios a mano es largo, pero el
software de álgebra lineal puede hacer el trabajo siguiendo el algoritmo descrito. Para las
matrices grandes existen métodos numéricos aproximativos más eficientes, pero esos los
dejamos para una segunda parte. En el programa Mathematica, por ejemplo, la orden
“Eigensytem[A]”, produce los valores propios en una lista en la primera parte del resultado y
los vectores propios en las filas de una matriz en la segunda parte, que podemos llamar B.
“Eigen” significa propio en alemán, así que la orden traduce “SistemaPropio”. En la salida del
comando, cada valor propio se repite según la multiplicidad algebraica y se consigue el máximo
Revista 360/ No.9/ 2014
Universidad Interamericana de Puerto Rico - Recinto de Ponce
4
de vectores propios independientes según la multiplicidad geométrica en las filas respectivas.
Pero cuándo no consigue más vectores propios, se completan los faltantes para ese valor propio
con vectores cero. La matriz A es diagonalizable si y solo sí la matriz C = BT de los vectores
propios escritos en columnas es invertible. El siguiente ejemplo muestra el proceso para una
matriz diagonalizable:
Ejemplo 1
En el siguiente ejemplo se tiene una matriz que no es diagonalizable, Cuando esto sucede,
se
cumple
la
relación:
A
C
=
C
D,
pero
la
C
no
se
puede
invertir.
Revista 360/ No.9/ 2014
Universidad Interamericana de Puerto Rico - Recinto de Ponce
5
Ejemplo 2
Pero siguen abiertas las preguntas: ¿cómo saber si la matriz A es o no diagonalizable antes
de empezar la tarea de buscar los valores y vectores propios? Además, ¿qué se gana realmente
con la diagonalización? Parte de la respuesta fue el descubrimiento de una clase muy
importante de matrices diagonalizables, las matrices normales.
3. Matrices normales
Para presentar de forma unificada los valores propios reales y complejos, de aquí en
adelante vamos a trabajar con matrices y vectores de números complejos. Con los complejos
casi nada cambia y usando el software no hay mayor trabajo adicional. Debe tomarse en cuenta,
sin embargo, que el producto interno del espacio vectorial complejo de dimensión n se define
conjugado lineal en la primera variable (algunos textos de matemáticas lo toman conjugado
lineal en la segunda variable):
⟨ | ⟩
∑
̅
(3)
Donde se ha indicado el conjugado complejo con la barra encima del número y el producto
interno con los paréntesis angulares o “brackets”. Este producto interno es el que produce
correctamente las longitudes (o normas) de los vectores complejos. El mismo se puede expresar
como un producto de matrices, si el primer vector se escribe como vector fila conjugada y el
segundo como vector columna:
⟨ | ⟩
[ ̅] [ ]
(4)
La operación T es la transposición, que convierte las columnas en filas. La composición de
conjugar y transponer se conoce como adjunción y se denota por un asterisco:
[
]
[ ̅̅̅̅]
[ ̅̅̅̅]
(5)
Revista 360/ No.9/ 2014
Universidad Interamericana de Puerto Rico - Recinto de Ponce
6
El físico inglés Paul Dirac (1902-1984) inventó una notación muy útil que simplifica
notablemente el cálculo de matrices. Dirac introdujo los términos “bra” (la primera mitad de un
bracket) para los vectores fila conjugados y los “ket” (la segunda mitad del bracket) para los
vectores columna:
⟨ |
[ ̅]
| ⟩
[ ]
(6)
Observe que los bra no se escriben conjugados todavía. La conjugación se realiza al
momento de contraer el bra con el ket. Por la misma razón, los complejos salen y entran
conjugados de los bra (técnicamente son conjugados-lineales como espacio vectorial). Cuando
se junta un bra con un ket se contraen a un número que es el producto interno de ambos. En el
otro orden, un ket por un bra, un “ketbra”, produce una matriz n x n:
| ⟩⟨ |
[ ] [ ̅]
[
̅]
(7)
Esta notación todavía no es ampliamente usada en matemáticas, pero sin ella no se pueden
leer los libros de física. Los bra y kets son dos tipos de vectores, pero también son como medias
matrices que componen los ketbra: el ket ayuda a formar las columnas y el bra (conjugado) las
filas. La adjunta de un bra es el ket correspondiente (sin conjugar, ya que la conjugación se
hace efectiva cuando el bra contrae con un ket) y la adjunta de un ket es el bra.
En el software Mathematica, la adjunción se hace con la orden “ConjugateTranspose[A]”.
En este lenguaje, los vectores se escriben como listas de números tales como {1, 0, 1}. Estos se
convierten en vector o matriz fila cerrando con un par de llaves: {{1, 0, 1}} y en vector o
matriz columna cerrando cada número con llaves: {{1}, {0}, {1}}. Las matrices n x n son
listas de n vectores, la lista de los vectores fila. La multiplicación de matrices, de matriz por
vector o de dos vectores (producto punto sin conjugación) de denota por un punto. Otros
programas de software tienen una notación parecida y no hay confusión. Veamos el siguiente
ejemplo:
Revista 360/ No.9/ 2014
Universidad Interamericana de Puerto Rico - Recinto de Ponce
7
Ejemplo 3
La matriz adjunta de A corresponde a la única matriz A* con la propiedad:
⟨ |
⟩
⟨
| ⟩
(8)
Es decir, la operación * actúa sobe los bra de forma dual a como A lo hace sobre los ket.
Las matrices normales se definen como aquellas que conmutan con su matriz adjunta, es
decir: A es normal si A A* = A* A.
Así definida, la normalidad es una propiedad que se puede verificar enseguida
multiplicando las matrices A y A* de las dos formas posibles y no parece ser algo más que una
curiosidad algebraica. Históricamente se estudiaron primero las matrices simétricas, aquellas
matrices reales iguales a su transpuesta, y luego las autoadjuntas, iguales a su adjunta. Ambas
clases
muy importantes en las aplicaciones y por esto mismo se descubrió que eran
diagonalizables. Estudiando que hace diagonalizables a las simétricas, se descubre esta
condición más general que incluye las anteriores.
La propiedad esencial de las matrices normales es la de ser diagonalizables en una base
ortonormal. Este resultado se conoce como
Teorema de Descomposición Espectral. Para
Revista 360/ No.9/ 2014
Universidad Interamericana de Puerto Rico - Recinto de Ponce
8
matrices reales simétricas se debe al matemático inglés James J. Sylvester (1814-1897. La
versión final para operadores normales en los espacios de Hilbert (de dimensión infinita) la
consiguió el húngaro Frygies Riesz (1880-1956).
Una base ortonormal (también llamada unitaria en los complejos) está formada por
vectores normalizados y perpendiculares entre sí. Es decir: B = {e1, e2,… , en}, donde ⟨ |
0 si i ≠ j y ⟨ |
⟩=
⟩ = 1. Cuando una matriz U contiene como columnas a los vectores de una
base ortonormal B, y la matriz U* a estos mismos como filas conjugadas, se sigue de inmediato
que U* U es la identidad. Entonces U es invertible, con U* = U-1. Estas matrices se llaman
matrices unitarias. Lo contrario también es cierto: una matriz unitaria está formada por vectores
columna ortonormales entre sí. Cuando la U es de coeficientes reales, la matriz tiene como
inversa a su transpuesta y se llama matriz ortogonal. El cambio de base es ahora del tipo
rotación o reflexión de los ejes originales.
Si una matriz A diagonaliza en una base ortonormal, se lleva a la forma A = U D U*, con U
unitaria, y se verifica enseguida que las matrices de esta forma son normales. El Teorema de
Descomposición Espectral garantiza lo inverso según se puede demostrar usando un proceso de
iteración. La parte esencial está en que cada vector propio de A, de valor propio λ, también es
vector propio de A*, de valor propio ̅ y, como consecuencia, el subespacio ortogonal al vector
e es invariante por A y A*. Esta propiedad se demuestra directamente usando (8) y la definición
de A normal.
Las matrices A y A* restringidas al subespacio ortogonal al vector propio, que es de una
dimensión menor, mantienen la relación de normalidad. Esto permite seguir reduciendo la
dimensión del problema de uno en uno hasta completar la base ortonormal normalizando los
vectores en cada paso y reduciendo el problema al subsespacio ortogonal a la base en progreso.
Veamos el siguiente ejemplo de la diagonalización de una matriz real simétrica (y por tanto
normal):
Revista 360/ No.9/ 2014
Universidad Interamericana de Puerto Rico - Recinto de Ponce
9
Ejemplo 4
Entre las matrices normales tenemos las autoadjuntas, la cuales tienen todos los valores
propios reales. Las matrices reales simétricas son un caso especial de las autoadjuntas. En este
caso todas las matrices de la diagonalización se pueden escoger reales. Las matrices positivas (A
≥ 0) son aquellas de la forma A = B*B para alguna matriz B. Las positivas son entonces
autoadjuntas, con todos los valores propios mayores o iguales a cero y viceversa, toda matriz
autodadjunta de valores propios positivos se factoriza de esa forma. Con la propiedad de
positividad se puede definir un orden parcial para las matrices, donde se define A ≥ B si
A–B
≥ 0. Por último, se distinguen las proyecciones ortogonales. Estas son matrices positivas (y por
tanto autoadjuntas) donde todos los valores propios son o cero o uno. Las proyecciones
ortogonales satisfacen: P ≥ 0 y P² = P.
Para una base ortonormal, las componentes de un vector se consiguen con el producto
interno. Si B = {e1, e2,… en} es una base ortonormal, entonces cualquier vector w se escribe:
∑
⟨ | ⟩
(9)
Revista 360/ No.9/ 2014
Universidad Interamericana de Puerto Rico - Recinto de Ponce
10
Con la notación de Dirac:
∑
⟨ | ⟩| ⟩
∑
( | ⟩⟨ |)
(10)
Una matriz normal A en su base ortonormal de vectores propios se escribe:
∑
⟨ | ⟩| ⟩
(∑
| ⟩⟨ |)
(11)
Usando solamente matrices:
∑
Las matrices
| ⟩⟨ |
∑
(12)
| ⟩⟨ | forman una descomposición de la identidad en
proyecciones
ortogonales, en el sentido de:
∑
(13)
La matriz A está ahora separada en una combinación de proyecciones ortogonales. Cuando
el valor propio es repetido, podemos juntar todas las proyecciones de esos vectores propios en
una sola proyección de dimensión mayor. Una vez se hace esto, las proyecciones de A son
únicas y se conocen como proyecciones espectrales.
La matriz del ejemplo 4 se descompone en sus proyecciones ortogonales de la siguiente
forma:
Revista 360/ No.9/ 2014
Universidad Interamericana de Puerto Rico - Recinto de Ponce
11
Ejemplo 5
4. La diferencia entre matrices diagonalizables y normales
¿Podemos lograr alguna fórmula parecida a (12) para las diagonalizables, aunque no sean
normales? Se puede lograr, pero con ciertas diferencias. Sea A = C D C-1. La matriz de cambio
de base C tiene como columnas a los vectores de la base B. Se puede llamar con letras u a los
vectores de B: B = {u1, u2,… un}, que ahora no son necesariamente ortonormales. La matriz C-1
ahora no necesariamente contiene como filas a los conjugados de B. No obstante, C-1 tiene
como filas los conjugados de alguna otra base: B’ = {v1, v2, … , vn}. Las coordenadas de los
vectores de B’ son las columnas de: C-1* = C*-1. Estos vectores de B’ se pueden describir
perfectamente con la fórmula de Krammer para la inversa de la matriz C*. La base B’ se llama
base dual de B. Esta base tampoco necesita ser ortonormal.
Los vectores de B’ son los que diagonalizan a la matriz A*, ya que:
Revista 360/ No.9/ 2014
Universidad Interamericana de Puerto Rico - Recinto de Ponce
(
12
)
(14)
Con valores propios que son los conjugados de los de A.
Por la definición de la base dual:
⟨ | ⟩= 0 si i ≠ j y ⟨ | ⟩
(15)
Es decir, los v’s son perpendiculares a todos los u’s de índice distinto y tienen producto
interno 1 con el u de mismo índice.
Como C-1 pasa de la base estándar a la base B, la fórmula para las coordenadas de un vector
w en la base B ahora es:
∑
⟨ | ⟩| ⟩
∑
(| ⟩⟨ |)
(16)
El siguiente ejemplo ilustra la relación entre una base no ortonormal el plano y su base dual.
La base B está formada por los vectores u1 = {1, 0} y u2 = {2, 1}. Un rápido cálculo muestra
que:
[
],
[
]
y
[
]
Se deduce entonces que: v1 = {1, -2} y v2 = {0, 1}. Las relaciones de dualidad se verifican
de inmediato: ⟨ |
⟩ = 1, ⟨ |
⟩= 0 y ⟨ |
⟩ = 1. Si usamos como ejemplo el vector w =
{3, 0.5}, sus coordenadas en la base B formada por las u’s son: w = 2 u1 + 0.5 u2 , que se
pueden obtener directamente de ⟨ | ⟩= 2 y de ⟨ | ⟩ = 0.5.
Revista 360/ No.9/ 2014
Universidad Interamericana de Puerto Rico - Recinto de Ponce
v2
13
u2
3, 0.5
u1
v1
Ejemplo 6
Con los ketbras formados con la base B y la base dual B’, la diagonalización de A se escribe
de la forma:
∑
Donde ahora las matrices
(| ⟩⟨ |)
(∑
)
(19)
| ⟩⟨ | no son necesariamente proyecciones ortogonales.
Las matrices Q tampoco son necesariamente autoadjuntas o normales. No obstante, por la
fórmula (14) estas matrices Q’s multiplicadas entre sí para índices distintos dan cero y entre
todas suman a la identidad:
| ⟩⟨ | ⟩ ⟨ |
Donde
| ⟩⟨ |
∑
(20)
es igual a uno para índices iguales y cero para índices diferentes. Podemos
llamar proyecciones oblicuas a las matrices con Q² = Q que no son autoadjuntas. Como
consecuencia de las identidades, estas proyecciones oblicuas conmutan entre sí. Si la base B es
Revista 360/ No.9/ 2014
Universidad Interamericana de Puerto Rico - Recinto de Ponce
14
ortonormal su base dual es ella misma, ya que la matriz U-1* es igual en este caso a U y las Q’s
son proyecciones ortogonales.
Igual que con las matrices normales, podemos juntar todas las proyecciones de un valor
propio repetido en una sola proyección oblicua y, entonces, esta descomposición de una matriz
diagonalizable en proyecciones oblicuas es única. Pudiera ser que algunas de las Q’s sean
ortogonales y otras no. Esto ocurre cuando A tiene un subespacio invariante, de complemento
ortogonal también invariante, donde A es normal en ese subespacio aunque no sea normal en el
complemento.
La diferencia entre una matriz diagonalizable pero no necesariamente normal está entonces
en que la descomposición no necesariamente es en proyecciones ortogonales, pero si en
proyecciones oblicuas. Las reglas de multiplicación de las Q’s o las P’s son muy importantes a
la hora de extender el cálculo de funciones a matrices diagonalizables, como se hace en el curso
de ecuaciones diferenciales cuando se calcula la exponencial de la matriz. Básicamente, las
reglas (13) y (20) dicen que el álgebra generada por las proyecciones es conmutativa. Esta
subálgebra de matrices contiene a todas las matrices que diagonalizan con las mismas
proyecciones. El cálculo de matrices se extiende entonces a través del cálculo de las matrices
diagonales.
Si la matriz A no es normal, esta álgebra no incluye las adjuntas y por tanto le falta algo
desde el punto de vista complejo. Las proyecciones ortogonales de una matriz normal, por el
contrario, son iguales a sus adjuntas y el álgebra es lo que se conoce como una *- algebra
conmutativa. La diferencia o ventaja está en la posible extensión de las identidades del cálculo
complejo a las matrices, interpretando el conjugado complejo como adjunción de matrices.
El siguiente ejemplo completa la descomposición de la matriz A del ejemplo 1:
Revista 360/ No.9/ 2014
Universidad Interamericana de Puerto Rico - Recinto de Ponce
15
Ejemplo 7
Con las matrices diagonalizables se puede ver enseguida que la matriz A se anula para el
polinomio:
p(λ) = (λ – λ1) (λ – λ2) … (λ – λk)
(21)
Donde ahora no se repiten valores propios. El teorema general que se puede conseguir al
respecto es el siguiente: una matriz A es diagonalizable si y solo si este polinomio que contiene
todas las raíces del polinomio característico sin repeticiones, se anula para la matriz A. Una vez
se introduzcan las formas más generales a las cuales se puede llevar cualquier matriz, ya sea la
forma de Jordan o la forma canónica racional, se puede demostrar que este resultado es
suficiente. No es un criterio tan directo como el de la normalidad, pero también es posible de
verificar una vez se tiene el polinomio característico y los valores propios, antes de buscar los
vectores propios.
Revista 360/ No.9/ 2014
Universidad Interamericana de Puerto Rico - Recinto de Ponce
16
Una última consideración, aunque un poco más abstracta, es la siguiente: hasta ahora hemos
usado el producto interno definido en (3). Pero suponga que A es diagonalizable, ¿será que
existe otro producto interno, con otra operación de adjunción, de forma que la matriz A sea
normal en esta nueva adjunción? Esto mostraría que no hay tanta diferencia entre
diagonalizabilidad y normalidad.
En el nuevo producto interno los vectores de la base B deben ser ortonormales. Como ya
tenemos una relación parecida a ortonormalidad al contraer la base B con la B’, la métrica del
nuevo producto interno debe ser:
⟨ | ⟩
⟨ | ⟩
⟨ |(
)
⟩
(22)
Esto significa que para un par cualquiera de vectores el producto interno será:
⟨ | ⟩
⟨ |(
)
⟩
⟨ |
⟩
(
)
(23)
La G es una matriz definida positiva (positiva e invertible), y la operación de adjunción
redefinida es:
(24)
Un cálculo largo pero directo muestra que efectivamente:
. Es decir, A es normal
para este nuevo producto interno. Podemos escribir esta conmutación con mayor simetría de la
forma:
(
Es decir, la matriz (
)(
)
(
)(
)
(25)
) es normal en el sentido ordinario. Al revés, si A es normal para un
producto interno dado por G, A factoriza de la forma (
unitaria. De donde se sigue: A =
, con C =
)
, para alguna U
.
Revista 360/ No.9/ 2014
Universidad Interamericana de Puerto Rico - Recinto de Ponce
17
Como criterio este resultado aparentemente no es muy útil, ya que para saber cuál es la métrica
que hace normal a A, la G, primero debemos diagonalizar A. Pero pudiera ser que el problema
en cuestión tenga otro producto interno natural de métrica G conocida, en cuyo caso vale la
pena probar si A es normal para G o no. También puede ser lo contrario, una vez se encuentra la
base que diagonaliza A, se puede considerar el producto interno definido por esa base como otro
producto interno “natural”, alterno al producto estándar, en el problema bajo estudio. En todo
caso, si no interesa mucho cuál es el producto interno subyacente, este resultado muestra que
las matrices normales y las diagonalizables son esencialmente lo mismo.
7. Conclusión
El cálculo de funciones con las matrices diagonalizables y mejor aún, con las normales, se
reduce completamente al cálculo de funciones sobre los valores propios. De esta forma,
múltiples problemas de n variables se reducen a n problemas de una variable, independientes
entre sí. Podemos verificar si una matriz es normal directamente de la definición, pero si la
matriz no es normal
debemos avanzar un poco en el proceso para saber si A es o no
diagonalizable. En ambos casos, para mostrar directamente la diagonalización, necesitamos
finalmente los valores y vectores propios.
Referencias:
1) Friedberg, S. H., A. J. Insel and L.E. Spence, Linear Algebra, 2nd Ed., Prentice Hall, 1989.
2) Dummit, D.S. and R. M. Foote, Abstract Algebra, Prentice Hall, 1991.
3) Naylor, A. W. and G. R. Sell, Linear Operator Theory in Engineering and Science,
Springer Verlag, 1982.
Álvaro Lecompte Montes, [email protected] Catedrático Asociado de matemáticas en la
Universidad Interamericana de Puerto Rico, San Germán, Puerto Rico. PH D en Ciencias de la
Universidad de Viena.
Revista 360/ No.9/ 2014