En álgebra lineal, el teorema de Perron-Frobenius, probado por Oskar Perron (1907) y Georg Frobenius (1912), afirma que una matriz cuadrada real con entradas positivas tiene un valor propio real único más grande y que el vector propio correspondiente puede elegirse para tener estrictamente componentes positivos, y también afirma una declaración similar para ciertas clases de matrices no negativas. Este teorema tiene importantes aplicaciones a la teoría de la probabilidad (ergodicidad de las cadenas de Markov); a la teoría de sistemas dinámicos (subdesplazamientos de tipo finito); a la economía (teorema de Okishio , condición de Hawkins-Simon ); a la demografía (modelo de distribución de edad de la población de Leslie ); a las redes sociales (proceso de aprendizaje DeGroot), a los buscadores de Internet e incluso al ranking de equipos de fútbol . El primero en discutir el orden de los jugadores dentro de los torneos usando vectores propios de Perron-Frobenius es Edmund Landau .
Deje que positivo y no negativo describan respectivamente matrices con números reales exclusivamente positivos como elementos y matrices con números reales exclusivamente no negativos como elementos. Los valores propios de una matriz cuadrada real A son números complejos que componen el espectro de la matriz. La tasa de crecimiento exponencial de la matriz potencia Ak as k → ∞ está controlada por el valor propio de A con el valor absoluto más grande (módulo). El teorema de Perron-Frobenius describe las propiedades del valor propio principal y de los vectores propios correspondientes cuando A es una matriz cuadrada real no negativa. Los primeros resultados se debieron a Oskar Perron (1907) y se referían a matrices positivas. Posteriormente, Georg Frobenius (1912) encontró su extensión a ciertas clases de matrices no negativas.
Sea una matriz positiva de : × . Entonces las siguientes proposiciones son válidas.
Todas estas propiedades se extienden más allá de las matrices estrictamente positivas a las matrices primitivas (ver más abajo). Los hechos 1-7 se pueden encontrar en Meyer, capítulo 8,
afirmaciones 8.2.11-15, página 667, y ejercicios 8.2.5, 7,9, páginas 668-669.Los vectores propios izquierdo y derecho w y v a veces se normalizaron de manera que la suma de sus componentes es igual a 1; en este caso, a veces se denominan autovectores estocásticos . A menudo se normalizan de modo que el vector propio derecho v suma uno, mientras que .
Existe una extensión para matrices con entradas no negativas. Dado que cualquier matriz no negativa puede obtenerse como límite de matrices positivas, se obtiene la existencia de un vector propio con componentes no negativos; el valor propio correspondiente será no negativo y mayor o igual , en valor absoluto, a todos los demás valores propios., el valor propio máximo r = 1 tiene el mismo valor absoluto que el otro valor propio −1; mientras que para, el valor propio máximo es r = 0, que no es una raíz simple del polinomio característico, y el vector propio correspondiente (1, 0) no es estrictamente positivo.
Sin embargo, para el ejemploSin embargo, Frobenius encontró una subclase especial de matrices no negativas, matrices irreducibles, para las que es posible una generalización no trivial. Para tal matriz, aunque los valores propios que alcanzan el valor absoluto máximo pueden no ser únicos, su estructura está bajo control: tienen la forma , donde r es realmente estrictamente positivo, y es un valor propio real estrictamente positivo, y rangos sobre las raíces h- ésimas complejas de 1 para algún entero positivo h llamado período de la matriz. El vector propio correspondiente a r tiene componentes estrictamente positivos (en contraste con el caso general de matrices no negativas, donde los componentes son solo no negativos). Además, todos estos valores propios son raíces simples del polinomio característico. A continuación se describen otras propiedades.
Sea A una matriz cuadrada (no necesariamente positiva o incluso real). La matriz A es irreducible si se cumple alguna de las siguientes propiedades equivalentes.
Definición 1: A no tiene subespacios de coordenadas invariantes no triviales. Aquí, un subespacio vectorial de coordenadas no trivial significa un subespacio lineal abarcado por cualquier subconjunto adecuado de vectores de base estándar de . Más explícitamente, para cualquier subespacio lineal generado por vectores de base estándar ei1 , ..., eik, 0 < k < n, su imagen bajo la acción de A no está contenida en el mismo subespacio vectorial.
De manera equivalente, la representación de grupo de en dada por no tiene subespacios de coordenadas invariantes no triviales. (En comparación, esto sería una representación irreductible si no hubiera subespacios invariantes no triviales en absoluto, no solo considerando los subespacios de coordenadas).
Definición 2: A no se puede conjugar en forma triangular superior de bloque mediante una matriz de permutación P:
donde E y G son matrices cuadradas no triviales (es decir, de tamaño mayor que cero).
Si A no es negativo, se aplica otra definición:
Definición 3: Uno puede asociarse con una matriz A un cierto grafo dirigido G A. Tiene exactamente n vértices, donde n es el tamaño de A , y hay una arista desde el vértice i al vértice j precisamente cuando A ij > 0. Entonces la matriz A es irreducible si y solo si su grafo asociado G A está fuertemente conectado .
Una matriz es reducible si no es irreducible.
Una matriz A es primitiva si no es negativa y su potencia m es positiva para algún número natural m (es decir, todas las entradas de A m son positivas).
Sea A no negativo. Fije un índice i y defina el período del índice i como el máximo común divisor de todos los números naturales m tal que (A m) ii > 0. Cuando A es irreducible, el período de cada índice es el mismo y se llama período de A . De hecho, cuando A es irreductible, el período se puede definir como el máximo común divisor de las longitudes de los caminos cerrados dirigidos en G A (ver Cocinas página 16). El período también se denomina índice de imprimitividad ( Meyer página 674) o el orden de ciclicidad. Si el período es 1, A es aperiódico. Se puede demostrar que las matrices primitivas son las mismas que las matrices irreductibles aperiódicas no negativas.
Todos los enunciados del teorema de Perron-Frobenius para matrices positivas siguen siendo verdaderos para matrices primitivas. Las mismas declaraciones también son válidas para una matriz irreductible no negativa, excepto que puede poseer varios valores propios cuyo valor absoluto es igual a su radio espectral, por lo que las declaraciones deben modificarse en consecuencia. De hecho, el número de esos valores propios es igual al período.
Los resultados de las matrices no negativas fueron obtenidos por primera vez por Frobenius en 1912.
Deje que A sea un irreducible no negativo n × n matriz con período h y espectral radio ρ (A) = r . Entonces las siguientes declaraciones son válidas.
El ejemplo muestra que las matrices cero (cuadradas) a lo largo de la diagonal pueden ser de diferentes tamaños, los bloques Aj no necesitan ser cuadrados y h no necesita dividir n.
Sea A una matriz no negativa irreducible, entonces:
Una matriz A es primitiva siempre que no sea negativa y A m sea positiva para algunos m, y por lo tanto A k sea positiva para todo k ≥ m. Para verificar la primitividad, se necesita un límite de cuán grande puede ser el mínimo de tal m, dependiendo del tamaño de A:
Se han escrito numerosos libros sobre el tema de las matrices no negativas, y la teoría de Perron-Frobenius es invariablemente una característica central. Los siguientes ejemplos que se dan a continuación solo muestran la superficie de su vasto dominio de aplicación.
El teorema de Perron-Frobenius no se aplica directamente a matrices no negativas. Sin embargo, cualquier matriz cuadrada reducible A puede escribirse en forma de bloque triangular superior (conocida como la forma normal de una matriz reducible).
donde P es una matriz de permutación y cada B i es una matriz cuadrada que es irreducible o cero. Ahora bien, si A no es negativo, también lo es cada bloque de PAP −1, además, el espectro de A es solo la unión de los espectros de B i.
También se puede estudiar la invertibilidad de A. La inversa de PAP -1 (si existe) debe tener bloques diagonales de la forma B i -1 así que si cualquier B i no es invertible entonces tampoco es PAP -1 o A. Por el contrario, sea D la matriz diagonal de bloques correspondiente a PAP −1, en otras palabras, PAP −1 con los asteriscos en cero. Si cada B i es invertible, entonces también lo es D y D −1 (PAP −1) es igual a la identidad más una matriz nilpotente. Pero tal matriz es siempre invertible (si N k=0 el inverso de 1-N es 1+N+N2 + ... + N k −1) por lo que PAP −1 y A son ambos invertibles.
Por tanto, muchas de las propiedades espectrales de A pueden deducirse aplicando el teorema al B i irreducible. Por ejemplo, la raíz de Perron es el máximo de ρ (B i). Si bien todavía habrá vectores propios con componentes no negativos, es muy posible que ninguno de estos sea positivo.
Una matriz estocástica de filas (columnas) es una matriz cuadrada, cada una de cuyas filas (columnas) consta de números reales no negativos cuya suma es la unidad. El teorema no se puede aplicar directamente a tales matrices porque no necesitan ser irreductibles.
Si A es estocástico por filas, entonces el vector de columna con cada entrada 1 es un vector propio correspondiente al valor propio 1, que también es ρ (A) según la observación anterior. Puede que no sea el único valor propio en el círculo unitario: y el espacio propio asociado puede ser multidimensional. Si A es estocástico por filas e irreductible, entonces la proyección de Perron también es estocástica por filas y todas sus filas son iguales.
El teorema tiene un uso particular en la teoría de grafos algebraicos . La "gráfica subyacente" de una matriz n- cuadrada no negativa es la gráfica con vértices numerados 1, ..., ny arc ij si y solo si A ij ≠ 0. Si la gráfica subyacente de dicha matriz está fuertemente conectada, entonces la matriz es irreducible y, por tanto, se aplica el teorema. En particular, la matriz de adyacencia de un gráfico fuertemente conectado es irreducible.
El teorema tiene una interpretación natural en la teoría de las cadenas de Markov finitas (donde es el equivalente teórico de matrices de la convergencia de una cadena de Markov finita irreductible a su distribución estacionaria, formulada en términos de la matriz de transición de la cadena.
De manera más general, se puede extender al caso de los operadores compactos no negativos, que, en muchos sentidos, se parecen a las matrices de dimensión finita. Estos se estudian comúnmente en física, bajo el nombre de operadores de transferencia, o en ocasiones operadores de Ruelle-Perron-Frobenius (después de David Ruelle). En este caso, el valor propio principal corresponde al equilibrio termodinámico de un sistema dinámico, y los valores propios menores a los modos de desintegración de un sistema que no está en equilibrio. Por lo tanto, la teoría ofrece una manera de descubrir la flecha del tiempo en lo que de otro modo parecerían ser procesos dinámicos deterministas y reversibles, cuando se examina desde el punto de vista detopología de conjunto de puntos.
Un hilo común en muchas demostraciones es el teorema del punto fijo de Brouwer. Otro método popular es el de Wielandt (1950). Usó la fórmula de Collatz- Wielandt descrita anteriormente para ampliar y aclarar el trabajo de Frobenius. Otra prueba se basa en la teoría espectral de la que se toman prestados parte de los argumentos.
Si A es una matriz positiva (o más generalmente primitiva), entonces existe un valor propio positivo real r ( valor propio de Perron-Frobenius o raíz de Perron), que es estrictamente mayor en valor absoluto que todos los demás valores propios, por lo que r es el radio espectral de Una.
Esta declaración no se mantiene para matrices irreducibles no negativos generales, que tienen h valores propios con el mismo valor propio absoluta como r, donde h es el período de A.
Sea A una matriz positiva, suponga que su radio espectral ρ (A)=1 (de lo contrario, considere A/ρ (A)). Por lo tanto, existe un valor propio λ en el círculo unitario, y todos los demás valores propios son menores o iguales a 1 en valor absoluto. Suponga que otro valor propio λ ≠ 1 también cae en el círculo unitario. Entonces existe un entero positivo m tal que A m es una matriz positiva y la parte real de λ m es negativa. Sea εI la mitad de la entrada diagonal más pequeña de A my establezca T=A m-εI, que es otra matriz positiva. Además, si Ax= Λx entonces A mx = λ m x así λ m-ε es un valor propio de T. Debido a la elección de m, este punto se encuentra fuera del disco unitario, por lo tanto, ρ (T)> 1. Por otro lado, todas las entradas en T son positivas y menores o iguales a las de A m, por lo que según la fórmula de Gelfand ρ (T)≤''ρ (A m)≤ ρ (A) m=1. Esta contradicción significa que λ=1 y no puede haber otros valores propios en el círculo unitario.
Absolutamente los mismos argumentos se pueden aplicar al caso de matrices primitivas; solo necesitamos mencionar el siguiente lema simple, que aclara las propiedades de las matrices primitivas.
Dado un número no negativo A, asumen que m existe, de manera que un m es positivo, entonces Am+1,Am+2, Am+3,... son todos positivos.
Am+1=AAm, por lo que puede tener un elemento cero solo si alguna fila de A es completamente cero, pero en este caso la misma fila de A m será cero.
Aplicando los mismos argumentos anteriores para matrices primitivas, demuestre la afirmación principal.
Para un positivo (o más generalmente irreducible no negativo) de la matriz A la dominante vector propio es real y estrictamente positivo (para no negativo A respectivamente no negativo.)
Esto se puede establecer utilizando el método de la potencia, que establece que para una matriz A suficientemente genérica (en el sentido siguiente), la secuencia de vectores bk+1 = Abk / | Abk | converge al vector propio con el valor propio máximo. (El vector inicial b 0 se puede elegir arbitrariamente, excepto para algún conjunto de medidas de cero). Comenzar con un vector no negativo b 0 produce la secuencia de vectores no negativos b k. Por tanto, el vector limitante tampoco es negativo. Por el método de la potencia, este vector limitante es el autovector dominante para A, lo que demuestra la afirmación. El valor propio correspondiente no es negativo.
La prueba requiere dos argumentos adicionales. Primero, el método de potencia converge para matrices que no tienen varios valores propios del mismo valor absoluto que el máximo. El argumento de la sección anterior lo garantiza.
En segundo lugar, asegurar la positividad estricta de todos los componentes del vector propio para el caso de matrices irreducibles. Esto se deriva del siguiente hecho, que es de interés independiente:
Prueba. Una de las definiciones de irreductibilidad para matrices no negativas es que para todos los índices i, j existe M, de modo que (A m) ij es estrictamente positivo. Dado un vector propio v no negativo, y que al menos uno de sus componentes dice que j -th es estrictamente positivo, el valor propio correspondiente es estrictamente positivo, de hecho, dado n tal que (A n) ii>0, por lo tanto:rnvi = Anvi ≥ (An)iivi >0. Por consiguiente r es estrictamente positivo. El vector propio es positividad estricta. Entonces dado m, tal que (Am)ij >0, de manera que: rmvj = (Amv)j ≥ (Am)ijvi >0, en consecuencia vj es estrictamente positivo, es decir, el vector propio es estrictamente positivo.
En esta sección se demuestra que el valor propio de Perron-Frobenius es una raíz simple del polinomio característico de la matriz. Por lo tanto, el eigespacio asociado al eigenvalor de Perron-Frobenius r es unidimensional. Los argumentos aquí son cercanos a los de Meyer.
Dado un vector propio estrictamente positivo v correspondiente a r y otro vector propio w con el mismo valor propio. (Los vectores v y w pueden elegirse como reales, porque A y r son ambos reales, por lo que el espacio nulo de A-r tiene una base formada por vectores reales). Suponiendo que al menos una de las componentes de w sea positiva (en caso contrario, multiplicar w por -1). Dado el máximo posible α tal que u=v- α w es no negativo, entonces uno de los componentes de u es cero, en caso contrario α no es máximo. El vector u es un vector propio. Es no negativo, por lo que por el lema descrito en el sección anterior la no negatividad implica positividad estricta para cualquier vector propio. Por otro lado, como en el caso anterior, al menos una componente de u es cero. La contradicción implica que w no existe.
Caso: No hay celdas de Jordan correspondientes al valor propio de Perron-Frobenius r y todos los demás valores propios que tienen el mismo valor absoluto.
Si existe una celda de Jordan, entonces la Norma de infinito (A/r)k∞ tiende a infinito para k → ∞, pero eso contradice la existencia del vector propio positivo.
Dado r = 1, o A/r. Dejando que v sea un eigenvector estrictamente positivo de Perron-Frobenius, por lo que Av=v, entonces:
Así que Ak∞ está acotado para todo k. Esto da otra prueba de que no hay valores propios que tengan mayor valor absoluto que el de Perron-Frobenius. También contradice la existencia de la célula de Jordan para cualquier valor propio que tenga valor absoluto igual a 1 (en particular para el de Perron-Frobenius), porque la existencia de la célula de Jordan implica que Ak∞ no está acotado. Para una matriz de dos por dos:
por lo que Jk∞ = |k + λ| (para |λ| = 1), por lo que tiende a infinito cuando k lo hace. Como Jk = C-1 AkC, entonces Ak ≥ Jk/ (C-1 C ), por lo que también tiende a infinito. La contradicción resultante implica que no hay células de Jordan para los correspondientes valores propios.
La combinación de las dos afirmaciones anteriores revela que el valor propio de Perron-Frobenius r es una raíz simple del polinomio característico. En el caso de las matrices no primitivas, existen otros valores propios que tienen el mismo valor absoluto que r. La misma afirmación es válida para ellos, pero requiere más trabajo.
Dada una matriz positiva (o más generalmente irreducible no negativa) A, el eigenvector de Perron-Frobenius es el único (hasta la multiplicación por una constante) eigenvector no negativo para A.
Otros eigenvectores deben contener componentes negativas o complejas, ya que los eigenvectores para diferentes valores propios son ortogonales en algún sentido, pero dos eigenvectores positivos no pueden ser ortogonales, por lo que deben corresponder al mismo valor propio, pero el espacio propio para el Perron-Frobenius es unidimensional.
Suponiendo que existe un par propio (λ, y) para A, tal que el vector y es positivo, y dado (r, x), donde x - es el vector propio izquierdo de Perron-Frobenius para A (es decir, el vector propio para AT'), entonces rxTy = (xTA) y = xT (Ay) = λxTy, también xTy > 0, entonces se tiene: r = λ. Dado que el espacio propio para el valor propio de Perron-Frobenius r es unidimensional, el vector propio no negativo y es un múltiplo del de Perron-Frobenius.
Dada una matriz positiva (o más generalmente irreducible no negativa) A, se define la función f sobre el conjunto de todos los vectores no negativos distintos de cero x tal que f(x) es el valor mínimo de [Ax]i / xi tomado sobre todos aquellos i tal que xi ≠ 0. Entonces f es una función de valor real, cuyo máximo es el valor propio de Perron-Frobenius r.
Para la demostración denotamos el máximo de f por el valor R. La prueba requiere demostrar que R = r. Insertando el vector propio de Perron-Frobenius v en f, obtenemos f(v) = r y concluimos r ≤ R. Para la desigualdad opuesta, consideramos un vector arbitrario no negativo x y dejamos que ξ=f(x). La definición de f da 0 ≤ ξx ≤ Ax (por componentes). Ahora, utilizamos el vector propio positivo derecho w para A para el valor propio de Perron-Frobenius r, entonces ξ wT x = wT ξx ≤ wT (Ax) = (wT A)x = r wT x . Por tanto, f(x) = ξ ≤ r, lo que implica R ≤ r.
Sea A una matriz positiva (o más generalmente, primitiva), y sea r su valor propio de Perron-Frobenius.
Por lo tanto P es una proyección espectral para el valor propio de Perron-Frobenius r, y se llama la proyección de Perron. La afirmación anterior no es cierta para matrices irreducibles generales no negativas.
En realidad, las afirmaciones anteriores (excepto la afirmación 5) son válidas para cualquier matriz M tal que existe un valor propio r que es estrictamente mayor que los otros valores propios en valor absoluto y es la raíz simple del polinomio característico. (Estos requisitos son válidos para las matrices primitivas como en el caso anterior).
Dado que M es diagonalizable, M es conjugable a una matriz diagonal con valores propios r 1, ... , rn en la diagonal (denotemos r1 = r). La matriz Mk/rk será conjugada (1, (r2/r)k, ... , (rn/r)k), que tiende a (1,0,0,...,0), para k → ∞, por lo que el límite existe. El mismo método funciona para M general (sin suponer que M es diagonalizable).
Las propiedades de proyección y conmutatividad son corolarios elementales de la definición: MMk/rk = Mk/rk M ; P2 = lim M2k/r2k = P. El tercer hecho es también elemental: M(Pu) = M lim Mk/rk u = lim rMk+1/rk+1u, por lo que al tomar el límite se obtiene que M(Pu) = r(Pu), por lo que la imagen de P se encuentra en el espacio eigénico de r para M, que es unidimensional por las suposiciones.
Denotando por v, el vector propio r para M (por w para MT'). Las columnas de P son múltiplos de v, porque la imagen de P está atravesada por ella. Respectivamente, las filas de w. Así que P toma la forma (a v wT), para algún a. Por lo tanto su traza es igual a (a wT v). La traza del proyector es igual a la dimensión de su imagen. Ya se ha demostrado que no es más que unidimensional. De la definición se ve que P actúa idénticamente sobre el vector propio r para M. Así que es unidimensional. Así que elegir (wTv) = 1, implica que P = vwT.
Para cualquier matriz no negativa A su valor propio de Perron-Frobenius r satisface la desigualdad:
Esto no es específico de las matrices no negativas: para cualquier matriz A con un valor propio es cierto que . Esto es un corolario inmediato de la teorema del círculo de Gershgorin]]. Sin embargo otra prueba es más directa:
Cualquier Norma inducida por la matriz satisface la desigualdad para cualquier valor propio porque, si es un vector propio correspondiente, . La Norma del infinito de una matriz es el máximo de las sumas de las filas: Por lo tanto, la desigualdad deseada es exactamente aplicada a la matriz no negativa A.
Otra desigualdad es:
Este hecho es específico de las matrices no negativas; para las matrices generales no hay nada parecido. Dado que A es positiva (no sólo no negativa), entonces existe un vector propio positivo w tal que Aw = rw y la componente más pequeña de w (digamos wi') es 1. Entonces r = (Aw)i ≥ la suma de los números de la fila i de A. Así, la suma mínima de filas da una cota inferior para r y esta observación se puede extender a todas las matrices no negativas por continuidad.
Otra forma de argumentarlo es a través de la fórmula Collatz-Wielandt. Se toma el vector x = (1, 1, ..., 1) y se obtiene inmediatamente la desigualdad.
La prueba procede ahora utilizando la descomposición espectral. El truco aquí es separar la raíz de Perron de los otros valores propios. La proyección espectral asociada a la raíz de Perron se llama proyección de Perron y goza de la siguiente propiedad:
La proyección de Perron de una matriz cuadrada irreducible no negativa es una matriz positiva.
Las conclusiones de Perron y también (1)-(5) del teorema son corolarios de este resultado. El punto clave es que una proyección positiva siempre tiene rango uno. Esto significa que si A es una matriz cuadrada irreducible no negativa, entonces las multiplicidades algebraicas y geométricas de su raíz de Perron son ambas uno. Además, si P es su proyección de Perron, entonces AP = PA = ρ(A)P, por lo que cada columna de P es un vector propio derecho positivo de A y cada fila es un vector propio izquierdo positivo. Además, si Ax = λx entonces PAx = λPx = ρ(A)Px que significa que Px = 0 si λ ≠ ρ(A). Así, los únicos vectores propios positivos son los asociados a ρ(A). Si A es una matriz primitiva con ρ(A) = 1 entonces puede descomponerse como P ⊕ (1 - P)A de modo que An = P + (1 - P)An. A medida que n aumenta el segundo de estos términos decae a cero dejando a P como el límite de An' a medida que n → ∞.
El método de la potencia es una forma conveniente de calcular la proyección de Perron de una matriz primitiva. Si v y w son los vectores fila y columna positivos que genera, entonces la proyección de Perron es simplemente wv / vw. Las proyecciones espectrales no están claramente bloqueadas como en la forma de Jordan. Aquí están superpuestas y cada una tiene generalmente entradas complejas que se extienden a las cuatro esquinas de la matriz cuadrada. No obstante, conservan su ortogonalidad mutua, que es lo que facilita la descomposición.
El análisis cuando A es irreducible y no negativo es muy similar. La proyección de Perron sigue siendo positiva pero ahora puede haber otros valores propios de módulo ρ(A) que anulan el uso del método de la potencia y evitan que las potencias de (1 - P)A decaigan como en el caso primitivo siempre que ρ(A) = 1. Así que consideramos la proyección periférica, que es la proyección espectral de A correspondiente a todos los valores propios que tienen módulo ρ(A). Se puede demostrar entonces que la proyección periférica de una matriz cuadrada irreducible no negativa es una matriz no negativa con diagonal positiva.
Supongamos además que ρ(A) = 1 y que A tiene h valores propios en el círculo unitario. Si P es la proyección periférica entonces la matriz R = AP = PA es no negativa e irreducible, Rh' = P, y el grupo cíclico P, R, R2, ...., Rh-1 representa los armónicos de A. La proyección espectral de A en el valor propio λ sobre el círculo unitario viene dada por la fórmula . Todas estas proyecciones (incluida la de Perron) tienen la misma diagonal positiva, y además, si se elige cualquiera de ellas y se toma el módulo de cada entrada, se obtiene invariablemente la proyección de Perron. Todavía hay que hacer un poco de trabajo de burro para establecer las propiedades cíclicas (6)-(8), pero es esencialmente una cuestión de girar la manivela. La descomposición espectral de A viene dada por A = R ⊕ (1 - P)A por lo que la diferencia entre An y Rn es An -Rn = (1 - P)An representando los transitorios de An que eventualmente decaen a cero. P puede calcularse como el límite de Anh' a medida que n → ∞.
Las matrices L = , P = , T = , M = proporcionan ejemplos sencillos de lo que puede salir mal si no se cumplen las condiciones necesarias. Se ve fácilmente que las proyecciones de Perron y periférica de L son ambas iguales a P, por lo que cuando la matriz original es reducible las proyecciones pueden perder la no negatividad y no hay posibilidad de expresarlas como límites de sus potencias. La matriz T es un ejemplo de matriz primitiva con diagonal cero. Si la diagonal de una matriz cuadrada irreducible no negativa es distinta de cero, la matriz debe ser primitiva, pero este ejemplo demuestra que lo contrario es falso. M es un ejemplo de matriz con varios dientes espectrales perdidos. Si ω = eiπ/3 entonces ω6 = 1 y los valores propios de M son {1,ω2,ω3,ω4} por lo que ω y ω5 están ausentes.[cita requerida]
Un problema que causa confusión es la falta de estandarización en las definiciones. Por ejemplo, algunos autores utilizan los términos estrictamente positivo y positivo para significar > 0 y ≥ 0 respectivamente. En este artículo positivo significa > 0 y no negativo significa ≥ 0. Otro aspecto controvertido es el de la descomponibilidad y la reducibilidad: irreducible es un término sobrecargado. Para evitar dudas, a veces se dice que una matriz cuadrada no nula A tal que 1 + A es primitiva es conexa. Entonces las matrices cuadradas no negativas irreducibles y las matrices conexas son sinónimos.
El eigenvector no negativo se normaliza a menudo para que la suma de sus componentes sea igual a la unidad; en este caso, el eigenvector es el vector de una distribución de probabilidad y a veces se llama eigenvector estocástico.
El valor propio de Perron-Frobenius y el valor propio dominante son nombres alternativos para la raíz de Perron. Las proyecciones espectrales también se conocen como proyectores espectrales y idempotentes espectrales. El periodo se denomina a veces índice de imprimibilidad o orden de ciclicidad.
Escribe un comentario o lo que quieras sobre Teorema de Perron-Frobenius (directo, no tienes que registrarte)
Comentarios
(de más nuevos a más antiguos)