Décomposition propre d'une matrice - Eigendecomposition of a matrix

En algèbre linéaire , la décomposition propre est la factorisation d' une matrice en une forme canonique , dans laquelle la matrice est représentée en termes de valeurs propres et de vecteurs propres . Seules les matrices diagonalisables peuvent être factorisées de cette manière. Lorsque la matrice à factoriser est une matrice symétrique normale ou réelle , la décomposition est appelée "décomposition spectrale", dérivée du théorème spectral .

Théorie fondamentale des vecteurs et valeurs propres matriciels

Un vecteur (non nul) v de dimension N est un vecteur propre d'une matrice carrée N × N A s'il satisfait une équation linéaire de la forme

pour certains scalaire λ . Alors λ est appelée la valeur propre correspondant à v . Géométriquement parlant, les vecteurs propres de A sont les vecteurs que A s'allonge ou se rétrécit simplement, et la quantité qu'ils allongent/rétrécissent est la valeur propre. L'équation ci-dessus est appelée équation aux valeurs propres ou problème aux valeurs propres.

Cela donne une équation pour les valeurs propres

Nous appelons p ( λ ) le polynôme caractéristique , et l'équation, appelée équation caractéristique, est une équation polynomiale d'ordre N dans l'inconnue λ . Cette équation sera N de solutions distinctes, où 1 ≤ N XN . L'ensemble des solutions, c'est-à-dire les valeurs propres, est appelé le spectre de A .

Si le champ des scalaires est algébriquement clos , alors nous pouvons factoriser p comme

Le nombre entier n i est appelé la multiplicité algébrique de valeurs propres λ i . Les multiplicités algébriques somment à N : :

Pour chaque valeur propre λ i , nous avons une équation aux valeurs propres spécifique

Il y aura 1 ≤ m in i solutions linéairement indépendantes pour chaque équation aux valeurs propres. Les combinaisons linéaires des m i solutions (sauf celle qui donne le vecteur nul) sont les vecteurs propres associés à la valeur propre λ i . Le nombre entier m i est appelé la multiplicité géométrique de λ i . Il est important de garder à l'esprit que la multiplicité algébrique n i et la multiplicité géométrique m i peuvent être égales ou non, mais nous avons toujours m in i . Le cas le plus simple est bien sûr lorsque m i = n i = 1 . Le nombre total de vecteurs propres linéairement indépendants, N v , peut être calculé en additionnant les multiplicités géométriques

Les vecteurs propres peuvent être indexés par des valeurs propres, à l'aide d'un double indice, v ij étant le j ème vecteur propre pour la i ème valeur propre. Les vecteurs propres peuvent également être indexés en utilisant la notation plus simple d'un seul indice v k , avec k = 1, 2, ..., N v .

Décomposition propre d'une matrice

Soit A une matrice carrée n × n avec n vecteurs propres q i linéairement indépendants (où i = 1, ..., n ). Alors A peut être factorisé comme

Q est la matrice carrée n × n dont la i ème colonne est le vecteur propre q i de A , et Λ est la matrice diagonale dont les éléments diagonaux sont les valeurs propres correspondantes, Λ ii = λ i . Notez que seules les matrices diagonalisables peuvent être factorisées de cette manière. Par exemple, la matrice défectueuse (qui est une matrice de cisaillement ) ne peut pas être diagonalisée.

Les n vecteurs propres q i sont généralement normalisés, mais ils n'ont pas besoin de l'être. Un ensemble non normalisé de n vecteurs propres, v i peut également être utilisé comme colonnes de Q . Cela peut être compris en notant que la grandeur des vecteurs propres dans Q s'annule dans la décomposition par la présence de Q -1 .

La décomposition peut être dérivée de la propriété fondamentale des vecteurs propres :

Exemple

La matrice réelle 2 × 2 A

peut être décomposé en une matrice diagonale par multiplication d'une matrice non singulière B

Puis

pour une vraie matrice diagonale .

En multipliant les deux membres de l'équation de gauche par B :

L'équation ci-dessus peut être décomposée en deux équations simultanées :

En factorisant les valeurs propres x et y :

Location

cela nous donne deux équations vectorielles :

Et peut être représenté par une seule équation vectorielle impliquant deux solutions comme valeurs propres :

λ représente les deux valeurs propres x et y , et u représente les vecteurs a et b .

Le passage λ u sur le côté gauche et la factorisation u out

Puisque B est non singulier, il est essentiel que u soit non nul. Par conséquent,

Ainsi

nous donnant les solutions des valeurs propres pour la matrice A comme λ = 1 ou λ = 3 , et la matrice diagonale résultante de la décomposition propre de A est donc .

Remettre les solutions dans les équations simultanées ci-dessus

En résolvant les équations, on a

Ainsi la matrice B requise pour la décomposition propre de A est

C'est:

Matrice inverse via décomposition propre

Si une matrice A peut être décomposée propre et si aucune de ses valeurs propres n'est nulle, alors A est inversible et son inverse est donné par

Si est une matrice symétrique, puisqu'elle est formée à partir des vecteurs propres de celle-ci est garantie d'être une matrice orthogonale , donc . De plus, parce que Λ est une matrice diagonale , son inverse est facile à calculer :

Les implications pratiques

Lorsque la décomposition propre est utilisée sur une matrice de données réelles mesurées, l' inverse peut être moins valable lorsque toutes les valeurs propres sont utilisées sans modification dans la forme ci-dessus. En effet, lorsque les valeurs propres deviennent relativement petites, leur contribution à l'inversion est grande. Ceux proches de zéro ou au "bruit" du système de mesure auront une influence indue et pourraient entraver les solutions (détection) en utilisant l'inverse.

Deux mesures d'atténuation ont été proposées : tronquer les valeurs propres faibles ou nulles et étendre la valeur propre fiable la plus faible à celles qui lui sont inférieures.

La première méthode d'atténuation est similaire à un échantillon clairsemé de la matrice d'origine, en supprimant les composants qui ne sont pas considérés comme précieux. Cependant, si la solution ou le processus de détection est proche du niveau de bruit, la troncature peut supprimer les composants qui influencent la solution souhaitée.

La deuxième atténuation étend la valeur propre de sorte que les valeurs inférieures ont beaucoup moins d'influence sur l'inversion, mais contribuent toujours, de sorte que des solutions proches du bruit seront toujours trouvées.

La valeur propre fiable peut être trouvée en supposant que les valeurs propres de valeur extrêmement similaire et faible sont une bonne représentation du bruit de mesure (qui est supposé faible pour la plupart des systèmes).

Si les valeurs propres sont classées par rang par valeur, alors la valeur propre fiable peut être trouvée par minimisation du laplacien des valeurs propres triées :

où les valeurs propres sont indicées avec un s pour indiquer qu'elles sont triées. La position de la minimisation est la valeur propre fiable la plus basse. Dans les systèmes de mesure, la racine carrée de cette valeur propre fiable est le bruit moyen sur les composants du système.

Calcul fonctionnel

La décomposition propre permet un calcul beaucoup plus facile de séries entières de matrices. Si f  ( x ) est donné par

alors on sait que

Parce que Λ est une matrice diagonale , les fonctions de Λ sont très faciles à calculer:

Les éléments hors diagonale de f  ( Λ ) sont nuls; soit f  ( Λ ) est une matrice diagonale. Par conséquent, le calcul de f  ( A ) se réduit au simple calcul de la fonction sur chacune des valeurs propres.

Une technique similaire fonctionne plus généralement avec le calcul fonctionnel holomorphe , en utilisant

d'en haut . Encore une fois, nous trouvons que

Exemples

qui sont des exemples pour les fonctions . De plus, est la matrice exponentielle .

Décomposition pour matrices spéciales

Lorsque A est une matrice symétrique normale ou réelle , la décomposition est appelée "décomposition spectrale", dérivée du théorème spectral .

Matrices normales

Une matrice carrée à valeurs complexes A est normale (c'est-à-dire A * A = AA * , où A * est la transposée conjuguée ) si et seulement si elle peut être décomposée en

U est une matrice unitaire (c'est-à-dire U * = U −1 ) et Λ = diag( λ 1 , ..., λ n ) est une matrice diagonale . Les colonnes u 1 , ..., u n de U forment une base orthonormée et sont des vecteurs propres de A avec des valeurs propres correspondantes λ 1 , ..., λ n .

Si A est restreint à une matrice hermitienne ( A = A * ), alors Λ n'a que des entrées à valeurs réelles. Si A est restreint à une matrice unitaire, alors Λ prend toutes ses valeurs sur le cercle unité complexe, c'est-à-dire | λ i | = 1 .

Matrices symétriques réelles

Comme cas particulier, pour chaque matrice symétrique réelle n × n , les valeurs propres sont réelles et les vecteurs propres peuvent être choisis réels et orthonormés . Ainsi, une matrice symétrique réelle A peut être décomposée en

Q est une matrice orthogonale dont les colonnes sont les vecteurs propres (choisis ci-dessus, réels et orthonormés) de A , et Λ est une matrice diagonale dont les entrées sont les valeurs propres de A .

Faits utiles

Faits utiles concernant les valeurs propres

  • Le produit des valeurs propres est égal au déterminant de A
    Notez que chaque valeur propre est élevée à la puissance n i , la multiplicité algébrique .
  • La somme des valeurs propres est égale à la trace de A
    Notez que chaque valeur propre est multipliée par n i , la multiplicité algébrique .
  • Si les valeurs propres de A sont λ i , et A est inversible, alors les valeurs propres de A −1 sont simplement λ-1
    je
    .
  • Si les valeurs propres de A sont λ i , alors les valeurs propres de f  ( A ) sont simplement f  ( λ i ) , pour toute fonction holomorphe f .

Faits utiles concernant les vecteurs propres

  • Si A est hermitien et de rang complet, la base des vecteurs propres peut être choisie pour être mutuellement orthogonale . Les valeurs propres sont réelles.
  • Les vecteurs propres de A -1 sont les mêmes que les vecteurs propres de A .
  • Les vecteurs propres ne sont définis qu'à une constante multiplicative près. Autrement dit, si Av = λ v alors c v est aussi un vecteur propre pour tout scalaire c 0 . En particulier, v et e v (pour tout θ ) sont aussi des vecteurs propres.
  • Dans le cas de valeurs propres dégénérées (une valeur propre apparaissant plus d'une fois), les vecteurs propres ont une liberté de rotation supplémentaire, c'est-à-dire toute combinaison linéaire (orthonormale) de vecteurs propres partageant une valeur propre (dans le sous-espace dégénéré), sont eux-mêmes des vecteurs propres ( dans le sous-espace).

Faits utiles concernant la décomposition propre

  • A peut être décomposé propre si et seulement si le nombre de vecteurs propres linéairement indépendants, N v , est égal à la dimension d'un vecteur propre : N v = N
  • Si le champ de scalaires est algébriquement clos et si p ( λ ) n'a pas de racines répétées, qui est, si alors A peut être eigendecomposed.
  • L'énoncé « A peut être décomposé proprement » n'implique pas que A a un inverse.
  • L'énoncé « A a un inverse » n'implique pas que A puisse être décomposé proprement. Un contre-exemple est , qui est une matrice défectueuse inversible .

Faits utiles concernant la matrice inverse

  • A peut être inversé si et seulement si toutes les valeurs propres sont différentes de zéro :
  • Si λ i ≠ 0 et N v = N , l'inverse est donné par

Calculs numériques

Calcul numérique des valeurs propres

Supposons que l'on veuille calculer les valeurs propres d'une matrice donnée. Si la matrice est petite, on peut les calculer symboliquement en utilisant le polynôme caractéristique . Cependant, cela est souvent impossible pour des matrices plus grandes, auquel cas il faut utiliser une méthode numérique .

En pratique, les valeurs propres des grandes matrices ne sont pas calculées en utilisant le polynôme caractéristique. Le calcul du polynôme devient coûteux en soi, et les racines exactes (symboliques) d'un polynôme de haut degré peuvent être difficiles à calculer et à exprimer : le théorème d'Abel-Ruffini implique que les racines de polynômes de haut degré (5 ou plus) ne peuvent pas en général être exprimé simplement en utilisant les racines n ièmes. Par conséquent, les algorithmes généraux pour trouver les vecteurs propres et les valeurs propres sont itératifs .

Il existe des algorithmes numériques itératifs pour l'approximation des racines des polynômes, comme la méthode de Newton , mais en général, il est peu pratique de calculer le polynôme caractéristique et d'appliquer ensuite ces méthodes. Une des raisons est que de petites erreurs d'arrondi dans les coefficients du polynôme caractéristique peuvent conduire à de grandes erreurs dans les valeurs propres et les vecteurs propres : les racines sont une fonction extrêmement mal conditionnée des coefficients.

Une méthode itérative simple et précise est la méthode de puissance : un vecteur aléatoire v est choisi et une séquence de vecteurs unitaires est calculée comme

Cette séquence sera presque toujours converger vers un vecteur propre correspondant à la valeur propre de grandeur plus grande, à condition que v a une composante non nulle de ce vecteur propre à la base des vecteurs propres (et à condition qu'il n'y a qu'une seule valeur propre de grandeur plus). Cet algorithme simple est utile dans certaines applications pratiques ; par exemple, Google l' utilise pour calculer le classement des pages des documents dans leur moteur de recherche. De plus, la méthode de la puissance est le point de départ de nombreux algorithmes plus sophistiqués. Par exemple, en gardant non seulement le dernier vecteur de la séquence, mais en regardant plutôt l' étendue de tous les vecteurs de la séquence, on peut obtenir une meilleure approximation (convergence plus rapide) du vecteur propre, et cette idée est la base d' Arnoldi itération . Alternativement, l'important algorithme QR est également basé sur une transformation subtile d'une méthode de puissance.

Calcul numérique des vecteurs propres

Une fois les valeurs propres calculées, les vecteurs propres peuvent être calculés en résolvant l'équation

en utilisant l'élimination de Gauss ou toute autre méthode de résolution d' équations matricielles .

Cependant, dans les méthodes pratiques de valeurs propres à grande échelle, les vecteurs propres sont généralement calculés d'autres manières, en tant que sous-produit du calcul des valeurs propres. Dans l' itération de puissance , par exemple, le vecteur propre est en fait calculé avant la valeur propre (qui est généralement calculée par le quotient de Rayleigh du vecteur propre). Dans l'algorithme QR pour une matrice hermitienne (ou toute matrice normale ), les vecteurs propres orthonormés sont obtenus en tant que produit des matrices Q à partir des étapes de l'algorithme. (Pour les matrices plus générales, l'algorithme QR donne la décomposition Schur d' abord, à partir de laquelle les vecteurs propres peuvent être obtenus par une backsubstitution procédure.) Pour les matrices hermitiennes, la Diviser pour mieux régner algorithme valeur propre est plus efficace que l'algorithme QR si les deux vecteurs propres et les valeurs propres sont souhaitées.

Sujets supplémentaires

Espaces propres généralisés

Rappelons que la multiplicité géométrique d'une valeur propre peut être décrite comme la dimension de l'espace propre associé, l'espace nul de λ IA . La multiplicité algébrique peut aussi être considérée comme une dimension : c'est la dimension de l' espace propre généralisé associé (1er sens), qui est l'espace nul de la matrice ( λ IA ) k pour tout k suffisamment grand . C'est-à-dire que c'est l'espace des vecteurs propres généralisés (premier sens), où un vecteur propre généralisé est tout vecteur qui devient finalement 0 si λ IA lui est appliqué suffisamment de fois successivement. Tout vecteur propre est un vecteur propre généralisé, et donc chaque espace propre est contenu dans l'espace propre généralisé associé. Ceci fournit une preuve facile que la multiplicité géométrique est toujours inférieure ou égale à la multiplicité algébrique.

Cette utilisation ne doit pas être confondue avec le problème généralisé des valeurs propres décrit ci-dessous.

vecteur propre conjugué

Un vecteur propre ou coneigenvector conjugué est un vecteur envoyé après transformation à un multiple scalaire de son conjugué, où le scalaire est appelé valeur propre conjuguée ou coneigenvalue de la transformation linéaire. Les coneigenvectors et les coneigenvalues ​​représentent essentiellement les mêmes informations et la même signification que les vecteurs propres et valeurs propres réguliers, mais surviennent lorsqu'un système de coordonnées alternatif est utilisé. L'équation correspondante est

Par exemple, dans la théorie de la diffusion électromagnétique cohérente, la transformation linéaire A représente l'action effectuée par l'objet diffusant, et les vecteurs propres représentent les états de polarisation de l'onde électromagnétique. En optique , le système de coordonnées est défini à partir du point de vue de l'onde, connu sous le nom d' alignement de diffusion avant (FSA), et donne lieu à une équation aux valeurs propres régulière, alors qu'en radar , le système de coordonnées est défini à partir du point de vue du radar, connu sous le nom de retour. Scattering Alignment (BSA), et donne lieu à une équation de coneigenvalue.

Problème aux valeurs propres généralisé

Un problème aux valeurs propres généralisé (second sens) est le problème de trouver un vecteur v qui obéit

A et B sont des matrices. Si v obéit à cette équation, avec une certaine λ , nous appelons v le vecteur propre généralisé de A et B (dans le second sens), et λ est appelée la valeur propre généralisée de A et B (dans le second sens) qui correspond à la généralisation vecteur propre v . Les valeurs possibles de λ doivent obéir à l'équation suivante

Si n vecteurs linéairement indépendants { v 1 , ..., v n } peut être trouvé, tel que pour tout i ∈ {1, ..., n } , Av i = λ i Bv i , alors nous définissons les matrices P et D de telle sorte que

Alors l'égalité suivante est vérifiée

Et la preuve est

Et puisque P est inversible, nous multiplions l'équation de droite par son inverse, terminant la preuve.

L'ensemble de matrices de la forme A - λ B , où λ est un nombre complexe, est appelé un crayon ; le terme crayon matriciel peut également désigner le couple ( A , B ) de matrices.

Si B est inversible, alors le problème original peut être écrit sous la forme

qui est un problème aux valeurs propres standard. Cependant, dans la plupart des situations, il est préférable de ne pas effectuer l'inversion, mais plutôt de résoudre le problème des valeurs propres généralisé comme indiqué à l'origine. Ceci est particulièrement important si A et B sont des matrices hermitiennes , car dans ce cas B -1 A n'est généralement pas hermitienne et les propriétés importantes de la solution ne sont plus apparentes.

Si A et B sont tous deux symétriques ou hermitiens et que B est également une matrice définie positive , les valeurs propres λ i sont réelles et les vecteurs propres v 1 et v 2 avec des valeurs propres distinctes sont B -orthogonaux ( v 1 * Bv 2 = 0 ). Dans ce cas, les vecteurs propres peuvent être choisis pour que la matrice P définie ci-dessus satisfasse

ou ,

et il existe une base de vecteurs propres généralisés (ce n'est pas un problème défectueux ). Ce cas est parfois appelé crayon défini hermitien ou crayon défini .

Voir également

Remarques

Les références

Liens externes