Matrice (mathématiques) - Matrix (mathematics)

Une matrice m × n : les m lignes sont horizontales et les n colonnes sont verticales. Chaque élément d'une matrice est souvent désigné par une variable avec deux indices . Par exemple, un 2,1 représente l'élément de la deuxième ligne et de la première colonne de la matrice.

En mathématiques , une matrice ( matrices au pluriel ) est un tableau ou un tableau rectangulaire de nombres , de symboles ou d' expressions , disposés en lignes et en colonnes, qui est utilisé pour représenter un objet mathématique ou une propriété d'un tel objet. Par exemple,

est une matrice à deux lignes et trois colonnes ; on dit souvent une « matrice deux par trois », une « matrice 2×3 », ou une matrice de dimension 2×3 .

Sans autre spécification, les matrices représentent des applications linéaires et permettent des calculs explicites en algèbre linéaire . Par conséquent, l'étude des matrices est une grande partie de l'algèbre linéaire, et la plupart des propriétés et des opérations de l'algèbre linéaire abstraite peuvent être exprimées en termes de matrices. Par exemple, la multiplication matricielle représente la composition de cartes linéaires.

Toutes les matrices ne sont pas liées à l'algèbre linéaire. C'est notamment le cas en théorie des graphes , des matrices d'incidence et des matrices d'adjacence . Cet article se concentre sur les matrices liées à l'algèbre linéaire et, sauf indication contraire, toutes les matrices représentent des cartes linéaires ou peuvent être considérées comme telles.

Les matrices carrées , matrices avec le même nombre de lignes et de colonnes, jouent un rôle majeur dans la théorie des matrices. Les matrices carrées d'une dimension donnée forment un anneau non commutatif , qui est l'un des exemples les plus courants d'un anneau non commutatif. Le déterminant d'une matrice carrée est un nombre associé à la matrice, ce qui est fondamental pour l'étude d'une matrice carrée ; par exemple, une matrice carrée est inversible si et seulement si elle a un déterminant non nul, et les valeurs propres d'une matrice carrée sont les racines d'un déterminant polynomial .

En géométrie , les matrices sont largement utilisées pour spécifier et représenter les transformations géométriques (par exemple les rotations ) et les changements de coordonnées . En analyse numérique , de nombreux problèmes de calcul sont résolus en les réduisant à un calcul matriciel, et cela implique souvent de calculer avec des matrices de grande dimension. Les matrices sont utilisées dans la plupart des domaines des mathématiques et dans la plupart des domaines scientifiques, soit directement, soit par le biais de leur utilisation en géométrie et en analyse numérique.

Définition

Une matrice est un tableau rectangulaire de nombres (ou d'autres objets mathématiques) pour lesquels des opérations telles que l' addition et la multiplication sont définies. Le plus souvent, une matrice sur un champ F est un tableau rectangulaire de scalaires, dont chacun est membre de F . Une matrice réelle et une matrice complexe sont des matrices dont les entrées sont respectivement des nombres réels ou des nombres complexes . Des types d'entrées plus généraux sont abordés ci - dessous . Par exemple, il s'agit d'une vraie matrice :

Les nombres, symboles ou expressions de la matrice sont appelés ses entrées ou ses éléments . Les lignes horizontales et verticales des entrées dans une matrice sont appelées lignes et colonnes , respectivement.

Taille

La taille d'une matrice est définie par le nombre de lignes et de colonnes qu'elle contient. Il n'y a pas de limite au nombre de lignes et de colonnes qu'une matrice (au sens habituel) peut avoir tant qu'il s'agit d'entiers positifs. Une matrice avec m lignes et n colonnes est appelée une matrice m  × n , ou matrice m par n , tandis que m et n sont appelées ses dimensions . Par exemple, la matrice A ci-dessus est une matrice 3 × 2.    

Les matrices avec une seule ligne sont appelées vecteurs de ligne et celles avec une seule colonne sont appelées vecteurs de colonne . Une matrice avec le même nombre de lignes et de colonnes est appelée matrice carrée . Une matrice avec un nombre infini de lignes ou de colonnes (ou les deux) est appelée une matrice infinie . Dans certains contextes, tels que les programmes de calcul formel , il est utile de considérer une matrice sans lignes ni colonnes, appelée matrice vide .

Présentation d'une taille de matrice
Nom Taille Exemple La description
Vecteur de ligne 1  × n  Une matrice à une ligne, parfois utilisée pour représenter un vecteur
Vecteur colonne n  ×  1 Une matrice à une colonne, parfois utilisée pour représenter un vecteur
Matrice Carrée n  × n  Matrice avec le même nombre de lignes et de colonnes, parfois utilisée pour représenter une transformation linéaire d'un espace vectoriel vers lui-même, telle que la réflexion , la rotation ou le cisaillement .

Notation

Les matrices sont couramment écrites entre crochets ou parenthèses :

Les spécificités de la notation matricielle symbolique varient considérablement, avec certaines tendances dominantes. Les matrices sont généralement symbolisés en utilisant majuscules des lettres ( par exemple A dans les exemples ci - dessus), tandis que le correspondant minuscules lettres, avec deux indices en indice (par exemple, un 11 ou un 1,1 ), représentent les entrées. En plus d'utiliser des lettres majuscules pour symboliser les matrices, de nombreux auteurs utilisent un style typographique spécial , généralement en gras (non italique), pour mieux distinguer les matrices des autres objets mathématiques. Une notation alternative implique l'utilisation d'un double soulignement avec le nom de la variable, avec ou sans style gras (comme dans le cas de ).

L'entrée dans la i -ème ligne et la j -ème colonne d'une matrice A est parfois appelée i , j , ( i , j ) ou ( i , j ) ème entrée de la matrice, et le plus souvent désignée par a i , j ou a ij . Les notations alternatives pour cette entrée sont A [ i,j ] ou A i,j . Par exemple, l'entrée (1,3) de la matrice suivante A est 5 (aussi notée a 13 , a 1,3 , A [ 1,3 ] ou A 1,3 ) :

Parfois, les entrées d'une matrice peuvent être définies par une formule telle que a i , j = f ( i , j ). Par exemple, chacune des entrées de la matrice A suivante est déterminée par la formule a ij = ij .

Dans ce cas, la matrice elle-même est parfois définie par cette formule, entre crochets ou doubles parenthèses. Par exemple, la matrice ci-dessus est définie comme A = [ ij ], ou A = (( ij )). Si la taille de la matrice est m × n , la formule mentionnée ci-dessus f ( i , j ) est valide pour tout i = 1, ..., m et tout j = 1, ..., n . Cela peut être soit spécifié séparément, soit indiqué en utilisant m × n comme indice. Par exemple, la matrice A ci-dessus est 3 × 4, et peut être définie comme A = [ ij ] ( i = 1, 2, 3; j = 1, ..., 4), ou A = [ ij ] 3×4 .

Certains langages de programmation utilisent des tableaux à double indice (ou des tableaux de tableaux) pour représenter une matrice m -×- n . Certains langages de programmation commencent la numérotation des index des tableaux à zéro, auquel cas les entrées d'une matrice m par n sont indexées par 0 ≤ im − 1 et 0 ≤ jn − 1 . Cet article suit la convention la plus courante dans l'écriture mathématique où l'énumération commence à partir de 1.

Un astérisque est parfois utilisé pour désigner des lignes ou des colonnes entières dans une matrice. Par exemple, a i ,∗ fait référence à la i ème ligne de A , et a ∗, j fait référence à la j ème colonne de A .

L' ensemble de toutes les matrices réelles m -par- n est souvent noté ou L'ensemble de toutes les matrices m -par- n matrices sur un autre champ ou sur un anneau R , est noté de la même manière ou Si m = n , c'est-à-dire dans le cas de matrices carrées , on ne répète pas la dimension : ou Souvent, est utilisé à la place de

Opérations de base

Vidéo externe
icône vidéo Comment organiser, additionner et multiplier des matrices - Bill Shillito , TED ED

Il existe un certain nombre d'opérations de base qui peuvent être appliquées pour modifier des matrices, appelées addition matricielle , multiplication scalaire , transposition , multiplication matricielle , opérations sur les lignes et sous - matrice .

Addition, multiplication scalaire et transposition

Opérations effectuées sur les matrices
Opération Définition Exemple
Une addition La somme A + B de deux matrices m par n A et B est calculée par entrée :
( A + B ) i , j = A i , j + B i , j , où 1 im et 1 ≤ jn .

Multiplication scalaire Le produit c A d'un nombre c (également appelé scalaire dans le jargon de l'algèbre abstraite ) et d'une matrice A est calculé en multipliant chaque entrée de A par c :
( c A ) i , j = c · A i , j .

Cette opération est appelée multiplication scalaire , mais son résultat n'est pas nommé « produit scalaire » pour éviter toute confusion, puisque « produit scalaire » est parfois utilisé comme synonyme de « produit interne ».

Transposition La transposition d'un m de n matrice de A est le n de m la matrice A T (également notée A tr ou t A ) formé en tournant les lignes en colonnes et vice versa:
( A T ) i , j = A j , i .

Les propriétés familières des nombres s'étendent à ces opérations de matrices : par exemple, l'addition est commutative , c'est-à-dire que la somme matricielle ne dépend pas de l'ordre des sommations : A  + B = B + A . La transposition est compatible avec l'addition et la multiplication scalaire, exprimée par ( c A ) T = c ( A T ) et ( A + B ) T = A T + B T . Enfin, ( A T ) T = A .              

Multiplication matricielle

Représentation schématique du produit matriciel AB de deux matrices A et B .

La multiplication de deux matrices est définie si et seulement si le nombre de colonnes de la matrice de gauche est le même que le nombre de lignes de la matrice de droite. Si A est une matrice m par n et B est une matrice n par p , alors leur produit matriciel AB est la matrice m par p dont les entrées sont données par le produit scalaire de la ligne correspondante de A et de la colonne de B :

où 1 im et 1 ≤ jp . Par exemple, l'entrée soulignée 2340 dans le produit est calculée comme (2 × 1000) + (3 × 100) + (4 × 10) = 2340 :

La multiplication matricielle satisfait les règles ( AB ) C = A ( BC ) ( associativité ) et ( A + B ) C = AC + BC ainsi que C ( A + B ) = CA + CB ( distributivité gauche et droite ), chaque fois la taille des matrices est telle que les différents produits sont définis. Le produit AB peut être définie sans BA étant définie, à savoir si A et B sont m -by- n et n -by- k matrices, respectivement, et mk . Même si les deux produits sont définis, ils n'ont généralement pas besoin d'être égaux, c'est-à-dire :

ABBA ,

En d'autres termes, la multiplication matricielle n'est pas commutative , contrairement aux nombres (rationnels, réels ou complexes), dont le produit est indépendant de l'ordre des facteurs. Un exemple de deux matrices ne commutant pas l'une avec l'autre est :

tandis que

Outre la multiplication matricielle ordinaire qui vient d'être décrite, d'autres opérations moins fréquemment utilisées sur des matrices qui peuvent être considérées comme des formes de multiplication existent également, telles que le produit de Hadamard et le produit de Kronecker . Ils surviennent lors de la résolution d'équations matricielles telles que l' équation de Sylvester .

Opérations sur les lignes

Il existe trois types d'opérations sur les lignes :

  1. ajout de ligne, c'est-à-dire ajouter une ligne à une autre.
  2. multiplication de lignes, c'est-à-dire multiplier toutes les entrées d'une ligne par une constante non nulle ;
  3. commutation de rangées, c'est-à-dire échanger deux rangées d'une matrice ;

Ces opérations sont utilisées de plusieurs manières, notamment la résolution d'équations linéaires et la recherche d' inverses matriciels .

Sous-matrice

Une sous - matrice d'une matrice est obtenue en supprimant toute collection de lignes et/ou de colonnes. Par exemple, à partir de la matrice 3 x 4 suivante, nous pouvons construire une sous-matrice 2 x 3 en supprimant la ligne 3 et la colonne 2 :

Les mineurs et cofacteurs d'une matrice sont trouvés en calculant le déterminant de certaines sous-matrices.

Une sous - matrice principale est une sous-matrice carrée obtenue en supprimant certaines lignes et colonnes. La définition varie d'un auteur à l'autre. Selon certains auteurs, une sous-matrice principale est une sous-matrice dans laquelle l'ensemble d'indices de lignes qui restent est le même que l'ensemble d'indices de colonnes qui restent. D'autres auteurs définissent une sous-matrice principale comme celle dans laquelle les k premières lignes et colonnes, pour un certain nombre k , sont celles qui restent ; ce type de sous-matrice a également été appelé sous-matrice principale principale .

Équations linéaires

Les matrices peuvent être utilisées pour écrire et travailler de manière compacte avec plusieurs équations linéaires, c'est-à-dire des systèmes d'équations linéaires. Par exemple, si A est une matrice m sur n , x désigne un vecteur colonne (c'est -à-dire une matrice n × 1) de n variables x 1 , x 2 , ..., x n , et b est un m vecteur ×1 colonne, puis l'équation matricielle

est équivalent au système d'équations linéaires

En utilisant des matrices, cela peut être résolu de manière plus compacte qu'il ne serait possible en écrivant toutes les équations séparément. Si n = m et les équations sont indépendantes , alors cela peut être fait en écrivant

A -1 est la matrice inverse de A . Si A n'a pas d'inverse, les solutions, le cas échéant, peuvent être trouvées en utilisant son inverse généralisé .

Transformations linéaires

Les vecteurs représentés par une matrice 2 par 2 correspondent aux côtés d'un carré unitaire transformé en parallélogramme.

Les matrices et la multiplication matricielle révèlent leurs caractéristiques essentielles lorsqu'elles sont liées à des transformations linéaires , également appelées cartes linéaires . Une matrice réelle m par n A donne lieu à une transformation linéaire R nR m appliquant chaque vecteur x dans R n au produit (matrice) Ax , qui est un vecteur dans R m . Inversement, chaque transformation linéaire f : R nR m résulte d'une unique matrice m - par- n A : explicitement, l' entrée ( i , j ) de A est la i ème coordonnée de f ( e j ), où e j = (0,...,0,1,0,...,0) est le vecteur unitaire avec 1 à la j ème position et 0 ailleurs. On dit que la matrice A représente l'application linéaire f , et A est appelée la matrice de transformation de f .

Par exemple, la matrice 2×2

peut être considérée comme la transformation du carré unité en un parallélogramme avec des sommets à (0, 0) , ( a , b ) , ( a + c , b + d ) , et ( c , d ) . Le parallélogramme illustré à droite est obtenu en multipliant A avec chacun des vecteurs colonnes , et à son tour. Ces vecteurs définissent les sommets du carré unité.

Le tableau suivant montre plusieurs matrices réelles 2×2 avec les applications linéaires associées de R 2 . L'original bleu est mappé sur la grille et les formes vertes. L'origine (0,0) est marquée d'un point noir.

Cisaillement horizontal
avec m = 1,25.
Réflexion par l'axe vertical Mappage de compression
avec r = 3/2
Mise
à l' échelle par un facteur de 3/2
Rotation
de π /6 = 30°
Cisaillement vertical m=1.25.svg Retourner map.svg Presser r=1.5.svg Mise à l'échelle de 1.5.svg Rotation par pi sur 6.svg

Sous la correspondance 1 à 1 entre les matrices et les cartes linéaires, la multiplication matricielle correspond à la composition des cartes : si une matrice k -par- m B représente une autre application linéaire g : R mR k , alors la composition gf est représenté par BA depuis

( Gf ) ( x ) = g ( f ( x )) = g ( Ax ) = B ( Ax ) = ( BA ) x .

La dernière égalité découle de l'associativité mentionnée ci-dessus de la multiplication matricielle.

Le rang d'une matrice A est le nombre maximum de vecteurs ligne linéairement indépendants de la matrice, qui est le même que le nombre maximum de vecteurs colonne linéairement indépendants. De manière équivalente c'est la dimension de l' image de l'application linéaire représentée par A . Le théorème rang-nullité indique que la dimension du noyau d'une matrice plus le rang est égal au nombre de colonnes de la matrice.

Matrice Carrée

Une matrice carrée est une matrice avec le même nombre de lignes et de colonnes. Une matrice n par n est appelée matrice carrée d'ordre n. Deux matrices carrées du même ordre peuvent être additionnées et multipliées. Les entrées a ii forment la diagonale principale d'une matrice carrée. Ils se trouvent sur la ligne imaginaire qui va du coin supérieur gauche au coin inférieur droit de la matrice.

Types principaux

Nom Exemple avec n = 3
Matrice diagonale
Matrice triangulaire inférieure
Matrice triangulaire supérieure

Matrice diagonale et triangulaire

Si toutes les entrées de A en dessous de la diagonale principale sont nulles, A est appelée matrice triangulaire supérieure . De même, si toutes les entrées de A au-dessus de la diagonale principale sont nulles, A est appelée une matrice triangulaire inférieure . Si toutes les entrées en dehors de la diagonale principale sont nulles, A est appelée une matrice diagonale .

Matrice d'identité

La matrice identité I n de taille n est la matrice n- par- n dans laquelle tous les éléments de la diagonale principale sont égaux à 1 et tous les autres éléments sont égaux à 0, par exemple,

C'est une matrice carrée d'ordre n , et aussi un type particulier de matrice diagonale . On l'appelle une matrice identité car la multiplication avec elle laisse une matrice inchangée :

AI n = I m A = A pour toutematrice m par n A .

Un multiple scalaire non nul d'une matrice identité est appelé matrice scalaire . Si les entrées matricielles proviennent d'un champ, les matrices scalaires forment un groupe, sous multiplication matricielle, isomorphe au groupe multiplicatif des éléments non nuls du champ.

Matrice symétrique ou antisymétrique

Une matrice carrée A égale à sa transposée, c'est-à-dire A = A T , est une matrice symétrique . Si au contraire A est égal à la négative de sa transposée, c'est-à-dire A = − A T , alors A est une matrice antisymétrique . Dans les matrices complexes, la symétrie est souvent remplacé par le concept de matrices hermitiennes qui satisfont A * = A , où l'étoile ou astérisque désigne la transposée conjuguée de la matrice, qui est, la transposition du complexe conjugué de A .

Par le théorème spectral , les matrices symétriques réelles et les matrices hermitiennes complexes ont une base propre ; c'est-à-dire que chaque vecteur est exprimable comme une combinaison linéaire de vecteurs propres. Dans les deux cas, toutes les valeurs propres sont réelles. Ce théorème peut être généralisé à des situations de dimension infinie liées à des matrices avec une infinité de lignes et de colonnes, voir ci - dessous .

Matrice inversible et son inverse

Une matrice carrée A est dite inversible ou non singulière s'il existe une matrice B telle que

AB = BA = I n ,

I n est la matrice identité n × n avec des 1 sur la diagonale principale et des 0 ailleurs. Si B existe, elle est unique et est appelée matrice inverse de A , notée A -1 .

Matrice définie

Matrice définie positive Matrice indéfinie
Q ( x , y ) = 1/4 x 2 + y 2 Q ( x , y ) =1/4 x 2 − 1/4 y 2
Ellipse dans le système de coordonnées avec des demi-axes étiquetés.svg
Points tels que Q ( x , y )=1
( Ellipse ).
Hyperbole2 SVG.svg
Points tels que Q ( x , y )=1
( Hyperbole ).

Une matrice réelle symétrique A est dite positive-définie si la forme quadratique associée

f ( x ) = x T A  x

a une valeur positive pour tout vecteur x non nul dans R n . Si f ( x ) ne donne que des valeurs négatives, alors A est défini négativement ; si f produit à la fois des valeurs négatives et positives, alors A est indéfini . Si la forme quadratique f ne donne que des valeurs non négatives (positives ou nulles), la matrice symétrique est dite positive-semi-définie (ou si seulement des valeurs non positives, alors négative-semi-définie) ; la matrice est donc indéfinie précisément lorsqu'elle n'est ni semi-définie positive ni semi-définie négative.

Une matrice symétrique est positive-définie si et seulement si toutes ses valeurs propres sont positives, c'est-à-dire que la matrice est positive-semi-définie et elle est inversible. Le tableau à droite montre deux possibilités pour les matrices 2 par 2.

En admettant en entrée deux vecteurs différents, on obtient à la place la forme bilinéaire associée à A :

B A ( x , y ) = x T Ay .

Dans le cas des matrices complexes, la même terminologie et les résultats sont applicables, avec matrice symétrique , forme quadratique , forme bilinéaire , et transposer x T remplacées respectivement par matrice hermitienne , forme hermitienne , forme sesquilinéaire , et le conjugué transposé x H .

Matrice orthogonale

Une matrice orthogonale est une matrice carrée avec des entrées réelles dont les colonnes et les lignes sont des vecteurs unitaires orthogonaux (c'est-à-dire des vecteurs orthonormés ). De manière équivalente, une matrice A est orthogonale si sa transposée est égale à son inverse :

ce qui implique

I n est la matrice identité de taille n .

Une matrice orthogonale A est nécessairement inversible (avec inverse A −1 = A T ), unitaire ( A −1 = A * ), et normale ( A * A = AA * ). Le déterminant de toute matrice orthogonale est soit +1 soit -1 . Une matrice orthogonale spéciale est une matrice orthogonale de déterminant +1. En tant que transformation linéaire , toute matrice orthogonale de déterminant +1 est une rotation pure sans réflexion, c'est-à-dire que la transformation conserve l'orientation de la structure transformée, tandis que toute matrice orthogonale de déterminant -1 inverse l'orientation, c'est-à-dire est une composition d'un réflexion pure et une rotation (éventuellement nulle). Les matrices identités ont le déterminant 1 , et sont de pures rotations d'un angle zéro.

L' analogue complexe d'une matrice orthogonale est une matrice unitaire .

Principales opérations

Trace

La trace , tr( A ) d'une matrice carrée A est la somme de ses entrées diagonales. Alors que la multiplication matricielle n'est pas commutative comme mentionné ci - dessus , la trace du produit de deux matrices est indépendante de l'ordre des facteurs :

tr( AB ) = tr( BA ).

Ceci est immédiat à partir de la définition de la multiplication matricielle :

Il s'ensuit que la trace du produit de plus de deux matrices est indépendante des permutations cycliques des matrices, cependant cela ne s'applique généralement pas aux permutations arbitraires (par exemple, tr( ABC ) ≠ tr( BAC ), en général). De plus, la trace d'une matrice est égale à celle de sa transposée, c'est-à-dire

tr( A ) = tr( A T ) .

Déterminant

Une transformation linéaire sur R 2 donnée par la matrice indiquée. Le déterminant de cette matrice est -1, car l'aire du parallélogramme vert à droite est 1, mais la carte inverse l' orientation , puisqu'elle transforme l'orientation antihoraire des vecteurs en une orientation horaire.

Le déterminant d'une matrice carrée A (notée det( A ) ou | A |) est un nombre codant certaines propriétés de la matrice. Une matrice est inversible si et seulement si son déterminant est non nul. Sa valeur absolue est égale à l'aire (en R 2 ) ou au volume (en R 3 ) de l'image du carré (ou du cube) unité, tandis que son signe correspond à l'orientation de l'application linéaire correspondante : le déterminant est positif si et seulement si l'orientation est conservée.

Le déterminant des matrices 2 par 2 est donné par

Le déterminant des matrices 3-par-3 fait intervenir 6 termes ( règle de Sarrus ). La formule de Leibniz plus longue généralise ces deux formules à toutes les dimensions.

Le déterminant d'un produit de matrices carrées est égal au produit de leurs déterminants :

det( AB ) = det( A ) · det( B ).

L'ajout d'un multiple de n'importe quelle ligne à une autre ligne ou d'un multiple de n'importe quelle colonne à une autre colonne ne modifie pas le déterminant. L'échange de deux lignes ou de deux colonnes affecte le déterminant en le multipliant par -1. En utilisant ces opérations, toute matrice peut être transformée en une matrice triangulaire inférieure (ou supérieure), et pour de telles matrices, le déterminant est égal au produit des entrées sur la diagonale principale ; ceci fournit une méthode pour calculer le déterminant de n'importe quelle matrice. Enfin, le développement de Laplace exprime le déterminant en termes de mineurs , c'est-à-dire des déterminants de matrices plus petites. Ce développement peut être utilisé pour une définition récursive des déterminants (en prenant comme cas de départ le déterminant d'une matrice 1 sur 1, qui est son unique entrée, ou encore le déterminant d'une matrice 0 sur 0, qui vaut 1) , qui peut être considérée comme équivalente à la formule de Leibniz. Les déterminants peuvent être utilisés pour résoudre des systèmes linéaires à l' aide de la règle de Cramer , où la division des déterminants de deux matrices carrées liées équivaut à la valeur de chacune des variables du système.

Valeurs propres et vecteurs propres

Un nombre λ et un vecteur v non nul satisfaisant

sont respectivement appelées valeur propre et vecteur propre de A . Le nombre λ est une valeur propre d'une n × n -matrice A si et seulement si A −λ I n n'est pas inversible, ce qui équivaut à

Le polynôme p A dans un X indéterminé donné par l'évaluation du déterminant det( X I nA ) est appelé le polynôme caractéristique de A . C'est un polynôme monique de degré n . L'équation polynomiale p A (λ) = 0 a donc au plus n solutions différentes, c'est-à-dire valeurs propres de la matrice. Ils peuvent être complexes même si les entrées de A sont réelles. Selon le théorème de Cayley-Hamilton , p A ( A ) = 0 , c'est-à-dire que le résultat de la substitution de la matrice elle-même dans son propre polynôme caractéristique donne la matrice zéro .   

Aspects informatiques

Les calculs matriciels peuvent souvent être effectués avec différentes techniques. De nombreux problèmes peuvent être résolus par des algorithmes directs ou des approches itératives. Par exemple, les vecteurs propres d'une matrice carrée peuvent être obtenus en trouvant une séquence de vecteurs x n convergeant vers un vecteur propre lorsque n tend vers l' infini .

Pour choisir l'algorithme le plus approprié pour chaque problème spécifique, il est important de déterminer à la fois l'efficacité et la précision de tous les algorithmes disponibles. Le domaine étudiant ces matières s'appelle l'algèbre linéaire numérique . Comme pour d'autres situations numériques, deux aspects principaux sont la complexité des algorithmes et leur stabilité numérique .

Déterminer la complexité d'un algorithme signifie trouver des limites supérieures ou des estimations du nombre d'opérations élémentaires telles que des additions et des multiplications de scalaires sont nécessaires pour exécuter un algorithme, par exemple, la multiplication de matrices . Le calcul du produit matriciel de deux matrices n par n en utilisant la définition donnée ci-dessus nécessite n 3 multiplications, car pour n'importe laquelle des n 2 entrées du produit, n multiplications sont nécessaires. L' algorithme de Strassen surpasse cet algorithme « naïf » ; il n'a besoin que de n 2,807 multiplications. Une approche affinée intègre également des caractéristiques spécifiques des dispositifs informatiques.

Dans de nombreuses situations pratiques, des informations supplémentaires sur les matrices impliquées sont connues. Un cas important est celui des matrices creuses , c'est-à-dire des matrices dont la plupart des entrées sont nulles. Il existe des algorithmes spécifiquement adaptés pour, par exemple, résoudre des systèmes linéaires Ax = b pour des matrices creuses A , comme la méthode du gradient conjugué .

Un algorithme est, grosso modo, numériquement stable, si de petits écarts dans les valeurs d'entrée ne conduisent pas à de grands écarts dans le résultat. Par exemple, calculer l'inverse d'une matrice via le développement de Laplace (adj( A ) désigne la matrice adjugée de A )

A -1 = adj( A ) / det( A )

peut conduire à des erreurs d'arrondi importantes si le déterminant de la matrice est très petit. La norme d'une matrice peut être utilisée pour capturer le conditionnement de problèmes algébriques linéaires, tels que le calcul de l'inverse d'une matrice.

La plupart des langages de programmation informatique prennent en charge les tableaux mais ne sont pas conçus avec des commandes intégrées pour les matrices. Au lieu de cela, les bibliothèques externes disponibles fournissent des opérations matricielles sur les tableaux, dans presque tous les langages de programmation actuellement utilisés. La manipulation matricielle a été l'une des premières applications numériques des ordinateurs. Le Dartmouth BASIC original avait des commandes intégrées pour l'arithmétique matricielle sur les tableaux à partir de sa deuxième édition en 1964. Dès les années 1970, certains ordinateurs de bureau d'ingénierie tels que le HP 9830 avaient des cartouches ROM pour ajouter des commandes BASIC pour les matrices . Certains langages informatiques tels que APL ont été conçus pour manipuler des matrices, et divers programmes mathématiques peuvent être utilisés pour faciliter le calcul avec des matrices.

Décomposition

Il existe plusieurs méthodes pour rendre les matrices sous une forme plus facilement accessible. Elles sont généralement appelées techniques de décomposition matricielle ou de factorisation matricielle . L'intérêt de toutes ces techniques est qu'elles préservent certaines propriétés des matrices en question, telles que le déterminant, le rang ou l'inverse, de sorte que ces quantités puissent être calculées après application de la transformation, ou que certaines opérations matricielles soient algorithmiquement plus faciles à réaliser pour certains types de matrices.

Les matrices de facteurs de décomposition LU en tant que produit des matrices triangulaires inférieure ( L ) et supérieure ( U ). Une fois cette décomposition calculée, les systèmes linéaires peuvent être résolus plus efficacement, par une technique simple appelée substitution avant et arrière . De même, les inverses de matrices triangulaires sont algorithmiquement plus faciles à calculer. L' élimination de Gauss est un algorithme similaire ; il transforme n'importe quelle matrice sous forme d'échelon de ligne . Les deux méthodes procèdent en multipliant la matrice par des matrices élémentaires appropriées , qui correspondent à permuter des lignes ou des colonnes et à ajouter des multiples d'une ligne à une autre. Décomposition en valeurs singulières exprime toute matrice A en tant que produit UDV * , où U et V sont des matrices unitaires et D est une matrice diagonale.

Un exemple de matrice sous forme normale de Jordan. Les blocs gris sont appelés blocs Jordan.

La décomposition propre ou la diagonalisation exprime A comme un produit VDV -1 , où D est une matrice diagonale et V est une matrice inversible appropriée. Si A peut s'écrire sous cette forme, il est dit diagonalisable . Plus généralement, et applicable à toutes les matrices, la décomposition de Jordan transforme une matrice en forme normale de Jordan , c'est-à-dire des matrices dont les seules entrées non nulles sont les valeurs propres λ 1 à λ n de A , placées sur la diagonale principale et éventuellement des entrées égales à un directement au-dessus de la diagonale principale, comme indiqué à droite. Compte tenu de la eigendecomposition, la n ième puissance de A (qui est, n -fois la multiplication matrice itérée) peut être calculée par l' intermédiaire de

A n = ( VDV −1 ) n = VDV −1 VDV −1 ... VDV −1 = VD n V −1

et la puissance d'une matrice diagonale peut être calculée en prenant les puissances correspondantes des entrées diagonales, ce qui est beaucoup plus facile que de faire l'exponentiation pour A à la place. Ceci peut être utilisé pour calculer l' exponentielle de matrice e A , un besoin fréquemment rencontré dans la résolution d' équations différentielles linéaires , de logarithmes matriciels et de racines carrées de matrices . Pour éviter des situations numériquement mal conditionnées , d'autres algorithmes tels que la décomposition de Schur peuvent être utilisés.

Aspects algébriques abstraits et généralisations

Les matrices peuvent être généralisées de différentes manières. L'algèbre abstraite utilise des matrices avec des entrées dans des domaines plus généraux ou même des anneaux , tandis que l'algèbre linéaire codifie les propriétés des matrices dans la notion d'applications linéaires. Il est possible de considérer des matrices avec une infinité de colonnes et de lignes. Une autre extension est les tenseurs , qui peuvent être considérés comme des tableaux de nombres de dimensions supérieures, par opposition aux vecteurs, qui peuvent souvent être réalisés comme des séquences de nombres, tandis que les matrices sont des tableaux de nombres rectangulaires ou bidimensionnels. Les matrices, soumises à certaines exigences, ont tendance à former des groupes appelés groupes matriciels. De même, dans certaines conditions, les matrices forment des anneaux appelés anneaux matriciels . Bien que le produit des matrices ne soit pas en général commutatif, certaines matrices forment des champs appelés champs matriciels .

Matrices avec des entrées plus générales

Cet article se concentre sur les matrices dont les entrées sont des nombres réels ou complexes. Cependant, les matrices peuvent être considérées avec des types d'entrées beaucoup plus généraux que les nombres réels ou complexes. Comme première étape de généralisation, tout champ , c'est-à-dire un ensemble où les opérations d' addition , de soustraction , de multiplication et de division sont définies et bien conduites, peut être utilisé à la place de R ou C , par exemple des nombres rationnels ou des corps finis . Par exemple, la théorie du codage utilise des matrices sur des corps finis. Partout où les valeurs propres sont considérées, comme ce sont les racines d'un polynôme, elles peuvent n'exister que dans un domaine plus grand que celui des entrées de la matrice ; par exemple, ils peuvent être complexes dans le cas d'une matrice à entrées réelles. La possibilité de réinterpréter les entrées d'une matrice comme des éléments d'un champ plus vaste (par exemple, pour visualiser une matrice réelle comme une matrice complexe dont les entrées sont toutes réelles) permet alors de considérer que chaque matrice carrée possède un ensemble complet de valeurs propres. Alternativement, on ne peut considérer que des matrices avec des entrées dans un champ algébriquement clos , comme C , dès le départ.

Plus généralement, les matrices à entrées dans un anneau R sont largement utilisées en mathématiques. Les anneaux sont une notion plus générale que les champs en ce sens qu'une opération de division n'a pas besoin d'exister. Les mêmes opérations d'addition et de multiplication de matrices s'étendent également à ce paramètre. L'ensemble M( n , R ) (également noté M n (R)) de toutes les matrices carrées n - par n sur R est un anneau appelé anneau matriciel , isomorphe à l' anneau d'endomorphisme du R - module gauche R n . Si l'anneau R est commutatif , c'est-à-dire que sa multiplication est commutative, alors M( n , R ) est une algèbre associative unitaire non commutative (sauf si n = 1) sur R . Le déterminant des matrices carrées sur un anneau commutatif R peut encore être défini en utilisant la formule de Leibniz ; une telle matrice est inversible si et seulement si son déterminant est inversible dans R , généralisant la situation sur un corps F , où tout élément non nul est inversible. Les matrices sur superanneaux sont appelées supermatrices .

Les matrices n'ont pas toujours toutes leurs entrées dans le même anneau  - ou même dans n'importe quel anneau du tout. Un cas particulier mais courant est celui des matrices de blocs , qui peuvent être considérées comme des matrices dont les entrées elles-mêmes sont des matrices. Les entrées n'ont pas besoin d'être des matrices carrées, et donc n'ont pas besoin d'être membres d'un anneau ; mais leurs tailles doivent remplir certaines conditions de compatibilité.

Relation avec les cartes linéaires

Les applications linéaires R nR m sont équivalentes aux matrices m par n , comme décrit ci - dessus . Plus généralement, toute application linéaire f : VW entre espaces vectoriels de dimension finie peut être décrite par une matrice A = ( a ij ), après avoir choisi les bases v 1 , ..., v n de V , et w 1 , . .., w m de W (donc n est la dimension de V et m est la dimension de W ), ce qui est tel que

Autrement dit, la colonne j de A exprime l'image de v j en fonction des vecteurs de base w i de W ; donc cette relation détermine de manière unique les entrées de la matrice A . La matrice dépend du choix des bases : différents choix de bases donnent lieu à des matrices différentes, mais équivalentes . Un grand nombre des notions de béton ci - dessus peuvent être réinterprété dans cette lumière, par exemple, la matrice transposée A T décrit la transposée de la carte linéaire donnée par A , par rapport aux deux bases .

Ces propriétés peuvent être reformulées plus naturellement : la catégorie de toutes les matrices avec des entrées dans un champ avec la multiplication comme composition est équivalente à la catégorie des espaces vectoriels de dimension finie et des applications linéaires sur ce champ.

Plus généralement, l'ensemble des matrices m × n peut être utilisé pour représenter les applications R -linéaires entre les modules libres R m et R n pour un anneau arbitraire R avec unité. Lorsque n  = m la composition de ces cartes est possible, et cela donne lieu à l' anneau matriciel de n × n matrices représentant l' anneau d'endomorphisme de R n .  

Groupes matriciels

Un groupe est une structure mathématique constituée d'un ensemble d'objets avec une opération binaire , c'est-à-dire une opération combinant deux objets quelconques à un troisième, sous réserve de certaines exigences. Un groupe dans lequel les objets sont des matrices et l'opération de groupe est la multiplication matricielle est appelé groupe matriciel . Puisqu'un groupe, chaque élément doit être inversible, les groupes matriciels les plus généraux sont les groupes de toutes les matrices inversibles d'une taille donnée, appelés groupes linéaires généraux .

Toute propriété des matrices conservée sous les produits matriciels et les inverses peut être utilisée pour définir d'autres groupes de matrices. Par exemple, les matrices avec une taille donnée et avec un déterminant de 1 forment un sous - groupe de (c'est-à-dire un groupe plus petit contenu dans) leur groupe linéaire général, appelé groupe linéaire spécial . Matrices orthogonales , déterminées par la condition

M T M = je ,

forment le groupe orthogonal . Toute matrice orthogonale a le déterminant 1 ou -1. Les matrices orthogonales de déterminant 1 forment un sous-groupe appelé groupe orthogonal spécial .

Tout groupe fini est isomorphe à un groupe matriciel, comme on peut le voir en considérant la représentation régulière du groupe symétrique . Les groupes généraux peuvent être étudiés à l'aide de groupes matriciels, qui sont relativement bien compris, au moyen de la théorie des représentations .

Matrices infinies

Il est également possible de considérer des matrices avec une infinité de lignes et/ou de colonnes même si, étant des objets infinis, on ne peut pas écrire explicitement de telles matrices. Tout ce qui compte, c'est que pour chaque élément des lignes d'indexation d'ensemble et chaque élément des colonnes d'indexation d'ensemble, il existe une entrée bien définie (ces ensembles d'index n'ont même pas besoin d'être des sous-ensembles des nombres naturels). Les opérations de base d'addition, de soustraction, de multiplication scalaire et de transposition peuvent toujours être définies sans problème ; cependant, la multiplication matricielle peut impliquer des sommations infinies pour définir les entrées résultantes, et celles-ci ne sont pas définies en général.

Si R est un anneau quelconque avec l'unité, alors l'anneau des endomorphismes d' un module R droit est isomorphe à l'anneau des matrices finies colonnes dont les entrées sont indexées par , et dont les colonnes ne contiennent chacune qu'un nombre fini d'entrées non nulles. Les endomorphismes de M considérés comme un module R gauche aboutissent à un objet analogue, les matrices finies rangées dont les rangées n'ont chacune qu'un nombre fini d'entrées non nulles.

Si des matrices infinies sont utilisées pour décrire des cartes linéaires, alors seules les matrices peuvent être utilisées dont toutes les colonnes n'ont qu'un nombre fini d'entrées non nulles, pour la raison suivante. Pour qu'une matrice A décrive une application linéaire f : VW , les bases des deux espaces doivent avoir été choisies ; rappelons que, par définition, cela signifie que chaque vecteur dans l'espace peut être écrit uniquement comme une combinaison linéaire (finie) de vecteurs de base, de sorte qu'écrit comme un vecteur (colonne) v de coefficients , seules un nombre fini d'entrées v i sont non nuls. Maintenant, les colonnes de A décrivent les images par f des vecteurs de base individuels de V dans la base de W , ce qui n'a de sens que si ces colonnes n'ont qu'un nombre fini d'entrées non nulles. Il n'y a cependant aucune restriction sur les lignes de A : dans le produit A · v, il n'y a qu'un nombre fini de coefficients non nuls de v impliqués, donc chacune de ses entrées, même si elle est donnée comme une somme infinie de produits, n'implique qu'un nombre fini de nombreux termes non nuls et est donc bien défini. De plus, cela revient à former une combinaison linéaire des colonnes de A qui n'implique effectivement qu'un nombre fini d'entre elles, d'où le résultat n'a qu'un nombre fini d'entrées non nulles parce que chacune de ces colonnes le fait. Les produits de deux matrices du type donné sont bien définis (à condition que les ensembles d'indice de colonne et d'indice de ligne correspondent), sont du même type et correspondent à la composition de cartes linéaires.  

Si R est un anneau normé , alors la condition de finitude de ligne ou de colonne peut être relâchée. Avec la norme en place, des séries absolument convergentes peuvent être utilisées au lieu de sommes finies. Par exemple, les matrices dont les sommes de colonnes sont des suites absolument convergentes forment un anneau. De manière analogue, les matrices dont les sommes de lignes sont des séries absolument convergentes forment également un anneau.

Les matrices infinies peuvent également être utilisées pour décrire des opérateurs sur les espaces de Hilbert , où se posent des questions de convergence et de continuité , ce qui entraîne à nouveau certaines contraintes qui doivent être imposées. Cependant, le point de vue explicite des matrices tend à obscurcir la question, et les outils abstraits et plus puissants de l'analyse fonctionnelle peuvent être utilisés à la place.

Matrice vide

Une matrice vide est une matrice dans laquelle le nombre de lignes ou de colonnes (ou les deux) est égal à zéro. Les matrices vides aident à traiter les cartes impliquant l' espace vectoriel nul . Par exemple, si A est une matrice 3-par-0 et B est une matrice 0-par-3, alors AB est la matrice zéro 3-par-3 correspondant à la carte nulle d'un espace tridimensionnel V à lui-même, tandis que BA est une matrice 0 par 0. Il n'y a pas de notation commune pour les matrices vides, mais la plupart des systèmes de calcul formel permettent de créer et de calculer avec elles. Le déterminant de la matrice 0-par-0 est 1 comme suit en ce qui concerne le produit vide apparaissant dans la formule de Leibniz pour le déterminant comme 1. Cette valeur est également cohérente avec le fait que la carte d'identité de tout espace de dimension finie à elle-même a déterminant  1, un fait qui est souvent utilisé dans le cadre de la caractérisation des déterminants.

Applications

Il existe de nombreuses applications des matrices, à la fois en mathématiques et dans d'autres sciences. Certains d'entre eux profitent simplement de la représentation compacte d'un ensemble de nombres dans une matrice. Par exemple, en théorie des jeux et en économie , la matrice de gains encode le gain pour deux joueurs, en fonction de laquelle parmi un ensemble (fini) donné d'alternatives les joueurs choisissent. L'exploration de texte et la compilation automatisée de thésaurus utilisent des matrices document-terme telles que tf-idf pour suivre les fréquences de certains mots dans plusieurs documents.

Les nombres complexes peuvent être représentés par des matrices réelles 2 par 2 particulières via

sous laquelle l'addition et la multiplication de nombres complexes et de matrices se correspondent. Par exemple, les matrices de rotation 2 par 2 représentent la multiplication avec un nombre complexe de valeur absolue 1, comme ci-dessus . Une interprétation similaire est possible pour les quaternions et les algèbres de Clifford en général.

Les premières techniques de cryptage telles que le chiffrement de Hill utilisaient également des matrices. Cependant, en raison de la nature linéaire des matrices, ces codes sont relativement faciles à casser. L'infographie utilise des matrices à la fois pour représenter des objets et pour calculer des transformations d'objets à l'aide de matrices de rotation affines pour accomplir des tâches telles que la projection d'un objet tridimensionnel sur un écran bidimensionnel, correspondant à une observation théorique par caméra. Les matrices sur un anneau polynomial sont importantes dans l'étude de la théorie du contrôle .

La chimie utilise des matrices de diverses manières, en particulier depuis l'utilisation de la théorie quantique pour discuter de la liaison moléculaire et de la spectroscopie . Des exemples sont la matrice de chevauchement et la matrice de Fock utilisées pour résoudre les équations de Roothaan pour obtenir les orbitales moléculaires de la méthode Hartree-Fock .

La théorie des graphes

Un graphe non orienté avec une matrice d'adjacence :

La matrice d'adjacence d'un graphe fini est une notion de base de la théorie des graphes . Il enregistre quels sommets du graphe sont reliés par une arête. Les matrices contenant seulement deux valeurs différentes (1 et 0 signifiant par exemple "oui" et "non", respectivement) sont appelées matrices logiques . La matrice de distance (ou de coût) contient des informations sur les distances des bords. Ces concepts peuvent être appliqués à des sites Web reliés par des hyperliens ou à des villes reliées par des routes, etc., auquel cas (à moins que le réseau de connexion ne soit extrêmement dense), les matrices ont tendance à être clairsemées , c'est-à-dire qu'elles contiennent peu d'entrées différentes de zéro. Par conséquent, des algorithmes matriciels spécialement adaptés peuvent être utilisés dans la théorie des réseaux .

Analyse et géométrie

La matrice Hessian d'une fonction différentiable ƒ : R nR comprend les dérivées secondes de ƒ par rapport à la plusieurs directions de coordonnées, qui est,

Au point selle ( x  =  0, y  =  0) (rouge) de la fonction f ( x ,− y ) = x 2y 2 , la matrice hessienne est indéfinie .   

Il code des informations sur le comportement de croissance locale de la fonction : étant donné un point critique x  =  ( x 1 ,  ..., x n ), c'est-à-dire un point où les premières dérivées partielles de ƒ s'annulent, la fonction a un minimum local si la matrice hessienne est définie positive . La programmation quadratique peut être utilisée pour trouver des minima ou des maxima globaux de fonctions quadratiques étroitement liées à celles attachées aux matrices (voir ci - dessus ).  

Une autre matrice fréquemment utilisée dans les situations géométriques est la matrice de Jacobi d'une application dérivable f : R nR m . Si f 1 , ..., f m désignent les composantes de f , alors la matrice de Jacobi est définie comme

Si n > m , et si le rang de la matrice de Jacobi atteint sa valeur maximale m , f est localement inversible en ce point, par le théorème implicite de la fonction .

Les équations aux dérivées partielles peuvent être classées en considérant la matrice des coefficients des opérateurs différentiels d'ordre le plus élevé de l'équation. Pour les équations aux dérivées partielles elliptiques, cette matrice est définie positive, ce qui a une influence décisive sur l'ensemble des solutions possibles de l'équation en question.

La méthode des éléments finis est une méthode numérique importante pour résoudre les équations aux dérivées partielles, largement appliquée dans la simulation de systèmes physiques complexes. Il tente d'approcher la solution de certaines équations par des fonctions linéaires par morceaux, où les morceaux sont choisis en fonction d'une grille suffisamment fine, qui à son tour peut être refondue en une équation matricielle.

Théorie des probabilités et statistiques

Deux chaînes de Markov différentes. Le graphique représente le nombre de particules (sur un total de 1000) à l'état "2". Les deux valeurs limites peuvent être déterminées à partir des matrices de transition, qui sont données par (rouge) et (noir).

Les matrices stochastiques sont des matrices carrées dont les lignes sont des vecteurs de probabilité , c'est-à-dire dont les entrées sont non négatives et totalisent un. Les matrices stochastiques sont utilisées pour définir des chaînes de Markov avec un nombre fini d'états. Une ligne de la matrice stochastique donne la distribution de probabilité pour la prochaine position d'une particule actuellement dans l'état qui correspond à la ligne. Les propriétés des états absorbants de type chaîne de Markov , c'est-à-dire les états que toute particule atteint finalement, peuvent être lues à partir des vecteurs propres des matrices de transition.

La statistique utilise également des matrices sous de nombreuses formes différentes. Les statistiques descriptives concernent la description d'ensembles de données, qui peuvent souvent être représentés sous forme de matrices de données , qui peuvent ensuite être soumises à des techniques de réduction de dimensionnalité . La matrice de covariance code la variance mutuelle de plusieurs variables aléatoires . Une autre technique utilisant des matrices est celle des moindres carrés linéaires , une méthode qui approche un ensemble fini de paires ( x 1 , y 1 ), ( x 2 , y 2 ), ..., ( x N , y N ), par une fonction linéaire

y iaxe i + b , i = 1, ..., N

qui peut être formulée en termes de matrices, liées à la décomposition en valeurs singulières des matrices.

Les matrices aléatoires sont des matrices dont les entrées sont des nombres aléatoires, soumis à des distributions de probabilité appropriées , telles que la distribution normale matricielle . Au-delà de la théorie des probabilités, elles sont appliquées dans des domaines allant de la théorie des nombres à la physique .

Symétries et transformations en physique

Les transformations linéaires et les symétries associées jouent un rôle clé dans la physique moderne. Par exemple, les particules élémentaires dans la théorie quantique des champs sont classées comme des représentations du groupe de Lorentz de la relativité restreinte et, plus précisément, par leur comportement sous le groupe de spin . Les représentations concrètes impliquant les matrices de Pauli et plus généralement les matrices gamma font partie intégrante de la description physique des fermions , qui se comportent comme des spineurs . Pour les trois quarks les plus légers , il existe une représentation théorique des groupes impliquant le groupe unitaire spécial SU(3) ; pour leurs calculs, les physiciens utilisent une représentation matricielle pratique connue sous le nom de matrices de Gell-Mann , qui sont également utilisées pour le groupe de jauge SU(3) qui constitue la base de la description moderne des interactions nucléaires fortes, la chromodynamique quantique . La matrice de Cabibbo-Kobayashi-Maskawa , à son tour, exprime le fait que les états de quark de base qui sont importants pour les interactions faibles ne sont pas les mêmes, mais linéairement liés aux états de quark de base qui définissent les particules avec des masses spécifiques et distinctes .

Combinaisons linéaires d'états quantiques

Le premier modèle de la mécanique quantique ( Heisenberg , 1925) représentait les opérateurs de la théorie par des matrices de dimension infinie agissant sur des états quantiques. C'est ce qu'on appelle aussi la mécanique matricielle . Un exemple particulier est la matrice de densité qui caractérise l'état "mixte" d'un système quantique comme une combinaison linéaire d' états propres élémentaires "purs" .

Une autre matrice sert d'outil clé pour décrire les expériences de diffusion qui forment la pierre angulaire de la physique des particules expérimentales: Les réactions de collision comme cela se produit dans les accélérateurs de particules , où les particules non-interaction se dirigent l'une vers l'autre et entrent en collision dans une petite zone d'interaction, avec une nouvelle ensemble de particules sans interaction comme résultat, peut être décrit comme le produit scalaire des états de particules sortants et une combinaison linéaire d'états de particules entrants. La combinaison linéaire est donnée par une matrice connue sous le nom de matrice S , qui code toutes les informations sur les interactions possibles entre les particules.

Modes normaux

Une application générale des matrices en physique est la description des systèmes harmoniques couplés linéairement. Les équations du mouvement de tels systèmes peuvent être décrites sous forme matricielle, avec une matrice de masse multipliant une vitesse généralisée pour donner le terme cinétique, et une matrice de force multipliant un vecteur de déplacement pour caractériser les interactions. La meilleure façon d'obtenir des solutions est de déterminer les vecteurs propres du système , ses modes normaux , en diagonalisant l'équation matricielle. Des techniques comme celle-ci sont cruciales lorsqu'il s'agit de la dynamique interne des molécules : les vibrations internes des systèmes constitués d'atomes composants mutuellement liés. Ils sont également nécessaires pour décrire les vibrations mécaniques et les oscillations dans les circuits électriques.

Optique géométrique

L'optique géométrique fournit d'autres applications matricielles. Dans cette théorie approximative, la nature ondulatoire de la lumière est négligée. Le résultat est un modèle dans lequel les rayons lumineux sont bien des rayons géométriques . Si la déviation des rayons lumineux par les éléments optiques est faible, l'action d'une lentille ou d'un élément réfléchissant sur un rayon lumineux donné peut être exprimée comme la multiplication d'un vecteur à deux composantes avec une matrice deux par deux appelée analyse matricielle de transfert de rayons : les composantes du vecteur sont la pente du rayon lumineux et sa distance à l'axe optique, tandis que la matrice code les propriétés de l'élément optique. En fait, il existe deux types de matrices, à savoir. une matrice de réfraction décrivant la réfraction au niveau d'une surface de lentille, et une matrice de translation , décrivant la translation du plan de référence vers la surface de réfraction suivante, où une autre matrice de réfraction s'applique. Le système optique, constitué d'une combinaison de lentilles et/ou d'éléments réfléchissants, est simplement décrit par la matrice résultant du produit des matrices des composants.

Électronique

L' analyse de maillage traditionnelle et l'analyse nodale en électronique conduisent à un système d'équations linéaires qui peuvent être décrites avec une matrice.

Le comportement de nombreux composants électroniques peut être décrit à l'aide de matrices. Soit A un vecteur bidimensionnel avec la tension d'entrée du composant v 1 et le courant d'entrée i 1 comme éléments, et soit B un vecteur bidimensionnel avec la tension de sortie du composant v 2 et le courant de sortie i 2 comme éléments. Ensuite, le comportement du composant électronique peut être décrit par B = H · A , où H est une matrice 2 x 2 contenant un élément d' impédance ( h 12 ), un élément d' admittance ( h 21 ) et deux éléments sans dimension ( h 11 et h 22 ). Calculer un circuit se réduit désormais à multiplier des matrices.

Histoire

Les matrices ont une longue histoire d'application dans la résolution d'équations linéaires, mais elles étaient connues sous le nom de tableaux jusqu'aux années 1800. Le texte chinois Les neuf chapitres sur l'art mathématique écrit au Xe et au IIe siècle avant notre ère est le premier exemple de l'utilisation de méthodes matricielles pour résoudre des équations simultanées , y compris le concept de déterminants . En 1545, le mathématicien italien Gerolamo Cardano a introduit la méthode en Europe lorsqu'il a publié Ars Magna . Le mathématicien japonais Seki a utilisé les mêmes méthodes de tableaux pour résoudre des équations simultanées en 1683. Le mathématicien néerlandais Jan de Witt a représenté les transformations à l'aide de tableaux dans son livre de 1659 Elements of Curves (1659). Entre 1700 et 1710, Gottfried Wilhelm Leibniz a rendu public l'utilisation de matrices pour enregistrer des informations ou des solutions et a expérimenté plus de 50 systèmes différents de matrices. Cramer a présenté sa règle en 1750.

Le terme « matrice » (latin pour « utérus », dérivé de mater —mère) a été inventé par James Joseph Sylvester en 1850, qui comprenait une matrice comme un objet donnant lieu à plusieurs déterminants aujourd'hui appelés mineurs , c'est-à-dire des déterminants de matrices plus petites qui dérivent de l'original en supprimant des colonnes et des lignes. Dans un article de 1851, Sylvester explique :

J'ai défini dans des articles précédents une « Matrice » comme un ensemble rectangulaire de termes, à partir desquels différents systèmes de déterminants peuvent être engendrés à partir du ventre d'un parent commun.

Arthur Cayley a publié un traité sur les transformations géométriques utilisant des matrices qui n'étaient pas des versions tournées des coefficients étudiés comme cela avait été fait auparavant. Au lieu de cela, il a défini des opérations telles que l'addition, la soustraction, la multiplication et la division comme des transformations de ces matrices et a montré que les propriétés associatives et distributives étaient vraies. Cayley a étudié et démontré la propriété non commutative de la multiplication matricielle ainsi que la propriété commutative de l'addition matricielle. Les premières théories matricielles avaient limité l'utilisation des tableaux presque exclusivement aux déterminants et les opérations matricielles abstraites d'Arthur Cayley étaient révolutionnaires. Il a joué un rôle déterminant dans la proposition d'un concept matriciel indépendant des systèmes d'équations. En 1858, Cayley publia son Mémoire sur la théorie des matrices dans lequel il proposa et démontra le théorème de Cayley-Hamilton .

Le mathématicien anglais Cuthbert Edmund Cullis a été le premier à utiliser la notation parenthèse moderne pour les matrices en 1913 et il a simultanément démontré la première utilisation significative de la notation A = [ a i , j ] pour représenter une matrice où a i , j fait référence au i ème ligne et la j ème colonne.

L'étude moderne des déterminants est issue de plusieurs sources. Des problèmes de théorie des nombres ont conduit Gauss à relier des coefficients de formes quadratiques , c'est-à-dire des expressions telles que x 2 + xy − 2 y 2 , et des applications linéaires en trois dimensions à des matrices. Eisenstein a développé ces notions, y compris la remarque que, dans le langage moderne, les produits matriciels sont non commutatifs . Cauchy fut le premier à prouver des affirmations générales sur les déterminants, en utilisant comme définition du déterminant d'une matrice A = [ a i , j ] ce qui suit : remplacer les puissances a j k par un jk dans le polynôme

,

où désigne le produit des termes indiqués. Il montra également, en 1829, que les valeurs propres des matrices symétriques sont réelles. Jacobi a étudié les "déterminants fonctionnels" - appelés plus tard les déterminants de Jacobi par Sylvester - qui peuvent être utilisés pour décrire des transformations géométriques à un niveau local (ou infinitésimal ), voir ci - dessus ; Les Vorlesungen über die Theorie der Determinanten de Kronecker et Zur Determinantentheorie de Weierstrass , tous deux publiés en 1903, ont d'abord traité les déterminants de manière axiomatique , par opposition aux approches antérieures plus concrètes telles que la formule mentionnée de Cauchy. À ce moment-là, les déterminants étaient fermement établis.

De nombreux théorèmes ont d'abord été établis pour les petites matrices uniquement, par exemple, le théorème de Cayley-Hamilton a été prouvé pour les matrices 2 × 2 par Cayley dans les mémoires susmentionnés, et par Hamilton pour les matrices 4 × 4. Frobenius , travaillant sur les formes bilinéaires , généralisa le théorème à toutes les dimensions (1898). Également à la fin du 19ème siècle, l' élimination de Gauss-Jordanie (généralisation d'un cas particulier maintenant connu sous le nom d' élimination de Gauss ) a été établie par la Jordanie . Au début du 20e siècle, les matrices ont atteint un rôle central dans l'algèbre linéaire, en partie en raison de leur utilisation dans la classification des systèmes de nombres hypercomplexes du siècle précédent.

La création de la mécanique matricielle par Heisenberg , Born et Jordan a conduit à l'étude des matrices avec une infinité de lignes et de colonnes. Plus tard, von Neumann a réalisé la formulation mathématique de la mécanique quantique , en développant davantage les notions analytiques fonctionnelles telles que les opérateurs linéaires sur les espaces de Hilbert , qui, très grossièrement, correspondent à l' espace euclidien , mais avec une infinité de directions indépendantes .

Autres usages historiques du mot « matrice » en mathématiques

Le mot a été utilisé de manière inhabituelle par au moins deux auteurs d'importance historique.

Bertrand Russell et Alfred North Whitehead dans leurs Principia Mathematica (1910-1913) utilisent le mot « matrice » dans le contexte de leur axiome de réductibilité . Ils ont proposé cet axiome comme un moyen de réduire n'importe quelle fonction à une de type inférieur, successivement, de sorte qu'au "bas" (ordre 0) la fonction soit identique à son extension :

"Donnons le nom de matrice à toute fonction, quel que soit le nombre de variables, qui n'implique aucune variable apparente . Ensuite, toute fonction possible autre qu'une matrice dérive d'une matrice au moyen de la généralisation, c'est-à-dire en considérant la proposition que la fonction en question est vraie avec toutes les valeurs possibles ou avec une valeur de l'un des arguments, l'autre ou les autres arguments restant indéterminés".

Par exemple, une fonction ( x, y ) de deux variables x et y peut être réduite à une collection de fonctions d'une seule variable, par exemple, y , en « considérant » la fonction pour toutes les valeurs possibles des « individus » a i substitué à la place de la variable x . Et puis la collection résultante de fonctions de la variable unique y , c'est-à-dire ∀a i : Φ( a i , y ), peut être réduite à une "matrice" de valeurs en "considérant" la fonction pour toutes les valeurs possibles de " individus" b i substitué à la place de la variable y :

b j ∀a i : Φ( a i , b j ).

Alfred Tarski dans son introduction à la logique de 1946 a utilisé le mot « matrice » comme synonyme de la notion de table de vérité telle qu'elle est utilisée en logique mathématique.

Voir également

Remarques

Les références

Références de physique

Références historiques

Lectures complémentaires

Liens externes