
La multiplication de matrices
Saviez-vous ...
SOS Enfants a fait cette s??lection Wikipedia aux c??t??s d'autres ??coles des ressources . Un lien rapide pour le parrainage d'enfants est http://www.sponsor-a-child.org.uk/
En math??matiques , la multiplication de matrices est l'op??ration consistant ?? multiplier un matrice soit avec un scalaire ou une autre matrice. Cet article donne un aper??u des diff??rentes fa??ons d'effectuer la multiplication de matrices.
Produit matriciel ordinaire
Ce est le moyen le plus souvent utilis?? et le plus important de multiplier les matrices. Il est d??fini entre deux matrices que si le nombre de colonnes de la premi??re matrice est le m??me que le nombre de rang??es de la deuxi??me matrice. Si A est une matrice m -by- n et B est une matrice n -by- p, puis leur produit est une matrice de m -by- p d??sign?? par AB (ou parfois A ?? B). Si C = AB et C i, j d??signe l'entr??e en C ?? la position (i, j), puis
pour chaque paire i et j avec 1 ≤ i ≤ M et 1 ≤ j ≤ p. Le syst??me alg??brique " unit??s de la matrice "r??sume les propri??t??s abstraites de ce genre de multiplication.
Calcul directement ?? partir de la d??finition

L'image de gauche montre comment calculer le (1,2) et l'??l??ment (3,3) ??l??ment de AB si A est une matrice 4 ?? 2, et B est une matrice 2 ?? 3. Les ??l??ments de chaque matrice sont appari??s dans la direction des fl??ches; chaque paire est multipli??, et les produits sont ajout??s. L'emplacement du nombre r??sultant en AB correspond ?? la ligne et de la colonne qui ont ??t?? pris en consid??ration.
Par exemple:
Proc??d?? coefficients vecteurs
Cette multiplication de matrice peut ??galement ??tre consid??r??e du point de vue l??g??rement diff??rent: il ajoute des vecteurs ainsi apr??s avoir ??t?? multipli?? par diff??rents coefficients. Si A et B sont des matrices donn??s par:
et
puis
L'exemple revisit??:
Les lignes de la matrice sont ?? gauche de la liste des coefficients. La matrice sur la droite est la liste des vecteurs. Dans l'exemple, la premi??re ligne est [1 0 2], et donc nous prenons une fois le premier vecteur, 0 fois le second vecteur, et deux fois la troisi??me vecteur.
L'??quation peut ??tre simplifi??e en utilisant en outre produits ext??rieurs:
Les termes de cette somme sont des matrices de la m??me forme, chacune d??crivant l'effet d'une colonne de A et une rang??e de B sur le r??sultat. Les colonnes de A peuvent ??tre consid??r??s comme un syst??me de coordonn??es de la transformation, ce est ?? dire ??tant donn?? un vecteur x nous avons o??
sont des coordonn??es le long de la
"Axes". Les termes
sont comme
, Except??
contient la i i??me coordonn??e pour chaque vecteur de colonne de B, dont chacun est ind??pendamment transform?? en parall??le.
L'exemple revisit??:
Les vecteurs et
ont ??t?? transform??s ??
et
en parall??le. On pourrait aussi les transformer un par un avec les m??mes ??tapes:
M??thode vectorielle listes
Le produit de la matrice ordinaire peut ??tre consid??r?? comme un dot produit d'une colonne liste des vecteurs et un rang??e liste des vecteurs. Si A et B sont des matrices donn??s par:
et
o??
- A 1 est le vecteur ligne de tous les ??l??ments de la forme a une, x A 2 est le vecteur ligne de tous les ??l??ments de la forme a 2, x etc,
- et B 1 est le vecteur colonne de tous les ??l??ments de la forme b x, 1 B 2 est le vecteur colonne de tous les ??l??ments de la forme b x, 2 etc,
puis
Propri??t??s
La multiplication de matrices ne est pas commutative (ce est-?? AB de la BA), sauf dans des cas particuliers. Il est facile de voir pourquoi: vous ne pouvez pas vous attendre ?? passer les proportions avec les vecteurs et obtenir le m??me r??sultat. Il est ??galement facile de voir comment l'ordre des facteurs qui d??termine le r??sultat, quand on sait que le nombre de colonnes dans la matrice des proportions doit ??tre le m??me que le nombre de lignes de la matrice des vecteurs: ils doivent repr??senter le m??me nombre de vecteurs.
Bien que la multiplication de matrices ne est pas commutative, les d??terminants de AB et BA sont toujours ??gaux (si A et B sont des matrices carr??es de m??me taille). Voir l'article sur les d??terminants pour une explication. Cependant la multiplication de matrices est commutative lorsque les deux matrices sont diagonale et de la m??me dimension.
Cette notion de multiplication est important parce que si A et B sont interpr??t??es comme transformations lin??aires (qui est presque universellement fait), puis le produit matriciel AB correspond ?? la composition des deux transformations lin??aires, avec B ??tant appliqu??s en premier.
En outre, toutes les notions de la multiplication de matrices d??crites ici part un ensemble de propri??t??s communes d??crites ci-dessous.
Algorithmes
Le complexit?? de la multiplication de matrices, si elle est effectu??e na??vement, est O (n ??), mais des algorithmes plus efficaces existent. L'algorithme de Strassen, con??u par Volker Strassen en 1969 et souvent appel??e ??la multiplication de matrices rapide", est bas?? sur une fa??on intelligente de multiplier deux matrices 2 ?? 2 qui exige seulement 7 multiplications (au lieu de l'habituel 8). Appliquant cette astuce donne de mani??re r??cursive un algorithme avec un co??t de . En pratique, cependant, il est rarement utilis?? car il est difficile ?? mettre en ??uvre et il manque stabilit?? num??rique. Le facteur constant implicite dans le Comparaison asymptotique est d'environ 4,695.
Le algorithme avec l'exposant le plus bas connu, qui a ??t?? pr??sent?? par Don Coppersmith et Shmuel Winograd en 1990 , a une complexit?? asymptotique de O (n 2,376). Il est similaire ?? l'algorithme de Strassen: une fa??on intelligente est con??u pour multiplier deux matrices k ?? k avec moins de multiplications ?? k, et cette technique est appliqu??e de mani??re r??cursive. Il am??liore le facteur constant dans l'algorithme de Strassen, r??duisant ?? 4,537. Cependant, le terme constant impliqu?? dans le O (n 2,376) r??sultat est si grande que l'algorithme Coppersmith-Winograd ne vaut que pour les matrices qui sont trop gros pour g??rer sur les ordinateurs actuels (Knuth, 1998).
Depuis ne importe quel algorithme pour multiplier deux matrices n ?? n doit traiter tous les 2 ?? n ?? entr??es, il ya une borne inf??rieure asymptotique des op??rations Ω (n) ??. Raz (2002) prouve une borne inf??rieure de pour coefficient born??es circuits arithm??tiques sur les nombres r??els ou complexes.
Cohn et al. (2003, 2005) mis des m??thodes telles que les algorithmes Strassen et Coppersmith-Winograd dans un tout autre, th??orie des groupes contexte. Ils montrent que si les familles de produits de couronnes de ab??lien avec des groupes sym??triques satisfaisant certaines conditions existent, algorithmes matrice de multiplication avec une complexit?? quadratique essentielle existent. La plupart des chercheurs croient que ce est effectivement le cas (Robinson, 2005).
Multiplication scalaire
La multiplication scalaire d'une matrice A = (a ij) et un scalaire r r donne un produit A de la m??me taille que A. Les entr??es de r A sont donn??s par
Par exemple, si
puis
Si nous sommes pr??occup??s par les matrices sur une anneau, puis la multiplication ci-dessus est parfois appel?? la multiplication gauche tandis que la droite multiplication est d??finie comme
Lorsque l'anneau sous-jacent est commutatif , par exemple, le champ de nombre r??el ou complexe, les deux multiplications sont les m??mes. Toutefois, si l'anneau ne est pas commutative, telle que la quaternions, ils peuvent ??tre diff??rents. Par exemple
Produit Hadamard
Pour les deux matrices de m??mes dimensions, on a le produit de Hadamard, ??galement connu sous le nom de produit et le produit entrywise Schur. Il peut ??tre g??n??ralis??e ?? tenir non seulement pour les matrices mais aussi pour les op??rateurs. Le Hadamard produit de deux m -by- n matrices A et B, not??e A ??? B est une matrice n m -by- donn??e par (A ??? B) a ij ij = b ij. Par exemple
.
Notez que le produit est un Hadamard sous-matrice du produit de Kronecker (voir ci-dessous).
Le produit Hadamard est commutative .
Le produit Hadamard est ??tudi?? par les th??oriciens de la matrice, et il appara??t dans algorithmes de compression avec perte tels que JPEG, mais il est pratiquement ??pargn??e par alg??bristes lin??aires. Il est discut?? dans (Horn & Johnson, 1994, Ch. 5).
Produit de Kronecker
Pour tout deux matrices arbitraires A et B, nous avons le produit direct ou Produit de Kronecker A ⊗ B d??fini comme
Notez que si A est m -by- n et B est de p r alors A ⊗ B est un mp -by- nr matrice. Encore une fois cette multiplication ne est pas commutative.
Par exemple
.
Si A et B repr??sentent des transformations lin??aires V 1 → W 1 et W 2 → V 2, respectivement, alors A ⊗ B repr??sente le produit tenseur des deux cartes, une V ⊗ V 2 → W 1 ⊗ W 2.
Propri??t??s communes
![]() | Le Wikibook Le Livre de preuves math??matiques a une page sur le th??me de: Les preuves de propri??t??s des matrices |
Tous les trois notions de multiplication de matrices sont associative :
et distributive:
et
.
et compatible avec multiplication scalaire:
Notez que ces trois couples s??par??s d'expressions seront ??gaux entre eux que si la multiplication et l'addition sur le champ scalaire sont commutative, ce est ?? dire le champ scalaire est un anneau commutatif. Voir multiplication scalaire ci-dessus pour un contre-exemple comme le champ scalaire de quaternions.
Produit interne Frobenius
Le produit int??rieur Frobenius, parfois not??e A: B est le produit int??rieur composante par composante de deux matrices comme se ils sont des vecteurs. En d'autres termes, ce est la somme des entr??es du produit, ce est-Hadamard,
Ce produit int??rieure induit la Norme de Frobenius.