V??rifi?? contenu

D??terminant

Sujets connexes: Math??matiques

Saviez-vous ...

Arrangeant une s??lection Wikipedia pour les ??coles dans le monde en d??veloppement sans internet a ??t?? une initiative de SOS Enfants. parrainage SOS enfant est cool!

En alg??bre , un facteur d??terminant est une fonction d??pendant de n qui associe un scalaire, det (A), ?? tous les n ?? n matrice carr??e A. Le sens g??om??trique fondamentale d'un d??terminant est que la facteur d'??chelle pour le volume lorsque A est consid??r?? comme un transformation lin??aire. D??terminants sont importantes ?? la fois dans le calcul , o?? ils entrent dans le r??gle de substitution pour plusieurs variables, et alg??bre multilin??aire.

Pour un entier positif n fixe, il ya une fonction d??terminant unique pour l'matrices n ?? n sur tout anneau commutatif R. En particulier, cette fonction existe lorsque R est le domaine de r??els ou des nombres complexes .

Notation barre verticale

Le d??terminant de la matrice A est ??galement parfois d??sign??e par | A |. Cette notation peut ??tre ambigu??, car il est ??galement utilis?? pour certains les normes de la matrice et de la valeur absolue . Cependant, souvent la norme de la matrice sera not??e avec une double barre verticale (par exemple, ‖ ‖ A) et peut porter un indice ainsi. Ainsi, la notation de barre verticale pour d??terminant est fr??quemment utilis?? (par exemple, La r??gle de Cramer et mineurs). Par exemple, pour la matrice

A = \ begin {} bmatrix a & b et c \\ d & e et f \\ g & h & i \ end {bmatrix} \,

le d??terminant \ Det (A) pourrait ??tre indiqu?? par | A | ou de fa??on plus explicite que

| A |. = \ Begin {} vmatrix a & b et c \\ d & e et f \\ g & h & i \ end {de vmatrix} \,

Ce est, les crochets autour des matrices sont remplac??s par des barres verticales allong??es.

D??terminants de matrices 2-en-2

L'aire du parall??logramme est le d??terminant de la matrice form??e par les vecteurs repr??sentant les c??t??s du parall??logramme.

La matrice 2 ?? 2

A = \ begin {} bmatrix a & b \\ c & d \ end {bmatrix} \,

a d??terminant

\ Det (A) = ad-bc. \,

L'interpr??tation lorsque la matrice poss??de des entr??es de nombre r??el est que cela donne de la zone orient??e du parall??logramme dont les sommets sont (0,0), (a, b), (a + c, b + d), et (c, d). La zone orient??e est le m??me que l'habituel zone , sauf que ce est n??gatif lorsque les sommets sont r??pertori??s dans l'ordre dans le sens horaire.

L'hypoth??se est que la transformation lin??aire est appliqu??e ?? la ligne des vecteurs comme le produit matrice-vecteur x ^ T A O?? x est un vecteur de colonne. Le parall??logramme sur la figure est obtenue en multipliant les vecteurs lignes \ Begin {} bmatrix 0 & 1 \ end {} bmatrix, \ begin {} bmatrix 1 & 0 \ end {} bmatrix et \ Begin {} bmatrix 1 & 1 \ end {} bmatrix , D??finissant les sommets du carr?? unit??. Avec le produit matrice-vecteur plus fr??quents Hache parall??logramme a sommets au \ Begin {} bmatrix 0 0 \\ \ end {} bmatrix, \ begin {} bmatrix un \\ c \ end {} bmatrix, \ begin {} bmatrix a + b \\ c + d \ end {} bmatrix et \ Begin {} b bmatrix \\ d \ end {} bmatrix (Notez que Ax = (x ^ T ^ T A) ^ T ).

Une formule pour les grandes matrices sera donn??e ci-dessous.

D??terminants de matrices 3-par-3

Le volume de cette Parall??l??pip??de est la valeur absolue du d??terminant de la matrice form?? par les rang??es R1, R2, et R3.

La matrice 3 ?? 3:

A = \ begin {} bmatrix a & b et c \\ d & e et f \\ g & h & i \ end {} bmatrix.

En utilisant le l'expansion de cofacteur sur la premi??re ligne de la matrice, on obtient:

\ Begin {align} \ det (A) & = a \ begin {vmatrix} e et f \\ h & i \ end {vmatrix} -b \ begin {vmatrix} d & f \\ g & i \ end {vmatrix} + c \ begin {vmatrix} d & e \\ g & h \ end {} \\ & vmatrix = aei-afh-bdi + bfg + CDH-ceg \\ & = (AEI + bfg + CDH) - (+ gec hfa + BID), \ end {align}
Le d??terminant d'une matrice de 3x3 peut ??tre calcul??e par ses diagonales.

qui peut ??tre dans les m??moires comme la somme des produits des trois diagonale nord-ouest des lignes sud-est d'??l??ments de la matrice, moins la somme des produits des trois diagonale sud-ouest vers les lignes nord-est d'??l??ments lorsque les exemplaires de la premi??re deux colonnes de la matrice sont ??crits ?? c??t?? de lui comme ci-dessous:

\ Begin {matrix} \ color {blue} a & color {blue} b & \ color {blue} c & de a & b \\ d & \ color {blue} E & \ color {blue} f & \ couleur {\ blue} d & e g & h \\ & \ color {blue} i & \ color {blue} g & \ color {blue} h \ end {matrix} \ quad - \ quad \ begin {matrix} a & b & \ color {red} c & \ color {red} a & \ color {red} b \\ d & \ color {red} E & \ color {red} f & \ color {red} d & e \\ \ color {red} g & \ color {red} h & \ color {red} i & g & h \ end {matrix}

Notez que cette mn??monique ne sont pas report??es dans les dimensions sup??rieures.

Applications

D??terminants sont utilis??s pour caract??riser matrices inversibles (ce est ?? dire, exactement ces matrices avec les d??terminants non-z??ro), et de d??crire explicitement la solution ?? un syst??me d' ??quations lin??aires avec La r??gle de Cramer. Ils peuvent ??tre utilis??s pour trouver les valeurs propres de la matrice Un ?? travers le polyn??me caract??ristique

p (x) = \ det (XI - A) \,

o?? I est la matrice de m??me dimension que A d'identit??.

On pense souvent que le d??terminant l'attribution d'un num??ro ?? chaque s??quence de n vecteurs de \ Bbb {R} ^ n , En utilisant la matrice carr??e dont les colonnes sont les vecteurs donn??s. Gr??ce ?? cette compr??hension, le signe du d??terminant d'une base peut ??tre utilis??e pour d??finir la notion de orientation en espaces euclidiens . Le d??terminant d'un ensemble de vecteurs est positif si les vecteurs forment un droitier syst??me de coordonn??es, et n??gative si-Gaucher.

Les d??terminants sont utilis??es pour calculer les volumes de calcul vectoriel : la valeur absolue du d??terminant de vecteurs r??els est ??gal au volume de la parall??l??pip??de engendr?? par ces vecteurs. En cons??quence, si le lin??aire f: \ Bbb {R} ^ n \ rightarrow \ Bbb {R} ^ n est repr??sent?? par la matrice Un Et S est tout mesurable sous-ensemble de \ Bbb {R} ^ n , Alors le volume de f (S) est donn??e par \ Left | \ det (A) \ right | \ times \ operatorname {} le volume (S) . Plus g??n??ralement, si la carte lin??aire f: \ Bbb {R} ^ n \ rightarrow \ Bbb {R} ^ m est repr??sent?? par la m -by- n matrice Un Et S est tout sous-ensemble mesurable de \ Bbb {R} ^ {n} , Puis le n - volume tridimensionnel de f (S) est donn??e par \ Sqrt {\ det (A ^ \ mathrm {T} A)} \ times \ operatorname {} le volume (S) . En calculant le volume du t??tra??dre d??limit??e par quatre points, ils peuvent ??tre utilis??s pour identifier lignes obliques.

Le volume de ne importe quel t??tra??dre , ??tant donn?? ses sommets a, b, c, et d, est (1/6) ?? | det (A - B, B - C, C - D) |, ou toute autre combinaison de paires de sommets qui forment un tout simplement connect?? graphique.

D??finition g??n??rale et de calcul

La d??finition du d??terminant vient du th??or??me suivant.

Th??or??me. Soit M n (K) l'ensemble de tous n \ n fois matrices sur le corps K. Il existe exactement une fonction

F: M_N (K) \ longrightarrow K

avec les deux propri??t??s:

  • Fa est alternatif multilin??aires en ce qui concerne les colonnes;
  • F (I) = 1 .

On peut alors d??finir le d??terminant que la fonction unique avec les propri??t??s ci-dessus.

Pour prouver le th??or??me ci-dessus, on obtient aussi le Leibniz formule:

\ Det (A) = \ sum _ {\ sigma \ dans S_n} \ SGN (\ sigma) \ prod_ {i = 1} ^ n A_ {i, \ sigma (i)}.

Voici la somme est calcul??e sur toutes les permutations \ Sigma des nombres {1,2, ..., n} et \ SGN (\ sigma) d??signe le signature de la permutation \ Sigma : 1 si \ Sigma est un m??me permutation et -1 si elle est impair.

Cette formule contient n! ( factorielle ) op??randes, et il est donc impossible de l'utiliser pour calculer les d??terminants de grande n .

Pour les petites matrices, on obtient les formules suivantes:

  • si Un est une matrice 1 par 1, puis \ Det (A) = {1,1} A_. \,
  • si Un est une matrice deux par deux, puis \ Det (A) = {1,1} A_ A_ {2,2} - {2,1} A_ A_ {1,2}. \,
  • pour une matrice 3 par 3 Un La formule est plus complexe:
\ Begin {matrix} \ det (A) = & & A_ {1,1} {2,2} A_ A_ {3,3} {1,3 + A_} {2,1} A_ A_ {3,2} + A_ {1,2} {2,3} A_ A_ {3,1} \\ & & - A_ {1,3} {2,2} A_ A_ {3,1} - {1,1} A_ A_ {2,3} {3,2} A_ - A_ {1,2} {2,1} A_ A_ {3,3}. \ End {matrix} \,

qui prend la forme du r??gime de la Sarrus .


En g??n??ral, les d??terminants peuvent ??tre calcul??es en utilisant l'??limination de Gauss utilisant les r??gles suivantes:

  • Si Un est un matrice triangulaire, ?? savoir A_ {i, j} = 0 \, chaque fois que i> j ou, alternativement, chaque fois i <j , Puis \ Det (A) = {1,1} A_ A_ {2,2} \ cdots A_ {n, n} \, (Le produit des ??l??ments diagonaux de Un ).
  • Si B r??sultats de Un en ??changeant deux rang??es ou des colonnes, puis \ Det (B) = - \ det (A). \,
  • Si B r??sultats de Un en multipliant une ligne ou une colonne avec le nombre c , Puis \ Det (B) = c \, \ det (A). \,
  • Si B r??sultats de Un en ajoutant un multiple d'une colonne ?? une autre, ou ?? un multiple d'une colonne ?? une autre colonne, puis \ Det (B) = \ det (A). \,

Explicitement, commencer avec une certaine matrice, utiliser les trois derni??res r??gles pour le convertir en une matrice triangulaire, puis utiliser la premi??re r??gle pour calculer son d??terminant.

Il est ??galement possible d'??tendre un d??terminant le long d'une rang??e ou d'une colonne ?? l'aide La formule de Laplace, qui est efficace pour relativement petites matrices. Pour ce faire long d'une rang??e Je , Par exemple, nous ??crivons

\ Det (A) = \ sum_ {j = 1} ^ n A_ {i, j} C_ {i, j} = \ sum_ {j = 1} ^ n A_ {i, j} (-1) ^ {i + j} M_ {i, j}

o?? le C_ {i, j} repr??senter la matrice des cofacteurs, ?? savoir C_ {i, j} est (-1) ^ {I + j} la fois mineur M_ {i, j} , Qui est le d??terminant de la matrice qui en r??sulte Un en enlevant le Je -i??me rang??e et de la j -i??me colonne.

Exemple

Supposons que nous voulons calculer le d??terminant de

A = \ begin {} bmatrix -2 et 2 et -3 -1 \\ & 1 & 2 & 3 \\ 0 et -1 \ end {} bmatrix.

Nous pouvons aller de l'avant et d'utiliser la formule de Leibniz directement:

\ Det (A) \,= \,(-2 \ Cdot 1 \ cdot -1) + (-3 \ cdot -1 \ cdot 0) + (2 \ cdot 3 \ cdot 2)
- (-3 \ Cdot 1 \ cdot 2) - (-2 \ cdot 3 \ cdot 0) - (2 \ cdot -1 \ cdot -1)
= \,2 + 0 + 12 - (-6) - 0-2 = 18. \,

Alternativement, nous pouvons utiliser La formule de Laplace pour ??largir le d??terminant le long d'une ligne ou une colonne. Il est pr??f??rable de choisir une ligne ou une colonne avec beaucoup de z??ros, donc nous allons ??tendre le long de la deuxi??me colonne:

\ Det (A) \,= \,(-1) ^ {1 + 2} \ cdot 2 \ cdot \ det \ begin {} bmatrix -1 et 3 \\ & 2 -1 \ end {} bmatrix + (-1) ^ {2 + 2} \ cdot 1 \ cdot \ det \ begin {} bmatrix -2 et -3 \\ & 2 -1 \ end {} bmatrix
= \,(-2) \ Cdot ((- 1) \ cdot (-1) -2 \ cdot3) 1 \ cdot ((- 2) \ cdot (-1) -2 \ cdot (-3))
= \,(-2) (- 5) 8 = 18. \,

Une troisi??me voie (et la m??thode de choix pour les grandes matrices) impliqueraient l'algorithme de Gauss. Quand vous faites des calculs ?? la main, on peut souvent r??duire consid??rablement les choses en ajoutant intelligemment multiples de colonnes ou lignes ?? d'autres colonnes ou lignes; cela ne change pas la valeur du d??terminant, mais peut cr??er des entr??es de z??ro, ce qui simplifie les calculs ult??rieurs. Dans cet exemple, l'ajout de la deuxi??me colonne de la premi??re est particuli??rement utile:

\ Begin {} 0 bmatrix & 2 & -3 \\ 0 & 1 & 2 & 3 \\ 0 et -1 \ end {} bmatrix

et ce d??terminant peut ??tre rapidement ??tendu le long de la premi??re colonne:

\ Det (A) \,= \,(-1) ^ {3 + 1} \ cdot 2 \ cdot \ det \ begin {} bmatrix 2 et -3 \\ 1 & 3 \ end {} bmatrix
= \,2 \ cdot (2 \ cdot3-1 \ cdot (-3)) = 2 \ cdot 9 = 18. \,

Propri??t??s

Le facteur multiplicatif est une carte en ce sens que

\ Det (AB) = \ det (A) \ det (B) \, pour tout n -by- n matrices Un et B .

Ce est g??n??ralis??e par la Formule de Cauchy-Binet aux produits de matrices non-carr??s.

Il est facile de voir que \ Det (rI_n) = r ^ n \, et ainsi

\ Det (rA) = \ det (rI_n \ cdot A) = r ^ n \ det (A) \, pour tous n -by- n matrices Un et tout scalaires r .

Une matrice sur un anneau commutatif R est inversible si et seulement si son d??terminant est une unit?? dans R. En particulier, si A est une matrice au cours d'une domaine tel que les r??els ou des nombres complexes , alors A est inversible si et seulement si det (A) ne est pas nul. Dans ce cas, nous avons

\ Det (A ^ {- 1}) = \ det (A) ^ {- 1}. \,

Exprim?? diff??remment: les vecteurs v 1, ..., v n dans R n former un base si et seulement si det (v 1, ..., c n) est non nul.

Une matrice et son transposer le m??me d??terminant:

\ Det (A ^ \ mathrm {T}) = \ det (A). \,

Les d??terminants d'une matrice complexe et de son conjugu?? transposer sont Conjugu??:

\ Det (A ^ *) = \ det (A) ^ *. \,

(Notez le transpos?? conjugu?? est identique ?? la transpos??e d'une matrice r??elle)

Le d??terminant de la matrice Un pr??sente les propri??t??s suivantes sous des transformations de matrice ??l??mentaire Un :

  1. ??changer des lignes ou des colonnes multiplie le d??terminant par -1.
  2. Multipliant une rang??e ou colonne par m multiplie le facteur d??terminant par m .
  3. Ajout d'un multiple d'une ligne ou une colonne ?? l'autre laisse le d??terminant inchang??.

Cela d??coule de la propri??t?? multiplicatif et les d??terminants de la ??l??mentaires matrices de transformation de la matrice.

Si Un et B sont similaire, ?? savoir, se il existe une matrice inversible X tel que Un = X ^ {- 1} B X , Puis par la propri??t?? multiplicatif,

\ Det (A) = \ det (B). \,

Cela signifie que le d??terminant est un similitude invariant. Pour cette raison, le d??terminant de certains transformation lin??aire T: VV pour certains de dimension finie espace vectoriel V est ind??pendant de la base de V. La relation est ?? sens unique, toutefois: il existe des matrices qui ont la m??me d??terminant mais ne sont pas similaires.

Si Un est un carr?? n -by- n matrice avec r??els ou complexes entr??es et si λ 1, ..., λ n sont les (complexes) valeurs propres de Un ??num??r??s selon leurs multiplicit??s alg??briques, puis

\ Det (A) = \ lambda_ {1} \ lambda_ {2} \ cdots \ lambda_ {n}. \,

Cela d??coule du fait que Un est toujours semblable ?? son R??duction de Jordan, une matrice triangulaire sup??rieure avec les valeurs propres sur la diagonale principale.

Identit??s utiles

Pour m -by- n matrice A et m -by- n matrice B, elle d??tient

\ Det (I_N + A ^ TB) = \ det (I_M + AB ^ T) = \ det (I_N + B ^ TA) = \ det (I_M + BA ^ T).

Une cons??quence de ces ??galit??s pour le cas de (colonne) vecteurs x et y

\ Det (I + y ^ x T) = 1 + y ^ T x.

Et une version g??n??ralis??e de cette identit??

\ Det (A + y ^ x T) = \ det (A) \ (1 + y ^ T A ^ {- 1} x).

Les preuves se trouvent dans .


matrices de bloc

Supposons, A B C D sont n fois, n \ fois M, M \ times n, m \ times m n \ matrices, respectivement. Puis

\ Det \ begin {pmatrix} A & 0 \\ C & D \ end {pmatrix} = \ det \ begin {pmatrix} A & B \\ 0 & D \ end {pmatrix} = \ det (A) \ det (D).

Cela peut ??tre (assez) facilement visibles de l'exemple Formule de Leibniz. Employant l'identit?? suivante

\ Begin {pmatrix} A & B \\ C & D \ end {pmatrix} = \ begin {pmatrix} A & 0 \\ C & 1 \ end {pmatrix} \ begin {pmatrix} 1 & A ^ {- 1} B \\ 0 & D - CA ^ {- 1} B \ end {} pmatrix

m??ne ??

\ Det \ begin {} pmatrix A & B \\ C & D \ end {} pmatrix = \ det (A) \ det (D - CA ^ {- 1} B).

Identit?? similaire avec \ Det (D) sur pond??r??e peut ??tre d??riv?? analogue. Ces identit??s ont ??t?? prises ?? partir de .

Si d_ {ij} sont des matrices diagonales, puis

\ Det \ begin {} pmatrix d_ {11} et \ ldots & d_ {} 1c \\ \ vdots & & \ vdots \\ d_ {} & r1 \ ldots & d_ {rc} \ end {} pmatrix = \ det \ begin {pmatrix} \ det (d_ {11}) & \ & ldots \ det (d_ {} 1c) \\ \ vdots & & \ vdots \\ \ det (d_ {r1}) & \ & ldots \ det (d_ {} rc) \ end {} pmatrix

Ce est un cas particulier du th??or??me publi?? dans .

Relation avec trace

A partir de cette connexion entre le d??terminant et les valeurs propres, on peut d??river une connexion entre le la fonction de trace, le fonction exponentielle, et le d??terminant:

\ Det (\ exp (A)) = \ exp (\ operatorname {} tr (A)).

Effectuer la substitution \ Scriptstyle A \, \ mapsto \, \ log A dans les rendements de l'??quation ci-dessus

\ Det (A) = \ exp (\ {operatorname tr} (\ log A)), \

qui est ??troitement li??e ?? la D??terminant de Fredholm. De m??me,

\ Operatorname {} tr (A) = \ log (\ det (\ exp A)). \

Pour n -by- n matrices, il ya les relations:

Cas n = 1: \ Gauche. \ Det (A) = \ operatorname {} tr (A) \ right.
Cas n = 2: \ Left. \ Det (A) = \ frac {1} {2} \ left (\ operatorname {} tr (A) ^ 2 - \ operatorname {} tr (A ^ 2) \ right) \ right.
Cas n = 3: \ Left. \ Det (A) = \ frac {1} {6} \ left (\ operatorname {} tr (A) ^ 3-3 \ operatorname {} tr (A) \ operatorname {} tr (A ^ 2) + 2 \ operatorname {} tr (A ^ 3) \ right) \ right.
Cas n = 4: \ Left. \ Det (A) = \ frac {1} {24} \ left (\ operatorname {} tr (A) ^ 4-6 \ operatorname {} tr (A) ^ 2 \ operatorname {} tr (A ^ 2) + 3 \ operatorname {} tr (A ^ 2) ^ 2 + 8 \ operatorname {} tr (A) \ operatorname {} tr (A ^ 3) - 6 \ operatorname {} tr (A ^ 4) \ right) \ right .
\ ldots

qui sont ??troitement li??s ?? Identit??s de Newton.

D??riv??

Le d??terminant de v??ritables matrices carr??es est une fonction polynomiale de \ Bbb {R} ^ {n \ fois n} ?? \ Bbb {R} Et en tant que telle est partout diff??rentiables . Son d??riv?? peut ??tre exprim?? en utilisant La formule de Jacobi:

d \, \ det (A) = \ {operatorname tr} (\ {adj operatorname} (A) \, dA)

adj o?? (A) d??signe le adjugate d'A. En particulier, si A est inversible, nous avons

d \, \ det (A) = \ det (A) \, \ operatorname {} tr (A ^ {- 1} \, dA).

Sous forme de composants, ce sont

\ Frac {\ partial \ det (A)} {\ A_ partielle {ij}} = \ {adj operatorname} (A) _ {ji} = \ det (A) (A ^ {- 1}) _ {} ji .

Quand \ Epsilon est un petit nombre de ceux-ci sont ??quivalentes

\ Det (A + \ epsilon X) - \ det (A) = \ {operatorname tr} (\ {adj operatorname} (A) X) \ epsilon + {O} (\ epsilon ^ 2) = \ det (A) \, \ operatorname {} tr (A ^ {- 1} X) \ epsilon + {O} (\ epsilon ^ 2).

Le cas particulier o?? Un est ??gale ?? la matrice identit?? Je rendements

\ Det (I + \ epsilon X) = 1 + \ {operatorname tr} (X) \ epsilon + O (\ epsilon ^ 2).


Une propri??t?? utile dans le cas de matrices 3 x 3 est le suivant:

A peut ??tre ??crit comme A = \ begin {} bmatrix \ bar {a} et \ bar {b} et \ bar {c} \ end {} bmatrix o?? \ Bar {a} , \ Bar {b} , \ Bar {c} sont des vecteurs, le gradient sur l'une des trois vecteurs peut ??tre ??crit comme le produit crois?? de deux autres:

\ Nabla_ \ bar {a} \ det (A) = \ bar {b} \ times \ bar {c}
\ Nabla_ \ bar {b} \ det (A) = \ bar {c} \ times \ bar {a}
\ Nabla_ \ bar {c} \ det (A) = \ bar {a} \ times \ bar {b}

R??sum?? formulation

Un n ?? n matrice carr??e A peut ??tre consid??r?? comme la repr??sentation d'une coordonn??e transformation lin??aire d'un n de dimension espace vectoriel V. Compte tenu de toute transformation lin??aire

A: V \ ?? V \,

nous pouvons d??finir le d??terminant de A comme d??terminant de toute repr??sentation matricielle de A. C'est un notion bien d??finie (ce est ?? dire ind??pendant d'un choix de base) depuis le d??terminant est invariant sous les transformations de similarit??.

Comme on pouvait s'y attendre, il est possible de d??finir le d??terminant d'une transformation lin??aire de mani??re ?? coordonn??es libre. Si V est un espace vectoriel de dimension n, alors on peut construire son sommet puissance ext??rieure Λ n V. Ce est un espace vectoriel unidimensionnel dont les ??l??ments sont ??crits

v_1 \ wedge v_2 \ wedge \ cdots \ wedge V_n

o?? chaque v i est un vecteur V et ?? la Produit en forme de coin est antisym??trique ∧ (c.-??-∧ u u = 0). Toute transformation lin??aire A: VV induit une transformation lin??aire de Λ n V comme suit:

v_1 \ wedge v_2 \ wedge \ cdots \ wedge V_n \ mapsto Av_1 \ wedge Av_2 \ wedge \ cdots \ wedge Av_n.

Depuis Λ n V est unidimensionnel cette op??ration est simplement multiplicative par un scalaire qui d??pend d'un. Ce est ce qu'on appelle le scalaire d??terminant de A. Autrement dit, on d??finit det (A) par l'??quation

Av_1 \ wedge Av_2 \ wedge \ cdots \ wedge Av_n = (\ det A) \, v_1 \ wedge v_2 \ wedge \ cdots \ wedge V_n.

On peut v??rifier que cette d??finition est d'accord avec la d??finition de coordonn??es d??pendante donn??e ci-dessus.

Mise en ??uvre algorithmique

  • Proc??d?? na??f de mettre en oeuvre un algorithme pour calculer le d??terminant est d'utiliser la formule de Laplace pour l'expansion par cofacteurs. Cette approche est extr??mement inefficace en g??n??ral, cependant, comme il est d'ordre n! (N factorielle ) pour une matrice n ?? n M.
  • Une am??lioration de l'ordre n 3 peut ??tre r??alis?? en utilisant D??composition LU ??crire M = LU pour les matrices L et U triangulaire. Maintenant, det M = det LU = det L det U, et comme L et U sont triangulaires le d??terminant de chacun est simplement le produit de ses ??l??ments diagonaux. En variante, on peut effectuer la D??composition de Cholesky, si possible, ou la QR d??composition et trouver le facteur d??terminant d'une mani??re similaire.
  • Depuis la d??finition du d??terminant n'a pas besoin de divisions, une question se pose: faire des algorithmes rapides existantes qui ne ont pas besoin divisions? Ceci est particuli??rement int??ressant pour les matrices sur des anneaux. En effet avec des algorithmes d'ex??cution proportionnel ?? n 4 existent. Une algorithme de Mahajan et Vinay, et Berkowitz est bas??e sur promenades ferm??es command??s (court clow). Il calcule plus de produits que la d??finition d??terminant exige, mais certains de ces produits annuler et la somme de ces produits peut ??tre calcul??e de fa??on plus efficace. L'algorithme final ressemble beaucoup ?? un produit it??rative des matrices triangulaires.
  • Qu'est-ce ne est pas souvent discut?? est la soi-disant ??complexit?? de bits" du probl??me, ce est ?? dire le nombre de bits de pr??cision dont vous avez besoin de stocker des valeurs interm??diaires. Par exemple, en utilisant l'??limination de Gauss , vous pouvez r??duire la matrice ?? la forme triangulaire sup??rieure, puis multipliez la diagonale principale pour obtenir le d??terminant (ce est essentiellement un cas particulier de la d??composition de LU comme ci-dessus), mais un calcul rapide montre que le bit taille de valeurs interm??diaires pourrait devenir exponentielle. On pourrait parler quand il est appropri?? d'arrondir les valeurs interm??diaires, mais une fa??on ??l??gante de calculer le d??terminant utilise le Bareiss algorithme, une m??thode exacte r??partition bas??e sur L'identit?? de Sylvester pour donner un moment de l'ex??cution de l'ordre n 3 et la complexit?? de bits ?? peu pr??s la taille de bit des entr??es originales dans les temps de la matrice n.

Histoire

Historiquement, les d??terminants ont ??t?? pris en consid??ration avant matrices. ?? l'origine, un facteur d??terminant a ??t?? d??finie comme une propri??t?? d'un syst??me d'??quations lin??aires . Le d??terminant ??d??termine??, si le syst??me a une solution unique (ce qui se produit avec pr??cision si le d??terminant est non nul). En ce sens, d??terminants ont ??t?? utilis??s d'abord dans le 3??me si??cle avant JC chinoise math??matiques manuels Les Neuf Chapitres sur l'art math??matique. En Europe, deux par deux d??terminants ont ??t?? examin??es par Cardano ?? la fin de la 16??me si??cle et les plus grands par Leibniz et, au Japon, par Seki environ 100 ans plus tard. Cramer (1750) ajout?? ?? la th??orie, le traitement du sujet par rapport ?? des ensembles d'??quations. La loi r??currente a ??t?? annonc??e par B??zout (1764).

C'??tait Vandermonde (1771) qui, le premier d??terminants reconnu comme fonctions ind??pendantes. Laplace (1772) a donn?? la m??thode g??n??rale de l'expansion d'un facteur d??terminant en termes de sa compl??mentaire mineurs: Vandermonde avait d??j?? donn?? un cas particulier. Imm??diatement apr??s, Lagrange (1773) trait??s d??terminants de la deuxi??me et de troisi??me ordre. Lagrange a ??t?? le premier ?? appliquer d??terminants aux questions la th??orie de l'??limination; il a prouv?? bien des cas sp??ciaux d'identit??s g??n??rales.

Gauss (1801) fait la prochaine avance. Comme Lagrange, il a fait beaucoup d'utilisation de d??terminants dans la th??orie des nombres . Il a pr??sent?? les mots d??terminants (Laplace avait utilis?? r??sultante), mais pas dans le pr??sent signification, mais plut??t comme appliqu??e ?? la un discriminant de quantique. Gauss est ??galement arriv?? ?? la notion de r??ciprocit?? (inverse) d??terminants, et est venu tr??s pr??s le th??or??me de multiplication.

La prochaine contributeur est d'une importance Binet (1811, 1812), qui a officiellement d??clar?? le th??or??me concernant le produit de deux matrices de m colonnes et n lignes, qui, pour le cas particulier des m = n r??duit au th??or??me de multiplication. Le m??me jour ( 30 novembre 1812 ) que Binet a pr??sent?? son document ?? l'Acad??mie, Cauchy a ??galement pr??sent?? une sur le sujet. (Voir Formule de Cauchy-Binet.) En cela, il a utilis?? le mot d??terminant dans son sens actuel, r??sum??e et simplifi??e ce qui ??tait alors connu sur le sujet, a am??lior?? la notation, et a donn?? le th??or??me de multiplication avec une preuve plus satisfaisante que Binet. Avec lui commence la th??orie dans sa g??n??ralit??.

La prochaine figure importante ??tait Jacobi (?? partir de 1827). Il a utilis?? t??t le d??terminant fonctionnel qui Sylvester appel?? plus tard Jacobienne, et dans ses m??moires en Crelle pour 1841, il traite sp??cialement ce sujet, ainsi que la classe de fonctions qui Sylvester a appel??s alternants alternatif. Vers le temps de derni??res m??moires de Jacobi, Sylvester (1839) et Cayley a commenc?? leur travail.

L'??tude des formes sp??ciales de d??terminants a ??t?? le r??sultat naturel de l'ach??vement de la th??orie g??n??rale. D??terminants axisym??triques ont ??t?? ??tudi??s par Lebesgue, Hesse, et Sylvester; d??terminants persymmetric par Sylvester et Hankel; circulants par Catalan, Spottiswoode, Glaisher, et Scott; d??terminants et gauches Pfaffians, dans le cadre de la th??orie de la transformation orthogonale, par Cayley; continuants par Sylvester; Wronskians (appel??e ainsi par Muir) par Christoffel et Frobenius; compos??s d??terminants par Sylvester, Reiss, et Picquet; Jacobiens et Hessois par Sylvester; et d??terminants Gauche sym??triques par Trudi. Des manuels sur le sujet de Spottiswoode ??tait la premi??re. En Am??rique, Hanus (1886), Weld (1893), et Muir / Metzler (1933) publi?? trait??s.

R??cup??r?? ?? partir de " http://en.wikipedia.org/w/index.php?title=Determinant&oldid=198700550 "