Ce cours sur le déterminant s’adresse aux étudiants en prépa MPSI et MP2I. Il contient des exemples et des exercices d’application qui faciliteront votre assimilation du contenu. N’hésitez pas à consulter notre série d’exercices corrigés pour acquérir une maîtrise solide de cours.

Dans tout ce chapitre, n est un entier naturel non nul, \mathbb{K} désigne \mathbb{R} \ ou \ \mathbb{C} et E est un \mathbb{K} -espace vectoriel de dimension n.

I) Formes n-linéaires alternées

Définition d’une forme n-linéaire alternée :
Soit f \ : E^{n} \rightarrow \mathbb{K} une application. On dit que f est une forme n-linéaire sur E lorsque : \forall i \in \llbracket 1,n \rrbracket , \ \forall (x_{1},x_{2},\dots,x_{n}) \in E^{n} l’application \begin{matrix} f_{i}&:&E&\rightarrow& \mathbb{K} \\ & & x&\rightarrow & f(x_{1},x_{2},\dots,x_{i-1},x,x_{i+1},\dots,x_{n}) \end{matrix} est linéaire.

Exemple 1 :
L’application \begin{matrix} det & : & \mathbb{K}^2 \times \mathbb{K}^2 & \rightarrow & \mathbb{K} \\ & & ((a,b),(c,d)) & \rightarrow & ad-bc \end{matrix} est une forme 2-linéaire (bilinéaire) sur \mathbb{K}^2 .

Définition d’une forme alternée :
On dit qu’une forme n-linéaire f , sur E, est alternée lorsque :
\forall (x_{1}, \dots , x_{n}) \in E^{n}, \forall (i,j) \in \llbracket 1,n \rrbracket ^{2} \ avec \ i \ne j , \ \ \ [ x_{i} = x_{j} \Rightarrow f(x_{1}, \dots , x_{n})=0 ]\ .

Exemple 2 :
L’application det définie dans l’exemple 1 est alternée.

Définition d’une forme antisymétrique :
On dit qu’une forme n-linéaire f , sur E, est antisymétrique lorsque :
\forall (x_{1}, \dots , x_{n}) \in E^{n}, \forall (i,j) \in \llbracket 1,n \rrbracket ^{2} \ avec \ i < j , \ \ \ f(x_{1}, x_{2} \dots , x_{n}) = - f(x_{1}, \dots , x_{i-1} , x_{j} , x_{i+1} ,\dots ,x_{j-1} , x_{i} , x_{j+1} , \dots , x_{n}) .

Exemple 3 :
L’application det définie dans l’exemple 1 est antisymétrique.

Proposition 1 :
Soit f une forme n-linéaire sur E.
f est alternée si et seulement si f est antisymétrique.

Démonstration :

Proposition 2 :
Soient f : E^{n} \rightarrow \mathbb{K} une forme n-linéaire alternée sur E et (x_{1}, \dots , x_{n}) \in E^{n} .
i) Si la famille (x_{1}, \dots , x_{n}) est liée alors f(x_{1}, \dots , x_{n}) = 0 .
ii) Pour tout k \in \llbracket 1,n \rrbracket , la valeur de f(x_{1}, \dots , x_{n}) ne change pas si on ajoute au vecteur x_{k} une combinaison linéaire des autres vecteurs.
iii) Pour tout \sigma \in S_{n}, \ \ \ f(x_{ \sigma (1) }, \dots , x_{ \sigma (n) } ) = \varepsilon ( \sigma ) f(x_{1}, \dots , x_{n})

Démonstration :

II) Déterminant d’une famille de vecteur dans une base

Dans toute cette partie on note \beta = (e_{1}, \dots , e_{n}) une base de E.

1) Définition et propriétés

Définition du déterminant d’une famille de vecteurs :
Soit (x_{1}, \dots , x_{n}) une famille de vecteurs de E. On pose Mat_{ \beta } (x_{1}, \dots , x_{n}) = (a_{ i,j} )_{1 \leq i,j \leq n } .
On appelle déterminant de la famille (x_{1}, \dots , x_{n}) dans la base \beta , et on note det_{ \beta } (x_{1}, \dots , x_{n}) , le scalaire suivant :
det_{ \beta } (x_{1}, \dots , x_{n}) = \sum_{\sigma \in S_{n} } \varepsilon ( \sigma ) \prod_{i=1}^{n} a_{ \sigma (i) , i } .
On le note dans ce cas : \begin{vmatrix} a_{1,1} & \dots & a_{1,n} \\ \vdots & \ddots & \vdots \\ a_{n,1} & \dots & a_{n,n} \end{vmatrix} .

Exemple 4 :
Dans \mathbb{R}^2 muni de sa base canonique \beta = (e_{1}, e_{2}) , on considère x_{1}=(a,c) \ et \ x_{2}=(b,d) .
Déterminer \det_{\beta} (x_{1},x_{2}) .

Exemple 5 :
Dans \mathbb{R}^3 muni de sa base canonique \beta = (e_{1}, e_{2}, e_{3}) , on considère x_{1}=(a,b,c), \ x_{2}=(a',b',c'), \ x_{3}=(a'',b'',c'') .
Déterminer \det_{\beta} (x_{1},x_{2}, x_{3}) .

Règle de Sarrus :
La règle de Sarrus est une méthode de calcul utilisée uniquement pour les déterminants de taille 3, et elle est plus pratique lorsque tous les coefficients du déterminant sont des valeurs numériques connues plutôt que des paramètres variables.

Règle de Sarrus

Proposition 3 :
Pour toute base e de E, on a det_{e} (e) = 1 .

Démonstration :

Proposition 4 :
Soit \beta = (e_{1}, \dots , e_{n}) une base de E.
L’application det_{ \beta } \ : \ E^{n} \rightarrow \mathbb{K} est une forme n-linéaire alternée sur E.

Démonstration :

Proposition 5 :
Soient \beta = (e_{1}, \dots , e_{n}) une base de E et \varphi une forme n-linéaire alternée sur E.
On a \varphi = \varphi (e_{1}, \dots , e_{n} ) det_{e}

Démonstration :

Corollaire 1 :
Soient e, \ e' deux bases de E, on a :
i) det_{e'} = det_{e'} (e) det_{e}
ii) det_{e'} (e) det_{e} (e') = 1
iii) Si e'' est une base de E, det_{e} (e'') = det_{e} (e') det_{e'} (e'')

Démonstration :

i) Appliquer la proposition 5 avec \varphi = det_{e'} .
ii) Appliquer i) en utilisant det_{e'} (e') = 1 .
iii) Appliquer i)

Proposition 6 :
Soient e une base de E et \mathcal{F} = (x_{1}, \dots , x_{n} ) une famille d’éléments de E.
\mathcal{F} est une base de E \Leftrightarrow \ det_{e} ( \mathcal{F} ) \ne 0

Démonstration :

Exemple 6 :
Dans le \mathbb{R}^3 muni de sa base canonique e=(e_{1}, e_{2} , e_{3} ) on considère les vecteurs f_{1} = (1,1,0), \ f_{2} = (1,0,1), \ f_{3}=(0,0,1) .
Montrer que la famille (f_{1}, f_{2}, f_{3} ) est une base de E.

2) Orientation d’un \mathbb{R} -espace vectoriel

Dans toute cette partie E est un \mathbb{R} -espace vectoriel de dimension n \in \mathbb{N} .

Proposition-définition 1 :
On définit sur l’ensemble des bases de E la relation binaire \mathcal{R} par :
Pour toutes bases e, e’ de E, e \mathcal{R} e' \Leftrightarrow det_{e}(e') > 0 .
\mathcal{R} est une relation d’équivalence. De plus, il existe exactement deux classes d’équivalence pour la relation \mathcal{R} .

Démonstration :

Définition 1 :
i) On dit que deux bases e et e’ de E ont la même orientation lorsque e \mathcal{R} e' .
ii) Orienter E, c’est choisir arbitrairement une base de référence \beta puis appeler base directe toute base ayant la même orientation que \beta et base indirecte toute base n’ayant pas la même orientation que \beta .

Exemple 7 :
On suppose que \mathbb{R}^3 est orienté et que e=(e_{1},e_{2},e_{3} ) est une base directe de \mathbb{R}^3 .
On note e'=(-e_{1},-e_{3}, -e_{2} ) .
det_{e}(e')=(-1)^{3} det_{e} (e_{2},e_{3},e_{1} ) = (-1)^{3} (-1)^{2} det_{e} (e_{1},e_{2},e_{3} ) =-1 .
det_{e}(e') <0 , e’ est alors une base indirecte de \mathbb{R}^3 .

Remarque 1 :
i) Dans \mathbb{R}^2 muni de sa base canonique e, l’aire algébrique du parallélogramme associé à la famille de vecteurs (\vec{u} , \vec{v} ) est det_{e} (\vec{u} , \vec{v} ) .
ii) Dans \mathbb{R}^3 muni de sa base canonique e, le volume algébrique du parallélépipède associé à la famille de vecteurs (\vec{u} , \vec{v} , \vec{w} ) est det_{e} (\vec{u} , \vec{v} , \vec{w} ) .

III) Déterminant d’un endomorphisme

Proposition-définition 2 :
Soient e = (e_1 , \dots , e_n ) une base de E et u un endomorphisme de E.
Le scalaire Mat_{e} (u(e_1 ) , \dots , u(e_n ) ) est indépendant de la base e choisie. On l’appelle déterminant de u et on le note det(u).

Démonstration :

Remarque 2 :
D’après la démonstration, pour tout (x_1 , \dots , x_n ) \in E , \ \ det_{e} ( u(x_1) , \dots , u(x_n))=det(u) det_{e} (x_1, \dots , x_n )

Proposition 7 :
Soient u,v \in \mathcal{L} (E) \ et \ \lambda \in \mathbb{K} .
i) det(0_{ \mathcal{L} (E) }) =0 .
ii) det(id_{ E }) =1 .
iii) det(\lambda u) =\lambda ^{n} det(u) .
iv) det(u \circ v) =det(u)det(v) .

Démonstration :

Caractérisation d’automorphisme :
Soit u un endomorphisme de E.
u \in GL(E) \Leftrightarrow det(u) \ne 0.
Dans ce cas, det(u^{-1}) =det(u)^{-1} .

Remarque 3 :
i) \forall u \in \mathcal{L} (E), \forall p \in \mathbb{N}, det(u^p)=det(u)^p .
ii) \forall u \in GL(E), \forall p \in \mathbb{Z}, det(u^p)=det(u)^p .
iii) En général, pour u,v \in \mathcal{L} (E), \ \ det(u+v) \ne det(u)+det(v) .
Par exemple, lorsque n \geq 2, \ \ det(id_E + id_E )=2^n \ne 2 = det(id_E) +det(id_E) .
iv) \forall u,v \in \mathcal{L} (E), \ det(u \circ v)=det(v \circ u) .
v) L’application \begin{matrix} \varphi & : & (GL(E), \circ )& \rightarrow & ( \mathbb{K}^* , \times ) \\ & & u & \rightarrow & det(u) \end{matrix} est un morphisme de groupe surjectif, non injectif.
En effet,
Soit \lambda \in \mathbb{K} , on définit u \in \mathcal{L} (E) \ par \ u(e_1)= \lambda e_1 \ et \ \forall i \in \llbracket 2,n \rrbracket , \ \ u(e_i)=e_i .
On a det(u)=det_{e} (u(e_1), u(e_2), \dots , u(e_n))= det_{e} (\lambda e_1, e_2, \dots , e_n)=\lambda det_{e} ( e_1, e_2, \dots , e_n) = \lambda .
Donc u est surjectif.
Pour la non injectivité il suffit de considérer l’endomorphisme de E définie par u(e_1)= 2 e_1 , \ u(e_2)= \frac{1}{2} e_2 \ et \ \forall i \in \llbracket 3,n \rrbracket , \ \ u(e_i)=e_i .
On a det(u)=det_{e} (u(e_1), u(e_2), \dots , u(e_n))= det_{e} (2 e_1, \frac{1}{2} e_2, e_3, \dots , e_n)= det_{e} ( e_1, e_2, \dots , e_n) =1=det(id) .
Et u \ne id_E donc det n’est pas injectif en général pour n \geq 2 .

IV) Déterminant d’une matrice carrée

Définition du déterminant d’une matrice :
Soit A = (a_{ i,j} )_{1 \leq i,j \leq n } \in \mathcal{M}_{n} ( \mathbb{K} ) .
On définit le déterminant de la matrice carrée A par la formule :
det(A)= \sum_{\sigma \in S_{n} } \varepsilon ( \sigma ) \prod_{i=1}^{n} a_{ \sigma (i) , i } .
On le note dans ce cas : \begin{vmatrix} a_{1,1} & \dots & a_{1,n} \\ \vdots & \ddots & \vdots \\ a_{n,1} & \dots & a_{n,n} \end{vmatrix} .

Remarque 4 :
Soient e=(e_1 , \dots , e_n) une base de E, \mathcal{F} = (x_1 , \dots , x_n ) une famille de vecteurs de E et u \in \mathcal{L} (E) . On a :
i) det_{e} ( \mathcal{F} ) = det ( Mat_{e} (u) .
ii) det(u) = det_e ( u( e_1) ,\dots , u( e_n )) = det (Mat_{e} (u)) .

Proposition 8 :
Soient A,B \in \mathcal{M}_{n} (\mathbb{K} ) \ et \ \lambda \in \mathbb{K} .
i) det(0_{ \mathcal{M}_{n} (\mathbb{K} ) }) =0 .
ii) det(I_{ n }) =1 .
iii) det(\lambda A) =\lambda ^{n} det(A) .
iv) det(AB) =det(A)det(B) .

Démonstration :
Soit e=(e_1 , \dots , e_n) une base de E.
i) Tous les coefficients de la matrice nulle sont nuls, donc en utilisant la définition du déterminant d’une matrice on trouve det(0_{ \mathcal{M}_{n} (\mathbb{K} ) }) =0 .
ii) det(I_{ n }) = det( Mat_{e} (e_1 , \dots , e_n ) = det_{e} (e)=1

Caractérisation de l’inversibilité d’une matrice par le déterminant :
Soit A \in \mathcal{M}_{n} (\mathbb{K} ) .
A est inversible \Leftrightarrow det(u) \ne 0.
Dans ce cas, det(A^{-1}) =det(A)^{-1} .

Démonstration :

Remarque 5 :
i) \forall A \in \mathcal{M}_{n} ( \mathbb{K} ) , \forall k \in \mathbb{N}, det(A^k)=det(A)^k .
i) \forall A \in GL_{n} ( \mathbb{K} ) , \forall k \in \mathbb{Z}, det(A^k)=det(A)^k .
iii) En général, pour A,B \in \mathcal{M}_{n} ( \mathbb{K} ), \ \ det(A+B) \ne det(A)+det(B) .
Par exemple, lorsque n \geq 2, \ \ det(I_n + I_n )=2^n \ne 2 = det(I_n) +det(I_n) .
iv) A,B \in \mathcal{M}_{n} ( \mathbb{K} ), \ det(AB)=det(BA) .
v) L’application \begin{matrix} \varphi & : & (GL_n(\mathbb{K}), \times )& \rightarrow & ( \mathbb{K}^* , \times ) \\ & & A & \rightarrow & det(A) \end{matrix} est un morphisme de groupe surjectif, non injectif (non injectif si n \geq 2 ).
vi) Deux matrices semblables ont le même déterminant.

Proposition 9 :
\forall A \in \mathcal{M}_{n} ( \mathbb{K}), \ \ det(A) = det (A^T) .

Démonstration :

Remarque 6 :
Cette proposition met en évidence le caractère n-linéaire alterné du déterminant par rapport aux lignes.

IV) Calcul des déterminants

Effet des opérations élémentaires sur le déterminant :
Grace au caractère n-linéaire alterné du déterminant par rapport aux lignes et aux colonnes on obtient les résultats suivants :
i) Transvection : Ajouter à une colonne (Resp. à une ligne) une combinaison linéaire des autres colonnes (Resp. lignes) ne change pas la valeur du déterminant.
ii) Permutation : Permuter deux colonnes ou deux lignes revient à multiplier le déterminant par -1.
iii) Dilatation : Multiplier une colonne (Resp. une ligne) par un scalaire \lambda revient à multiplier le déterminant par \lambda .

Définition (mineur, cofacteur et comatrice) :
Soient A=(a_{i,j} ) \in \mathcal{M}_{n} (\mathbb{K} ) \ et \ i,j \in \llbracket 1,n \rrbracket .
i) On appelle mineur associé à (i,j) le déterminant de la matrice obtenue en éliminant le i^{ème} ligne et la j^{ème} de A. On le note \Delta_{i,j} .

ii) On appelle cofacteur associé à (i,j) le scalaire A_{i,j} = (-1)^{i+j} \Delta_{i,j} .
iii) On appelle comatrice associée à A, et on note com(A), la matrice définie par :
com(A)= (A_{i,j} )_{1 \leq i,j \leq n } \in \mathcal{M}_{n} ( \mathbb{K} ).


Exemple 8 :

Proposition 10 :
Soit A = (a_{i,j} ) \in \mathcal{M}_{n} ( \mathbb{K} ) .
i) Développement suivant la j^{ème} colonne :
\forall j \in \llbracket 1,n \rrbracket , \ \ det(A)= \sum_{i=1}^{n} a_{i,j} \Delta_{i,j} .
ii) Développement suivant la i^{ème} ligne :
\forall i \in \llbracket 1,n \rrbracket , \ \ det(A)= \sum_{j=1}^{n} a_{i,j} \Delta_{i,j} .

Démonstration :

Exemple 9 :
On pose \Delta = \begin{vmatrix} a&b&c \\ x&y&z \\ e&f&g \end{vmatrix} .
i) En développant par rapport à la première colonne on trouve :
\Delta =a \begin{vmatrix} y&z \\ f&g \end{vmatrix} -x \begin{vmatrix} b&c \\ f&g \end{vmatrix} +e\begin{vmatrix} b&c \\ y&z \end{vmatrix} .
ii) En développant par rapport à la deuxième ligne on trouve :
\Delta =-x \begin{vmatrix} b&c \\ f&g \end{vmatrix} +y \begin{vmatrix} a&c \\ e&g \end{vmatrix} -z\begin{vmatrix} a&b \\ e&f \end{vmatrix} .

Corollaire 2 :
Le déterminant d’une matrice triangulaire est le produit de ses coefficients diagonaux.

Démonstration :

Déterminant de Vandermonde :
Soient n\in \mathbb{N} \ et \ \lambda_1 , \dots , \lambda_n \in \mathbb{K} .
On note V(\lambda_1 , \dots , \lambda_n ) = \begin{vmatrix} 1& \lambda_1 & \dots & \lambda_{1}^{n-1} \\ \vdots & \vdots & \vdots & \vdots \\ 1& \lambda_n & \dots & \lambda_{n}^{n-1} \end{vmatrix} .
V(\lambda_1 , \dots , \lambda_n ) est dit déterminant de Vandermonde associé à (\lambda_1 , \dots , \lambda_n ) .
On a V(\lambda_1 , \dots , \lambda_n ) = \prod_{1 \leq i < j \leq n } (\lambda_{j} - \lambda_{i} )

Démonstration :

Exemple 10 :
On pose \Delta = \begin{vmatrix} 1&1&1&1 \\ 1&-1&1&-1 \\ 1&2&4&8 \\ 1&-2&4&-8 \end{vmatrix} .
On remarque que \Delta = V(1,-1,2,-2) .
Donc \Delta = (-2-1)(2-1)(-1-1)(-2+1)(2+1)(-2-2)=72 .

Proposition 11 :
\forall A \in \mathcal{M}_{n} (\mathbb{K}) , \ \ A \cdot com(A)^{T} =com(A)^{T} \cdot A = det(A) I_n .
En particulier, si A est inversible alors A^{-1} = \frac {1} {det(A)} com(A)^{T} .

Démonstration :