Subsections


Calcul Matriciel

Les matrices jouent un rôle fondamental en algèbre linéaire, où elles fournissent un outil de calcul irremplaçable. L'objectif de ce chapitre est de donner les premières définitions et les bases du calcul matriciel, qui seront utilisées dans les chapitres suivants. On fait également le lien avec les systèmes linéaires, et la méthode du pivot de Gauss.

Matrices

On va introduire ici les matrices, comme de nouveaux objets mathématiques, puis un certain nombre d'opérations sur et avec des matrices. Ceci nous permettra de voir que certaines matrices, à savoir les matrices carrées, peuvent être considérées comme une généralisation des nombres usuels (réels, complexes,...), dans la mesure où on verra qu'on peut les additionner et les multiplier entre elles. On verra qu'il existe toutefois quelques différences importantes entre matrices et nombres, comme par exemple le fait que le produit des matrices carrées n'est pas commutatif.

Définitions


\begin{definition}
Soient $M,N$\ deux entiers naturels. Une matrice $M\times N$\...
...s \lq\lq carr\'ees'' $N\times N$
\\lq a \'el\'ements dans $\mathbb{K}$.
\end{definition}

Les cas particuliers les plus couramment rencontrés sont les suivants:

  1. Matrices carrées: ce sont des matrices dont le nombre de lignes $ M$ est égal au nombre $ N$ de colonnes. On vera que ces matrices carrées possèdent un certain nombre de propriétés spécifiques que n'ont pas les matrices ``rectangulaires'' quelconques.
  2. Matrices colonnes (parfois appelées ``vecteurs colonne''): ce sont des matrices $ M\times 1$

    \begin{displaymath}
\left(
\begin{array}{c}
x_1\\ x_2\\ \vdots\\ x_M
\end{array}\right)\ .
\end{displaymath}

    Etant donné un vecteur $ {\vec{v}}$ dans un espace vectoriel de dimension finie $ E$, et une base $ {\mathcal B}=\{{\vec{u}}_1,\dots ,{\vec{u}}_N\}$ de ce dernier, on a vu que $ {\vec{v}}$ admet une unique décomposition comme combinaison linéaire sur la base $ {\mathcal B}$:

    $\displaystyle {\vec{v}}= x_1{\vec{u}}_1 + x_2{\vec{u}}_2 + \dots +x_n{\vec{u}}_n\ .
$

    $ {\vec{v}}$ est donc complètement caractérisé par ses coordonnées dans la base $ {\mathcal B}$, que l'on a coutume de représenter par une matrice colonne

    \begin{displaymath}
M_{\mathcal B}({\vec{v}}) = \left(
\begin{array}{c}
x_1\\ x_2\\ \vdots\\ x_M
\end{array}\right)\ .
\end{displaymath}

    Il est très important de remarquer que cette matrice colonne dépend non seulement de $ {\vec{v}}$, mais aussi de la base $ {\mathcal B}$. Si une autre base $ {\mathcal B}'$ est choisie, les coordonnées changent: $ M_{\mathcal B}({\vec{v}})\ne M_{{\mathcal B}'}({\vec{v}})$ en général.
  3. Matrices lignes: (parfois appelées ``vecteurs ligne'', ou ``covecteurs''): ce sont des matrices $ 1\times N$.

    $\displaystyle (x_1,x_2,\dots x_N)\ .
$

    Une matrice ligne n'est finalement pas autre chose qu'un $ N$-uplet, on peut donc identifier l'ensemble $ {\mathcal M}_{1,N}(\mathbb{K})$ avec $ \mathbb{K}^N$.


La matrice identité $ I_N$ est une matrice $ N\times N$ dont tous les éléments sont nuls, sauf les éléments diagonaux qui valent 1:

\begin{displaymath}I_N = \left(
\begin{array}{cccc}
1&0&\dots &0\\
0&1&\dots &0\\
\vdots&\vdots&\ddots&\vdots\\
0&0&\dots &1
\end{array}\right)\end{displaymath} (2.1)

Opérations simples sur les matrices

On peut effectuer un certain nombre d'opérations simples sur les matrices.
  1. Addition des matrices: Soient $ A,B$ deux matrices $ M\times N$. La matrice $ C=A+B$ est la matrice $ M\times N$, dont les éléments sont les nombres $ c_{ij} = a_{ij} + b_{ij}$:

    \begin{displaymath}\begin{array}{lll}
A+B &=&
\left(
\begin{array}{cccc}
a_{11}&...
...{M2}+b_{M2}&\dots &a_{MN}+b_{MN}
\end{array}\right)
\end{array}\end{displaymath} (2.2)

    On ne peut additionner que des matrices de même taille
    La matrices résultante est de même taille
  2. Multiplication par un scalaire. Soit $ A$ une matrice $ M\times N$, et soit $ \lambda$ un scalaire (réel ou complexe). Le produit de $ \lambda$ par $ A$ est la matrice $ M\times N$ notée $ \lambda A$, et définie par

    \begin{displaymath}\lambda A =
\lambda \left(
\begin{array}{cccc}
a_{11}&a_{12}&...
... a_{M1}&\lambda a_{M2}&\dots &\lambda a_{MN}
\end{array}\right)\end{displaymath} (2.3)

    La matrices résultante est de même taille que la matrice initiale
  3. Transposition. Soit $ A$ une matrice $ M\times N$. La transposée de $ A$, notée $ B = {}^T A$, est la matrice $ N\times M$ définie par $ b_{ij} = a_{ji}$:

    \begin{displaymath}B = { }^TA
\left(
\begin{array}{cccc}
a_{11}&a_{21}&\dots & a...
...ddots&\vdots\\
a_{1N}&a_{2N}&\dots & a_{MN}
\end{array}\right)\end{displaymath} (2.4)

    Par exemple, la transposée d'une matrice carrée est encore une matrice carrée de même taille; la transposée d'une matrice colonne de $ M$ éléments est une matrice ligne de $ M$ éléments, et la transposée d'une matrice ligne de $ N$ éléments est une matrice colonne de $ N$ éléments.
  4. Conjugaison Hermitienne. Soit $ A$ une matrice $ M\times N$. La conjuguée Hermitienne de $ A$, notée $ B = {}^H A$, est la matrice $ N\times M$ définie par $ b_{ij} = \overline{a_{ji}}$:

    \begin{displaymath}B = { }^H A =
\left(
\begin{array}{cccc}
\overline{a_{11}}&\o...
...}&\overline{a_{2N}}&\dots &\overline{a_{MN}}
\end{array}\right)\end{displaymath} (2.5)

    La conjuguée Hermitienne d'une matrice carrée est encore une matrice carrée de même taille; la conjuguée Hermitienne d'une matrice colonne de $ M$ éléments est une matrice ligne de $ M$ éléments, et la conjuguée Hermitienne d'une matrice ligne de $ N$ éléments est une matrice colonne de $ N$ éléments.

Par exemple, la transposée de la matrice $ 2\times 3$

\begin{displaymath}
A = \left(
\begin{array}{ccc}
1&2i&3-i\\ 4i&5+2i&6-i
\end{array}\right)
\end{displaymath}

est la matrice

$\displaystyle { }^T A = \left(\begin{array}{cc}
1&4i\\ 2i&5+2i\\ 3-i&6-i
\end{array}\right)\ ,
$

alors que sa conjuguée Hermitienne est la matrice

$\displaystyle { }^H A = \left(\begin{array}{cc}
1&-4i\\ -2i&5-2i\\ 3+i&6+i
\end{array}\right)\ .
$

Une conséquence importante des deux premières propriétés listées ci-dessus est le théorème suivant:
\begin{theorem}
\begin{enumerate}
\item
L'ensemble des matrices $m\times n$\ \\lq a...
...m_\mathbb{C}({\mathcal M}_{m,n}(\mathbb{C})) = mn$.
\end{enumerate}\end{theorem}
En effet, les opérations d'addition des matrices et de multiplications des matrices par un scalaire sont bien définies. On peut aussi facilement vérifier que tous les axiomes de la définition d'un $ {\mathbb{R}}$ (ou $ \mathbb{C}$)-espace vectoriel sont bien satisfaits.

Produit de matrices

Sous certaines conditions, les matrices peuvent être multipliées entre elles, pour donner d'autres matrices. La règle d'or du produit matriciel est la suivante:

Dans un produit $ A\times B$ de deux matrices $ A$ et $ B$, les lignes de $ A$ sont multipliées élément par élément par les colonnes de $ B$. Il faut donc que les lignes de $ A$ aient le même nombre d'éléments que les colonnes de $ B$.

Le produit ``Matrice$ \times$Vecteur''

L'une des opérations fondamentales est le produit d'une matrice par un vecteur colonne. La règle opératoire est simple.

Soit $ A\in{\mathcal M}_{M,N}(\mathbb{C})$ une matrice $ M\times N$ (c'est à dire, à $ M$ lignes et $ N$ colonnes), et soit $ v{\mathcal M}_{N,1}(\mathbb{C})$ une matrice colonne, à $ N$ lignes:

\begin{displaymath}
A =
\left(
\begin{array}{cccc}
a_{11}&a_{12}&\dots &a_{1N}\\...
...begin{array}{c}
v_1\\ v_2\\ \vdots\\ v_N
\end{array}\right)\ .
\end{displaymath}

Alors $ w=Av\in{\mathcal M}_{M,1}(\mathbb{C})$ est une matrice colonne, à $ M$ lignes

$\displaystyle w_m = (Av)_m = \sum_{n=1}^N a_{kn}v_n\ ,\quad m=1,\dots M\ .
$

\begin{displaymath}
\left(
\begin{array}{cccc}
a_{11}&a_{12}&\dots &a_{1N}\\
a_...
...
a_{M1}v_1 + a_{M2}v_2 + \dots + a_{MN}v_N
\end{array}\right)
\end{displaymath}

Cette opération est bien conforme à la règle d'or énoncée plus haut: la longueur des lignes de la matrice (donc, le nombre de colonnes) est égale au nombre d'éléments (c'est à dire de lignes) de la colonne.

EXEMPLE 2.1   Calculons par exemple

\begin{displaymath}
\left(
\begin{array}{ccc}
1&2&3\\
4&5&6\\
7&8&9
\end{array...
...+ 2b + 3c
\\
4a + 5b + 6c
\\
7a + 8b + 9c
\end{array}\right)
\end{displaymath}

EXEMPLE 2.2   Application: considérons un système linéaire de deux équations à trois inconnues $ x,y,z$:

\begin{displaymath}
\left\{
\begin{array}{ccccccc}
ax &+& by &+& cz &=& u\\
a'x &+& b'y &+& c'z &=& v
\end{array}\right.
\end{displaymath}

On vérifie facilement que ce système peut se mettre sous la forme d'une égalité entre deux matrices colonne (à deux lignes)

$\displaystyle \begin{pmatrix}a&b&c\\ a'&b'&c'\end{pmatrix}\begin{pmatrix}x\\ y\\ z \end{pmatrix}= \begin{pmatrix}u\\ v\end{pmatrix}\ .
$

EXEMPLE 2.3   Dans le plan, on peut exprimer l'action d'une rotation d'angle $ \theta$ autour de l'origine sur les coordonnées $ (x,y)$ d'un point du plan (voir FIG. [*] ci dessous), sous forme matricielle

\begin{displaymath}
\left(
\begin{array}{c}
x'\\ y'
\end{array}\right)
=
\left(
...
...ay}\right)
\left(
\begin{array}{c}
x\\ y
\end{array}\right)\ .
\end{displaymath}

Figure: Rotation d'angle $ \theta$ autour de l'origine du plan.

En effet, en notant $ r=\sqrt{x^2+y^2}$, le point initial peut être décrit par ses coordonnées polaires $ (r,\alpha)$, et son image par la rotation par ses coordonnées polaires $ (r,\alpha+\theta)$. On a donc

$\displaystyle x'$ $\displaystyle = r\cos(\alpha+\theta)$ $\displaystyle = r\cos\alpha\cos\theta-r\sin\alpha\sin\theta$  
$\displaystyle y'$ $\displaystyle = r\sin(\alpha+\theta)$ $\displaystyle = r\cos\alpha\sin\theta+r\sin\alpha\cos\theta\ .$  

ce qui coïncide avec l'égalité ci-dessus.

EXEMPLE 2.4   Dans $ {\mathbb{R}}^3$, les rotations autour de l'origine sont plus complexes. La notion de base reste la notion de rotation dans un plan; par exemple, la matrice associée à la rotation d'angle $ \phi$ dans le plan $ xOy$, autour de l'axe $ z$, est de la forme

$\displaystyle R_z(\phi) = \begin{pmatrix}
\cos\phi&\sin\phi&0\\
-\sin\phi&\cos\phi&0\\
0&0&1
\end{pmatrix}\ ,
$

alors que la matrice de la rotation d'angle $ \theta$ dans le plan $ yOz$, donc autour de l'axe $ x$, s'écrit

$\displaystyle R_x(\theta) = \begin{pmatrix}
1&0&0\\
0&\cos\theta&\sin\theta\\
0&-\sin\theta&\cos\theta
\end{pmatrix}\ .
$

Figure: Paramétrisation d'une rotation de $ {\mathbb R}^3$ par ses angles d'Euler.

Il est possible de démontrer que toute matrice de rotation de l'espace $ {\mathbb{R}}^3$ peut se mettre sous la forme d'un produit de trois matrices

$\displaystyle R = R_z(\psi)R_x(\theta)R_z(\phi)\ ;
$

les trois angles $ \phi,\theta,\psi$ sont appelés angles d'Euler de $ R$.

EXEMPLE 2.5   En mécanique classique, on repère les coordonnées spatio-temporelles d'un point par rapport à un référentiel Galiléen par une matrice colonne

\begin{displaymath}
\left(
\begin{array}{c}
x\\ y\\ z\\ t
\end{array}\right)\ .
\end{displaymath}

Etant donné un second référentiel Galiléen, en translation uniforme de vitesse $ {\vec{v}}(v_x,v_y,v_z)\in{\mathbb{R}}^3$ par rapport au premier, les coordonnées spatio-temporelles du point par rapport au second référentiel peuvent s'exprimer sous forme matricielle, faisant intervenir la matrice Galiléenne

\begin{displaymath}
G({\vec{v}}) =
\left(
\begin{array}{cccc}
1&1&1&-v_x\\
1&1&...
...-v_x\\
0&0&0&-v_y\\
0&0&0&-v_z\\
0&0&0&0
\end{array}\right)
\end{displaymath}

On peut en effet écrire les nouvelles coordonnées

\begin{displaymath}
\left(
\begin{array}{c}
x -v_x t\\ y-v_yt\\ z-v_zt\\ t
\end{...
...})
\left(
\begin{array}{c}
x\\ y\\ z\\ t
\end{array}\right)\ .
\end{displaymath}

L'action de la matrice identité $ I_N$ est particulièrement simple: étant donné une matrice colonne, notée $ {}^T(x_1,x_2,\dots x_N)$, on a

\begin{displaymath}\left(
\begin{array}{cccc}
1&0&\dots &0\\
0&1&\dots &0\\
\v...
...t(
\begin{array}{c}
x_1\\ x_2\\ \vdots\\ x_N
\end{array}\right)\end{displaymath} (2.6)

Produits de matrices carrées

Soient $ A$ et $ B$ deux matrices carrées $ N\times N$. Le produit $ C=AB$ est bien défini, et donne encore une matrice $ N\times N$

\begin{displaymath}\left\{
\begin{array}{lll}
c_{11} &=& a_{11}b_{11} +a_{12}b_{...
..._{2N} +a_{N3}b_{3N} + \dots +a_{NN}b_{NN}\ ,
\end{array}\right.\end{displaymath} (2.7)

ce que l'on synthétise sous la forme suivante

$\displaystyle c_{jk} = a_{j1}b_{1k} +a_{j2}b_{2k} +\dots + a_{jN}b_{Nk} =
\sum_{n=1}^N a_{jn}b_{nk}\ .$ (2.8)

Par exemple, le produit de deux matrices $ 2\times 2$ s'écrit

\begin{displaymath}
\left(
\begin{array}{cc}
a&b\\ c &d
\end{array}\right)
\left...
...gin{array}{cc}
ax+bz&ay+bt\\ cx+dz &cy + dt
\end{array}\right)
\end{displaymath}

EXEMPLE 2.6   Si l'on reprend le cas des matrices de rotation du plan vue dans l'exemple [*]: on sait que la composée d'une rotation d'angle $ \alpha$ autour de l'origine par une rotation d'angle $ \beta$ autour de l'origine est toujours une rotation autour de l'origine du plan, d'angle $ \alpha + \beta$. Au niveau matriciel, une peu de trigonométrie montre que

\begin{displaymath}
\left(
\begin{array}{cc}
\cos\alpha&-\sin\alpha\\ \sin\alpha...
...
\sin(\alpha+\beta) &\cos(\alpha+\beta)
\end{array}\right)\ .
\end{displaymath}

EXEMPLE 2.7   Reprenons cette fois l'exemple des matrices Galiléennes de l'exemple [*] ci-dessus. Il est clair que si un premier référentiel est animé d'un mouvement rectiligne de vitesse $ {\vec{v}}$ par rapport à un second, lui même animé d'un mouvement rectiligne de vitesse $ {\vec{v}}'$ par rapport à un troisième, le premier est animé d'un mouvement rectiligne de vitesse $ {\vec{v}}+ {\vec{v}}'$ par rapport au troisième. En termes de matrice, les coordonnées du point considéré par rapport au troisième référentiel s'expriment sous la forme

\begin{displaymath}
\left(
\begin{array}{c}
x''\\ y''\\ z''\\ t''
\end{array}\ri...
...}) \left(
\begin{array}{c}
x\\ y\\ z\\ t
\end{array}\right)\ ,
\end{displaymath}

ce qui amène à considérer le produit matriciel $ G({\vec{v}}')G({\vec{v}})$. On obtient alors facilement

\begin{displaymath}
G({\vec{v}}')G({\vec{v}}) =
\left(
\begin{array}{cccc}
1&0&0...
...\!v_y')\\
0&0&1&-(v_z\!+\!v_z')\\
0&0&0&1
\end{array}\right)
\end{displaymath}

d'où

$\displaystyle G({\vec{v}}')G({\vec{v}}) = G({\vec{v}}+{\vec{v}}')\ .
$

On peut noter que dans ces deux derniers exemples, le produit de ces matrices était commutatif. Par exemple, $ G({\vec{v}})G({\vec{v}}')=G({\vec{v}}')G({\vec{v}})$. Il est important de se souvenir que tel n'est pas toujours le cas, comme le montre l'exemple suivant: on a

\begin{displaymath}
\left(
\begin{array}{cc}
1&2\\ 3&4
\end{array}\right)
\left(...
...t)
=
\left(
\begin{array}{cc}
19&22\\ 43&50
\end{array}\right)
\end{displaymath}

alors que

\begin{displaymath}
\left(
\begin{array}{cc}
5&6\\ 7 &8
\end{array}\right)
\left...
...=
\left(
\begin{array}{cc}
23&34\\ 31&46
\end{array}\right)\ .
\end{displaymath}

Donc, le produit matriciel est (en général) non commutatif. Par contre, quelques calculs permettent de montrer que
\begin{proposition}
\begin{enumerate}
\item
Le produit des matrices carr\'ees es...
... + AC\ ,\quad
(A+B)C = AC + BC\ .
\end{equation}\end{enumerate}\end{proposition}

REMARQUE 2.1  
  1. Soient $ A,B$ et $ C$ trois matrices carrées. L'égalité $ AB=AC$ entre les produits de matrices $ AB$ et $ AC$ n'implique pas $ B=C$.
  2. Etant données deux matrices carrées $ A$ et $ B$, on peut avoir $ AB=0$ sans que $ A=0$ ni $ B=0$.

Là encore, la matrice identité joue un rôle particulier. On vérifie aisément, en utilisant la définition du produit des matrices carrées
\begin{proposition}
Pour toute matrice carr\'ee $A\in{\mathcal M}_N(\mathbb{K})$...
... multiplication matricielle dans ${\mathcal M}_N(\mathbb{K})$.
\end{proposition}

Produits de matrices rectangulaires

Il est parfois possible de multiplier entre elles des matrices rectangulaires. Un premier exemple est le produit ``matrice-vecteur'' que nous avons vu plus haut. Le cas des matrices carrées est lui aussi un exemple particulier.

Dans le cas général, il n'est pas possible de multiplier n'importe quelle matrice par n'importe quelle matrice. La règle d'or énoncée plus haut impose des contraintes fortes.

Plus précisément, pour pouvoir multiplier deux matrices $ A$ et $ B$, il faut et il suffit que les lignes de $ A$ aient même longueur que les colonnes de $ B$. Voir en FIG. [*] pour une preprésentation graphique de la situation.

Figure: Représentation schématique du produit de matrices rectangulaires

Ainsi, si $ A\in{\mathcal M}_{M,N}(\mathbb{C})$ est une matrice $ M\times N$ et si $ B\in{\mathcal M}_{N,K}(\mathbb{C})$ est une matrice $ N\times K$, alors on pourra effectuer le produit $ C=AB$. $ C$ est alors une matrice $ M\times K$, dont les éléments sont donnés par

\begin{displaymath}\left\{
\begin{array}{lll}
c_{11} &=& a_{11}b_{11} +a_{12}b_{...
..._{2K} +a_{M3}b_{3K} + \dots +a_{MN}b_{NK}\ ,
\end{array}\right.\end{displaymath} (2.9)

ce que l'on synthétise sous la forme suivante

$\displaystyle c_{jk} = a_{j1}b_{1k} +a_{j2}b_{2k} +\dots + a_{jN}b_{Nk} =
\sum_{n=1}^N a_{jn}b_{nk}\ ,\quad j=1,\dots M\ ,\ k=1,\dots K\ .$ (2.10)

EXEMPLE 2.8   Calculons le produit d'une matrice $ 2\times 3$ par une matrice $ 3\times 2$

\begin{displaymath}
\left(
\begin{array}{ccc}
1&2&3\\ 4&5&6
\end{array}\right)
\...
...{cc}
a+2c+3e&b+2d+3f\\ 4a+5c+6e&4b+5d+6f
\end{array}\right)\ ,
\end{displaymath}

on obtient bien une matrice $ 2\times 2$.

La question de la commutativité des matrices rectangulaires ne se pose pas (à moins qu'elles ne soient carrées). Si $ A$ et $ B$ ne sont pas des matrices carrées, on ne pourra pas calculer à la fois le produit $ AB$ et le produit $ BA$. Par contre, on a
\begin{proposition}
Le produit des matrices, lorsqu'il est bien d\'efini, est associatif,
et distributif par rapport \\lq a l'addition des matrices.
\end{proposition}

Transposée d'un produit de deux matrices

Il est possible de montrer le résultat suivant, donné sans démonstration ici.
\begin{proposition}
Soient $A\in{\mathcal M}_{MN}(\mathbb{C})$\ et $B\in{\mathca...
...{equation}
{}^T\!\!(AB) = {}^T\!\!B {}^T\!\!A\ .
\end{equation}\end{proposition}
Ainsi, la transposition inverse l'ordre des matrices dans un produit matriciel.

De façon plus générale, cette propriété reste vraie dans le cas de produits de plusieurs matrices: étant données une famille de matrices $ A_1,A_2,\dots A_n$ telles que le produit $ A_1A_2\dots A_n$ ait un sens, on a

$\displaystyle {}^T\!\!(A_1A_2\dots A_n) = {}^T\!\!A_n {}^T\!\!A_{n-1}\dots {}^T\!\!A_{1}
\ .
$

Puissances d'une matrice carrée

Partant de la définition du produit de matrices carrées, on peut considérer le cas particulier des puissances d'une matrice. En effet, étant donnée une matrice $ A\in{\mathcal M}_N(\mathbb{C})$, on peut considérer les matrices $ N\times N$ définies par

$\displaystyle A^2 = A A\ ,\quad A^3 = A A^2\ ,\quad A^4 = A A^3\ ,\dots
$

et par récurrence la $ N$-ième puissance d'une matrice $ A$

$\displaystyle A^k = A.A.A\dots A\qquad\hbox{($k$\ fois)}\ .$ (2.11)

EXEMPLE 2.9   Reprenons le cas des rotations du plan, en posant

\begin{displaymath}
R(\theta) = \left(
\begin{array}{cc}
\cos\theta&-\sin\theta\\ \sin\theta &\cos\theta
\end{array}\right)\ ,
\end{displaymath}

et utilisant les calculs précédents, on voit facilement que

\begin{displaymath}
R(\theta)^2 = \left(
\begin{array}{cc}
\cos(2\theta)&-\sin(2...
...sin(2\theta) &\cos(2\theta)
\end{array}\right) = R(2\theta)\ ,
\end{displaymath}

et plus généralement, par récurrence

$\displaystyle R(\theta)^n = R(n\theta)\ .
$

A quoi cela sert-il ? supposons que nous ayions à étudier une transformation linéaire du plan, associant à un point $ P$ de coordonnées $ (x,y)$ le point $ P'$ de coordonnées $ (ax+by,cx+dy)$. Organisant les coordonnées sous forme d'un vecteur colonne, on peut écrire

$\displaystyle \left(\begin{array}{c}
ax+by \\ cx+dy\end{array}\right) =
A
\left(\begin{array}{c}
x \\ y\end{array}\right)
$

avec une matrice

$\displaystyle A = \left(\begin{array}{cc}
a&b\\ c&d\end{array}\right)
$

Si on applique une deuxième fois cette transformation, on va aboutir à un nouveau point du plan dont les coordonnées sont données par

$\displaystyle A \left[A \left(\begin{array}{c}
x \\ y\end{array}\right)\right]
= A^2 \left(\begin{array}{c}
x \\ y\end{array}\right)
\ ,
$

et en appliquant $ k$ fois cette transformation, on aboutit à un nouveau point du plan dont les coordonnées sont données par

$\displaystyle A^k \left(\begin{array}{c}
x \\ y\end{array}\right)\ .
$

On verra à la fin de ce cours des techniques permettant de calculer simplement des puissances d'une matrice.

Inverse d'une matrice carrée

On a déjà vu que les matrices carrées possèdent un statut particulier. En effet, le produit de deux matrices de $ {\mathcal M}_N(\mathbb{K})$ est encore une matrice de $ {\mathcal M}_N(\mathbb{K})$. De plus, on a vu que la matrice identité $ I_N$ joue un rôle d'élément neutre pour le produit matriciel dans $ {\mathcal M}_N(\mathbb{K})$. Il est donc naturel de s'interroger sur l'existence d'une notion d'inverse d'une matrice.
\begin{definition}
Soit $A\in{\mathcal M}_N(\mathbb{C})$\ une matrice carr\'ee. ...
...nversible}, et on note
$B=A{^{-1}}$\ la matrice inverse de $A$.
\end{definition}

On verra plus loin qu'il est possible de simplifier cette définition, et de montrer le résultat suivant.


\begin{theorem}
Soit $A\in{\mathcal M}_N(\mathbb{K})$. Si il existe une matrice ...
...)$
telle que $BA=I_N$, alors $A$\ est inversible, et $B=A{^{-1}}$.
\end{theorem}

REMARQUE 2.2   On peut considérer que les matrices sont en quelque sorte une généralisation des nombres, puisque l'on peut les additionner, les soustraire et les multiplier. La première différence de marque entre nombres et matrices tient dans le fait que le produit matriciel n'est pas commutatif en général, contrairement au produit des nombres. Une seconde différence fondamentale est que toute matrice n'admet pas nécessairement une matrice inverse (parmi les nombres, seul le nombre zéro n'admet pas d'inverse). On verra par exemple que des matrices très simples, telles que

$\displaystyle \begin{pmatrix}1&0\\ 0&0\end{pmatrix}\ ,\quad
\begin{pmatrix}0&0\...
...matrix}1&1\\ 1&1\end{pmatrix}\ ,\quad
\begin{pmatrix}1&2\\ 1&2\end{pmatrix}\ ,
$

et bien d'autres encore, n'admettent pas d'inverse. C'est ce qui fait une des difficultés,... mais aussi le piment du calcul matriciel...


Etant donnée une matrice $ A\in{\mathcal M}_N(\mathbb{C})$, rechercher l'inverse de $ A$ revient à résoudre (si possible) un système de $ N^2$ équations à $ N^2$ inconnues. Ceci dit, il est possible de simplifier le problème d'inversion, en exploitant les connexions avec les systèmes linéaires.

En effet, étant donné une matrice colonne $ V\in{\mathcal M}_N(\mathbb{K})$, considérons le système linéaire, posé sous forme matricielle

$\displaystyle AU = V\ :\quad
A\begin{pmatrix}u_1\\ u_2\\ \vdots\\ u_N\end{pmatrix}=\begin{pmatrix}v_1\\ v_2\\ \vdots\\ v_N\end{pmatrix}\ .
$

Sl existe $ B$ telle que $ BA=I_N$, alors on pourra écrire

$\displaystyle BAU = U = BV\ ,
$

ou encore

$\displaystyle \begin{pmatrix}u_1\\ u_2\\ \vdots\\ u_N\end{pmatrix} =
B \begin{pmatrix}v_1\\ v_2\\ \vdots\\ v_N\end{pmatrix}\ ,
$

c'est à dire que l'on aura résolu le système linéaire. Inversement, la solution du système linéaire, si elle existe, prendra nécessairement cette forme. Par conséquent, inverser $ A$ équivaut à résoudre le système linéaire $ AU=V$ pour un membre de droite $ V$ quelconque.

EXEMPLE 2.10   Reprenons l'exemple d'une matrice de rotation $ R(\theta)$. Naturellement, la matrice inverse ne peut être autre que $ R(-\theta)$. Vérifions le en résolvant le système linéaire

$\displaystyle R(\theta) U = V\ ,
$

autrement dit

\begin{displaymath}
\left\{
\begin{array}{lllll}
\cos(\theta)u_1 &-& \sin(\theta...
...\sin(\theta)u_1 &+& \cos(\theta)u_2 &=& v_2
\end{array}\right.
\end{displaymath}

qui équivaut à

\begin{displaymath}
\left\{
\begin{array}{lllll}
\cos(\theta)u_1 &-& \sin(\theta...
...& u_2 &=& \cos(\theta)v_2 - \sin(\theta)v_1
\end{array}\right.
\end{displaymath}

En reportant la seconde équation dans la première, on obtient $ \cos(\theta)u_1 = v_1 (1-\sin^2(\theta)) + v_2 \sin(\theta)\cos(\theta)$, d'où la solution sous forme matricielle

$\displaystyle \begin{pmatrix}
u_1\\ u_2
\end{pmatrix} =
\begin{pmatrix}
\cos(\t...
..._1\\ v_2
\end{pmatrix} =
R(-\theta) \begin{pmatrix}
u_1\\ u_2
\end{pmatrix}\ ,
$

et finalement

$\displaystyle R(\theta){^{-1}}= R(-\theta)\ .
$


Considérons deux matrices carrées $ A,B\in{\mathcal M}_N(\mathbb{C})$, supposées inversibles. On peut alors former le produit $ B{^{-1}}A{^{-1}}$, et calculer

$\displaystyle (AB) (B{^{-1}}A{^{-1}}) = A A{^{-1}}= I_N\ .
$

On a donc montré
\begin{theorem}
Soient $A,B\in{\mathcal M}_N(\mathbb{C})$\ deux matrices carr\'e...
...ar
\begin{equation}
(AB){^{-1}}= B{^{-1}}A{^{-1}}\ .
\end{equation}\end{theorem}

REMARQUE 2.3   On pourrait s'étonner que l'inverse du produit de deux matrices soit le produit des inverses, dans l'ordre inverse. En fait, ceci est tout sauf surprenant, si l'on interprète correctement les choses. En prenant une analogie dans la vie courante, quelle est l'opération inverse de l'opération matinale ``mettre ses chaussettes puis mettre ses chaussures'' ? on ôte tout d'abord ses chaussures, avant d'ôter ses chaussettes. Il se passe la même chose avec les matrices. Multiplier par $ AB$ une matrice colonne revient à la multiplier par $ B$, puis multiplier le résultat par $ A$. L'opération inverse sera donc de multiplier par $ A{^{-1}}$, puis par $ B{^{-1}}$, ce qui revient à multiplier par $ B{^{-1}}A{^{-1}}$.

Matrices, systèmes linéaires, et pivot de Gauss

Le pivot de Gauss, qu'on a vu précédemment, peut se mettre sous forme matricielle. En effet, considérons un système linéaire de $ n$ équations à $ m$ inconnues

\begin{displaymath}
\left\{
\begin{array}{lll}
a_{11}x_1 + a_{12}x_2 + \dots + a...
... + a_{m2}x_2 + \dots + a_{mn}x_n &=& b_m\ .
\end{array}\right.
\end{displaymath}

Ce système linéaire peut se mettre sous forme matricielle

\begin{displaymath}
\left(
\begin{array}{cccc}
a_{11}&a_{12}&\dots&a_{1n}\\
a_{...
...begin{array}{c}
b_1\\ b_2\\ \vdots\\ b_m
\end{array}\right)\ ,
\end{displaymath}

et les manipulations que nous avons effectuées dans le cadre de l'application de la méthode du pivot peuvent elles aussi s'écrire sous cette forme.

On peut par exemple introduire la notation suivante, en accolant à la matrice $ A$ la colonne de $ b$, séparée par une ligne verticale pour éviter tout risque de confusion avec une matrice:

\begin{displaymath}
\left(
\begin{array}{cccc\vert c}
a_{11}&a_{12}&\dots&a_{1n}...
...ts&\vdots\\
a_{m1}&a_{m2}&\dots&a_{mn}&b_m
\end{array}\right)
\end{displaymath}

Attention ! Il s'agit uniquement d'une notation destinée à simplifier l'écriture d'un système linéaire. Ceci n'introduit aucun objet mathématique nouveau.


Reprenant ce que nous avons vu au chapitre précédent, on peut de nouveau dire que l'ensemble des solutions du système ne change pas lorsque

  1. On permute l'ordre des lignes
  2. On multiplie (terme à terme) une ligne par un scalaire non-nul.
  3. On ajoute à une ligne une combinaison linéaire quelconque des autres lignes.

EXEMPLE 2.11   Reprenons le système linéaire de trois équations à trois inconnues

\begin{displaymath}\left\{
\begin{array}{llllllll}
x &+& 3y &+& 5z &= &0\qquad...
...\
3x &-& y &+& z &=& 2\qquad\qquad& (c)
\end{array}
\right.\end{displaymath} (2.12)

Sous forme matricielle, on peut reformuler ce système via le tableau

\begin{displaymath}
\left(
\begin{array}{ccc\vert c}
1&3&5&0\\
2&2&-1&3\\
3&-1&1&2
\end{array}\right)\ ,
\end{displaymath}

que l'on transforme en

\begin{displaymath}
\left(
\begin{array}{ccc\vert c}
1&3&5&0\\
0&-4&-11&3\\
0&-10&-14&2
\end{array}\right)\ ,
\end{displaymath}

puis en forme échelonnée

\begin{displaymath}
\left(
\begin{array}{ccc\vert c}
1&3&5&0\\
0&-4&-11&3\\
0&0&27&-11
\end{array}\right)\ .
\end{displaymath}

On obtient donc directement la solution: la dernière ligne nous donne $ z=-11/27$, la deuxième $ y=(-3-11z)/4 = 10/27$, puis finalement la première donne $ x=-3y-5z=25/27$.

Matrices particulières

Certaines matrices carrées possèdent des propriétés caractéristiques qui ont d'importantes conséquences. On en donne une liste non exhaustive ci dessous.
\begin{definition}
\begin{enumerate}
\item
Une matrice carr\'ee $N\times N$\ $A ...
...isplaymath}
a_{ji} = -a_{ij}\ .
\end{displaymath}\end{enumerate}\end{definition}
Notons que les éléments diagonaux d'une matrice antisymétrique sont nécessairement nuls.


On peut facilement démontrer que tout matrice peut s'écrire comme somme d'une matrice symétrique et d'une matrice antisymétrique. En effet, étant donnée une matrice $ A$ quelconque, il suffit d'écrire

$\displaystyle A = \frac1{2}(A + {}^T\!\!\!A) + \frac1{2}(A - {}^T\!\!A)\ .
$

On vérifie facilement que

$\displaystyle (A + {}^T\!\!A)_{ij} = a_{ij} + a_{ji} = (A + {}^T\!\!A)_{ji}\ ,
$

et

$\displaystyle (A - {}^T\!\!A)_{ij} = a_{ij} - a_{ji} = -(A + {}^T\!\!A)_{ji}\ ,
$

de sorte que $ A + {}^T\!\!A$ est symétrique, et $ A - {}^T\!\!A$ est antisymétrique.

EXEMPLE 2.12   La matrice $ 2\times 2$

\begin{displaymath}
A = \left(
\begin{array}{cc}
1 &2\\ 3 &4
\end{array}\right)
\end{displaymath}

peut sécrire

\begin{displaymath}
\left(
\begin{array}{cc}
1 &2\\ 3 &4
\end{array}\right) =
\l...
...
+
\left(
\begin{array}{cc}
0&-0,5\\ 0,5 &0
\end{array}\right)
\end{displaymath}

EXEMPLE 2.13   Dans $ {\mathbb{R}}^2$, considérons la matrice

\begin{displaymath}
R(\theta) = \left(
\begin{array}{cc}
\cos\theta&-\sin\theta\\ \sin\theta &\cos\theta
\end{array}\right)\ ,
\end{displaymath}

qui agit sur les vecteurs colonne par rotation d'angle $ \theta$ de leurs composantes

$\displaystyle R(\theta) \left(\begin{array}{c}x\\ y\end{array}\right)
=
\left(\...
...}
x\cos\theta - y\sin\theta\\
y\cos\theta + x\sin\theta
\end{array}\right)\ .
$

Il est immédiat de vérifier que $ R(\theta)$ n'est ni symétrique ni antisymétrique, mais que

\begin{displaymath}
R(\theta) = \left(
\begin{array}{cc}
\cos\theta&0\\ 0 &\cos\...
...array}{cc}
0&-\sin\theta\\ \sin\theta &0
\end{array}\right)\ .
\end{displaymath}


\begin{definition}
\begin{enumerate}
\item
Une matrice carr\'ee $A = \{a_{ij}\}\...
...
a_{ji} = -\overline{a_{ij}}\ .
\end{displaymath}\end{enumerate}\end{definition}
Notons par exemple que toute matrice réelle symétrique est Hermitienne, et que toute matrice réelle antisymétrique est anti-Hermitienne. Par ailleurs, les éléments diagonaux d'une matrice anti-Hermitienne sont nécessairement nuls.


Dans le même esprit que ce que nous avons vu plus haut, tout matrice peut s'écrire comme somme de'une matrice Hermitienne et d'une matrice anti-Hermitienne. En effet, étant donnée une matrice $ A$ quelconque, il suffit d'écrire

$\displaystyle A = \frac1{2}(A + {}^H\!\!\!A) + \frac1{2}(A - {}^H\!\!A)\ .
$

On vérifie facilement que

$\displaystyle (A + {}^H\!\!A)_{ij} = a_{ij} + \overline{a_{ji}} = (A + {}^H\!\!A)_{ji}\ ,
$

et

$\displaystyle (A - {}^H\!\!A)_{ij} = a_{ij} - \overline{a_{ji}} = -(A + {}^H\!\!A)_{ji}\ ,
$

de sorte que $ A + {}^H\!\!A$ est Hermitienne, et $ A - {}^H\!\!A$ est anti-Hermitienne.


\begin{definition}
\begin{enumerate}
\item
Une matrice carr\'ee $A\in{\mathcal M...
...splaymath}
{}^H\!\!A A = I_N\ .
\end{displaymath}\end{enumerate}\end{definition}

EXEMPLE 2.14   Dans $ {\mathbb{R}}^2$, considérons la matrice de rotation $ R(\theta)$. On a

\begin{displaymath}
{}^T\!\!R(\theta) = \left(
\begin{array}{cc}
\cos\theta&\sin\theta\\ -\sin\theta &\cos\theta
\end{array}\right)\ ,
\end{displaymath}

et on voit facilement que pour tout $ \theta$,

\begin{displaymath}
{}^T\!\!R(\theta)R(\theta)
=
\left(
\begin{array}{cc}
\cos^2...
...0\\ 0 &\cos^2\theta + \sin^2\theta
\end{array}\right)
= I_2\ ,
\end{displaymath}

donc pour tout $ \theta$, $ R(\theta)$ est une matrice orthogonale.


\begin{definition}
\begin{enumerate}
\item
Une matrice carr\'ee $A\in{\mathcal M...
...$\ repr\'esentant la matrice $N\times N$\ nulle.
\end{enumerate}\end{definition}

EXEMPLE 2.15   La matrice carrée

\begin{displaymath}
\left(
\begin{array}{cc}
0 &1\\ 0 &0
\end{array}\right)
\end{displaymath}

est évidemment nilpotente. Plus généralement, on peut montrer que toute matrice dont tous les éléments placés au dessus de la diagonale (ou en dessous) sont nuls, c'est à dire toute matrice de la forme

\begin{displaymath}
A=\left(
\begin{array}{cccc}
0&\star&\dots &\star\\
0&0&\do...
...ts&\ddots&\vdots\\
\star&\star&\dots &0
\end{array}\right)\ ,
\end{displaymath}

$ \star$ représente un nombre quelconque, est nilpotente.

Bruno Torresani 2009-02-18