Matrices

Rappels cours 1ère année

Définitions

Soient $p,q\in \N^*$. On notera :

  1. $\blacklozenge\,$ $\MM_{p,q}(\K)$ l'ensemble des matrices de type $(p,q)$ à coefficients dans $\K$.
  2. $\blacklozenge\,$ $\MM_{n,n}(\K)$, ensemble des matrices carrées de type $(n,n)$, ou d'ordre $n$, se note plus simplement $\mathscr{M}_n(\K)$.

Soient $A=(a_{i\,j}),\,B=(b_{i\,j})\in \MM_{p,q}$ et $\lambda \in \K$. On définit la matrice $C=(c_{i\,j})=A+B$ par, $$\forall (i,j)\in \inter{1,p}\times \inter{1,q},\quad c_{i\,j}=a_{i\,j}+b_{i\,j}.$$ On définit également la matrice $\lambda A=(a'_{i\,j})$ par: $$\forall (i,j)\in \inter{1,p}\times \inter{1,q},\quad a'_{i\,j}=\lambda a_{i\,j}.$$

Muni des lois précédentes, $ \big( \MM_{p,q}(\K),+,. \big)$ est un $\K$-e-v de dimension finie. De plus, $\dim(\MM_{p\,q}(\K))=pq$.

Pour tout $(k,\ell)\in \inter{1,p}\times \inter{1,q}$, on définit la matrice $E_{k\,\ell}\in \MM_{pq}(\K)$ par: $E_{k\,\ell}$ est la matrice dont tous les termes sont nuls sauf celui d'indice $(k,\ell)$ qui est égal à $1$.

i.e. le terme d'indice $(i,j)$ de $E_{k\,\ell}$ vaut : $ \delta _{ki}\delta_{\ell j}$.

La famille $(E_{k\,\ell})_{(k,\ell) \in \inter{1,p} \times \inter{1,q}}$ est une base de $\MM_{pq}(\K)$.
De plus, pour toute matrice $A=(a_{ij}) \in \MM_{p,q}(\K)$, on a : $\, A= \underset{1 \leqslant j \leqslant q} {\dsp \sum_{1 \leqslant i \leqslant p}} {a_{ij}E_{ij}}$.

La base $(E_{k\ell})_{(k,\ell) \in \inter{1,p} \times \inter{1,q}}$ est appelée base canonique de $\MM_{p,q}(\K)$.

Multiplication matricielles Soit $A\in \MM_{p\,q}(\K)$ et $B\in \MM_{q,r}(\K)$. On définit, la matrice $C=(c_{ik})_{(i,k) \in \inter{1,p} \times \inter{1,r}}$ produit de $A$ par $B$, noté $C=AB$, par $$\forall (i,k) \in \inter{1,p} \times \inter{1,r} \ , \ c_{ik} = \dsp \sum_{j=1}^q{a_{ij}b_{jk}}.$$

Remarque

Cette définition n'a un sens que si $A$ est de type $(p,q)$ et $B$ de type $(q,r)$. Ainsi, le produit $AB$ peut être défini sans que $BA$ ne le soit.

  1. Si $A \in \MM_{p,q}(\K), \ B \in \MM_{q,r}(\K) \textrm{ et } C \in \MM_{r,s}(\K)$, alors : $A(BC) = (AB)C$.
  2. Si $A \in \MM_{p,q}(\K) \textrm{ et } B_1, B_2 \in\MM_{q,r}(\K)$, on a : $A(B_1+ B_2)= A B_1 + A B_2$.
  3. Si $A_1, A_2 \in \MM_{p,q}(\K) \textrm{ et } B \in \MM_{q,r}(\K)$, on a : $(A_1+A_2)B= A_1B + A_2 B$.

Rang d'une matrice Le rang d'une matrice $A \in \MM_{p,q}(\K)$ est, par définition, le rang de ses vecteurs colonnes (éléments de $\K^p$). On le note : $\rg A$.

Si $A\in \MM_{pq}(\K)$ alors $\rg (A)\leq \min(p,q)$.

Transposée Soit $A = (a_{ij})_{\underset{\scriptstyle 1 \leqslant j \leqslant q}{1 \leqslant i \leqslant p}}\in \MM_{p,q}(\K)$. On appelle transposée de $A$ la matrice ${\,}^tA =(a'_{ji})_{\underset{\scriptstyle 1 \leqslant i \leqslant p}{1\leqslant j \leqslant q}} \in \MM_{q,p}(\K)$ définie par : $$ \forall (i,j) \in \inter{1,p} \times \inter{1,q} \ , a'_{ji}=a_{ij}.$$

Soient $A \in \MM_{p,q}(\K) \text{ et } B \in \MM_{q,r}(\K)$, alors ${\,}^t (AB)={\,}^t B {\,}^t A$.

Cas des matrices carrées

Dans $\MM_{n}(\K)$, la multiplication des matrices est une loi de composition interne. On notera:

  1. $\blacklozenge\,$ On notera $I_n$ l'élément neutre de $\MM_{n}(\K)$ (pour la loi $\times$) i.e. pour tout $A\in \MM_n(\K),\,\,A\times I_n=I_n\times A=A$.
  2. $\blacklozenge\,$ $\MM_n(\K)$ est non intègre (si $n\geq 2$), i.e. on peut trouver des matrices $A,B$ telles que : $A\neq 0, \ B\neq 0 \text{ et } AB=0$.
  3. $\blacklozenge\,$ $\MM_n(\K)$ est non commutative (si $n\geq 2$), i.e. $AB$ en général n'est pas égale à $BA$.

(E3A 2003)

Soit $\BB=\{E_{i\,j},i,j\in \inter{1,n}\}$, la base canonique de $\MM_n(\K)$. Pour $A,\,B\in \BB$, calculer $AB$.

Application: Montrer qu'il n'existe pas une norme $N$ définie sur $\MM_n(\K)$ telle que, pour tout $A,\,B\in \MM_n(\K)$, $N(AB)=N(BA)$.

Correction

Soient $A,B\in \BB$, il existe alors $i,j,k,\ell\in \inter{1,n}$ tels que $A=E_{i\,j},\,B=E_{k\,\ell}$.

Soient $\alpha,\,\beta\in \inter{1,n}$, on a $$(E_{i\,j}E_{k\,\ell})_{\alpha\,\beta}=\dsum_{\gamma=1}^n (E_{i\,j})_{\alpha\,\gamma}(E_{k\,\ell})_{\gamma\,\beta}=\dsum_{\gamma=1}^n\delta_{i\,\alpha}\delta_{j\,\gamma}\delta_{\gamma \,k}\delta_{\ell \,\beta} . = \delta_{i\,\alpha}\delta_{j \,k}\delta_{\ell \,\beta}$$ donc si $j\neq k$ alors $E_{i\,j}E_{k\,\ell}=0$, sinon ($j=k$): $(E_{i\,j}E_{k\,\ell})_{\alpha\,\beta} = \delta_{i\,\alpha}\delta_{\ell \,\beta}$, i.e. $E_{i\,j}E_{k\,\ell}=E_{i\,\ell}$. Conclusion $E_{i\,j}E_{k\,\ell}=\delta_{j\,k}E_{i\,\ell}$.

La relation précédente est une vraie machine pour fabriquer des matrices $A$, $B$ telles que $AB=0$ et $BA\neq 0$. Par exemple $$E_{1\,2}E_{2\,3}=E_{1\,3} \text{ tandis que } E_{2\,3}E_{1\,2}=0.$$ Si on suppose maintenant qu'il existe une norme $N$ sur $\MM_n(\K)$ tel que $N(AB)=N(BA)$ pour tout $A,\,B\in \MM_n(\K)$, on aurait: $$0< N(E_{1\,3})=N(E_{1\,2}E_{2\,3})=N(E_{2\,3}E_{1\,2})=N(0)=0$$ ce qui est évidemment impossible.

Remarque

Donc $AB=0$ n'implique pas que $A=0$ ou $B=0$.

(Navale PSI 2018)

Soient $A,\,B\in\MM_n(\R)$ telles que $(AB)^2=0$. A-t-on $(BA)^2=0$?

Correction

Soit $A=\begin{pmatrix} 1&0&0\\ 0&0&0\\ 0&1&0 \end{pmatrix}$ et $B=\begin{pmatrix} 0&0&1\\ 0&1&0\\ 0&0&0 \end{pmatrix}$. Alors $$AB= \begin{pmatrix} 1&0&0\\ 0&0&0\\ 0&1&0 \end{pmatrix}\begin{pmatrix} 0&0&1\\ 0&1&0\\ 0&0&0 \end{pmatrix}= \begin{pmatrix} 0&0&1\\ 0&0&0\\ 0&1&0 \end{pmatrix},$$ et $(AB)^2=\begin{pmatrix} 0&1&0\\ 0&0&0\\ 0&0&0 \end{pmatrix}.$ $$BA= \begin{pmatrix} 0&0&1\\ 0&1&0\\ 0&0&0 \end{pmatrix}\begin{pmatrix} 1&0&0\\ 0&0&0\\ 0&1&0 \end{pmatrix}=\begin{pmatrix} 0&1&0\\ 0&0&0\\ 0&0&0 \end{pmatrix}$$ et $(BA)^2=0$.

Soient $A,\,B\in \MM_n(\K)$. On dit que $A$ et $B$ commutent entre elles ssi $AB=BA$.

Soient $A,\,B\in \MM_n(\K)$, on suppose que $A$ commute avec $B$, alors $$\forall m\in \N,\quad (A+B)^m=\dsum_{k=0}^m\binom{m}{k}A^kB^{m-k}.$$

Matrice inversible Soit $A\in \MM_n(\K)$. On dit que $A$ est une matrice inversible ssi: $$\exists B\in \MM_n(K),\,BA=AB=I_n.$$ Si $B$ existe elle est unique, on note $A^{-1}=B$.

On notera $GL_n(\K)$ l'ensemble des éléments inversibles de $\MM_n(\K)$.

Si $A,B \in GL_n(\K)$, alors $AB \in GL_n(\K),\, {\,}^t A \in GL_n(\K)$ et : $$(AB)^{-1} = B^{-1}A^{-1} \text{ et } ({\,}^t A)^{-1} = {\,}^t \,(A^{-1}).$$

(CCP 2015)

Soit $z\in\C^*$, on considère la matrice $A(z)=\begin{pmatrix} 0&z&z^2\\ z^{-1}&0&z\\ z^{-2}&z^{-1}&0 \end{pmatrix}$.

Calculer $A(z)^2$, en déduire que $A(z)$ est inversible et donner son inverse.

Correction

Un calcul simple donne: $$A(z)^2= \begin{pmatrix} 2&z&z^2\\ z^{-1}&2&z\\ z^{-2}&z^{-1}&2 \end{pmatrix}=2\begin{pmatrix} 1&0&0\\ 0&1&0\\ 0&0&1 \end{pmatrix}+\begin{pmatrix} 0&z&z^2\\ z^{-1}&0&z\\ z^{-2}&z^{-1}&0 \end{pmatrix}=2I_3+A(z).$$ Autrement dit, $A(z)^2-A(z)=2I_3$ soit $A(z)\left(\dfrac{1}{2}\left(A(z)-I_3\right)\right)=I_3$. On en déduit alors que $A(z)$ est inversible et $A(z)^{-1}=\frac{1}{2}(A(z)-I_3)$.

Une matrice carrée $A = (a_{ij}) \in \MM_n(\K)$ est dite symétrique (resp. antisymétrique) ssi ${\,}^t A=A$ (resp. ${\,}^t A=-A$).

On notera $\mathscr{S}_n(\K)$ l'ensemble des matrices symétriques d'ordre $n$ et $\mathscr{AS}_n(\K)$ l'ensemble des matrices antisymétriques d'ordre $n$.

$\mathscr{S}_n(\K)$ et $\mathscr{AS}_n(\K)$ sont des s-e-v supplémentaires de $\MM_n(\K)$, de dimensions respectives $\dsp \frac{n(n+1)}{2}$ et $\dsp \frac{n(n-1)}{2}$.

Une matrice carrée $A = (a_{ij}) \in \MM_n(\K)$ est dite triangulaire supérieure (resp. inférieure) si : $$\forall (i,j) \in \inter{1,n}^2 \ , \ [j< i \ \Rightarrow \ a_{ij}=0] \ (\text{ resp. } [j>i \ \Rightarrow \ a_{ij}=0]).$$ On notera $TS_n(\K)$ (resp. $TI_n(\K)$) l'ensemble des matrices triangulaires supérieures (resp. inférieures) d'ordre $n$.

Remarque

Il est clair que : $A \in TS_n(\K) \Leftrightarrow {\,}^t A \in TI_n(\K)$.

$TS_n(\K)$ est une s-e-v de $\MM_n(\K)$, de dimension $\dsp \frac{n(n+1)}{2}$.

Remarque

Puisque $TI_n(\K)=\{{\,}^t A,\, A\in TS_n(\K)\}$. Alors $TI_n(\K)$ est aussi une s-e-v de $\MM_n(\K)$, isomorphe (par {la transposition}), en tant qu'espace vectoriel, à la précédente, et donc $$\dim(TI_n(\K))=\dim(TS_n(\K)=\dfrac{n(n+1)}{2}.$$ On s'intéresse davantage (au moins dans le programme de PSI) aux matrices triangulaires supérieures, pour leur lien naturel avec les application linéaires (c.f. théorème ci-après, ...).

Une matrice carrée $A = (a_{ij}) \in \MM_n(\K)$ est dite diagonale si et seulement si : $$\forall (i,j) \in \inter{1,n}^2 \ , \ j \neq i \ \Rightarrow \ a_{ij}=0.$$ On note alors : $A = \textrm{diag}(a_{11},a_{22}, \ldots, a_{nn})$, et $D_n(\K)$ l'ensemble des matrices diagonales d'ordre $n$.

Matrice d'une application linéaire

Généralités

Soient

  • $E$ un $\K$- ev de dim $q$, rapporté à une base $\mathscr{B}_E=(e_1, \ldots, e_q)$
  • $F$ un $\K$- ev de dim $p$, rapporté à une base $\mathscr{B}_F=(e'_1, \ldots, e'_p)$

Matrice d'une famille de vecteurs Soit $(x_1, \ldots, x_q)$ des vecteurs de $F$. Alors, pour tout $j \in \inter{1,q}$, il existe $(a_{ij})_{1 \leqslant i \leqslant p} \in \K ^p$ tels que $x_j = \dsp \sum_{i=1}^p{a_{ij}e'_i}$. $A=(a_{ij})_{\underset{\scriptstyle 1 \leqslant j \leqslant q}{1 \leqslant i \leqslant p}} \in\MM_{p,q}(\K)$ s'appelle la matrice des $(x_j)$ dans la base $\mathscr{B}_F$.

Exemple

Soit $F=\R_2[X]$, $\BB_F=\left(e_0'=\frac{(X-1)(X-2)}{2},e_1'=\frac{X(X-2)}{-1},e_2'=\frac{X(X-1)}{2}\right)$.
On considère $\mathcal{F} =(P_0=1,P_1=X,P_2=X^2,P_3=X^2-X+1)$. Alors $$ \begin{array}{ccccccccccccc} P_0&=&1&\times&\textcolor{red}{e_0'}&+&1&\times&\textcolor{red}{e_1'}&+& 1&\times&\textcolor{red}{e_2'}\\ P_1&=&0&\times&\textcolor{red}{e_0'}&+&1&\times&\textcolor{red}{e_1'}&+& 2&\times&\textcolor{red}{e_2'}\\ \textcolor{blue}{P_2}&=&\textcolor{blue}{0}&\times&\textcolor{red}{e_0'}&+&\textcolor{blue}{1}&\times&\textcolor{red}{e_1'}&+& \textcolor{blue}{4}&\times&\textcolor{red}{e_2'}\\ P_3&=&1&\times&\textcolor{red}{e_0'}&+&1&\times&\textcolor{red}{e_1'}&+& 3&\times&\textcolor{red}{e_2'} \end{array} $$ Ce qui donne $$ \begin{matrix} \begin{matrix} \underset{\downarrow}{P_0}&\underset{\downarrow}{P_1}&\underset{\downarrow}{\textcolor{blue}{P_2}}&\underset{\downarrow}{P_3} \end{matrix} &\\ \begin{pmatrix} 1 \,\,& \,0 \,\,& \,\,\textcolor{blue}{0}\,\,& 1 \,\,\\ 1 \,\,& \,1 \,\,&\,\, \textcolor{blue}{1}\,\, & 1 \,\,\\ 1 \,\,& \,2\,\, & \,\, \textcolor{blue}{4}\,\, & 3 \,\, \\ \end{pmatrix}&\begin{matrix} \longleftarrow\,\textcolor{red}{e_0'}\\ \longleftarrow\,\textcolor{red}{e_1'}\\ \longleftarrow\,\textcolor{red}{e_2'} \end{matrix} \end{matrix} $$

Soit $u \in \mathscr{L}(E,F)$. On appelle : matrice de $u$ dans les bases $\mathscr{B}_E$ et $\mathscr{B}_F$ la matrice dans $\mathscr{B}_F$ du système de vecteurs $(u(e_1), \ldots ,u(e_q))$.

On note $M_{\mathscr{B}_F}^{\mathscr{B}_E}(u)$ ou $M_{\mathscr{B}_E,\mathscr{B}_F}(u)$ ou $M(u; \mathscr{B}_E, \mathscr{B}_F)$.

Remques

Ainsi : $M_{\mathscr{B}_F}^{\mathscr{B}_E}(u) = (a_{ij}) \in \MM_{p,q}(\K)$, où $a_{ij}$ désigne la $i^{\grave{e}me}$ coordonnée de $u(e_j)$ dans la base $\mathscr{B}_F$.

Donc pour déterminer la matrice de $u$ relativement aux bases $B_E$ et $B_F$, on calcul $u(B_E)$. $$ \left\{\begin{array}{l} u(e_1)=a_{11}e_1'+a_{21}e_2'+\cdots+a_{i1}e_i'+\cdots+a_{p1}e_p'\\ u(e_2)=a_{12}e_1'+a_{22}e_2'+\cdots+a_{i2}e_i'+\cdots+a_{p2}e_p'\\ \vdots\\ \textcolor{blue}{u(e_j)=a_{11}e_1'+a_{21}e_2'+\cdots+a_{i1}e_i'+\cdots+a_{p1}e_p'}\\ \vdots\\ u(e_q)=a_{11}e_1'+a_{21}e_2'+\cdots+a_{i1}e_i'+\cdots+a_{p1}e_p'\\ \end{array} \right. $$ Ceci nous donne la matrice de $u$. $$ \begin{matrix} \begin{matrix} \phantom{ M(u)=} \end{matrix}&\begin{matrix} u(e_1)& u(e_2)&& \textcolor{blue}{u(e_j)}&&u(e_q) \end{matrix} &\\ \begin{matrix} \,\\ \,\\ M(u)=\\ \,\\ \, \end{matrix} & \begin{pmatrix} a_{11} & \quad a_{12} & \dots & \textcolor{blue}{a_{1j}} & \dots & a_{1q} \\ a_{21} & \quad a_{22} & \dots & \textcolor{blue}{a_{2j}} & \dots & a_{2q} \\ \vdots & \quad \vdots & & \textcolor{blue}{\vdots }& & \vdots \\ a_{i1} & \quad a_{i2} & \dots & \textcolor{blue}{a_{ij}} & \dots & a_{iq} \\ \vdots & \quad \vdots & & \textcolor{blue}{\vdots} & & \vdots \\ a_{p1} & \quad a_{p2} & \dots & \textcolor{blue}{a_{pj}} & \dots & a_{pq} \end{pmatrix} & \begin{matrix} \longleftarrow\, e_1'\\ \longleftarrow\, e_2'\\ \vdots\\ \longleftarrow\, e_i'\\ \vdots\\ \longleftarrow\, e_p' \end{matrix} \end{matrix} $$

Remarque

La matrice d'une application linéaire est avant tout UNE MATRICE, donc ne contient que des scalaires.

A éviter

A éviter

(DS 2020)

On note dans cette partie $V =\MM_2(\C)$; l'espace vectoriel des matrices carrées d'ordre 2 à coefficients complexes. On fixe dans $V$ la base canonique $\EE=\{e_1=E_{1\,1},e_2=E_{1\,2},e_3=E_{2\,1},e_4=E_{2\,2}\}$ où $E_{i\,j}$ est la matrice dont tous les coefficients sont nuls sauf celui de la ligne $i$ et la colonne $j$.

Soit $A=\begin{pmatrix} 2&6\\1&1 \end{pmatrix}\in V$, et on considère $\fonct{\varphi}{V}{V}{M}{MA-AM}$.

  1. Écrire la matrice de $\varphi$ dans la base $\EE$.
  2. Calculer $\varphi(I_2)$ et $\varphi(A)$, que peut-t-on dire sur $\dim (\Ker(\varphi))$?
  3. Résoudre l'équation $\varphi(X)=5X$ d'inconnu $X\in V$.
  4. On pose $\BB=\{I_2,A,B,C\}$ avec $B=\begin{pmatrix} -2&-4\\1&2 \end{pmatrix},\quad C=\begin{pmatrix} 3&-9\\1&-3 \end{pmatrix}.$
    1. Montrer que $\BB$ est une base de $V$.
    2. Déterminer la matrice de $\varphi$ dans la base $\BB$.
Correction

  1. Et non, la matrice de $\varphi$ n'est pas une matrice de taille 2!.
    On calcul $\varphi( \EE)$, $$\begin{array}{l} \varphi(E_{1\,1})= \begin{pmatrix} 1&0\\ 0&0 \end{pmatrix}\begin{pmatrix} 2&6\\1&1 \end{pmatrix}-\begin{pmatrix} 2&6\\1&1 \end{pmatrix}\begin{pmatrix} 1&0\\ 0&0 \end{pmatrix} =\begin{pmatrix} 2&6 \\0&0 \end{pmatrix}-\begin{pmatrix} 2&0\\ 1&0 \end{pmatrix}=\begin{pmatrix} 0&6\\ -1&0 \end{pmatrix}\\ \varphi(E_{1\,2})= \begin{pmatrix} 0&1\\ 0&0 \end{pmatrix}\begin{pmatrix} 2&6\\1&1 \end{pmatrix}-\begin{pmatrix} 2&6\\1&1 \end{pmatrix}\begin{pmatrix} 0&1\\ 0&0 \end{pmatrix} =\begin{pmatrix} 1&1 \\0&0 \end{pmatrix}-\begin{pmatrix} 0&2\\ 0&1 \end{pmatrix}=\begin{pmatrix} 1&-1\\ 0&-1 \end{pmatrix}\\ \varphi(E_{2\,1})= \begin{pmatrix} 1&0\\ 0&0 \end{pmatrix}\begin{pmatrix} 2&6\\1&1 \end{pmatrix}-\begin{pmatrix} 2&6\\1&1 \end{pmatrix}\begin{pmatrix} 1&0\\ 0&0 \end{pmatrix} =\begin{pmatrix} 0&0 \\2&6 \end{pmatrix}-\begin{pmatrix} 6&0\\ 1&0 \end{pmatrix}=\begin{pmatrix} -6&0\\ 1&6 \end{pmatrix}\\ \varphi(E_{2\,2})= \begin{pmatrix} 1&0\\ 0&0 \end{pmatrix}\begin{pmatrix} 2&6\\1&1 \end{pmatrix}-\begin{pmatrix} 2&6\\1&1 \end{pmatrix}\begin{pmatrix} 1&0\\ 0&0 \end{pmatrix} =\begin{pmatrix} 0&0 \\1&1 \end{pmatrix}-\begin{pmatrix} 0&6\\ 0&1 \end{pmatrix}=\begin{pmatrix} 0&-6\\ 1&0 \end{pmatrix} \end{array} $$ Ce qui donne $$M_{\EE}(\varphi)=\begin{pmatrix} 0&1&-6&0\\ 6&-1&0&-6\\ -1&0&1&1\\ 0&-1&6&0 \end{pmatrix} $$
  2. $\varphi(I_2)=I_2A-AI_2=0,\,\,\varphi(A)=A^2-A^2=0$, donc $I_2,\,A\in \Ker(\varphi)$ et comme $A$ n'est pas colinéaire à $I_2$ on déduit alors que la famille $(I_2,A)$ est libre ce qui implique que $\dim (\Ker(\varphi))\geq 2$.
  3. Soit $X=\begin{pmatrix} a&b\\ c&d \end{pmatrix}$, on a $$\varphi(X)=5X \Longleftrightarrow \begin{pmatrix} b-6c&6a-b-6d\\ c+d-a&6c-b \end{pmatrix}=\begin{pmatrix} 5a&5b\\5c&5d \end{pmatrix}\Longleftrightarrow\left\{\begin{array}{l} d=-a\\ b=2a\\ a=-2c \end{array}\right.$$ i.e. $X\in \Vect\left(\begin{pmatrix} -2&-4\\ 1&2 \end{pmatrix}\right)$.

Soient $u \in \mathscr{L}(E,F)$ et $A=(a_{ij}) \in \MM_{p,q}(\K) = M_{\mathscr{B}_F}^{\mathscr{B}_E}(u)$, $x \in E$, $x=\dsp \sum_{j=1}^q{x_j e_j}$ et $y=u(x) \in F$, $y= \dsp \sum_{i=1}^p{y_i e'_i}$.
Soit enfin $X$ la matrice colonne des coordonnées de $x$ dans $\mathscr{B}_E$ : $X={\,}^t (x_1\cdots x_q) \in \ \MM_{q,1}(\K)$ et $Y$ la matrice colonne des coordonnées de $y$ dans $\mathscr{B}_F$ : $Y={\,}^t (y_1\cdots y_p) \in \ \MM_{p,1}(\K)$. Alors : $$\forall i \in \inter{1,p} \ , \ y_i = \dsp \sum_{j=1}^q{a_{ij}x_j}$$ ce qui se traduit matriciellement par: $\boxed{Y=AX}$.

L'application $$\fonct{\varphi_{_{(\BB_E,\,\BB_F)}}}{\mathscr{L}(E,F)}{\MM_{p,q}(\K)}{u}{M_{\mathscr{B}_F}^{\mathscr{B}_E}(u)}$$ est une bijection de $\mathscr{L}(E,F)$ sur $\MM_{p,q}(\K)$.
(cette bijection dépend du choix des bases $\mathscr{B}_E$ et $\mathscr{B}_F$).

Soit $A \in \MM_{p,q}(\K)$. Alors il existe une et une seule application linéaire $a \in \mathscr{L}(\K^q,\K^p)$ telle que la matrice de $a$ dans les bases canoniques respectives de $\K^q$ et $\K^p$ soit égale à $A$. $a$ s'appelle l'application linéaire canoniquement associée à $A$.

Soient $G,E,F$ trois $\K$-ev de dimensions respectives $r,q,p$, rapportés respectivement à des bases $\mathscr{B}_G=(e''_1, \ldots, e''_r) , \, \mathscr{B}_E=(e_1, \ldots, e_q), \, \mathscr{B}_F=(e'_1, \ldots, e'_p)$. Soient :

  • $A \in \MM_{p,q}(\K)$, et $u \in \mathscr{L}(E,F)$ tq $A= M_{\mathscr{B}_F}^{\mathscr{B}_E}(u)$ ,
  • $B \in \MM_{r,p}(\K)$, et $v \in \mathscr{L}(F,G)$ tq $B=M_{\mathscr{B}_G}^{\mathscr{B}_F}(v)$ et
  • $C \in \MM_{r,q}(\K)$, tq $C =M_{\mathscr{B}_G}^{\mathscr{B}_E}(v \circ u)$ (avec $v \circ u \in \mathscr{L}(E,G)$).

Pour tous $k \in \inter{1,q}$, on a $(v\circ u)(e_k)=\dsum_{i=1}^r c_{ik}e''_i$. Or $$u(e_k)=\dsum_{j=1}^p a_{jk}e'_j\quad \text{ et } \quad v(e'_j)=\dsum_{i=1}^r b_{ij}e''_i$$ Donc $$(v\circ u)(e_k)=\dsum_{j=1}^p a_{jk}v(e'_j)=\dsum_{j=1}^p a_{jk}\left(\dsum_{i=1}^r b_{ij}e''_i \right)= \dsum_{i=1}^r\left(\dsp \sum_{j=1}^pb_{ji}{a_{jk}}\right)e''_i=\dsum_{i=1}^r c_{ik}e''_i.$$ On en déduit alors :

[Matrice de la composée] Avec les hypothèses précédentes, on a: $$\forall (i,k) \in \inter{1,r} \times \inter{1,q} \ , \ c_{ik} = \dsp \sum_{j=1}^p {b_{ij}a_{jk}}, \quad \text{i.e. }\, C=BA.$$ Autrement dit, $$\boxed{ M_{B_G}^{B_E}(v\circ u)=M_{B_G}^{B_F}(v) \times M_{B_F}^{B_E}(u)}.$$

Remarque

Dans la formule $ M_{B_G}^{B_E}(v\circ u)=M_{B_G}^{B_F}(v) \times M_{B_F}^{B_E}(u)$, la base de $F$ utilisée pour le calcul de la matrice de $u$ et $v$ doit être la même.

Changements de base

Matrices de passage Soit $E$ un $\K$-e-v de dimension $n$, et $\mathscr{B}=(e_1, \ldots,e_n)$ et $\mathscr{B}'=(e'_1, \ldots,e'_n)$ deux bases de $E$.

On appelle matrice de passage de $\mathscr{B}$ à $\mathscr{B}'$ la matrice du système $(e'_1, \ldots,e'_n)$ dans la base $\mathscr{B}$. On la note $P_\mathscr{B}^{\mathscr{B}'}$ ou $P_{\mathscr{B},\mathscr{B}'}$.

Remques

  1. Ainsi, la j-ème colonne de $P_\mathscr{B}^{\mathscr{B}'}$ est formée des coordonnées de $e'_j$ dans $\mathscr{B}$.
  2. $P_\mathscr{B}^{\mathscr{B}'}$ est aussi la matrice, dans la base $\mathscr{B}$ de l'endomorphisme $u$ de $E$ défini par : $\forall i \in \inter{1,n} \ , \ u(e_i)=e'_i$.
  3. $P_\mathscr{B}^{\mathscr{B}'}$ est aussi la matrice, dans les bases $\mathscr{B}'$ et $\mathscr{B}$ de l'application $\textrm{id}_E$, soit $M_{\mathscr{B}}^{\mathscr{B}'}(\textrm{id}_E)$.

$P_\mathscr{B}^{\mathscr{B}'}$ est inversible et $\left( P_\mathscr{B}^{\mathscr{B}'} \right) ^{-1} \ = \ P_{\mathscr{B}'}^{\mathscr{B}}$.

Remarque

Si on trouve une matrice de passage non inversible, ALORS il y a forcément une faute (ou plusieurs) de calculs!!

Matrice de passage

Matrice non inversible....il suffit de regarder la 1ère colonne.

Soit $E$ un $\K$-e-v de dimension $n$, $\mathscr{B}$ et $\mathscr{B}'$ deux bases de $E$, et $P$ la matrice de passage de $\mathscr{B}$ à $\mathscr{B}'$.
Soit $x$ un vecteur de $E$, $X$ la matrice colonne de ses coordonnées dans $\mathscr{B}$ et $X'$ celle de ses coordonnées dans $\mathscr{B}'$.
On a alors la relation : $\boxed{X \, = \, PX'}$.

Soient

  • $E$ un $\K$ e v de dimension $q$, muni de deux bases $\mathscr{B}_E$ et $\mathscr{B}'_E$.
    $P \in GL_q(\K)$ la matrice de passage de $\mathscr{B}_E$ à $\mathscr{B}'_E$
  • $F$ un $\K$ e v de dimension $p$, muni de deux bases $\mathscr{B}_F$ et $\mathscr{B}'_F$.
    $Q \in GL_p(\K)$ la matrice de passage de $\mathscr{B}_F$ à $\mathscr{B}'_F$

Soit $u \in \mathscr{L}(E,F)$, $A=M_{\mathscr{B}_F}^{\mathscr{B}_E}(u)$ et $A'=M_{\mathscr{B}'_F}^{\mathscr{B}'_E}(u)$ ($A,A' \in \MM_{p,q}(\K)$).
On a alors la relation : $ \boxed{A'=Q^{-1}AP }$.
On peut représenter ce résultat par le schéma suivant: \begin{CD} (E,\mathscr{B}_E) @< \mathrm{Id}_E< P< (E,\mathscr{B}_E')\\ @VuVAV @VuVA'V\\ (F,\mathscr{B}_F) @>\mathrm{Id}_F>{Q^{-1}}> (F,\mathscr{B}_F') \end{CD}

Cas d'un endomorphisme

Soient $E$ un $\K$ e-v de dimension $n$, muni de deux bases $\mathscr{B}_E$ et $\mathscr{B}'_E$, $P \in GL_n(\K)$ la matrice de passage de $\mathscr{B}_E$ à $\mathscr{B}'_E$.
Soiet $u \in \mathscr{L}(E)$, $A=M_{\mathscr{B}_E}(u)$ et $A'=M_{\mathscr{B}'_E}(u)$ ($A,A' \in\MM_{n}(\K)$).
On a alors la relation : $ \boxed{A'=P^{-1}AP }$.
\begin{CD} (E,\mathscr{B}_E) @< \mathrm{Id}_E< P< (E,\mathscr{B}_E')\\ @VuVAV @VuVA'V\\ (E,\mathscr{B}_E) @>\mathrm{Id}_E>{P^{-1}}> (E,\mathscr{B}_E') \end{CD}

Remarque

Généralement, on change la base $\BB$ pour travailler dans la base $\BB'$ avec l'objectif que la matrice de $u$ dans $\BB'$ soit plus simple (contient plus de $0$), par exemple diagonale ou triangulaire supérieure.


On considère $E=\R_2[X]$ muni de la base canonique $\BB=(1,X,X^2)$, et $u:E\longmapsto E$ définie par $u(P)=2P+(X-X^2)P(2)$.

  1. Donner la matrice de $u$ dans $\BB$.
  2. On considère $\BB'=\{X(X-1),X(X-2),(X-1)(X-2))$. Montrer que $\BB'$ est une base de $E$ puis déterminer la matrice de $u$ dans cette base.

Correction

  1. Le calcul de $u(\BB)$ donne, $$ u(1)=2+X-X^2,\,u(X)=4X-X^2,\,u(X^2)=4X-2X^2.$$ Ce qui donne, $$ \left.\begin{array}{ll} u(e_0)&=2\times e_0 +1\times e_1-1 \times e_2\\ u(e_1)&=0\times e_0 +4\times e_1-2 \times e_2\\ u(e_2)&=0\times e_0 +4\times e_1-2\times e_2 \end{array}\right\}\Longrightarrow M(u)=\begin{pmatrix} 2&0&0\\ 1&4&4\\ -1&-2&-2 \end{pmatrix} $$
  2. Comme $\BB'=(X(X-1),X(X-2),(X-1)(X-2))$ contient autant d'éléments que $\dim(E)$ alors il suffit de montrer que c'est une famille libre.
    Soient $a,b,\,c\in \R$ tels que $$ aX(X-1)+bX(X-2)+c(X-1)(X-2)=0 \Longleftrightarrow \forall x\in \R,\, ax(x-1)+bx(x-2)+c(x-1)(x-2)=0$$ Donc pour $x=2$ on trouve $a=0$, puis pour $x=1$, on trouve $b=0$ et enfin pour $x=2$ on a $c=0$, ce qui implique que $\BB'$ est libre donc base de $E$.
    On calcul $u(\BB')$, $$ u(e_1')=2X(X-1)+2(X-X^2)=0,\,u(e_2')=2X(X-2),\,u(e_3')=2(X-1)(X-2)$$ donc $$ \left.\begin{array}{ll} u(e'_0)&=0\times e'_0 +0\times e'_1+0 \times e'_2\\ u(e'_1)&=0\times e'_0 +2\times e'_1+0 \times e'_2\\ u(e'_2)&=0\times e'_0 +0\times e'_1+2\times e'_2 \end{array}\right.\Longrightarrow M_{\BB'}(u)=\begin{pmatrix} 0&0&0\\ 0&2&0\\ 0&0&2 \end{pmatrix} $$

On dit qu'une matrice carrée $A' \in \MM_{n}(\K)$ est semblable à la matrice $A \in \MM_{n}(\K)$ s'il existe $P \in GL_n(\K)$ telle que $A'=P^{-1}AP$.

$A$ et $A'$ sont semblables si et seulement si ce sont les matrices, dans deux bases différentes, d'un même endomorphisme $u$ d'un e-v de dimension $n$.

Soit $E$ un $\K$-e-v de dimension $n$, $\mathscr{B}_E=(e_1, \ldots,e_n)$ une base de $E$. Soit $u \in \mathscr{L}(E)$, et $A=M_{\mathscr{B}_E}(u) \in \MM_n(\K)$.
Alors : $A$ est triangulaire supérieure $\Longleftrightarrow \forall j \in \inter{1,n} \,, \Vect(e_1, \ldots,e_j)$ est stable par $u$.

Soient $A,B\in TS_n(\K)$ alors $AB\in TS_n(\K)$.

Lien avec le rang d'une matrice

  1. Si $A$ est la matrice, dans une base $\mathscr{B}_F$, d'un système de vecteurs $(x_1, \ldots, x_q)$ de $F$, le rang de $A$ est aussi celui, dans $F$, du système de vecteurs $(x_1, \ldots, x_q)$ .
  2. Si $A$ est la matrice, dans des bases $\mathscr{B}_E$ et $\mathscr{B}_F$ d'une application linéaire $u \in \mathscr{L}(E,F)$, le rang de $A$ est aussi le rang de $u$.
    En particulier, si $a$ est l'application linéaire canoniquement associée à $A$, $\rg A = \rg a$ .

  1. Si $A \in \MM_{p,q}(\K)$ et si $a$ est l'application linéaire canoniquement associée à $A$ $$ \rg A=p \ \Longleftrightarrow \ a \text{ surjective } \, , \, \rg A=q \, \Longleftrightarrow \, a \text{ injective }.$$
  2. Si $A \in \MM_{n}(\K)$ et si $a$ est l'application linéaire canoniquement associée à $A$ $$ \rg A=n \, \Longleftrightarrow \, a \text{ bijective } \, \Longleftrightarrow A \text{ est inversible}.$$

Remarque

On peut remplacer $a$ par n'importe quelle application linéaire $u$ d'un $\K$-ev $E$ de dimension $q$, rapporté à une base $\mathscr{B}_E$, dans un $\K$-ev $F$ de dimension $p$, rapporté à une base $\mathscr{B}_F$, telle que $A= M_{\mathscr{B}_F}^{\mathscr{B}_E}(u)$).

Soient $A \in \MM_{p,q}(\K)$ et $B \in \MM_{q,r}(\K)$.

  1. Si $p=q$ et $A \in GL_p(\K)$, $\rg (AB)=\rg (B), $
  2. Si $q=r$ et $B \in GL_q(\K)$, $\rg (AB)=\rg (A)$.

Rappelons la définiton d'une matrice extraite ou sous matrice.

Soit $A\in \MM_{pq}$, on dit que $A'$ est une sous-matrice ou matrice extraite de $A$ si $A'$ est obtenue de $A$ en supprimant certaines linges et / ou certaines colonnes de $A$.

Exemple

Considérons la matrice $A= \begin{pmatrix} a&b&c&d\\ u&v&w&q\\ x&y&z&r \end{pmatrix}$. En supprimant les colonnes 1 et 2 et la ligne 2, on obtient $$ \begin{pmatrix} \xcancel{a}&\textcolor{blue}{b}&\textcolor{blue}{c}&\xcancel{d}\\ \xcancel{u}&\xcancel{v}&\xcancel{w}&\xcancel{q}\\ \xcancel{x}&\textcolor{blue}{y}&\textcolor{blue}{z}&\xcancel{r} \end{pmatrix} \rightsquigarrow \quad A' =\begin{pmatrix} b&c\\y&z \end{pmatrix} $$

Le rang d'une matrice non nulle $A \in \MM_{p,q}(\K)$ est le plus grand entier $r \geqslant 1$ tel que l'on puisse extraire de $A$ une matrice carrée inversible d'ordre $r$.

(CCP 2015)

Soit $A\in\MM_n(\R)$ (avec $n\geq 2$) la matrice de coefficients $a_{ij}=\cos(i-j)$. Trouver le rang de~$A$.

Correction

En utilisant la formule $\cos(a+b)+\cos(a-b)=2\cos(a)\cos(b)$. On trouve $\cos(k+2)+\cos(k)=2\cos(1)\cdot \cos(k+1)$, ce qui donne (en notant $C_j$ la $j$ème colonne de la matrice $A$) \begin{equation*} \forall k\in \inter{0,n-2},\quad C_{k+2}= -C_k-2\cos(1)\,C_{k+1}\Longrightarrow \rg(A)\leq 2. \end{equation*} D'autre part, la matrice $A'=\begin{pmatrix} \cos(0)&\cos(1)\\ \cos(1)&\cos(0) \end{pmatrix}$ extraite de la matrice $A$ est inversible donc $\rg(A)\geq 2$.
On en déduit, $\boxed{\rg(A)=2}$.

Si $A \in \MM_{p,q}(\K)$, $\rg A = \rg ({\,}^t A)$.

Soit $A=(a_{ij}) \in TS_n(\K)$. Alors $A$ est inversible si et seulement si, $$i \in \inter{1,n},\quad a_{ii} \neq 0.$$ Dans ce cas, $A^{-1}$ est une matrice triangulaire supérieure, dont les éléments diagonaux sont les $\dsp \frac{1}{a_{ii}}$.

Soit $A=(a_{ij}) \in TS_n(\K)$. Alors $A$ est nilpotente si et seulement si, $$\forall i \in \inter{1,n},\quad a_{ii}=0.$$

Trace d'une matrice, d'un endomorphisme

Trace d'une matrice

On appelle trace d'une matrice carrée $A = (a_{ij}) \in \MM_{n}(\K)$ le scalaire : $ \mathrm{tr} A \ = \ \dsp \sum_{i=1}^n{a_{ii}}$.

  1. L'application $\mathrm{tr}$ : $\MM_{n}(\K) \rightarrow \K$ est une forme linéaire.
  2. $ \forall A \in \MM_{n,p}(\K)$ et $\forall B \in \MM_{p,n}(\K)$, $\mathrm{tr} (AB) = \mathrm{tr} (BA)$.

Remarques

  1. Soient $A,B,C \in \MM_{n}(\K)$. Le résultat ci-dessus donne : $$ \mathrm{tr} (ABC) = \mathrm{tr}(BCA) = \mathrm{tr}(CAB)$$ mais on n'a pas $\mathrm{tr}(ABC)= \mathrm{tr}(BAC)$ en général.
    Exemple: $A=\begin{pmatrix} 1 & 0 \\ 0 & 0 \end{pmatrix} \ , \quad B=\begin{pmatrix} 0 & 1 \\ 0 & 0 \end{pmatrix} \ , \quad C= \begin{pmatrix} 0 & 0 \\ 1 & 0 \end{pmatrix}$.
  2. La démonstration du théorème précédent doit être connue, et peut faire l'objet d'une question du concours, par exemple E3A 2019 (MP).
  3. L'application $\mathrm{tr}$ est une forme linéaire, donc en utilisant le théorème du rang, on trouve facilement $\boxed{\dim (\Ker(\mathrm{tr}))=n^2-1}$. Bien que ce résultat semble évident, mais pose beaucoup de problème aux élèves,
    1. Une réponse extra-terrestre.
    2. Une réponse avec justification
    3. Une réponse sans justification
    4. Une blague belge (en faite 2).
    5. Enfin, pour terminer, une réponse sans réponse,

Deux matrices carrées semblables ont même trace.

Trace d'une endomorphisme

Soit $E$ un $\K$-e-v de dimension $n \geqslant 1$, et $u \in \mathscr{L}(E)$. Pour toute base $\mathscr{B}$ de $E$, le scalaire $\mathrm{tr} (M_{\mathscr{B}}(u))$ ne dépend donc pas de la base $\mathscr{B}$ choisie.
Ce scalaire s'appelle la trace de l'endomorphisme $u$, noté $\mathrm{tr} u$.

(Oral CCP 2017)

Montrer que $f$, définie sur $\R_n[x]$ par $f(P)(x)=\dsp\int_x^{x+1}P(t)\ud t$ est un endomorphisme et donner sa trace.

Correction

On note $E=\R_n[x]$ et $\BB=(e_0,\cdots,e_n)$ la base canonique de $E$ (avec $e_i(x)=x^i$).
Soient $P_1,\,P_2\in E$ et $\lambda\in \R$, on note $Q=\varphi(\lambda P_1+P_2)$. Alors, $$ \begin{array}{lcl} \forall x\in \R,\,Q(x)&=& \dsp\int_x^{x+1}(\lambda P_1+P_2)(t)\ud t=\int_x^{x+1}(\lambda P_1(t)+P_2(t))\ud t\\ &&\\ &=&\dsp\lambda\int_x^{x+1}P_1(t)\ud t+\int_x^{x+1}P_2(t)\ud t=\lambda \varphi (P_1)(x)+\varphi(P_2)(x). \end{array} $$ On en déduit alors, $\varphi (\lambda P_1+P_2)=\lambda\varphi(P_1)+\varphi (P_2)$ ce qui montre que $\varphi$ est linéaire.
Montrons que $f(E)\subset E$, pour cela il suffit de calculer $f$ de la base canonique. Soit $k\in \inter{0,n}$, on a $$ \begin{array}{lcl} \forall x\in \R,\,f(e_k)(x)&=& \dsp\int_x^{x+1}t^k\ud t=\dfrac{1}{k+1}\left[t^{k+1}\right]_x^{x+1} =\dfrac{1}{k+1}\left((x+1)^{k+1}-x^{k+1}\right)\\ &&\\ &=&\dsp \dfrac{1}{k+1}\left(\dsum_{j=0}^{k+1}\binom{k+1}{j}x^j-x^{k+1}\right)\\ &&\\ &=&\dsp\dfrac{1}{k+1}\left(\textcolor{red}{x^{k+1}}+\dsum_{j=0}^{k}\binom{k+1}{j}x^j-\textcolor{red}{x^{k+1}}\right)=\dfrac{1}{k+1}\dsum_{j=0}^{k}\binom{k+1}{j}x^j\in E \end{array} $$ Ceci prouve que $f\in \LL(E)$.
D'autre part, le calcul précédent, montre que, pour tout $k\geq 1$, $$f(e_k)(x)= \dfrac{1}{k+1}\dsum_{j=0}^{k}\binom{k+1}{j}x^j= \dfrac{1}{k+1} \left(\binom{k+1}{k}x^k +\dsum_{j=0}^{k-1}\binom{k+1}{j}x^j\right) =x^k + \dsum_{j=0}^{k-1}\binom{k+1}{j}\dfrac{x^k}{k+1}$$ et on a $f(e_0)=1=e_0$, donc \begin{equation*} M(f)_\BB= \begin{pmatrix} 1 &\frac{1}{2} & \phantom{\cdots} & \phantom{\cdots} &\phantom{\cdots} & & \frac{1}{n+1} \\ 0 & 1 & \ddots & & & &\phantom{\vdots} \\ & & \ddots & & &&\vdots \\ & & & &\ddots &&\phantom{\vdots} \\ & & & &\ddots &&\phantom{\vdots}\\ & & & & &1&\frac{1}{2} \\ 0 & & &&& 0 & 1 \end{pmatrix} \Longrightarrow \mathrm{tr}(f)=\mathrm{tr}(M_\BB(f))=n+1. \end{equation*}

  1. L'application $\mathrm{tr}$ : $\mathscr{L}(E) \rightarrow \K$ est une forme linéaire.
  2. $\forall u,v \in \mathscr{L}(E) \ , \ \mathrm{tr}(v \circ u) = \mathrm{tr} (u \circ v)$.

Soit $E$ un $\K$-e-v de dimension $n$.

  1. Si $p$ est un projecteur de $E$, alors : $\mathrm{tr} p= \rg p$.
  2. Si $E_1$ et $E_2$ sont deux s-e-v supplémentaires de $E$ et si $s$ est la symétrie par rapport à $E_1$ de direction $E_2$, alors: $\mathrm{tr} s= \dim(E_1)-\dim(E_2)$.

Matrices par blocs

Soit $A \in \MM_{p,q}(\K)$. On appelle bloc de $A$ toute matrice $(a_{ij})_{(i,j)\in I\times J}$, où $I$ et $J$ sont respectivement des parties de $\inter{1,p}$ et $\inter{1,q}$ formées d'entiers consécutifs.

Exemple

Considérons la matrice $A= \begin{pmatrix} a&b&c&d\\ u&v&w&q\\ x&y&z&r \end{pmatrix}$. On considère $I=\{2,3\},\,J=\{2,3\}$ , on obtient le bloc $$ \begin{pmatrix} \xcancel{a}&\xcancel{b}&\xcancel{c}&\xcancel{d}\\ \xcancel{u}&\textcolor{blue}{v}&\textcolor{blue}{w}&\xcancel{q}\\ \xcancel{x}&\textcolor{blue}{y}&\textcolor{blue}{z}&\xcancel{r} \end{pmatrix} \rightsquigarrow \quad A' =\begin{pmatrix} v&w\\y&z \end{pmatrix} $$

Remarque

Si on ne suppose plus ces entiers consécutifs, on obtient ce qui est appelé une matrice extraite.

Soient $A,B \in \MM_{p,q}(\K)$, décomposées en blocs avec le même découpage : $$ A\,= \begin{matrix} \begin{matrix} \underset{\longleftrightarrow}{q_1}&\cdots&\underset{\longleftrightarrow}{q_j}&\cdots&\underset{\longleftrightarrow}{q_m} \end{matrix} & \\ \begin{bmatrix} A_{11} & \cdots &A_{1j}&\cdots& A_{1m} \\ \vdots & & & \\ A_{i 1} & \cdots &\textcolor{blue}{ A_{i j}}&\cdots& A_{im} \\ \vdots & & &\\ A_{\ell 1} & \cdots &A_{\ell j}&\cdots& A_{\ell m} \end{bmatrix}& \begin{matrix} \updownarrow \,p_1\\ \vdots\\ \updownarrow \,p_i\\ \vdots\\ \updownarrow \,p_\ell \end{matrix} \end{matrix} $$ $$ B\,= \begin{matrix} \begin{matrix} \underset{\longleftrightarrow}{q_1}&\cdots&\underset{\longleftrightarrow}{q_j}&\cdots&\underset{\longleftrightarrow}{q_m} \end{matrix} & \\ \begin{bmatrix} B_{11} & \cdots &B_{1j}&\cdots& B_{1m} \\ \vdots & & & \\ B_{i 1} & \cdots &\textcolor{blue}{B_{i j}}&\cdots& B_{im} \\ \vdots & & &\\ B_{\ell 1} & \cdots &B_{\ell j}&\cdots& B_{\ell m} \end{bmatrix}& \begin{matrix} \updownarrow \,p_1\\ \vdots\\ \updownarrow \,p_i\\ \vdots\\ \updownarrow \,p_\ell \end{matrix} \end{matrix} $$ Alors, si $\lambda \in \K$, la matrice $\lambda A + B $ s'écrit, par blocs : $$ \lambda A+B\,= \begin{matrix} \begin{matrix} \quad\quad\quad\underset{\longleftrightarrow}{q_1}&\phantom{\cdots}&\quad\quad\underset{\longleftrightarrow}{q_j}&\phantom{\cdots}&\underset{\longleftrightarrow}{q_m}\\ \phantom{\lambda A_{11} +B_{11}}& &\phantom{\lambda A_{11} +B_{11}}&\phantom{\lambda A_{11} +B_{11}}&&\phantom{\lambda A_{11} +B_{11}} \end{matrix} & \\ \begin{bmatrix} \lambda A_{11}+B_{11} & \cdots &\lambda A_{1j}+B_{1j}&\cdots& \lambda A_{1m}+B_{1m} \\ \vdots & & & \\ \lambda A_{i1}+B_{i 1} & \cdots &\textcolor{blue}{\lambda A_{i j}+B_{i j}}&\cdots& \lambda A_{im}+B_{im} \\ \vdots & & &\\ \lambda A_{\ell 1}+B_{\ell 1} & \cdots &\lambda A_{\ell j}+B_{\ell j}&\cdots& \lambda A_{\ell m}+B_{\ell m} \end{bmatrix}& \begin{matrix} \updownarrow \,p_1\\ \vdots\\ \updownarrow \,p_i\\ \vdots\\ \updownarrow \,p_\ell \end{matrix} \end{matrix} $$

Soit $A \in \MM_{p,q}(\K)$, décomposée en blocs : $$ A\,= \begin{matrix} \begin{matrix} \underset{\longleftrightarrow}{q_1}&\cdots&\underset{\longleftrightarrow}{q_j}&\cdots&\underset{\longleftrightarrow}{q_m} \end{matrix} & \\ \begin{bmatrix} A_{11} & \cdots &A_{1j}&\cdots& A_{1m} \\ \vdots & & & \\ A_{i 1} & \cdots &A_{i j}&\cdots& A_{im} \\ \vdots & & &\\ A_{\ell 1} & \cdots &A_{\ell j}&\cdots& A_{\ell m} \end{bmatrix}& \begin{matrix} \updownarrow \,p_1\\ \vdots\\ \updownarrow \,p_i\\ \vdots\\ \updownarrow \,p_\ell \end{matrix} \end{matrix} $$ Alors la matrice transposée de $A$ s'écrit, par blocs : $$ {\,}^t A\,= \begin{matrix} \begin{matrix} \underset{\longleftrightarrow}{p_1}&\cdots&\underset{\longleftrightarrow}{p_i}&\cdots&\underset{\longleftrightarrow}{p_\ell} \end{matrix} & \\ \begin{bmatrix} {\,}^tA_{11} & \cdots & {\,}^tA_{i 1}&\cdots& {\,}^tA_{\ell 1} \\ \vdots & & & \\ {\,}^tA_{ 1\,j} & \cdots & {\,}^tA_{i j}&\cdots& {\,}^tA_{\ell j} \\ \vdots & & &\\ {\,}^tA_{1 m} & \cdots & {\,}^tA_{i m}&\cdots& {\,}^t A_{m \ell } \end{bmatrix}& \begin{matrix} \updownarrow \,q_1\\ \vdots\\ \updownarrow \,q_j\\ \vdots\\ \updownarrow \,q_m \end{matrix} \end{matrix} $$

Soit $E$ un $\K$-e-v de dimension finie $n \geqslant1$, $E_1$ et $E_2$ deux s-e-v supplémentaires de $E$, $\textrm{dim}(E_1)=p$, $\dim (E_2)=n-p$, $\mathscr{B}_1$ et $\mathscr{B}_2$ deux bases de $E_1$ et $E_2$ respectivement, et $\mathscr{B} =\mathscr{B}_1 \cup \mathscr{B}_2$, de sorte que $\mathscr{B}$ est une base de $E$.

Soit $u \in \mathscr{L}(E)$, et $A=M_{\mathscr{B}}(u)$, écrite par blocs sous la forme : $$ \begin{matrix} &\begin{matrix} \,\,\underset{\longleftrightarrow}{p}&\underset{\longleftrightarrow}{n-p} \end{matrix} & \\ \begin{matrix} \\ A=\\ \\ \end{matrix}& \begin{bmatrix} A_1\,\, & B_2 \\ &\\ B_1\,\,& A_2 \end{bmatrix}& \begin{matrix} \updownarrow \,p\phantom{-n}\\ \\ \updownarrow \,n-p \end{matrix} \end{matrix} $$ On remarquera que $A_1$ et $A_2$ sont des matrices carrées, que $A_1=M_{\mathscr{B}_1}(p_1 \circ u|_{E_1})$ et que $A_2=M_{\mathscr{B}_2}(p_2 \circ u|_{E_2})$, où $p_1$ (resp. $p_2$) sont les projections sur $E_1$ (resp. $E_2$) parallèlement à $E_2$ (resp. $E_1$).

Alors :

  1. $E_1$ est stable par $u \, \Longleftrightarrow \, B_1 = 0$.
  2. $E_2$ est stable par $u \, \Longleftrightarrow \, B_2 = 0$.

  1. Ainsi, si $E_1$ est stable par $u$, $A$ est de la forme : $\begin{bmatrix} A_1 & B_2 \\ 0 & A_2 \end{bmatrix}.$ Une telle matrice est dite triangulaire supérieure par blocs. $A_1$ est alors la matrice de l'endomorphisme induit par $u$ sur $E_1$.
  2. Si $E_1$ et $E_2$ sont stables par $u$, $A$ est de la forme $ \begin{bmatrix} A_1 & 0 \\ 0 & A_2 \end{bmatrix}.$ Une telle matrice est dite diagonale par blocs. $A_1$ et $A_2$ sont alors les matrices des endomorphismes induits $u|_{E_1}$ et $u|_{E_2}$.

$ \begin{matrix} &\begin{matrix} \,\,\underset{\longleftrightarrow}{p}&\underset{\longleftrightarrow}{n-p} \end{matrix} & \\ \begin{matrix} \\ A=\\ \\ \end{matrix}& \begin{bmatrix} A_1\,\, & B_2 \\ &\\ 0\,\,& A_2 \end{bmatrix}& \begin{matrix} \updownarrow \,p\phantom{-n}\\ \\ \updownarrow \,n-p \end{matrix} \end{matrix} $ est inversible ssi $A_1\in GL_p(\K)$ et $A_2\in GL_{n-p}(\K)$.
Et, dans ce cas, $A^{-1}$ est de la forme : $$ \begin{matrix} &\begin{matrix} \,\,\underset{\longleftrightarrow}{p}&\underset{\longleftrightarrow}{n-p} \end{matrix} & \\ \begin{matrix} \\ A^{-1}=\\ \\ \end{matrix}& \begin{bmatrix} A_1^{-1}\,\, & B_2' \\ &\\ 0\,\,& A_2^{-2} \end{bmatrix}& \begin{matrix} \updownarrow \,p\phantom{-n}\\ \\ \updownarrow \,n-p \end{matrix} \end{matrix} $$

$ \begin{matrix} &\begin{matrix} \,\,\underset{\longleftrightarrow}{p}&\underset{\longleftrightarrow}{n-p} \end{matrix} & \\ \begin{matrix} \\ A=\\ \\ \end{matrix}& \begin{bmatrix} A_1\,\, & 0 \\ &\\ 0\,\,& A_2 \end{bmatrix}& \begin{matrix} \updownarrow \,p\phantom{-n}\\ \\ \updownarrow \,n-p \end{matrix} \end{matrix} $ est inversible ssi $A_1\in GL_p(\K)$ et $A_2\in GL_{n-p}(\K)$.
Et, dans ce cas, $A^{-1}$ est de la forme : $$ \begin{matrix} &\begin{matrix} \,\,\underset{\longleftrightarrow}{p}&\underset{\longleftrightarrow}{n-p} \end{matrix} & \\ \begin{matrix} \\ A^{-1}=\\ \\ \end{matrix}& \begin{bmatrix} A_1^{-1}\,\, & 0 \\ &\\ 0\,\,& A_2^{-2} \end{bmatrix}& \begin{matrix} \updownarrow \,p\phantom{-n}\\ \\ \updownarrow \,n-p \end{matrix} \end{matrix} $$

Remarque

Les résultats ci-dessus se généralisent sans difficulté aux cas des matrices triangulaires supérieures par blocs, de la forme : $$\begin{bmatrix} A_{11} & \dots & A_{1n} \cr & \ddots & \vdots \cr {\ \ }^{\dsp \textrm{\huge{0}}} & & A_{nn} \end{bmatrix},$$ où les $A_{ii}$ sont des matrices carrées, et aux matrices diagonales par blocs de la forme $$\begin{bmatrix} A_{11} & & {}_{\dsp \textrm{\huge{0}}} \cr & \ddots & \cr {\ \ }^{\dsp \textrm{\huge{0}}} & & A_{nn} \end{bmatrix}.$$

(CCINP 2021)

  1. Soient $(r,s,t,u)\in \C^4$ et $(e_1,e_2)$ la base canonique de $\C^2$. On note $\varphi$ l'endomorphisme de $\C^2$ dont la matrice dans la base $(e_1,e_2)$ est $\begin{pmatrix} r&s\\t&u \end{pmatrix}$. Exprimer la matrice de $\varphi$ dans la base $(e_2,e_1)$.
  2. Soit $(R,S,T,U)\in \MM_n(\C)^4$. En s'inspirant de la question précédente, montrer que la matrice $\begin{pmatrix} R&S\\T&U \end{pmatrix}$ est semblable dans $\MM_{2n}(\C)$ à la matrice $\begin{pmatrix} U&T\\ S&R \end{pmatrix} $ . Montrer de même que $\begin{pmatrix} R&S\\T&U \end{pmatrix}$ est semblable à la matrice $\begin{pmatrix} R&-S\\-T&U \end{pmatrix}$ .

Correction

  1. En utilisant la matrice de $\varphi$, on a $$ \left.\begin{array}{l} \varphi(e_2)=se_1+ue_2= ue_2+s e_1\\ \\ \varphi(e_1)=re_1+te_2= te_2+re_1 \end{array}\right\}\Longrightarrow M_{(e_2,e_1)}(\varphi)=\begin{pmatrix} u&t\\ s&r \end{pmatrix}.$$ On aurait aussi pu utiliser la matrice $P$ de passage de $(e_1,e_2)$ à la base $(e_2,e_1)$, i.e. $$M_{(e_2,e_1)}(\varphi) =P^{-1}M_{(e_1,e_2)}(\varphi)P=\begin{pmatrix} 0&1\\ 1&0 \end{pmatrix} \begin{pmatrix} r&s\\t&u \end{pmatrix}\begin{pmatrix} 0&1\\ 1&0 \end{pmatrix} =\begin{pmatrix} u&t\\ s&r \end{pmatrix}. $$
  2. Soit $\BB=(e_1,\cdots,e_n,e_{n+1},\cdots,e_{2n})$ la base canonique de $\C^{2n}$. On note $\BB_1=(e_1,\cdots,e_n),\,\BB_2=(e_{n+1},\cdots,e_{2n})$ de sorte que $\BB=(\BB_1,\BB_2)$, on considère $\varphi\in \LL(\C^{2n})$ dont la matrice par blocs dans le base $\BB$ est $\begin{pmatrix} R&S\\T&U \end{pmatrix}$, en utilisant la question précédente, on trouve que la matrice de $\varphi$ dans la base $\BB'=(\BB_2,\BB_1)$ est $\begin{pmatrix} U&T\\ S&R \end{pmatrix} $, de même la matrice $\varphi$ dans la base $\BB''=(\BB_1,-\BB_2)$ est $\begin{pmatrix} R&-S\\-T&U \end{pmatrix}$.
    Ceci prouve que les 3 matrices sont semblables.

Polynômes d'un endomorphisme, polynôme de matrice

Puissances d'un endomorphisme

Soit $u\in \LL (E)$, on définit par récurrence $u^n$ (avec $n\in \N$), $$u^0=\ide,~~\forall n\in \N,~~u^{n+1}=u\circ u^n.$$

On définit également la même chose pour une matrice $A\in \MM_n(\K)$.

Soit $u \in \mathscr{L}(E)$.

  1. la suite $\left(\Ker (u^k)\right)_{k\in \N}$ est croissante i.e. $\Ker(u^k) \subset \Ker(u^{k+1})$.
  2. si l'ensemble $\{k \in \N, \ \Ker(u^k) = \Ker(u^{k+1}) \}$ n'est pas vide, il admet alors un plus petit élément $p$, appelé indice de $u$.
    Et on a alors : $\begin{cases} \forall k \in \inter{0,p-1}, & \Ker(u^k) \subsetneq \Ker(u^{k+1})\\ \forall k \geqslant p, & \Ker(u^k)= \Ker(u^p) \end{cases}$
  3. Si $E$ est de dimension finie, alors pour tout endomorphisme $u \in \mathscr{L}(E)$, l'indice $p$ de $u$ existe, et $p \leqslant \dim E$.

Exemples

  1. Si $u\in \LL (E)$ est nilpotent, alors l'indice $p$ de $u$ existe. De plus si $\dim (E)< \infty$ alors $p\leq \dim (E)$.
  2. Soit $u : \ \begin{cases} \K [X] & \rightarrow \K [X] \\ P & \mapsto P' \end{cases}$ . Alors, pour tout $k \in \N^*$, $\Ker(u^k)= \K_{k-1}[X]$, donc l'indice de $u$ n'existe pas.
  3. Par contre, si l'on considère l'endomorphisme $v : \, \begin{cases} \K_n[X] & \rightarrow \K_n[X] \\ P & \mapsto P' \end{cases}$, alors son indice est égal à $n+1$ (car $v^{n+1}=0 \text{ et } v^n \neq 0$).

Soit $E$ un $\K$-e-v de dimension finie, et $u \in \mathscr{L}(E)$ d'indice $p$. Alors :

  1. $ \begin{cases} \forall k \in \inter{0,p-1}, & \im (u^{k+1}) \subsetneq \im (u^k) \\ \forall k \geqslant p, & \im (u^{k+1})= \im (u^k) \end{cases} $
  2. $E = \Ker(u^p) \oplus \im (u^p)$.

L'ensemble $\K[A]$

Soit $P=\dsp\sum_{i=0}^Na_iX^i\in \K[X]$. Pour $A\in \mathscr{M}_n(\K)$, on note $$P(A)=a_0I_n+a_1A+\cdots+a_NA^N,$$ et $P(A)$ est appelé un polynôme de matrice.

Soient $n\in \N$ et $A \in \MM_n(\K)$. L'application $$\varphi_A : \begin{cases} \ \ \ \K[X] & \longrightarrow \MM_n(\K) \\ P = \dsp \sum_{k=0}^{\deg (P)}{a_k X^k} & \longmapsto P(A) = \dsp \sum_{k=0}^{ \deg (P)}{a_k A^k} \end{cases}$$ est linéaire, de plus, $$\forall P,Q\in \K[X],\quad \varphi_A(PQ)=Q(A)P(A)=P(A)Q(A).$$

(Centrale 2018)

Soient $A,\,B\in \MM_n(\K)$ telles que $AB=BA$. Montrer que si $P,\,Q\in \K[X]$ alors $P(A)$ et $Q(B)$ commutent.

Correction

Supposons que $A$ et $B$ commutent. On a alors $$A^2B=A.AB=A.BA=AB.A=BA.A=BA^2,$$ puis par récurrence immédiate, $$\forall k\in \N,\quad A^kB=BA^k.$$ Par distributivité, $B$ commute ensuite avec tout polynôme en $A$.
En échangeant les rôles entre $B$ et $A$ : si $Q\in\K[X]$ alors $Q(B)$ commute avec $A$ d'après ce qui précède, donc avec tout polynôme en $A$ !
On en déduit alors, si $A$ et $B$ commutent et $P,Q\in\C[X]$, alors $P(A)$ et $P(B)$ commutent.

Soit $P=\dsp\sum_{i=0}^Na_iX^i\in \K[X]$. Pour $u\in \mathscr{L}(E)$, on note $$P(u)=a_0\ide+a_1u+\cdots+a_Nu^N,$$ et $P(u)$ est appelé un polynôme d'endomorphisme.

Soient $n\in \N$ et $u \in \LL(E)$. L'application $$\varphi_u : \begin{cases} \ \ \ \K[X] & \longrightarrow \LL(E) \\ P = \dsp \sum_{k=0}^{\deg (P)}{a_k X^k} & \longmapsto P(u) = \dsp \sum_{k=0}^{\deg (P)}{a_k u^k} \end{cases}$$ est linéaire, de plus, $$\forall P,Q\in \K[X],\quad \varphi_u(PQ)=P(u)\circ Q(u)=Q(u)\circ P(u).$$

Soit $E$ un $\K$-e-v, et $u,v \in \mathscr{L}(E)$, tels que $u \circ v = v \circ u$. Alors :

  1. $\im u$ et $\Ker u$ sont stables par $v$.
  2. Pour tout $P \in \R[X]$, $\im (P(u))$ et $\Ker(P(u))$ sont stables par $v$.
  3. Pour tout $Q \in \R[X]$, $\im u$ et $\Ker u$ sont stables par $Q(v)$.
  4. Pour tous $P,Q \in \R[X]$, $\im (P(u))$ et $\Ker(P(u))$ sont stables par $Q(v)$.

($\K[u]$) En reprenant les notations du théorème précédent : $\im (\varphi_u) = \{ P(u) \ , \ P \in \K[X]\}$ est une s-e-v de $\mathscr{L}(E)$. De plus, pour tous $P,Q \in \K[X]$ : $$P(u) \circ Q(u) = (PQ)(u) =(QP)(u) = Q(u) \circ P(u).$$ $\im (\varphi_u)$ se note $\K[u]$, et est appelée l'algèbre des polynômes de l'endomorphisme $u$.

($\K[A]$) On définit également, pour $A\in \MM_n(\K)$, l'ensemble : $$\K[A]=\im (\varphi_A)=\{ P(A) \ , \ P \in \K[X]\}$$ $\K[A]$ est appelée l'algèbre des polynômes de la matrice $A$.

Polynôme annulateur

Polynôme annulateur

  1. Soient $u\in \LL (E)$ et $P\in \K[X]$. On dit que $P$ est un polynôme annulateur de $u$ (ou $P$ annule $u$) si $P(u)=0$.
    on note $Ann(u)=\Ker(\varphi_u)=\{P \in \K[X] \, , \, P(u)= 0 \}$.
  2. Soient $A\in \mathscr{M}_n(\K)$ et $P\in \K[X]$. On dit que $P$ est un polynôme annulateur de $A$ (ou $P$ annule $A$ ) si $P(A)=0$.
    on note $Ann(A)=\Ker(\varphi_A)=\{P \in \K[X] \, , \, P(A)= 0 \}$.


Soit $f$ un endomorphisme d'un espace vectoriel $E$ de dimension $n$.

  1. Montrer que $(\ide ,f,f^2 , \ldots ,f^{n^2 } )$ est liée.
  2. En déduire qu'il existe un polynôme non identiquement nul qui annule $f$.

Correction

On suppose que $f\neq 0$ (le cas $f=0$ est trivial).
On sait que $\dim (\mathscr{L}(E))=\dim(E)^2=n^2$, la famille $\{f^j,\,j\in \inter{0,n^2}\}$ comporte $n^2+1$ éléments donc c'est une famille liée dans $\mathscr{L}(E)$.
On en déduit qu'il existe $\alpha_0,\cdots,\alpha_{n^2}\in \K$ non tous nuls tels que $\dsum_{k=0}^{n^2}\alpha_jf^j=0$. On pose alors $P(X)=\dsum_{k=0}^{n^2}\alpha_kX^k$ alors $P\neq 0$ et $P(f)=0$.

(Polynôme minimal) Soit $u\in \LL(E)$

  1. soit $\varphi_u$ est injective, et $Ann(u)=\{0\}$.
  2. soit $\varphi_u$ n'est pas injective : il existe alors un et un seul polynôme normalisé (non nul), noté $\Pi_u$, tel que $Ann(u)$ soit exactement l'ensemble des polynômes multiples de $\Pi_u$.
$\Pi_u$ s'appelle alors le polynôme minimal de $u$.

Remarques

  1. Le polynôme minimal d'un endomorphisme $u$ (s'il existe) est donc caractérisé par : $\begin{cases} \Pi_u \neq 0 \textrm{ et } \Pi_u \textrm{ normalisé} \\ \Pi_u(u) = 0_{\mathscr{L}(E)} \\ \forall P \in \K[X], \ P(u)= 0_{\mathscr{L}(E)} \Rightarrow P \textrm{ multiple de } \Pi_u \end{cases}$
  2. Le polynôme minimal d'une matrice $M$ est donc caractérisé par : $\begin{cases} \Pi_M \neq 0 \textrm{ et } \Pi_M \textrm{ normalisé} \\ \Pi_M(M) = 0_{\MM_n(\K)} \\ \forall P \in \K[X], \ P(M)= 0_{\MM_n(\K)} \Rightarrow P \textrm{ multiple de } \Pi_M \end{cases}.$

Exemples

  1. Si $p$ est un projecteur de $E$, $p\neq 0$ et $p\neq Id_E$, le polynôme minimal de $p$ est : $X^2-X$.
  2. Si $s$ est une symétrie de $E$, $s\neq Id_E$ et $s\neq -Id_E$, le polynôme minimal de $s$ est : $X^2-1$.
  3. Le polynôme minimal d'un endomorphisme nilpotent d'indice $p$ est : $X^p$.
  4. Un endomorphisme peut ne pas posséder de polynôme minimal. Exemple : l'endomorphisme $u$ de $\K[X]$ qui à tout polynôme $P$ associe son polynôme dérivé $P'$.

  1. Si $E$ est un $\K$-ev de dimension finie}, tout endomorphisme $u \in \mathscr{L}(E)$ possède un polynôme minimal.
  2. Soient $n\in \N^*$ et $A\in \MM_n(\K)$, $A$ possède un polynôme minimal.

  1. Si deux matrices carrées $A$ et $A'$ sont semblables, alors $\Pi_A=\Pi_{A'}$.
  2. Si $A\in \MM_n(\K)$, $\Pi_A=\Pi_{^t A}$.