Matrices
Rappels cours 1ère année
Définitions
Soient $p,q\in \N^*$. On notera :
-
$\blacklozenge\,$ $\MM_{p,q}(\K)$ l'ensemble des matrices de type $(p,q)$ à coefficients dans $\K$.
-
$\blacklozenge\,$ $\MM_{n,n}(\K)$, ensemble des matrices carrées de type $(n,n)$, ou d'ordre $n$,
se note plus simplement $\mathscr{M}_n(\K)$.
Soient $A=(a_{i\,j}),\,B=(b_{i\,j})\in \MM_{p,q}$ et $\lambda \in \K$. On définit la
matrice $C=(c_{i\,j})=A+B$ par,
$$\forall (i,j)\in \inter{1,p}\times \inter{1,q},\quad c_{i\,j}=a_{i\,j}+b_{i\,j}.$$
On définit également la matrice $\lambda A=(a'_{i\,j})$ par:
$$\forall (i,j)\in \inter{1,p}\times \inter{1,q},\quad a'_{i\,j}=\lambda a_{i\,j}.$$
Muni des lois précédentes, $ \big( \MM_{p,q}(\K),+,. \big)$
est un $\K$-e-v de dimension finie. De plus, $\dim(\MM_{p\,q}(\K))=pq$.
Pour tout $(k,\ell)\in \inter{1,p}\times \inter{1,q}$, on définit la matrice
$E_{k\,\ell}\in \MM_{pq}(\K)$ par: $E_{k\,\ell}$ est la matrice dont tous les termes sont nuls sauf
celui d'indice $(k,\ell)$ qui est égal à $1$.
i.e. le terme d'indice $(i,j)$ de $E_{k\,\ell}$ vaut : $ \delta _{ki}\delta_{\ell j}$.
La famille $(E_{k\,\ell})_{(k,\ell) \in \inter{1,p} \times \inter{1,q}}$ est une base de
$\MM_{pq}(\K)$.
De plus, pour toute matrice $A=(a_{ij}) \in \MM_{p,q}(\K)$, on a :
$\, A= \underset{1 \leqslant j \leqslant q} {\dsp \sum_{1 \leqslant i \leqslant p}}
{a_{ij}E_{ij}}$.
La base $(E_{k\ell})_{(k,\ell) \in \inter{1,p} \times \inter{1,q}}$ est appelée
base canonique de $\MM_{p,q}(\K)$.
Multiplication matricielles
Soit $A\in \MM_{p\,q}(\K)$ et $B\in \MM_{q,r}(\K)$. On définit, la matrice
$C=(c_{ik})_{(i,k) \in \inter{1,p} \times \inter{1,r}}$ produit de $A$ par
$B$, noté $C=AB$, par
$$\forall (i,k) \in \inter{1,p} \times \inter{1,r} \ , \ c_{ik} = \dsp
\sum_{j=1}^q{a_{ij}b_{jk}}.$$
Remarque
Cette définition n'a un sens que si $A$ est de type $(p,q)$
et $B$ de type $(q,r)$. Ainsi, le produit $AB$ peut être
défini sans que $BA$ ne le soit.
-
Si $A \in \MM_{p,q}(\K), \ B \in \MM_{q,r}(\K) \textrm{ et } C \in \MM_{r,s}(\K)$, alors
:
$A(BC) = (AB)C$.
-
Si $A \in \MM_{p,q}(\K) \textrm{ et } B_1, B_2 \in\MM_{q,r}(\K)$, on a : $A(B_1+ B_2)= A
B_1 + A B_2$.
-
Si $A_1, A_2 \in \MM_{p,q}(\K) \textrm{ et } B \in \MM_{q,r}(\K)$, on a :
$(A_1+A_2)B= A_1B + A_2 B$.
Rang d'une matrice
Le rang d'une matrice $A \in \MM_{p,q}(\K)$ est, par définition, le rang de ses vecteurs
colonnes (éléments de $\K^p$).
On le note : $\rg A$.
Si $A\in \MM_{pq}(\K)$ alors $\rg (A)\leq \min(p,q)$.
Transposée
Soit $A = (a_{ij})_{\underset{\scriptstyle 1 \leqslant j \leqslant q}{1 \leqslant i \leqslant
p}}\in \MM_{p,q}(\K)$.
On appelle transposée de $A$ la matrice
${\,}^tA =(a'_{ji})_{\underset{\scriptstyle 1 \leqslant i \leqslant p}{1\leqslant j \leqslant
q}} \in \MM_{q,p}(\K)$ définie par :
$$ \forall (i,j) \in \inter{1,p} \times \inter{1,q} \ , a'_{ji}=a_{ij}.$$
Soient $A \in \MM_{p,q}(\K) \text{ et } B \in \MM_{q,r}(\K)$, alors ${\,}^t (AB)={\,}^t B {\,}^t
A$.
Cas des matrices carrées
Dans $\MM_{n}(\K)$, la multiplication des matrices est une loi de composition interne. On
notera:
-
$\blacklozenge\,$ On notera $I_n$ l'élément neutre de $\MM_{n}(\K)$ (pour la loi $\times$)
i.e. pour tout $A\in \MM_n(\K),\,\,A\times I_n=I_n\times A=A$.
-
$\blacklozenge\,$ $\MM_n(\K)$ est non intègre (si $n\geq 2$),
i.e. on peut trouver des matrices $A,B$ telles que : $A\neq 0, \ B\neq 0 \text{ et
} AB=0$.
-
$\blacklozenge\,$ $\MM_n(\K)$ est non commutative (si $n\geq 2$), i.e. $AB$ en général n'est
pas égale à $BA$.
(E3A 2003)
Soit $\BB=\{E_{i\,j},i,j\in \inter{1,n}\}$, la base canonique de $\MM_n(\K)$. Pour $A,\,B\in
\BB$, calculer $AB$.
Application: Montrer qu'il n'existe pas une norme $N$ définie sur $\MM_n(\K)$ telle que, pour
tout $A,\,B\in \MM_n(\K)$, $N(AB)=N(BA)$.
Correction
Soient $A,B\in \BB$, il existe alors $i,j,k,\ell\in \inter{1,n}$ tels que
$A=E_{i\,j},\,B=E_{k\,\ell}$.
Soient $\alpha,\,\beta\in \inter{1,n}$, on a
$$(E_{i\,j}E_{k\,\ell})_{\alpha\,\beta}=\dsum_{\gamma=1}^n
(E_{i\,j})_{\alpha\,\gamma}(E_{k\,\ell})_{\gamma\,\beta}=\dsum_{\gamma=1}^n\delta_{i\,\alpha}\delta_{j\,\gamma}\delta_{\gamma
\,k}\delta_{\ell \,\beta} .
= \delta_{i\,\alpha}\delta_{j \,k}\delta_{\ell \,\beta}$$
donc si $j\neq k$ alors $E_{i\,j}E_{k\,\ell}=0$, sinon ($j=k$):
$(E_{i\,j}E_{k\,\ell})_{\alpha\,\beta} = \delta_{i\,\alpha}\delta_{\ell \,\beta}$, i.e.
$E_{i\,j}E_{k\,\ell}=E_{i\,\ell}$.
Conclusion $E_{i\,j}E_{k\,\ell}=\delta_{j\,k}E_{i\,\ell}$.
La relation précédente est une vraie machine pour fabriquer des matrices $A$, $B$ telles que
$AB=0$ et $BA\neq 0$. Par exemple
$$E_{1\,2}E_{2\,3}=E_{1\,3} \text{ tandis que } E_{2\,3}E_{1\,2}=0.$$
Si on suppose maintenant qu'il existe une norme $N$ sur $\MM_n(\K)$ tel que $N(AB)=N(BA)$ pour
tout $A,\,B\in \MM_n(\K)$, on aurait:
$$0< N(E_{1\,3})=N(E_{1\,2}E_{2\,3})=N(E_{2\,3}E_{1\,2})=N(0)=0$$
ce qui est évidemment impossible.
Remarque
Donc $AB=0$ n'implique pas que $A=0$ ou $B=0$.
(Navale PSI 2018)
Soient $A,\,B\in\MM_n(\R)$ telles que $(AB)^2=0$. A-t-on $(BA)^2=0$?
Correction
Soit $A=\begin{pmatrix}
1&0&0\\
0&0&0\\
0&1&0
\end{pmatrix}$ et $B=\begin{pmatrix}
0&0&1\\
0&1&0\\
0&0&0
\end{pmatrix}$. Alors
$$AB= \begin{pmatrix}
1&0&0\\
0&0&0\\
0&1&0
\end{pmatrix}\begin{pmatrix}
0&0&1\\
0&1&0\\
0&0&0
\end{pmatrix}=
\begin{pmatrix}
0&0&1\\
0&0&0\\
0&1&0
\end{pmatrix},$$
et $(AB)^2=\begin{pmatrix}
0&1&0\\
0&0&0\\
0&0&0
\end{pmatrix}.$
$$BA= \begin{pmatrix}
0&0&1\\
0&1&0\\
0&0&0
\end{pmatrix}\begin{pmatrix}
1&0&0\\
0&0&0\\
0&1&0
\end{pmatrix}=\begin{pmatrix}
0&1&0\\
0&0&0\\
0&0&0
\end{pmatrix}$$
et $(BA)^2=0$.
Soient $A,\,B\in \MM_n(\K)$. On dit que $A$ et $B$ commutent entre elles
ssi $AB=BA$.
Soient $A,\,B\in \MM_n(\K)$, on suppose que $A$ commute avec $B$, alors
$$\forall m\in \N,\quad (A+B)^m=\dsum_{k=0}^m\binom{m}{k}A^kB^{m-k}.$$
Matrice inversible
Soit $A\in \MM_n(\K)$. On dit que $A$ est une matrice inversible ssi:
$$\exists B\in \MM_n(K),\,BA=AB=I_n.$$
Si $B$ existe elle est unique, on note $A^{-1}=B$.
On notera $GL_n(\K)$ l'ensemble des éléments inversibles de $\MM_n(\K)$.
Si $A,B \in GL_n(\K)$, alors $AB \in GL_n(\K),\, {\,}^t A \in GL_n(\K)$ et :
$$(AB)^{-1} = B^{-1}A^{-1} \text{ et } ({\,}^t A)^{-1} = {\,}^t \,(A^{-1}).$$
(CCP 2015)
Soit $z\in\C^*$, on considère la matrice $A(z)=\begin{pmatrix}
0&z&z^2\\
z^{-1}&0&z\\
z^{-2}&z^{-1}&0
\end{pmatrix}$.
Calculer $A(z)^2$, en déduire que $A(z)$ est inversible et donner son inverse.
Correction
Un calcul simple donne:
$$A(z)^2= \begin{pmatrix}
2&z&z^2\\
z^{-1}&2&z\\
z^{-2}&z^{-1}&2
\end{pmatrix}=2\begin{pmatrix}
1&0&0\\
0&1&0\\
0&0&1
\end{pmatrix}+\begin{pmatrix}
0&z&z^2\\
z^{-1}&0&z\\
z^{-2}&z^{-1}&0
\end{pmatrix}=2I_3+A(z).$$
Autrement dit, $A(z)^2-A(z)=2I_3$ soit $A(z)\left(\dfrac{1}{2}\left(A(z)-I_3\right)\right)=I_3$.
On en déduit alors que $A(z)$ est inversible et $A(z)^{-1}=\frac{1}{2}(A(z)-I_3)$.
Une matrice carrée $A = (a_{ij}) \in \MM_n(\K)$ est dite symétrique
(resp. antisymétrique)
ssi ${\,}^t A=A$ (resp. ${\,}^t A=-A$).
On notera $\mathscr{S}_n(\K)$ l'ensemble des matrices symétriques d'ordre
$n$ et
$\mathscr{AS}_n(\K)$ l'ensemble des matrices antisymétriques d'ordre $n$.
$\mathscr{S}_n(\K)$ et $\mathscr{AS}_n(\K)$ sont des s-e-v supplémentaires de
$\MM_n(\K)$, de dimensions respectives $\dsp \frac{n(n+1)}{2}$ et
$\dsp \frac{n(n-1)}{2}$.
Une matrice carrée $A = (a_{ij}) \in \MM_n(\K)$ est dite triangulaire
supérieure (resp. inférieure) si :
$$\forall (i,j) \in \inter{1,n}^2 \ , \ [j< i \ \Rightarrow \ a_{ij}=0] \ (\text{ resp. }
[j>i \ \Rightarrow \ a_{ij}=0]).$$
On notera $TS_n(\K)$ (resp. $TI_n(\K)$) l'ensemble des
matrices triangulaires supérieures (resp. inférieures)
d'ordre $n$.
Remarque
Il est clair que : $A \in TS_n(\K) \Leftrightarrow {\,}^t A \in TI_n(\K)$.
$TS_n(\K)$ est une s-e-v de $\MM_n(\K)$, de dimension $\dsp \frac{n(n+1)}{2}$.
Remarque
Puisque $TI_n(\K)=\{{\,}^t A,\, A\in TS_n(\K)\}$.
Alors $TI_n(\K)$ est aussi une s-e-v de $\MM_n(\K)$, isomorphe (par {la transposition}), en tant
qu'espace vectoriel, à la précédente, et donc
$$\dim(TI_n(\K))=\dim(TS_n(\K)=\dfrac{n(n+1)}{2}.$$
On s'intéresse davantage (au moins dans le programme de PSI) aux matrices triangulaires
supérieures,
pour leur lien naturel avec les application linéaires
(c.f. théorème ci-après, ...).
Une matrice carrée $A = (a_{ij}) \in \MM_n(\K)$ est dite diagonale si
et seulement si :
$$\forall (i,j) \in \inter{1,n}^2 \ , \ j \neq i \ \Rightarrow \ a_{ij}=0.$$
On note alors : $A = \textrm{diag}(a_{11},a_{22}, \ldots, a_{nn})$, et $D_n(\K)$
l'ensemble des matrices diagonales d'ordre $n$.
Matrice d'une application linéaire
Généralités
Soient
-
$E$ un $\K$- ev de dim $q$, rapporté à une base $\mathscr{B}_E=(e_1, \ldots, e_q)$
-
$F$ un $\K$- ev de dim $p$, rapporté à une base $\mathscr{B}_F=(e'_1, \ldots, e'_p)$
Matrice d'une famille de vecteurs
Soit $(x_1, \ldots, x_q)$ des vecteurs de $F$. Alors, pour tout $j \in \inter{1,q}$, il existe
$(a_{ij})_{1 \leqslant i \leqslant p} \in \K ^p$ tels que $x_j = \dsp \sum_{i=1}^p{a_{ij}e'_i}$.
$A=(a_{ij})_{\underset{\scriptstyle 1 \leqslant j \leqslant q}{1 \leqslant i \leqslant p}}
\in\MM_{p,q}(\K)$
s'appelle la matrice des $(x_j)$ dans la base $\mathscr{B}_F$.
Exemple
Soit $F=\R_2[X]$,
$\BB_F=\left(e_0'=\frac{(X-1)(X-2)}{2},e_1'=\frac{X(X-2)}{-1},e_2'=\frac{X(X-1)}{2}\right)$.
On considère $\mathcal{F} =(P_0=1,P_1=X,P_2=X^2,P_3=X^2-X+1)$. Alors
$$
\begin{array}{ccccccccccccc}
P_0&=&1&\times&\textcolor{red}{e_0'}&+&1&\times&\textcolor{red}{e_1'}&+&
1&\times&\textcolor{red}{e_2'}\\
P_1&=&0&\times&\textcolor{red}{e_0'}&+&1&\times&\textcolor{red}{e_1'}&+&
2&\times&\textcolor{red}{e_2'}\\
\textcolor{blue}{P_2}&=&\textcolor{blue}{0}&\times&\textcolor{red}{e_0'}&+&\textcolor{blue}{1}&\times&\textcolor{red}{e_1'}&+&
\textcolor{blue}{4}&\times&\textcolor{red}{e_2'}\\
P_3&=&1&\times&\textcolor{red}{e_0'}&+&1&\times&\textcolor{red}{e_1'}&+&
3&\times&\textcolor{red}{e_2'}
\end{array}
$$
Ce qui donne
$$
\begin{matrix}
\begin{matrix}
\underset{\downarrow}{P_0}&\underset{\downarrow}{P_1}&\underset{\downarrow}{\textcolor{blue}{P_2}}&\underset{\downarrow}{P_3}
\end{matrix} &\\
\begin{pmatrix}
1 \,\,& \,0 \,\,& \,\,\textcolor{blue}{0}\,\,& 1 \,\,\\
1 \,\,& \,1 \,\,&\,\, \textcolor{blue}{1}\,\, & 1 \,\,\\
1 \,\,& \,2\,\, & \,\, \textcolor{blue}{4}\,\, & 3 \,\, \\
\end{pmatrix}&\begin{matrix}
\longleftarrow\,\textcolor{red}{e_0'}\\
\longleftarrow\,\textcolor{red}{e_1'}\\
\longleftarrow\,\textcolor{red}{e_2'}
\end{matrix}
\end{matrix}
$$
Soit $u \in \mathscr{L}(E,F)$.
On appelle : matrice de $u$ dans les bases $\mathscr{B}_E$ et $\mathscr{B}_F$
la matrice dans
$\mathscr{B}_F$ du système de vecteurs $(u(e_1), \ldots ,u(e_q))$.
On note $M_{\mathscr{B}_F}^{\mathscr{B}_E}(u)$ ou
$M_{\mathscr{B}_E,\mathscr{B}_F}(u)$
ou $M(u; \mathscr{B}_E, \mathscr{B}_F)$.
Remques
Ainsi : $M_{\mathscr{B}_F}^{\mathscr{B}_E}(u) = (a_{ij}) \in \MM_{p,q}(\K)$, où
$a_{ij}$ désigne la $i^{\grave{e}me}$ coordonnée de $u(e_j)$ dans la base $\mathscr{B}_F$.
Donc pour déterminer la matrice de $u$ relativement aux bases $B_E$ et $B_F$, on calcul $u(B_E)$.
$$
\left\{\begin{array}{l}
u(e_1)=a_{11}e_1'+a_{21}e_2'+\cdots+a_{i1}e_i'+\cdots+a_{p1}e_p'\\
u(e_2)=a_{12}e_1'+a_{22}e_2'+\cdots+a_{i2}e_i'+\cdots+a_{p2}e_p'\\
\vdots\\
\textcolor{blue}{u(e_j)=a_{11}e_1'+a_{21}e_2'+\cdots+a_{i1}e_i'+\cdots+a_{p1}e_p'}\\
\vdots\\
u(e_q)=a_{11}e_1'+a_{21}e_2'+\cdots+a_{i1}e_i'+\cdots+a_{p1}e_p'\\
\end{array}
\right.
$$
Ceci nous donne la matrice de $u$.
$$
\begin{matrix}
\begin{matrix}
\phantom{ M(u)=}
\end{matrix}&\begin{matrix}
u(e_1)& u(e_2)&& \textcolor{blue}{u(e_j)}&&u(e_q)
\end{matrix} &\\
\begin{matrix}
\,\\
\,\\
M(u)=\\
\,\\
\,
\end{matrix} &
\begin{pmatrix}
a_{11} & \quad a_{12} & \dots & \textcolor{blue}{a_{1j}} & \dots & a_{1q} \\
a_{21} & \quad a_{22} & \dots & \textcolor{blue}{a_{2j}} & \dots & a_{2q} \\
\vdots & \quad \vdots & & \textcolor{blue}{\vdots }& & \vdots \\
a_{i1} & \quad a_{i2} & \dots & \textcolor{blue}{a_{ij}} & \dots & a_{iq} \\
\vdots & \quad \vdots & & \textcolor{blue}{\vdots} & & \vdots \\
a_{p1} & \quad a_{p2} & \dots & \textcolor{blue}{a_{pj}} & \dots & a_{pq}
\end{pmatrix}
& \begin{matrix}
\longleftarrow\, e_1'\\
\longleftarrow\, e_2'\\
\vdots\\
\longleftarrow\, e_i'\\
\vdots\\
\longleftarrow\, e_p'
\end{matrix}
\end{matrix}
$$
Remarque
La matrice d'une application linéaire est avant tout UNE MATRICE, donc ne contient que
des scalaires.
A éviter
(DS 2020)
On note dans cette partie $V =\MM_2(\C)$; l'espace vectoriel des matrices carrées d'ordre 2 à
coefficients complexes. On fixe dans $V$ la base canonique
$\EE=\{e_1=E_{1\,1},e_2=E_{1\,2},e_3=E_{2\,1},e_4=E_{2\,2}\}$ où $E_{i\,j}$ est la matrice dont
tous les
coefficients sont nuls sauf celui de la ligne $i$ et la colonne $j$.
Soit $A=\begin{pmatrix}
2&6\\1&1
\end{pmatrix}\in V$, et on considère $\fonct{\varphi}{V}{V}{M}{MA-AM}$.
-
Écrire la matrice de $\varphi$ dans la base $\EE$.
-
Calculer $\varphi(I_2)$ et $\varphi(A)$, que peut-t-on dire sur $\dim (\Ker(\varphi))$?
-
Résoudre l'équation $\varphi(X)=5X$ d'inconnu $X\in V$.
-
On pose $\BB=\{I_2,A,B,C\}$ avec $B=\begin{pmatrix}
-2&-4\\1&2
\end{pmatrix},\quad C=\begin{pmatrix}
3&-9\\1&-3
\end{pmatrix}.$
-
Montrer que $\BB$ est une base de $V$.
-
Déterminer la matrice de $\varphi$ dans la base $\BB$.
Correction
-
Et non, la matrice de $\varphi$ n'est pas une matrice de taille 2!.
On calcul $\varphi( \EE)$,
$$\begin{array}{l}
\varphi(E_{1\,1})=
\begin{pmatrix}
1&0\\
0&0
\end{pmatrix}\begin{pmatrix}
2&6\\1&1
\end{pmatrix}-\begin{pmatrix}
2&6\\1&1
\end{pmatrix}\begin{pmatrix}
1&0\\
0&0
\end{pmatrix} =\begin{pmatrix}
2&6 \\0&0
\end{pmatrix}-\begin{pmatrix}
2&0\\
1&0
\end{pmatrix}=\begin{pmatrix}
0&6\\
-1&0
\end{pmatrix}\\
\varphi(E_{1\,2})=
\begin{pmatrix}
0&1\\
0&0
\end{pmatrix}\begin{pmatrix}
2&6\\1&1
\end{pmatrix}-\begin{pmatrix}
2&6\\1&1
\end{pmatrix}\begin{pmatrix}
0&1\\
0&0
\end{pmatrix} =\begin{pmatrix}
1&1 \\0&0
\end{pmatrix}-\begin{pmatrix}
0&2\\
0&1
\end{pmatrix}=\begin{pmatrix}
1&-1\\
0&-1
\end{pmatrix}\\
\varphi(E_{2\,1})=
\begin{pmatrix}
1&0\\
0&0
\end{pmatrix}\begin{pmatrix}
2&6\\1&1
\end{pmatrix}-\begin{pmatrix}
2&6\\1&1
\end{pmatrix}\begin{pmatrix}
1&0\\
0&0
\end{pmatrix} =\begin{pmatrix}
0&0 \\2&6
\end{pmatrix}-\begin{pmatrix}
6&0\\
1&0
\end{pmatrix}=\begin{pmatrix}
-6&0\\
1&6
\end{pmatrix}\\
\varphi(E_{2\,2})=
\begin{pmatrix}
1&0\\
0&0
\end{pmatrix}\begin{pmatrix}
2&6\\1&1
\end{pmatrix}-\begin{pmatrix}
2&6\\1&1
\end{pmatrix}\begin{pmatrix}
1&0\\
0&0
\end{pmatrix} =\begin{pmatrix}
0&0 \\1&1
\end{pmatrix}-\begin{pmatrix}
0&6\\
0&1
\end{pmatrix}=\begin{pmatrix}
0&-6\\
1&0
\end{pmatrix}
\end{array}
$$
Ce qui donne
$$M_{\EE}(\varphi)=\begin{pmatrix}
0&1&-6&0\\
6&-1&0&-6\\
-1&0&1&1\\
0&-1&6&0
\end{pmatrix}
$$
-
$\varphi(I_2)=I_2A-AI_2=0,\,\,\varphi(A)=A^2-A^2=0$, donc $I_2,\,A\in \Ker(\varphi)$ et
comme
$A$ n'est pas colinéaire à $I_2$ on déduit alors que la famille $(I_2,A)$ est libre ce
qui
implique que $\dim (\Ker(\varphi))\geq 2$.
-
Soit $X=\begin{pmatrix}
a&b\\ c&d
\end{pmatrix}$, on a
$$\varphi(X)=5X \Longleftrightarrow \begin{pmatrix}
b-6c&6a-b-6d\\
c+d-a&6c-b
\end{pmatrix}=\begin{pmatrix}
5a&5b\\5c&5d
\end{pmatrix}\Longleftrightarrow\left\{\begin{array}{l}
d=-a\\
b=2a\\
a=-2c
\end{array}\right.$$
i.e. $X\in \Vect\left(\begin{pmatrix}
-2&-4\\
1&2
\end{pmatrix}\right)$.
Soient $u \in \mathscr{L}(E,F)$ et $A=(a_{ij}) \in \MM_{p,q}(\K) =
M_{\mathscr{B}_F}^{\mathscr{B}_E}(u)$,
$x \in E$, $x=\dsp \sum_{j=1}^q{x_j e_j}$ et $y=u(x) \in F$, $y= \dsp \sum_{i=1}^p{y_i e'_i}$.
Soit enfin $X$ la matrice colonne des coordonnées de $x$ dans $\mathscr{B}_E$ :
$X={\,}^t (x_1\cdots x_q) \in \ \MM_{q,1}(\K)$ et $Y$ la matrice colonne des coordonnées de $y$
dans
$\mathscr{B}_F$ : $Y={\,}^t (y_1\cdots y_p) \in \ \MM_{p,1}(\K)$.
Alors :
$$\forall i \in \inter{1,p} \ , \ y_i = \dsp \sum_{j=1}^q{a_{ij}x_j}$$
ce qui se traduit matriciellement par: $\boxed{Y=AX}$.
L'application
$$\fonct{\varphi_{_{(\BB_E,\,\BB_F)}}}{\mathscr{L}(E,F)}{\MM_{p,q}(\K)}{u}{M_{\mathscr{B}_F}^{\mathscr{B}_E}(u)}$$
est une bijection de $\mathscr{L}(E,F)$ sur $\MM_{p,q}(\K)$.
(cette bijection dépend du choix des bases $\mathscr{B}_E$ et
$\mathscr{B}_F$).
Soit $A \in \MM_{p,q}(\K)$. Alors il existe une et une seule application linéaire
$a \in \mathscr{L}(\K^q,\K^p)$ telle que la matrice de $a$ dans les bases canoniques respectives
de
$\K^q$ et $\K^p$ soit égale à $A$.
$a$ s'appelle l'application linéaire canoniquement associée à $A$.
Soient $G,E,F$ trois $\K$-ev de dimensions respectives $r,q,p$, rapportés respectivement à des
bases $\mathscr{B}_G=(e''_1, \ldots, e''_r) , \, \mathscr{B}_E=(e_1, \ldots, e_q), \,
\mathscr{B}_F=(e'_1, \ldots, e'_p)$.
Soient :
-
$A \in \MM_{p,q}(\K)$, et $u \in \mathscr{L}(E,F)$ tq $A=
M_{\mathscr{B}_F}^{\mathscr{B}_E}(u)$ ,
-
$B \in \MM_{r,p}(\K)$, et $v \in \mathscr{L}(F,G)$ tq
$B=M_{\mathscr{B}_G}^{\mathscr{B}_F}(v)$ et
-
$C \in \MM_{r,q}(\K)$, tq $C =M_{\mathscr{B}_G}^{\mathscr{B}_E}(v \circ u)$ (avec $v \circ u
\in
\mathscr{L}(E,G)$).
Pour tous $k \in \inter{1,q}$, on a $(v\circ u)(e_k)=\dsum_{i=1}^r c_{ik}e''_i$. Or
$$u(e_k)=\dsum_{j=1}^p a_{jk}e'_j\quad \text{ et } \quad v(e'_j)=\dsum_{i=1}^r b_{ij}e''_i$$
Donc
$$(v\circ u)(e_k)=\dsum_{j=1}^p a_{jk}v(e'_j)=\dsum_{j=1}^p a_{jk}\left(\dsum_{i=1}^r b_{ij}e''_i
\right)= \dsum_{i=1}^r\left(\dsp \sum_{j=1}^pb_{ji}{a_{jk}}\right)e''_i=\dsum_{i=1}^r c_{ik}e''_i.$$
On en déduit alors :
[Matrice de la composée]
Avec les hypothèses précédentes, on a:
$$\forall (i,k) \in \inter{1,r} \times \inter{1,q} \ , \ c_{ik} = \dsp \sum_{j=1}^p
{b_{ij}a_{jk}},
\quad \text{i.e. }\, C=BA.$$
Autrement dit,
$$\boxed{ M_{B_G}^{B_E}(v\circ u)=M_{B_G}^{B_F}(v) \times M_{B_F}^{B_E}(u)}.$$
Remarque
Dans la formule $ M_{B_G}^{B_E}(v\circ u)=M_{B_G}^{B_F}(v) \times M_{B_F}^{B_E}(u)$, la base de
$F$
utilisée pour le calcul de la matrice de $u$ et $v$ doit être la même.
Changements de base
Matrices de passage
Soit $E$ un $\K$-e-v de dimension $n$, et $\mathscr{B}=(e_1, \ldots,e_n)$ et
$\mathscr{B}'=(e'_1, \ldots,e'_n)$ deux bases de $E$.
On appelle matrice de passage de $\mathscr{B}$ à $\mathscr{B}'$ la matrice du système
$(e'_1, \ldots,e'_n)$ dans la base $\mathscr{B}$.
On la note $P_\mathscr{B}^{\mathscr{B}'}$ ou
$P_{\mathscr{B},\mathscr{B}'}$.
Remques
-
Ainsi, la j-ème colonne de $P_\mathscr{B}^{\mathscr{B}'}$ est formée des coordonnées de
$e'_j$ dans
$\mathscr{B}$.
-
$P_\mathscr{B}^{\mathscr{B}'}$ est aussi la matrice, dans la base $\mathscr{B}$ de
l'endomorphisme
$u$ de $E$ défini par : $\forall i \in \inter{1,n} \ , \ u(e_i)=e'_i$.
-
$P_\mathscr{B}^{\mathscr{B}'}$ est aussi la matrice, dans les bases $\mathscr{B}'$ et
$\mathscr{B}$ de l'application $\textrm{id}_E$, soit
$M_{\mathscr{B}}^{\mathscr{B}'}(\textrm{id}_E)$.
$P_\mathscr{B}^{\mathscr{B}'}$ est inversible et
$\left( P_\mathscr{B}^{\mathscr{B}'} \right) ^{-1} \ = \ P_{\mathscr{B}'}^{\mathscr{B}}$.
Remarque
Si on trouve une matrice de passage non inversible, ALORS il y a forcément une faute (ou
plusieurs) de calculs!!
Matrice non inversible....il suffit de regarder la 1ère colonne.
Soit $E$ un $\K$-e-v de dimension $n$, $\mathscr{B}$ et $\mathscr{B}'$ deux bases de $E$, et $P$
la
matrice de passage de $\mathscr{B}$ à $\mathscr{B}'$.
Soit $x$ un vecteur de $E$, $X$ la matrice colonne de ses coordonnées dans $\mathscr{B}$ et $X'$
celle
de ses coordonnées dans $\mathscr{B}'$.
On a alors la relation :
$\boxed{X \, = \, PX'}$.
Soient
-
$E$ un $\K$ e v de dimension $q$, muni de deux bases $\mathscr{B}_E$ et
$\mathscr{B}'_E$.
$P \in GL_q(\K)$ la matrice de passage de $\mathscr{B}_E$ à $\mathscr{B}'_E$
-
$F$ un $\K$ e v de dimension $p$, muni de deux bases $\mathscr{B}_F$ et
$\mathscr{B}'_F$.
$Q \in GL_p(\K)$ la matrice de passage de $\mathscr{B}_F$ à $\mathscr{B}'_F$
Soit $u \in \mathscr{L}(E,F)$, $A=M_{\mathscr{B}_F}^{\mathscr{B}_E}(u)$ et
$A'=M_{\mathscr{B}'_F}^{\mathscr{B}'_E}(u)$ ($A,A' \in \MM_{p,q}(\K)$).
On a alors la relation : $ \boxed{A'=Q^{-1}AP }$.
On peut représenter ce résultat par le schéma suivant:
\begin{CD}
(E,\mathscr{B}_E) @< \mathrm{Id}_E< P< (E,\mathscr{B}_E')\\
@VuVAV @VuVA'V\\
(F,\mathscr{B}_F) @>\mathrm{Id}_F>{Q^{-1}}> (F,\mathscr{B}_F')
\end{CD}
Cas d'un endomorphisme
Soient
$E$ un $\K$ e-v de dimension $n$, muni de deux bases $\mathscr{B}_E$ et $\mathscr{B}'_E$,
$P \in GL_n(\K)$ la matrice de passage de $\mathscr{B}_E$ à $\mathscr{B}'_E$.
Soiet $u \in \mathscr{L}(E)$, $A=M_{\mathscr{B}_E}(u)$ et $A'=M_{\mathscr{B}'_E}(u)$
($A,A' \in\MM_{n}(\K)$).
On a alors la relation : $ \boxed{A'=P^{-1}AP }$.
\begin{CD}
(E,\mathscr{B}_E) @< \mathrm{Id}_E< P< (E,\mathscr{B}_E')\\
@VuVAV @VuVA'V\\
(E,\mathscr{B}_E) @>\mathrm{Id}_E>{P^{-1}}> (E,\mathscr{B}_E')
\end{CD}
Remarque
Généralement, on change la base $\BB$ pour travailler dans la base $\BB'$ avec l'objectif que la
matrice de $u$ dans $\BB'$ soit plus simple (contient plus de $0$),
par exemple diagonale ou triangulaire supérieure.
On considère $E=\R_2[X]$ muni de la base canonique $\BB=(1,X,X^2)$, et $u:E\longmapsto E$
définie par
$u(P)=2P+(X-X^2)P(2)$.
-
Donner la matrice de $u$ dans $\BB$.
-
On considère $\BB'=\{X(X-1),X(X-2),(X-1)(X-2))$. Montrer que $\BB'$ est une base de $E$
puis déterminer la matrice de $u$ dans cette base.
Correction
-
Le calcul de $u(\BB)$ donne,
$$ u(1)=2+X-X^2,\,u(X)=4X-X^2,\,u(X^2)=4X-2X^2.$$
Ce qui donne,
$$
\left.\begin{array}{ll}
u(e_0)&=2\times e_0 +1\times e_1-1 \times e_2\\
u(e_1)&=0\times e_0 +4\times e_1-2 \times e_2\\
u(e_2)&=0\times e_0 +4\times e_1-2\times e_2
\end{array}\right\}\Longrightarrow M(u)=\begin{pmatrix}
2&0&0\\
1&4&4\\
-1&-2&-2
\end{pmatrix}
$$
-
Comme $\BB'=(X(X-1),X(X-2),(X-1)(X-2))$ contient autant d'éléments que $\dim(E)$ alors
il suffit de
montrer que c'est une famille libre.
Soient $a,b,\,c\in \R$ tels que
$$ aX(X-1)+bX(X-2)+c(X-1)(X-2)=0 \Longleftrightarrow \forall x\in \R,\,
ax(x-1)+bx(x-2)+c(x-1)(x-2)=0$$
Donc pour $x=2$ on trouve $a=0$, puis pour $x=1$, on trouve $b=0$ et enfin pour $x=2$ on
a $c=0$,
ce qui implique que $\BB'$ est libre donc base de $E$.
On calcul $u(\BB')$,
$$
u(e_1')=2X(X-1)+2(X-X^2)=0,\,u(e_2')=2X(X-2),\,u(e_3')=2(X-1)(X-2)$$
donc
$$
\left.\begin{array}{ll}
u(e'_0)&=0\times e'_0 +0\times e'_1+0 \times e'_2\\
u(e'_1)&=0\times e'_0 +2\times e'_1+0 \times e'_2\\
u(e'_2)&=0\times e'_0 +0\times e'_1+2\times e'_2
\end{array}\right.\Longrightarrow M_{\BB'}(u)=\begin{pmatrix}
0&0&0\\
0&2&0\\
0&0&2
\end{pmatrix}
$$
On dit qu'une matrice carrée $A' \in \MM_{n}(\K)$ est semblable à la
matrice $A \in \MM_{n}(\K)$ s'il existe $P \in GL_n(\K)$
telle que $A'=P^{-1}AP$.
$A$ et $A'$ sont semblables si et seulement si ce sont les matrices, dans deux bases
différentes, d'un même endomorphisme $u$ d'un e-v de
dimension $n$.
Soit $E$ un $\K$-e-v de dimension $n$, $\mathscr{B}_E=(e_1, \ldots,e_n)$ une base de $E$. Soit
$u \in \mathscr{L}(E)$, et $A=M_{\mathscr{B}_E}(u) \in \MM_n(\K)$.
Alors : $A$ est triangulaire supérieure $\Longleftrightarrow \forall j \in \inter{1,n} \,,
\Vect(e_1, \ldots,e_j)$ est stable par $u$.
Soient $A,B\in TS_n(\K)$ alors $AB\in TS_n(\K)$.
Lien avec le rang d'une matrice
-
Si $A$ est la matrice, dans une base $\mathscr{B}_F$, d'un système de vecteurs $(x_1,
\ldots, x_q)$ de $F$, le rang de $A$ est aussi celui, dans $F$,
du système de vecteurs $(x_1, \ldots, x_q)$ .
-
Si $A$ est la matrice, dans des bases $\mathscr{B}_E$ et $\mathscr{B}_F$ d'une
application
linéaire $u \in \mathscr{L}(E,F)$, le rang de $A$ est aussi le rang de $u$.
En particulier, si $a$ est l'application linéaire canoniquement associée à $A$,
$\rg A = \rg a$
.
-
Si $A \in \MM_{p,q}(\K)$ et si $a$ est l'application linéaire canoniquement associée à
$A$
$$ \rg A=p \ \Longleftrightarrow \ a \text{ surjective } \, , \, \rg A=q \,
\Longleftrightarrow \, a \text{ injective }.$$
-
Si $A \in \MM_{n}(\K)$ et si $a$ est l'application linéaire canoniquement associée à $A$
$$ \rg A=n \, \Longleftrightarrow \, a \text{ bijective } \,
\Longleftrightarrow A \text{ est inversible}.$$
Remarque
On peut remplacer $a$ par n'importe quelle application linéaire $u$ d'un $\K$-ev $E$ de
dimension $q$,
rapporté à une base $\mathscr{B}_E$, dans un $\K$-ev $F$ de dimension $p$, rapporté à une base
$\mathscr{B}_F$, telle que $A= M_{\mathscr{B}_F}^{\mathscr{B}_E}(u)$).
Soient $A \in \MM_{p,q}(\K)$ et $B \in \MM_{q,r}(\K)$.
-
Si $p=q$ et $A \in GL_p(\K)$, $\rg (AB)=\rg (B), $
-
Si $q=r$ et $B \in GL_q(\K)$, $\rg (AB)=\rg (A)$.
Rappelons la définiton d'une matrice extraite ou sous matrice.
Soit $A\in \MM_{pq}$, on dit que $A'$ est une sous-matrice ou matrice extraite
de $A$ si $A'$ est obtenue de $A$ en supprimant certaines linges et / ou certaines colonnes de $A$.
Exemple
Considérons la matrice $A= \begin{pmatrix}
a&b&c&d\\
u&v&w&q\\
x&y&z&r
\end{pmatrix}$. En supprimant les colonnes 1 et 2 et la ligne 2, on obtient
$$
\begin{pmatrix}
\xcancel{a}&\textcolor{blue}{b}&\textcolor{blue}{c}&\xcancel{d}\\
\xcancel{u}&\xcancel{v}&\xcancel{w}&\xcancel{q}\\
\xcancel{x}&\textcolor{blue}{y}&\textcolor{blue}{z}&\xcancel{r}
\end{pmatrix} \rightsquigarrow \quad A' =\begin{pmatrix}
b&c\\y&z
\end{pmatrix}
$$
Le rang d'une matrice non nulle $A \in \MM_{p,q}(\K)$ est le plus grand entier $r \geqslant 1$
tel
que l'on puisse extraire de $A$ une matrice carrée inversible d'ordre $r$.
(CCP 2015)
Soit $A\in\MM_n(\R)$ (avec $n\geq 2$) la matrice de coefficients $a_{ij}=\cos(i-j)$. Trouver le
rang de~$A$.
Correction
En utilisant la formule $\cos(a+b)+\cos(a-b)=2\cos(a)\cos(b)$. On trouve
$\cos(k+2)+\cos(k)=2\cos(1)\cdot \cos(k+1)$, ce qui donne (en notant $C_j$ la $j$ème
colonne de la matrice $A$)
\begin{equation*}
\forall k\in \inter{0,n-2},\quad C_{k+2}= -C_k-2\cos(1)\,C_{k+1}\Longrightarrow \rg(A)\leq 2.
\end{equation*}
D'autre part, la matrice $A'=\begin{pmatrix}
\cos(0)&\cos(1)\\
\cos(1)&\cos(0)
\end{pmatrix}$ extraite de la matrice $A$ est inversible donc $\rg(A)\geq 2$.
On en déduit, $\boxed{\rg(A)=2}$.
Si $A \in \MM_{p,q}(\K)$, $\rg A = \rg ({\,}^t A)$.
Soit $A=(a_{ij}) \in TS_n(\K)$. Alors $A$ est inversible si et seulement si,
$$i \in \inter{1,n},\quad a_{ii} \neq 0.$$
Dans ce cas, $A^{-1}$ est une matrice triangulaire supérieure, dont les éléments diagonaux sont
les $\dsp \frac{1}{a_{ii}}$.
Soit $A=(a_{ij}) \in TS_n(\K)$. Alors $A$ est nilpotente si et seulement si,
$$\forall i \in \inter{1,n},\quad a_{ii}=0.$$
Trace d'une matrice, d'un endomorphisme
Trace d'une matrice
On appelle trace d'une matrice carrée $A = (a_{ij}) \in \MM_{n}(\K)$ le
scalaire :
$ \mathrm{tr} A \ = \ \dsp \sum_{i=1}^n{a_{ii}}$.
-
L'application $\mathrm{tr}$ : $\MM_{n}(\K) \rightarrow \K$ est une forme
linéaire.
-
$ \forall A \in \MM_{n,p}(\K)$ et $\forall B \in \MM_{p,n}(\K)$, $\mathrm{tr}
(AB) = \mathrm{tr} (BA)$.
Remarques
-
Soient $A,B,C \in \MM_{n}(\K)$. Le résultat ci-dessus donne :
$$ \mathrm{tr} (ABC) = \mathrm{tr}(BCA) = \mathrm{tr}(CAB)$$
mais on n'a pas $\mathrm{tr}(ABC)= \mathrm{tr}(BAC)$ en général.
Exemple: $A=\begin{pmatrix} 1 & 0 \\ 0 & 0 \end{pmatrix} \ , \quad
B=\begin{pmatrix} 0 & 1 \\ 0 & 0 \end{pmatrix} \ , \quad C= \begin{pmatrix} 0 & 0 \\ 1 &
0 \end{pmatrix}$.
-
La démonstration du théorème précédent doit être connue, et peut faire l'objet d'une
question du concours, par exemple E3A 2019 (MP).
-
L'application $\mathrm{tr}$ est une forme linéaire, donc en utilisant le théorème du
rang, on trouve facilement $\boxed{\dim (\Ker(\mathrm{tr}))=n^2-1}$. Bien que ce
résultat semble évident,
mais pose beaucoup de problème aux élèves,
-
Une réponse extra-terrestre.
-
Une réponse avec justification
-
Une réponse sans justification
-
Une blague belge (en faite 2).
-
Enfin, pour terminer, une réponse sans réponse,
Deux matrices carrées semblables ont même trace.
Trace d'une endomorphisme
Soit $E$ un $\K$-e-v de dimension $n \geqslant 1$, et $u \in \mathscr{L}(E)$.
Pour toute base $\mathscr{B}$ de $E$, le scalaire $\mathrm{tr} (M_{\mathscr{B}}(u))$ ne dépend
donc pas de la
base $\mathscr{B}$ choisie.
Ce scalaire s'appelle la trace de l'endomorphisme $u$, noté
$\mathrm{tr} u$.
(Oral CCP 2017)
Montrer que $f$, définie sur $\R_n[x]$ par $f(P)(x)=\dsp\int_x^{x+1}P(t)\ud t$ est un
endomorphisme et donner sa trace.
Correction
On note $E=\R_n[x]$ et $\BB=(e_0,\cdots,e_n)$ la base canonique de $E$ (avec $e_i(x)=x^i$).
Soient $P_1,\,P_2\in E$ et $\lambda\in \R$, on note $Q=\varphi(\lambda P_1+P_2)$. Alors,
$$
\begin{array}{lcl}
\forall x\in \R,\,Q(x)&=& \dsp\int_x^{x+1}(\lambda P_1+P_2)(t)\ud t=\int_x^{x+1}(\lambda
P_1(t)+P_2(t))\ud t\\
&&\\
&=&\dsp\lambda\int_x^{x+1}P_1(t)\ud t+\int_x^{x+1}P_2(t)\ud t=\lambda \varphi
(P_1)(x)+\varphi(P_2)(x).
\end{array}
$$
On en déduit alors, $\varphi (\lambda P_1+P_2)=\lambda\varphi(P_1)+\varphi (P_2)$ ce qui montre
que
$\varphi$ est linéaire.
Montrons que $f(E)\subset E$, pour cela il suffit de calculer $f$ de la base canonique.
Soit $k\in \inter{0,n}$, on a
$$
\begin{array}{lcl}
\forall x\in \R,\,f(e_k)(x)&=& \dsp\int_x^{x+1}t^k\ud
t=\dfrac{1}{k+1}\left[t^{k+1}\right]_x^{x+1}
=\dfrac{1}{k+1}\left((x+1)^{k+1}-x^{k+1}\right)\\
&&\\
&=&\dsp \dfrac{1}{k+1}\left(\dsum_{j=0}^{k+1}\binom{k+1}{j}x^j-x^{k+1}\right)\\
&&\\
&=&\dsp\dfrac{1}{k+1}\left(\textcolor{red}{x^{k+1}}+\dsum_{j=0}^{k}\binom{k+1}{j}x^j-\textcolor{red}{x^{k+1}}\right)=\dfrac{1}{k+1}\dsum_{j=0}^{k}\binom{k+1}{j}x^j\in
E
\end{array}
$$
Ceci prouve que $f\in \LL(E)$.
D'autre part, le calcul précédent, montre que, pour tout $k\geq 1$,
$$f(e_k)(x)= \dfrac{1}{k+1}\dsum_{j=0}^{k}\binom{k+1}{j}x^j= \dfrac{1}{k+1}
\left(\binom{k+1}{k}x^k +\dsum_{j=0}^{k-1}\binom{k+1}{j}x^j\right) =x^k +
\dsum_{j=0}^{k-1}\binom{k+1}{j}\dfrac{x^k}{k+1}$$
et on a $f(e_0)=1=e_0$, donc
\begin{equation*}
M(f)_\BB=
\begin{pmatrix}
1 &\frac{1}{2} & \phantom{\cdots} & \phantom{\cdots} &\phantom{\cdots} & & \frac{1}{n+1} \\
0 & 1 & \ddots & & & &\phantom{\vdots} \\
& & \ddots & & &&\vdots \\
& & & &\ddots &&\phantom{\vdots} \\
& & & &\ddots &&\phantom{\vdots}\\
& & & & &1&\frac{1}{2} \\
0 & & &&& 0 & 1
\end{pmatrix}
\Longrightarrow \mathrm{tr}(f)=\mathrm{tr}(M_\BB(f))=n+1.
\end{equation*}
-
L'application $\mathrm{tr}$ : $\mathscr{L}(E) \rightarrow \K$ est une forme linéaire.
-
$\forall u,v \in \mathscr{L}(E) \ , \ \mathrm{tr}(v \circ u) = \mathrm{tr} (u \circ v)$.
Soit $E$ un $\K$-e-v de dimension $n$.
-
Si $p$ est un projecteur de $E$, alors : $\mathrm{tr} p= \rg p$.
-
Si $E_1$ et $E_2$ sont deux s-e-v supplémentaires de $E$ et si $s$ est la symétrie par rapport à $E_1$ de direction $E_2$, alors: $\mathrm{tr} s= \dim(E_1)-\dim(E_2)$.
Matrices par blocs
Soit $A \in \MM_{p,q}(\K)$. On appelle bloc de $A$ toute matrice
$(a_{ij})_{(i,j)\in I\times J}$, où $I$ et $J$ sont respectivement des parties de $\inter{1,p}$ et $\inter{1,q}$
formées d'entiers consécutifs.
Exemple
Considérons la matrice $A= \begin{pmatrix}
a&b&c&d\\
u&v&w&q\\
x&y&z&r
\end{pmatrix}$. On considère $I=\{2,3\},\,J=\{2,3\}$ , on obtient le bloc
$$
\begin{pmatrix}
\xcancel{a}&\xcancel{b}&\xcancel{c}&\xcancel{d}\\
\xcancel{u}&\textcolor{blue}{v}&\textcolor{blue}{w}&\xcancel{q}\\
\xcancel{x}&\textcolor{blue}{y}&\textcolor{blue}{z}&\xcancel{r}
\end{pmatrix} \rightsquigarrow \quad A' =\begin{pmatrix}
v&w\\y&z
\end{pmatrix}
$$
Remarque
Si on ne suppose plus ces entiers consécutifs, on obtient ce qui est appelé une matrice extraite.
Soient $A,B \in \MM_{p,q}(\K)$, décomposées en blocs avec le même découpage :
$$ A\,=
\begin{matrix}
\begin{matrix}
\underset{\longleftrightarrow}{q_1}&\cdots&\underset{\longleftrightarrow}{q_j}&\cdots&\underset{\longleftrightarrow}{q_m}
\end{matrix} & \\
\begin{bmatrix}
A_{11} & \cdots &A_{1j}&\cdots& A_{1m} \\
\vdots & & & \\
A_{i 1} & \cdots &\textcolor{blue}{ A_{i j}}&\cdots& A_{im} \\
\vdots & & &\\
A_{\ell 1} & \cdots &A_{\ell j}&\cdots& A_{\ell m}
\end{bmatrix}& \begin{matrix}
\updownarrow \,p_1\\
\vdots\\
\updownarrow \,p_i\\
\vdots\\
\updownarrow \,p_\ell
\end{matrix}
\end{matrix}
$$
$$ B\,=
\begin{matrix}
\begin{matrix}
\underset{\longleftrightarrow}{q_1}&\cdots&\underset{\longleftrightarrow}{q_j}&\cdots&\underset{\longleftrightarrow}{q_m}
\end{matrix} & \\
\begin{bmatrix}
B_{11} & \cdots &B_{1j}&\cdots& B_{1m} \\
\vdots & & & \\
B_{i 1} & \cdots &\textcolor{blue}{B_{i j}}&\cdots& B_{im} \\
\vdots & & &\\
B_{\ell 1} & \cdots &B_{\ell j}&\cdots& B_{\ell m}
\end{bmatrix}& \begin{matrix}
\updownarrow \,p_1\\
\vdots\\
\updownarrow \,p_i\\
\vdots\\
\updownarrow \,p_\ell
\end{matrix}
\end{matrix}
$$
Alors, si $\lambda \in \K$, la matrice $\lambda A + B $ s'écrit, par blocs :
$$ \lambda A+B\,=
\begin{matrix}
\begin{matrix}
\quad\quad\quad\underset{\longleftrightarrow}{q_1}&\phantom{\cdots}&\quad\quad\underset{\longleftrightarrow}{q_j}&\phantom{\cdots}&\underset{\longleftrightarrow}{q_m}\\
\phantom{\lambda A_{11} +B_{11}}& &\phantom{\lambda A_{11} +B_{11}}&\phantom{\lambda A_{11} +B_{11}}&&\phantom{\lambda A_{11} +B_{11}}
\end{matrix} & \\
\begin{bmatrix}
\lambda A_{11}+B_{11} & \cdots &\lambda A_{1j}+B_{1j}&\cdots& \lambda A_{1m}+B_{1m} \\
\vdots & & & \\
\lambda A_{i1}+B_{i 1} & \cdots &\textcolor{blue}{\lambda A_{i j}+B_{i j}}&\cdots& \lambda A_{im}+B_{im} \\
\vdots & & &\\
\lambda A_{\ell 1}+B_{\ell 1} & \cdots &\lambda A_{\ell j}+B_{\ell j}&\cdots& \lambda A_{\ell m}+B_{\ell m}
\end{bmatrix}& \begin{matrix}
\updownarrow \,p_1\\
\vdots\\
\updownarrow \,p_i\\
\vdots\\
\updownarrow \,p_\ell
\end{matrix}
\end{matrix}
$$
Soit $A \in \MM_{p,q}(\K)$, décomposée en blocs :
$$ A\,=
\begin{matrix}
\begin{matrix}
\underset{\longleftrightarrow}{q_1}&\cdots&\underset{\longleftrightarrow}{q_j}&\cdots&\underset{\longleftrightarrow}{q_m}
\end{matrix} & \\
\begin{bmatrix}
A_{11} & \cdots &A_{1j}&\cdots& A_{1m} \\
\vdots & & & \\
A_{i 1} & \cdots &A_{i j}&\cdots& A_{im} \\
\vdots & & &\\
A_{\ell 1} & \cdots &A_{\ell j}&\cdots& A_{\ell m}
\end{bmatrix}& \begin{matrix}
\updownarrow \,p_1\\
\vdots\\
\updownarrow \,p_i\\
\vdots\\
\updownarrow \,p_\ell
\end{matrix}
\end{matrix}
$$
Alors la matrice transposée de $A$ s'écrit, par blocs :
$$ {\,}^t A\,=
\begin{matrix}
\begin{matrix}
\underset{\longleftrightarrow}{p_1}&\cdots&\underset{\longleftrightarrow}{p_i}&\cdots&\underset{\longleftrightarrow}{p_\ell}
\end{matrix} & \\
\begin{bmatrix}
{\,}^tA_{11} & \cdots & {\,}^tA_{i 1}&\cdots& {\,}^tA_{\ell 1} \\
\vdots & & & \\
{\,}^tA_{ 1\,j} & \cdots & {\,}^tA_{i j}&\cdots& {\,}^tA_{\ell j} \\
\vdots & & &\\
{\,}^tA_{1 m} & \cdots & {\,}^tA_{i m}&\cdots& {\,}^t A_{m \ell }
\end{bmatrix}& \begin{matrix}
\updownarrow \,q_1\\
\vdots\\
\updownarrow \,q_j\\
\vdots\\
\updownarrow \,q_m
\end{matrix}
\end{matrix}
$$
Soit $E$ un $\K$-e-v de dimension finie $n \geqslant1$, $E_1$ et $E_2$ deux s-e-v supplémentaires de
$E$, $\textrm{dim}(E_1)=p$, $\dim (E_2)=n-p$, $\mathscr{B}_1$ et $\mathscr{B}_2$ deux bases de $E_1$ et
$E_2$ respectivement, et $\mathscr{B} =\mathscr{B}_1 \cup \mathscr{B}_2$, de sorte que $\mathscr{B}$ est une
base de $E$.
Soit $u \in \mathscr{L}(E)$, et $A=M_{\mathscr{B}}(u)$, écrite par blocs sous la forme :
$$ \begin{matrix}
&\begin{matrix}
\,\,\underset{\longleftrightarrow}{p}&\underset{\longleftrightarrow}{n-p}
\end{matrix} & \\
\begin{matrix}
\\
A=\\
\\
\end{matrix}&
\begin{bmatrix}
A_1\,\, & B_2 \\
&\\
B_1\,\,& A_2
\end{bmatrix}& \begin{matrix}
\updownarrow \,p\phantom{-n}\\
\\
\updownarrow \,n-p
\end{matrix}
\end{matrix}
$$
On remarquera que $A_1$ et $A_2$ sont des matrices carrées,
que $A_1=M_{\mathscr{B}_1}(p_1 \circ u|_{E_1})$ et que $A_2=M_{\mathscr{B}_2}(p_2 \circ u|_{E_2})$, où $p_1$
(resp. $p_2$) sont les projections sur $E_1$ (resp. $E_2$) parallèlement à $E_2$ (resp. $E_1$).
Alors :
-
$E_1$ est stable par $u \, \Longleftrightarrow \, B_1 = 0$.
-
$E_2$ est stable par $u \, \Longleftrightarrow \, B_2 = 0$.
-
Ainsi, si $E_1$ est stable par $u$, $A$ est de la forme :
$\begin{bmatrix} A_1 & B_2 \\ 0 & A_2 \end{bmatrix}.$ Une telle matrice est dite
triangulaire supérieure par blocs.
$A_1$ est alors la matrice de l'endomorphisme induit par $u$ sur $E_1$.
-
Si $E_1$ et $E_2$ sont stables par $u$, $A$ est de la forme
$ \begin{bmatrix} A_1 & 0 \\ 0 & A_2 \end{bmatrix}.$
Une telle matrice est dite diagonale par blocs. $A_1$ et $A_2$ sont alors les matrices des endomorphismes induits $u|_{E_1}$ et $u|_{E_2}$.
$ \begin{matrix}
&\begin{matrix}
\,\,\underset{\longleftrightarrow}{p}&\underset{\longleftrightarrow}{n-p}
\end{matrix} & \\
\begin{matrix}
\\
A=\\
\\
\end{matrix}&
\begin{bmatrix}
A_1\,\, & B_2 \\
&\\
0\,\,& A_2
\end{bmatrix}& \begin{matrix}
\updownarrow \,p\phantom{-n}\\
\\
\updownarrow \,n-p
\end{matrix}
\end{matrix}
$ est inversible ssi $A_1\in GL_p(\K)$ et $A_2\in GL_{n-p}(\K)$.
Et, dans ce cas, $A^{-1}$ est de la forme :
$$ \begin{matrix}
&\begin{matrix}
\,\,\underset{\longleftrightarrow}{p}&\underset{\longleftrightarrow}{n-p}
\end{matrix} & \\
\begin{matrix}
\\
A^{-1}=\\
\\
\end{matrix}&
\begin{bmatrix}
A_1^{-1}\,\, & B_2' \\
&\\
0\,\,& A_2^{-2}
\end{bmatrix}& \begin{matrix}
\updownarrow \,p\phantom{-n}\\
\\
\updownarrow \,n-p
\end{matrix}
\end{matrix}
$$
$ \begin{matrix}
&\begin{matrix}
\,\,\underset{\longleftrightarrow}{p}&\underset{\longleftrightarrow}{n-p}
\end{matrix} & \\
\begin{matrix}
\\
A=\\
\\
\end{matrix}&
\begin{bmatrix}
A_1\,\, & 0 \\
&\\
0\,\,& A_2
\end{bmatrix}& \begin{matrix}
\updownarrow \,p\phantom{-n}\\
\\
\updownarrow \,n-p
\end{matrix}
\end{matrix}
$ est inversible ssi $A_1\in GL_p(\K)$ et $A_2\in GL_{n-p}(\K)$.
Et, dans ce cas, $A^{-1}$ est de la forme :
$$ \begin{matrix}
&\begin{matrix}
\,\,\underset{\longleftrightarrow}{p}&\underset{\longleftrightarrow}{n-p}
\end{matrix} & \\
\begin{matrix}
\\
A^{-1}=\\
\\
\end{matrix}&
\begin{bmatrix}
A_1^{-1}\,\, & 0 \\
&\\
0\,\,& A_2^{-2}
\end{bmatrix}& \begin{matrix}
\updownarrow \,p\phantom{-n}\\
\\
\updownarrow \,n-p
\end{matrix}
\end{matrix}
$$
Remarque
Les résultats ci-dessus se généralisent sans difficulté aux cas des matrices triangulaires supérieures par blocs, de la forme :
$$\begin{bmatrix} A_{11} & \dots & A_{1n} \cr &
\ddots & \vdots \cr {\ \ }^{\dsp \textrm{\huge{0}}} & & A_{nn}
\end{bmatrix},$$ où les $A_{ii}$ sont des matrices carrées,
et aux matrices diagonales par blocs de la forme
$$\begin{bmatrix} A_{11} & & {}_{\dsp \textrm{\huge{0}}} \cr &
\ddots & \cr {\ \ }^{\dsp \textrm{\huge{0}}} & & A_{nn}
\end{bmatrix}.$$
(CCINP 2021)
-
Soient $(r,s,t,u)\in \C^4$ et $(e_1,e_2)$ la base canonique de $\C^2$. On note $\varphi$
l'endomorphisme de $\C^2$ dont la matrice dans la base $(e_1,e_2)$ est $\begin{pmatrix}
r&s\\t&u
\end{pmatrix}$. Exprimer la matrice de $\varphi$ dans la base $(e_2,e_1)$.
-
Soit $(R,S,T,U)\in \MM_n(\C)^4$. En s'inspirant de la question précédente, montrer que la matrice $\begin{pmatrix}
R&S\\T&U
\end{pmatrix}$ est semblable dans $\MM_{2n}(\C)$ à la matrice $\begin{pmatrix}
U&T\\
S&R
\end{pmatrix}
$
. Montrer de même que
$\begin{pmatrix}
R&S\\T&U
\end{pmatrix}$
est
semblable à la matrice
$\begin{pmatrix}
R&-S\\-T&U
\end{pmatrix}$
.
Correction
-
En utilisant la matrice de $\varphi$, on a
$$
\left.\begin{array}{l}
\varphi(e_2)=se_1+ue_2= ue_2+s e_1\\
\\
\varphi(e_1)=re_1+te_2= te_2+re_1
\end{array}\right\}\Longrightarrow M_{(e_2,e_1)}(\varphi)=\begin{pmatrix}
u&t\\
s&r
\end{pmatrix}.$$
On aurait aussi pu utiliser la matrice $P$ de passage de $(e_1,e_2)$ à la base $(e_2,e_1)$, i.e.
$$M_{(e_2,e_1)}(\varphi) =P^{-1}M_{(e_1,e_2)}(\varphi)P=\begin{pmatrix}
0&1\\
1&0
\end{pmatrix}
\begin{pmatrix}
r&s\\t&u
\end{pmatrix}\begin{pmatrix}
0&1\\
1&0
\end{pmatrix} =\begin{pmatrix}
u&t\\
s&r
\end{pmatrix}.
$$
-
Soit $\BB=(e_1,\cdots,e_n,e_{n+1},\cdots,e_{2n})$ la base canonique de $\C^{2n}$. On note $\BB_1=(e_1,\cdots,e_n),\,\BB_2=(e_{n+1},\cdots,e_{2n})$ de sorte que $\BB=(\BB_1,\BB_2)$, on considère $\varphi\in \LL(\C^{2n})$ dont la matrice par blocs dans le base $\BB$ est $\begin{pmatrix}
R&S\\T&U
\end{pmatrix}$, en utilisant la question précédente, on trouve que la matrice de $\varphi$ dans la base $\BB'=(\BB_2,\BB_1)$ est $\begin{pmatrix}
U&T\\
S&R
\end{pmatrix}
$, de même la matrice $\varphi$ dans la base $\BB''=(\BB_1,-\BB_2)$ est $\begin{pmatrix}
R&-S\\-T&U
\end{pmatrix}$.
Ceci prouve que les 3 matrices sont semblables.
Polynômes d'un endomorphisme, polynôme de matrice
Puissances d'un endomorphisme
Soit $u\in \LL (E)$, on définit par récurrence $u^n$ (avec $n\in \N$),
$$u^0=\ide,~~\forall n\in \N,~~u^{n+1}=u\circ u^n.$$
On définit également la même chose pour une matrice $A\in \MM_n(\K)$.
Soit $u \in \mathscr{L}(E)$.
-
la suite $\left(\Ker (u^k)\right)_{k\in \N}$ est croissante i.e. $\Ker(u^k) \subset \Ker(u^{k+1})$.
-
si l'ensemble $\{k \in \N, \ \Ker(u^k) = \Ker(u^{k+1}) \}$ n'est pas vide, il
admet alors un plus petit élément $p$, appelé indice de $u$.
Et on a alors : $\begin{cases} \forall k \in \inter{0,p-1}, & \Ker(u^k) \subsetneq \Ker(u^{k+1})\\ \forall k \geqslant p, & \Ker(u^k)= \Ker(u^p) \end{cases}$
-
Si $E$ est de dimension finie, alors pour tout endomorphisme $u \in \mathscr{L}(E)$, l'indice $p$ de $u$ existe,
et $p \leqslant \dim E$.
Exemples
-
Si $u\in \LL (E)$ est nilpotent,
alors l'indice $p$ de $u$ existe. De plus si $\dim (E)< \infty$ alors $p\leq \dim (E)$.
-
Soit $u : \ \begin{cases} \K [X] & \rightarrow \K [X] \\ P & \mapsto P'
\end{cases}$ .
Alors, pour tout $k \in \N^*$, $\Ker(u^k)= \K_{k-1}[X]$, donc l'indice de $u$ n'existe pas.
-
Par contre, si l'on considère l'endomorphisme $v : \,
\begin{cases} \K_n[X] & \rightarrow \K_n[X] \\ P & \mapsto P' \end{cases}$,
alors son indice est égal à $n+1$ (car $v^{n+1}=0 \text{ et } v^n \neq 0$).
Soit $E$ un $\K$-e-v de dimension finie, et $u \in \mathscr{L}(E)$ d'indice $p$. Alors :
-
$ \begin{cases} \forall k \in \inter{0,p-1}, & \im (u^{k+1}) \subsetneq \im (u^k) \\
\forall k \geqslant p, & \im (u^{k+1})= \im (u^k) \end{cases} $
-
$E = \Ker(u^p) \oplus \im (u^p)$.
L'ensemble $\K[A]$
Soit $P=\dsp\sum_{i=0}^Na_iX^i\in \K[X]$. Pour $A\in \mathscr{M}_n(\K)$, on note
$$P(A)=a_0I_n+a_1A+\cdots+a_NA^N,$$
et $P(A)$ est appelé un polynôme de matrice.
Soient $n\in \N$ et $A \in \MM_n(\K)$. L'application
$$\varphi_A : \begin{cases} \ \ \ \K[X] & \longrightarrow \MM_n(\K) \\ P = \dsp
\sum_{k=0}^{\deg (P)}{a_k X^k} & \longmapsto P(A) = \dsp \sum_{k=0}^{ \deg (P)}{a_k A^k} \end{cases}$$
est linéaire, de plus,
$$\forall P,Q\in \K[X],\quad \varphi_A(PQ)=Q(A)P(A)=P(A)Q(A).$$
(Centrale 2018)
Soient $A,\,B\in \MM_n(\K)$ telles que $AB=BA$. Montrer que si $P,\,Q\in \K[X]$ alors $P(A)$ et $Q(B)$ commutent.
Correction
Supposons que $A$ et $B$ commutent. On a alors
$$A^2B=A.AB=A.BA=AB.A=BA.A=BA^2,$$
puis par récurrence immédiate,
$$\forall k\in \N,\quad A^kB=BA^k.$$
Par distributivité, $B$ commute ensuite avec tout polynôme en $A$.
En échangeant les rôles entre $B$ et $A$ : si $Q\in\K[X]$ alors $Q(B)$ commute avec $A$ d'après ce qui
précède, donc avec tout polynôme en $A$ !
On en déduit alors, si $A$ et $B$ commutent et $P,Q\in\C[X]$, alors $P(A)$ et $P(B)$ commutent.
Soit $P=\dsp\sum_{i=0}^Na_iX^i\in \K[X]$. Pour $u\in \mathscr{L}(E)$, on note
$$P(u)=a_0\ide+a_1u+\cdots+a_Nu^N,$$
et $P(u)$ est appelé un polynôme d'endomorphisme.
Soient $n\in \N$ et $u \in \LL(E)$. L'application
$$\varphi_u : \begin{cases} \ \ \ \K[X] & \longrightarrow \LL(E) \\ P =
\dsp \sum_{k=0}^{\deg (P)}{a_k X^k} & \longmapsto P(u) = \dsp \sum_{k=0}^{\deg (P)}{a_k u^k} \end{cases}$$
est linéaire, de plus,
$$\forall P,Q\in \K[X],\quad \varphi_u(PQ)=P(u)\circ Q(u)=Q(u)\circ P(u).$$
Soit $E$ un $\K$-e-v, et $u,v \in \mathscr{L}(E)$, tels que $u \circ v = v \circ u$.
Alors :
-
$\im u$ et $\Ker u$ sont stables par $v$.
-
Pour tout $P \in \R[X]$, $\im (P(u))$ et $\Ker(P(u))$ sont stables par $v$.
-
Pour tout $Q \in \R[X]$, $\im u$ et $\Ker u$ sont stables par $Q(v)$.
-
Pour tous $P,Q \in \R[X]$, $\im (P(u))$ et $\Ker(P(u))$ sont stables par $Q(v)$.
($\K[u]$) En reprenant les notations du théorème précédent :
$\im (\varphi_u) = \{ P(u) \ , \ P \in \K[X]\}$ est une s-e-v de $\mathscr{L}(E)$.
De plus, pour tous $P,Q \in \K[X]$ :
$$P(u) \circ Q(u) = (PQ)(u) =(QP)(u) = Q(u) \circ P(u).$$
$\im (\varphi_u)$ se note $\K[u]$, et est appelée l'algèbre des polynômes de l'endomorphisme $u$.
($\K[A]$) On définit également, pour $A\in \MM_n(\K)$, l'ensemble :
$$\K[A]=\im (\varphi_A)=\{ P(A) \ , \ P \in \K[X]\}$$
$\K[A]$ est appelée l'algèbre des polynômes de la matrice $A$.
Polynôme annulateur
Polynôme annulateur
-
Soient $u\in \LL (E)$ et $P\in \K[X]$.
On dit que $P$ est un polynôme annulateur de $u$ (ou $P$ annule $u$) si $P(u)=0$.
on note $Ann(u)=\Ker(\varphi_u)=\{P \in \K[X] \, , \, P(u)= 0 \}$.
-
Soient $A\in \mathscr{M}_n(\K)$ et $P\in \K[X]$.
On dit que $P$ est un polynôme annulateur de $A$ (ou $P$ annule $A$ ) si $P(A)=0$.
on note $Ann(A)=\Ker(\varphi_A)=\{P \in \K[X] \, , \, P(A)= 0 \}$.
Soit $f$ un endomorphisme d'un espace vectoriel $E$ de dimension $n$.
-
Montrer que $(\ide ,f,f^2 , \ldots ,f^{n^2 } )$ est liée.
-
En déduire qu'il existe un polynôme non identiquement nul qui annule $f$.
Correction
On suppose que $f\neq 0$ (le cas $f=0$ est trivial).
On sait que $\dim (\mathscr{L}(E))=\dim(E)^2=n^2$, la famille $\{f^j,\,j\in \inter{0,n^2}\}$
comporte $n^2+1$ éléments donc c'est une famille liée dans
$\mathscr{L}(E)$.
On en déduit qu'il existe $\alpha_0,\cdots,\alpha_{n^2}\in \K$ non tous nuls tels que
$\dsum_{k=0}^{n^2}\alpha_jf^j=0$. On pose alors
$P(X)=\dsum_{k=0}^{n^2}\alpha_kX^k$ alors $P\neq 0$ et $P(f)=0$.
(Polynôme minimal)
Soit $u\in \LL(E)$
-
soit $\varphi_u$ est injective, et $Ann(u)=\{0\}$.
-
soit $\varphi_u$ n'est pas injective : il existe alors un et un seul polynôme normalisé
(non nul), noté $\Pi_u$, tel que $Ann(u)$ soit exactement l'ensemble des polynômes multiples
de $\Pi_u$.
$\Pi_u$ s'appelle alors le
polynôme minimal de $u$.
Remarques
-
Le polynôme minimal d'un endomorphisme $u$ (s'il existe) est donc caractérisé par :
$\begin{cases} \Pi_u \neq 0 \textrm{ et } \Pi_u \textrm{ normalisé} \\
\Pi_u(u) = 0_{\mathscr{L}(E)} \\
\forall P \in \K[X], \ P(u)= 0_{\mathscr{L}(E)} \Rightarrow P \textrm{ multiple de } \Pi_u \end{cases}$
-
Le polynôme minimal d'une matrice $M$ est donc caractérisé par :
$\begin{cases} \Pi_M \neq 0 \textrm{ et } \Pi_M \textrm{ normalisé} \\
\Pi_M(M) = 0_{\MM_n(\K)} \\
\forall P \in \K[X], \ P(M)= 0_{\MM_n(\K)} \Rightarrow P \textrm{ multiple de } \Pi_M \end{cases}.$
Exemples
-
Si $p$ est un projecteur de $E$, $p\neq 0$ et $p\neq Id_E$, le polynôme minimal de $p$ est : $X^2-X$.
-
Si $s$ est une symétrie de $E$, $s\neq Id_E$ et $s\neq -Id_E$, le polynôme minimal de $s$ est : $X^2-1$.
-
Le polynôme minimal d'un endomorphisme nilpotent d'indice $p$ est : $X^p$.
-
Un endomorphisme peut ne pas posséder de polynôme minimal. Exemple :
l'endomorphisme $u$ de $\K[X]$ qui à tout polynôme $P$ associe son polynôme dérivé $P'$.
-
Si $E$ est un $\K$-ev de dimension finie}, tout endomorphisme $u \in \mathscr{L}(E)$ possède un polynôme minimal.
-
Soient $n\in \N^*$ et $A\in \MM_n(\K)$, $A$ possède un polynôme minimal.
-
Si deux matrices carrées $A$ et $A'$ sont semblables, alors $\Pi_A=\Pi_{A'}$.
-
Si $A\in \MM_n(\K)$, $\Pi_A=\Pi_{^t A}$.