Matrices

Trace

($\star$+ CCINP2022) Correction

Soit $A\in \MM_n(\K)$. Montrer que $A^2=\mathrm{tr}(A)A$.

Correction

Puisque $\rg(A)=1$ alors $A$ peut s'écrire comme le produit de vecteur colonne $X=\begin{pmatrix}x_1\\ \vdots\\x_n \end{pmatrix} \in \MM_{n\,1}(\K)$ non nul fois un vecteur ligne $Y=\begin{pmatrix} y_1&\cdots&y_n \end{pmatrix} \in \MM_{1\,n}(\K)$ non nul. $$A =X\cdot Y =\begin{pmatrix} x_1y_1&x_1y_2&\cdots&\cdots& x_1y_n\\ x_2y_1&x_2y_2&\cdots&\cdots& x_2y_n\\ \vdots& &\ddots& &\vdots\\ \vdots& && \ddots &\vdots\\ x_ny_1&\cdots& & & x_ny_n \end{pmatrix} $$ Ce qui donne, $$\mathrm{tr} = \dsum_{k=1}^n a_{k\,k} = \dsum_{k=1}^n x_ky_k =Y\cdot X.$$ D'autre part, $$A^2 = (X\cdot Y)(X\cdot Y)=X\underset{\in \K}{( Y\cdot X) }Y = (Y\cdot X) (X\cdot Y)=(Y\cdot X)A $$ i.e. $A^2=\mathrm{tr} (A) A$ CQFD.

(Mines Ponts 2009) Correction

Soient $A,B\in \MM_n(\K)$ tel que $\rg(AB-BA)=1$. Calculer $(AB-BA)^2$.

Correction

Puisque $\rg(AB-BA)=1$ alors il existe $X\in \MM_{n\,1}(\K),\, Y\in \MM_{1\,n}(\K)$ (voir aussi exo matrices) tels que $$X\neq 0,\, Y\neq 0,\quad AB-BA =X\cdot Y.$$ Ce qui donne, $$(AB-BA)^2 =(X\cdot Y)(X\cdot Y)=X (Y\cdot X) Y = (Y\cdot X) (X\cdot Y)= (Y\cdot X) (AB-BA).$$ mais $Y\cdot X=\dsum_{i=1}^n x_iy_i =\mathrm{tr} (X\cdot Y)=\mathrm{tr} (AB-BA)=0$ puisque $\mathrm{tr}( AB-BA)=\mathrm{tr}(AB)-\mathrm{tr}(BA)$.

On en déduit alors que $(AB-BA)^2=0$.

(Mines PSI 2014) Correction

  1. Soit $E$ un espace vectoriel de dimension finie. Pourquoi le rang d'un projecteur est-il égal à sa trace ?
  2. Soit $A\in \MM_n(\K)$ telle que $A^q=I_n$ ($q\in \N^*$). Montrer que $\dim(\Ker(A-I_n))=\dfrac{1}{q}\dsum_{k=0}^{q-1}\tr (A^k)$.
Correction

  1. Soit $p\in \LL (E)$, on sait que $E = \im (p)\oplus \Ker (p)$. Notons $n=\dim (E),\, r=\dim(\im (p))$, et soit $(e_1,\cdots,e_r)$ une base de $\im (p)$ et $(f_{r+1},\cdots,f_n)$ une base de $\Ker (p)$. ALors $$\BB =(e_1,\cdots,e_r,f_{r+1},\cdots,f_n) \text{ est une base de } E.$$ Puisque $p(x)=x$ pour tout $x\in \im (p)$, alors $$M_\BB(p) =\begin{pmatrix} I_r & 0_{r\, n-r}\\ 0_{n-r\,r}&0_{n-r\, n-r} \end{pmatrix} \Longrightarrow \tr (p) =\tr (M_\BB (p))=r=\rg (p).$$
  2. Supposons que $q>1$, le cas $q=1$ est évident! $$\,$$ Notons $B=\dfrac{1}{q}\dsum_{k=0}^{q-1} A^k$, alors pour tout $\ell \in \inter{0, q-1}$, on a: $$ \begin{array}{lclr} A^\ell B&=& \dfrac{1}{q}A^\ell \dsum_{k=0}^{q-1} A^k=\dfrac{1}{q}\left( \dsum_{k=\ell }^{q-1} A^k+ \dsum_{k=q}^{q-1+\ell} A^k\right)&\\ &=& &\\ &=& \dfrac{1}{q}\left( \dsum_{k=\ell }^{q-1} A^k+ \dsum_{k=q}^{q-1+\ell} A^{k-q}\right)& \text{ car }A^q=I_n\\ &&&\\ &=& \dfrac{1}{q}\left( \dsum_{k=\ell }^{q-1} A^k+ \dsum_{k=0}^{\ell-1} A^{k}\right)=\dfrac{1}{q} \dsum_{k=0}^{q-1} A^k=B& \end{array} $$ Ainsi, $$B^2 =\dfrac{1}{q} \dsum_{k=0}^{q-1} A^kB =\dfrac{1}{q} \dsum_{k=0}^{q-1} B=\dfrac{1}{q} qB=B.$$ Autrement dit, $B$ est la matrice d'un projecteur, i.e. $$\rg (B) =\tr (B)=\dfrac{1}{q}\tr\left(\dsum_{k=0}^{q-1} A^k\right)=\dfrac{1}{q}\dsum_{k=0}^{q-1}\tr (A^k).$$ D'autre part, $0=A^q-I_n =(A-I_n)(I_n+A+\cdots +A^{q-1})$ ce qui donne $\im (B)\subset \Ker (A-I_n)$, puis $$\forall X\in \Ker (A-I_n)\, (AX=X),\quad BX = \dfrac{1}{q} \dsum_{k=0}^{k-1}A^k X =\dfrac{1}{q} \dsum_{k=0}^{q-1}A^{k+1}X=\dfrac{1}{q} \dsum_{k=1}^{q}A^{k}X=X$$ donc $X\in \im (B)$, on en déduit alors, $$\Ker (A-I_n)=\im (B) \Longrightarrow \dim (\Ker(A-I_n))= \rg(B) =\tr (B) .$$

Matrices par blocs

($\star$) Correction

Soient $A,B\in \MM_n(\C)$. On pose $M=\begin{pmatrix} A & A\\A & B \end{pmatrix}\in \MM_{2n}(\C)$.

  1. Calculer le rang de $M$ en fonction de $A$ et $B$.
  2. Calculer $M^{-1}$ lorsqu'elle existe.

Correction

  1. On fait les opération suivantes sur les colonnes de la matrice $M$: $$\forall j\in \inter{n+1,2n},\quad C_j\longleftarrow C_j-C_{j-n} \Longrightarrow \rg (M)=\rg ( \begin{pmatrix} A&0\\A&B-A \end{pmatrix}. $$ Ce qui donne $\boxed{\rg (M)=\rg (A)+\rg (B-A)}$.
  2. La matrice $M$ est inversible ssi $A$ et $B-A$ le sont. Supposons que c'est le cas, on cherche à résoudre: $$ X,Y,Z,W\in \MM_n(\C),\quad \begin{pmatrix} A&A\\A&B \end{pmatrix} \begin{pmatrix} X&Y\\Z&W \end{pmatrix} = \begin{pmatrix} I_n&0\\0&I_n \end{pmatrix}\Longrightarrow \left\{\begin{array}{lcl} AX+AZ&=&I_n\\ AY+AW&=&0\\ AX+BZ&=&0\\ AY+BW&=&I_n \end{array} \right. $$ On en déduit alors, $$\boxed{M^{-1}=\begin{pmatrix} A^{-1}+(B-A)^{-1}&-(B-A)^{-1}\\ -(B-A)^{-1}&(B-A)^{-1} \end{pmatrix}.}$$

(CCP PC 2001) Correction

Soit $E$ un espace vectoriel de dimension $n$ ($n\geq 1$). Soit $u$ un endomorphisme de $E$ tel que $\Ker u = \im u$.

  1. Montrer que $\dim E =2p$ avec $p\in\N^*$.
  2. Montrer qu'il existe une base $\mathscr{B}$ de $E$ dans laquelle la matrice de $u$ est de la forme $\displaystyle \mathrm{mat}_{\mathscr{B}} u = \begin{bmatrix} 0 & I_p \\ 0 & 0 \end{bmatrix}.$

Correction

Notons $p=\dim\im u\in \N^*$.

  1. D'après le théorème de rang, on a $\dim E = \dim \Ker u + \dim \im u = 2\dim\im u=2p$.
  2. On note $F$ un supplémentaire de~$\Ker u$. Alors $E=\Ker u \oplus F$. On sait que la restriction $u|_F:F \rightarrow \im u$ est un isomorphisme. On choisit donc une base $\mathscr{B}_1=(e_1,\dots,e_p)$ de~$F$, et son image $\mathscr{B}_2=u(\mathscr{B}_1)$ est une base de $\im u$. Puisque ces deux espaces sont en somme directe, la concaténation de leurs bases est une base de $E$. La base $\mathscr{B}=(\mathscr{B}_2,\mathscr{B}_1)$ a bien la propriété demandée.

() Correction

Soit $A_1,\cdots,A_p$ des matrices de $\MM_n(\K)$ tels que $\dsum_{k=1}^pA_k\in \mathrm{GL}_n(\K)$. Déterminer le rang des matrices suivantes: $$A=\left(A_1\,A_2\,\cdots\,A_p\right)\in \MM_{n\,np}(\K),\quad C=\begin{pmatrix} A_1&A_2&\cdots&A_p&0\\ 0&A_1&\cdots&A_{p-1}&A_p \end{pmatrix}.$$

Correction

Pour $k\in \inter{1,p}$, on note $S_k=\dsum_{j=1}^pA_j$ par hypothèse $s_p\in \mathrm{GL}_n(\K)$. On note également $P=\begin{pmatrix} I_n&\cdots&I_n\\ &\ddots&\vdots\\ (0)& &I_n \end{pmatrix}\in \mathrm{GL}_{np}(\K)$, alors $\rg(A)=\rg(AP)=\rg((S_1\,S_2\cdots S_p))=n$.

($\star$) Correction

Soient $n,p\in \N^*$, $A\in \MM_n(\K),\,B\in \MM_p(\K)$ et $C\in \MM_{n,p}(\K)$.

  1. Montrer que $\rg \begin{pmatrix} A&0\\ 0&B \end{pmatrix}=\rg (A)+\rg (B)$.
  2. Montrer que $\rg \begin{pmatrix} I_n&C\\ 0&B \end{pmatrix}=n+\rg (B)$.

Correction

Supposons que $\rg (A)=r\leq n$ et $\rg (B)=s\leq p$, alors il existe $Q_1,\,Q_2\in GL_n(\K),\,\,R_1,R_2\in GL_p(\K)$ tels que $$A = Q_1\begin{pmatrix} I_r&0\\ 0&0 \end{pmatrix}Q_2,\text{ et } B=R_1\begin{pmatrix} I_s&0\\ 0&0 \end{pmatrix}R_2.$$ On pose alors $D_1=\begin{pmatrix} Q_1&0\\ 0&R_1 \end{pmatrix}\in GL_{n+p}(\K)$ et $D_2=\begin{pmatrix} Q_2&0\\ 0&R_2 \end{pmatrix}\in GL_{n+p}(\K)$, et on a $$D_1\begin{pmatrix} Q_r&0\\ 0&R_s \end{pmatrix}D2=\begin{pmatrix} Q_1Q_r&0\\0&R_1R_s \end{pmatrix}\begin{pmatrix} Q_2&0\\ 0&R_2 \end{pmatrix}=\begin{pmatrix} A&0\\ 0&B \end{pmatrix}$$ La multiplication par une matrice inversible ne change pas le rang, on en déduit, $$\rg \begin{pmatrix} A&0\\ 0&B \end{pmatrix}=\rg \begin{pmatrix} Q_r&0\\ 0&R_s \end{pmatrix} =\rg \begin{pmatrix} I_r&0&0&0\\ 0& 0& 0 &0\\ 0&0&I_s&0\\ 0&0&0&0 \end{pmatrix} =\rg (A)+\rg(B).$$

(Mines 2017) Correction

Soient $n$ et $p$ deux entiers naturels non nuls. Soient $A\in \MM_{p,n}(\C)$ et $B\in \MM_{n,p}(\C)$. On considère dans $\MM_{n+p}(\C)$ la matrice $$M=\begin{pmatrix}0_{n}&B\\A&0_{p}\end{pmatrix}$$

  1. Calculer le carré de la matrice $\begin{pmatrix}0_{n}&B\\0_{p,n}&0_{p}\end{pmatrix}$ de $\MM_{n+p}(\C)$. Montrer ensuite que $M$ est la somme de deux matrices de carré nul.
  2. On considère dans $M_{n+p}(\C)$ la matrice diagonale par blocs $D=\begin{pmatrix}I_{n}&0_{n,p}\\0_{p,n}&-I_{p}\end{pmatrix}$. Montrer que $D$ est inversible, calculer $D^{-1}$ puis $DMD^{-1}$, et en déduire que $M$ est semblable à $-M$.

Correction

  1. On a: $$\begin{pmatrix}0_{n}&B\\0_{p,n}&0_{p}\end{pmatrix}\begin{pmatrix}0_{n}&B\\0_{p,n}&0_{p}\end{pmatrix} = \begin{pmatrix}0_{n}&0_{n,p}\\0_{p,n}&0_{p}\end{pmatrix}$$ De la même façon, on trouve $ \begin{pmatrix}0_{n}&0_{n,p}\\A&0_{p}\end{pmatrix}^2=0$. En particuler, on a $$ M =\begin{pmatrix}0_{n}&0_{n,p}\\A&0_{p}\end{pmatrix}+\begin{pmatrix}0_{n}&B\\0_{p,n}&0_{p}\end{pmatrix}$$ Ce qui répond à la question.
  2. La matrice $D$ est inversible et on a $D^{-1}=\begin{pmatrix} I_n& 0_{n,p}\\ 0_{p,n}&-I_p\end{pmatrix}$. Puis $$DMD^{-1} = \begin{pmatrix}I_{n}&0_{n,p}\\0_{p,n}&-I_{p}\end{pmatrix} \begin{pmatrix}0_{n}&B\\A&0_{p}\end{pmatrix} \begin{pmatrix}I_{n}&0_{n,p}\\0_{p,n}&-I_{p}\end{pmatrix}= -M.$$ Donc $M$ et $-M$ sont semblabes.
(CCP PSI 2018) Correction

Soit $A\in\MM_n(\R)$, on définit la matrice $B\in \MM_{2n}(\R)$ par $B=\begin{pmatrix} A&2A\\ A&2A \end{pmatrix}$.

  1. Montrer que la matrice $B$ n'est pas inversible. On suppose que $A$ est inversible, déterminer $\Ker(B)$.
  2. Soit $X=\begin{pmatrix} X_1\\X_2 \end{pmatrix}\in \R^{2n}$ avec $X_i\in \R^n$. Donner une CNS sur $X_1,\,X_2$ pour que $X\in \im(B)$.

Correction

On pose $N=\begin{pmatrix} -2I_n&-2I_n\\ I_n&I_n \end{pmatrix}\in \MM_{2n}(\R)$ $N\neq 0$ et $BN=0$ donc $B$ n'est pas inversible.
Si on suppose que $A$ inversible alors $\rg(B)\geq n$ donc $\dim (\Ker (B))\leq n$. Soit $X=\begin{pmatrix} X_1\\X_2 \end{pmatrix}\in \R^{2n}$ avec $X_i\in \R^n$, on a $$X\in \Ker (B)\Longrightarrow BX=0\Longrightarrow \begin{pmatrix} AX_1+2AX_2\\ AX_1+2AX_2 \end{pmatrix}0\Longrightarrow AX_1=-2AX_2 \Longrightarrow X_1=-2X_2.$$ Ainsi $F=\{{\,}^t (-2X X), \,X\in \R^n\}\subset \Ker (B)$ or $\dim (F)=n$, on en déduit alors que $\Ker (B)=F$.
Soit $X=\begin{pmatrix} X_1\\X_2 \end{pmatrix}\in \R^{2n}$ avec $X_i\in \R^n$, on a $$X\in \im (B) \Leftrightarrow \exists U,V\in \R^n,\, X=B\begin{pmatrix} U\\V \end{pmatrix} \Leftrightarrow \exists U,V\in \R^n \left\{\begin{array}{l} X_1=AU+2AV\\ X_2=AU+2AV \end{array} \right.$$

(CCINP PSI 2019) Correction

  1. Soit $u\in \LL(\R^{2n})$ telle que $u^2=0$ et $\rg (u)=n$. Montrer que $\Ker(u)=\im (u)$ et qu'il existe une base $\BB$ dans laquelle $u$ a pour matrice $\begin{pmatrix} 0_n&I_n\\ 0_n&0_n \end{pmatrix}$.
  2. Soit $u\in \LL(\R^{3n})$ telle que $u^3=0$ et $\rg (u)=2n$. Montrer que $\Ker(u)=\im (u^2)$ et qu'il existe une base $\BB$ dans laquelle $u$ a pour matrice $\begin{pmatrix} 0_n&I_n&0_n\\ 0_n&0_n&I_n\\ 0_n&0_n&0_n \end{pmatrix}$.

Correction

$\mathbf{1.\,}$ En utilisant le théorème du rang et le faite que $\rg (u)=n$, on trouve que $\dim (\Ker (u))=n$. D'autre part, $\im (u)\subset \Ker (u)$, en effet si $x\in \im (u)$, il existe $z\in \R^{2n}$ tel que $x=u(z)$, donc $u(x)=u^2(z)=$. Ceci montre que $\im (u)=\Ker (u)$.
Soit $(e_1,\cdots,e_n)$ une base de $\im (u)$, alors pour tout $j\in \inter{1,n}$ il existe $f_j\in \R^{2n}$ tel que $e_j=u(f_j)$. Montrons que la famille $(f_1,\cdots,f_n,e_1,\cdots,e_n)$ est une base de $\R^{2n}$, pour cela il suffit de montre qu'il s'agit d'une famille libre.
Soient $\alpha_1,\cdots,\alpha_n,\beta_1,\cdots,\beta_n\in \R$ tels que $\dsum_{1\leq k\leq n}\alpha_kf_k+\beta_ke_k=0\quad(\star)$. On applique $u$ à cette relation ce qui donne: $$0=u\left(\dsum_{1\leq k\leq n}\alpha_kf_k+\beta_ke_k\right)= \dsum_{1\leq k\leq n}\alpha_k\underset{=e_k}{u(f_k)}+\beta_k\underset{=0}{u(e_k)}=\dsum_{1\leq k\leq n}\alpha_ke_k\Longrightarrow \alpha_1=\cdots=\alpha_n=0,$$ car la famille $(e_1,\cdots,e_n)$ est libre. Donc la relation $(\star)$ devient $\dsum_{1\leq k\leq n}\beta_ke_k=0$ ce qui implique $\beta_1=\cdots=\beta_n=0$.
On en déduit alors que la famille $(e_1,\cdots,e_n,f_1,\cdots,f_n)$ est libre donc base de $\R^{2n}$ et la matrice de $u$ dans cette base est:
$\mathbf{2.\,}$ Notons $\fonct{v}{\im u}{\im u}{x}{u(x)}$, on a $\rg(v) +\dim(\Ker (v))=\rg (u)=2n$ donc $\rg (v)=\rg (u)-\dim (\Ker v)$ or $\Ker v= \Ker u \cap \im (u)\subset \Ker (u)$, on en déduit alors que $\rg (v)\geq n$ (puisque $\rg (u)=2n$ et $\dim (\Ker (v))\leq \dim (\Ker (u))=n$).
Montrons maitenant que $\im v=\im u^2$. En effet si $y\in \im u^2$ alors il existe $x\in E$ tel que $y=u^2(x)=u(u(x))=v(u(x))$ car $u(x)\in \im u$ donc $\im u^2\subset \im v$ et inversement si $y\in \im v$ donc il existe $x\in \im u$ tel que $y=v(x)=u(x)$, or comme $x$ est $\im u$, donc il existe $z\in E$ tel que $x=u(z)$ soit finalement $y=u^2(z)\in \im u^2$, d'où l'égalité.
On en déduit alors que $\rg u^2=\rg v\geq n$.
Si $x\in \im u^2$ alors il existe $z\in E$ tel que $x=u^2(z)$, donc $u(x)=u^3(z)=0$ autrement dit, $x\in \Ker (u)$ ceci impliqueque $\im u^2 \subset \Ker u$, comme $\dim(\Ker u)=n$ et $\rg (u^2)\geq n$, on en déduit que $\rg (u^2)=n$ et $\im u^2=\Ker u$.
Soit $\BB_1=(e_1,\cdots,e_n)$ une base de $\Ker u$, alors il existe pour tout $i\in \inter{1,n}$ $x_i\in E$ tel que $e_i=u^2(x_i)$ on note alors $f_i = u(x_i)$, puis on montre que $(e_1,\cdots,e_n,f_1,\cdots,f_n,x_1\cdots,x_n)$ une base de $E$ (même démarche que dans la question précédente). La matrice de $u$ dans cette base est de la forme demandée.

(Mines Ponts PC 2016) Correction

Soient $A\in GL_p(\R),\,B\in \MM_{pq}(\R),\,C\in \MM_{qp}(\R),\,D\in \MM_q(\R)$. Montrer que $M=\begin{pmatrix} A&B\\ C&D \end{pmatrix}$ est de rang $p$ ssi $D=CA^{-1}B$.

Correction

Supposons que $D=CA^{-1}B$, on pose alors $N=\begin{pmatrix} A^{-1}&0\\ -CA^{-1}&I_q \end{pmatrix}\in \MM_{p+q}(\R)$, la matrice $N$ est inversible. On en déduit donc que $\rg(NM)=\rg (M)$, or $$NM = \begin{pmatrix} A^{-1}&0\\ -CA^{-1}&I_q \end{pmatrix}\begin{pmatrix} A&B\\ C&D \end{pmatrix} =\begin{pmatrix} A^{-1}A&A^{-1}B\\ -CA^{-1}A+C&-CA^{-1}B+D \end{pmatrix} =\begin{pmatrix} I_p&A^{-1}B\\ 0&0 \end{pmatrix} $$ Inversement, supposons que $\rg (M)=p$, en utilisant la matrice $N$, on trouve $$p=\rg (NM)=\rg (\begin{pmatrix} I_p&A^{-1}B\\ 0&-CA^{-1}B+D \end{pmatrix})=p+\rg (-CA^{-1}B+D)$$ on en déduit alors que $\rg ( -CA^{-1}B+D)=0$ autrement dit, $D=CA^{-1}B$.

(CCP PSI 2016) Correction

Soient $A,B\in GL_n(\C)$ on pose $N=\begin{pmatrix} 0&A\\ B&0 \end{pmatrix}\in \MM_{2n}(\C)$. Montrer que $N\in GL_{2n}(\C)$. Calculer $N^2$ puis pour $P\in \C[X]$ calculer $P(N^2)$.

Correction

Soient $U,V,X,Y\in \MM_n(\C)$, on pose $M=\begin{pmatrix} U&V\\ X&Y \end{pmatrix}\in \MM_{2n}(\C)$, on a $$MN=\begin{pmatrix} U&V\\ X&Y \end{pmatrix}\begin{pmatrix} 0&A\\ B&0 \end{pmatrix}=\begin{pmatrix} VB&UA\\ YB&XA \end{pmatrix}$$ Si on prend $Y=0=U$ et $V=B^{-1},\, X=A^{-1}$, on trouve $$NM=\begin{pmatrix} I_n&0\\ 0&I_n \end{pmatrix} \Longrightarrow N\in GL_{2n}(\C),\,\text{ et } N^{-1}= \begin{pmatrix} 0&B^{-1}\\ A^{-1}&0 \end{pmatrix}.$$ Calculons maintenant $N^2$, $$N^2= \begin{pmatrix} 0&A\\ B&0 \end{pmatrix}\begin{pmatrix} 0&A\\ B&0 \end{pmatrix}=\begin{pmatrix} AB&0\\ 0&BA \end{pmatrix}$$ Il s'agit d'une matrice diagonale par bloc, donc pour tout $k\in \N, $ on a $$(N^2)^k=\begin{pmatrix} (AB)^k&0\\ 0&(BA)^k \end{pmatrix}\Longrightarrow \forall P\in \C[X],\, P(N^2)=\begin{pmatrix} P(AB)&0\\ 0&P(BA) \end{pmatrix}.$$

Polynôme de matrice

($\star$) Correction

Soit $A=\begin{pmatrix} a&b\\c&d \end{pmatrix}\in \MM_2(\C)$.

  1. Montrer que $A^2-\tr (A)A+\det(A)I_2=0$.
  2. Si $\det (A)\neq 0$, donner $A^{-1}$ en fonction de $A$.

Correction

$\mathbf{1. }$ On sait que $\tr (A)=a+d$ et $\det (A)=ad-cb$, on calcul alors $A^2$, $$ \begin{array}{lcl} A^2&=&\begin{pmatrix} a^2+bc&ab+bd\\ ca+cd&bc+d^2 \end{pmatrix}\\ &&\\ &=&\begin{pmatrix} a^2+bc+ad-cb+&ab+bd\\ ca+cd&bc+d^2+ad-cb \end{pmatrix}-\begin{pmatrix} ad-cb&0\\ 0&ad-cb \end{pmatrix}\\ &&\\ &=&(a+d)\begin{pmatrix} a&b\\ c&d \end{pmatrix}-(ad-cb)I_2 \end{array}$$ $\mathbf{2. }$ Supposons que $\det (A)\neq 0$, alors en utilisant la question précédente, on trouve $$A (A-\tr (A)I_2)=-\det(A)I_2 \Longrightarrow A\left(\dfrac{1}{\det(A)}(\tr (A)I_2-A)\right)=I_2.$$ Ce qui prouve que $A$ est inversible.

($\star$) Correction

Soit $A=\begin{pmatrix} 3&-3&2\\ -1&5&-2\\ -1&3&0 \end{pmatrix}\in \MM_3(\R)$.

  1. Calculer $A^2-6A$. En déduire que $A$ est inversible puis donner $A^{-1}$.
  2. Déterminer $A^n$ pour tout $n\in \N$.

Correction

$\mathbf{1.\,}$ Le calcul de $A^2$ donne $$A^2=\begin{pmatrix} 10&-18&12\\ -6&22&-12\\ -6&18&-8 \end{pmatrix}=6\begin{pmatrix} 3&-3&2\\ -1&5&-2\\ -1&3&0 \end{pmatrix}+\begin{pmatrix} -8&0&0\\ 0&-8&0\\ 0&0&-8 \end{pmatrix}.$$ On en déduit que $A^2-6A=-8I_3$. Donc $A$ est inversible et $A^{-1}=\frac{-1}{8}\left(A-6I_3\right)$.
$\mathbf{2.\,}$ Soit $n\in \N$, il existe un unique triplet $(a,b,Q)\in \R^2\times \R[X]$ tels que $X^n=Q(X)(X^2-6X+8)+aX+b$. En particulier, $$\left\{\begin{array}{lcl} 2^n&=&Q(2)\times 0+2a+b\\ 4^n&=&Q(4)\times 0+4a+b \end{array} \right. \Longrightarrow a=2^{n-1}(2^n-1),\,\, b=2^{n+1}-4^n.$$

($\star$) Correction

Soit $A=\begin{pmatrix} 0&1&1\\ 1&0&1\\ 1&1&0 \end{pmatrix}\in \MM_3(\R)$. Calculer $A^2$, en déduire que $A$ est inversible puis donner $A^{-1}$ en fonction de $A$.

Correction

Notons $J=\begin{pmatrix} 1&1&1\\ 1&1&1\\ 1&1&1 \end{pmatrix}$, on a $A=J-I_3$, alors $$A^2=J^2-2J+I_3=3J-2J+I_3=J+I_3=J-I_3+2I_3=A+2I_3$$ En particulier, $A(A-I_3)=2I_3$, on en déduit alors que $A$ est inversible et $A^{-1}=\frac{1}{2}(A-I_3)$.

($\star\star$) Correction

Déterminer les matrice $A\in \MM_3(\R)$ telle que $A^2=\begin{pmatrix} 1&0&0\\1&1&0\\1&0&4 \end{pmatrix}$.

Correction

Notons $B=\begin{pmatrix} 1&0&0\\1&1&0\\1&0&4 \end{pmatrix}$, si $A$ est une solutions de l'équation $A^2=B$ alors $A$ et $B$ commutent, i.e. $AB=BA$. Supposons que $A=\begin{pmatrix} a&b&c\\x&y&z\\u&v&w \end{pmatrix}$, alors $$AB=BA\Longleftrightarrow \begin{pmatrix} b+c&0&3c\\ y+z-a&-b&3z-c\\ -3u+v+w-a&-3v-b&-c \end{pmatrix}=0\Longleftrightarrow\left\{\begin{array}{l} b=0\\ c=0\\ y=a\\ u=\frac{w-a}{3}\\ v=0 \end{array} \right. \Longleftrightarrow A=\begin{pmatrix} a&0&0\\ x&a&0\\ \frac{w-a}{3}&0&w \end{pmatrix} $$ Ensuite, on calcule $A^2$, $$A^2=\begin{pmatrix} a^2&0&0\\ 2xa&a^2&0\\ \frac{w^2-a^2}{3}&0&w^2 \end{pmatrix}=B\Longleftrightarrow\left\{\begin{array}{l} a^2=1\\ w^2=4\\ 2ax=1 \end{array}\right.\Longleftrightarrow A=\begin{pmatrix} \varepsilon_1&0&0\\ \frac{1}{2\varepsilon_1}&\varepsilon_1&0\\ \frac{2\varepsilon_2-\varepsilon_1}{3}&0&2\varepsilon_2 \end{pmatrix} $$ avec $\varepsilon_1,\,\varepsilon_2\in \{-1,1\}$.

($\star$) Correction

On se place dans $E=\C\,\,^4$ muni de sa base canonique $\BB=(e_1,e_2,e_3,e_4).$ On désigne par $j$ l'endomorphisme de $E$ dont la matrice dans $\BB$ est la matrice suivante $$J=\left( \begin{array}{cccc} 0&1 &0&0\\ 0&0&1&0\\ 0&0&0&1\\ 1&0&0&0 \end{array} \right)\in M_4(\C).$$

  1. Déterminer l'image de $\BB$ par $j,$ $j^2,$ $j^3,$ et $j^4.$
  2. En déduire $J^2,$ $J^3$ et $J^4.$
  3. Déterminer un polynôme annulateur non nul de $J.$
  4. Montrer que si $P\in\C[X]$ avec $\mathrm{deg}(P)\leq 3$ vérifie $P(J)=0$ alors $P=0$.
  5. En déduire le polynôme minimal de $J.$

Correction

$\mathbf{1.\,}$ On a $j(\BB)=\{e_4,e_1,e_2,e_3\}$ et $$j^2(\BB)=j(\{e_4,e_1,e_2,e_3\})=\{j(e_4),j(e_1),j(e_2),j(e_3)\}=\{e_3,e_4,e_1,e_2\}$$ De la même façon, on trouve $$j^3(\BB)=\{e_2,e_3,e_4,e_1\},\, j^4(\BB)=\{e_1,e_2,e_3,e_4\}.$$ $\mathbf{2.\,}$ On en déduit alors, $$J^2=\begin{pmatrix} 0&0&1&0\\ 0&0&0&1\\ 1&0&0&0\\ 0&1&0&0 \end{pmatrix},\quad J^3=\begin{pmatrix} 0&0&0&1\\ 1&0&0&0\\ 0&1&0&0\\ 0&0&1&0 \end{pmatrix},\quad J^4=I_4.$$ $\mathbf{3.\,}$ Comme $J^4=I_4$ alors $X^4-1$ est un polynôme annulateur de $J$.
$\mathbf{4.\,}$ Soient $a,b,c$ et $d\in \R$ tels que $aJ^3+bJ^2+cJ+dI_4=0$ alors $$0=\begin{pmatrix} d&c&b&a\\ a&d&c&d\\ b&a&d&c\\ c&b&a&d \end{pmatrix}\Longrightarrow a=b=c=d=0,$$ on en déduit alors que $J$ n'admet pas de polynôme annulateur de degré inférieur ou égale à $3$.
$\mathbf{5.\,}$ D'après ce qui procède, le polynôme minimale de $J$ est $X^4-1$.

(CCP PSI 2017) Correction

Soit $A=\begin{pmatrix} 1&1&0\\-1&0&0\\2&0&-1 \end{pmatrix}\in \MM_n(\R)$.

  1. Montrer qu'il n'existe pas de polynôme annulateur non nul de degré inférieur ou égale à 2 de $A$.
  2. Trouver un polynôme annulateur de $A$ et en déduire $A^{-1}$. Quels sont tous les polynômes qui annulent $A$?

Correction

$\mathbf{1.\,}$ Le calcul de $A^2$ donne $A^2=\begin{pmatrix} 0&1&0\\ -1&-1&0\\ 0&2&1 \end{pmatrix}$. Soient $a,b,c\in \R$ tels que $$aA^2+bA+cI_3=0\Leftrightarrow \begin{pmatrix} b+c&a+b&0\\ -a-b&-a+c&0\\ 2b&2 a&a-b+c \end{pmatrix}=0\Longrightarrow a=b=c=0$$ Donc $A$ n'admet pas de polynôme annulateur de degré inférieur ou égale à 2.
$\mathbf{2.\,}$ Le calcul de $A^3$ donne $ A^3=-I_3$ donc le polynôme $X^3+1$ est un polynôme annulateur de $A$, de plus c'est le polynôme minimale (d'après la question 2.).

Divers

($\star\star$) Correction

Soit $f:\MM_n(\R)\rightarrow\R$ une fonction non constante telle que \begin{equation*} \forall A,B\in\MM_n(\R)\qquad f(AB)=f(A)\,f(B). \end{equation*}

  1. Donner un exemple de telle fonction.
  2. Calculer $f(0)$ et $f(I_n)$.
  3. Trouver l'ensemble des matrices $A$ telles que $f(A)=0$.

Correction

  1. La fonction déterminant.
  2. $f(0^2)=f(0)^2=f(0)$ donc $f(0)=0$ ou $1$. Si $f(0)=1$, alors $1=f(0\cdot A)=f(A)$ pour tout $A\in\MM_(\C)$ donc $f$ est constante : contradiction. Ainsi : $f(0)=0$.
    De même, $f(I_n^2)=f(I_n)^2=f(I_n)$ donc $f(I_n)=0$ ou $1$. Si $f(I_n)=0$, alors $f$ est la fonction nulle : contradiction. Donc $f(I_n)=1$.
  3. Si $A$ est inversible, alors $f(A)\cdot f(A^{-1})=1$ donc $f(A)\neq 0$. Montrons la réciproque.
    Notons $J_k=\mathrm{diag}(\underbrace{1,\dots,1}_{k\text{ fois}},0,\dots,0)$ et $J'_k=\mathrm{diag}(\underbrace{1,\dots,1}_{k-1\text{fois}},0,1,0,\dots,0)$. Alors $f(J_1^2)=f(J_1)^2=f(J_1)$ donc $f(J_1)=0$ ou $1$. Si $f(J_1)\neq 0$, toutes les matrices de rang $1$ ont une image non nulle. Or \begin{equation*} J_1\cdot J'_1=\mathrm{diag}(1,0,\dots,0)\cdot \mathrm{diag}(0,1,0,\dots,0)=0,\end{equation*} donc $f(J_1)=0$.
    Par ailleurs, \begin{equation*} \mathrm{diag}(1,1,0\dots,0)\cdot\mathrm{diag}(1,0,1,0,\dots,0)=J_1 \end{equation*} ce qui montre que $f(J_2)=0$ dont toutes les matrices de rang~$2$ sont d'image nulle. On continue ainsi de proche en proche pour montrer que toutes les matrices de rang $k\leq n-1$ ont une image nulle.
    Conclusion : $$ f(M)=0 \text{ SSI } \rg M< n \text{i.e. } M\notin\mathrm{GL}nR. $$

($\star\star$) Correction

Soient $A,B\in \MM_n(\R)$. On pose $C=AB-BA$. Montrer que si $C$ est colinéaire à $A$ ou à $B$ alors elle est nilpotente.

Correction

On note $C=AB-BA$, on suppose que $C\neq 0$ (si $C=0$ il n'a y rien à démontrer). On suppose qu'il existe $\lambda\in \R^*$ tel que $C=\lambda A$.
Considérons l'endomorphisme $\fonct{\varphi}{\MM_n(\R)}{\MM_n(\R)}{X}{XB-BX}$, on a $\varphi(A)=\lambda A$. On a $$\varphi (A^2)=A^2B-BA^2=A(AB-BA+BA)-(BA-AB+AB)A=\lambda A^2+ABA+\lambda A^2-ABA=2\lambda A^2.$$ On montre par récurrence que, pour tout $k\in \N$, $\varphi(A^k)=k\lambda A^k$, en effet la relation est vraie pour $k\in \inter{0,2}$. De plus, $$\varphi(A^{k+1})=A^{k+1}B-BA^{k+1}=A^k(BA+C)-BA^{k+1}=(A^kB-BA^k)A+A^kC=k\lambda A^{k+1}+\lambda A^{k+1}=(k+1)\lambda A^{k+1}.$$ Il existe alors $r\in \N$ tel que $\Ker (\varphi -r\lambda \mathrm{Id}e)=\{0\}$ ( en effet $(\lambda r)_{r\in \N}$ sont deux à deux distincts donc la somme de $\dsum_{r\in \N}\Ker (\varphi -r\lambda \mathrm{Id}e)$ est direct).
Comme on a $\varphi (A^r)-r\lambda A^r=0$ donc $A^r=0$ donc $A$ est nilpotente ce qui donne le résultat.

($\star\star$) Correction

Soit $A \in\MM_n(\R)$. On note $\Delta_A = \{M \in \MM_n(\R),\, M + {\,}^t M = \tr(M)A\}$.

  1. Vérifier que $\Delta_A$ est un sous-espace vectoriel de $\MM_n(\R)$.
  2. Montrer que l'ensemble $\mathscr{A}_n(\R)$ des matrices antisymétriques de $\MM_n(\R)$ est contenu dans $\Delta_A$.
  3. On suppose $\tr(A) \neq 2$. Montrer que $\Delta_A = \mathscr{A}_n(\R)$.
  4. On suppose que $A$ n'est pas symétrique. Montrer que $\Delta_A = \mathscr{A}_n(\R)$.
  5. Trouver $\Delta_A$ si $\tr(A) = 2$ et $A$ symétrique. Donner sa dimension. On justifiera la dimension de $\mathscr{A}_n(\R)$.

Correction

  1. On a $\Delta_A\neq \varnothing$ car la matrice nulle appartient à $\Delta_A$.
    Soient $M,N\in \Delta_A$ et $\lambda\in \R$, on a $$(\lambda M+N)+{\,}^t (\lambda M+N)=\lambda (M+{\,}^t M)+N+{\,}^t N=\lambda \tr(M)A+\tr(N)A=\big(\tr(\lambda M+N\big) A$$ (car l'application $\tr$ est linéaire). Donc $(\lambda M+N)\in \Delta_A$, d'où $\Delta_A$ est un s e v de $\MM_n(\R)$.
  2. Soit $M\in \mathscr{A}_n(\R)$, d'après le cours on a $\tr(M)=0$, ce qui donne $$0=M+{\,}^t M=\tr(M)A=0\Longrightarrow M\in \Delta_A$$ On en déduit que $\boxed{\mathscr{A}_n(\R)\subset \Delta_A}$.
  3. Supposons que $\tr(A)\neq 0$, soit $M\in \Delta_A$ alors, $$\tr(M+{\,}^t M)=\tr(M)+\tr({\,}^t M)=2\tr(M) =\tr(\tr(M)A)=\tr(M)\tr(A)$$ Ce qui donne $2\tr(M)=\tr(A)\tr(M)$ donc $\boxed{\tr(M)=0}$. Comme $M+{\,}^t M=\tr(M)A$ alors $M+{\,}^t M=0$ soit $M=-{\,}^t M$ i.e. $M\in \mathscr{A}_n(\R)$. Conclusion $\boxed{ \Delta_A=\mathscr{A}_n(\R)}$.
  4. Supposons que $A$ n'est pas symétrique. Soit $M\in \Delta_A$, alors $${\,}^t (M+{\,}^t M)= {\,}^t(\tr(M)A)=\tr(M){\,}^t A=\tr(M)A\Longrightarrow \tr(M)=0$$ Comme $M+{\,}^t M=\tr(M)A$ alors $M+{\,}^t M=0$ soit $M=-{\,}^t M$ i.e. $M\in \mathscr{A}_n(\R)$. Conclusion $\boxed{ \Delta_A=\mathscr{A}_n(\R)}$.
  5. Soit $M\in \Delta_A$, comme $\MM_n(\R)=\mathcal{S}_n(\R)\oplus\mathscr{A}_n(\R)$, alors $M=M_1+M_2$ avec $M_1\in \mathcal{S}_n(\R)$ et $M_2\in \mathscr{A}_n(\R)$. $$(M+{\,}^t M)=2M_1=\tr(M)A=\tr(M_1)A\Longrightarrow M_1\in \R\cdot A$$ On en déduit que $M=\alpha A+M_2\in \R\cdot A+\mathscr{A}_n(\R)$.
    Si $A\neq 0$ alors $\boxed{\Delta_A=\R\cdot A\oplus \mathscr{A}_n(\R)}$.
    Si $A = ~~0$ alors $\boxed{\Delta_A= \mathscr{A}_n(\R)}$.

($\star$) Correction

Soient $n\in \N^*$ et $D \in \MM_{n}(\K)$ une matrice diagonale dont les éléments diagonaux sont deux à deux distincts.

  1. Montrer que ($I_n, D, D^2, \ldots, D^{n-1}$) est une base de $\mathbb{D}_{n}(\K)$, le s-e-v de $\MM_n(\K)$ formé des matrices diagonales.
  2. Montrer que, si une matrice $A$ commute avec $D$, alors $A$ est diagonale.

Correction

$\mathbf{1. }$ On sait que $\mathbb{D}_{n}(\K)$ est une sous-espace vectoriel de $\MM_n(\K)$, de dimension $n$. Il suffit donc de montrer que la famille ($I_n, D, D^2, \ldots, D^{n-1}$) est une famille libre.
Soit $\lambda_0,\cdots,\lambda_n\in \K$ tels que $\dsum_{i=0}^{n-1}\lambda_i D^i =0$. En considérant les termes diagonaux, on obtient alors le système: $$(S) \ \ \begin{cases} \lambda_0 +\lambda_1 d_1 + \ldots +\lambda_{n-1}d_1^{n-1} & = 0\\ \lambda_0 +\lambda_1 d_2 + \ldots +\lambda_{n-1}d_2^{n-1} & = 0\\ \ldots & =0 \\ \lambda_0 +\lambda_1 d_{n} + \ldots +\lambda_{n-1}d_n^{n-1} & = 0 \end{cases} $$ Soit alors $P=\lambda_0 + \lambda_1 X + \ldots + \lambda_{n-1}X^{n-1} \in \K_{n-1}[X]$. Le système $(S)$ équivaut à dire que ce polynôme s'annule en $d_1,\cdots,d_n$. Les $d_i$ étant distincts, il possède donc $n$ racines distinctes; étant de degré $\leq n-1$, il s'agit du polynôme nul, d'où $\lambda_0=\ldots=\lambda_{n-1}=0$.
$\mathbf{2. }$ Soit $A=(a_{i\,j})\in \MM_n(\K)$ tel que $AD=DA$. Soient $i,j\in \inter{1,n}$ tels que $i\neq j$, on a: $$(AD)_{i\,j}=\sum_{k=1}^na_{i\,k}d_{k\,j}=a_{i\,j}d_{j\,j}\text{ et } (DA)_{i\,j}=\sum_{k=1}^nd_{i\,k}a_{k\,j}=d_{i\,i}a_{i\,j}$$ On en déduit que $a_{i\,j}d_{j\,j}=a_{i\,j}d_{i\,i}$, comme $d_{i\,i}\neq d_{j\,j}$, on obtient alors $a_{i\,j}=0$.
Ce qui donne que $A$ est une matrice diagonale.

(ENS PSI 2024) Correction

Soient $n\geq 2$ et $A\in \MM_n(\C)$, on note $$\mathcal{V}(A)=\{P\in \C[X],\mid \, P\neq 0 \text{ et } P(A)=0\}.$$

  1. Montrer que $\mathcal{V}(A)\neq \emptyset$.
  2. Soit $$m=\min \{k\in \N\,\mid \exists P\in \mathcal{V}(A) \text{ avec } \deg (P)=k\}.$$ Montrer qu'il existe un et un seul polynôme $P\in \C[X]$ vérifiant les trois condition $\\$ $\mathbf{i)\,\,}$ $P\in \mathcal{V}(A)$,$\\$ $\mathbf{ii)\,}$ $\deg (P)=m$ ,$\\$ $\mathbf{iii)}$ $P$ est unitaire.$\\$ On note $\varphi_A$ ce polynôme.
  3. Soit $P\in \mathcal{V}(A)$ montrer que $\varphi_A$ divise $P$.
  4. Montrer que les racines de $\varphi$ sont exactement les valeurs propres de $A$.

Correction

  1. Soit $A\in \MM_n(\C)$, on sait d'après le cours que $\chi_A(A)=0$ donc $\chi_A\in \mathcal{V}(A)$ ($\chi_A\neq 0$ et $\deg (\chi_A)=n$). Donc $\mathcal{V}(V)\neq \emptyset$. $\\$ On aurait aussi, utiliser le faite que $(I_n,A,\cdots,A^{n^2})$ est une famille liée dans $\MM_n(\C)$, donc il existe $a_0,\cdots, a_{n^2}\in \C$ non tous nuls tels que $$\dsum_{j=0}^{n^2}a_jA^j=0 \Longrightarrow P=\dsum_{0\leq j\leq n^2} a_jX^j \in \mathcal{V}(A).$$
  2. Notons $\mathcal{A}=\{k\in \N\,\mid \exists P\in \mathcal{V}(A) \text{ avec } \deg (P)=k\}$, d'après la question précédente, $\mathcal{A}\neq \emptyset$ donc $m$ est bien défini.$\\$ D'après la définition de $m$, il existe $P\in \C[X]$ tel que $P(A)=0$ et $\deg (P)=m$ quitte à diviser $P$ par son coefficient $a_m$, on peut supposer que $P$ est unitaire. $\\$ Ainsi, $P$ vérifie les trois points $\mathbf{i)\,ii)\,iii)}$. Supposons qu'il existe un autre polynôme $Q$ vérifiant les mêmes conditions. Alors $$(P-Q)(A)= P(A)-Q(A)=0 \Longrightarrow P-A\in \mathcal{V}(A),$$ mais $\deg( P-Q) < m$ (les deux polynômes sont unitaires de même degré), or ceci contredit la définition de $m$. Donc $Q=P$ ceci prouve l'unicité de $P$ qu'on notera dans la suite $\varphi_A$.
  3. Soit $P\in \mathcal{V}(A)$, alors d'après la définition de $\varphi_A$, $\deg(P)\geq m =\deg (\varphi_A)$. Donc il existe $Q,R\in \C[X]$ tels que $$P = Q \varphi_A+R,\text{ avec } \deg (R)< m.$$ or, d'après le cours, pour tout $P_1,P_2\in \C[X], \, (P_1P_2)(A)=P_1(A)P_2(A)$, ce qui donne : $$0= P(A)= Q(A)\varphi_A(A)+R(A)= Q(A)\times 0+R(A)=R(A)\text{ donc } R\in \mathcal{V}(A),$$ ce qui est impossible, ce qui prouve que $R=0$, soit $\varphi_A \,\mid \,P$.
  4. Notons $\mathcal{S}$ l'ensemble des racines de $\varphi_A$ et $\Sp(A)$ le spectre de $A$. $\\$ On sait d'après le cours, si $\lambda\in \Sp (A)$, alors $$\forall P\in \C[X],\,\,\forall X\in E_\lambda(A),\,\, P(A)X=P(\lambda)X.$$ En particulier, $0=\varphi_A(\lambda)X $ donc $\varphi_A(\lambda)=0$ ($X\neq 0$), autrement dit, $\lambda$ est une racine de $\varphi_A$. Ainsi, $$\Sp (A) \subset \mathcal{S}.$$ Inversement, $\varphi_A$ est scindé dans $\C[X]$, donc $$\exists \alpha_1,\cdots \alpha_m\in \C,\, \quad \varphi_A-\lambda =(X-\alpha_1)\cdots (X-\alpha_m)=\prod_{\alpha\in \mathcal{S}}X-\alpha.$$ Supposons qu'il existe $i$ tel que $\alpha_i\not\in \Sp (A)$, quitte à changer l'order des racines on peut supposer que $\alpha_1\not\in \Sp (A)$, ce qui signifie que $A-\alpha_1 I_n$ est inversible. On obtient alors, $$0= (A-\alpha_1 I_n)\cdots (A-\alpha_m I_n)\Longrightarrow 0 =(A-\alpha_2I_n)\cdots (A-\alpha_m I_n)$$ Ceci implique que $P =(X-\alpha_2)\cdots (X-\alpha_m)\in \mathcal{V}(A)$ ce qui est impossible car son degré est strictement inférieur à $m$. Donc $\alpha_1\in \Sp(A)$. Ainsi $$ \mathcal{S}\subset \Sp (A).$$ D'où l'égalité.