Matrices

Rang d'une matrice

($\star$) Correction

Montrer qu'une matrice est de rang 1 ssi elle s'écrit comme le produit d'une matrice colonne par une matrice ligne.

Correction

Soient $p,q\in \N^*$, $C=\left(\begin{array}{c} a_1\\ \vdots\\ a_q \end{array}\right)\in \MM_{q\,1}(\K)$ une matrice colonne non nulle et $L=(b_1\cdots b_p)\in \MM_{1\,p}(\K)$ une matrice linge non nulle, le produit $CL$ s'écrit $$CL=\left( \begin{array}{cccc} a_1b_1&a_1b_2&\cdots&a_1b_p\\ \vdots&\vdots&\vdots&\vdots\\ a_qb_1&a_nb_2&\cdots&a_qb_p \end{array} \right)$$ On constate que toutes les colonnes de la matrice $CL$ sont proportionnelles à la colonne $C$. La matrice $CL$ est bien de rang 1.
Inversement, soit $A\in \MM_{p\,q}(\K)$ une matrice de rang $1$. Puisque $\rg (A)\neq 0$ alors il existe une colonne de $A$ non nulle on peut supposer que $C_1\neq 0$, d'autre part puisque $\rg (A)=1$ alors toutes les colonnes de $A$ sont proportionnelles à $C_1$, i.e. $C_k=b_kC_1$ (pour $k=2\cdots n$).
Notons $L=(1\,a_2\cdots a_q)$ une matrice ligne. On a $A=C_1L$. D'où le résultat.

($\star$) Correction

Soit $A\in \MM_n(\R)$ de rang 1 ($n\geq 2$). Montrer qu'il existe $\alpha \in \R$ tel que $A^k=\alpha^{k-1}A$ pour tout $k\geq 1$.

Correction

D'après l'exercice précédent, on a $A=CL$ avec $C\in \MM_{n\,1}(\R) $ et $L\in \MM_{1\,n}(\R)$.
Soit $k\in \N^*$, on a $$A^k=\underset{k \text{ fois} }{\underbrace{(CL)(CL)\cdots (CL)}}=C \underset{k-1 \text{ fois} }{\underbrace{(LC)\cdots (LC)}}L $$ Or $LC=\alpha\in \R$ donc on a $\boxed{A^k=\alpha^{k-1} A}$.

(CCP 2003) Correction

Soit $A\in\MM_n(\R)$ (avec $n\geq 2$) la matrice de coefficients $a_{ij}=\cos(i-j)$. Trouver le rang de~$A$.

Correction

En utilisant la formule $\cos(a+b)+\cos(a-b)=2\cos(a)\cos(b)$. On trouve $\cos(k+2)+\cos(k)=2\cos(1)\cdot \cos(k+1)$, ce qui donne (en notant $C_j$ la $j$\up{ème} colonne de la matrice $A$) \begin{equation*} \forall k\in \inter{0,n-2},\quad C_{k+2}= -C_k-2\cos(1)\,C_{k+1}\Longrightarrow \rg(A)\leq 2. \end{equation*} D'autre part, la matrice $A'=\begin{pmatrix} \cos(0)&\cos(1)\\ \cos(1)&\cos(0) \end{pmatrix}$ extraite de la matrice $A$ est inversible donc $\rg(A)\geq 2$. On en déduit, $\boxed{\rg(A)=2}$.

($\star\star\star$) Correction

Soit $A\in \MM_n(\R)$ telle qu'il existe $\lambda>0$ avec $A^3=-\lambda A$. Montrer que le rang de $A$ est pair.

Correction

Dans la suite, on suppose que $A\neq 0$.
Supposons que $n=2$, alors comme $A\neq 0$, il existe $x_0\in \R^2$ tel que $Ax_0\neq 0$. De plus $A^2x_0\neq 0$ car sinon on aurait $0=A(A^2x_0)=-\lambda Ax_0\neq 0$ ce qui impossible.
Montrons que la famille $(Ax_0,A^2x_0)$ est libre. Supposons qu'il existe $\alpha\in \R^*$ tel que $$A^2x_0=\alpha Ax_0\Longrightarrow A^3x_0=\alpha A^2x_0=-\lambda Ax_0=-\lambda\dfrac{1}{\alpha}A^2x_0\Longrightarrow (\alpha^2+\lambda)A^2x_0=0\Longrightarrow\alpha^2+\lambda=0,$$ ce qui est impossible car $\lambda>0$. Donc la famille $(Ax_0,A^2x_0)$ est une base de $\R^2$ et clairement les deux vecteurs sont dans $\im (A)$ ce qui prouve que $\rg (A)=2$.
Supposons que $n>2$, et notons $f$ l'application linéaire canoniquement associée à $A$, donc $f$ vérifie $f^3=-\lambda f$. On note $F=\im (f)\subset\R^n$. Notons d'abord que $F\cap \Ker(f)=\{0\}$, en effet si $x\in \im(f)\cap \Ker (f)$, on trouve: $$\exists z\in E,\, x=f(z) \text{ et } f(x)=0 =f^2(z) \text{ donc } 0=f^3(z)=-\lambda f(z)=-\lambda x \text{ soit } x=0.$$ Comme $F$ est stable par $f$, on définit alors $\fonct{v}{F}{F}{x}{f(x)}$. Vu que $F\cap \Ker(f)=\{0\}$, on en déduit que $\Ker v=\{0\}$, donc $v$ est bijective i.e. $\det (v)\neq 0$.
D'autre part, on a $$ \forall x\in F,\,\, v^3(x)=f^3(x)=-\lambda f(x)=-\lambda v(x) \Longrightarrow \det(v)^3=(-1)^{\dim F}\lambda^{\dim F}\det (v)$$ donc $(-1)^{\dim F}>0$ autrement dit, $\dim F=2p,\, p\in \N^*$.

($\star$) Correction

Soit $A\in \MM_n(\R)$. On suppose que $\rg (A)=1$ et $\tr (A)=1$. Montrer que $A^2=A$.

Correction

On considère $f:\R^n\longmapsto\R^n$ l'application canoniquement associée à $A$, comme $\rg (f)=\rg (A)=1$, on en déduit que $\dim (\Ker (f))=n-1$.
Soit $\{e_1,\cdots,e_{n-1}\}$ une base de $\Ker (f)$, qu'on complète à une base $\BB$ de $\K^n$, alors la matrice de $f$ dans cette base est $A'=\begin{pmatrix} 0&\cdots&0&\lambda_1\\ \vdots& &\vdots&\vdots\\ 0&\cdots&0&\lambda_n \end{pmatrix} $, puisque $\tr (f)=1$ alors $\lambda_n=1$.
Comme $A$ et $A'$ sont semblables, alors $A=PA'P^{-1}$ ce qui donne $A^2=P A'^2 P^{-1}$, un calcul simple donne $(A')^2=A'$, d'où $A^2=A$.

($\star\star$) Correction

Soient $(X_1,\cdots,X_q)$ et $(Y_1,\cdots,Y_p)$ des familles libres dans $\MM_{n\,1}(\K)$. Montrer que la famille $(Y_i{\,}^t X_j)_{(i,j)\in \inter{1,p}\times\inter{1,q}}$ est libre dans $\MM_n(\K)$.

Correction

Puisque les deux familles $(X_i),\,(Y_j)$ sont libre alors $p,q\leq n$. On complète les familles $(X_1,\cdots,X_q)$ et $(Y_1,\cdots,Y_p)$ à des bases $(X_1,\cdots,X_n),\,(Y_1,\cdots,Y_n)$ de $\MM_{n,1}(\K)$.
On note $A,\,B$ les deux matrices de $\mathrm{GL}_n(\K)$ telles que les colonnes de $A$ (resp. $B$) sont les $X_i$ (resp. $Y_i$). On considère ensuite $\fonct{\varphi}{\MM_n(\K)}{\MM_n(\K)}{M}{BM{\,}^t A}$, $\varphi$ est un automorphisme de $\MM_n(\K)$.
On a $Y_i{\,}^t X_j=\varphi(E_{i\,j})$ ...

(Mines PSI 2018) Correction

Soient $A,B\in\MM_n(\R)$ telles que $AB=A+B$. Montrer que $\rg(A)=\rg(B)$.

Correction

Soit $X\in \Ker (B)$ alors $ABX=0=AX+BX=AX$ donc $X\in \Ker(A)$, on en déduit alors que $\Ker(B)\subset \Ker(A)$.
Soit $Y\in \im (B),$ alors il existe $X\in \R^n$ tel que $Y=BX$ donc $$Y=BX= ABX-AX = A(BX-X)\Longrightarrow Y\in \im (A)\Longrightarrow \im (B)\subset \im (A)$$ En utilisant le théorème du rang, on trouve finalement que $\im(B)=\im(A)$.

(Central 2017) Correction

Soit $v\in \MM_{n\,1}(\R)$ non nul. On définit la matrice suivante : $H(v)=I_n-\dfrac{2}{{\,}^t v\cdot v}v\cdot {\,}^t v$.
Calculer $H(v)^2,\, H(v){\,}^t H(v)$. Que dire du range de $H(v)$?

Correction

Soit $v\in \MM_{n\,1}(R)$, on note $\alpha= {\,}^t v\cdot v\in \R$ et $B=v\cdot {\,}^t v\in \MM_n(\R)$, on a $$\begin{array}{lcl} H(v)^2&=&(I_n-\dfrac{2}{\alpha} B)^2=I_n-\dfrac{4}{\alpha} B+\dfrac{4}{\alpha^2}B^2=I_n-\dfrac{4}{\alpha} B+ \dfrac{4}{\alpha^2} (v\cdot {\,}^t v)(v\cdot {\,}^t v)\\ &&\\ &=&I_n-\dfrac{4}{\alpha} B+\dfrac{4}{\alpha^2}( v\cdot ({\,}^t v\cdot v) \cdot {\,}^t v)=I_n-\dfrac{2}{\alpha} B+ \dfrac{4}{\alpha^2} \alpha v\cdot {\,}^t v\\ &&\\ &=&I_n-\dfrac{4}{\alpha}B+\dfrac{4}{\alpha}B=I_n \end{array}$$ On en déduit alors que la matrice $H(v)$ est inversible et $H(v)^{-1}=H(v)$.
D'autre part, on a $${\,}^t H(v)={\,}^t I_n-\dfrac{2}{\alpha}{\,}^t (v\cdot {\,}^t v)=I_n-\dfrac{2}{\alpha}{\,}^t ({\,}^t v)\cdot{\,}^t v=H(v),$$ donc $H(v)$ est symétrique.

(Navale PSI 2018) Correction

Soient $A,\,B\in\MM_n(\R)$ telles que $(AB)^2=0$. A-t-on $(BA)^2=0$?

Correction

Soit $A=\begin{pmatrix} 1&0&0\\ 0&0&0\\ 0&1&0 \end{pmatrix}$ et $B=\begin{pmatrix} 0&0&1\\ 0&1&0\\ 0&0&0 \end{pmatrix}$. Alors $$AB= \begin{pmatrix} 1&0&0\\ 0&0&0\\ 0&1&0 \end{pmatrix}\begin{pmatrix} 0&0&1\\ 0&1&0\\ 0&0&0 \end{pmatrix}= \begin{pmatrix} 0&0&1\\ 0&0&0\\ 0&1&0 \end{pmatrix},$$ et $(AB)^2=\begin{pmatrix} 0&1&0\\ 0&0&0\\ 0&0&0 \end{pmatrix}.$ $$BA= \begin{pmatrix} 0&0&1\\ 0&1&0\\ 0&0&0 \end{pmatrix}\begin{pmatrix} 1&0&0\\ 0&0&0\\ 0&1&0 \end{pmatrix}=\begin{pmatrix} 0&1&0\\ 0&0&0\\ 0&0&0 \end{pmatrix}$$ et $(BA)^2=0$.

(Centrale 2018) Correction

Soit $M=(m_{ij})\in\MM_n(\R)$ définie par $\quad m_{ij}= \begin{cases} i & \text{si }1\leqslant i < n\text{ et } j=i+1\ ;\\ n-i+1&\text{si }1< i\leqslant n\text{ et } j=i-1\ ;\\ 0&\text{dans tous les autres cas.} \end{cases}$ Soit $f$ l'endomorphisme de $\R_{n-1}[X]$ de matrice $M$ dans la base canonique.

  1. Déterminer $f(P)$ pour tout polynôme $P$ de la base canonique, puis pour tout polynôme $P$ de $\mathbb R_{n-1}[X]$.
  2. Déterminer le rang de $M$ par plusieurs méthodes.

Correction

La matrice $M$ est .. $$M=\begin{pmatrix} 0&1&0&\cdots&\cdots&\cdots&0\\ n-1&0&2&\ddots&&&\vdots\\ 0&n-2&0&\ddots&\ddots&&\vdots\\ \vdots&\ddots&\ddots&\ddots&\ddots&\ddots&\vdots\\ \vdots&&\ddots&\ddots&0&n-2&0\\ \vdots&&&\ddots&2&0&n-1\\ 0&\cdots&\cdots&\cdots&0&1&0 \end{pmatrix}$$ Ainsi, $$f(1)=(n-1)X,\,f(X^{n-1})=(n-1)X^{n-2},\quad\forall k\in\inter{1,n-2},\,f(X^k)=(n-1-k)X^{k+1}+kX^{k-1}$$ On peut écrire, pour $k\in \inter{1,n-2}$ $$f(X^k)= (n-1)X^{k+1}- kX^{k+1}+kX^{k-1}=(n-1)XX^k+(1-X^2)(X^k)'$$ Cette relation reste vraie pour $k=0$ ou $k=n-1$. On en déduit $$\forall P\in \R_{n-1}[X],\quad f(P)=(n-1)XP+(1-X^2)P'.$$

(X 2015 $\star$) Correction

Soient $A,B\in \MM_n(\C)$ de rang 1, telles que $A+B$ soit aussi de rang 1. Montrer que $A$ et $B$ ont soit le même noyau soit le même image.

Correction

Supposons que $\Ker(A)\neq \Ker (B)$ (on doit montrer alors que $\im (A)=\im (B)$), il existe alors $x_0\in \R^n$ tel que $Ax_0=y\neq 0$ et $Bx_0=0$.
Puisque $\rg (A)=1$, on en déduit que $\im (A)=\Vect (y)$, puis on a $(A+B)x_0=Ax_0+Bx_0=y$ donc $\im (A+B)=\Vect(y)$.
La matrice $B$ étant de rang $1$, il existe $z\in \R^n$ non nul tel que $\im (B)=\Vect( z)$ et $z=Bx_1$ avec $x_1\in \R^n$ (non nul bien sûre!), ce qui donne $$z=Bx_1 =(A+B)x_1- Ax_1 \in \Vect (y) \text{ puisque } \im(A+B) =\im(A)=\Vect (y).$$ On en déduit alors que $\im (B)=\Vect(y)=\im (A)$.

Invers

($\star$) Correction

Déterminer l'inverse de $\begin{pmatrix} 1&1&1&1\\ 1&1+a&1&1\\ 1&1&1+b&1\\ 1&1&1&1+c \end{pmatrix}$ s'il existe, avec $a,b,c\in \K$.

Correction

Il est clair que si $a=0$, ou $b=0$, ou $c=0$ alors la matrice n'est pas inversible. Supposons dans la suite que $abc\neq 0$. On utilise la méthode de Gausse pour trouve l'inverse. $$\begin{pmatrix} 1&1 &1 &1 &|&1&0&0&0\\ 1&1+a&1 &1 &|&0&1&0&0\\ 1&1 &1+b&1 &|&0&0&1&0\\ 1&1 &1 &1+c&|&0&0&0&1 \end{pmatrix} \underset{\underset{i\in \inter{2,4}}{L_i\longleftarrow L_i-L_1}}{\leadsto} \begin{pmatrix} 1&1 &1 &1 &|&1&0&0&0\\ 0&a &0 &0 &|&-1&1&0&0\\ 0&0 &b &0 &|&-1&0&1&0\\ 0&0 &0 &c &|&-1&0&0&1 \end{pmatrix}\underset{\substack{L_2\longleftarrow L_2/a\\ L_3\longleftarrow L_3/b\\ L_4\longleftarrow L4/c}}{\leadsto}$$ $$\begin{pmatrix} 1&1 &1 &1 &|&1&0&0&0\\ 0&1 &0 &0 &|&\frac{-1}{a}&\frac{1}{a}&0&0\\ 0&0 &1 &0 &|&\frac{-1}{b}&0&\frac{1}{b}&0\\ 0&0 &1 &1 &|&\frac{-1}{c}&0&0&\frac{1}{c} \end{pmatrix} \underset{L_1\longleftarrow L_1-L2-L3-L4}{\leadsto} \begin{pmatrix} 1&0 &0 &0 &|&1+\frac{1}{a}+\frac{1}{b}+\frac{1}{c}&-\frac{1}{a}&-\frac{1}{b}&-\frac{1}{c}\\ 0&1 &0 &0 &|&\frac{-1}{a}&\frac{1}{a}&0&0\\ 0&0 &1 &0 &|&\frac{-1}{b}&0&\frac{1}{b}&0\\ 0&0 &1 &1 &|&\frac{-1}{c}&0&0&\frac{1}{c} \end{pmatrix}$$

($\star$) Correction

Soit $A=\begin{pmatrix} 1&1&1\\ 1&j&j^2\\ 1&j^2&j \end{pmatrix},\, Y=\begin{pmatrix} a\\b\\c \end{pmatrix} $. Résoudre le système $AX=Y$ d'inconnu $X\in \C^3$.

En déduire que $A$ est inversible puis donner $A^{-1}$.

Correction

Soit $Y=\begin{pmatrix} a\\b\\c \end{pmatrix}$, on note $X=\begin{pmatrix} x_1\\x_2\\x_3 \end{pmatrix}$. On a $$ AX=Y\Longleftrightarrow\left\{\begin{array}{lcrcrclr} x_1&+&x_2&+&x_3&=&a&\quad\quad (L1)\\ x_1&+&jx_2&+&j^2x_3&=&b&\quad\quad (L2)\\ x_1&+&j^2x_2&+&jx_3&=&c&\quad\quad (L3) \end{array} \right.$$ En utilisant la relation $1+j+j^2=0$, on trouve $$\left\{ \begin{array}{lcl} L1+L2+L3&\Longrightarrow& x_1=\dfrac{a+b+c}{3}\\ L1+j^2L2+jL3&\Longrightarrow& x_2=\dfrac{a+j^2b+jc}{3}\\ L1+jL2+j^2L3&\Longrightarrow& x_3=\dfrac{a+jb+j^2c}{3} \end{array} \right. \Longrightarrow X =\dfrac{1}{3}\begin{pmatrix} a+b+c\\ a+j^2b+jc\\ a+jb+j^2c \end{pmatrix} $$ Ceci prouve que $A$ est inversible et que: $$\boxed{A^{-1}=\dfrac{1}{3}\begin{pmatrix} 1&1&1\\ 1&j^2&j\\ 1&j&j^2 \end{pmatrix}}.$$

($\star$) Correction

Soit $n\in \N^*$. Soient $A,B\in\MM_n(\K)$ deux matrices telles que $AB=A+B$. Montrer que $(A-I_n)\in GL_n(\K)$ et calculer $(A-I_n)^{-1}$.

Correction

On a $(A-I_n)(B-I_n)=AB-A-B+I_n=I_n$, on en déduit que $(A-I_n)\in GL_n(\K)$ de plus $$\boxed{(A-I_n)^{-1}=(B-I_n)}.$$

($\star$) Correction

Soient $A,B\in \MM_n(C)$. On suppose que $A$ est inversible, et $B$ nilpotente. Montrer que $I_n+A^{-1}BA$ est inversible puis calculer son inverse.

Correction

Notons d'abord que, pour tout $k\in \N$, $(A^{-1}BA)^k=A^{-1}B^kA$. Comme $B$ est nilpotente alors il existe $r\in \N$ tel que, pour tout $k\geq r$, on a $B^k=0$.
On pose $C=A^{-1}\left(\dsum_{k=0}^{r-1}B^k\right)A$, on a $(I_n+A^{-1}BA)C=I_n$ ce qui montre que $I_n+A^{-1}BA$ est inversible et $(I_n+A^{-1}BA)^{-1}=C$.

($\star\star$) Correction

Soit $n\in \N^*$. On considère les matrices $A=(a_{p\,q})$ et $B=(b_{p\,q})\in \MM_n(\C)$ définies par: $$\forall 1\leq p,q\leq n,\,~~a_{p\,q}=\omega^{(p-1)(q-1)}\text{ et } b_{p,q}=\overline{\omega}^{(p-1)(q-1)}\text{ où } \omega=\ee^{\ii\frac{2\pi}{n}}.$$

  1. Pour $k\in \N$, calculer $\dsp \sum_{p=0}^{n-1}\omega^{kp}$.
  2. Calculer $AB$, en déduire que $A$ et $B$ sont inversible. Déterminer $A^{-1},\,B^{-1}$ et $BA$.
  3. Calculer $A^2$ et $B^2$.

Correction

Rappelons que $\omega$ est une racine $n$ième de l'unité.

  1. On distingue deux cas:
    1. $\omega^k\neq 1$ dans ce cas $\dsp \sum_{p=0}^{n-1}\omega^{kp}=\dsp \sum_{p=0}^{n-1}(\omega^{k})^{p}=\dfrac{1-(\omega^k)^n}{1-\omega}=0$.
    2. $\omega^k=1$ (i.e $n\mid k$) dans ce cas $\dsp \sum_{p=0}^{n-1}\omega^{kp}=n$.
  2. Le terme $c_{p\,q}$ du produit $AB$ vaut $$c_{p\,q}=\sum_{k=1}^na_{p\,k}b_{k\,q}=\sum_{k=1}^n\omega^{(p-1)(k-1)}\overline{\omega}^{(k-1)(q-1)}=\sum_{k=1}^n\omega^{(p-q)(k-1)}=\sum_{k=0}^{n-1}\omega^{(p-q)k}~~~~~~(\text{ car } \overline{\omega}=\omega^{-1}).$$ On en déduit que $c_{p\,q}=0$ sauf si $n\mid (p-q)$ or $p$, $q$ étant entre $1$ et $n$ donc $p-q$ est entre $1-n$ et $n-1$ où il n'y a qu'un seul multiple de $n$ à savoir $0$.
    Conclusion $\boxed{ c_{p\,q}=n\delta_{p\,q}}$. D'où $\boxed{AB=nI_n}$.
    On en déduit que $A$ et $B$ sont inversible et $$\boxed{A^{-1}=\dfrac{1}{n}B,~~~~B^{-1}=\dfrac{1}{n}A~~\text{ et } AB=BA=nI_n}.$$
  3. Soient $1\leq p,q\leq n$, le terme d'indice $p,\,q$ de $A^2$ s'écrit $$\sum_{k=1}^na_{p\,k}a_{k\,q}=\sum_{k=1}^n\omega^{(p-1)(k-1)}\omega^{(k-1)(q-1)}=\sum_{k=1}^n\omega^{(p+q-2)(k-1)}=\sum_{k=0}^{n-1}\omega^{(p+q-2)k}$$ ce terme est nulle sauf si $p+q-2$ est un multiple de $n$, or $p+q-2\in \{0,\cdots,2n-2\} $ donc on a deux possibilités: $$ (p+q-2=0 \Longrightarrow p=q=1) \text{ ou }(p+q-2=n\Longrightarrow p=n+2-q).$$ Ce qui donne $$A^2= \left( \begin{array}{ccccccc} n&0& \cdot &\cdot &\cdot& &0\\ 0& & & & & &n\\ \cdot& & && \cdot &\\ \cdot& & &\cdot&&&\\ \cdot& & \cdot& &&&\\ %&&&&&\\ 0&n& &\cdots& &&0 \end{array} \right)$$ Calculons maintenant le terme $p,\,q$ de la matrice $B^2$, $$\sum_{k=1}^nb_{p\,k}b_{k\,q}=\sum_{k=1}^n\omega^{-(p-1)(k-1)}\omega^{-(k-1)(q-1)}=\sum_{k=1}^n\omega^{-(p+q-2)(k-1)}=\sum_{k=0}^{n-1}\omega^{(2-p-q)k}$$ On en déduit que $B^2=A^2$.
($\star\star$) Correction

Soit $n\in \N^*$. On considère la matrice $A=(a_{i\,j})_{1\leq i,j\leq n}$ définie par: $\,\,\dsp\forall 1\leq i,j\leq n,~~~~a_{i\,j}=\left\{\begin{array}{ll} (-1)^{i-1}{i-1\choose j-1}&\text{ si }j\leq i,\\ &\\ 0&\text{ sinon} \end{array} \right.$. Calculer $A^2$.

Correction

Soient $1\leq i,j\leq n$, le terme d'indice $i,\,j$ de la matrice $A^2$ s'écrit $A_{i\,j}=\dsp\sum_{k=1}^n a_{i\,k}a_{k\,j}$. Pour que $a_{i\,k}a_{k\,j}$ ne soit pas nul il faut que $k\leq i$ et $j\leq k$, donc $A_{i\,j}=0$ si $j>i$.
Soient maintenant $1\leq j\leq i\leq n$, on a $$ \begin{array}{lcl} \dsp\sum_{k=j}^i(-1)^{i-1}(-1)^{k-1}{i-1\choose k-1}{k-1\choose j-1} &=&\dsp\sum_{k=j}^i(-1)^{i+k}\dfrac{(i-1)!}{(i-k)!(k-1)!}\dfrac{(k-1)!}{(j-1)!(k-j)!}\\ &=&\dsp\dfrac{(-1)^i(i-1)!}{(j-1)!} \sum_{k=j}^i(-1)^{k}\dfrac{1}{(i-k)!(k-j)!}\\ &=&\dsp\dfrac{(-1)^i(i-1)!}{(j-1)!} \sum_{k=0}^{i-j}(-1)^{k+j}\dfrac{1}{(i-j-k)!(k)!}\\ &=&\dsp\dfrac{(-1)^{i-j}(i-1)!}{(j-1)!(i-j)!} \sum_{k=0}^{i-j}(-1)^{k}\dfrac{(i-j)!}{(i-j-k)!(k)!}\\ &=&\dsp\dfrac{(-1)^{i-j}(i-1)!}{(j-1)!(i-j)!} \sum_{k=0}^{i-j}(-1)^{k}{i-j \choose k}=\dfrac{(-1)^{i-j}(i-1)!}{(j-1)!(i-j)!} (1-1)^{i-j}. \end{array} $$ On en déduit que $A_{i\,j}=\delta_{i\,j}$. Ce qui donne $\boxed{ A^2=I_n}$.

(Mines-Télécom 2019) Correction

Soit $n\in \N,\,n>1$. On considère la matrice $A=(a_{i\,j})_{1\leq i,j\leq n}$ définie par: $$\forall 1\leq i,j\leq n,~~~~a_{i\,j}=1 \text{ si } i\neq j \text{ et } a_{i\,i}=0.$$ Montrer que $A$ est inversible et calculer $A^{-1}$.

Correction

Une conséquence de l'exercice ci-après, avec $a=0,\,b=1$.

($\star\star$) Correction

Même question avec $A=\begin{pmatrix} a & b&\cdots &\cdots&b\\ c & a&0 &\cdots&0 \\ \vdots& 0 &\ddots&\ddots&\vdots\\ \vdots&\vdots&\ddots&\ddots&0\\ c &0 &\ldots &0& a \end{pmatrix}$, ($a,b,c\in \R$).

Correction

Il est clair ici que si $a=0$ alors la matrice $A$ n'est pas inversible. Supposons que $a\neq 0$.
Considérons le système $(S): AX=Y$, dans ce cas le système $(S)$ peut s'écrire $$(S)\Leftrightarrow\left\{\begin{array}{cclccr} ax_1 &+& b\dsp\sum_{j=2}^nx_j&=&y_1&\\ cx_1&+& ax_k&=&y_k& \forall k\in\{2,\cdots,n\} \end{array} \right. \Leftrightarrow\left\{\begin{array}{r} ax_1 + \dfrac{b}{a}\dsp\sum_{j=2}^ny_j-\dfrac{bc}{a}(n-1)x_1=y_1\\ \forall k\in\{2,\cdots,n\}, ~~x_k=\dfrac{y_k-cx_1}{a} \end{array} \right. $$ Ce qui donne \begin{equation} x_1=\dfrac{ay_1-\dsp b\sum_{j=2}^ny_j}{a^2-(n-1)bc}\quad\quad (\star) \end{equation} On a supposé dans l'équation ($\star$) que $a^2-(n-1)bc\neq 0$.
En rapportant la valeur de $x_1$ trouvée dans l'équation ($\star$)dans l'expression de $x_k$, on trouve \begin{equation} x_k=\dfrac{-cay_1+\dsp bc\sum_{j=2}^ny_j +((a^2-(n-2)bc)y_k}{a(a^2-(n-1)bc)}\quad\quad (\star\star) \end{equation} On note dans la suite (pour simplifier l'écriture) $\Delta=(a^2-(n-1)bc)$. Les équations ($\star$) et ($\star\star$) nous donne: $$ A^{-1}=\dfrac{1}{a\Delta} \left( \begin{array}{ccccc} a^2&-ba&\cdots&\cdots&-ba\\ -ca&bc+\Delta&bc&\cdots&bc\\ -ca&bc&bc+\Delta&\cdots&bc\\ \vdots&\vdots&\vdots&\ddots&\vdots\\ -ca&bc&bc&\cdots&bc+\Delta \end{array} \right). $$

($\star\star$) Correction

Soit $n\in \N^*$. Montrer que la famille $\mathcal{F}=((1+X)^k)_{0\leq k\leq n}$ est une base de $\R_n[X]$.
Donner la matrice de passage $P$ de la base canonique $\BB$ à la base $\mathcal{F}$ puis déterminer $P^{-1}$.

Correction

La famille $\mathcal{F}$ est libre puisqu'elle contient des polynômes non nuls de degrés deux à deux distincts, de plus $\mathcal{F}$ continent autant d'éléments que la dimension de $\R_n[X]$ donc $\mathcal{F}$ est une base de $\R_n[X]$.
Soit $k\in \{0,\cdots,n\}$, on a $\dsp (1+X)^k=\sum_{i=0}^k{k\choose i}X^i$, on en déduit que la matrice $P$ de passage de la base $\BB$ à la base $\mathcal{F}$ s'écrit: $$P=\left( \begin{array}{cccc} \binom{0}{0} & \binom{1}{0} & \ldots & \binom{n}{0} \\ 0 & \binom11 & \ldots & \binom{n}1 \\ \vdots & \vdots & \ddots & \vdots \\ 0 & 0 & \ldots & \binom{n}{n} \end{array} \right) $$ Pour trouver $P^{-1}$, il suffit de remarquer que, $$\forall k\in \{0,\cdots,n-1\},~~~~X^k=(-1+1+X)^k=\dsp\sum_{i=0}^k\binom{k}{i}(-1)^{k-i}(1+X)^i,$$ ce qui donne, $$P^{-1}=\left( \begin{array}{cccc} \binom{0}{0} & -\binom{1}{0} & \ldots &(-1)^n \binom{n}{0} \\ 0 & \binom11 & \ldots & (-)^{n-1}\binom{n}1 \\ \vdots & \vdots & \ddots & \vdots \\ 0 & 0 & \ldots & \binom{n}{n} \end{array} \right) $$

($\star$) Correction

Soit $C\in \MM_{n,1}(\R)$ une matrice colonne non nulle et $L \in \MM_{1,n}(\R)$ une matrice ligne non nulle avec $ n \geq 2$. On pose $A = CL - I$ où $I = I_n$ est la matrice identité.

  1. Peut-on avoir $A = -I$ ? Vérifier : $A^2 + (2 - LC)A + (1 - LC)I = 0$, où l'on identifie les matrices de $M_{1,1}(\R)$ et les réels.
  2. Déterminer une condition nécessaire et suffisante pour avoir A inversible et déterminer $A^{-1}$ dans ce cas.
  3. Dans quels cas A est-elle une matrice de symétrie ? %\xcancel{\item La matrice A est-elle diagonalisable, si oui, la diagonaliser.}

Correction

On a: $A=-I$ ssi $CL=0$, comme on peut PAS avoir $CL=0$ (ceci impliquerais que $C=0$ ou $L=0$ ce qui est exclu ici). Donc $\boxed{A\neq -I}$.
En utilisant le faite que $CL$ et $I$ commutent, on trouve $$A^2=(CL)(CL)-2CL+I=(\underset{\in \R}{\underbrace{LC}}) CL-2CL+I=(LC-2)CL+I=(LC-2)A+(LC-1)I$$ Ce qui donne la relation demandé.
D'après ce qui précède, $A\in GL_n(\R)$ ssi $LC\neq 1$ et dans ce cas, on a $$\boxed{A^{-1}=\dfrac{1}{LC-1}\left(A+(2-LC)I\right)}.$$ $A$ est une matrice de symétrie ssi $A^2=I$, ce qui donne: $$A^2=I\Longleftrightarrow (LC) \,CL-2CL+I=I\Longleftrightarrow (LC-2)\,CL=0\Longleftrightarrow LC=2$$

(CCP) Correction

Soit $a\in \R$, on pose $M(a)=\begin{pmatrix} 1-2a&a&a\\ a&1-2a&a\\ a&a&1-2a \end{pmatrix}\in \MM_3(\R)$.

  1. Montrer que, $M(a)M(b)=M(a+b-3ab)$.
  2. En déduire l'ensemble $a$ dans $\R$ tel que $M(a)$ est inversible. Donner dans ce cas $M(a)^{-1}$ en fonction de $a$.
  3. Trouver une suite $(u_n)_n$ telle que $M(a)^n=M(u_n)$, pour tout $n\in \N$.

Correction

Un calcul simple donne $M(a)M(b)=M(a+b-3ab)$.
Puisque $M(0)=I_3$, alors pour savoir si $M(a)$ est inversible, il suffit de trouver $b$ tel que $a+b-3ab=0$. La résolution de cette équation donne (pour $a\neq 1/3$) $b=\dfrac{a}{3a-1}$.
Ainsi, pour tout $a\in \R\setminus \{1/3\},\, M(a)$ est inversible et $M(a)^{-1}=M\left(\frac{a}{3a-1}\right)$.
En revanche, pour $a=\frac{1}{3}$, on a $$M(1/3)=\begin{pmatrix} \frac{1}{3}&\frac{1}{3}&\frac{1}{3}\\ \frac{1}{3}&\frac{1}{3}&\frac{1}{3}\\ \frac{1}{3}&\frac{1}{3}&\frac{1}{3} \end{pmatrix}\Longrightarrow \rg (M(1/3))=1 \text{, donc $M(1/3)$ n'est pas inversible.}$$ Soit $n\in \N$, on a $$M(a)^{n+1}=M(a)^nM(a)=M(a+u_n-3au_n)=M(u_{n+1})$$ Donc la suite $(u_n)$ vérifie: $$u_0=0,\,u_1=a,\,\forall n\geq 1,\, u_{n+1}=a +(1-3a)u_n.$$ On pose $v_n=u_n-\dfrac{1}{3}$ donc $$\begin{array}{lcl} v_{n+1}&=&u_{n+1}-\dfrac{1}{3}\\ &=&a +(1-3a)u_n-\dfrac{1}{3}=a +(1-3a)(v_n+\dfrac{1}{3})-\dfrac{1}{3}\\ &=&a+(1-3a)v_n+\dfrac{1-3a}{3}-\dfrac{1}{3}=(1-3a)v_n \end{array}$$ Donc $v_n=v0(1-3a)^n=\dfrac{-1}{3}(1-3a)^n$. On en déduit, $$ \forall n\in \N,\quad u_n=\dfrac{1}{3}\left(1-(1-3a)^n\right).$$

(Info) Correction

Soit $k\in \R$. On pose $M(k)= \left( \begin{array}{cccccc} 1 &-k &0 &\cdots&\cdots&0\\ 0 &1 &-k & & &\vdots \\ \vdots &\ddots& &\ddots& &\vdots \\ \vdots & &\ddots&\ddots&\ddots & 0 \\ & & & & 1& -k \\ 0 & &\cdots& &0 & 1 \end{array} \right)\in \MM_n(\R) $. Montrer que $M(k)$ est inversible et déterminer $M(k)^{-1}$.

Correction

On note $K$ la matrice définie par: $$K= \begin{pmatrix} 0 &1 &0 &\cdots&\cdots&0\\ 0 &0 &1 & & &\vdots \\ \vdots &\ddots& &\ddots& &\vdots \\ \vdots & &\ddots&\ddots&\ddots & 0 \\ & & & & 0&1 \\ 0 & &\cdots& &0 & 0 \end{pmatrix} $$ Un calcul simple donne: $$K^2= \begin{pmatrix} 0 &0 &1 &\cdots&\cdots&0\\ 0 &0 &0 & 1 & \cdots &\vdots \\ \vdots &\ddots& &\ddots& &\vdots \\ \vdots & &\ddots&\ddots&\ddots & 1 \\ & & & & 0& 0 \\ 0 & &\cdots& &0 & 0 \end{pmatrix} $$

(Info) Correction

Soient $A = \begin{pmatrix} 1 &\frac12 &\frac13 \\ \frac12 &\frac13 &\frac14 \\ \frac13 &\frac14 &\frac15 \end{pmatrix}$ et $B = \begin{pmatrix} 1\phantom{.00}&0.5\phantom{0}&0.33\\ 0.5\phantom{0}&0.33&0.25\\ 0.33&0.25&0.20 \end{pmatrix}$. Calculer $A^{-1}$ et $B^{-1}$.

Correction

$$A^{-1} = \begin{pmatrix} 9 &-36 &30 \cr -36 &192 &-180 \cr 30 &-180 &180 \cr \end{pmatrix},\quad B^{-1} \approx \begin{pmatrix} 55.6 &-277.8 &255.6 \cr -277.8 &1446.0 &-1349.2 \cr 255.6 &-1349.2 &1269.8 \cr \end{pmatrix}.$$

($\star\star$) Correction

Soit $A=(a_{i,j})_{1\leqslant i,j\leqslant n}\in\MM_n(\C)$ telle que $\forall i\in\inter{1,n}$, $|a_{i,i}| >\dsum_{j\neq i}^{}|a_{i,j}|$. Montrer que $A\in\mathcal{GL}_n(\C)$. (Une matrice à diagonale strictement dominante est inversible.)

Correction

Montrons que $\text{Ker}A$ est réduit à $\{0\}$. Dans le cas contraire, on dispose d'un vecteur colonne non nul $X_0$ tel que $AX_0 = 0$. Posons $X_0=(x_i)_{1\leqslant i\leqslant n}$. Pour tout $i\in\inter{1,n}$, $$\sum_{j=1}^{n}a_{i,j}x_j= 0\Rightarrow a_{i,i}x_i =-\sum_{j\neq i}^{}a_{i,j}x_j \Rightarrow |a_{i,i}||x_i|\leqslant\sum_{j\neq i}^{}|a_{i,j}||x_j|.$$ On prend alors pour $i$ un indice $i_0$ tel que $|x_{i_0}| =\text{Max}\{|x_1|,...,|x_n|\}$. Puisque $X\neq0$, on a $|x_{i_0}|>0$. De plus, $$|a_{i_0,i_0}||x_{i_0}|\leqslant\sum_{j\neq i_0}^{}|a_{i_0,j}||x_j|\leqslant\left(\sum_{j\neq i_0}^{}|a_{i_0,j}| \right)|x_{i_0}|,$$ et puisque $|x_{i_0}|>0$, on obtient après simplification $|a_{i_0,i_0}|\leqslant\sum_{j\neq i_0}^{}|a_{i_0,j}|$ ce qui contredit les hypothèses.
Donc $\text{Ker}A=\{0\}$ et $A$ est inversible.

(CCP 2017) Correction

Soit $t\in\R^*$. On pose $A=\begin{pmatrix} 0&t\\-t&0 \end{pmatrix}$.

  1. Montrer que $A$ est inversible et déterminer $A^{-1}$.
  2. On pose $R=(I_2+A)(I_2-A)^{-1}$. Déterminer $R$ puis calculer ${\,}^t R\cdot R$. $R$ est-t-elle inversible?

Correction

Soit $t\in \R^*$, on vérifie que $$ \begin{pmatrix} 0&t\\-t&0 \end{pmatrix}\begin{pmatrix} 0&-1/t\\1/t&0 \end{pmatrix}=\begin{pmatrix} 0&-1/t\\1/t&0 \end{pmatrix}\begin{pmatrix} 0&t\\-t&0 \end{pmatrix}=\begin{pmatrix} 1&0\\0&1 \end{pmatrix}.$$ Donc $A(t)$ est inversible d'inverse $A(-1/t)$.
Soit $t\in \R^*$, on a $I_2-A=\begin{pmatrix} 1&-t\\t&1 \end{pmatrix}$ de déterminant $1+t^2\neq 0$, donc c'est une matrice inversible, et $(I_2-A)^{-1}=\begin{pmatrix} \dfrac{1}{1+t^2}&\dfrac{t}{1+t^2}\\ \dfrac{-t}{1+t^2}&\dfrac{1}{1+t^2} \end{pmatrix}$, et après $$R = \begin{pmatrix} 1&t\\-t&1 \end{pmatrix} \begin{pmatrix} \dfrac{1}{1+t^2}&\dfrac{t}{1+t^2}\\ \dfrac{-t}{1+t^2}&\dfrac{1}{1+t^2} \end{pmatrix}= \begin{pmatrix} \dfrac{1-t^2}{1+t^2}&\dfrac{2t}{1+t^2}\\ \dfrac{-2t}{1+t^2}&\dfrac{1-t^2}{1+t^2} \end{pmatrix}.$$ puis on a $$ {\,}^t R\cdot R=\begin{pmatrix} \dfrac{1-t^2}{1+t^2}&\dfrac{-2t}{1+t^2}\\ \dfrac{2t}{1+t^2}&\dfrac{1-t^2}{1+t^2} \end{pmatrix}\begin{pmatrix} \dfrac{1-t^2}{1+t^2}&\dfrac{2t}{1+t^2}\\ \dfrac{-2t}{1+t^2}&\dfrac{1-t^2}{1+t^2} \end{pmatrix} =\begin{pmatrix} \dfrac{(1-t^2)^2+4t^2}{(1+t^2)^2}&0\\ 0&\dfrac{4t^2+(1-t^2)}{(1+t^2)^2} \end{pmatrix}=I_2 $$ Donc $R$ est inversible et $R^{-1}={\,}^t R$.

(CCP 2015) Correction

Soit $z\in\C^*$, on considère la matrice $A(z)=\begin{pmatrix} 0&z&z^2\\ z^{-1}&0&z\\ z^{-2}&z^{-1}&0 \end{pmatrix}$.

  1. Calculer $A(z)^2$, en déduire que $A(z)$ est inversible et donner son inverse;
  2. Pour $n\in \N$, donner $A(z)^n$. Cette formule reste valable si $n\in \Z$?

Correction

Un calcul simple donne: $$A(z)^2= \begin{pmatrix} 2&z&z^2\\ z^{-1}&2&z\\ z^{-2}&z^{-1}&2 \end{pmatrix}=2\begin{pmatrix} 1&0&0\\ 0&1&0\\ 0&0&1 \end{pmatrix}+\begin{pmatrix} 0&z&z^2\\ z^{-1}&0&z\\ z^{-2}&z^{-1}&0 \end{pmatrix}=2I_3+A(z).$$ Autrement dit, $A(z)^2-A(z)=2I_3$ soit $A(z)\left(\dfrac{1}{2}\left(A(z)-I_3\right)\right)=I_3$. On en déduit alors que $A(z)$ est inversible et $A(z)^{-1}=\frac{1}{2}(A(z)-I_3)$.

(CCINP PSI 2019) Correction

Soit $a\in\mathbb{R}^*$ et $\quad A=(a_{i\,j})\in \MM_n(\R)$, avec: $$\forall (i,j)\in \inter{1,n}^2,\,\,a_{i\,j}=a^{j-i} \text{ si } i\leq j \text{ et } a_{i\,j} = 0 \text{ sinon }.$$ Montrer que $A$ est inversible et calculer son inverse.

Correction

Un calcul simple nous donne: $$\forall a\in \R^*,\quad A(a)^{-1}=\begin{pmatrix} 1&-a&0 &\cdots&\cdots&0\\ 0&1 &-a& 0 &\cdots&0\\ & & & & & \\ & & & & &\\ & & & & 1&-a\\ & & & & &1 \end{pmatrix}.$$

($\star\star$) Correction

Soient $n\in \N,\,n>1$ et $a,b\in \R$. On considère la matrice $A=(a_{i\,j})_{1\leq i,j\leq n}$ définie par: $$\forall 1\leq i,j\leq n,~~~~a_{i\,j}=b \text{ si } i\neq j \text{ et } a_{i\,i}=a.$$ Calculer $A^{-1}$ lorsqu'au c'est possible.

Correction

Il est clair que si $a=b$ alors la matrice n'est pas inversible, supposons alors dans la suite que $a\neq b$.
On va résoudre le système $(S):~~AX=Y$ avec $X={}^T(x_1\cdots x_n),\,Y= {}^T(y_1\cdots y_n)\in \MM_{n\,1}(\R)$. $$ (S)\Longleftrightarrow\left\{\begin{array}{ccccccccc} ax_1 &+& bx_2&+&\cdots &+&bx_n&=&y_1\\ bx_1 &+& ax_2&+&\cdots &+&bx_n&=&y_2\\ \vdots&& & & &&&&\\ bx_1 &+& bx_2&&\cdots &+&ax_n&=&y_n \end{array} \right. $$ En additionnant les lignes de ce système, on obtient : \begin{equation} (a+(n-1)b)\dsp \sum_{k=1}^nx_k=\dsp\sum_{k=1}^ny_k,\quad\quad\quad (\heartsuit) \end{equation} Supposons que $a+(n-1)b\neq 0$ (sinon la matrice $A$ n'est pas inversible!).
En remarquant que chaque ligne du système $(S)$ peut s'écrire sous la forme: $$ bx_1 +\cdots +ax_k +(bx_k-bx_k)+bx_{k+1}+\cdots+bx_n=y_k \Longrightarrow (a-b)x_k+b\dsp\sum_{j=1}^nx_j=y_k$$ donc en utilisant la relation ($\heartsuit$), on trouve $$ \forall k\in \{1,\cdots,n\},~~~~x_k=\dfrac{\big(a+(n-2)b\big)y_k-b\dsp\sum_{ \underset{j\neq k}{j=1}}^n y_j}{(a-b)(a+(n-1)n)}$$ Ce qui donne $$A^{-1}=\dfrac{1}{(a-b)\big(a+(n-1)b\big)}\left( \begin{array}{cccc} a+(n-2)b& -b &\cdots & -b\\ -b &\ddots& &\vdots\\ \vdots & &\ddots &-b\\ -b&\cdots&-b&(a+(n-2)b) \end{array}\right).$$

($\star\star$) Correction

Soient $a_1,\cdots,a_n\in \R_+^*$. On considère la matrice $A=\begin{pmatrix} 1+a_1 &1 &\cdots&\cdots&1\\ 1 &1+a_2 &\ddots& &\vdots\\ \vdots&\ddots&\ddots&\ddots& \\ & & &\ddots&1\\ 1 &\cdots&\cdots&1 &1+a_n \end{pmatrix}.$ Pour $X={\,}^t (x_1\cdots x_n)\in \MM_{n\,1}(\R)$ calculer le produit ${\,}^t X AX$. En déduire que $A$ est inversible.

Correction

Soit $X={\,}^t (x_1\cdots x_n)\in \MM_{n\,1}(\R)$, on a $${\,}^t X A X = \begin{pmatrix} x_1&\cdots&x_i&\cdots&x_n \end{pmatrix} \begin{pmatrix} \dsum_{k=1}^n x_k +a_1x_1\\ \vdots\\ \dsum_{k=1}^n x_k +a_ix_i\\ \vdots\\ \dsum_{k=1}^n x_k +a_nx_n\\ \end{pmatrix} =\left(\dsum_{k=1}^n x_k\right)^2+\dsum_{j=1}^na_jx_j^2$$ En particulier, on trouve que ${\,}^t X A X> 0$ pour $X\neq 0$.
Supposons que $A$ n'est pas inversible, alors il existe $X_0\in \R^n$ non nul tel que $AX_0=0$, donc ${\,}^t X_0 AX_0=0$, ce qui est impossible. Donc $A$ est inversible.

Applications linéaires

($\star\star$) Correction

Soit $A=\begin{pmatrix} 0&\frac{1}{n}&&\\ \frac{n}{n}&\ddots&\ddots&\\ &\ddots&\ddots&\frac{n}{n}\\ &&\frac{1}{n}&0 \end{pmatrix}\in\MM_{n+1}(\R)$.

  1. Trouver un endomorphisme $u\in \R_n[X]$ dont la matrice dans la base canonique est $A$.
  2. Pour $j\in \inter{0,n}$, on pose $P_j=(X-1)^j(X+1)^{n-j}$. Montrer que $(P_j)_{0\leq j\leq n}$ est une base de $\R_n[X]$ puis donner la matrice de $u$ dans cette base.

Correction

  1. Notons $f$ l'endomorphisme de $\R_n[X]$ associé à la matrice $A$ dans la base canonique. Alors, on a $$\left\{ \begin{array}{lr} f(1)= X&\\ f(X^k)=\dfrac{k}{n}X^{k-1}+\dfrac{n-k}{n}X^{k+1}=X^{k+1}+\dfrac{k}{n}X^{k-1}(1-X^2)&\forall k\in \{1,\cdots,n-1\}\\ f(X^n)=X^{n-1}& \end{array} \right. $$ On remarque que $f$ coïncide avec l'endomorphisme $\varphi$ (définie par $\varphi(P)=XP+\dfrac{(1-X^2)}{n}P'$)sur la base canonique de $\R_n[X]$ donc $$\boxed{ \forall P\in \R_n[X],~~f(P)=\varphi(P)=XP+\dfrac{(1-X^2)}{n}P'}.$$
  2. c.f.la correction de DS 2.

($\star\star$) Correction

On note $E=\big\{M\in\MM_n(\K),\,\, {\,}^t M=-M\big\}$. Soit $A\in\MM_n(\K)$. On définit $\fonct{f}{E}{E}{M}{{\,}^t AM+MA.}$

  1. Montrer que $f\in\LL(E)$.
  2. Déterminer $\tr(f)$ en fonction de $\tr(A)$.

Correction

Exercice similaire à l'Exercice ci-après, avec ici la base $\BB=(F_{ij}=E_{ij}-E_{ji})_{1\leq i< j\leq n}$.
La base dual $\BB^*=(F_{ij}^*)$ avec $F^*_{ij}=E_{ij}^*$.

($\star$) Correction

Soient $n\in \N^*,\,A\in\MM_n(\K)$ une matrice vérifiant $A^k=I_n$ avec $k\in\N^*$.
On pose $B=I+A+A^2+\dots+A^{k-1}$, et on note $u,v$ les endomorphismes de $\K^n$ canoniquement associés à $A$ et $B$. Montrer que: $$\Ker(u-\mathrm{Id})=\im v, \quad \im (u-\mathrm{Id})=\Ker v, \quad \K^n=\Ker v\oplus\im v \text{ et } \tr B=k\rg B.$$

Correction

On a $u^k-\mathrm{Id}=(u-\mathrm{Id})(\mathrm{Id}+u+u^2+\dots +u^{k-1})=(u-\mathrm{Id})\circ v=0$ et donc $\im v\subset\Ker(u-\mathrm{Id})$.
Inversement, soit $x\in\Ker(u-\mathrm{Id})$. Alors $u(x)=x$. Donc $v(x)=(\mathrm{Id}+u+\dots +u^{k-1})(x)=kx$ d'où $x=v\left(\frac{x}{k}\right)$ ce qui montre que $x\in\im v$.
D'où $\boxed{ \Ker(u-\mathrm{Id})=\im v}$. Comme $v\circ(u-\mathrm{Id})=0$, on en déduit $\im (u-\mathrm{Id})\subset \Ker v$, on conclut alors avec les dimensions, puisque d'après le résultat précédent, $$\dim\Ker v = n-\rg v= n-\dim \Ker(u-\mathrm{Id}) = \rg(u-\mathrm{Id}).$$ Soit $x\in \Ker v\cap \im v$. Alors $x\in\Ker(u-\mathrm{Id})$ donc $u(x)=x$. De $x\in\Ker v$ on tire $kx=0$ donc $x=0$. Soit $\boxed{\Ker v\cap \im v=\{0\}}$.
En utilisant le théorème du rang, ces sevs sont supplémentaires.
On écrit alors la matrice de $v$ dans une base adaptée à cette décomposition. Puisque la restriction de $v$ à $\im v$ est l'homothétie de rapport $k$, on obtient l'égalité voulue.

($\star\star$) Correction

Soit $A$ une matrice non nulle de $\MM_n(\C)$ et $\varphi$ une application de $\MM_n(\C)$ dans lui-même définie par $\varphi(X)=-X+(\tr(X))A$.

  1. A quelle condition $\varphi$ n'est-elle pas bijective? Caractériser alors $\varphi$.
  2. Discuter et résoudre, pour $B\in \MM_n(\C)$, l'équation $\varphi(X)=B$.

Correction

  1. Il est clair que $\varphi$ est une application linéaire de $\MM_n(\C)$ dans lui même. Donc $\varphi$ n'est pas bijective ssi $\varphi$ n'est pas injective.
    Supposons que $\varphi$ n'est pas injective, alors $\Ker \varphi\neq \{0\}$. Soit $B\in \Ker \phi$ non nulle, on a $$\varphi(B)=0\Longleftrightarrow B=\tr(B)A\Longleftrightarrow \tr(B)\neq 0$$ De plus, on a $$0=\tr (\varphi(B))=-\tr(B)+\tr (\tr(B)A)=-\tr(B)+\tr(B)\tr(A)=\tr(B)\big(1-\tr(A)\big)\Longrightarrow \tr(A)=1.$$ Inversement, si $\tr(A)=1$ alors $\varphi(A)=0$ et donc $\Ker \varphi \neq \{0\}$ i.e. $\varphi$ n'est pas injective.
    Conclusion: $\varphi$ n'est bijective ssi $\tr(A)=1$.
    Supposons qu'on est dans le cas ou $\tr(A)=1$, alors $$\forall B\in \MM_n(\C),~~\tr(\varphi (B))=0\Longrightarrow \varphi^2(B)=-\varphi(B).$$ Si on note $p=-\varphi$, on a alors $p\circ p=p$ i.e. $p$ est un projecteur, dont le noyau est $\C \cdot A$ et l'image $\{B\in \MM_n(\C),~~\tr(B)=0\}$.
  2. On distingue ici deux cas;
    1. Si $\tr (A)\neq 1$, alors $\varphi$ est bijective donc l'équation $\varphi(X)=B$ admet une et une seule solution. $$\tr (\varphi(X))=-\tr(X)+\tr(X)\tr(A)=\tr(B)\Longrightarrow \tr(X)=\dfrac{\tr(B)}{\tr(A)-1}.$$ Ce qui donne, $$B=-X+\tr(X)A\Longrightarrow \boxed{X=\dfrac{\tr(B)}{\tr(A)-1}A-B}.$$
    2. Si $\tr(A)=1$, alors $\varphi$ n'est pas bijective et $(-\varphi)$ est un projecteur. On distingue également ici deux cas:
      1. Si $\tr(B)\neq 0$ alors $B\not\in \im(\varphi)$ donc l'équation $\varphi(X)=B$ n'admet pas de solution.
      2. Si $\tr(B)=0$, alors $(-\varphi)(B)=B$ ce qui donne $\varphi(-B)=B$. On en déduit que l'équation $\varphi (X)=B$ admet l'ensemble de solutions $-B+ \Ker\varphi$

(CCP) Correction

On note $E=\R^3$ muni de sa base canonique $\BB$. On considère $P=\{(x,y,z)\in \R^3,\,x+y+z=0\}$ et $D=\Vect \left(\left(1,3,2\right)\right)$.

  1. Montrer que $E=P\oplus D$.
  2. Donner la matrice $A$ de la projection sur $P$ parallèlement à $D$ dans la bas $\BB$.

Correction

Soit $(x,y,z)\in P\cap D$ alors $x+y+z=0$ et il existe $\lambda\in \R$ tel que $$(x,y,z)=\lambda (1,3,2)\Longrightarrow \lambda+3\lambda+2\lambda =0 \Longrightarrow \lambda =0$$ donc $P\cap D=\{0\}$.

Soit $X=(x,y,z)\in \R^3$, on note $\alpha= x+y+z$, on peut alors écrire $$X = (X-\dfrac{\alpha}{6}(1,2,3))+\dfrac{\alpha}{6}(1,2,3) =X_P+X_D$$ Clairement, $X_D\in D$, et un petit calcul montre que $X_P\in P$, ceci prouve que $\R^3=P+D$. On en déduit alors que $\R^3=P\oplus D$.

Le calcul précédent montre que la projection $u$ sur $P$ parallèlement à $D$ est définie par : $$\forall (x,y,z)\in \R^3,\quad u((x,y,z))=\dfrac{1}{6}\left(5x-y-z,-3x+3y-3z,-2x-2y+4z\right)$$ Ce qui donne, $$A=\dfrac{1}{6}\begin{pmatrix} 5&-1&-1\\ -3&3&-3\\ -2&-2&4 \end{pmatrix} $$

($\star$) Correction

Soit $f$ l'endomorphisme de $\R^3$ dont la matrice par rapport à la base canonique $(e_1, e_2, e_3)$ est $A= \left( \begin{array}{ccc} 15 & -11 & 5 \\ 20 & -15 & 8 \\ 8 & -7 & 6 \end{array} \right).$ Montrer que les vecteurs $ e'_1 = 2e_1+3e_2+e_3,\quad e'_2 = 3e_1+4e_2+e_3,\quad e'_3 = e_1+2e_2+2e_3$ forment une base de $\R^3$ et calculer la matrice de $f$ par rapport à cette base.

Correction

Notons l'ancienne base $\mathcal{B}=(e_1,e_2,e_3)$ et ce qui sera la nouvelle base $\mathcal{B}'=(e'_1,e'_2,e'_3)$. Soit $P$ la matrice de passage qui contient -en colonnes- les coordonnées des vecteurs de la nouvelle base $\mathcal{B}'$ exprimés dans l'ancienne base $\mathcal{B}$ $$P=\begin{pmatrix} 2 & 3 & 1 \\ 3 & 4 & 2 \\ 1 & 1 & 2 \\ \end{pmatrix}$$ On vérifie que $P$ est inversible (on va même calculer son inverse) donc $\mathcal{B}'$ est bien une base. De plus $$P^{-1} = \begin{pmatrix} -6 & 5 & -2 \\ 4 & -3 & 1 \\ 1 & -1 & 1 \\ \end{pmatrix} \text{ et on calcule } B=P^{-1} A P = \begin{pmatrix} 1 & 0 & 0 \\ 0 & 2 & 0 \\ 0 & 0 & 3 \\ \end{pmatrix}$$ $B$ est la matrice de $f$ dans la base $\mathcal{B}'$.

(Mines 2018) Correction

On considère l'application $\varphi$ qui à une matrice $M=(C_1,\cdots,C_n)$ associé la matrice $M'=(C_1',\cdots,C_n')$ avec $C_j'=\dsum_{k\neq j}C_k$.

  1. On suppose que $n=3$. Donner la matrice de $\varphi$ dans la base canonique de $\MM_3(\R)$.
  2. On souhaite résoudre le système $\varphi(M)=\lambda M$ avec $\lambda\in \R$ et $M\in\MM_n(\R)$ non nulle.
    1. Montre que s'il existe $M\in\MM_n(\R)$ non nulle telle que $\varphi(M)=\lambda M$ alors $\lambda\in\{-1,n-1\}$.
    2. Résoudre le système $\varphi(M)=- M$, puis $\varphi(M)=(n-1) M$.
  3. Montrer que $\MM_n(\R)=\Ker (\varphi+\mathrm{Id})\oplus \Ker(\varphi-(n-1)\mathrm{Id})$.
Correction

  1. Soit $(E_{i\,j})_{1\leq i,j\leq 3}$ la base canonique de $\MM_3(\R)$.
  2. Soit $\lambda\in \R$, supposons qu'il existe $M\neq 0$ tel que $\varphi(M)=\lambda M$. On note $K=\dsum_{k=1}^nC_j \in \R^n$ la somme des colonnes de la matrice $M$.\\ Alors $$\forall j\in \inter{1,n},\quad \lambda C_j=\dsum_{k\neq j}C_k=\dsum_{k=1}^nC_k-C_j\Longrightarrow \lambda K= nK-K =(n-1)K$$ Si $K\neq 0$ alors $\lambda= n-1$, supposons que $K=0$, donc, $$\forall j\in \inter{1,n},\quad \lambda C_j=\dsum_{k\neq j}C_k=\dsum_{k=1}^nC_k-C_j=K-C_j\Longrightarrow \lambda =-1$$ conclusion, si l'équation $\varphi(M)=\lambda M$ admet une solution non nulle alors $\lambda\in\{-1,n-1\}$.

($\star\star$) Correction

Soit $A \in \MM_n(\R)$ et $u : \left\{ \begin{array}{ccc} \MM_n(\R) & \rightarrow & \MM_n(\R) \\ M & \mapsto & AM+MA \end{array} \right.$ . Montrer que $u\in \LL(\MM_n(\R))$ et calculer sa trace.

Correction

Soient $M,T\in \MM_n(\R)$ et $\lambda\in \R$. On a: $$ \begin{array}{lcl} u(\lambda M+T)&=&A(\lambda M+T)+(\lambda M +T)A=\lambda A M+AT+\lambda M A + TA \\ &&\\ &=& \lambda (AM+MA)+(AT+TA)=\lambda u(M)+u(T) \end{array} $$ Donc $u\in \LL(\MM_n(\R)$.
Soit $\BB=(E_{ij})_{1\leq i,j\leq n}$ la base canonique de $\MM_n(\R)$ et $\BB^*=(E^*_{ij})_{1\leq i,j\leq n}$ la base dual de $\MM_n(\R)^*$. Alors $\tr u = \dsum_{i,j}E_{ij}^*\big(u(E_{ij})\big)$.
Si $A=(a_{k\ell})_{k,\ell}$, on a $$ u(E_{ij})= \begin{array}{c} \begin{array}{ccccccccccc} & & && &\,\,\underset{\downarrow}{C_i} &&& &\,\,\,\,\,\,\,\underset{\downarrow}{C_j} & \end{array} \\ \begin{array}{c} \\ \\ L_i\longrightarrow \\ \\ \\ L_j\longrightarrow \\ \\ \end{array} \left( \begin{array}{ccccccccc} & & & & && a_{1i} & &\\ & &{}_{\text{\Huge{0}}} & & && a_{2i} & {}_{\text{\Huge{0}}} &\\ & & & & && \vdots & &\\ a_{j1}& & &\cdots &a_{ji}&\cdots &\boxed{a_{ii}+a_{jj}}&\cdots&a_{jn}\\ & & & & &&\vdots & & \\ & &{}_{\text{\Huge{0}}} & & && a_{ji} & {}_{\text{\Huge{0}}} &\\ & & & & &&\vdots & & \\ & & & & &&a_{ni} & & \end{array} \right) \end{array} $$ Donc $E^*_{ij}(u(E_{ij}))=a_{ii}+a_{jj}$. D'où, $\tr u = \dsum_{1\leq i,j\leq j}(a_{ii}+a_{jj})=\boxed{2n\tr A}$.

Matrices semblabes

($\star$) Correction

Pour tout $A\in \MM_n(\K)$, on pose $\varphi(A)=\dsum_{(i,j)\in \inter{1,n}^2}a_{i\,j}a_{j\,i}$. Montrer que si $A$ et $B$ sont semblables, alors $\varphi(A)=\varphi(B)$.

Correction

Soit $A=(a_{i\,j})\in \MM_n(\K)$, on note $A^2=(a'_{i\,j})\in \MM_n(\K)$, on a $$\varphi(A)=\dsum_{(i,j)\in \inter{1,n}^2}a_{i\,j}a_{j\,i}=\sum_{i=1}^n\left(\sum_{j=1}^na_{i\,j}a_{j\,i}\right)=\sum_{i=1}^na_{i\,i}'=\tr (A^2).$$ Si $A,\,B$ sont semblables, il en va de même pour $A^2$ et $B^2$, en particulier $\tr (A^2)=\tr (B^2)$ d'où $\boxed{\varphi(A)=\varphi(B)}$.

($\star\star$) Correction

Montrer que toute matrice de trace nulle est semblable à une matrice à diagonale nulle.

Correction

On commence par démontrer le résultat classique: si $u$ est un endomorphisme tel que , pour tout $x\in E$, le système $\{x,u(x)\}$ soit lié, alors $u$ est une homothétie (on a, si $x\neq 0$, $u(x)=\lambda_x x$ puis on montre que $\lambda_x=\lambda_y$ en distinguant selon que $\{x,y\}$ est libre ou non...).
Soit donc $u$ un endomorphisme d'un $\K$-ev de dimension finie, de trace nulle. Il s'agit de montrer qu'il existe une base de $E$ où la matrice de $u$ est à diagonale nulle.

  1. le résultat est immédiat si $u$ est une homothétie (car alors, $u=0$!).
  2. Sinon, d'après la remarque précédente, il existe $e_1\in E$ tel que $\{e_1,u(e_1)\}$ soit libre. On pose alors $e_2=u(e_1)$. D'après le th. de la base incomplète, il existe une base $\mathscr{B}$ de $E$ de la forme $(e_1,e_2,\ldots,e_n)$. Dans une telle base, la matrice de $u$ est de la forme $\left(\begin{array}{cccc} 0&*&\ldots&*\\ 1& & & \\ 0& & B &\\ \vdots& &\\ 0& & & \end{array}\right)$, avec $\tr B=0$, et il ne reste plus qu'à faire une récurrence sur $n$.

(CCP PC 2001) Correction

Soit $a\in\R$, on note $A_a=\begin{pmatrix}4-a&1&-1\\-6&-1-a&2\\2&1&1-a\end{pmatrix}$ et $B_a=\begin{pmatrix}1-a&1&0\\0&1-a&0\\0&0&2-a\end{pmatrix}$. Montrer que $A_a$ et $B_a$ sont semblables pour tout $a\in\R$.

Correction

Soit $f$ l'application canoniquement associée à $A_a$, dir que $A_a$ et $B_a$ sont semblables revient à dire que $B_a$ est la matrice de $f$ dans une autre base $\BB'=(b_1,b_2,b_3)$ de $\R^3$, i.e. il faut qu'on ait $\left\{\begin{array}{lcl} f(b_1)&=&(1-a)b_1\\ f(b_2)&=&b_1+(1-a)b_2\\ f(b_3)&=&(2-a)b_3 \end{array}\right.$.
On pose $b_1=xe_1+ye_2+ze_3$, puis on résout le système $$ \begin{array}{lcl} f(b_1)=(1-a)b_1&\Longleftrightarrow& \begin{pmatrix} 4-a&1&-1\\ -6&-1-a&2\\ 2&1&1-a \end{pmatrix}\begin{pmatrix} x\\y\\z \end{pmatrix}=(1-a)\begin{pmatrix} x\\y\\z \end{pmatrix}\\ &&\\ &\Longleftrightarrow&\left\{\begin{array}{lcl} 3x+y-z&=&0\\ -6x-2y+2z&=&0\\ 2x+y&=&0 \end{array}\right. \\ &&\\ &\Longleftrightarrow& b_1\in \Vect(e_1-2e_2+e_3). \end{array}$$ On peut alors prendre $b_1=e_1-2e_2+e_3$. Cherchons maintenant $b_2=xe_1+ye_2+ze_3$ tel que $f(b_2)=b_1+(1-a)b_2$ ce qui donne $$ \begin{array}{lcl} \begin{pmatrix} 4-a&1&-1\\ -6&-1-a&2\\ 2&1&1-a \end{pmatrix}\begin{pmatrix} x\\y\\z \end{pmatrix}&=&\begin{pmatrix} 1\\-2\\1 \end{pmatrix}+(1-a)\begin{pmatrix} x\\y\\z \end{pmatrix}\\ &&\\ &\Longleftrightarrow&\left\{\begin{array}{lcl} 3x+y-z&=&1\\ -6x-2y+2z&=&-2\\ 2x+y&=&1 \end{array}\right.\\ &&\\ &\Longleftrightarrow& b_2\in e_1-e_2+e_3+\Vect(e_1-2e_2+e_3). \end{array} $$ On peut alors prendre $b_2=e_1-e_2+e_3$. Cherchons $b_3=xe_1+ye_2+ze_3$ tel que $f(b_3)=(2-a)b_2$ ce qui donne le système suivant: $$ \begin{array}{lcl} \begin{pmatrix} 4-a&1&-1\\ -6&-1-a&2\\ 2&1&1-a \end{pmatrix}\begin{pmatrix} x\\y\\z \end{pmatrix}&=&(2-a)\begin{pmatrix} x\\y\\z \end{pmatrix}\\ &&\\ &\Longleftrightarrow &\left\{\begin{array}{lcl} 2x+y-z&=&0\\ -6x-3y+2z&=&0\\ 2x+y-z&=&0 \end{array}\right.\\ &\Longleftrightarrow & b_3\in \Vect(e_1-2e_2) \end{array} $$ Il faut maintenant vérifier que $(b_1,b_2,b_3)$ est une base de $\R^3$. Soient $\alpha,\beta,\gamma\in \R$ tels que $\alpha b_1+\beta\,b_2+\gamma b_3=0$ alors $$\alpha (e_1-2e_2+e_3)+\beta (e_1-e_2+e_3)+\gamma (e_1-2e_2)=0\Longrightarrow\left\{\begin{array}{lcl} \alpha+\beta+\gamma&=&0\\ -2\alpha-\beta-2\gamma&=&0\\ \alpha+\beta&=&0 \end{array}\right.$$ Ce qui donne $ \alpha=\beta=\gamma=0$. Donc la famille $\BB'=(b_1,b_2,b_3)$ est libre donc base de $\R^3$ et par construction la matrice de $f$ dans cette base est $B_a$, ceci prouve que les matrices $A_a$ et $B_a$ sont semblables.

($\star$) Correction

Soit $A=\begin{pmatrix} 1&2&3\\ 3&1&2\\ 2&3&1 \end{pmatrix}$. Montrer que $A$ et ${\,}^t A$ sont semblables.

Correction

Soient $\BB=(e_1,e_2,e_3)$ la base canonique de $\R^3$ et $u\in \LL(\R^3)$ tel que la matrice de $u$ dans $\BB$ soit $A$. On note $\BB'=(e_2,e_1,e_3)$, $\BB'$ est une base de $\R^3$ et la matrice de $u$ dans $\BB'$ est ${\,}^t A$.

($\star$) Correction

Soient $A = \begin{pmatrix} 1 &1 &0 &0 \cr 0 &1 &1 &0 \cr 0 &0 &1 &1 \cr 0 &0 &0 &1 \cr \end{pmatrix}$ et $B = \begin{pmatrix} 1 &2 &3 &4 \cr 0 &1 &2 &3 \cr 0 &0 &1 &2 \cr 0 &0 &0 &1 \cr \end{pmatrix}$. Montrer que $A$ et $B$ sont semblables. (On cherchera $P$ inversible telle que $PB = AP$)

Correction

$P = \begin{pmatrix} a &b &c &d \cr 0 &2a &3a+2b &4a+3b+2c \cr 0 &0 &4a &12a+4b \cr 0 &0 &0 &8a \cr \end{pmatrix}$ est inversible pour $a\neq 0$.

($\star$) Correction

Montrer que les matrices $M=\begin{pmatrix} 1&4\\1&1 \end{pmatrix}$ et $D=\begin{pmatrix} 3&0\\0&-1 \end{pmatrix}$ sont semblables.
Soit $A\in \MM_n(\R)$. On pose $B=\begin{pmatrix} A&4A\\A&A \end{pmatrix},\,C=\begin{pmatrix} 3A&0\\0&-A \end{pmatrix}\in \MM_{2n}(\R)$. Montrer que $B$ et $C$ sont semblables.

Correction

On cherche $U\in \R^2$ (resp. $V\in \R^2$ tel que $MU=3U$ (resp. $MV=-V$), on trouve $U=\begin{pmatrix} 2\\1 \end{pmatrix},\, V=\begin{pmatrix} -2\\1 \end{pmatrix}$. On pose alors $P=\begin{pmatrix} 2&-2\\1&1 \end{pmatrix}$, et après calcul, on trouve $D=P^{-1}MP$. Donc $M$ et $D$ sont semblable.
On pose $Q=\begin{pmatrix} 2I_n&-2I_n\\ I_n&I_n \end{pmatrix}\in \MM_{2n}(\R)$, la matrice $Q$ est inversible d'inverse $Q^{-1}=\dfrac{1}{4}\begin{pmatrix} I_n&2I_n\\ -I_n&2I_n \end{pmatrix}$ et on vérifie $C=Q^{-1}BQ$.

Matrices par blocs

($\star$) Correction

Soient $A,B\in \MM_n(\C)$. On pose $M=\begin{pmatrix} A & A\\A & B \end{pmatrix}\in \MM_{2n}(\C)$.

  1. Calculer le rang de $M$ en fonction de $A$ et $B$.
  2. Calculer $M^{-1}$ lorsqu'elle existe.

Correction

  1. On fait les opération suivantes sur les colonnes de la matrice $M$: $$\forall j\in \inter{n+1,2n},\quad C_j\longleftarrow C_j-C_{j-n} \Longrightarrow \rg (M)=\rg ( \begin{pmatrix} A&0\\A&B-A \end{pmatrix}. $$ Ce qui donne $\boxed{\rg (M)=\rg (A)+\rg (B-A)}$.
  2. La matrice $M$ est inversible ssi $A$ et $B-A$ le sont. Supposons que c'est le cas, on cherche à résoudre: $$ X,Y,Z,W\in \MM_n(\C),\quad \begin{pmatrix} A&A\\A&B \end{pmatrix} \begin{pmatrix} X&Y\\Z&W \end{pmatrix} = \begin{pmatrix} I_n&0\\0&I_n \end{pmatrix}\Longrightarrow \left\{\begin{array}{lcl} AX+AZ&=&I_n\\ AY+AW&=&0\\ AX+BZ&=&0\\ AY+BW&=&I_n \end{array} \right. $$ On en déduit alors, $$\boxed{M^{-1}=\begin{pmatrix} A^{-1}+(B-A)^{-1}&-(B-A)^{-1}\\ -(B-A)^{-1}&(B-A)^{-1} \end{pmatrix}.}$$

(CCP PC 2001) Correction

Soit $E$ un espace vectoriel de dimension $n$ ($n\geq 1$). Soit $u$ un endomorphisme de $E$ tel que $\Ker u = \im u$.

  1. Montrer que $\dim E =2p$ avec $p\in\N^*$.
  2. Montrer qu'il existe une base $\mathscr{B}$ de $E$ dans laquelle la matrice de $u$ est de la forme $\displaystyle \mathrm{mat}_{\mathscr{B}} u = \begin{bmatrix} 0 & I_p \\ 0 & 0 \end{bmatrix}.$

Correction

Notons $p=\dim\im u\in \N^*$.

  1. D'après le théorème de rang, on a $\dim E = \dim \Ker u + \dim \im u = 2\dim\im u=2p$.
  2. On note $F$ un supplémentaire de~$\Ker u$. Alors $E=\Ker u \oplus F$. On sait que la restriction $u|_F:F \rightarrow \im u$ est un isomorphisme. On choisit donc une base $\mathscr{B}_1=(e_1,\dots,e_p)$ de~$F$, et son image $\mathscr{B}_2=u(\mathscr{B}_1)$ est une base de $\im u$. Puisque ces deux espaces sont en somme directe, la concaténation de leurs bases est une base de $E$. La base $\mathscr{B}=(\mathscr{B}_2,\mathscr{B}_1)$ a bien la propriété demandée.

() Correction

Soit $A_1,\cdots,A_p$ des matrices de $\MM_n(\K)$ tels que $\dsum_{k=1}^pA_k\in \mathrm{GL}_n(\K)$. Déterminer le rang des matrices suivantes: $$A=\left(A_1\,A_2\,\cdots\,A_p\right)\in \MM_{n\,np}(\K),\quad C=\begin{pmatrix} A_1&A_2&\cdots&A_p&0\\ 0&A_1&\cdots&A_{p-1}&A_p \end{pmatrix}.$$

Correction

Pour $k\in \inter{1,p}$, on note $S_k=\dsum_{j=1}^pA_j$ par hypothèse $s_p\in \mathrm{GL}_n(\K)$. On note également $P=\begin{pmatrix} I_n&\cdots&I_n\\ &\ddots&\vdots\\ (0)& &I_n \end{pmatrix}\in \mathrm{GL}_{np}(\K)$, alors $\rg(A)=\rg(AP)=\rg((S_1\,S_2\cdots S_p))=n$.

($\star$) Correction

Soient $n,p\in \N^*$, $A\in \MM_n(\K),\,B\in \MM_p(\K)$ et $C\in \MM_{n,p}(\K)$.

  1. Montrer que $\rg \begin{pmatrix} A&0\\ 0&B \end{pmatrix}=\rg (A)+\rg (B)$.
  2. Montrer que $\rg \begin{pmatrix} I_n&C\\ 0&B \end{pmatrix}=n+\rg (B)$.

Correction

Supposons que $\rg (A)=r\leq n$ et $\rg (B)=s\leq p$, alors il existe $Q_1,\,Q_2\in GL_n(\K),\,\,R_1,R_2\in GL_p(\K)$ tels que $$A = Q_1\begin{pmatrix} I_r&0\\ 0&0 \end{pmatrix}Q_2,\text{ et } B=R_1\begin{pmatrix} I_s&0\\ 0&0 \end{pmatrix}R_2.$$ On pose alors $D_1=\begin{pmatrix} Q_1&0\\ 0&R_1 \end{pmatrix}\in GL_{n+p}(\K)$ et $D_2=\begin{pmatrix} Q_2&0\\ 0&R_2 \end{pmatrix}\in GL_{n+p}(\K)$, et on a $$D_1\begin{pmatrix} Q_r&0\\ 0&R_s \end{pmatrix}D2=\begin{pmatrix} Q_1Q_r&0\\0&R_1R_s \end{pmatrix}\begin{pmatrix} Q_2&0\\ 0&R_2 \end{pmatrix}=\begin{pmatrix} A&0\\ 0&B \end{pmatrix}$$ La multiplication par une matrice inversible ne change pas le rang, on en déduit, $$\rg \begin{pmatrix} A&0\\ 0&B \end{pmatrix}=\rg \begin{pmatrix} Q_r&0\\ 0&R_s \end{pmatrix} =\rg \begin{pmatrix} I_r&0&0&0\\ 0& 0& 0 &0\\ 0&0&I_s&0\\ 0&0&0&0 \end{pmatrix} =\rg (A)+\rg(B).$$

(Mines 2017) Correction

Soient $n$ et $p$ deux entiers naturels non nuls. Soient $A\in \MM_{p,n}(\C)$ et $B\in \MM_{n,p}(\C)$. On considère dans $\MM_{n+p}(\C)$ la matrice $$M=\begin{pmatrix}0_{n}&B\\A&0_{p}\end{pmatrix}$$

  1. Calculer le carré de la matrice $\begin{pmatrix}0_{n}&B\\0_{p,n}&0_{p}\end{pmatrix}$ de $\MM_{n+p}(\C)$. Montrer ensuite que $M$ est la somme de deux matrices de carré nul.
  2. On considère dans $M_{n+p}(\C)$ la matrice diagonale par blocs $D=\begin{pmatrix}I_{n}&0_{n,p}\\0_{p,n}&-I_{p}\end{pmatrix}$. Montrer que $D$ est inversible, calculer $D^{-1}$ puis $DMD^{-1}$, et en déduire que $M$ est semblable à $-M$.

Correction

  1. On a: $$\begin{pmatrix}0_{n}&B\\0_{p,n}&0_{p}\end{pmatrix}\begin{pmatrix}0_{n}&B\\0_{p,n}&0_{p}\end{pmatrix} = \begin{pmatrix}0_{n}&0_{n,p}\\0_{p,n}&0_{p}\end{pmatrix}$$ De la même façon, on trouve $ \begin{pmatrix}0_{n}&0_{n,p}\\A&0_{p}\end{pmatrix}^2=0$. En particuler, on a $$ M =\begin{pmatrix}0_{n}&0_{n,p}\\A&0_{p}\end{pmatrix}+\begin{pmatrix}0_{n}&B\\0_{p,n}&0_{p}\end{pmatrix}$$ Ce qui répond à la question.
  2. La matrice $D$ est inversible et on a $D^{-1}=\begin{pmatrix} I_n& 0_{n,p}\\ 0_{p,n}&-I_p\end{pmatrix}$. Puis $$DMD^{-1} = \begin{pmatrix}I_{n}&0_{n,p}\\0_{p,n}&-I_{p}\end{pmatrix} \begin{pmatrix}0_{n}&B\\A&0_{p}\end{pmatrix} \begin{pmatrix}I_{n}&0_{n,p}\\0_{p,n}&-I_{p}\end{pmatrix}= -M.$$ Donc $M$ et $-M$ sont semblabes.
(CCP PSI 2018) Correction

Soit $A\in\MM_n(\R)$, on définit la matrice $B\in \MM_{2n}(\R)$ par $B=\begin{pmatrix} A&2A\\ A&2A \end{pmatrix}$.

  1. Montrer que la matrice $B$ n'est pas inversible. On suppose que $A$ est inversible, déterminer $\Ker(B)$.
  2. Soit $X=\begin{pmatrix} X_1\\X_2 \end{pmatrix}\in \R^{2n}$ avec $X_i\in \R^n$. Donner une CNS sur $X_1,\,X_2$ pour que $X\in \im(B)$.

Correction

On pose $N=\begin{pmatrix} -2I_n&-2I_n\\ I_n&I_n \end{pmatrix}\in \MM_{2n}(\R)$ $N\neq 0$ et $BN=0$ donc $B$ n'est pas inversible.
Si on suppose que $A$ inversible alors $\rg(B)\geq n$ donc $\dim (\Ker (B))\leq n$. Soit $X=\begin{pmatrix} X_1\\X_2 \end{pmatrix}\in \R^{2n}$ avec $X_i\in \R^n$, on a $$X\in \Ker (B)\Longrightarrow BX=0\Longrightarrow \begin{pmatrix} AX_1+2AX_2\\ AX_1+2AX_2 \end{pmatrix}0\Longrightarrow AX_1=-2AX_2 \Longrightarrow X_1=-2X_2.$$ Ainsi $F=\{{\,}^t (-2X X), \,X\in \R^n\}\subset \Ker (B)$ or $\dim (F)=n$, on en déduit alors que $\Ker (B)=F$.
Soit $X=\begin{pmatrix} X_1\\X_2 \end{pmatrix}\in \R^{2n}$ avec $X_i\in \R^n$, on a $$X\in \im (B) \Leftrightarrow \exists U,V\in \R^n,\, X=B\begin{pmatrix} U\\V \end{pmatrix} \Leftrightarrow \exists U,V\in \R^n \left\{\begin{array}{l} X_1=AU+2AV\\ X_2=AU+2AV \end{array} \right.$$

(CCINP PSI 2019) Correction

  1. Soit $u\in \LL(\R^{2n})$ telle que $u^2=0$ et $\rg (u)=n$. Montrer que $\Ker(u)=\im (u)$ et qu'il existe une base $\BB$ dans laquelle $u$ a pour matrice $\begin{pmatrix} 0_n&I_n\\ 0_n&0_n \end{pmatrix}$.
  2. Soit $u\in \LL(\R^{3n})$ telle que $u^3=0$ et $\rg (u)=2n$. Montrer que $\Ker(u)=\im (u^2)$ et qu'il existe une base $\BB$ dans laquelle $u$ a pour matrice $\begin{pmatrix} 0_n&I_n&0_n\\ 0_n&0_n&I_n\\ 0_n&0_n&0_n \end{pmatrix}$.

Correction

$\mathbf{1.\,}$ En utilisant le théorème du rang et le faite que $\rg (u)=n$, on trouve que $\dim (\Ker (u))=n$. D'autre part, $\im (u)\subset \Ker (u)$, en effet si $x\in \im (u)$, il existe $z\in \R^{2n}$ tel que $x=u(z)$, donc $u(x)=u^2(z)=$. Ceci montre que $\im (u)=\Ker (u)$.
Soit $(e_1,\cdots,e_n)$ une base de $\im (u)$, alors pour tout $j\in \inter{1,n}$ il existe $f_j\in \R^{2n}$ tel que $e_j=u(f_j)$. Montrons que la famille $(f_1,\cdots,f_n,e_1,\cdots,e_n)$ est une base de $\R^{2n}$, pour cela il suffit de montre qu'il s'agit d'une famille libre.
Soient $\alpha_1,\cdots,\alpha_n,\beta_1,\cdots,\beta_n\in \R$ tels que $\dsum_{1\leq k\leq n}\alpha_kf_k+\beta_ke_k=0\quad(\star)$. On applique $u$ à cette relation ce qui donne: $$0=u\left(\dsum_{1\leq k\leq n}\alpha_kf_k+\beta_ke_k\right)= \dsum_{1\leq k\leq n}\alpha_k\underset{=e_k}{u(f_k)}+\beta_k\underset{=0}{u(e_k)}=\dsum_{1\leq k\leq n}\alpha_ke_k\Longrightarrow \alpha_1=\cdots=\alpha_n=0,$$ car la famille $(e_1,\cdots,e_n)$ est libre. Donc la relation $(\star)$ devient $\dsum_{1\leq k\leq n}\beta_ke_k=0$ ce qui implique $\beta_1=\cdots=\beta_n=0$.
On en déduit alors que la famille $(e_1,\cdots,e_n,f_1,\cdots,f_n)$ est libre donc base de $\R^{2n}$ et la matrice de $u$ dans cette base est:
$\mathbf{2.\,}$ Notons $\fonct{v}{\im u}{\im u}{x}{u(x)}$, on a $\rg(v) +\dim(\Ker (v))=\rg (u)=2n$ donc $\rg (v)=\rg (u)-\dim (\Ker v)$ or $\Ker v= \Ker u \cap \im (u)\subset \Ker (u)$, on en déduit alors que $\rg (v)\geq n$ (puisque $\rg (u)=2n$ et $\dim (\Ker (v))\leq \dim (\Ker (u))=n$).
Montrons maitenant que $\im v=\im u^2$. En effet si $y\in \im u^2$ alors il existe $x\in E$ tel que $y=u^2(x)=u(u(x))=v(u(x))$ car $u(x)\in \im u$ donc $\im u^2\subset \im v$ et inversement si $y\in \im v$ donc il existe $x\in \im u$ tel que $y=v(x)=u(x)$, or comme $x$ est $\im u$, donc il existe $z\in E$ tel que $x=u(z)$ soit finalement $y=u^2(z)\in \im u^2$, d'où l'égalité.
On en déduit alors que $\rg u^2=\rg v\geq n$.
Si $x\in \im u^2$ alors il existe $z\in E$ tel que $x=u^2(z)$, donc $u(x)=u^3(z)=0$ autrement dit, $x\in \Ker (u)$ ceci impliqueque $\im u^2 \subset \Ker u$, comme $\dim(\Ker u)=n$ et $\rg (u^2)\geq n$, on en déduit que $\rg (u^2)=n$ et $\im u^2=\Ker u$.
Soit $\BB_1=(e_1,\cdots,e_n)$ une base de $\Ker u$, alors il existe pour tout $i\in \inter{1,n}$ $x_i\in E$ tel que $e_i=u^2(x_i)$ on note alors $f_i = u(x_i)$, puis on montre que $(e_1,\cdots,e_n,f_1,\cdots,f_n,x_1\cdots,x_n)$ une base de $E$ (même démarche que dans la question précédente). La matrice de $u$ dans cette base est de la forme demandée.

(Mines Ponts PC 2016) Correction

Soient $A\in GL_p(\R),\,B\in \MM_{pq}(\R),\,C\in \MM_{qp}(\R),\,D\in \MM_q(\R)$. Montrer que $M=\begin{pmatrix} A&B\\ C&D \end{pmatrix}$ est de rang $p$ ssi $D=CA^{-1}B$.

Correction

Supposons que $D=CA^{-1}B$, on pose alors $N=\begin{pmatrix} A^{-1}&0\\ -CA^{-1}&I_q \end{pmatrix}\in \MM_{p+q}(\R)$, la matrice $N$ est inversible. On en déduit donc que $\rg(NM)=\rg (M)$, or $$NM = \begin{pmatrix} A^{-1}&0\\ -CA^{-1}&I_q \end{pmatrix}\begin{pmatrix} A&B\\ C&D \end{pmatrix} =\begin{pmatrix} A^{-1}A&A^{-1}B\\ -CA^{-1}A+C&-CA^{-1}B+D \end{pmatrix} =\begin{pmatrix} I_p&A^{-1}B\\ 0&0 \end{pmatrix} $$ Inversement, supposons que $\rg (M)=p$, en utilisant la matrice $N$, on trouve $$p=\rg (NM)=\rg (\begin{pmatrix} I_p&A^{-1}B\\ 0&-CA^{-1}B+D \end{pmatrix})=p+\rg (-CA^{-1}B+D)$$ on en déduit alors que $\rg ( -CA^{-1}B+D)=0$ autrement dit, $D=CA^{-1}B$.

(CCP PSI 2016) Correction

Soient $A,B\in GL_n(\C)$ on pose $N=\begin{pmatrix} 0&A\\ B&0 \end{pmatrix}\in \MM_{2n}(\C)$. Montrer que $N\in GL_{2n}(\C)$. Calculer $N^2$ puis pour $P\in \C[X]$ calculer $P(N^2)$.

Correction

Soient $U,V,X,Y\in \MM_n(\C)$, on pose $M=\begin{pmatrix} U&V\\ X&Y \end{pmatrix}\in \MM_{2n}(\C)$, on a $$MN=\begin{pmatrix} U&V\\ X&Y \end{pmatrix}\begin{pmatrix} 0&A\\ B&0 \end{pmatrix}=\begin{pmatrix} VB&UA\\ YB&XA \end{pmatrix}$$ Si on prend $Y=0=U$ et $V=B^{-1},\, X=A^{-1}$, on trouve $$NM=\begin{pmatrix} I_n&0\\ 0&I_n \end{pmatrix} \Longrightarrow N\in GL_{2n}(\C),\,\text{ et } N^{-1}= \begin{pmatrix} 0&B^{-1}\\ A^{-1}&0 \end{pmatrix}.$$ Calculons maintenant $N^2$, $$N^2= \begin{pmatrix} 0&A\\ B&0 \end{pmatrix}\begin{pmatrix} 0&A\\ B&0 \end{pmatrix}=\begin{pmatrix} AB&0\\ 0&BA \end{pmatrix}$$ Il s'agit d'une matrice diagonale par bloc, donc pour tout $k\in \N, $ on a $$(N^2)^k=\begin{pmatrix} (AB)^k&0\\ 0&(BA)^k \end{pmatrix}\Longrightarrow \forall P\in \C[X],\, P(N^2)=\begin{pmatrix} P(AB)&0\\ 0&P(BA) \end{pmatrix}.$$

Polynôme de matrice

($\star$) Correction

Soit $A=\begin{pmatrix} a&b\\c&d \end{pmatrix}\in \MM_2(\C)$.

  1. Montrer que $A^2-\tr (A)A+\det(A)I_2=0$.
  2. Si $\det (A)\neq 0$, donner $A^{-1}$ en fonction de $A$.

Correction

$\mathbf{1. }$ On sait que $\tr (A)=a+d$ et $\det (A)=ad-cb$, on calcul alors $A^2$, $$ \begin{array}{lcl} A^2&=&\begin{pmatrix} a^2+bc&ab+bd\\ ca+cd&bc+d^2 \end{pmatrix}\\ &&\\ &=&\begin{pmatrix} a^2+bc+ad-cb+&ab+bd\\ ca+cd&bc+d^2+ad-cb \end{pmatrix}-\begin{pmatrix} ad-cb&0\\ 0&ad-cb \end{pmatrix}\\ &&\\ &=&(a+d)\begin{pmatrix} a&b\\ c&d \end{pmatrix}-(ad-cb)I_2 \end{array}$$ $\mathbf{2. }$ Supposons que $\det (A)\neq 0$, alors en utilisant la question précédente, on trouve $$A (A-\tr (A)I_2)=-\det(A)I_2 \Longrightarrow A\left(\dfrac{1}{\det(A)}(\tr (A)I_2-A)\right)=I_2.$$ Ce qui prouve que $A$ est inversible.

($\star$) Correction

Soit $A=\begin{pmatrix} 3&-3&2\\ -1&5&-2\\ -1&3&0 \end{pmatrix}\in \MM_3(\R)$.

  1. Calculer $A^2-6A$. En déduire que $A$ est inversible puis donner $A^{-1}$.
  2. Déterminer $A^n$ pour tout $n\in \N$.

Correction

$\mathbf{1.\,}$ Le calcul de $A^2$ donne $$A^2=\begin{pmatrix} 10&-18&12\\ -6&22&-12\\ -6&18&-8 \end{pmatrix}=6\begin{pmatrix} 3&-3&2\\ -1&5&-2\\ -1&3&0 \end{pmatrix}+\begin{pmatrix} -8&0&0\\ 0&-8&0\\ 0&0&-8 \end{pmatrix}.$$ On en déduit que $A^2-6A=-8I_3$. Donc $A$ est inversible et $A^{-1}=\frac{-1}{8}\left(A-6I_3\right)$.
$\mathbf{2.\,}$ Soit $n\in \N$, il existe un unique triplet $(a,b,Q)\in \R^2\times \R[X]$ tels que $X^n=Q(X)(X^2-6X+8)+aX+b$. En particulier, $$\left\{\begin{array}{lcl} 2^n&=&Q(2)\times 0+2a+b\\ 4^n&=&Q(4)\times 0+4a+b \end{array} \right. \Longrightarrow a=2^{n-1}(2^n-1),\,\, b=4^n-2^{n+1}.$$

($\star$) Correction

Soit $A=\begin{pmatrix} 0&1&1\\ 1&0&1\\ 1&1&0 \end{pmatrix}\in \MM_3(\R)$. Calculer $A^2$, en déduire que $A$ est inversible puis donner $A^{-1}$ en fonction de $A$.

Correction

Notons $J=\begin{pmatrix} 1&1&1\\ 1&1&1\\ 1&1&1 \end{pmatrix}$, on a $A=J-I_3$, alors $$A^2=J^2-2J+I_3=3J-2J+I_3=J+I_3=J-I_3+2I_3=A+2I_3$$ En particulier, $A(A-I_3)=2I_3$, on en déduit alors que $A$ est inversible et $A^{-1}=\frac{1}{2}(A-I_3)$.

($\star\star$) Correction

Déterminer les matrice $A\in \MM_3(\R)$ telle que $A^2=\begin{pmatrix} 1&0&0\\1&1&0\\1&0&4 \end{pmatrix}$.

Correction

Notons $B=\begin{pmatrix} 1&0&0\\1&1&0\\1&0&4 \end{pmatrix}$, si $A$ est une solutions de l'équation $A^2=B$ alors $A$ et $B$ commutent, i.e. $AB=BA$. Supposons que $A=\begin{pmatrix} a&b&c\\x&y&z\\u&v&w \end{pmatrix}$, alors $$AB=BA\Longleftrightarrow \begin{pmatrix} b+c&0&3c\\ y+z-a&-b&3z-c\\ -3u+v+w-a&-3v-b&-c \end{pmatrix}=0\Longleftrightarrow\left\{\begin{array}{l} b=0\\ c=0\\ y=a\\ u=\frac{w-a}{3}\\ v=0 \end{array} \right. \Longleftrightarrow A=\begin{pmatrix} a&0&0\\ x&a&0\\ \frac{w-a}{3}&0&w \end{pmatrix} $$ Ensuite, on calcule $A^2$, $$A^2=\begin{pmatrix} a^2&0&0\\ 2xa&a^2&0\\ \frac{w^2-a^2}{3}&0&w^2 \end{pmatrix}=B\Longleftrightarrow\left\{\begin{array}{l} a^2=1\\ w^2=4\\ 2ax=1 \end{array}\right.\Longleftrightarrow A=\begin{pmatrix} \varepsilon_1&0&0\\ \frac{1}{2\varepsilon_1}&\varepsilon_1&0\\ \frac{2\varepsilon_2-\varepsilon_1}{3}&0&2\varepsilon_2 \end{pmatrix} $$ avec $\varepsilon_1,\,\varepsilon_2\in \{-1,1\}$.

($\star$) Correction

On se place dans $E=\C\,\,^4$ muni de sa base canonique $\BB=(e_1,e_2,e_3,e_4).$ On désigne par $j$ l'endomorphisme de $E$ dont la matrice dans $\BB$ est la matrice suivante $$J=\left( \begin{array}{cccc} 0&1 &0&0\\ 0&0&1&0\\ 0&0&0&1\\ 1&0&0&0 \end{array} \right)\in M_4(\C).$$

  1. Déterminer l'image de $\BB$ par $j,$ $j^2,$ $j^3,$ et $j^4.$
  2. En déduire $J^2,$ $J^3$ et $J^4.$
  3. Déterminer un polynôme annulateur non nul de $J.$
  4. Montrer que si $P\in\C[X]$ avec $\mathrm{deg}(P)\leq 3$ vérifie $P(J)=0$ alors $P=0$.
  5. En déduire le polynôme minimal de $J.$

Correction

$\mathbf{1.\,}$ On a $j(\BB)=\{e_4,e_1,e_2,e_3\}$ et $$j^2(\BB)=j(\{e_4,e_1,e_2,e_3\})=\{j(e_4),j(e_1),j(e_2),j(e_3)\}=\{e_3,e_4,e_1,e_2\}$$ De la même façon, on trouve $$j^3(\BB)=\{e_2,e_3,e_4,e_1\},\, j^4(\BB)=\{e_1,e_2,e_3,e_4\}.$$ $\mathbf{2.\,}$ On en déduit alors, $$J^2=\begin{pmatrix} 0&0&1&0\\ 0&0&0&1\\ 1&0&0&0\\ 0&1&0&0 \end{pmatrix},\quad J^3=\begin{pmatrix} 0&0&0&1\\ 1&0&0&0\\ 0&1&0&0\\ 0&0&1&0 \end{pmatrix},\quad J^4=I_4.$$ $\mathbf{3.\,}$ Comme $J^4=I_4$ alors $X^4-1$ est un polynôme annulateur de $J$.
$\mathbf{4.\,}$ Soient $a,b,c$ et $d\in \R$ tels que $aJ^3+bJ^2+cJ+dI_4=0$ alors $$0=\begin{pmatrix} d&c&b&a\\ a&d&c&d\\ b&a&d&c\\ c&b&a&d \end{pmatrix}\Longrightarrow a=b=c=d=0,$$ on en déduit alors que $J$ n'admet pas de polynôme annulateur de degré inférieur ou égale à $3$.
$\mathbf{5.\,}$ D'après ce qui procède, le polynôme minimale de $J$ est $X^4-1$.

(CCP PSI 2017) Correction

Soit $A=\begin{pmatrix} 1&1&0\\-1&0&0\\2&0&-1 \end{pmatrix}\in \MM_n(\R)$.

  1. Montrer qu'il n'existe pas de polynôme annulateur non nul de degré inférieur ou égale à 2 de $A$.
  2. Trouver un polynôme annulateur de $A$ et en déduire $A^{-1}$. Quels sont tous les polynômes qui annulent $A$?

Correction

$\mathbf{1.\,}$ Le calcul de $A^2$ donne $A^2=\begin{pmatrix} 0&1&0\\ -1&-1&0\\ 0&2&1 \end{pmatrix}$. Soient $a,b,c\in \R$ tels que $$aA^2+bA+cI_3=0\Leftrightarrow \begin{pmatrix} b+c&a+b&0\\ -a-b&-a+c&0\\ 2b&2 a&a-b+c \end{pmatrix}=0\Longrightarrow a=b=c=0$$ Donc $A$ n'admet pas de polynôme annulateur de degré inférieur ou égale à 2.
$\mathbf{2.\,}$ Le calcul de $A^3$ donne $ A^3=-I_3$ donc le polynôme $X^3+1$ est un polynôme annulateur de $A$, de plus c'est le polynôme minimale (d'après la question 2.).

Divers

($\star\star$) Correction

Soit $f:\MM_n(\R)\rightarrow\R$ une fonction non constante telle que \begin{equation*} \forall A,B\in\MM_n(\R)\qquad f(AB)=f(A)\,f(B). \end{equation*}

  1. Donner un exemple de telle fonction.
  2. Calculer $f(0)$ et $f(I_n)$.
  3. Trouver l'ensemble des matrices $A$ telles que $f(A)=0$.

Correction

  1. La fonction déterminant.
  2. $f(0^2)=f(0)^2=f(0)$ donc $f(0)=0$ ou $1$. Si $f(0)=1$, alors $1=f(0\cdot A)=f(A)$ pour tout $A\in\MM_(\C)$ donc $f$ est constante : contradiction. Ainsi : $f(0)=0$.
    De même, $f(I_n^2)=f(I_n)^2=f(I_n)$ donc $f(I_n)=0$ ou $1$. Si $f(I_n)=0$, alors $f$ est la fonction nulle : contradiction. Donc $f(I_n)=1$.
  3. Si $A$ est inversible, alors $f(A)\cdot f(A^{-1})=1$ donc $f(A)\neq 0$. Montrons la réciproque.
    Notons $J_k=\mathrm{diag}(\underbrace{1,\dots,1}_{k\text{ fois}},0,\dots,0)$ et $J'_k=\mathrm{diag}(\underbrace{1,\dots,1}_{k-1\text{fois}},0,1,0,\dots,0)$. Alors $f(J_1^2)=f(J_1)^2=f(J_1)$ donc $f(J_1)=0$ ou $1$. Si $f(J_1)\neq 0$, toutes les matrices de rang $1$ ont une image non nulle. Or \begin{equation*} J_1\cdot J'_1=\mathrm{diag}(1,0,\dots,0)\cdot \mathrm{diag}(0,1,0,\dots,0)=0,\end{equation*} donc $f(J_1)=0$.
    Par ailleurs, \begin{equation*} \mathrm{diag}(1,1,0\dots,0)\cdot\mathrm{diag}(1,0,1,0,\dots,0)=J_1 \end{equation*} ce qui montre que $f(J_2)=0$ dont toutes les matrices de rang~$2$ sont d'image nulle. On continue ainsi de proche en proche pour montrer que toutes les matrices de rang $k\leq n-1$ ont une image nulle.
    Conclusion : $$ f(M)=0 \text{ SSI } \rg M< n \text{i.e. } M\notin\mathrm{GL}nR. $$

($\star\star$) Correction

Soient $A,B\in \MM_n(\R)$. On pose $C=AB-BA$. Montrer que si $C$ est colinéaire à $A$ ou à $B$ alors elle est nilpotente.

Correction

On note $C=AB-BA$, on suppose que $C\neq 0$ (si $C=0$ il n'a y rien à démontrer). On suppose qu'il existe $\lambda\in \R^*$ tel que $C=\lambda A$.
Considérons l'endomorphisme $\fonct{\varphi}{\MM_n(\R)}{\MM_n(\R)}{X}{XB-BX}$, on a $\varphi(A)=\lambda A$. On a $$\varphi (A^2)=A^2B-BA^2=A(AB-BA+BA)-(BA-AB+AB)A=\lambda A^2+ABA+\lambda A^2-ABA=2\lambda A^2.$$ On montre par récurrence que, pour tout $k\in \N$, $\varphi(A^k)=k\lambda A^k$, en effet la relation est vraie pour $k\in \inter{0,2}$. De plus, $$\varphi(A^{k+1})=A^{k+1}B-BA^{k+1}=A^k(BA+C)-BA^{k+1}=(A^kB-BA^k)A+A^kC=k\lambda A^{k+1}+\lambda A^{k+1}=(k+1)\lambda A^{k+1}.$$ Il existe alors $r\in \N$ tel que $\Ker (\varphi -r\lambda \mathrm{Id}e)=\{0\}$ ( en effet $(\lambda r)_{r\in \N}$ sont deux à deux distincts donc la somme de $\dsum_{r\in \N}\Ker (\varphi -r\lambda \mathrm{Id}e)$ est direct).
Comme on a $\varphi (A^r)-r\lambda A^r=0$ donc $A^r=0$ donc $A$ est nilpotente ce qui donne le résultat.

($\star\star$) Correction

Soit $A \in\MM_n(\R)$. On note $\Delta_A = \{M \in \MM_n(\R),\, M + {\,}^t M = \tr(M)A\}$.

  1. Vérifier que $\Delta_A$ est un sous-espace vectoriel de $\MM_n(\R)$.
  2. Montrer que l'ensemble $\mathscr{A}_n(\R)$ des matrices antisymétriques de $\MM_n(\R)$ est contenu dans $\Delta_A$.
  3. On suppose $\tr(A) \neq 2$. Montrer que $\Delta_A = \mathscr{A}_n(\R)$.
  4. On suppose que $A$ n'est pas symétrique. Montrer que $\Delta_A = \mathscr{A}_n(\R)$.
  5. Trouver $\Delta_A$ si $\tr(A) = 2$ et $A$ symétrique. Donner sa dimension. On justifiera la dimension de $\mathscr{A}_n(\R)$.

Correction

  1. On a $\Delta_A\neq \varnothing$ car la matrice nulle appartient à $\Delta_A$.
    Soient $M,N\in \Delta_A$ et $\lambda\in \R$, on a $$(\lambda M+N)+{\,}^t (\lambda M+N)=\lambda (M+{\,}^t M)+N+{\,}^t N=\lambda \tr(M)A+\tr(N)A=\big(\tr(\lambda M+N\big) A$$ (car l'application $\tr$ est linéaire). Donc $(\lambda M+N)\in \Delta_A$, d'où $\Delta_A$ est un s e v de $\MM_n(\R)$.
  2. Soit $M\in \mathscr{A}_n(\R)$, d'après le cours on a $\tr(M)=0$, ce qui donne $$0=M+{\,}^t M=\tr(M)A=0\Longrightarrow M\in \Delta_A$$ On en déduit que $\boxed{\mathscr{A}_n(\R)\subset \Delta_A}$.
  3. Supposons que $\tr(A)\neq 0$, soit $M\in \Delta_A$ alors, $$\tr(M+{\,}^t M)=\tr(M)+\tr({\,}^t M)=2\tr(M) =\tr(\tr(M)A)=\tr(M)\tr(A)$$ Ce qui donne $2\tr(M)=\tr(A)\tr(M)$ donc $\boxed{\tr(M)=0}$. Comme $M+{\,}^t M=\tr(M)A$ alors $M+{\,}^t M=0$ soit $M=-{\,}^t M$ i.e. $M\in \mathscr{A}_n(\R)$. Conclusion $\boxed{ \Delta_A=\mathscr{A}_n(\R)}$.
  4. Supposons que $A$ n'est pas symétrique. Soit $M\in \Delta_A$, alors $${\,}^t (M+{\,}^t M)= {\,}^t(\tr(M)A)=\tr(M){\,}^t A=\tr(M)A\Longrightarrow \tr(M)=0$$ Comme $M+{\,}^t M=\tr(M)A$ alors $M+{\,}^t M=0$ soit $M=-{\,}^t M$ i.e. $M\in \mathscr{A}_n(\R)$. Conclusion $\boxed{ \Delta_A=\mathscr{A}_n(\R)}$.
  5. Soit $M\in \Delta_A$, comme $\MM_n(\R)=\mathcal{S}_n(\R)\oplus\mathscr{A}_n(\R)$, alors $M=M_1+M_2$ avec $M_1\in \mathcal{S}_n(\R)$ et $M_2\in \mathscr{A}_n(\R)$. $$(M+{\,}^t M)=2M_1=\tr(M)A=\tr(M_1)A\Longrightarrow M_1\in \R\cdot A$$ On en déduit que $M=\alpha A+M_2\in \R\cdot A+\mathscr{A}_n(\R)$.
    Si $A\neq 0$ alors $\boxed{\Delta_A=\R\cdot A\oplus \mathscr{A}_n(\R)}$.
    Si $A = ~~0$ alors $\boxed{\Delta_A= \mathscr{A}_n(\R)}$.

($\star$) Correction

Soient $n\in \N^*$ et $D \in \MM_{n}(\K)$ une matrice diagonale dont les éléments diagonaux sont deux à deux distincts.

  1. Montrer que ($I_n, D, D^2, \ldots, D^{n-1}$) est une base de $\mathbb{D}_{n}(\K)$, le s-e-v de $\MM_n(\K)$ formé des matrices diagonales.
  2. Montrer que, si une matrice $A$ commute avec $D$, alors $A$ est diagonale.

Correction

$\mathbf{1. }$ On sait que $\mathbb{D}_{n}(\K)$ est une sous-espace vectoriel de $\MM_n(\K)$, de dimension $n$. Il suffit donc de montrer que la famille ($I_n, D, D^2, \ldots, D^{n-1}$) est une famille libre.
Soit $\lambda_0,\cdots,\lambda_n\in \K$ tels que $\dsum_{i=0}^{n-1}\lambda_i D^i =0$. En considérant les termes diagonaux, on obtient alors le système: $$(S) \ \ \begin{cases} \lambda_0 +\lambda_1 d_1 + \ldots +\lambda_{n-1}d_1^{n-1} & = 0\\ \lambda_0 +\lambda_1 d_2 + \ldots +\lambda_{n-1}d_2^{n-1} & = 0\\ \ldots & =0 \\ \lambda_0 +\lambda_1 d_{n} + \ldots +\lambda_{n-1}d_n^{n-1} & = 0 \end{cases} $$ Soit alors $P=\lambda_0 + \lambda_1 X + \ldots + \lambda_{n-1}X^{n-1} \in \K_{n-1}[X]$. Le système $(S)$ équivaut à dire que ce polynôme s'annule en $d_1,\cdots,d_n$. Les $d_i$ étant distincts, il possède donc $n$ racines distinctes; étant de degré $\leq n-1$, il s'agit du polynôme nul, d'où $\lambda_0=\ldots=\lambda_{n-1}=0$.
$\mathbf{2. }$ Soit $A=(a_{i\,j})\in \MM_n(\K)$ tel que $AD=DA$. Soient $i,j\in \inter{1,n}$ tels que $i\neq j$, on a: $$(AD)_{i\,j}=\sum_{k=1}^na_{i\,k}d_{k\,j}=a_{i\,j}d_{j\,j}\text{ et } (DA)_{i\,j}=\sum_{k=1}^nd_{i\,k}a_{k\,j}=d_{i\,i}a_{i\,j}$$ On en déduit que $a_{i\,j}d_{j\,j}=a_{i\,j}d_{i\,i}$, comme $d_{i\,i}\neq d_{j\,j}$, on obtient alors $a_{i\,j}=0$.
Ce qui donne que $A$ est une matrice diagonale.