Réduction II

Polynôme de matrice

($\star$) Correction

Soit $n\in \N^*$ et $A=(a_{ij})\in \MM_n(\C)$. On suppose que: $\forall (i,j,k)\in \inter{1,n}^3,~~~~a_{i\,k}a_{k\,j}=a_{i\,j}a_{k\,k}.$

  1. Calculer $A^2$, en déduire un polynôme annulateur de $A$.
  2. Étudier la diagonalisibilité de $A$.

Correction

Notons $A^2=(b_{i\,j})$, on a: $$\forall i,j\in \inter{1,n},~~b_{i\,j}=\sum_{k=1}^na_{i\,k}a_{k\,j}=a_{i\,j}\sum_{k=1}^na_{k\,k}=\tr(A)a_{i\,j}.$$ On en déduit que $\boxed{A^2=\tr(A)A}$.
Donc le polynôme $X^2-\tr(A)X$ est un polynôme annulateur de $A$.

  1. Si $\tr(A)=0$ alors $A$ n'est pas diagonalisable (sauf si $A=0$).
  2. Si $\tr(A)\neq 0$ alors $A$ est diagonalisable puisqu'elle admet un polynôme annulateur scindé à racines simples.

($\star\star$) Correction

Soit $a>0$. Soit $A\in\MM_n(\R)$. On suppose que $A^3+aA^2+4A+aI_n=0$. Que peut-on dire du signe de la trace de $A$ ?

Correction

le polynôme $P=X^3+aX^2+4X+a$ est un polynôme annulateur de $A$, donc les valeurs propres de $A$ sont inclus dans l'ensemble des racines de $P$.
$P$ a au moins une racine réelle $\alpha< 0$ (car pour $x\geq 0,~~P(x)>0$). On distingue deux cas:

  1. Les racines de $P$ sont réelles, dans ce cas ses racines sont strictement négatives. Donc $\tr (A)< 0$.
  2. $P$ admet une racine complexe $\lambda$, alors $\overline{\lambda}$ est une racine de $P$. i.e. $P=(x-\alpha)(x-\lambda)(x-\overline{\lambda})$, ce qui donne: $$P=(x-\alpha)(x^2-2\re(\lambda)x+\abs{\lambda}^2)=x^3-(\alpha+2\re(\lambda))x^2+ (2\alpha\re(\lambda)+\abs{\lambda}^2)x-\alpha\abs{\lambda}^2$$ Les relations entre les racines de $P$ et ses coefficient nous donne: $$\begin{array}{lcl} \left\{\begin{array}{ll} \alpha+2\re (\lambda)&=-a\\ \alpha\abs{\lambda}^2&=-a\\ 2\alpha\re(\lambda)+\abs{\lambda}^2&=4 \end{array} \right.&\Longrightarrow&\left\{\begin{array}{ll} \alpha+2\re (\lambda)&=-a\\ \alpha\abs{\lambda}^2&=-a\\ 2\alpha^2\re(\lambda)+ \alpha\abs{\lambda}^2&=4\alpha \end{array} \right. \end{array}$$ Comme $\alpha\abs{\lambda}^2=-a= \alpha+2\re (\lambda)$, en remplacant dans la 3eme équation, on obtient $$2\alpha^2\re(\lambda)+\alpha+2\re \lambda=4\alpha \Longrightarrow \re \lambda =\dfrac{3\alpha}{2(\alpha^2+1)}< 0 $$ Puisque la racine réelle $\alpha$ est strictement négative. Donc si $\lambda$ est une v.p de $A$ d'ordre $p$ alors $\overline{\lambda}$ l'est aussi, on en déduit que $$\tr (A)=(n-2p)\alpha+p\lambda+p\overline{\lambda}=(n-2p)\alpha+2p\re(\lambda)< 0.$$

Dans tous les cas, on trouve que $\boxed{\tr (A)< 0\,}$.

(X PC 2000) Correction

Soit $A\in\MM_n(\R)$ tel que $A ^3-3A+4I_n=0$. Déterminer le signe de $\det A$.

Correction

Un polynôme annulateur de $A$ est $X^3-3X+4=(X-\lambda)(X-\mu)(X-\bar\mu)$, où $\lambda$ est une racine réelle $\lambda< 0$. On en déduit que \begin{equation*} \det(A)=\lambda^p\cdot \mu^q(\bar\mu)^{q}=\lambda^p\abs{\mu}^{2q}, \end{equation*} où $p=n-2q$. Ainsi, $\det A$ est du signe de $(-1)^{p}=(-1)^n$ :

Le signe de $\det A$ est celui de $(-1)^n$.

($\star\star$) Correction

Soit $A\in\MM_5(\R)$ telle que $12\,A^3-8A^2+7A -I_5=0$. Montrer que $0< \tr A< 2$.

Correction

Le polynôme $12\,X^3-8\,X^2+7X-1$ n'a qu'une seule racine réelle, qui est $1/6$. Il possède deux autres racines conjuguées~$\lambda$ et $\overline{\lambda}$.
Le relations entre les racines et les coefficient d'un polynôme nous donne: $$\dfrac{1}{6}+\lambda+\overline{\lambda}=\frac{8}{12}\Longrightarrow 2\re (\lambda)=\dfrac{1}{2}$$ Les valeurs propres de $A$ sont inclus dans l'ensemble $\{1/6,\lambda,\overline{\lambda}\}$. On distingue 3 cas:

  1. $1/6$ est une v.p d'ordre 5, dans ce cas : $\tr (A)=\frac{5}{6}\in ]0,2[$
  2. $1/6$ est une v.p d'ordre 3, dans ce cas : $\tr (A)=\frac{3}{6}+2\re(\lambda)=\frac{6}{6}\in ]0,2[$
  3. $1/6$ est une v.p d'ordre 1, dans ce cas : $\tr (A)=\frac{1}{6}+4\re(\lambda)=\frac{7}{6}\in ]0,2[$

(CCP PC 2003) Correction

Soit $A\in\MM_2(\Z)$ une matrice à coefficients entiers et de déterminant $1$. On suppose qu'il existe $p\in\N^*$ tel que $A^p=I_2$.

  1. Montrer que $A$ est diagonalisable dans $\MM_2(\C)$.
  2. Montrer que $A^{12}=I_2$.

Correction

  1. Le polynôme $X^p-1$ est scindé dans $\C$ à racine simple donc $A$ est diagonalisable.
  2. Les valeurs propres de~$A$ sont des racines $p$-ièmes de l'unité ; leur produit vaut~$1$ donc on n'a que deux choix :
    1. elles sont soit toutes réelles (donc valant $-1$ ou $1$) dans quel cas $A^2=I_2$ ;
    2. elles sont conjuguées deux à deux, mais puisque la trace est réelle et entière, ces valeurs propres ont une partie réelle entière ou demi-entière, donc $\Sp(A)=\{-\ii,\ii\}$, et dans ce cas on a $A^4=I_2$, ou bien $\Sp(A)=\{\pm j,\pm \bar{j}\}$ et alors $A^3=I_2$ (resp. $A^6=I_2$).
    Dans tous les cas, on a bien $A^{12}=I_2$.

(CCP PC 2001) Correction

Soit $f\in\LL(\C^n)$. Soit $b\in\C$ tel que $(f-b\mathrm{Id})^3=0$. On suppose que $f$ n'est pas une homothétie.

  1. Montrer que $f$ n'est pas diagonalisable.
  2. Soit $P\in\C[X]$. Montrer l'équivalence \begin{equation*} \big( P(f)\in\mathrm{GL}(\C^n)\big)\text{ ssi } \big(P(b)\neq 0\big). \end{equation*}

Correction

  1. Si $f$ était diagonalisable, en écrivant sa matrice dans une base propre on aurait $f=b\mathrm{Id}$.
  2. L'endomorphisme $f$ n'admet que $b$ comme valeur propre : $\Sp(f)=\{b\}$. Il existe alors une base $\BB$ de $\C^n$ telle que la matrice de $f$ dans $\BB$ est de la forme $\begin{pmatrix} b & & &\\ &\ddots & \star& \\ & (0) &\ddots&\\ & & &b \end{pmatrix}$, donc $$\forall P\in \C[X],\,\, M_{\BB}(P(f))= \begin{pmatrix} P(b) & & &\\ &\ddots & \star& \\ & (0) &\ddots&\\ & & &P(b) \end{pmatrix}$$

(CCP PSI 2004) Correction

Soit $u$ un endomorphisme de rang $r$ d'un espace vectoriel de dimension finie. Trouver un polynôme annulateur de $u$ de degré au plus $r+1$.

Correction

On choisit une base~$(e_1,\cdots,e_{n-r})$ de $\Ker u$, on la complète pour obtenir une base $\BB=(e_1,\cdots,e_n)$ de $E$. Alors $\MM_\BB(u)=\begin{pmatrix} 0 & A\cr 0 & B\cr\end{pmatrix}$ où $B$ est carrée avec $r$ lignes, et $B$ est inversible car son rang vaut $r$. On trouve facilement par récurrence que $$\forall k\in\N^\ast,\quad M^k=\begin{pmatrix} 0 & AB^{k-1}\cr 0 & B^k\cr\end{pmatrix},$$ d'où en prenant le polynôme~$P=X\cdot\chi_B(X)$ alors $\deg P\le r+1$ et $P(B)=0$, de plus $$P(M)=\begin{pmatrix} 0 & AB^{-1} P(B)\cr 0 & P(B)\cr\end{pmatrix}=0.$$

(CCP PSI 2007) Correction

  1. Montrer que, si $u$ est un endomorphisme de $\R^3$ vérifiant $u^3+u=0$, il n'est pas bijectif.
  2. Montrer que $\R^3=\Ker u \oplus \im u$, que $\Ker u= \im(u^2+\mathrm{Id})$ et que $\im u = \Ker(u^2+\mathrm{Id})$.
  3. Montrer que $\rg u =2$ et qu'il existe une base de $\R^3$ où sa matrice est $\begin{pmatrix}0&0&0\\0&0&-1\\0&1&0\end{pmatrix}$.

Correction

  1. Supposons que $u$ est injective, alors $u\circ (u^2+\mathrm{Id}e)=0$. Ce qui implique que $\im (u^2+\mathrm{Id}e)\subset \Ker (u)=\{0\}$ soit $u^2=-\mathrm{Id}e$ ce qui impossible (car on aurait $\det(u)^2=-1$).
    Donc $ u$ n'est pas injective.
  2. Il suffit de montrer que $\im(u)\cap \Ker (u)=\{0\}$ puisque d'après le théorème du rang, $\dim(\R^3)=\dim (\im(u))+\dim(\Ker(u))$.
    Soit $x\in \im(u)\cap \Ker (u)$, on a: $$\exists z\in \R^3, ~~\left\{\begin{array}{l} x=u(z)\\ u(x)=0 \end{array} \right.\Longrightarrow u^3(z)+u(z)=0\Longrightarrow u(u(x))+u(z)=0\Longrightarrow u(z)=0\Longrightarrow x=0. $$ Donc $\boxed{\R^3=\im(u)\oplus \Ker(u)}$.
    Puisque $u^3+u=u\circ(u^2+\mathrm{Id}e)=(u^2+\mathrm{Id}e)\circ u=0$, alors on a facilement $\left\{\begin{array}{l} \im(u^2+\mathrm{Id}e)\subseteq\Ker(u)\\ \im(u)\subseteq \Ker(u^2+\mathrm{Id}e) \end{array} \right.$. Soit $x\in \Ker(u^2+\mathrm{Id}e)$ alors $x=-u^2(x)=u(-u(x))$ donc $x\in \im (u)$ ce qui montre que $\boxed{\im(u)=\ker(u^2+\mathrm{Id}e)}$.
    Pour montrer l' égalité demandées il faut montrer que $\dim(\Ker(u))=\dim(\im(u^2+\mathrm{Id}e))$ et $\dim(\im(u))=\dim(\Ker(u^2+\mathrm{Id}e))$. $$\dim(\Ker(u))=3-\dim(\im(u))= 3-\dim(\Ker(u^2+\mathrm{Id}e))=\dim(\im(u^2+\mathrm{Id}e))$$ soit $$\boxed{\im(u^2+\mathrm{Id}e)=\Ker(u)}.$$
  3. On suppose que $u\neq 0$ (sinon ça ne marche pas!!). Soit $x\in \im(u)$ non nul, on va montrer que $\{x,u(x)\}$ est une famille libre.
    Notons d'abord que $u(x)\neq 0$ car $x=u(z)$ et si $u(x)=0$ ceci implique que $u^2(z)=0$ soit $u^3(z)+u(z)=u(z)=x=0$ ce qui est impossible. .
    Supposons que $x=\alpha u(x)$ avec $\alpha\in \R$, alors (en utilisant le faite que $x\in \Ker(u^2+\mathrm{Id}e)$) $$u(x)=\alpha u^2(x)=-\alpha x=-\alpha^2 u(x)\Longrightarrow \alpha^2=-1 \text{ impossible}$$ Donc $\{x,u(x)\}$ est libre. ceci implique que $\rg(u)\geq 2$ et comme $\dim(\Ker(u))\geq 1$ alors $\boxed{\rg(u)=2}$.
    Pour terminer la question, il suffit de prendre $z\in \Ker(u)$ non nul, et donc $(z,x,u(x))$ est une base de $\R^3$, et la matrice de $u$ dans cette base est $\begin{pmatrix}0&0&0\\0&0&-1\\0&1&0\end{pmatrix}$.

($\star\star$) Correction

Soit $A\in \MM_n(\R)$ telle que $3A^3=A^2+A+I_n$. Montrer que la suite $(A^k)_{k\in \N}$ converge vers une matrice de projection.

Correction

La matrice $A$ admet $P(X)=3X^3-X^2-X-1$ comme polynôme annulateur, or $$P(X)=3(X-1)(X-\alpha)(X-\overline{\alpha}),\,\text{ avec }\alpha=\dfrac{-1+\ii \sqrt{3}}{3}\Longrightarrow \Sp(A)\subset\{1,\alpha,\overline{\alpha}\}.$$ Comme $P$ est scindé à racines simple alors $A$ est diagonalisable dans $\MM_n(\C)$, donc $A$ est semblable (dans $\MM_n(\C)$) à $\begin{pmatrix} I_p&0&0\\ 0&\alpha I_q&0\\ 0&0&\overline{\alpha}I_q \end{pmatrix}$ avec

  1. $p$ est l'ordre de multiplicité de $1$, $p\in \inter{0,n}$.
  2. $q$ est l'ordre de multiplicité de $\alpha$ (qui est le même pour $\overline{\alpha}$), on a $q\in \inter{0,n}$ et $p+2q=n$.

Supposons que $A=P\begin{pmatrix} I_p&0&0\\ 0&\alpha I_q&0\\ 0&0&\overline{\alpha}I_q \end{pmatrix}P^{-1}$ avec $P\in GL_n(\C$, alors puisque $\abs{\alpha}< 1$, on en déduit: $$ \forall k\in \N,\,A^k=P\begin{pmatrix} I_p&0&0\\ 0&\alpha^k I_q&0\\ 0&0&\overline{\alpha}^kI_q \end{pmatrix}P^{-1}\tendvers{k}{\infty}P\begin{pmatrix} I_p&0&0\\ 0&0&0\\ 0&0&0 \end{pmatrix}P^{-1}$$ Donc $A^k$ converge vers:

  1. $I_n$ si $\Sp (A)=\{1\}$.
  2. La matrice nulle si $\Sp(A)=\{\alpha,\overline{\alpha}\}$.
  3. La matrice de projection sur l'espace $\Ker (A-I_n)$ parallèlement à $\Ker (A-\alpha I_n)\oplus \Ker(A-\overline{\alpha}I_n)$ si $\Sp(A)=\{1,\alpha,\overline{\alpha}\}$.

($\star$) Correction

Soient $A,B,M \in \MM_n (\mathbb{C})$ telles que $AM = MB$ avec $M \ne 0_n $

  1. Montrer que pour tout $P \in \mathbb{C}\left[ X \right]$, on a $P(A)M = MP(B)$.
  2. Montrer que $A$ et $B$ ont une valeur propre en commun.

Correction

  1. Puisque $AM=MB$ alors en multipliant cette relation par $A$, on obtient, $A^2M=ABM$ or $A^2M=A(AM)=(AM)B=MB^2$, donc par récurrence sur $k\in \N$, on montre: $$\forall k\in \N,\quad A^kM=MB^k$$ Puis par linéarité, pour tout $P\in \C[X],\quad P(A)M=MP(B)$.
  2. Supposons que $\Sp(A)\cap\Sp(B)=\emptyset$ alors $\chi_A(B)$ est une matrice inversible. Donc en utilisant la uestion précédente avec $P=\chi_A$, on trouve: $$0_n=\chi_A(A)M=M\chi_A(B)\Longrightarrow M=0 $$ ce qui est impossible, donc $\Sp(A)\cap\Sp(B)\neq \emptyset$

($\star$) Correction

  1. Soit $u$ un endomorphisme inversible d'un $\mathbb{K}$-espace vectoriel $E$ de dimension finie. Montrer qu'il existe un polynôme $Q \in \mathbb{K}\left[ X \right]$ vérifiant $u^{ - 1} = Q(u)$.
  2. Soit $u$ l'endomorphisme de $\mathbb{K}\left[ X \right]$ qui envoie le polynôme $P(X)$ sur $P(2X)$.
    Montrer que $u$ est un automorphisme et déterminer ses éléments propres. Existe-t-il $Q \in \mathbb{K}\left[ X \right]$ tel que $u^{ - 1} = Q(u)\text{~?}$.

Correction

  1. D'après le théorème de Cayley-Hamilton, on a $$0=\chi_u(u)=(-1)^nu^n+(-1)^{n-1}\tr(u)u^{n-1}+\cdots+a_1u+ \det(u)\mathrm{Id}e$$ donc $u\circ((-1)^nu^{n-1}+(-1)^{n-2}\tr(u)u^{n-1}+\cdots+a_1\mathrm{Id}e)=-\det(u)\mathrm{Id}e$, comme $\det(u)\neq 0$ puisque $u$ est inversible, alors: $$u\circ(\dfrac{(-1)^nu^{n-1}+(-1)^{n-2}\tr(u)u^{n-1}+\cdots+a_1\mathrm{Id}e}{-\det(u)})=\mathrm{Id}e\Longrightarrow u^{-1}=Q(u)$$ avec $Q(X)=\dfrac{\chi_u(X)-\det(u)}{-\det(u)X}$.
  2. Notons $\varphi$ l'endomorphisme définie sur $\K[X]$ par $\varphi(P)=P(2X)$. Il est clair que $\varphi$ est inversible, de plus $\varphi^{-1}(P)=P(X/2)$. De plus, $$\Sp(\varphi)=\{2^n,\,n\in \N\},\text{ et } \Sp (\varphi^{-1})=\{1/2^n,\,n\in \N\}.$$ Supposons qu'il existe $Q\in \K[X]$ tel que $\varphi^{-1}=Q(u)$, on aurait alors $\varphi Q(\varphi)-\mathrm{Id}e =0$, autrement dit $P=XQ(X)-1$ est un polynôme anuulateur de $\varphi$, or d'après le cours pour tout $\lambda\in \Sp(\varphi),\, P(\lambda)=0$, i.e. $P$ admettrait une infinité de racine, ce qui implique $P=0$, soit $XQ(X)=1$ ce qui impossible.
    Donc, on ne peut pas trouver $Q\in \K[X]$ tel que $\varphi^{-1}=Q(\varphi)$.

($\star\star\star$) Correction

Soit $E$ un $\K$-ev de dimension finie et $u \in \LL(E)$.

  1. On suppose $u$ diagonalisable et on note $\lambda_1,\dots,\lambda_p$ ses valeurs propres distinctes.
    1. Montrer qu'il existe des endomorphismes $u_1,\dots,u_p$ tels que pour tout polynôme $P \in \K[X]$, on a: $P(u) = \dsum_{i=1}^p P(\lambda_i) u_i$.
    2. Montrer qu'il existe un polynôme $P_i$ tel que $u_i = P_i(u)$.
  2. Réciproquement, soit $u,u_1,\dots,u_p\in\LL(E)$ et $\lambda_1,\dots,\lambda_p\in \K$ tels que pour tout $P\in \K[X]$, $P(u) = \dsum_{i=1}^p P(\lambda_i) u_i$. Montrer que $u$ est diagonalisable et $\mathrm{Sp}(u) \subset \{\lambda_1,\dots,\lambda_p\}$.

Correction

  1. Puisque $u$ est diagonalisable alors le polynôme $\Pi(X)=\dsp\prod_{k=1}^p (X-\lambda_k)$ est un polynôme annulateur de $u$( c'est le polynôme minimal).
    Pour tout $P\in \K[X]$ il existe un unique couple $(R,Q)\in \K[X]^2$ tel que $$ P(X)=Q(X)\Pi (X)+R(X),\quad \text{ avec }\deg (R)< \deg (\Pi) \quad\quad \textcolor{blue}{(\star)}$$ on considère ensuite $(P_1,\cdots,P_p)$ la base de $\K_{p-1}[X]$ définieé par, $$\forall k\in \inter{1,p},\quad P_k(X) =\prod_{1\leq j \neq k \leq n}\dfrac{X-\lambda_j}{\lambda_k-\lambda_j}$$ on sait d'après le cours, $$\forall P\in \K_{p-1}[X],\quad P(X)=P(\lambda_1)P_1(X)+\cdots +P(\lambda_p)P_p(X)=\dsum_{k=1}^p P(\lambda_k)P_k(X).$$ En utilisant la relation $\textcolor{blue}{(\star)}$, on obtient: $$\forall P\in \K[X],\quad \exists !(Q,R)\in \K[X]\times \K_{p-1}[X],\,P(X)=Q(X)\Pi (X)+R(X) = Q(X)\Pi (X) + \dsum_{k=1}^p P(\lambda_k)P_k(X).$$ Puis, vu que $\Pi(u)=0$, $$\forall P\in \K[X],\quad P(u)=Q(u)\Pi (u)+R(u) = \dsum_{k=1}^n P(\lambda_k)P_k(u)$$ Pour terminer, on pose $u_k=P_k(u)$.
  2. Supposons que pour tout $P\in \K[X]$, on a $P(u)=\dsum_{k=1}^p P(\lambda_k)u_k$, en particulier, si on pose $P =(X-\lambda_1)\cdots (X-\lambda_p)$, alors $$P(u)= \dsum_{k=1}^p P(\lambda_k)u_k =\dsum_{k=1}^p 0 u_k=0$$ donc $u$ admet un polynôme annulateur scindé à racines simples, donc d'après le cours $u$ est diagonalisable, et évidement $\Sp (u)\subset\{$ les racines de $P\}$.

(Mines PSI 2018) Correction

Soit $f\in \LL(\C^n)$ ($n\geq 3$).

  1. On suppose que $\rg (f)=2$. Exprimer $\chi_f$ en fonction de $\tr(f)$ et $\tr(f^2)$.
  2. On suppose que $\rg (f)=3$. Exprimer $\chi_f$ en fonction de $\tr (f),\,\tr(f^2)$ et $\tr (f^3)$.

Correction

  1. Comme $\rg (f)=2$ alors $0$ est une valeur propre d'ordre $n-2$. Ainsi, il existe $\lambda_1,\,\lambda_2\in \C$ (éventuellement égaux), tel que $$\chi_f(\lambda)= (-1)^n \lambda^{n-2}(\lambda-\lambda_1)(\lambda-\lambda_2) = (-1)^n \lambda^{n-2}\left(\lambda^2- (\lambda_1+\lambda_2)\lambda +\lambda_1\lambda_2\right).$$ De plus, on a $$\tr (f)= \lambda_1+\lambda_2,\,\,\tr (f^2)=\lambda_1^2+\lambda_2^2 \Longrightarrow \lambda_1\lambda_2=\dfrac{\tr (f)^2-\tr(f^2)}{2}$$ Ce qui donne finalement, $$\boxed{\chi_f(\lambda)= (-1)^n \lambda^{n-2}\left(\lambda^2- \tr (f) \lambda +\dfrac{\tr (f)^2-\tr (f^2)}{2}\right)}.$$
  2. Comme dans le cas précédent, on peut écrire: $$\begin{array}{lcl} \chi_f(\lambda)&=& (-1)^n \lambda^{n-3}(\lambda-\lambda_1)(\lambda-\lambda_2)(\lambda-\lambda_3)\\ &=&(-1)^n \lambda^{n-3}\left(\lambda^3-(\lambda_1+\lambda_2+\lambda_3)\lambda^2+(\lambda_1\lambda_2+\lambda_1\lambda_3+\lambda_2\lambda_3)\lambda- \lambda_1\lambda_2\lambda_3\right) \end{array}$$ or, $$\tr (f)=\lambda_1+\lambda_2+\lambda_3,\quad \lambda_1\lambda_2+\lambda_1\lambda_3+\lambda_2\lambda_3 =\dfrac{\tr (f)^2-\tr (f^2)}{2}$$ puisque $\tr (f^2)= \lambda_1^2+\lambda_2^2+\lambda_3^2$. Un calcul passionnant nous donne $$\begin{array}{lcl} \lambda_1\lambda_2\lambda_3&=&\dfrac{1}{6}\left( (\lambda_1+\lambda_2+\lambda_3)^3+2 (\lambda_1^3+\lambda_2^3+\lambda_3^3)-3 (\lambda_1+\lambda_2+\lambda_3)(\lambda_1^2+\lambda_2^2+\lambda_3^2)\right)\\ &=&\dfrac{1}{6}\left( \tr (f)^3+2 \tr (f^3) -3 \tr(f) \tr (f^2)\right). \end{array}$$ Ce qui donne finalement, $$\boxed{\chi_f(\lambda)= (-1)^n \lambda^{n-3}\left(\lambda^3- \tr (f) \lambda^2 +\dfrac{\tr (f)^2-\tr (f^2)}{2}\lambda - \dfrac{1}{6}\left( \tr (f)^3+2 \tr (f^3) -3 \tr(f) \tr (f^2)\right)\right)}.$$

(CCP PSI 2018) Correction

Soit $\fonct{\varphi}{\MM_n(\C)}{\MM_n(\C)}{M}{(2M-{\,}^t M)/3}$

  1. Chercher un polynôme annulateur de $\varphi$.
  2. Montrer que $\varphi$ est diagonalisable.
  3. Déterminer $\tr (\varphi)$ et $\det (\varphi)$.

Correction

Soit $A\in \mathcal{S}_n(\R)$, on a $$\varphi(A)=\dfrac{1}{3}\left(2A-{\,}^t A\right)=\dfrac{1}{3}A$$ donc $\dfrac{1}{3}\in \Sp (\varphi)$ et $\mathcal{S}_n(\R)\subset E_{1/3}(\varphi)$.
Soit $A\in \mathcal{A}_n(\R)$, on a $$\varphi(A)=\dfrac{1}{3}\left(2A-{\,}^t A\right)=\dfrac{1}{3}\left(2A+ A\right)= A$$ donc $1\in \Sp (\varphi)$ et $\mathcal{A}_n(\R)\subset E_{1}(\varphi)$.
Etant donnée que $\MM_n(\R)=\mathcal{S}_n(\R)\oplus \mathcal{A}_n(\R)$. On en déduit alors que $E_1(\varphi)=\mathcal{A}_n(\R)$, $E_{(1/3)}=\mathcal{S}_n(\R)$ et $\varphi$ est diagonalisable.
De plus, $$\det (\varphi)= =\left(\dfrac{1}{3}\right)^{\frac{n(n+1)}{2}},\, \tr (\varphi)= (\left(\dfrac{1}{3}\right)\times \frac{n(n+1)}{2}+ 1\times \dfrac{n(n-1)}{2}.$$

Polynôme carcatéristique

($\star$) Correction

Soit $A\in \MM_n(\R)$ ($n\geq 2$). On suppose que $A$ est inversible. Montrer qu'il existe $P\in \R_{n-1}[X]$ tel que $A^{-1}=P(A)$.

Correction

Puisque $A$ est inversible alors $\det(A)\neq 0$, d'après le théorème de Cayley-Hamilton, on a $\chi_A(A)=0$ soit $$ (-1)^nA^n+(-1)^{n-1}\tr(A)A^{n-1}+\cdots a_1A +\det(A)I_n=0$$ ce qui donne $$ A\big((-1)^nA^{n-1}+(-1)^{n-1}A^{n-2}+\cdots a_1I_n\big)=-\det(A)I_n$$ On en déduit que: $$A^{-1}=\dfrac{-1}{\det(A)}\big((-1)^nA^{n-1}+(-1)^{n-1}\tr(A)A^{n-2}+\cdots a_1I_n\big)=P(A)$$ Avec $P(X)=\dfrac{-(\chi_A(X)-\det(A))}{\det(A)X}$.

($\star$) Correction

Montrer qu'il existe $(a_0 , \ldots ,a_{n - 1} ) \in \R^n $ tel que~: $$\forall P \in \mathbb{R}_{n - 1} \left[ X \right],P(X + n) + \sum\limits_{k = 0}^{n - 1} {a_k P(X + k)} = 0.$$

Correction

Soit $\fonct{u}{\R_{n-1}[X]}{\R_{n-1}[X]}{P}{P(X+1)}$, on a $u\in \LL(\R_{n-1}[X])$, d'après le théorème de Cayley -Hamilton $\chi_u(u)=0$. En supposant que $(-1)^n\chi_u(X)=X^n+\dsum_{k=0}^{n-1}a_kX^k$, on trouve $$\forall P\in \R_{n-1}[X] ,\,u^n(P)+\dsum_{k=0}^{n-1}a_ku^k(P)=0\Longrightarrow\forall P \in \mathbb{R}_{n - 1} \left[ X \right],P(X + n) + \sum\limits_{k = 0}^{n - 1} {a_k P(X + k)} = 0.$$

($\star\star$) Correction

Soit $A\in \MM_n(\C)$, on pose $B=\begin{pmatrix} A&A\\0&A \end{pmatrix}\in \MM_{2n}(\C)$.

  1. Calculer le polynôme caractéristique de $B$ en fonction de celui de $A$.
  2. Donner une condition nécessaire et suffisante sur $A$ pour que $B$ soit diagonalisable.

Correction

  1. On sait d'après le cours que si $B=\begin{pmatrix} B_1&B_2\\ 0&B_3 \end{pmatrix}$ matrice triangulaire supérieure par block (avec $B_1,\, B_3$ des matrices carrées) alors $\det (B)=\det(B_1)\det(B_3)$.
    On en déduit alors que $\chi_B(X)=\chi_A(X)^2$.
  2. Un calcul des puissance de $B$ nous donne $$B^2=\begin{pmatrix} A^2&2A^2\\0&A^2 \end{pmatrix},\,\,B^3=\begin{pmatrix} A^3&3A^3\\0&A^3 \end{pmatrix},\,\,\Longrightarrow \text{ Par réucrrence } B^k=\begin{pmatrix} A^k&kA^k\\0&A^k \end{pmatrix}.$$ On en déduit que, pour tout $P\in\R[X]$, on a $$P(B)=\begin{pmatrix} P(A)&AP'(A)\\ 0&P(A) \end{pmatrix} .$$ Supposons que $B$ est diagonalisable, alors il existe un polynôme scindé à racine simple $P$ tel que $P(B)=0$, donc d'après le calcul précédent on a $P(A)=AP'(A)=0$.

($\star\star$) Correction

Soient $A,\,B\in \MM_n(\K)$. Calculer: $$\begin{pmatrix} A&\lambda I_n\\ I_n& 0 \end{pmatrix} \begin{pmatrix} B&-\lambda I_n\\ -I_n & A \end{pmatrix} $$ En déduire que $\chi_{AB} =\chi_{BA}$.

Correction

En utilisant le produit matricielle par bloc, on trouve : $$\begin{pmatrix} A&\lambda I_n\\ I_n& 0 \end{pmatrix} \begin{pmatrix} B&-\lambda I_n\\ -I_n & A \end{pmatrix} =\begin{pmatrix} AB-\lambda I_n &0\\ B& -\lambda I_n \end{pmatrix} $$ puis, on calcul $$ \begin{pmatrix} B&-\lambda I_n\\ -I_n & A \end{pmatrix} \begin{pmatrix} A&\lambda I_n\\ I_n& 0 \end{pmatrix} = \begin{pmatrix} BA-\lambda I_n & \lambda B \\ 0 & -\lambda I_n \end{pmatrix} $$ Puisque, pour tout $U,V\in \MM_n(\K)$, $\det (UV)=\det (VU)$. On obtient alors: $$ \begin{array}{lcl} (-\lambda)^n \det(AB-\lambda I_n)&=& \det\left( \begin{pmatrix} AB-\lambda I_n &0\\ B& -\lambda I_n \end{pmatrix}\right)\\ &&\\ & =&\det\left( \begin{pmatrix} A&\lambda I_n\\ I_n& 0 \end{pmatrix} \begin{pmatrix} B&-\lambda I_n\\ -I_n & A \end{pmatrix} \right) =\det\left( \begin{pmatrix} B&-\lambda I_n\\ -I_n & A \end{pmatrix} \begin{pmatrix} A&\lambda I_n\\ I_n& 0 \end{pmatrix}\right)\\ &&\\ &=& \det\left( \begin{pmatrix} BA-\lambda I_n & \lambda B \\ 0 & -\lambda I_n \end{pmatrix} \right) =(-\lambda)^n \det(BA-\lambda I_n). \end{array} $$ Ce qui prouve le résultat.

(CCP PSI 201) Correction

Soit $A=\begin{pmatrix}1&3&0\\3&-2&-1\\0&-1&1\end{pmatrix}$ .

  1. Calculer le polynôme caractéristique $\chi_A$ de $A$.
  2. Déterminer le reste de la division euclidienne de $X^n$ par $\chi_A$.
  3. Calculer $A^n$ pour $n\in \N$.

Correction

  1. $$\chi_A(x)=\begin{vmatrix} 1-x&3&0\\ 3&-2-x&-1\\ 0&-1&1-x \end{vmatrix}=(1-x)\big((2+x)(x-1)-1\big)-9(1-x)=(1-x)\big(x^2+x-12\big), $$ sot $\boxed{\chi_A(x)=(1-x)(x+4)(x-3)}$.
  2. Soit $n\in \N$. D'après le résultat de la division euclidienne dans $\R[X]$, il existe un unique couple $Q_n,R_n$ tels que $X^n=Q_n\chi_A+R_n$ et $\dg(R_n)\leq 2$.
    Le reste de la division $R_n$ peut s'écrire sous la forme $R_n=a_nX^2+b_nX+c_n$. En passant par la fonction polynômiale, on trouve: $$\forall x\in \R,~~x^n=Q_n(x)\chi_A(x)+a_nx^2+b_nx+c_n\Longrightarrow \left\{\begin{array}{lcl} 16a_n-4b_n+c_n&=& (-4)^n\\ 9a_n+3b_n+c_n&=&3^n\\ a_n+b_n+c_n&=&1 \end{array}\right. $$ d'où $$ a_n=\dfrac{2(-4)^n+5(3)^n-7}{70},\,b_n=\dfrac{-8(-4)^n+15(3)^n-7}{70},~~~~c_n=\dfrac{6(-4)^n-20(3)^n+84}{70}.$$
  3. Soit $n\in \N$, d'après la question 2 et en tenant compte que $\chi_A(A)=0$, on a $$\begin{array}{lcl} A^n&=&a_nA^2+b_nA+c_nI_n\\ &&\\ &=&a_n\begin{pmatrix}10&-3&-3\\-3&14&1\\-3&1&2\end{pmatrix} +b_n\begin{pmatrix}1&3&0\\3&-2&-1\\0&-1&1\end{pmatrix} +c_n\begin{pmatrix}1&0&0\\0&1&0\\0&0&1\end{pmatrix}\\ &&\\ &=&\begin{pmatrix}10a_n+b_n+c_n&-3a_n+3b_n&-3a_n\\ -3a_n+3b_n&14a_n-2b_n+c_n&a_n-b_n\\ -3a_n&a_n-b_n&2a_n+b_n+c_n\end{pmatrix}\\ &&\\ &=&\dfrac{1}{70}\begin{pmatrix} 18(-4)^n+45(3)^n+7& -30(-4)^n+30(3)^n&-6(-4)^n-15(3)^n+21\\ -30(-4)^n+30(3)^n&50(-4)^n+20(3)^n&10(-4)^n-10(3)^n\\ -6(-4)^n-15(3)^n+21&10(-4)^n-10(3)^n&2(-4)^n+5(3)^n+63 \end{pmatrix} \end{array}$$

(ENSAI MP 200) Correction

Soit $A \in \MM_n(\C)$ et $B \in \MM_{2n}(\C)$ donnée par : $B = \begin{bmatrix} 0 & A \\ I_n & 0 \end{bmatrix}$.

  1. Calculer le polynôme caractéristique de $B$ en fonction de celui de $A$.
  2. Montrer que : $B$ diagonalisable $\Leftrightarrow$ $A$ diagonalisable et inversible.

Correction

  1. $$\begin{array}{lcl} \chi_{B}(\lambda) & =& \begin{vmatrix} -\lambda I_n & I_n \\ A & -\lambda I_n \end{vmatrix} = \begin{vmatrix} -\lambda I_n & I_n \\ A-\lambda^2 I_n & 0 \end{vmatrix} \\ &&\\ & =& (-1)^n \begin{vmatrix} A-\lambda^2 I_n & 0 \\ -\lambda I_n & I_n \end{vmatrix} = (-1)^n \det(A-\lambda^2 I_n) \\ &&\\ & = &(-1)^n \chi_{A}(\lambda^2). \end{array} $$
  2. Supposons $A$ diagonalisable et inversible. On a donc $n$ vecteurs propres $(V_1,\cdots,V_n)$ associés à des v.p. $(\lambda_1,\cdots,\lambda_n)$ et formant une base de $\C^n$, on pose alors, pour tout $k\in\inter{1,n}$, $W_k^{\pm}=\begin{pmatrix}V_k\\ \pm\mu_k V_k\end{pmatrix}$ où $\mu_k$ est une racine dans $\C$ de~$\lambda_k$, ce qui donne $2n$ vecteurs propres linéairement indépendants ( tous les $\lambda_k$ sont non nuls). On a donc montré $\Leftarrow$.

    Supposons que $B$ est diagonalisable, donc $B^2$ l'est également. Il existe donc un polynôme scindé simple $P$ tel que $P(B^2)=0$ $$B^2 = \begin{pmatrix} 0&A \\ I_n&0 \end{pmatrix}\begin{pmatrix} 0&A \\ I_n&0 \end{pmatrix} = \begin{pmatrix} A&0 \\ 0&A \end{pmatrix} \Longrightarrow P(B^2) =\begin{pmatrix} P(A)&0 \\ 0&P(A) \end{pmatrix} =0_{2n}$$ On en déduit alors que $P(A)=0_n$ donc $A$ est diagonalisable.

    reste à montrer que $A$ est inversible. Supposons que $A$ n'est pas inversible, i.e $0\in \Sp(A)$. Notons $\{\lambda_1,\cdots,\lambda_r\}$ les valeurs propres de $A$ deux à deux distincts non nulles, ainsi $$\Sp (A) =\{\lambda_1,\cdots,\lambda_r\} \cup \{0\}$$ On note également $\alpha_k = \dim (E_{\lambda_k}(A))$ et $\alpha_0=\dim (\Ker(A))$. D'après le cours, on a $$\dim (\C^n)= n =\dsum_{k=1}^r \alpha_k +\dim (\Ker(A)).$$ Il est clair aussi que $\Sp (B^2) =\Sp (A)$. D'après le cours $\Sp (B^2) =\{\beta^2 ,\, \beta \in \Sp (B)\}$, on en déduit que (en notant $\mu_k$ une racine de $\lambda_k$), $$\Sp (B)=\{\mu_1, -\mu_1,\cdots,\mu_r,-\mu_r\} \cup\{0\},\quad $$ Or, on montre facielement que (déjà fait dans le sens $\Leftarrow$ ), que $$\forall k\in \inter{1,r},\quad \dim(E_{\mu_k}(B))= \dim(E_{-\mu_k}(B))=\dim(E_{\lambda_k}(A)),\quad \dim(E_0(B))=\dim(E_0(A)) $$ Comme $B$ est diagonalisable, on a $$\begin{array}{lcl} 2n &=& \dsum_{x\in \Sp(B)}\dim(E_x(B))\\ & = &\dsum_{k=1}^r \dim(E_{\mu_k}(B)) + \dsum_{k=1}^r \dim(E_{\mu_k}(B)) + \dim(E_0(B))\\ &=&2\dsum_{k=1}^r \dim(E_{\lambda_k}(A))+\dim(E_0(A)) =2\left(\dsum_{k=1}^r \dim(E_{\lambda_k}(A))+\dim(E_0(A))\right) -\dim (E_0(A))\\ &=&2n - \dim(E_0(A)) \end{array}$$ Ce qui est impossible car $\dim (E_0(A))>0$.

    Donc $A$ est inversible.

($\star^3$) Correction

Soient $A_n = \left( { \begin{array}{cccc} 0 & 1 & {} & 0 \\ 1 & \ddots & \ddots & {} \\ {} & \ddots & \ddots & 1 \\ 0 & {} & 1 & 0 \\ \end{array} } \right) \in \MM_n (\mathbb{C})\text{ et }P_n (x) = \det (A_n - xI_n )$.

  1. Calculer $P_1 (x)$ et $P_2 (x)$
  2. Montrer que pour $n\geq 3$, on a $P_n (x) = - xP_{n - 1} (x) - P_{n - 2} (x)$
  3. Pour tout $x \in \left] { - 2,2} \right[$, on pose $x = - 2\cos \alpha $ avec $\alpha \in \left] {0,\pi } \right[$. Montrer que $\dsp P_n (x) = \frac{{\sin ((n + 1)\alpha )}}{{\sin \alpha }}$.
  4. En déduire que $P_n (x)$ admet $n$ racines puis que $A_n $ est diagonalisable.

Correction

  1. $P_1(x)=-x$ et $P_2(x)=\begin{vmatrix} -x&1\\ 1&-x \end{vmatrix}=x^2-1$.
  2. Il suffit de faire le développement de $P_n(x)$ par rapport à la première colonne.
  3. Pour $n\in \N^*$, on pose $v_n= \dfrac{\sin((n+1)\alpha)}{\sin(\alpha)}$, la suite $(v_n)$ est bien définie puisque $\sin(\alpha)\neq 0$. De plus $$\begin{array}{lcl} v_1&=&\dfrac{\sin(2\alpha)}{\sin(\alpha)}=2\cos(\alpha)=-x,\\ v_2&=&\dfrac{\sin(3\alpha)}{\sin(\alpha)} =\dfrac{\sin(2\alpha) \cos(\alpha)+\cos(2\alpha)\sin(\alpha)}{\sin(\alpha)}=2\cos(\alpha)^2+\cos(2\alpha)=4\cos(\alpha)^2-1=x^2-1 \end{array}$$ et pour $n\geq 3$, $$\begin{array}{lcl} \sin((n+1)\alpha)&=&\sin(n\alpha)\cos(\alpha)+\sin(\alpha)\cos(n\alpha)\\ \sin((n-1)\alpha)&=&\sin(n\alpha)\cos(\alpha)-\sin(\alpha)\cos(n\alpha)\\ \end{array}$$ i.e. $\sin((n+1)\alpha)=2\cos(\alpha)\sin(n\alpha)-\sin((n-1)\alpha)$, ce qui donne $$\forall n\geq 3,\quad v_n=2\cos(\alpha)v_{n-1}-v_{n-2}, $$ Comme $v_1=P_1(x)$ et $v_2=P_2(x)$ alors pour tout $n\in \N^*$, $v_n=P_n(x)$.
  4. Pour $n\in \N^*$ et $k\in \inter{1,n}$, on pose $\alpha_k=\dfrac{k\pi}{(n+1)}\in]0,\pi[$, puis $x_k=-2\cos(\beta_k)\in ]-2,2[$, comme les $\alpha_k$ sont 2 à 2 distincts et la fonction $\cos $ est strictement décroissante, alors les $x_k$ sont 2 à 2 distincts.
    D'après la question précédente, $$P_n(x_k)=\dfrac{\sin((n+1)\alpha_k)}{\sin(\alpha_k)}=\dfrac{\sin(k\pi)}{\sin(\frac{k\pi}{n+1})}=0$$ donc, pour $k\in \inter{1,n},\,\,x_k$ est une racine de $P_n$, ainsi $P_n$ a $n$ racines distincts dans l'intervalle $]-2,2[$. D'autre part, comme $\deg (P_n)=n$ alors $(x_k)_{1\leq k\leq n}$ sont exactement les racines de $P_n$.

($\star\star$) Correction

Soient $a_1 , \ldots ,a_n \in \mathbb{C}^\star $ deux à deux distincts. On pose $P(x) = \det (A + xI_n )\text{ avec }A = \left( { \begin{array}{cccc} 0 & {a_2 } & \ldots & {a_n } \\ {a_1 } & 0 & \ddots & \vdots \\ \vdots & \ddots & \ddots & {a_n } \\ {a_1 } & \cdots & {a_{n - 1} } & 0 \\ \end{array} } \right)$

  1. Calculer $P(a_i )$.
  2. Justifier que $P$ est un polynôme unitaire de degré $n$.
  3. Former la décomposition en éléments simples de la fraction rationnelle $\dfrac{{P(X)}}{{\prod\limits_{i = 1}^n {(X - a_i )} }}$
  4. En déduire le déterminant de $A + I_n $.

Correction

  1. Soit $i\in \inter{1,n}$, on a $$\begin{array}{lcl} P(a_i)&=&\begin{vmatrix} a_i&a_2&\cdots&a_i&\cdots&a_n\\ a_1&a_i& & & & \vdots \\ \vdots&&\ddots&& &&\\ a_1& a_2 & & a_i&&a_n\\ \vdots& &&&\ddots& \vdots\\ a_1&a_2&\cdots&a_i&\cdots&a_i \end{vmatrix}\\ &&\\ &=&\begin{vmatrix} a_i-a_1&0&\cdots&0&\cdots&0\\ 0&a_i-a_2& & & & \vdots \\ \vdots&&\ddots&& &&\\ a_1& a_2 & & a_i&&a_n\\ \vdots& &&&\ddots& \vdots\\ 0&0&\cdots&0&\cdots&a_i-a_n \end{vmatrix} \end{array}$$ (pour $j\neq i$, \,\, $L_j :=L_j-L_i$), puis on développe selon la colonne n$^\circ$ j, ce qui donne $$P(a_i)=(-1)^{i+i}a_i\prod_{j< i}(a_i-a_j)\prod_{j>i}(a_i-a_j)=a_i\prod_{j\neq i} (a_i-a_j).$$
  2. On a $P(x)=\chi_A(-x)$.
  3. On a $\deg(P)=\deg (\dsp\prod_{i=1}^n(X-a_i))=n$ et leurs coefficients dominant égale à $1$, on en déduitqu'il existe un unique $R\in \C_{n-1}[X]$ tel que $$\dfrac{P}{\prod_i X-a_i}=1+\dfrac{R}{\prod_i X-a_i}=1+\dsum_{k=1}^n\dfrac{\alpha_k}{X-a_k}$$ on utilise ensuite les fonctions polynômiales, on multiplie la relation précédente par $x-a_j$ (pour $j\in \inter{1,n}$), $$\forall x\in \C, \dfrac{P(x)}{\prod_{1\leq i\neq j\leq n} (x-a_i)}=(x-a_j)+\alpha_j+\dsum_{1\leq k\neq j\leq n} \dfrac{\alpha_k (x-a_j)}{x-a_k}$$ puis on remplace $x$ par $a_j$, on obtient alors $$\alpha_j = \dfrac{P(a_j)}{\prod_{i\neq j}(a_i-a_j)}=\dfrac{a_j\prod_{i\neq j}a_i-a_j }{\prod_{i\neq j}a_i-a_j}=a_j.$$

(Concours E3A 2011 ) Correction

Soit $A=\begin{pmatrix} 0&1&0&0\\ 3&0&2&0\\ 0&2&0&3\\ 0&0&1&0 \end{pmatrix}\in \MM_{4}(\R)$. On note $E=\R^4$, soit $\BB=(e_1,e_2,e_3,e_4)$ la base canonique de $E$ et $f$ l'endomorphisme de $E$ dont la matrice dans la base $\BB$ est $A$. On rappelle que $f^0=id_E$ et pour tout $k\in \N,\ f^{k+1}=f^k\circ f$.

  1. Pour tout $i\in \{0,1,2,3\}$, on pose $u_{i+1}=f^i(e_1)$. Montrer que la famille $\mathcal{U}=(u_1,u_2,u_3,u_4)$ est une base de $E$.
  2. Écrire la matrice $M$ de $f$ dans la base $\mathcal{U}$.
  3. Calculer le polynôme caractéristique de $f$.
  4. Déterminer les valeurs propres de $A$ et une base de chacun des sous-espaces propres de $A$. On choisira pour chaque vecteur propre, la premi\`ere composante non nulle \'egale \`a $1$.
  5. Soient $K=\frac{1}{8}\begin{pmatrix} 1&1&1&1\\ 3&-1&1&-3\\ 3&-1&-1&3\\ 1&1&-1&-1\end{pmatrix}$ et $D=\begin{pmatrix}3&0&0&0\\0&-1&0&0\\0&0&1&0\\0&0&0&-3\end{pmatrix}$. Existe-t-il une matrice $P\in GL_4(\R)$ telle que $KAP=D$~? Si oui, en d\'eterminer une.

Correction

  1. On a $u_1=f^0(e_1)=e_1$, $u_2=f(u_1)=f(e_1)=3e_2$, $u_3=f(u_2)=3f(e_2)=3(e_1+2e_3)=3e_1+6e_3$,
    enfin, $u_4=f(u_3)=3f(e_1)+6f(e_3)=9e_2+6(2e_2+e_4)=21e_2+6e_4$.
    Pour montrer que $\mathcal{U}$ est une base il suffit de montrer que $\dsp\det_\BB(\mathcal{U})\neq 0$, or $$\det_\BB(\mathcal{U})=\begin{vmatrix} 1&0&3&0\\ 0&3&0&21\\ 0&0&6&0\\ 0&0&0&6 \end{vmatrix}=3\times 36=108\neq 0\Longrightarrow \boxed{ \mathcal{U} \text{ est une base de }\R^4}.$$
  2. Pour trouver la matrice de $f$ dans la base $\mathcal{U}$, il faut calculer $f(u_4)$ et l'exprimer dans cette base, $$f(u_4)=21f(e_2)+6f(e_4)=21e_1+42e_3+18e_3=21e_1+60e_2 =-9 e_1+10(3e_1+6e_3)=-9u_1+10u_3.$$ On en déduit, $$\MM_\mathcal{U}(f)=\begin{pmatrix} 0&0&0&-9\\ 1&0&0&0\\ 0&1&0&10\\ 0&0&1&0 \end{pmatrix} $$ On aurait pu aussi calculer cette matrice en utilisant la formule $P^{-1}AP$ ou $P$ est la matrice de passage de la base $\BB$ à la base $\mathcal{U}$.
  3. On calcul $\chi_f$ en utilisant la matrice de $f$ dans la base $\mathcal{U}$: $$\chi_f(\lambda)=\begin{vmatrix} -\lambda&0&0&-9\\ 1&-\lambda&0&0\\ 0&1&-\lambda&10\\ 0&0&1&-\lambda \end{vmatrix} =-\lambda\begin{vmatrix} -\lambda&0&0\\ 1&-\lambda&10\\ 0&1&-\lambda \end{vmatrix} -\begin{vmatrix} 0&0&9\\ 1&-\lambda&10\\ 0&1&-\lambda \end{vmatrix} =\boxed{\lambda^4-10\lambda^2+9}.$$
  4. Il faut chercher les racines de $\chi_f$, on pose dans un premier temps $x=\lambda^2$ ainsi la question revient à résoudre $x^2-10x+9=0=(x-9)(x-1)$. On en déduit, $$\boxed{\Sp(f)=\{-1,1,-3,3\}}.$$ Soit $X=(a,b,c,d)\in \R^4$, on a: $$X\in E_{-1}\Longleftrightarrow \begin{pmatrix} 0&1&0&0\\ 3&0&2&0\\ 0&2&0&3\\ 0&0&1&0 \end{pmatrix}\begin{pmatrix} a\\ b\\ c\\ d \end{pmatrix}=-\begin{pmatrix} a\\ b\\ c\\ d \end{pmatrix}\Longleftrightarrow\left\{\begin{array}{lcl} a+b &=&0\\ 3a+b+2c&=&0\\ 2b+c+3d&=&0\\ -c+d&=&0 \end{array} \right.\Longleftrightarrow X=a(1,-1,-1,1).$$ Donc $\boxed{E_{-1}=\Vect \big((1,-1,-1,1)\big)}$. Un calcul similaire nous donne: $$ \boxed{E_{1}=\Vect \big((1,1,-1,-1)\big),~~~~E_{3}=\Vect \big((1,3,3,1)\big),~~~~E_{-3}=\Vect \big((1,-3,3,-1)\big).~~} $$
  5. La réponse est oui.... il suffit de prendre $P=K^{-1}$ (la matrice $K$ est inversible).

(CCP PSI 2006) Correction

Soient $A$ et $B$ deux matrices carrées d'ordre $n$ à coefficients dans $\C$.

  1. On suppose ici que $A$ et $B$ n'ont pas de valeur propre commune.
    1. Soit $\chi_A$ le polynôme caractéristique de $A$. Montrer que $\chi_A(B)$ est inversible.
    2. Montrer que, pour toute $X\in\MM_n(\C)$, on a : $AX=XB \Longleftrightarrow X=0$.
    3. Montrer que, pour toute $M\in \MM_n(\C)$, il existe une et une seule matrice $X\in \MM_n(\C)$ telle que $AX-XB=M$.
  2. On suppose ici que $A$ et $B$ ont au moins une valeur propre commune $\lambda$. Montrer que $\lambda$ est valeur propre de ${\,}^t B$. En déduire une matrice $X\in \MM_n(\C)$ non nulle telle que $AX=XB$.
  3. On suppose ici qu'il existe $X\in\MM_n(\C)$, non nulle telle que $AX=XB$. Soit $r=\rg X$. Montrer que $A$ et $B$ ont au moins $r$ valeurs propres communes (comptées avec leur ordre de multiplicité).
Correction

    1. Supposons que $\Sp (A)=\{\lambda_1,\cdots,\lambda_p\}$ et $\chi_A(X)=\dsp(-1)^n\prod_{i=1}^p(X-\lambda_i)^{m_i}$, puisque $\Sp (A)\cap \Sp (B)=\emptyset$ alors, pour tout $i\in \inter{1,p}$, $(B-\lambda_iI_n)^{m_i}$ est injective, d'où $\chi_A(B)$ l'est aussi comme composition des applications injectives.
    2. Soit $X\in \MM_n(C)$ tel que $AX=BX$. Notons $u,v$ et $w$ les applications linéaire canoniquement associées à $A,\,B$ et $X$.
      Supposons que $X\neq 0$ alors $w\neq 0$.
      On a $\im w$ est stable par $u$ (puisque $u\circ w=w\circ v$), donc l'application $u'$ induit sur $\im w$ par $u$ admet une v.p $\lambda\in \C$.
      Il existe $x\in \im w$ non nul tel que $u'(x)=\lambda x=u(x)$, comme $x\in \im w$ alors il existe $z\in \C^n$ non nul tel que $x=w(z)$.
      Puisque $u\circ w=w\circ v$ alors $\C z\oplus \Ker(w)\subseteq \Ker (w\circ (v-\lambda\mathrm{Id}e))$ or $v-\lambda\mathrm{Id}e$ est injective donc $\C z\oplus \Ker(w)\subseteq \Ker (w\circ (v-\lambda\mathrm{Id}e))=\Ker w$. Contradiction.
      On en déduit que $w=0$ puis $X=0$.
    3. L'application $\fonct{\psi}{\MM_n(\C)}{\MM_n(\C}{M}{AM-MB}$ est injective donc bijective ce qui montre le résultat.
  1. Soit $\lambda\in \Sp (A)\cap \Sp (B)$, alors $\lambda\in \Sp ({\,}^t B)$ (résultat de cours). $$\exists U,V\in \MM_{n,1}(\C)^*,~~AU=\lambda U\text{ et }{\,}^t BV=\lambda V.$$ Posons $X=U{\,}^t V\in\MM_n(\C)^*$, on a $$AX=AU{\,}^t V=\lambda U{\,}^t V=\lambda X\text{ et }XB=U{\,}^t ({\,}^t BV)=\lambda U{\,}^t V=\lambda X.$$ Autrement dit, $AX=XB$.
(Concours E3A 201) Correction

Soit $F=\left( \begin{array}{cccccc} 0 & 1 & 0 & 0 & \dots & 0\\ 0 & 0 & 1 & 0 &\dots & 0\\ \vdots&\vdots&\ddots&\ddots& \, &\vdots\\ 0 &0 & &\ddots&1 &0\\ -1 &0 &\dots &\dots &0 &2\\ 0 &0 &\dots &\dots &0 &1 \end{array} \right)\in \MM_{p+1}(\R).$

  1. Calculer le polynôme caractéristique de la matrice $F$. Déterminer $\Sp (F)$. $F$ est-elle inversible~?
  2. $F$ est-elle diagonalisable dans $\MM_{p+1}(\C)$~? Dans $\MM_{p+1}(\R)$~?

Correction

Calculons $\chi_F(\lambda)=\det(F-\lambda I_{p+1})$, on développe suivant la 1ère colonne: $$\chi_F(\lambda)=(-\lambda) \begin{vmatrix} -\lambda&1&0&0&\dots&0\\ 0&-\lambda&1&0&\dots&0\\ \vdots&\vdots&\ddots&\ddots&&\vdots\\ 0&0&\dots&\dots&-\lambda&2\\ 0&0&\dots&\dots&0&1-\lambda \end{vmatrix} -(-1)^{p+1} \begin{vmatrix} 1 &0&0&\dots&0\\ -\lambda&1&0&\dots&0\\ 0&-\lambda&1& &\\ \vdots&\vdots&\ddots&\ddots&\\ 0&\dots&\dots&0&1-\lambda \end{vmatrix} $$ ce qui donne $$\chi_F(\lambda)=(-\lambda)^p(1-\lambda)-(-1)^p(1-\lambda)= \boxed{(-1)^p(1-\lambda)(\lambda^p+1) }.$$ On en déduit facilement que $$\boxed{\Sp_\C(f)=\{1\}\bigcup\left\{ \ee^{\frac{\ii (2k+1)\pi}{p}},~~0\leq k< p\right\}}.$$ Donc $\chi_F$ est scindé à racine simple (dans $\C$) on en déduit que $$\textcolor{blue}{F\text{ est diagonalisable dans } \MM_{p+1}(\C)}.$$ D'autre part la matrice $F$ n'admet qu'au maximum deux valeurs propre réelles ($1$ et éventuellement $-1$ en fonction de $p$) donc $$\textcolor{blue}{F\text{ n'est pas diagonalisable dans }\MM_{p+1}(\R)}.$$ Enfin, puisque $\chi_F(0)=\det(F)=(-1)^p\neq 0$, on conclut que $F$ est inversible.

(Mines PSI 2018) Correction

Soit $A=\begin{pmatrix} a^2&ab&ab&b^2\\ ab&a^2&b^2&ab\\ ab&b^2&a^2&ab\\ b^2&ab&ab&a^2 \end{pmatrix}\in \MM_4(\R)$.

  1. Calculer $\det(A)$.
  2. Déterminer le polynôme caractéristique de $A$. $A$ est-elle diagonalisable?

Correction

En regardant bien les colonnes de la matrice $A$, on remarque $$A\begin{pmatrix} 1\\1\\1\\1 \end{pmatrix} =\begin{pmatrix} a^2+ab+ab+b^2\\ ab+a^2+b^2+ab\\ ab+b^2+a^2+ab\\ b^2+ab+ab+a^2 \end{pmatrix} =(a+b)^2\begin{pmatrix} 1\\1\\1\\1 \end{pmatrix},$$ et $$A\begin{pmatrix} 1\\-1\\-1\\1 \end{pmatrix} =\begin{pmatrix} a^2-ab-ab+b^2\\ ab-a^2-b^2+ab\\ ab-b^2-a^2+ab\\ b^2-ab-ab+a^2 \end{pmatrix} =(a-b)^2\begin{pmatrix} 1\\-1\\-1\\1 \end{pmatrix},$$ et enfin $$A\begin{pmatrix} 0\\1\\-1\\0 \end{pmatrix} =\begin{pmatrix} ab-ab\\ a^2-b^2\\ b^2-a^2\\ ab-ab \end{pmatrix} =(a^2-b^2)\begin{pmatrix} 0\\1\\-1\\0 \end{pmatrix},\,A\begin{pmatrix} 1\\0\\0\\-1 \end{pmatrix} =\begin{pmatrix} a^2-b^2\\ ab-ab\\ ab-ab\\ b^2-a^2 \end{pmatrix} =(a^2-b^2)\begin{pmatrix} 1\\0\\0\\-1 \end{pmatrix}, $$ On en déduit alors que $$\boxed{\Sp (A)=\{(a-b)^2,(a+b)^2, a^2-b^2\}},$$ $$\boxed{ \dim (E_{(a+b)^2}(A))=\dim(E_{(a-b)^2}(A))=1,\,\dim (E_{(a^2-b^2)}(A))=2}.$$ Donc $A$ est diagonalisable.

  1. La réponse à cette question est dans la deuxième question!
  2. $$\begin{array}{lcl} \begin{vmatrix} a^2-\lambda&ab&ab&b^2\\ ab&a^2-\lambda&b^2&ab\\ ab&b^2&a^2-\lambda&ab\\ b^2&ab&ab&a^2\lambda \end{vmatrix}&=& \begin{vmatrix} a^2-\lambda&ab&ab&b^2-a^2+\lambda\\ ab&a^2-\lambda&b^2&0\\ ab&b^2&a^2-\lambda&0\\ b^2&ab&ab&a^2-\lambda-b^2 \end{vmatrix}\\ &&\\ &=& \begin{vmatrix} a^2-\lambda&ab&ab&b^2-a^2+\lambda\\ ab&a^2-\lambda&b^2&0\\ ab&b^2&a^2-\lambda&0\\ b^2+a^2-\lambda&2ab&2ab&0 \end{vmatrix}\\ &&\\ &=&(b^2-a^2+\lambda)\begin{vmatrix} ab&a^2-\lambda&b^2\\ ab&b^2&a^2-\lambda\\ b^2+a^2-\lambda&2ab&2ab \end{vmatrix} \end{array}$$ Puis $$\begin{array}{lcl} \begin{vmatrix} ab&a^2-\lambda&b^2\\ ab&b^2&a^2-\lambda\\ b^2+a^2-\lambda&2ab&2ab \end{vmatrix}&=& \begin{vmatrix} ab&a^2-\lambda&b^2\\ 0&b^2-a^2+\lambda &a^2-\lambda-b^2\\ b^2+a^2-\lambda&2ab&2ab \end{vmatrix}\\ &&\\ &=& \begin{vmatrix} ab&a^2-\lambda&b^2+a^2-\lambda\\ 0&b^2-a^2+\lambda &0\\ b^2+a^2-\lambda&2ab&4ab \end{vmatrix}\\ &&\\ &=& (b^2-a^2-\lambda)\begin{vmatrix} ab&b^2+a^2-\lambda\\ b^2+a^2-\lambda&4ab \end{vmatrix}\\ &=&(b^2-a^2-\lambda)\left(4a^2b^2-\left(b^2+a^2-\lambda\right)^2\right)\\ &=& (b^2-a^2-\lambda)(2ab-b^2-a^2+\lambda)(2ab+b^2+a^2-\lambda) \end{array}$$ Finalement, $$\chi_A(\lambda)=(b^2-a^2-\lambda)^2\left((a+b)^2-\lambda\right)\left((a-b)^2-\lambda\right).$$

Puissance d'une matrice

($\star\,-\,\star\star$) Correction

Calculer les puissances $p^\text{ièmes}$ ($p \in \N$ ou $p \in \Z$) des matrices suivantes : $$\begin{pmatrix} 1 & 4 & 2\cr 0 &-3 &-2\cr 0 & 4 & 3 \end{pmatrix} \quad ; \quad\left( \begin{array}{ccc} -1 & a & -a \\ 1 & -1 & 0 \\ 1 & 0 & -1 \end{array} \right) \quad ; \quad \left( \begin{array}{ccc} 1 & 1 & 1 \\ 2 & 2 & 2 \\ 0 & 0 & 1 \end{array} \right) \quad ; \quad \left( \begin{array} {ccc} 1 & a & a^2 \\ \frac{1}{a} & 1 & a \\ \frac{1}{a^2} & \frac{1}{a} & 1 \end{array} \right) (a\neq 0).$$

Correction

$\mathbf{a) }\, $ On vérifie que $$A=\begin{pmatrix} 1 & 4 & 2\cr 0 &-3 &-2\cr 0 & 4 & 3 \end{pmatrix} = \begin{pmatrix} 1 & 0 & 1\cr 0 &1 &-1\cr 0 &-2 & 1 \end{pmatrix} \begin{pmatrix} 1 & 0 & 0\cr 0 &1 &0\cr 0 & 0 & -1 \end{pmatrix} \begin{pmatrix} 1 & 2 & 1\cr 0 &-1 &-1\cr 0 & -2 & -1 \end{pmatrix} $$ ce qui donne, pour $p\in \Z$, $$ A^p= \begin{pmatrix} 1 & 0 & 1\cr 0 &1 &-1\cr 0 &-2 & 1 \end{pmatrix} \begin{pmatrix} 1 & 0 & 0\cr 0 &1 &0\cr 0 & 0 & (-1)^p \end{pmatrix} \begin{pmatrix} 1 & 2 & 1\cr 0 &-1 &-1\cr 0 & -2 & -1 \end{pmatrix} = \begin{pmatrix} 1 & 2-(2(-1)^p & 1-(-1)^p\cr 0 &-1+2(-1)^p &-1+(-1)^p\cr 0 & 2-2(-1)^p & 2-(-1)^p \end{pmatrix} $$ $\mathbf{b)\,}$ La matrice $B=\left( \begin{array}{ccc} -1 & a & -a \\ 1 & -1 & 0 \\ 1 & 0 & -1 \end{array} \right) $ n'est pas diagonalisable, en effet la seule valeur propre de $B$ est $-1$. On peut trigonaliser $B$ mais pour calculer $B^p$ il est plus pratique d'écrire $B$ sous la forme $-I_3+\left( \begin{array}{ccc} 0 & a & -a \\ 1 & 0 & 0 \\ 1 & 0 & 0 \end{array} \right)=-I_3+C$ puis on a : $$ C(-I_3)=(-I_3),~~~~C^2=\begin{pmatrix} 0&0&0\\ 0&a&-a\\ 0&a&-a \end{pmatrix} \text{ et }C^3=0.$$ On peut donc appliquer la formule de binôme de Newton, pour $p\in \N$ avec $p\geq 2$ $$B^p=(-I_3)^p+p(-1)^{p-1}C+\dfrac{p(p-1)}{2}(-1)^{p-2}C^2=(-1)^p\begin{pmatrix} 1&-pa&pa\\ -p&\frac{2+p(p-1)a}{2}&\frac{-p(p-1)a}{2}\\ -p&\frac{p(p-1)a}{2}&\frac{2-p(p-1)a}{2} \end{pmatrix}$$ D'autre part, comme $0\not\in \Sp(B)$ alors $B$ est inversible, donc on peut calculer $B^p$ avec $p\in \Z$. Pour cela, on calcule $B^{-1}$ puis on utilise la même démarche.
$\mathbf{c)\,}$ Le calcul des éléments propres de la matrice $C$ nous donne, $$ C=\left( \begin{array}{ccc} 1 & 1 & 1 \\ 2 & 2 & 2 \\ 0 & 0 & 1 \end{array} \right) =\frac{1}{6} \begin{pmatrix} -1&1&1\\ 1&2&2\\ 0&-2&0 \end{pmatrix} \begin{pmatrix} 0&0&0\\ 0&1&0\\ 0&0&3 \end{pmatrix} \begin{pmatrix} -4&2&0\\ 0&0&-3\\ 2&2&3 \end{pmatrix} $$ Ce qui donne, pour $p\in \N$, $$C^n=...=\dfrac{1}{6}\begin{pmatrix} 2\,3^p&2\,3^p&-3+3^{p+1}\\ 4\,3^p&4\,3^p&-6+2\,3^{p+1}\\ 0&0&6 \end{pmatrix}$$ $\mathbf{d)\,}$ On pose $C=\begin{pmatrix} a^2\\a\\1 \end{pmatrix}$ et $L=(\frac{1}{a^2} \,\frac{1}{a}\,1)$, alors $$CL=\left( \begin{array} {ccc} 1 & a & a^2 \\ \frac{1}{a} & 1 & a \\ \frac{1}{a^2} & \frac{1}{a} & 1 \end{array} \right),$$ Donc pour $p\in\N$, on a (voir aussi la feuille de TD sur les matrices) $$(CL)^p=(L\cdot C)^{p-1} CL =3^{p-1} \left( \begin{array} {ccc} 1 & a & a^2 \\ \frac{1}{a} & 1 & a \\ \frac{1}{a^2} & \frac{1}{a} & 1 \end{array} \right)$$

($\star$}{) Correction

Soit $a\in\R$. On pose, pour tout $n\in\N^*$ : $A_n=\begin{pmatrix} 1 & \frac{a}{n} \\ \frac{a}{n} & 1\end{pmatrix}$. Calculer $\lim\limits_{n\to\infty}(A_n)^n$.

Correction

On calcule le polynôme caractéristique de~$A_n$ : $$\chi_{A_n}(X)=(X-1)^2-\frac{a^2}{n^2}=X^2-2X+\left(1-\frac{a}{n}\right)\cdot \left(1+\frac{a}{n}\right),$$ dont les racines sont $\lambda_n^+ = 1+\frac{a}{n}\quad\text{et}\quad \lambda_n^- = 1-\frac{a}{n}$.
Les vecteurs propres de $A$ sont respectivement $X^+=\begin{pmatrix}1\\1 \end{pmatrix}$ et $X^-=\begin{pmatrix}1\\-1 \end{pmatrix}$, la matrice diagonalisant $A_n$ est donc indépendante de $n$ et vaut \begin{equation*} P= \begin{pmatrix} 1 & 1 \\ 1 & -1 \end{pmatrix}, \qquad\text{avec}\qquad P^{-1} =\frac12 \begin{pmatrix} 1 & 1 \\ 1& -1 \end{pmatrix} \end{equation*} On a donc $$ A_n =P\,\begin{pmatrix} 1+\frac an \\ & 1-\frac an \end{pmatrix} P^{-1} \Longrightarrow A_n^n = P\,\begin{pmatrix}\left(1+\frac an\right)^n\!\! \\ & \!\!\left( 1-\frac an\right)^n \end{pmatrix} P^{-1}, $$ c'est-à-dire $$\displaystyle \lim_{n\to\infty}A_n^n = P\,\begin{pmatrix}\ee^a&0\\0&\ee^{-a}\end{pmatrix} P^{-1} = \begin{pmatrix} \ch a & \sh a \\ \sh a & \ch a \end{pmatrix}.$$

($\star\star$) Correction

Trouver une matrice $M\in\MM_3(\C)$ telle que $M^2=\begin{pmatrix}0 & 1 & 1\\ 1 &0&1\\1&1&0\end{pmatrix}$. Peut-on imposer à~$M$ d'être réelle ?

Correction

$M^2$ se diagonalise en $$M^2=\dfrac{1}{3} \begin{pmatrix} 1 & 1 & 1 \\ -1 & 0 & 1 \\ 0 & -1 & 1 \end{pmatrix} \begin{pmatrix} -1 & 0 & 0 \\ 0 & -1 & 0 \\ 0 & 0 & 2 \end{pmatrix} \begin{pmatrix} 1 & -2 & 1 \\ 1 & 1 & -2 \\ 1 & 1 & 1 \end{pmatrix} $$ Il est donc aisé de trouver une matrice complexe qui marche, il suffit de prendre $M$ sous la forme: $$ \dfrac{1}{3} \begin{pmatrix} 1 & 1 & 1 \\ -1 & 0 & 1 \\ 0 & -1 & 1 \end{pmatrix} \begin{pmatrix} x\ii & 0 & 0 \\ 0 & y\ii & 0 \\ 0 & 0 & z\sqrt{2} \end{pmatrix} \begin{pmatrix} 1 & -2 & 1 \\ 1 & 1 & -2 \\ 1 & 1 & 1 \end{pmatrix} =\dfrac{1}{3} \begin{pmatrix} z\sqrt{2}+\ii (x+y) & z\sqrt{2}+\ii (-2x+y) & z\sqrt{2}+\ii (x-2y)\\ z\sqrt{2}-\ii x & z\sqrt{2}+\ii 2x & z\sqrt{2}-\ii x \\ z\sqrt{2}-\ii y & z\sqrt{2}-\ii y & z\sqrt{2}+\ii 2y \end{pmatrix} $$ avec $x,y,z\in \{-1,1\}$.
Cependant, s'il faut une matrice réelle, c'est plus compliqué. On peut, dans le sous-espace vectoriel associé à la valeur propre $-1$, et qui est de dimension $2$, effectuer une rotation d'angle $\dfrac{\pi}{2}$. On obtient alors par exemple \begin{equation*} M=\dfrac{1}{3} \begin{pmatrix} 1 & 1 & 1 \\ -1 & 0 & 1 \\ 0 & -1 & 1 \end{pmatrix}\begin{pmatrix} 0 & -1 &0\\ 1 & 0 &0\\ 0& 0& \sqrt{2} \end{pmatrix} \begin{pmatrix} 1 & -2 & 1 \\ 1 & 1 & -2 \\ 1 & 1 & 1 \end{pmatrix} = \dfrac{1}{3}\begin{pmatrix} \sqrt{2} & \sqrt{2}-3 & \sqrt{2}+3 \\ \sqrt{2}+1 & \sqrt{2}+1 &\sqrt{2}-2 \\ \sqrt{2}-1 & \sqrt{2}+2 & \sqrt{2}-1 \end{pmatrix} \end{equation*}

(CCP MP 200) Correction

On note $A=\begin{pmatrix} -4&4&-4\\ -4&4&4\\-8&8&0\end{pmatrix}$. Déterminer ses éléments propres. Trouver toutes les matrices $B\in\MM_3(\C)$ telles que $B^3=A$.

Correction

Après calcul, on trouve $$ \begin{pmatrix} -4&4&-4\\ -4&4&4\\-8&8&0\end{pmatrix} =\dfrac{1}{2} \begin{pmatrix} 1&0&1\\ 1&1&0\\0&1&1\end{pmatrix} \begin{pmatrix} 0&0&0\\ 0&8&0\\0&0&-8\end{pmatrix} \begin{pmatrix} 1&1&-1\\ -1&1&1\\1&-1&1\end{pmatrix} $$ On pose $$B=\dfrac{1}{2} \begin{pmatrix} 1&0&1\\ 1&1&0\\0&1&1\end{pmatrix} \begin{pmatrix} 0&0&0\\ 0&2a&0\\0&0&-2b\end{pmatrix} \begin{pmatrix} 1&1&-1\\ -1&1&1\\1&-1&1\end{pmatrix} =\begin{pmatrix} -b&b&-b\\ -a&a&a\\-a-b&a+b&a-b\end{pmatrix},~~a,b\in \{1,j,\overline{j}\}.$$ Alors, en tenant compte que $a^3=b^3=1$, on a: $$B^3=\begin{pmatrix} -4b^3&4b^3&-4b^3\\ -4a^3&4a^3&4a^3\\-4b^3-4a^3&4b^3+4a^3&4a^3-4b^3\end{pmatrix} =A$$

($\star$) Correction

Déterminer les matrice $A\in \MM_3(\R)$ telle que $A^2=\begin{pmatrix} 1&0&0\\1&1&0\\1&0&4 \end{pmatrix}$.

Correction

Notons $B=\begin{pmatrix} 1&0&0\\1&1&0\\1&0&4 \end{pmatrix}$, si $A$ est une solutions de l'équation $A^2=B$ alors $A$ et $B$ commutent, i.e. $AB=BA$. Supposons que $A=\begin{pmatrix} a&b&c\\x&y&z\\u&v&w \end{pmatrix}$, alors $$AB=BA\Longleftrightarrow \begin{pmatrix} b+c&0&3c\\ y+z-a&-b&3z-c\\ -3u+v+w-a&-3v-b&-c \end{pmatrix}=0\Longleftrightarrow\left\{\begin{array}{l} b=0\\ c=0\\ y=a\\ u=\frac{w-a}{3}\\ v=0 \end{array} \right. \Longleftrightarrow A=\begin{pmatrix} a&0&0\\ x&a&0\\ \frac{w-a}{3}&0&w \end{pmatrix} $$ Ensuite, on calcule $A^2$, $$A^2=\begin{pmatrix} a^2&0&0\\ 2xa&a^2&0\\ \frac{w^2-a^2}{3}&0&w^2 \end{pmatrix}=B\Longleftrightarrow\left\{\begin{array}{l} a^2=1\\ w^2=4\\ 2ax=1 \end{array}\right.\Longleftrightarrow A=\begin{pmatrix} \varepsilon_1&0&0\\ \frac{1}{2\varepsilon_1}&\varepsilon_1&0\\ \frac{2\varepsilon_2-\varepsilon_1}{3}&0&2\varepsilon_2 \end{pmatrix} $$ avec $\varepsilon_1,\,\varepsilon_2\in \{-1,1\}$.

($\star\star$) Correction

Soit $M=\dfrac{1}{4}\left(\begin{array}{rrrr} -1&1&7&-3\\ 1&-1&-3&7\\ 7&-3&-1&1\\ -3&7&1&-1 \end{array}\right)\in \MM_4(\R)$.

  1. Calculer $\chi_M$.
  2. Donner les éléments propres de $M$ (les valeurs propres, sous espaces propres avec leurs bases).
  3. Montrer que $A$ est diagonalisable, et déterminer une matrice $P\in GL_4(\R)$ et une matrice diagonale $D\in \MM_4(\R)$ telles que $M=PDP^{-1}$.
  4. Expliciter $P^{-1}$
  5. Calculer $M^n$ pour $n\in \N$.

Correction

  1. On a $\chi_M(x)=\det(M-xI_4)=\frac{1}{4^4}\det(4M-4xI_4)$, et $$\begin{array}{lcl} \chi_M(x)&=&\frac{1}{4^4}\begin{vmatrix} -1-4x&1&7&-3\\ 1&-1-4x&-3&7\\ 7&-3&-1-4x&1\\ -3&7&1&-1-4x \end{vmatrix}\overset{C_1,C_3}{=} \frac{1}{4^4}\begin{vmatrix} -4x&1&4&-3\\ -4x&-1-4x&4&7\\ 4&-3&-4x&1\\ 4&7&-4x&-1-4x \end{vmatrix}\\ &=&\frac{1}{4^2} \begin{vmatrix} -x&1&1&-3\\ -x&-1-4x&1&7\\ 1&-3&-x&1\\ 1&7&-x&-1-4x \end{vmatrix} =\frac{1}{4^2} \begin{vmatrix} 1-x&1&1&-3\\ 1-x&-1-4x&1&7\\ 1-x&-3&-x&1\\ 1-x&7&-x&-1-4x \end{vmatrix} \\ &&\\ &=&\frac{(1-x)}{4^2}\begin{vmatrix} 1&1&1&-3\\ 1&-1-4x&1&7\\ 1&-3&-x&1\\ 1&7&-x&-1-4x \end{vmatrix}\\ &=&\frac{(1-x)}{4^2}\begin{vmatrix} 1&1&1&-3\\ 0&-2-4x&0&10\\ 0&-4&-1-x&4\\ 0&6&-1-x&2-4x \end{vmatrix}=\frac{(1-x)}{4^2}\begin{vmatrix} -2-4x&0&10\\ -4&-1-x&4\\ 6&-1-x&2-4x \end{vmatrix}\\ &=&\frac{(1-x)}{4^2}\begin{vmatrix} -2-4x&0&10\\ -4&-1-x&4\\ 10&0&-2-4x \end{vmatrix} =\dfrac{-(1+x)(1-x)}{4}\begin{vmatrix} -2-4x&10\\ 10&-2-4x \end{vmatrix}\\ &=&\dfrac{(x-1)(x+1)(2+4x+10)(2+4x-10)}{4^2}=\boxed{(x-1)(x+1)(x-2)(x+3)} \end{array}$$

($\star\star$) Correction

Résoudre les équations suivantes d'inconnue $X\in \MM_3(\R)$. $$ \begin{array}{ll} \mathbf{a)\,} ~~ X^2=\begin{pmatrix} 1&0&0\\ 1&1&0\\ 1&0&4 \end{pmatrix},& \mathbf{b)\,}~~X^2=\begin{pmatrix} 11&-5&5\\ -5&3&-3\\ 5&-3&3 \end{pmatrix},\\ & \\ \mathbf{c)\, }~~ X^2=\begin{pmatrix} 0&0&0\\ 1&0&0\\ 1&1&0 \end{pmatrix},& \mathbf{d)\,} ~~X^3=\begin{pmatrix} -4&4&-4\\ -4&4&4\\ -8&8&0 \end{pmatrix}. \end{array} $$

Correction

  1. $\mathbf{a)\,}$
  2. $\mathbf{b)\,}$ Notons $A=\begin{pmatrix} 11&-5&5\\ -5&3&-3\\ 5&-3&3 \end{pmatrix}$, alors $$\begin{array}{lcl} \chi_A(\lambda)&=&\begin{vmatrix} 11-\lambda&-5&5\\ -5&3-\lambda&-3\\ 5&-3&3-\lambda \end{vmatrix}= \begin{vmatrix} 11-\lambda&-5&0\\ -5&3-\lambda&-\lambda\\ 5&-3&-\lambda \end{vmatrix}\\ &&\\ &=&\begin{vmatrix} 11-\lambda&-5&5\\ -5&3-\lambda&-\lambda\\ 10&-6+\lambda&0 \end{vmatrix}=-\lambda(\lambda-1)(\lambda-16) \end{array}$$ On en déduit que $\Sp(A)=\{0,1,16\}$, on remarque rapidement que $E_0(A)=\Vect (\begin{pmatrix} 0\\1\\1 \end{pmatrix})$, pour les autres valeurs propres,on résout le système $AX=\lambda X$, ce qui donne: $$E_1(A)=\Vect(\begin{pmatrix} 1\\1\\-1 \end{pmatrix}),\,E_{16}(A)=\Vect (\begin{pmatrix} 2\\-1\\1 \end{pmatrix} )\Longrightarrow A=P\begin{pmatrix} 0&0&0\\ 0&1&0\\ 0&0&16 \end{pmatrix} P^{-1}=PDP^{-1}$$ Avec $P=\begin{pmatrix} 0&1&2\\ 1&1&-1\\ 1&-1&1 \end{pmatrix}$ donc $P^{-1}=\dfrac{1}{6}\begin{pmatrix} 0&3&3\\ 2&2&-2\\ 2&-1&1 \end{pmatrix}$.
    Posons maintenant $Z=P^{-1}XP$ alors $Z^2= P^{-1}X^2P=P^{-1}AP=\begin{pmatrix} 0&0&0\\ 0&1&0\\ 0&0&16 \end{pmatrix}=D$, d'autre part on doit avoir $ZD=DZ$ (puisque $D\in \C[Z]$), si on pose $Z=\begin{pmatrix} a&b&c\\ x&y&z\\ u&v&w \end{pmatrix}$ alors $$DZ=ZD\Longrightarrow\begin{pmatrix} 0&0&0\\ x&y&z\\16u&16v&16w \end{pmatrix} =\begin{pmatrix} 0&b&16c\\ 0&y&16z\\ 0&v&16w \end{pmatrix}\Longrightarrow Z=\begin{pmatrix} a&0&0\\ 0&y&0\\ 0&0&w \end{pmatrix}$$ Donc $Z^2=D$ donne $a=0,\, y=\mp 1,\,w= \mp4$. On en déduit finalement, $$\begin{array}{lcl} X&=&\begin{pmatrix} 0&1&2\\ 1&1&-1\\ 1&-1&1 \end{pmatrix} \begin{pmatrix} 0&0&0\\ 0&y&0\\ 0&0&w \end{pmatrix}\dfrac{1}{6}\begin{pmatrix} 0&3&3\\ 2&2&-2\\ 2&-1&1 \end{pmatrix}\\ &&\\ &=&\dfrac{1}{6}\begin{pmatrix} 2y+4w&2y-2w&-2y+2w\\ 2y-2w&2y+w&-2y-w\\ -2y+2w&-2y-w&2y+w \end{pmatrix} \end{array}$$
  3. $\mathbf{c)\,}$ Si $X=\begin{pmatrix} a&b&c\\ x&y&z\\ u&v&w \end{pmatrix}$ existe alors on doit avoir $$\begin{pmatrix} a&b&c\\ x&y&z\\ u&v&w \end{pmatrix} \begin{pmatrix} 0&0&0\\ 1&0&0\\ 1&1&0 \end{pmatrix}=\begin{pmatrix} 0&0&0\\ 1&0&0\\ 1&1&0 \end{pmatrix}\begin{pmatrix} a&b&c\\ x&y&z\\ u&v&w \end{pmatrix}$$ Donc $X=\begin{pmatrix} a&0&0\\ x&a&0\\ u&x&a \end{pmatrix}$ puis $$X^2=\begin{pmatrix} a^2&0&0\\ 2xa&a^2&0\\ 2ua+x^2&2xa&a^2 \end{pmatrix}= \begin{pmatrix} 0&0&0\\ 1&0&0\\ 1&1&0 \end{pmatrix} \Longrightarrow a=0,\,0=1!$$ Impossible, donc l'équation $X^2=\begin{pmatrix} 0&0&0\\ 1&0&0\\ 1&1&0 \end{pmatrix}$ n'a pas de solutions.
  4. $\mathbf{d)\,}$ On pose $A=\begin{pmatrix} -4&4&-4\\ -4&4&4\\ -8&8&0 \end{pmatrix}$. Après calcul, on trouve $$A = \begin{pmatrix} 1&0&1\\ 1&1&0\\ 0&1&1 \end{pmatrix} \begin{pmatrix} 0&0&0\\ 0&8&0\\ 0&0&-8 \end{pmatrix}\begin{pmatrix} 1/2&1/2&-1/2\\ -1/2&1/2&1/2\\ 1/2&-1/2&1/2 \end{pmatrix}. $$ Donc $$X= \begin{pmatrix} 1&0&1\\ 1&1&0\\ 0&1&1 \end{pmatrix} \begin{pmatrix} 0&0&0\\ 0&a&0\\ 0&0&b \end{pmatrix}\begin{pmatrix} 1/2&1/2&-1/2\\ -1/2&1/2&1/2\\ 1/2&-1/2&1/2 \end{pmatrix}=\dfrac{1}{2} \begin{pmatrix} b&-b&b\\ -a&a&a\\ -a+b&a-b&a+b \end{pmatrix} $$ avec $a=2,\,b =-2$.

(Navale PSI 2019) Correction

Soit $A=\begin{pmatrix} 1&-1&1\\ 3&-2&2\\ 1&0&0 \end{pmatrix}\in \MM_3(\R)$. On souhaite rechercher $M\in \MM_3(\R)$ vérifiant $M^2=A$.

  1. La matrice $A$ est-elle diagonalisable? triangulisable?
  2. Réduire $A$.
  3. Que dire du spectre d'une solution $M$?
  4. Résoudre $M^2=A$.

Correction

  1. On calcul $\chi_A$, $$\begin{array}{lcl} \chi_A(x)&=&\begin{vmatrix} 1-x&-1&1\\ 3&-2-x&2\\ 1&0&-x \end{vmatrix}\\ &=&\begin{vmatrix} 1-x&-1&0\\ 3&-2-x&-x\\ 1&0&-x \end{vmatrix}=\begin{vmatrix} 1-x&-1&0\\ 2&-2-x&0\\ 1&0&-x \end{vmatrix}\\ &=&-x \begin{vmatrix} 1-x&-1\\ 2&-2-x \end{vmatrix}=-x((x+2)(x-1)+2)=-x^2(x+1) \end{array}$$ On détermine $E_0(A)$ $$\begin{pmatrix}a\\b\\c\end{pmatrix}\in \Ker(A) \Longleftrightarrow\left\{\begin{array}{lcl} a-b+c&=&0\\ 3a-2b+2c&=&0\\ a&=&0 \end{array}\right. \Longleftrightarrow a=0,\, b=c.$$ Donc $E_0(A)=\Vect({\,}^t (0\,1\,1))$. Donc $\dim(E_0(A))=1< \mu_0(A)=2$. On en déduit alors $$\textcolor{blue}{ A \text{ n'est pas diagonalisable mais elle est trigonalisable}}.$$
  2. Un calcul simple nous donne $E_{-1}(A) =\Vect ({\,}^t (1\,\,1\,\,-1))$. On pose alors $$e_1=\begin{pmatrix}1\\1\\-1\end{pmatrix},\, e_2=\begin{pmatrix}0\\1\\1\end{pmatrix}$$ Pour compléter cette famille à une base de $\R^3$, on choisit un vecteur $e_3\not\in \Vect(e_1,e_2)$ ou le mieux on choisit un vecteur $e_3\in \Ker (A-0I_3)^3\setminus E_0(A)$, on peut prendre par exemple $e_3=\begin{pmatrix}1\\2\\1\end{pmatrix}$.
    On obtient alors $$ A = \underset{P}{\begin{pmatrix}1&0&1\\ 1&1&2\\ -1&1&1 \end{pmatrix}}\begin{pmatrix} -1&0&0\\ 0&0&1\\ 0&0&0 \end{pmatrix}\underset{P^{-1}}{\begin{pmatrix}-1&1&-1\\ -3&2&-1\\ 2&-1&1 \end{pmatrix}} $$
  3. Si $\lambda\in \Sp (M)$ alors $\lambda^2\in \Sp (A)=\{-1,0\}$, on en déduit que si $M$ est une solution alors $\Sp_\C (M)\subset \{0,\mp\ii\}$ et $\Sp_\R(M)=\{0\}$.
  4. D'après les questions précédentes, l'équation $M^2=A$ n'a pas de solution dans $\MM_3(\R)$.

SUITES

($\star\star$) Correction

  1. On pose $A=\begin{pmatrix} 1 & -1 & -2 \\ 0 & 2 & 1 \\ 1 & 1 & 3\end{pmatrix}$. Trigonaliser $A$.
  2. Déterminer les suites $(u_n)$, $(v_n)$ et $(w_n)$ qui vérifient $(u_0,v_0,w_0)=(1,0,0)$ et les relations de récurrence $$\forall n\in \N,\quad \quad \left\{\begin{array}{lcl} u_{n+1} & =& u_n-v_n-2w_n \\ v_{n+1} & =& 2v_n +w_n \\ w_{n+1} & = &u_n + v_n + 3w_n. \end{array}\right.$$

Correction

  1. Un calcul passionnant du polynôme caractéristique montre que $\chi_A=-(X-2)^3$, donc seul $2$ est valeur propre, or $A\neq 2I$ donc $A$ n'est pas diagonalisable. Une base de $\Ker(A-2I_n)$ est $V={\,}^t (1,-1,0)$. On la complète avec $V_2={\,}^t (-1,0,1)$ et $V_3={\,}^t (1,0,0)$ et $$\begin{array}{lcl} P^{-1} A P &=& \begin{pmatrix} 0 & 1 & 0 \\ 0 & 0 & 1 \\ 1 & 1 & 1 \end{pmatrix} \cdot \begin{pmatrix} 1 & -1 & -2 \\ 0 & 2 & 1 \\ 1 & 1 & 3\end{pmatrix} \cdot \begin{pmatrix} 1 & -1 & 1 \\ -1 & 0 & 0 \\ 0 & 1 & 0\end{pmatrix} \\ & = & \begin{pmatrix} 2 & 1 & 0 \\ 0 & 2 & 1 \\ 0 &0 & 2\end{pmatrix}=T. \end{array} $$
  2. On pose ensuite $X_n={\,}^t (u_n,v_n,w_n)$, alors $X_n=A^n X_0$. Le problème est donc de calculer $A^n$. Or $T=2I+N$ avec $N^2 = \begin{pmatrix} 0 & 0 & 1 \\ 0& 0 &0 \\ 0 &0&0\end{pmatrix}$ et $N^3=0$ donc $$\begin{array}{lcl} T^n & =& 2^n I +n2^{n-1} N + \frac{n(n-1)}{2}2^{n-2}N^2 \\ & =& \begin{pmatrix} 2^n & n2^{n-1} & 2^{n-3} n (n-1) \\ 0 & 2^n & n2^{n-1} \\ 0 & 0 & 2^n \end{pmatrix}, \end{array} $$ ce qui donne en définitive $$\left\{\begin{array}{lcl} u_n & =& 2^n -n2^{n-1} - n(n-1)2^{n-3} \\ v_n & = &n(n-1)2^n \\ w_n & =& n2^{n-1}. \end{array} \right. $$

($\star\star$) Correction

Soient $u_0>0,\,u_1>0$ et $(u_n)_n$ la suite définie par: $ \forall n\in \N,~~u_{n+2}=\dfrac{2}{\frac{1}{u_{n+1}}+\frac{1}{u_n}}$.
Calculer $u_n$ puis déterminer $\dsp\limiteX{n}{\infty} u_n$. ( On pourra considérer $v_n=1/u_n$ après avoir montré que $u_n>0$).

Correction

On montre par récurrence que $u_n>0$, puis on pose $v_n=1/u_n$ ensuite on montre que $v_{n+2}=\dfrac{v_{n+1}+v_n}{2}$.
On note $V_n=\begin{pmatrix} v_n\\ v_{n+1} \end{pmatrix}$ et $A=\begin{pmatrix} 0&1\\ \frac{1}{2}&\frac{1}{2} \end{pmatrix}$. Ce qui donne $V_{n}=A^nV_0$.
On calcule $A^n$, puis $$v_n=\frac{1}{3}\left(\left(1+2(\frac{-1}{2})^n\right)v_0+\left(1-2(\frac{-1}{2})^n\right)v_1\right)$$ ce qui donne, $$u_n=3\left(\left(1+2(\frac{-1}{2})^n\right)\frac{1}{u_0}+\left(1-2(\frac{-1}{2})^n\right)\frac{1}{u_1}\right)^{-1}.$$ Ensuite $\dsp\limiteX{n}{\infty}u_n=\dfrac{3u_0u_1}{2u_0+u_1}$