Réduction I

Eléments propres

($\star$) Correction

Soient $E$ un $\K$-ev, $f,g\in \LL(E)$ tels que $g\circ f=f\circ g$. Montrer que tout sous-espace propre pour $f$ est stable par $g$, et que $\Ker (f)$ et $\im (f)$ sont stables par $g$.

Correction

Soit $\lambda\in \Sp (f)$, et $E_\lambda$ le sous espace propre associé à $\lambda$. On a: $$\forall x\in E_\lambda,~~f(g(x))=g(f(x))=g(\lambda x)=\lambda g(x)\Longrightarrow g(x)\in E_\lambda.$$ Ce qui donne $\boxed{g(E_\lambda)\subset E_\lambda}$.
Pour $\Ker(f)$ et $\im(f)$ la démonstration a été fait dans le cours.

($\star\star$) Correction

On note $E=\R^{\N^*}$, ensemble des suites réelles. On définit $f\in\LL (E)$ par $$\forall u\in E,\quad\forall n\in\N^*,\qquad \big(f(u)\big)_n=\dfrac{u_1+2u_2+\dots+n\,u_n}{n^2}.$$ Déterminer l'ensemble des valeurs propres de~$f$.

Correction

Nous allons montrer que $\Sp(f)=\{\frac{1}{n},\,n\in \N^*\}$.

  1. Soit $\lambda\in \Sp(f)$, il existe une suite $u=(u_n)_{n\geq 1}$ non nulle telle que $f(u)=\lambda u$.
    Soit $m$ le plus petit indice tel que $u_m\neq 0$ (on sait que $m$ existe puisque $u\neq 0$ et que $m>0$). On a alors: $$f(u)_m=\dfrac{0+\cdots+mu_m}{m^2}=\dfrac{u_m}{m}=\lambda u_m\Longrightarrow \lambda=\frac{1}{m}.$$ Ce qui montre que $\Sp(f)\subseteq \{\frac{1}{n},\,n\in \N^*\}$.
  2. Inversement, soit $m\in \N^*$. Considérons la suite $u=(u_n)_{n\geq 1}$ définie par: $$u_0=\cdots=u_{m-1}=0,~~~~\forall n\geq m, ~~u_n={n-1 \choose m-1}\dfrac{m}{n}.$$ Alors, pour tout $n\geq m$, on a: $$f(u_n)_n=\dfrac{mu_m+\cdots+ nu_n}{n^2}=\dfrac{m\dsum_{k=m}^n{k\choose m-1}}{n^2}=\dfrac{(n-m+1){n\choose m-1}}{n^2}=\dfrac{{n-1\choose m-1}}{n}=\dfrac{u_n}{m}$$ ce résultat reste vrai si $n\in \{1,\cdots,m-1\}$. On en déduit que $\dfrac{1}{m}\in \Sp(f)$

Conclusion $\boxed{ \Sp(f)=\left\{\frac{1}{n},\,n\in \N^*\right\}}$.

($\star$) Correction

On note $X={\,}^t (x_1\, \cdots x_n)$. Déterminer les éléments propres de la matrice $X {\,}^t X$.

Correction

Si $X=0$ alors $X {\,}^t X=0$ et dans ce cas la seule v.p est 0.
Si $X\neq 0$, on a déjà vu dans le cours (et aussi feuille de TD sur les matrices) que $\rg(X {\,}^t X)=1$ donc $0$ est une v.p d'ordre $n-1$ il faut chercher la deuxième v.p, pour cela, on a $$ (X {\,}^t X)X= X ({\,}^t X\cdot X)=\norme{X}^2X\Longrightarrow \norme{X}^2\in \Sp(X)$$ Donc $\boxed{\Sp (X{\,}^t X)=\{0;\norme{X}^2\}}$.

($\star--\star\star\star$ ) Correction

Déterminer les valeurs propres et les vecteurs propres de l'endomorphisme $f$ dans les cas suivant

  1. $n\in \N^*,~~a\in \C$, $\fonct{f}{\C_n[X]}{\C_n[X]}{P}{((X+a)P)'}$.
  2. $E=\R[X]$, $\fonct{f}{E}{E}{P}{X(P(X)-P(X-1))}$.
  3. $E=\K[X]$, $g\in \LL (E)$ définie par $g(P)=XP$ . On définit $\fonct{f}{\LL(E)}{\LL (E)}{h}{g\circ h-h\circ g}$.
  4. $E=\R[X]$, $a,b\in \R$ avec $a< -b$. $\fonct{f}{E}{E}{P}{X^2P''-(a+b-1)XP'+abP)}$.
  5. $n\in \N^*,~~E=\R_n[X]$, $\fonct{f}{E}{\R[X]}{P}{X(1-X)P'+nXP}$ (Vérifier avant que $f\in \LL (E)$.

Correction

  1. $\Sp(f)=\inter{1,n+1}$, et pour $1\leq k\leq n+1$, $E_k=\Vect( (X+a)^{k-1})$.
  2. $\Sp(f)=\N$. Pour $k\in \N$, on définit $P_k$ par $$P_0=1,~~P_1=X,~~\forall k\geq 2,~~P_k=X(1-X)\cdots (k-1-X)=(k-1-X)P_{k-1}.$$ On a, pour tout $k\in \N$, $E_k=\Vect (P_k)$.
  3. $\Sp(f)=\K$, et pour tout $\lambda\in \K$, on a $$E_\lambda=\left\{\fonct{g}{\K[X]}{\K[X]}{P}{A(X)P(X-\lambda)},\,A\in \K[X]\right\}.$$
  4. $\Sp(f)=\{(k-a)(k-b),\,k\in \N\}$, pour tout $\lambda_k=(k-a)(k-b)\in \Sp(f)$ (avec $k\in \N$), on a $E_{\lambda_k}=\Vect(X^k)$.
  5. $\Sp(f)=\inter{1,n}$, et pour $k\in \Sp(f)$, $E_k=\Vect(X^k(1-X)^{n-k})$.

($\star$) Correction

Soit $E$ un $\K$ ev de dimension finie $n$. Soient $u,v\in \LL (E)$. Montrer que $\Sp_\K(u\circ v)=\Sp_\K(v\circ u)$.

Correction

Soit $\lambda\in \Sp (u\circ v)$, on a

  1. Si $\lambda = 0$ alors $u\circ v$ n'est pas injective donc $v\circ u$ n'est pas injective aussi puisque $0=\det( u\circ v)=\det(u)\det(v)=\det(v)\det(u)=\det (u\circ v)$, donc $\lambda\in \Sp (v\circ u)$.
  2. Si $\lambda\neq 0$, alors il existe $x\in E$ non nul tel que $u(v(x))=\lambda x\neq 0$. Cette relation impose que $v(x)\neq 0$, d'où en appliquant $v$ à cette relation, on obtient: $$v(u(v(x))=v(\lambda x)=\lambda v(x)\Longrightarrow \lambda \in \Sp(v\circ u)$$

Dans les deux cas, on obtient $\Sp (u\circ v)\subseteq \Sp(v\circ u)$. En échangeant les rôles entre $u$ et $v$ on obtient l'inclusion inverse. D'où $$\boxed{ \Sp (u\circ v)= \Sp(v\circ u)}.$$

($\star$) Correction

Soit $A\in \MM_n(\C)$, on pose $B={\,}^t (\text{Com}(A))$. Montrer que tout vecteur propre de $A$ est vecteur propre de $B$.

Correction

On sait qu'on la relation suivante : $AB=BA=\det(A)I_n$.
Soit $\lambda\in \Sp (A)$, on distingue deux cas:

  1. $\lambda\neq 0$, soit alors $X\in \R^n$ non nul tel que $AX=\lambda X$, d'après la relation ci-dessus, on a: $$BAX=\det(A)I_n=B(\lambda X)\Longrightarrow BX = \dfrac{\det A}{\lambda}X $$ autrement dit, $X$ est un vecteur propre de la matrice $B$.
  2. Si $\lambda=0$, alors la matrice $A$ n'est pas inversible ( car $0\in \Sp (A)$), donc $\rg (A)< n$. On distingue également deux cas:
    1. $\rg (A)= n-1$, donc $\dim (\Ker (A))=1$. Soit alors $X\in \Ker(A)$ non nul, si $BX = 0 $ alors $X$ est un vecteur propre de $A$, sinon on a $ABX= B(AX)=B(0)=0$ i.e. $BX\in \Ker A$, or $\Ker A=\Vect X $ ($\dim (\Ker A)=1$) donc il existe $a\in \C$ tel que $BX =a X$ autrement dit $X$ est un vecteur propre de $B$.
    2. Si $\rg A< n-1$ alors $\rg B=0$ donc tout vecteur de $\C^n\{0\}$ est un vecteur propre de $B$ y compris les vecteurs propres de $A$.

($\star$) Correction

Soient $n \geqslant 2$, $A \in \MM_n (\mathbb{R})$ et $f$ l'endomorphisme de $\MM_n (\mathbb{R})$ défini par $f(M) = \textrm{tr} (A)M - \textrm{tr} (M)A$, où $\textrm{tr} $ désigne la forme linéaire trace. Étudier la réduction de l'endomorphisme $f$ et préciser la dimension de ses sous-espaces propres.

Correction

On distingue deux cas:

  1. Le cas ou $\tr (A)\neq 0$.
    Supposons dans ce cas que $\lambda\in \R$ est une v.p de $f$, alors $$\begin{array}{lcl} \exists M\in \MM_n(\R), \,M\neq 0 \text{ et } f(M)=\lambda M&\Longrightarrow & \left(\tr(A)-\lambda\right)M=\tr(M)A\\ &&\\ &\Longrightarrow &\left\{ \begin{array}{lcl} \tr(M)=0& \text{ si }& \lambda =\tr (A)\\ M\in \Vect(A)&\text{ si }& \lambda\neq \tr(A). \end{array} \right. \end{array}$$
    1. [$\blacktriangleright$] Si $\lambda =\tr (A)$ alors $$f(M)=\lambda M\Longleftrightarrow \tr (M)=0 \Rightarrow \lambda=0.$$ Donc $0$ est une valeur propre de $f$ et $E_0(f)=\Ker(\tr)$ donc $\dim (E_0(f))=\dim(\MM_n(\R))-1$.
    2. [$\blacktriangleright$] Si $\lambda$ est une valeur propre différente de $\tr (A)$ alors on a $E_\lambda(f)\subset \Vect(A)$.
      Soit $M=\alpha A$, on a $f(M)=\tr (A)M-\tr(M)A=\alpha\tr(A)A-\alpha\tr (A) A=0$. Donc $\lambda=0$ une v.p. de $f$. De plus $E_0(f)=\Vect (A)$.
    Conclusion dans ce cas $\boxed{ \Sp (f)=\{0,\tr (A)\}}$ et $f$ est diagonalisable.
  2. Cas ou $\tr (A)=0$.
    Dans ce cas $f(M)=\tr(M)A$ et en utilisant le même raisonnement que dans le cas précédent, on trouve $\boxed{\Sp (f)=\{0\}}$, et $f$ n'est pas diagonalisable.
($\star\star$) Correction

Soit $E = \CC(\left[ {0,1} \right],\R)$. Si $f \in E$ on pose $$T(f):x \in \left[ 0,1 \right] \longmapsto \int_0^1 \min (x,t)f(t)\,\ud t $$

  1. Vérifier que $T$ est un endomorphisme de $E$.
  2. Déterminer les valeurs propres et les vecteurs propres de $T$.

Correction

On peut écrire, $$\forall f\in E,\,\forall x\in [0,1],\quad T(f)(x)=\int_0^x tf(t)\ud t+x\int_x^1f(t)\ud t.$$ La linéarité de $T$ est évidente, de plus remarquons que si $f$ est continue alors $T(f)$ est de classe $\CC^1$.
Supposons que $\lambda\in \R$ est une v.p. de $T$, alors il existe une fonction $f$ non nulle tel que $T(f)=\lambda f$, ce qui impose que $f$ soit de classe $\CC^\infty$ et aussi $f(0)=0$. En dérivant deux fois cette relation on trouve: $$\forall x\in [0,1],\quad xf(x)+\int_x^1f(t)\ud t-xf(x)=\lambda f'(x)\Longrightarrow \forall x\in [0,1],\,\,-f(x)=\lambda f''(x).$$ On note également, si $f$ est solution qui convient alors $f'(1)=0$.
On distingue 3 cas:

  1. $\lambda >0$, dans ce cas si $f$ existe alors forcement $f$ est de la forme suivante: $$\forall x\in [0,1],\,f(x)=\alpha \cos\left(\frac{x}{\sqrt{\lambda}}\right)+\beta\sin\left(\frac{x}{\sqrt{\lambda}}\right)=\beta\sin\left(\frac{x}{\sqrt{\lambda}}\right) \text{ puisque }f(0)=0.$$ De plus $f'(x)=\dfrac{\beta}{\sqrt{\lambda}}\cos\left(\frac{x}{\sqrt{\lambda}}\right)$ donc la condition $f'(1)=0$ implique $\sin\left(\frac{1}{\sqrt{\lambda}}\right)=0$ soit $\frac{1}{\sqrt{\lambda}}=\frac{\pi}{2}[\pi]$.
    Ce qui donne $\lambda=\dfrac{1}{(\frac{\pi}{2}+k\pi)^2},\,k\in \Z$ .
    Inversement pour $\lambda=\dfrac{1}{(\frac{\pi}{2}+k\pi)^2},\,k\in \Z$, on montre que la fonction $x\longmapsto \sin \left(\frac{x}{\sqrt{\lambda}}\right) $ est un vecteur propre associé à $\lambda$.
  2. $\lambda=0$, dans ce cas la seule fonction qui vérifie $T(f)=\lambda f$ est la fonction nulle. Donc $0\not \in \Sp (T)$.
  3. $\lambda< 0$, dans ce cas la fonction $f$ s'écrit de la façon suivante: $$\forall x\in [0,1],\,f(x)=\alpha \ch\left(\frac{x}{\sqrt{\abs{\lambda}}}\right)+\beta\sh\left(\frac{x}{\sqrt{\abs{\lambda}}}\right)=\beta\sh\left(\frac{x}{\sqrt{\abs{\lambda}}}\right) \text{ puisque }f(0)=0.$$ En tenant compte de la condition $f'(1)=\frac{\beta}{\sqrt{\abs{\lambda}}}\ch(\frac{1}{\sqrt{\abs{\lambda}}})=0$, on trouve que $f=0$, donc $\lambda\not\in \Sp (T)$.

Conclusion, $$\boxed{\Sp (T)=\left\{\dfrac{1}{(\frac{\pi}{2}+k\pi)^2},\,k\in\Z\right\},\,E_\lambda(T)= \Vect(x\longmapsto \sin\left(\frac{x}{\sqrt{\lambda}}\right) )}.$$

($\star\star$) Correction

Soit $A\in \MM_n(\R)$. On dit que $A$ est une matrice pseudo-magique ssi il existe un réel $S(A)\in \R$ tel que $$\forall i,j\in \inter{1,n},\quad \sum_{k=1}^na_{i\,k}=\sum_{k=1}^na_{k\,j}=S(A).$$ On note $E$ l'ensemble des matrice pseudo-magique et on note $J$ la matrice de $\MM_n(\R)$ dont tous les coefficients sont égaux à $1$.

  1. Montrer que $E$ est une s-e-v de $\MM_n(\R)$.
  2. Montrer que $A\in E$ ssi il existe $\beta \in \R$ tel que $AJ=JA=\beta J$.
  3. Montrer que si $A\in E$ inversible alors $S(A)\neq 0$ et $A^{-1}\in E$. Que vaut $S(A^{-1})$?
  4. Soit $A\in E$. Montrer que $S(A)$ est une valeur propre de $A$.
  5. Soit $A\in E$, on suppose que les coefficients de $A$ sont positifs. Montrer que si $\alpha\in \Sp(A)$ alors $\abs{\alpha}\leq S(A)$.

Correction

  1. Application directe de la définition d'un s-e-v.
  2. Soit $A\in \MM_n(\R)$, on suppose qu'il existe $\beta\in \R$ tel que $AJ=JA=\beta J$, ainsi, pour tout $(i,j)\in \inter{1,n}^2$, on a $$\begin{array}{lcl} (AJ)_{i\,j}&=& \dsum_{k=1}^n a_{i\, k} J_{k\, j} =\dsum_{k=1}^n a_{i\, k}=\beta\\ (JA)_{i\,j}&=& \dsum_{k=1}^n J_{i\, k} a_{k\, j}=\dsum_{k=1}^n a_{k\, j}=\beta \end{array}$$ Ceci prouve que $A\in E$ et $S(A)=\beta$.
    Inversement, si $A\in E$, alors il est clair que $AJ=JA=S(A)J$.
  3. Supposons que $A\in E\cap GL_n(\R)$, alors d'après la question précédente, on a $$AJ=JA=S(A)J \quad\qquad (\star)$$ En patriculier, $S(A)\neq 0$ (car sinon on aurait $AJ=0$ donc $A^{-1}AJ=J=0$ ce qui est impossible).
    En multipliant la relation $(\star)$ à droite par $A^{-1}$ (puis à gauche par $A^{-1}$), on obtient: $$ S(A)JA^{-1}=J=S(A)A^{-1}J \Longleftarrow A^{-1}J=JA^{-1}=\dfrac{1}{S(A)}J$$ D'après la question précédente, on conclut que $A^{-1}\in E$ et $S(A^{-1})=1/S(A)$.
  4. On note $X={\,}^t (1\,\cdots \,1)$ alors $AX=S(A)X$ donc $S(A)\in \Sp (A)$.
  5. Soit $\alpha\in \Sp (A)$, alors il existe $X\in \R^n$ non nul tel que $AX=\alpha X$. Soit $i_0\in \inter{1,n}$ tel que $\abs{x_{i_0}}=\norme{X}_\infty$, supposons que $\alpha\neq 0$ (si $\alpha=0$ il n'y rien à démontrer), alors $$\abs{\alpha x_{i_0}}=\abs{\dsum_{j=1}^n a_{i_0\,j}x_j}\leq \dsum_{j=1}^n \abs{a_{i_0\,j}}\abs{ x_j}\leq \abs{ x_{i_0}}\dsum_{j=1}^n a_{i_0\,j}=S(A)\abs{x_{i_0}}.$$ En divisant la relation précédente par $x_{i_0}$ ($\neq 0$), on obtient $\abs{\alpha}\leq S(A)$.

(TPE-EIVP PSI 2018) Correction

Soit $A$ et $B$ deux matrices de $\MM_n(\C)$. Montrer que $A$ et $B$ admettent une valeur propre commune ssi il existe une matrice $U$ non nulle de $\MM_n(\C)$ telle que $AU=UB$.

Correction

$\Longrightarrow$ Supposons que $\lambda\in \Sp (A)\cap\Sp (B)$, alors $\lambda\in \Sp ({\,}^t B)$, ce qui donne $$\exists X\in \C^n,\,X\neq 0,\, AX=\lambda X,\, \exists Z\in \C^n,\, Z\neq 0,\, {\,}^t B Z=\lambda Z$$ On pose alors $U=X{\,}^t Z$, on a $$AU= AX{\,}^t Z=\lambda X{\,}^t Z=\lambda U,\, UB=X{\,}^t Z B=X{\,}^t ({\,}^t B Z)=X(\lambda {\,}^t Z)=\lambda U$$ Autrement dit, $AU=UB$.
$\Longleftarrow$ Supposons que $AU=UB$ avec $U\neq 0$ et montrons que $\Sp (A)\cap \Sp (B)\neq \emptyset$.
Puisque $AU=UB$ alors $A^2U=AAU=AUB=UB^2$ puis par récurrence on montre que pour tout $k\in \N$, $A^kU=UB^k$, en particulière $$\forall P\in \C[X],\quad P(A)U=UP(B)$$ supposons que $\Sp (A)\cap \Sp (B)= \emptyset$ alors la matrice $\chi_A (B)$ est inversible, puisque pour tout $\lambda\in \Sp (A),\, B-\lambda I_n $ est inversible. On obtient alors, $$O=\chi_A(A)U=U\chi_A(B)\Longrightarrow U=0$$ ce qui est impossible, autrement dit, $\Sp (A)\cap \Sp (B)\neq \emptyset$.

(CCP PSI 2018) Correction

Soit $E$ un $\R$-espace vectoriel de dimension $n\geq 2$ et $x_0$ un vecteur non nul de $E$. On considère une forme linéaire $\varphi$ et on pose pour tout $x$ dans $E$, $u(x)=x+\varphi(x)x_0$.

  1. Montrer que $u$ est un endomorphisme de $E$.
  2. Montrer que $1$ est une valeur propre de $u$. Déterminer le sous-espace propre $E_1$ et sa dimension.
  3. Donner une condition nécessaire et suffisante pour que $u$ soit diagonalisable. Dans ce cas, déterminer ses valeurs propres et les sous-espaces propres associés.

Correction

On suppose que $\varphi\neq 0$ car sinon on aurait $u=\mathrm{Id}e$

  1. Soient $x,y\in E$ et $\lambda\in \R$, on a $$\begin{array}{lcl} u(\lambda x+y)&=& (\lambda x+y)+\varphi(\lambda x+y)x_0\\ &=& \lambda x+y + (\lambda\varphi(x)+\varphi(y))x_0\\ &=&\lambda x+\lambda \varphi(x)x_0+y+\varphi (y)x_0=\lambda u(x)+u(y) \end{array}$$ Ceci prouve que $u\in \LL(E)$.
  2. Comme $\varphi$ est une forme linéaire non nul, alors $\dim (\Ker(\varphi))=n-1$, soit alors $(e_1,\cdots,e_{n-1})$ une base de $\Ker( \varphi)$, alors $$\forall i\in \inter{1,n-1},\, u(e_i)=e_i+\varphi(e_i)x_0=e_i+0\times x_0=e_i$$ Ainsi $1\in \Sp (u)$ et $\dim(E_1(u))\geq n-1$, mais comme $u\neq \mathrm{Id}e$ (car $\varphi\neq 0$), alors $\dim (E_1(u))=n-1$.
  3. Supposons que $\lambda\in \R,\, \lambda\neq 1$ est une valeur propre de $u$, alors il existe $x\neq 0$ tel que $$u(x)=x+\varphi(x)x_0=\lambda x \Longrightarrow x= \dfrac{\varphi (x)}{1-\lambda}x_0 \Longrightarrow x\in \Vect (x_0)$$ Autrement dit, s'il y a une autre valeur propre, alors on aurait $E_\lambda (u)=\Vect (x_0)$.
    1. Si $x_0\not\in \Ker (\varphi)$, on a $$u(x_0)=x_0+\varphi(x_0)x_0=(1+\varphi(x_0))x_0$$ donc dans ce cas $1+\varphi (x_0)\in \Sp (u)$ et $u$ est diagonalisable.
    2. Si $x_0\in \Ker (\varphi)$ alors $u(x_0)=x_0$ donc $x_0\in E_1(u)$, autrement dit, il n'y a pas d'autre valeurs propres, et donc $u$ n'est pas diagonalisable.
    Conclusion: $u$ est diagonalisable ssi $\varphi(x_0)\neq 0$.
(Mines-Ponts PSI 2017) Correction

Montrer que $D$ défini par $D(f)(x)=xf'(x)$ est un endomorphisme de $\CC^\infty(\R,\R)$. Trouver $\Ker (D)$ puis ses éléments propres.

Correction

Il est claire que si $f\in\CC^\infty(\R)$ alors $f'$ l'est aussi, puis $x\longmapsto xf'(x)$ est aussi de classe $\CC^\infty$ comme le produit de deux fonction de classe $\CC^\infty$. Donc $D(f)\in \CC^\infty(\R)$.
Soient $f,g\in \CC^\infty(\R)$ et $\lambda\in \R$, on a $$\forall x\in \R,\,D(\lambda f+g)(x)=x(\lambda f+g)'(x)=x(\lambda f'(x)+g'(x))=\lambda D(f)(x)+D(g)(x)$$ Donc $D$ est linéaire, ce qui prouve que $D$ est un endomorphisme de $\CC^\infty(\R,\R)$.
Soit $f\in \Ker (D)$, alors $$\forall x\in \R,\, xf'(x)=0\Longrightarrow \forall x\in \R^*,\,f'(x)=0$$ et par continuité de $f'$ sur $\R$, on a $f'(0)=0$, donc $f\in \Ker (D)$ implique $f'=0$ i.e. $f$ est constante.
Inversement si $f$ est constante alors $D(f)=0$. $$\Ker (D)=\{f\in\CC^\infty(\R,\R),\, \exists \alpha\in \R,\,\forall x\in \R,\,f(x)=\alpha\}.$$ Soit $\lambda\in \R^*$, supposons que $\lambda$ est une valeur propre de $D$, alors il existe $f$ non nulle, telle que $$\forall x\in \R,\, xf'(x)=\lambda f(x)\Longrightarrow f(x)=x^\lambda \quad (\text{ au moins sur }\R_+^*).$$ Comme $f$ est de classe $\CC^\infty$ alors $\lambda\in \N^*$.
Inversement, pour tout $\lambda\in \N$, $f(x)=x^\lambda$ est un vecteur propre et $D(f)=\lambda f$. $$\Sp (D)=\N$$

(ENSAM PSI 2017) Correction

Soit $A=\begin{pmatrix} 0&a&b\\ a&0&b\\ a&b&0 \end{pmatrix}$, déterminer $\Sp (A)$, CNS pour que $A$ soit diagonalisable.

Correction

Le cas $(a,b)=(0,0)$ est trivial. Supposons dans la suite que $(a,b)\neq (0,0)$.
Commençons par calculer le polynôme caractéristique de $A$, $$\begin{array}{lcl} \det(A-\lambda I_3)&=& \begin{vmatrix} -\lambda&a&b\\ a&-\lambda & b\\ a&b&-\lambda \end{vmatrix} = \begin{vmatrix} -\lambda&a&b\\ a&-\lambda & b\\ 0&b+\lambda &-\lambda-b \end{vmatrix}\\ &&\\ &=& \begin{vmatrix} -\lambda&a&b+a\\ a&-\lambda & b-\lambda\\ 0&b+\lambda &0 \end{vmatrix} =-(\lambda+b)\begin{vmatrix} -\lambda&a+b\\ a & b-\lambda \end{vmatrix}\\ &=&-(\lambda+b)\left( -\lambda (b-\lambda)-a (a+b)\right)=-(\lambda+b)(\lambda+a)(\lambda-(a+b)) \end{array}$$ Donc $\Sp (A)=\{-a,-b,(a+b)\}$.

  1. Supposons que les trois valeurs $-a,-b,a+b$ sont deux à deux distincts alors d'après le cours la matrice $A$ est diagonalisable.
  2. Supposons maintenant que $a=b$ et donc $-a\neq (a+b)=2a $.
    Cherchons les s-e-propres, $$\begin{pmatrix} x\\y\\z \end{pmatrix}\in E_{-a}(A)\Leftrightarrow \left\{\begin{array}{lcl} \phantom{ax+}ay+az&=&-ax\\ ax\phantom{+ay}+az&=&-ay\\ ax+ay\phantom{+az}&=&-az \end{array} \right. \Leftrightarrow ax+ay+az=0$$ donc $\dim(E_{-a}(A))=2$ ce qui implique que $A$ est diagonalisable.
  3. Supposons que $a\neq b$ et $-a=a+b$ i.e. $b=-2a$ et $\Sp (A)=\{-a,2a\}$, $$\begin{pmatrix} x\\y\\z \end{pmatrix}\in E_{-a}(A)\Leftrightarrow \left\{\begin{array}{lcl} \phantom{ax+}ay-2az&=&-ax\\ ax\phantom{+ay}-2az&=&-ay\\ ax-2ay\phantom{+az}&=&-az \end{array} \right. \Leftrightarrow x=y=z$$ donc $\dim (E_{-a}(A))=1$ $$\begin{pmatrix} x\\y\\z \end{pmatrix}\in E_{2a}(A)\Leftrightarrow \left\{\begin{array}{lcl} \phantom{ax+}ay-2az&=&2ax\\ ax\phantom{+ay}-2az&=&2ay\\ ax-2ay\phantom{+az}&=&2az \end{array} \right. \Leftrightarrow x=y=-2z$$ donc $\dim (E_{2a}(A))=1$. Donc dans ce cas $A$ n'est pas diagonalisable.
  4. Supposons que $a\neq b$ et $-b=a+b$ i.e. $b=-a/2$ et $\Sp (A)=\{-a,a/2\}$, $$\begin{pmatrix} x\\y\\z \end{pmatrix}\in E_{a/2}(A)\Leftrightarrow \left\{\begin{array}{lcl} \phantom{ax+}ay-az/2&=&ax/2\\ ax\phantom{+ay}-az/2&=&ay/2\\ ax-ay/2\phantom{+az}&=&az/2 \end{array} \right. \Leftrightarrow x=y=z$$ donc $\dim (E_{a/2}(A))=1$ $$\begin{pmatrix} x\\y\\z \end{pmatrix}\in E_{-a}(A)\Leftrightarrow \left\{\begin{array}{lcl} \phantom{ax+}ay-az/2&=&-ax\\ ax\phantom{+ay}-az/2&=&-ay\\ ax-ay/2\phantom{+az}&=&-az \end{array} \right. \Leftrightarrow z=y=-2x$$ donc $\dim (E_{-a}(A))=1$. Donc dans ce cas $A$ n'est pas diagonalisable.

(ENSEA PC 2017) Correction

Soient $A=\begin{pmatrix} 2&3\\1&4 \end{pmatrix}\in \MM_2(\R)$ et $M=\begin{pmatrix} A&A\\ A&A \end{pmatrix}\in \MM_4(\R)$. Déterminer $\Sp(A)$ en déduire $\Sp(M)$.

Correction

On remarque que $$A\begin{pmatrix} 1\\1 \end{pmatrix}=\begin{pmatrix} 5\\5 \end{pmatrix}=5 \begin{pmatrix} 1\\1 \end{pmatrix},\,\, A\begin{pmatrix} 3\\-1 \end{pmatrix}=\begin{pmatrix} 3\\-1 \end{pmatrix} \Longrightarrow\Sp (A)=\{1,5\}.$$ On note dans la suite $U=\begin{pmatrix} 1\\1 \end{pmatrix}$ et $V=\begin{pmatrix} 3\\-1 \end{pmatrix}$. $$M\begin{pmatrix} U\\ U \end{pmatrix}=\begin{pmatrix} AU+AU\\ AU+AU \end{pmatrix} =10\begin{pmatrix} U\\U \end{pmatrix},\,\, M\begin{pmatrix} U\\-U \end{pmatrix}=\begin{pmatrix} AU-AU\\AU-AU \end{pmatrix}=0.$$ $$M\begin{pmatrix} V\\ V \end{pmatrix}=\begin{pmatrix} AV+AV\\ AV+AV \end{pmatrix} =2\begin{pmatrix} V\\V \end{pmatrix},\,\, M\begin{pmatrix} V\\-V \end{pmatrix}=\begin{pmatrix} AV-AV\\AV-AV \end{pmatrix}=0$$. Donc $\Sp (M)=\{0,2,10\}$ et $$\begin{array}{lcl} E_0(M)&=&\Vect(\begin{pmatrix} 1\\1\\-1\\-1 \end{pmatrix},\begin{pmatrix} 3\\-1\\-3\\1 \end{pmatrix})\\ E_2(M)&=&\Vect(\begin{pmatrix} 3\\-1\\3\\-1 \end{pmatrix})\\ E_{10}(M)&=&\Vect(\begin{pmatrix} 1\\1\\1\\1 \end{pmatrix}) \end{array}$$

($\star$) Correction

Déterminer $(x,y)\in \R^2$ tels que la matrice $A=\begin{pmatrix} x&1&1\\ 1&y&1\\ 1&1&0 \end{pmatrix}$ admette $\begin{pmatrix} 1\\2\\3 \end{pmatrix}$ pour vecteur propre.

Correction

Supposons que $\begin{pmatrix} 1\\2\\3 \end{pmatrix}$ est un vecteur propre de la matrice $A$, alors il existe $\lambda\in \R$ tel que $$A\begin{pmatrix} 1\\2\\3 \end{pmatrix}=\lambda\begin{pmatrix} 1\\2\\3 \end{pmatrix}\Longrightarrow\left\{\begin{array}{lcl} x+5&=&\lambda\\ 2y+4&=&2\lambda\\ 3&=&3\lambda \end{array} \right.$$ ceci implique que $\lambda=1$ et donc $x=-4$ et $y=-1$.

($\star$) Correction

Soit $A=\begin{pmatrix} 0&1&1&0\\ 1&0&0&1\\ 1&0&0&1\\ 0&1&1&0 \end{pmatrix}\in \MM_4(\R)$. Résoudre les systèmes suivants : $AX=0,AX=2X$ et $AX=-2X$, en déduire $\Sp (A)$.

Correction

On note $C_1,\,C_2,C_3$ et $C_4$ les colonnes de la matrice $A$, on remarque que $C_1=C_4$ et $C_2=C_4$, donc $$A\begin{pmatrix} 1\\ 0\\ 0\\ -1 \end{pmatrix} =\begin{pmatrix} 0\\0\\0\\0 \end{pmatrix},\, A\begin{pmatrix} 0\\ 1\\ -1\\ 0 \end{pmatrix} =\begin{pmatrix} 0\\0\\0\\0 \end{pmatrix},\,A\begin{pmatrix} 1\\1\\1\\1 \end{pmatrix}=2\begin{pmatrix} 1\\1\\1\\1 \end{pmatrix},\, A\begin{pmatrix} 1\\-1\\-1\\1 \end{pmatrix}=-2\begin{pmatrix} 1\\-1\\-1\\1 \end{pmatrix} $$ On en déduit alors, $\Sp (A)=\{-2,0,2\}$.

($\star$) Correction

Déterminer $a\in \R$ pour que $2$ soit valeur propre de $A=\begin{pmatrix} 1&-1&0\\ a&1&1\\ 0&1+a&3 \end{pmatrix}$.

Correction

Si $2\in \Sp (A)$ alors il existe $\begin{pmatrix} 1\\2\\3 \end{pmatrix}\in \R^3$ non nul tel que $$A\begin{pmatrix} 1\\2\\3 \end{pmatrix}=2\begin{pmatrix} 1\\2\\3 \end{pmatrix}\Longrightarrow\left\{\begin{array}{lcl} x-y&=&2x\\ ax+y+z&=&2y\\ (1+a)y+3z&=&2z \end{array} \right. \Longrightarrow\left\{\begin{array}{lcl} x&=&-y\\ -ay+y -(1+a)y&=&2y\\ z&=&-(1+a)y \end{array} \right.$$ Ce qui implique $a=-1$.

(CCINP PSI 2019) Correction

$A$ est une matrice fixée de $\MM_n(\R)$. Soit $f:\MM_n(\R)\longmapsto\MM_n(\R)$ définie par $f(M)=AM$.

  1. Montrer que $f$ est un endomorphisme de $\MM_n(\R)$.
  2. Montrer que si $A^2=A$ alors $f$ est un projecteur.
  3. Montrer que $\Sp (f)=\Sp (A)$.

Correction

  1. Soient $M_1,\,M_2\in \MM_n(\R)$ et $\lambda\in \R$, on a $$f(\lambda M_1+M_2)=A(\lambda M_1+M_2)=\lambda AM_1+AM_2=\lambda f(M_1)+f(M_2)$$ ce qui prouve que $f\in \LL(\MM_n(\R))$.
  2. Supposons que $A^2=A$, soit $M\in \MM_n(\R)$, on a $$f^2(M)=f(f(M))=A f(M)=A (AM)=A^2M =AM=f(M)$$ on en déduit alors que $f$ est un projecteur (car $f^2=f$).
  3. Soit $\lambda\in \Sp (A)$ alors il existe $C\in \R^n$ non nul tel que $AC=\lambda C$, on définit alors la matrice $M$ par $M=(C\,0\cdots\,0)$ i.e. la première colonne égale à $C$ les autres étant nulles, on a $$M\neq 0,\, f(M)=AM=(AC\, A\times 0\cdots\,A\times 0)=(\lambda C\,\,0\cdots \,0)=\lambda M.$$ ceci prouve que $\lambda\in \Sp (f)$.
    Inversement, soit $\lambda\in \Sp(f)$ alors il existe une matrice non nulle $M$ telle que $AM=\lambda M$, comme $M\neq 0$ alors il existe une colonne $C_i$ dans $M$ non nulle, on a alors $AC_i=\lambda C_i$ i.e. $\lambda\in \Sp (A)$.
    Ceci prouve l'égalité entre $\Sp(A)$ et $\Sp (f)$.

Remarque: Avec une numérotation adapté de la base canonique $\BB$ de $\MM_n(\R)$, on trouve $$M_\BB(f)=\begin{pmatrix} A&0&\cdots&0\\ 0&A&\ddots&\vdots\\ \cdots&\ddots&\ddots&0\\ 0&\cdots&0&A \end{pmatrix} \Longrightarrow \chi_f(X)=\chi_A(X)^n.$$

($\star$) Correction

Soit $E$ un $\R$- ev de dimension finie $n\geq 1$. On se donne $u\in \LL (E)$, montrer qu'il existe un sous-espace vectoriel de dimension 1 ou 2 stable par $u$.

Correction

On distingue deux cas:

  1. Si $u$ possède une valeur propre réel $\lambda$, alors pour tout vecteur propre $x$ associé à $\lambda$ l'espace $\Vect (x)$ est stable par $u$, ce qui répond à la question.
  2. Si $u$ ne possède aucune valeurs propres réelles, alors $u$ possède au moins deux valeurs propres complexes $\lambda,\,\overline{\lambda}\in \C\setminus \R$. Supposons que $\lambda=a+\ii b$ avec $a,b\in \R$.
    Il existe alors $x,y\in E$ tels que: $x\neq 0$, $y\neq 0$ et $u(x+\ii y)=\lambda (x+\ii y)$, soit $$u(x)+\ii u(y)=(ax-by)+\ii (bx+ay)\Longrightarrow u(x)=ax-by,\,\,u(y)=bx-ay \text{ donc } u(x),u(y)\in \Vect(x,y).$$ En notant alors $F=\Vect(x,y)$, on vérifie facilement que $F$ répond à la question.

($\star\star$) Correction

Soient $u$ endomorphisme d'un $\K$-espace vectoriel $E$ de dimension finie $n \geqslant 2$. On suppose que $E$ est le seul sous-espace vectoriel non nul stable par $u$.

  1. L'endomorphisme $u$ possède-t-il des valeurs propres~?
  2. Montrer que pour tout $x \in E\backslash \left\{ {0_E } \right\}$, la famille $(x,u(x), \ldots ,u^{n - 1} (x))$ est une base de $E$. Quelle est la forme de la matrice de $u$ dans cette base~?
  3. Montrer que cette matrice ne dépend pas du choix de $x$.

Correction

$\mathbf{1.\,}$ $u$ ne possède pas de valeurs, sinon $u$ aurait des sous espaces stable.
$\mathbf{2.\,}$ Soit $x\in E$ non nul, alors il existe $p\in \N^*$ tel que la famille $(x,u(x),\cdots,u^{p-1}(x))$ soit libre et $(x,u(x),\cdots,u^{p-1}(x),u^p(x))$ soit liée. Montrons que $p=n$.
En effet, si on suppose que $p< n$ alors la famille $(x,u(x),\cdots,u^{p-1}(x),u^p(x))$ est liée donc $u^{p}(x)\in \Vect((x,\cdots,u^{p-1}(x)))$ puisque par hypothèse la famille $(x,\cdots,u^{p-1}(x))$ est libre. On en déduit alors que $F= \Vect((x,\cdots,u^{p-1}(x)))$ est stable par $u$ ce qui contredit l'hypothèse sur $u$ puisque $\dim (F)< n$.
On en déduit alors que $p=n$, autrement dit, $(x,\cdots,u^{p-1}(x))$ est une base de $E$ puisque cette famille est libre et contient autant d'éléments que la dimension de $E$.
$\mathbf{3.\,}$ Supposons que $u^n(x)=\dsum_{k=0}^{n-1}a_ku^{k}(x)$, on en déduit alors que la matrice de $u$ dans la base $\BB_x=(x,\cdots,u^{n-1}(x))$ est donnée par: $$\begin{matrix} &\begin{matrix} u(x) &u^2(x)&\cdots &u^{n-1}(x)&u^n(x)\end{matrix}\\\\ \begin{matrix} x\\ u(x)\\ u^2(x)\\ \vdots\\\vdots\\ u^n(x)\end{matrix}& \begin{pmatrix} 0 & 0 &\cdots& \cdots & 0 & a_0 \\ 1 & 0 & & & 0 & a_1 \\ 0 & 1 &\ddots& & \vdots & \vdots\\ \vdots&0 &\ddots&\ddots & \vdots & \vdots \\ \vdots &\vdots & \ddots &\ddots & 0 & a_{n-2}\\ 0 & 0 &\cdots&\cdots\, 0& 1&a_{n-1} \end{pmatrix}\\\\ \end{matrix}$$ On pose $P(u)=u^n-\dsum_{k=0}^{n-1}a_ku^k\in \LL (E)$, on pour tout $j\in \inter{0,n-1}$, $$P(u)(u^j(x))=u^n(u^j(x))-\dsum_{k=0}^{n-1}a_ku^k(u^j(x))=u^j(u^n(x))-u^j\left(\dsum_{k=0}^{n-1}a_ku^k(x)\right)=u^j\left(u^n(x)-\dsum_{k=0}^{n-1}a_ku^k(x)\right)=0$$ puisque $u^n(x)=\dsum_{k=0}^{n-1}a_ku^k(x)$. On en déduit que $P(u)$ est nul sur la base $\BB_x$, autrement dit $P(u)=0$ (i.e. $P= X^n-\dsum_{k=0}^{n-1}a_kX^k$ est un polynôme annulateur de $u$).
Soit $y\in E$ non nul, d'après la question précédente la famille $\BB_y=(y,u(y),\cdots,u^{n-1}(y))$ est une base de $E$. Il faut montrer que la matrice de $u$ dans cette base est la même que dans la base $\BB_x$.
Il est clair que les $n-1$ colonnes de $M_{\BB_y}(u)$ sont identique au $n-1$ premières colonnes de la matrice $M_{\BB_x}(u)$ (ceci est dû à la 'nature' des deux bases). Rester à montrer que la dernière colonne de $M_{\BB_y}(u)$ est identique avec celui de $M_{\BB_x}(u)$, i.e. il faut montrer que $u^n(y)=\dsum_{k=0}^{n-1}a_ku^k(y)$.
D'après la remarque précédente, $P(u)(y)=0$ puisque $P(u)=0$, donc $0=u^n(y)-\dsum_{k=0}^{n-1}a_ku^k(y)$ soit $u^n(y)=\dsum_{k=0}^{n-1}a_ku^k(y)$, et comme $(y,u(y),\cdots,u^{n-1}(y))$ est une base de $E$ alors cette écriture est unique. Ce qui donne finalement $\boxed{M_{\BB_y}(u)=M_{\BB_x}(u)}$.

Diagonalisation

(Un peu de calcul) Correction

Soit $a\in \R$. Montrer que les matrices suivante sont diagonalisables et les diagonaliser: $$ \begin{array}{ll} \mathbf{a)} ~~ \begin{pmatrix} 0&1&0\\ 1&0&1\\ 0&1&0 \end{pmatrix}& \quad \mathbf{b)}~~\begin{pmatrix} 11&-5&5\\ -5&3&-3\\ 5&-3&3 \end{pmatrix} \\ & \\ \mathbf{c)} ~~\begin{pmatrix} -1&a&a^2\\ 0&0&-a\\ 0&0&1 \end{pmatrix} &\quad\mathbf{d)} ~~\begin{pmatrix} 0&-1&1\\ -a-1&a&a+1\\ -a&a&a+1 \end{pmatrix}. \end{array} $$

Correction

$\mathbf{a)}$ $$ \begin{pmatrix} 0&1&0\\ 1&0&1\\ 0&1&0 \end{pmatrix}=\begin{pmatrix} 1&1&1\\ 0&\sqrt{2}&-\sqrt{2}\\ -1&1&1 \end{pmatrix}\begin{pmatrix} 0&0&0\\ 0&\sqrt{2}&0\\ 0&0&-\sqrt{2} \end{pmatrix}\begin{pmatrix} \frac{1}{2}&0&\frac{-1}{2}\\ \frac{1}{4}&\frac{\sqrt{2}}{4}&\frac{1}{4}\\ \frac{1}{4}&\frac{-\sqrt{2}}{4}&\frac{1}{4} \end{pmatrix} $$ $\mathbf{b)}$ $$ \begin{pmatrix} 11&-5&5\\ -5&3&-3\\ 5&-3&3 \end{pmatrix}= \begin{pmatrix} 0&-1&2\\ 1&-1&-1\\ 1&1&1 \end{pmatrix}\begin{pmatrix} 0&0&0\\ 0&1&0\\ 0&0&16 \end{pmatrix} \begin{pmatrix} 0&\frac{1}{2}&\frac{1}{2}\\ \frac{-1}{3}&\frac{-1}{3}&\frac{1}{3}\\ \frac{1}{3}&\frac{-1}{6}&\frac{1}{6} \end{pmatrix} $$ $\mathbf{c)}$ $$\begin{pmatrix} -1&a&a^2\\ 0&0&-a\\ 0&0&1 \end{pmatrix} =\begin{pmatrix} a&0&1\\ 1&-a&0\\ 0&1&0 \end{pmatrix} \begin{pmatrix} 0&0&0\\ 0&1&0\\ 0&0&-1 \end{pmatrix} \begin{pmatrix} 0&1&a\\ 0&0&1\\ 1&-a&-a^2 \end{pmatrix} $$ $\mathbf{d)}$ $$ \begin{pmatrix} 0&-1&1\\ -a-1&a&a+1\\ -a&a&a+1 \end{pmatrix} = \begin{pmatrix} 1&1&0\\ 0&1&1\\ 1&0&1 \end{pmatrix} \begin{pmatrix} 1&0&0\\ 0&-1&0\\ 0&0&2a+1 \end{pmatrix} \begin{pmatrix} \frac{1}{2}&\frac{-1}{2}&\frac{1}{2}\\ \frac{1}{2}&\frac{1}{2}&\frac{-1}{2}\\ \frac{-1}{2}&\frac{1}{2}&\frac{1}{2} \end{pmatrix} $$

(NAVALE PC 2004) Correction

$A=\begin{pmatrix} 1 & 0 & 0 & 1\\ 1 & 1 & 1 & 1\\ 1 & 1 & 1 & 1\\ 1 & 0 & 0 & 1 \end{pmatrix}$ est-elle diagonalisable ?

Correction

On remarque que $$A\begin{pmatrix} 1\\0\\0\\-1 \end{pmatrix} =0 \text{ et } A\begin{pmatrix} 0\\1\\-1\\0 \end{pmatrix} =0$$ donc $0$ est une valeur propre d'ordre de multiplicité au moins $2$, donc $\chi_A(x)$ est de la forme $x^2(x^2-4x+a)$ pour trouver $a$, on peut calculer $\chi_A(1)$, $$\chi_A(1)=\begin{vmatrix} 0&0&0&1\\ 1&0&1&1\\ 1&1&0&1\\ 1&0&0&0 \end{vmatrix}=-\begin{vmatrix} 1&0&1\\ 1&1&0\\ 1&0&0 \end{vmatrix}=1\Longrightarrow -3+a=4\Longrightarrow \chi_A(x)=x^2(x-2)^2$$ donc $\Sp(A)=\{0,2\}$. Pour que $A$ soit diagonalisable il faut que $\dim (E_2)=2$, or $$\begin{pmatrix} x\\y\\z\\w \end{pmatrix}\in E_2(A) \Longleftrightarrow\left\{\begin{array}{lcl} x+w&=&2x\\ x+y+z+w&=&2y\\ x+y+z+w&=&2z\\ x+w&=&2w \end{array}\right.$$ La résoultion de ce dernier système donne $E_2(A)=\Vect({\,}^t (0\,1\,1\,0))$, soit $\dim (E_2)=1$, donc

$A$ n'est pas diagonalisable.

(CCP PC 2006) Correction

Soit $a\in\R$. On note $A=\begin{pmatrix} a & -1 & -1 \\ -1 & a & -1 \\ -1 & -1 & a \end{pmatrix}$.

  1. $A$ est-elle diagonalisable ?
  2. Valeurs propres et vecteurs propres de~$A$ ?

Correction

La matrice $A$ est symétrique donc elle est diagonalisable (on verra ce résultat prochainement), sans l'utilisation de ce résultat il faut calculer $\chi_A$ et trouver les v.p de $A$. $$\begin{array}{lcl} \chi_A(\lambda)&=&\begin{vmatrix}a-\lambda-2 &a-\lambda-2&a-\lambda-2\\ -1&a-\lambda&-1\\ -1&-1&a-\lambda \end{vmatrix} =(a-\lambda-2)\begin{vmatrix}1 &1&1\\ -1&a-\lambda&-1\\ -1&-1&a-\lambda \end{vmatrix} \\ &&\\ &=&(a-\lambda-2)\begin{vmatrix}1 &0&0\\ -1&a-\lambda+1&0\\ -1&0&a-\lambda+1 \end{vmatrix} \end{array}$$ Soit finalement, $$\chi_A(\lambda)=-(\lambda-(a-2))(\lambda-(a+1))^2\Longrightarrow\Sp(A)=\{(a+1)\;;\;(a-2)\}.$$ Un calcul simple (déjà fait dans le cours), donne les vecteurs propres $\begin{pmatrix} 1 \\ -1 \\ 0 \end{pmatrix}, \begin{pmatrix} 1 \\ 0 \\ -1 \end{pmatrix} , \begin{pmatrix} 1 \\ 1 \\ 1 \end{pmatrix}$.
En particulier la dimension de chaque espace propre est égale à l'ordre de multiplicité de la valeur propre correspondante. On en déduit que

$A$ est diagonalisable.

($\star\star$) Correction

Soit $u\in \LL(\R^n)$ diagonalisable. Montrer l'équivalence entre les propriétés suivantes:

  1. $(\mathbf{a})$ Il existe $v\in \R^n$ tel que $(v,u(v),\cdots,u^{n-1}(v))$ est une base de $\R^n$.
  2. $(\mathbf{b})$ $u$ admet $n$ valeurs propres deux à deux distinctes.

Correction

Puisque $u$ est diagonalisable, donc il existe une base $\BB=(b_1,\cdots,b_n)$ de $E$ tel que $$\forall i\in \inter{1,n},\quad u(b_i)=\lambda_i b_i,$$ $(\mathbf{a})\Longrightarrow (\mathbf{b})$ Supposons que $v=\dsum_{i=1}^nv_ib_i$, donc $$\forall k\in \N,\, u^k(v)=\dsum_{i=1}^n \lambda_i^kb_i \quad (\text{cours}),$$ Comme $\mathcal{V}=(v,u(v),\cdots,u^{n-1}(v))$ est une base de $\R^n$ alors la matrice de passage de la base $\BB$ à la base $\mathcal{V}$ est inversible, or cette matrice est $$\begin{pmatrix} v_1& \lambda_1v_1 &\cdots& \lambda_1^{n-2}v_1&\lambda_1^{n-1} v_1\\ v_2& \lambda_2v_2 &\cdots& \lambda_2^{n-2}v_2&\lambda_2^{n-1} v_2\\ \vdots& & & &\\ & & & &\\ v_n&\lambda_n v_n&\cdots& \lambda_n^{n-2}v_n&\lambda_n^{n-1}v_n \end{pmatrix}= \begin{pmatrix} v_1&0 &\cdots& &0\\ 0& v_2 &\ddots& &\\ \vdots& &\ddots & &\\ \vdots& & \ddots& v_{n-1}&0\\ 0&&\cdots& 0&v_n \end{pmatrix} \begin{pmatrix} 1& \lambda_1 &\cdots& \lambda_1^{n-2}&\lambda_1^{n-1} \\ 1& \lambda_2&\cdots& \lambda_2^{n-2}&\lambda_2^{n-1}\\ \vdots& & & &\\ & & & &\\ 1&\lambda_n &\cdots& \lambda_n^{n-2}&\lambda_n^{n-1} \end{pmatrix} $$ On reconnait la matrice de vandermonde, donc les $\lambda_i$ sont 2 à 2 distincts.
$(\mathbf{b})\Longrightarrow (\mathbf{a})$ on pose dans ce cas $v=\dsum_{i=1}^n b_i$, alors la matrice de la famille $\mathcal{V}=(v,u(v),\cdots,u^{n-1}(v))$ dans la base $\BB$ est la matrice suivante $$\begin{pmatrix} 1& \lambda_1 &\cdots& \lambda_1^{n-2}&\lambda_1^{n-1} \\ 1& \lambda_2&\cdots& \lambda_2^{n-2}&\lambda_2^{n-1}\\ \vdots& & & &\\ & & & &\\ 1&\lambda_n &\cdots& \lambda_n^{n-2}&\lambda_n^{n-1} \end{pmatrix} $$ donc $M(\mathcal{V})$ est inversible car les $\lambda_i$ sont 2 à 2 distincts, donc $\mathcal{V}$ est une base de $\R^n$.

($\star\star$) Correction

Soient $u,v,\,f\in \LL(E)$ ($E$ est un $\K$ ev de dim finie). On suppose qu'il existe $\alpha,\,\beta\in \K$ tels que: $$f=\alpha u+\beta v,\quad f^2=\alpha^2 u+\beta^2 v,\quad f^3=\alpha^3 u+\beta^3 v.$$ Montrer que $f$ est diagonalisable.

Correction

Il faut chercher un polynôme annulateur de $f$, $$(\alpha+\beta)f^2 = \alpha^3 u+\alpha\beta^2 u+ \beta \alpha^2 u+\beta^3 v= f^3 +\alpha\beta f$$ Donc le polynôme $X(X-\alpha)(X-\beta)$ est un polynôme annulateur de $f$,

  1. Si les trois valeurs $0,\,\alpha,\,\beta$ sont 2 à 2 distincts alors $f$ est diagonalisable.
  2. Si $\alpha=\beta =0$ alors $f=0$ donc diagonalisable.
  3. Si $\alpha=\beta\neq 0$, alors $f =\alpha (u+v)$ et $f^2 =\alpha^2 (u+v)= \alpha f$, donc $P=X(X-\alpha)$ est un polynôme annulateur donc $f$ est diagonalisable.
  4. Si $\alpha \neq \beta=0$, alors $f=\alpha u$ et $f^2 =\alpha^2 u= \alpha f$ donc $f$ est diagonalisable.
  5. Si $\beta \neq \alpha=0$, alors $f^2=\beta f$, donc $f$ est diagonalisable.

Conclusion, dans tous les cas, $f$ est diagonalisable.

(CCP) Correction

Soit $m\in \C$. On considère $A=\begin{pmatrix} m&-1\\ -1&m \end{pmatrix}$. Montrer que $A$ est diagonalisable puis diagonaliser $A$.
Soit $M\in \MM_n(\C)$, diagonalisable. On considère la matrice $B=\begin{pmatrix} M&-I_n\\ -I_n&M \end{pmatrix}\in \MM_{2n}(\C)$. $B$ est-elle diagonalisable? inversible?

Correction

Un calcul simple nous donne, $$A=\begin{pmatrix} 1&1\\ 1&-1 \end{pmatrix}\begin{pmatrix} m-1&0\\ 0&m+1 \end{pmatrix}\begin{pmatrix} 1/2&1/2\\ 1/2&-1/2 \end{pmatrix}$$ Supposons que $M$ est diagonalisable, alors $M=PDP^{-1}$ avec $P\in GL_n(\C)$ et $D\in \MM_n(\C)$ une matrice diagonale.
On pose alors $Q=\begin{pmatrix} P&P\\ P&-P \end{pmatrix}\in \MM_{2n}(\C)$, la matrice $Q$ est inversible d'inverse $Q^{-1}=\dfrac{1}{2}\begin{pmatrix} P^{-1}&P^{-1}\\ P^{-1}&-P^{-1} \end{pmatrix}$, puis on vérifie $$B= \begin{pmatrix} P&P\\ P&-P \end{pmatrix} \begin{pmatrix} D-I_n&0\\ 0&D+I_n \end{pmatrix}\dfrac{1}{2}\begin{pmatrix} P^{-1}&P^{-1}\\ P^{-1}&-P^{-1} \end{pmatrix}$$ On en déduit alors que $B$ est diagonalisable, puis $B$ est inversible ssi pour tout $\lambda\in \Sp (M),\, \lambda\not\in \{-1,1\}$.

(Centrale 2018) Correction

Soit $A\in \MM_n(\K)$ non nulle, on définit $\fonct{\varphi}{\MM_n(\K)}{\MM_n(\K)}{M}{M+\tr (MA)A}$. Étudier la diagonalisablilité de $\varphi$.

Correction

Notons $\fonct{f}{\MM_n(\K)}{\K}{M}{\tr (MA)}$, puisque $A\neq 0$, alors $f\neq 0$, $f$ est une forme linéaire, donc $\dim(\Ker (f))=n^2-1$.
Soit $(M_1,\cdots,M_{n^2-1})$ une base de $\Ker (f)$, alors $$\forall j\in \inter{1,n^2-1},\, \varphi (M_j)=M_j+f(M_j)A=M_j$$ donc $1\in \Sp (\varphi)$ et $\dim E_1(\varphi)\geq n^2-1$. Comme $\varphi\neq \mathrm{Id}e$ alors $\dim E_1(\varphi)=n^2-1$.
Il nous reste alors une valeur propre au maximum à chercher! or si $M$ est un vecteur propre associé à une valeur propre $\lambda\neq 1$, on aurait $$\varphi (M)=M+\tr (MA) A=\lambda M \Longrightarrow M=\dfrac{\tr (MA)}{1-\lambda}A \text{ donc } M\in \Vect (A)$$ On distingue alors deux cas:

  1. Si $\tr (A^2)\neq 0$ alors $$\varphi (A)=A+\tr (A^2)A=(1+\tr (A^2))A \Longrightarrow 1+\tr (A^2) \in \Sp (\varphi)$$ Dans ce cas $\varphi$ est diagonalisable.
  2. Si $\tr (A^2)=0$, alors $\Sp (\varphi)=\{1\}$ et $\varphi$ n'est pas diagonalisable.

($\star\star\star$) Correction

Soient $a\neq b\in\R$,on définit $u\in \LL(\R_n[X])$ par $u(P)=(X-a)(X-b)P'(X)-\left(nX-\frac{n}{2}(a+b)\right)P(X)$.
Déterminer $\Sp (u)$, montrer que $u$ est diagonalisable.

Correction

Pour $k\in \inter{0,n}$, on pose $P_k=(X-a)^k(X-b)^{n-k}$. On a $$\begin{array}{lcl} u(P_k)&=&(X-a)(X-b)[k (X-a)^{k-1}(X-b)^{n-k}+(n-k)(X-a)^{k}(X-b)^{n-k-1}]\\ &&-n(X-\dfrac{a+b}{2})(X-a)^k(X-b)^{n-k}\\ &&\\ &=&[k(X-b)+(n-k)(X-a)]P_k-n(X-\dfrac{a+b}{2})P_k\\ &=&(k+n-k-n)XP_k-(kb+(n-k)a-n(a+b)/2)P_k\\ &=&\left(\dfrac{n}{2}-k\right)(b-a)P_k \end{array}$$ On en déduit alors que, pour tout $k\in \inter{0,n}$, $ \left(\dfrac{n}{2}-k\right)(b-a)\in \Sp (u)$. Ces valeurs sont 2 à 2 distincts, de plus il y $n+1$ valeurs.
On en déduit alors que $u$ est diagonalisable car admet $n+1$ valeurs propres simples.

(CCP PSI 2017) Correction

Soient $0< a_1< \cdots< a_n\in \R$, on considère la matrice suivante: $$ U=\begin{pmatrix} 0 & a_2 & a_3 & \cdots & & a_n \\ a_1 & 0 & a_3 & & &\vdots \\ \vdots& a_2 & \ddots & \ddots& & \\ & \vdots & a_3 & & & \\ & &\vdots& \ddots & & a_n \\ % & & & & & \\ a_1 & a_2 & a_3 & \cdots & a_{n-1}& 0 \\ \end{pmatrix}\in \MM_n(\R) $$

  1. Montrer que $\lambda\in \Sp (U)$ ssi $\dsum_{k=1}^n\dfrac{a_k}{a_k+\lambda}=1$.
  2. Montrer que $U$ est diagonalisable.

Correction

  1. Soit $\lambda\in \R$, supposons que $\lambda\in \Sp (A)$, alors il existe $X={\,}^t (x_1\cdots x_n)\in \R^n$ tel que $X\neq 0$ et $AX =\lambda X$, ce qui donne $$\forall j\in \inter{1,n},\, \dsum_{i=1}^n a_ix_i -a_jx_j=\lambda x_j \Longleftarrow (a_j+\lambda) x_j= S \quad\quad (\star)$$ avec $S= \dsum_{i=1}^n a_ix_i$.
    Montrons d'abord que $\Sp (A)\cap\{-a_j,\, j\in \inter{1,n}\}=\emptyset$. Supposons par l'absurde, qu'il existe $j_0\in \inter{1,n}$ tel que $\lambda =-a_{j_0}$ pour un certain $\lambda \in \Sp (A)$, alors d'après la relation $(\star)$ appliqué à $j_0$, on trouve $S=0$, puis $$\forall j\in \inter{1,n},\, j\neq j_0,\quad (a_j+\lambda) x_j=S=0 \Longleftarrow x_j0=0 $$ Ceci implique $S= 0=a_{j_0}x_{j_0}$ donc $x_{j_0}=0$ autrement dit, $X=0$ ce qui est impossible.
    Ceci étant dit, on revient mainteant à la relation $(\star)$, $$\forall j\in \inter{1,n},\, x_j=\dfrac{S}{a_j+\lambda} \Longrightarrow S= \dsum_{i=1}^n a_ix_i = \dsum_{i=1}^n\dfrac{a_iS}{a_i+\lambda}.$$ Comme $S\neq 0$, on en déduit alors que $$\lambda\in \Sp (U) \Longrightarrow\dsum_{k=1}^n\dfrac{a_k}{a_k+\lambda}=1$$ Inversement, si on suppose que $\dsum_{k=1}^n\dfrac{a_k}{a_k+\lambda}=1$, on pose $X={\,}^t (x_1\cdots x_n)$ avec, pour tout $j\in \inter{1,n}$, $x_j=\dfrac{1}{a_j+\lambda}$, $$\forall k\in \inter{1,n},\quad (AX)_k = \dsum_{j=1}^n a_jx_j -a_kx_k =\dsum_{j=1}^n \dfrac{a_j}{a_j+\lambda}-\dfrac{a_k}{a_k+\lambda}=1-\dfrac{a_k}{a_k+\lambda} =\lambda x_k$$ Donc $AX=\lambda X$ ce qui prouve que $\lambda\in \Sp (A)$.
  2. On définit pour $x\in I=\R\setminus \{-a_n,\cdots,-a_1\}$, $f(x)=\dsum_{k=1}^n\dfrac{a_k}{a_k+x}$. $f$ est une fonction continue sur $I$, en appliquant le TVI, on a $$\forall k\in \inter{2,n},\, \exists! \lambda_k\in ]-a_k,-a_{k-1}[,\, f(\lambda_k)=1$$ En effet, $\dsp\limiteX{x}{-a_k^+}f(x)=\infty$ et $\dsp\limiteX{x}{-a_{k-1}^-}f(x)=-\infty$.
    De plus $\dsp\limiteX{x}{-a_{1}^+}f(x)=\infty$ et $\dsp\limiteX{x}{\infty}f(x)=0$ donc il existe un unique $\lambda_1\in ]-a_1,\infty[$. tel que $f(\lambda_1)=1$.
    Donc l'équation $f(x)=1$ admet exactement $n$ racines distinctes, ceci prouve que $A$ admet $n$ v.p distincts donc
    $A$ est diagonalisable