Réduction

Rappels

Soit $F$ un s-e-v de $E$. On dit que $F$ est stable par $u$ si $u(F)\subseteq F$.
Dans ce cas l'endomorphisme $u_1\in \mathscr{L}(F)$ définie par: $$\forall x\in F,~~u_1(x)=u(x)$$ est appelé l' endomorphisme induit par $u$ sur $F$ .

Exemples

  1. $\{0\}$ et $E$ sont stables pour tout $u\in \mathscr{L}(E)$.
  2. Pour tout $u\in \mathscr{L} (E)$, l'image et le noyau de $u$ sont stable par $u$.

Soit $u\in \LL(E)$ possédant un polynôme minimal $\Pi_u$ , et soit $F$ un s-e-v de $E$ stable par $u$.
Si $v$ est l'endomorphisme de $F$ induit par $u$, alors $v$ possède un polynôme minimal $\Pi_v$, et $\Pi_v$ divise $\Pi_u$.

Soient $E$ un $\K$-e-v de dimension finie $n \geqslant1$ et $F$ un s-e-v de $E$ de dimension $p\leq n$, soit $\BB=(e_1,\cdots,e_p,\cdots,e_n)$ une base de $E$ adaptée à $F$. Soit $u\in \mathscr{L} (E)$, alors:
$F$ est stable par $u$ ssi la matrice de $u$ dans la base $\BB$ est triangulaire supérieur par bloc. i.e. $A={M_\BB(u)}\text{ est de la forme }$ $$\begin{matrix} &\begin{matrix}\overset{p}{\longleftrightarrow}&\overset{n-p}{\longleftrightarrow}\end{matrix}\\ & \begin{pmatrix} A_1&B_1\\ &\\ 0&A_2 \end{pmatrix}& \begin{array}{l}\updownarrow\,p\\ \,\\\updownarrow \,n-p\end{array} \end{matrix}$$ Dans ce cas la matrice $A_1$ est la matrice de l'endomorphisme induit par $u$ sur $F$ dans la base $(e_1,\cdots,e_p)$.

Soient $E$ un e-v de dimension finie $n$ et $(E_1,\cdots,E_p)$ une famille de s-e-v de $E$ tels que $E=\dsp\bigoplus_{1\leq i\leq p}E_i$. Soit $\BB=(\BB_1,\cdots,\BB_p)$ une base de $E$ adapté à cette somme.
Soit $u\in \mathscr{L} (E)$, alors $u$ laisse stable chaque $E_i$ ssi la matrice de $u$ dans $\BB$ est diagonal par blocs, i.e. $$ \mathcal{M}_\BB(u)=\left(\begin{array}{cccc} A_1&0&\cdots&0\\ 0 &\ddots&\ddots&\vdots\\ \vdots&\ddots&\ddots&0\\ 0&\cdots&0&A_p \end{array}\right),\text{ avec }A_i\in \mathscr{M}_{\dim E_i}(\K).$$

Éléments propres

Définition

  1. On dit que $\lambda \in \K$ est une valeur propre de $u$ s'il existe un vecteur $x \in E$, $x \neq 0_E$, tel que $u(x)=\lambda x$.
  2. On dit que $x \in E$ est un vecteur propre de $u$ si $x \neq 0_E$ et s'il existe $\lambda \in \K$ tel que $u(x)= \lambda x$. $x$ est alors dit associé à la valeur propre $\lambda$.
  3. On appelle spectre de $u$, noté $\Sp_{\K}(u)$ ou plus simplement $\Sp(u)$, l'ensemble des valeurs propres de $u$ (dans $\K$).
Remarques

  • Il est très important de bien connaître et comprendre les équivalences suivantes : $$\begin{array}{lcl} \lambda \in \Sp(u) & \Longleftrightarrow& \ \exists x \neq 0 \text{ tel que }u(x)=\lambda x \\ & \Longleftrightarrow &\ \exists x \neq 0 \text{ tel que }(u- \lambda \ide)(x)=0 \\ & \Longleftrightarrow &\ \Ker(u- \lambda \ide) \neq \{0\} \\ & \Longleftrightarrow &\ (u- \lambda \ide) \it{\, non \ injective}. \end{array} $$
  • En particulier, on a le résultat suivant :
    $0_{\K}$ est valeur propre de $u \ \Longleftrightarrow \ u$ non injective
  • Si $x$ est un vecteur propre associé à une valeur propre non nulle, alors, nécessairement, $x \in \im u$, en effet, on a alors $x=u \left( \dsp \frac{1}{\lambda}x \right)$.

(CCP PSI 2017)

Soit $f\in \LL(\R[X])$ définie par $$\forall P\in \R[X],\,\,f(P)=(X-a)P'(X)+P(X)-P(a).$$ Déterminer les éléments propres de $f$.

Correction

Utiliser la base $((X-a)^n)_{n\in \N}$.
Après calcul, on trouve $\Sp (f)=\N\setminus\{1\}$.

Soit $A\in \MM_n(\K)$

  1. On dit que $\lambda \in \K$ est une valeur propre de $A$ s'il existe un vecteur $X \in \MM_{n\,1}(\K)$, non nul, tel que $AX=\lambda X$.
  2. On dit que $X \in \MM_{n\,1}$ est un vecteur propre de $A$ si $X \neq 0_E$ et s'il existe $\lambda \in \K$ tel que $AX= \lambda X$. $X$ est alors dit associé à la valeur propre $\lambda$.
  3. On appelle spectre de $A$, noté $\Sp_{\K}(A)$ ou plus simplement $\Sp(A)$, l'ensemble des valeurs propres de $A$ (dans $\K$).
Remarques

  • Soit l'endomorphisme $a \in \mathscr{L}(\K^n)$ canoniquement associé à $A$, alors $\lambda$ est une valeur propre de $A$ ssi $\lambda$ est une valeur propre de $a$.
  • Tout endomorphisme $u$ d'un $\K$-e-v de dimension finie $n$ dont la matrice dans une base $\mathscr{B}$ quelconque de $E$ est égale à $A$, vérifie la même relation.


On considère la matrice $M=\begin{pmatrix} a&b&c&d\\ b&a&d&c\\ c&d&a&b\\ d&c&b&a \end{pmatrix}\in \MM_4(\R)$ et $v_1=\begin{pmatrix} 1\\1\\1\\1 \end{pmatrix},\,v_2=\begin{pmatrix} 1\\-1\\1\\-1 \end{pmatrix},\,v_3=\begin{pmatrix} 1\\1\\-1\\-1 \end{pmatrix} ,\,v_4=\begin{pmatrix} 1\\-1\\-1\\1 \end{pmatrix}$. Calculer $Mv_i$ pour $i\in \inter{1,4}$. Que-peut-t-on déduire sur la famille $(v_i)$.

Correction

$$Av_1=\begin{pmatrix} a+b+c+d\\ b+a+d+c\\ c+d+a+b\\ d+c+b+a \end{pmatrix} =(a+b+c+d)\begin{pmatrix} 1\\1\\1\\1 \end{pmatrix} =(a+b+c+d)v_1$$ $$Av_2=\begin{pmatrix} a-b+c-d\\ b-a+d-c\\ c-d+a-b\\ d-c+b-a \end{pmatrix} =(a-b+c-d)\begin{pmatrix} 1\\-1\\1\\-1 \end{pmatrix} =(a-b+c-d)v_2$$ De même, on trouve $Mv_3 =(a+b-c-d)v_3$ et $Mv_4=(a+d-b-c)v_4$.
Donc la famille $(v_i)_i$ est une famille de vecteurs propres de la matrice $M$.

(CCINP PSI 2019)

Soit $A=\begin{pmatrix} 1&2&\cdots&n\\ 2& & & \\ \vdots& &(0)&\\ n& & & \end{pmatrix} \in \MM_n(\R)$. Déterminer $\Sp (A)$.

Correction

Clairement $0$ est une valeur propre de la matrice $A$. Soit $\lambda\in \R^*$ et $X= {\,}^t (x_1,\cdots,x_n)\in \R^n$ non nul tel que $$AX=\lambda X \Longleftrightarrow\left\{\begin{array}{lcl} x_1+2x_2+\cdots+nx_n&=&\lambda x_1\\ \vdots&&\\ jx_1&=&\lambda x_j\\ \vdots &&\\ nx_1&=&\lambda x_n \end{array}\right. \Longleftrightarrow \left\{\begin{array}{l} x_1+\dsum_{j=2}^n\dfrac{j^2}{\lambda}x_1=\lambda x_1\\ \forall j\in \inter{2,n},\quad x_j=\dfrac{j}{\lambda}x_1 \end{array}\right.$$ Notons dans la suite $\beta = \dsum_{k=2}^nk^2=\dfrac{2n^3+3n^2+n-6}{6}$. La dernière relation implique (puisque $x_1\neq 0$), $$1+\dfrac{\beta}{\lambda}=\lambda\Longleftrightarrow \lambda^2-\lambda-\beta=0 \Longleftrightarrow \lambda =\dfrac{1\mp \sqrt{1+4\beta}}{2}$$ On en déduit alors que $\Sp (A)=\{\dfrac{1- \sqrt{1+4\beta}}{2},0,\dfrac{1+\sqrt{1+4\beta}}{2}\}$.

Si $\lambda \in \Sp(u)$, on appelle sous-espace propre de $u$ associé à $\lambda$ le sev : $$ E_{\lambda} (u) = \Ker(u-\lambda \ide)= \{x \in E \textrm{ tq } u(x)=\lambda x \}$$ Ainsi, $E_{\lambda}(u) $ est l'ensemble des vecteurs propres de $u$ associés à la valeur propre $\lambda$ plus le vecteur nul.

Exemples

  1. Si $h \in \mathscr{L}(E)$ est une homothétie de rapport $\alpha$, $\Sp(h)=\{\alpha\}$ et $E_{\alpha}(h)=E$.
  2. Si $p \in \mathscr{L}(E)$ est une projection, $\Sp(p) \subset \{0,1\}$ et $E_0(p)=\Ker p$, $E_1(p)=\textrm{Inv}(p)$.
  3. Si $s \in \mathscr{L}(E)$ est une symétrie, $\Sp(s) \subset \{-1,1\}$ et $E_{-1}(s)=\textrm{Opp}(s)$, $E_1(s)=\textrm{Inv}(s)$.
  4. $E=\CC([0,1])$ et $\varphi$ définit par $$\forall f\in E,~~\forall x\in [0,1],~~\varphi(f)(x)=\dsp\int_0^xf(t)\ud t$$ Alors $\textrm{Sp}(\varphi)=\emptyset$.

Remarque

On verra dans la suite de ce cours que lorsque $E$ est de dimension finie alors $u$ n'a admet qu'un nombre fini de valeurs propres, et lorsque $\K=\C$, $u$ admet toujours au moins une valeur propre.

Propriétés

  1. Si $\lambda$ est une valeur propre de $u$, $E_{\lambda}(u)$ est stable par $u$, et l'endomorphisme induit par $u$ sur $E_{\lambda}(u)$ est l'homothétie de rapport $\lambda$.
  2. Si $v \in \mathscr{L}(E)$ commute avec $u$, alors $E_{\lambda}(u)$ est stable par $v$.

Soit $p \in \N^*$ et $(\lambda_i)_{1 \leqslant i \leqslant p}$ une famille de valeurs propres de $u$ deux à deux distinctes .

  • Soit, pour tout $i \in \inter{1,p}$, $x_i$ un vecteur propre associé à la valeur propre $\lambda_i$. Alors, la famille $(x_i)_{1 \leqslant i \leqslant p }$ est libre.
  • La somme des sous-espaces propres $E_{\lambda_i}(u)$ est directe.

Soit $u \in \mathscr{L}(E)$ et $\lambda \in \Sp(u)$. Alors,

  1. pour tout polynôme $P \in \K[X]$, $P(\lambda) \in \Sp\big( P(u) \big)$ ,
  2. si $\K=\C$, alors pour tout polynôme $P \in \C[X]$, $\Sp\big( P(u) \big) = \{ P(\lambda), \ \lambda \in \Sp(u) \}$ .

Remarque

Le résultat précédent peut tomber en défaut si l'on suppose seulement $\K=\R$.

Exemple

Considérer par $\fonct{f}{\R^2}{\R^2}{(x,y)}{(-y,x)}$, et $P(X)=X^2$.

Soit $P\in Ann (u)$ alors $\Sp (u)\subset \{\lambda\in \K,\,P(\lambda)=0\}$.

Remarque

Le résultat précédent nous dit que les valeurs propres de $u$ sont PARMI les racine d'un polynôme annulateur $P$ de $u$.
Mais il faut faire attention, les racine de $P$ ne sont pas forcément des valeurs propres de $u$ (c.f. rapport de jury ci-après).

Rien

(Centrale 2018 (Ecrit))
Si $P$ est un polynôme annulateur d’une matrice $A$, seule l’inclusion $\Sp(A) \subset \{\text{racines de } P\}$ est toujours valable, mais l’inclusion réciproque ne l’est pas forcément.

Si $u$ admet un polynôme minimal $\Pi_u$, les valeurs propres de $u$ sont exactement les racines (dans $\K$) de $\Pi_u$.

Tout endomorphisme d'un $\C$-e-v de dimension finie admet au moins une valeur propre .

Remarque

Ce résultat peut tomber en défaut si $\K=\R$ ou si $E$ n'est pas de dimension finie.

Exemples

  1. Dans $\R^2$, une rotation d'angle $\theta \notin \pi \Z$ n'admet pas de valeur propre réelle.
  2. Soit $\varphi$ l'endomorphisme de $\C[X]$ qui à tout polynôme $P$ associe $\varphi(P)=XP$. Alors $\varphi$ n'admet pas de valeur propre.

($\hearts\hearts$)

Soient $E$ un $\C$-ev de dimension finie et $u,v\in \LL (E)$ tels que $u\circ v=v\circ u$. Montrer que $u$ et $v$ ont un vecteur propre en commun.

Correction

$v\in \LL(E)$ donc $v$ admet au moins une v.p $\lambda$, on note alors $F=E_\lambda (v)$.

Puisque $u\circ v=v\circ u$, alors $u(F)\subset F$. On note alors $\hat{u}$ l'endomorphisme induit par $u$ sur $F$. Comme $F$ est un s-e-v de $E$ alors $F$ est de dimension finie, donc $\hat{u}\in \LL(F)$ admet une v.p $\beta$.

Ainsi, il existe $x\in F$ non nul tel que $$ u(x)=\hat{u}(x)=\beta x,\text{ et } v(x)=\lambda x.$$ Donc $x$ est un vecteur propre commun à $u$ et $v$.

(CCP 2018-- S.Diop)

On considère la matrice $A=(a_{i\,j})$ avec $a_{i\,j}=\dfrac{i}{j},\, i,j\in \inter{1,n}$.

  1. Calculer $A^2$ en déduire $\Pi_A$.
  2. $A$ est-elle inversible?
  3. Déterminer $E_\lambda$ pour tout $\lambda\in \Sp (A)$.

Correction

  1. Notons $A^2=(b_{i\,j})$, alors $$\forall i,j\in \inter{1,n},\quad b_{i\,j}=\dsum_{k=1}^n a_{i\,k}a_{k\,j}=\dsum_{k=1}^n\dfrac{i}{k}\dfrac{k}{j}=n\dfrac{i}{j}$$ On en déduit que $A^2=nA$, donc le polynôme minimale de $A$ est $X^2-nX$ (En faite, la famille $(I_n,A)$ est libre donc $\deg \Pi_A>1$).
  2. D'après le cours $\Sp (A)=\{0,n\}$ donc $A$ n'est pas inversible.
  3. Notons $(e_1,\cdots,e_n)$ la base canonique de $\R^n$ et pour $j\in \inter{2,n},\, X_j=e_1-je_j$, alors $$\begin{pmatrix} 1&\cdots&\dfrac{1}{j}&\cdots&\dfrac{1}{n}\\ \vdots&\cdots&&\cdots&\vdots\\ i&\cdots&\dfrac{i}{j}&\cdots&\dfrac{i}{n}\\ \vdots&\cdots&&\cdots&\vdots\\ n&\cdots&\dfrac{n}{j}&\cdots&1\\ \end{pmatrix} \begin{pmatrix} 1\\ 0\\ \vdots\\ 0\\ -j\\ 0\\ \vdots\\ 0 \end{pmatrix}=0\Longrightarrow X_j\in E_0(A)$$ La famille $(X_2,\cdots,X_n)$ est clairement une famille libre donc $\dim E_0(A)\geq n-1$ or comme $A\neq 0$ alors $\dim E_0(A)< n$. On en déduit alors que $$E_0(A)=\Ker(A)=\Vect \left( (X_2,\cdots,X_n)\right).$$ On en déduit également que $\dim E_n(A)=1$, donc il faut chercher un vecteur propre de $A$ associé à la valeur propre $n$. On remarque que $$A\begin{pmatrix} 1\\ 2\\ \vdots\\ j\\ \vdots\\ n \end{pmatrix} =\begin{pmatrix} \dsum_{k=1}^n \dfrac{1}{k}k\\ \vdots\\ \dsum_{k=1}^n \dfrac{j}{k}k\\ \vdots\\ \dsum_{k=1}^n \dfrac{n}{k}k \end{pmatrix} =\begin{pmatrix} n\\ 2n\\ \vdots\\ jn\\ \vdots\\ n^2 \end{pmatrix}=n \begin{pmatrix} 1\\ 2\\ \vdots\\ j\\ \vdots\\ n \end{pmatrix}$$ Donc $E_n(A)=\Vect \left( \begin{pmatrix} 1&2&\cdots&j&\cdots&n \end{pmatrix}^T\right)$.


Polynôme caractéristique

Définitions

Soit $u\in \mathscr{L} (E)$ (resp. $A\in \MM_n(\K)$). L'application $x\in \K\longmapsto \det (u-x\ide)$ (resp. $x\in \K\longmapsto \det (A-xI_n)$) est une fonction polynômiale de degré $n$ .
De plus, pour tout $x\in \K$, on a: $$ \begin{array}{ll} \det(u-x\ide)&=(-1)^nx^n+(-1)^{n-1}\tr(u)\,x^{n-1}+\cdots+\det(u),\\ &\\ \det(A-x I_n)&=(-1)^nx^n+(-1)^{n-1}\tr(A)\,x^{n-1}+\cdots+\det(A). \end{array}$$

  • On appelle polynôme caractéristique d'un endomorphisme $u$ d'un $\K$-e-v de dimension finie $n \geqslant 1$ le polynôme, noté $\chi_u$, défini par : $$ \forall \lambda \in \K \ , \ \chi_u(\lambda)=\det(u-\lambda \ide) \ \text{ ou : } \chi_u =\det(u-X\ide) $$
  • On appelle polynôme caractéristique d'une matrice $A\in\MM_n(\K)$ le polynôme $\chi_A$ défini par: $$\forall x\in \K,~~\chi_A(x)=\det(A-xI_n).$$

Remarque

D'après la remarque précédente, si $\mathscr{B}$ est une base quelconque de $E$, et si $A = M_{\mathscr{B}_E}(u)$, on a aussi : $\forall \lambda \in \K \, , \chi_u(\lambda)=\det(A-\lambda \textrm{I}_n) \ \text{ ou : } \chi_u =\det(A-X\textrm{I}_n)$.

  1. Si deux matrices carrées $A$ et $A'$ sont semblables, alors $\chi_A=\chi_{A'}$ et $\Pi_A=\Pi_{A'}$.
  2. $\chi_A=\chi_{{\,}^t A}$ et $\Pi_A=\Pi_{{\,}^t A}$ (donc $\Sp(A)=\Sp({\,}^t A)$).

Soit $E$ un $\K$-e-v de dimension finie et $u \in \mathscr{L}(E)$. Alors :
le spectre de $u$ (dans $\K$) est l'ensemble des racines du polynôme caractéristique $\chi_u$ (dans $\K$).

Si $\dim E=n$ et $u\in \mathscr{L} (E)$ alors $u$ possède au maximum $n$ valeurs propres distincts.

($\hearts\hearts$)

Soient $E$ un $\C$-ev de dimension finie et $u,v\in \LL (E)$ tels que $u\circ v-v\circ u=u$. Montrer que $u$ et $v$ ont un vecteur propre en commun.

Correction

On montre par récurrence : $$\forall k\in \N,\, u^k\circ v-v\circ u^k =(k+1)u^k.$$ On définit ensuite $\fonct{\varphi}{\LL(E)}{\LL(E)}{f}{f\circ v-v\circ f}$. $\LL(E)$ étant un $\C$-ev de dimension finie alors $\varphi$ admet un nombre finie de valeurs propres.

Nous avons déjà montré que $$\forall k\in \N,\quad \varphi (u^k)=(k+1)u^k.$$ Ce qui implique qu'il existe $k_0\in \N$ tel que $u^{k_0}=0$ (sinon $\varphi$ aurait une infinité de valeurs propres). Donc $u$ n'est pas injevtive.

On montre ensuite que $\Ker(u)$ est stable par $v$. En effet, $$\forall x\in \Ker(u),\quad u(v(x))=v(u(x))-u(x)=0 \Longrightarrow v(x)\in \Ker(u).$$ La restriction de $v$ sur $\Ker(u)$ admet au moins une valeur propre $\beta$, donc il existe $x\in \Ker (u)$ non nul tel que : $$v(x) = \beta x \text{ et on a aussi } u(x)=0.$$ Donc $x$ est un vecteur propre commun à $u$ et $v$.

Si $\K=\C$ alors pour tout $u\in \mathscr{L} (E)$ $\chi_u$ est un scindé.

Soit $E$ un $\K$-e-v de dimension finie et $u \in \mathscr{L}(E)$. Soit $\lambda \in \Sp_{\K}(u)$.
On dit que $\lambda$ est valeur propre d'ordre de multiplicité $m$ de $u$ si $ \lambda$ est une racine d'ordre $m$ du polynôme caractéristique $\chi_u$ de $u$.

Soit $u\in \mathscr{L} (E) $ tel que $\chi_u$ est scindé sur $\K$. Alors $$\tr u= \lambda_1 + \cdots + \lambda_n = \dsp \sum_{\lambda \in \Sp(u)} \lambda,\quad \det u = \lambda_1 \lambda_2 \cdots \lambda_n = \dsp \prod_{\lambda \in \Sp(u)} \lambda$$

Remarque

En particulier si $\K=\C$, on a $\chi_u$ est scindé sur $\C$, mais si $\K=\R$ alors $\chi_u$ n'est pas forcément scindé sur $\R$. On peut alors chercher les racines de $\chi_u$ dans $\C$ et dans ce cas si $\lambda\in \C\setminus \R$ est une valeur propre de $u$ alors $\overline{\lambda}$ l'est également.
Ceci peut être très utile pour montrer certains résultat.


Soit $A\in \MM_n(\R)$ tel que $A^3=A+I_n$. Montrer que $\det(A)>0$.

Correction

Le polynôme $P=X^3-X-1$ est un polynôme annulateur de $A$, $P$ admet une racine réel $\alpha>1$ et deux racines complexes $\beta$ et $\overline{\beta}$.

D'autre part, si $Z\in \C^n$ est un vecteur propre associé à $\beta$ alors $$\overline{\beta}\,\overline{Z}=\overline{\beta Z}=\overline{AZ}=\overline{A}\overline{Z}=A\overline{Z}$$ donc $\dim E_\beta (A)=\dim E_{\overline{\beta}}(A)$ (éventuellement nul).
Notons $p$ l'ordre de multiplicité de $\alpha$ et $r$ l'ordre de multiplicité de $\beta$ (donc $n=p+2r$), alors $$\det (A)= \alpha^p \beta^r\overline{\beta}^r=\alpha^p \abs{\beta}^{2r}>0$$

Restriction à un s-e-v stable

Soit $E$ un $\K$-e-v de dimension finie, et $u \in \mathscr{L}(E)$. Soit $F$ un s-e-v de $E$ stable par $u$, et $v \in \mathscr{L}(F)$ l'endomorphisme de $F$ induit par $u$. Alors :
$\chi_v$ divise $\chi_u$ (polynômes caractéristiques)

Soit $E$ un $\K$-e-v de dimension finie et $u \in \mathscr{L}(E)$.
Soit $\lambda \in \Sp(u)$, et $m_{\lambda}$ son ordre de multiplicité (dans $\chi_u$). Alors on a : $$\boxed{1 \leqslant \dim E_{\lambda } (u) \leqslant m_{\lambda}}$$

La dimension d'un s e propre associé à une valeur propre simple est égale à 1.

Théorème de Cayley-Hamilton

Soit $E$ un $\K$-e-v de dimension finie ($\K=\R \text{ ou } \C$), et $u$ un endomorphisme de $E$. Alors : $$\boxed{\chi_u(u)=0_{\mathscr{L } (E)}}$$


Soit $A\in \MM_n(\R)$ ($n\geq 2$). On suppose que $A$ est inversible. Montrer qu'il existe $P\in \R_{n-1}[X]$ tel que $A^{-1}=P(A)$.

Correction

Puisque $A$ est inversible alors $\det(A)\neq 0$, d'après le théorème de Cayley-Hamilton, on a $\chi_A(A)=0$ soit $$ (-1)^nA^n+(-1)^{n-1}\tr(A)A^{n-1}+\cdots a_1A +\det(A)I_n=0$$ ce qui donne, $$ A\big((-1)^nA^{n-1}+(-1)^{n-1}A^{n-2}+\cdots a_1I_n\big)=-\det(A)I_n$$ On en déduit que: $$A^{-1}=\dfrac{-1}{\det(A)}\big((-1)^nA^{n-1}+(-1)^{n-1}\tr(A)A^{n-2}+\cdots a_1I_n\big)=P(A)$$ Avec $P(X)=\dfrac{-(\chi_A(X)-\det(A))}{\det(A)X}$.

Endomorphismes diagonalisables

Définitions

Un endomorphisme $u \in \mathscr{L}(E)$ est dit diagonalisable si $E$ est somme directe des sous-espaces propres de $u$, soit : $$E = \dsp \bigoplus_{\lambda \in \Sp(u) } E_{\lambda}(u).$$

Exemples

  1. Si $u\in \mathscr{L} (E)$ admet une seule valeur propre $\lambda$, alors $u$ est diagonalisable ssi $E_\lambda=E$, autrement dit, ssi $u=\lambda \ide$
  2. Si $\dim E\geq 2$, et si $p\in \mathscr{L} (E)$ projecteur, alors $\Sp_\K(u)=\{0,1\}$. D'autre part, on sait que $$E=\Ker (p)\oplus \im (p)=\Ker (p)\oplus \Ker(p-\ide)= E_0\oplus E_1$$ Donc $p$ est diagonalisable.

(CCP)

Soit $E=\MM_n(\R)$. On considère les fonctions suivants: $$A\in \MM_n(\R),\, \tr (A)\neq 0,\quad\varphi (M)=\tr (A) M+\tr (M)A.$$ $$\psi (M)=\frac{1}{3}\left(M+2{\,}^t M\right).$$ $\varphi$ et $\psi$ sont diagonalisable?

Correction

Soit $A\in \mathcal{S}_n(\R)$, on a $$\psi(A)=\dfrac{1}{3}\left(A+2{\,}^t A\right)=A$$ donc $1\in \Sp (\psi)$ et $\mathcal{S}_n(\R)\subset E_1(\psi)$.
Soit $A\in \mathcal{A}_n(\R)$, on a $$\psi(A)=\dfrac{1}{3}\left(A+2{\,}^t A\right)=\dfrac{1}{3}\left(A-2 A\right)=\dfrac{-1}{3} A$$ donc $\dfrac{-1}{3}\in \Sp (\psi)$ et $\mathcal{A}_n(\R)\subset E_{(-1/3)}(\psi)$.
Etant donnée que $\MM_n(\R)=\mathcal{S}_n(\R)\oplus \mathcal{A}_n(\R)$. On en déduit alors que $E_1(\psi)=\mathcal{S}_n(\R)$, $E_{(-1/3)}=\mathcal{A}_n(\R)$ et $\psi$ est diagonalisable.

Caractérisations

Soit $u\in \mathscr{L} (E)$ les conditions suivantes sont deux à deux équivalentes:

  • $u$ est diagonalisable
  • Il existe une base de $E$ formé de vecteurs propres de $u$
  • La somme des s-e-p de $u$ est égale à $E$
  • La somme des dimensions des s-e-p de $u$ est égale à dimension de $E$

Soit $E$ un $\K$-e-v de dimension finie et $u \in \mathscr{L}(E)$. Alors :

$u$ diagonalisable $\Longleftrightarrow$ il existe une base $\mathscr{B}$ de $E$ telle que $ A= M_{\mathscr{B}_E}(u)$ soit diagonale.
($\mathscr{B}$ est formée de vecteurs propres de $u$, et les valeurs propres de $u$ (éventuellement confondues) sont les éléments de la diagonale de $A$).

(Mines-Télécom PSI 2019)

Soient $E$ un $\R$-e-v de dimension finie et $f,g\in \LL(E)$ tels que $f\circ g=f+g$.

  1. Montrer que $\Ker f=\Ker g$ et $\im f=\im g$.
  2. On suppose que $f,g$ sont diagonalisable. Montrer que $f\circ g$ l'est aussi et $\Sp (f\circ g)\subset\R\setminus ]0,4[$.

Correction

  1. Soit $x\in \Ker (g)$, alors $$0=f(g(x))=f(x)+g(x)=f(x) \Longrightarrow x\in \Ker(f)$$ donc $\Ker(g)\subset\Ker (g)$, on en déduit également en utilisant le théorème du rang, $\dim (\im (f))\leq \dim (\im (g))$ puisque $\dim (\Ker(g))\leq \dim (\Ker (f))$.
    Soit $y\in \im (g)$, alors il existe $x\in E$ tel que $y=g(x)$, or $$g(x)=f(g(x))-f(x)=f(g(x)-x) =y \Longrightarrow y\in \im (f)$$ ce qui implique $\im (g)\subset \im (f)$ mais comme $\dim (\im (g))\geq \dim (\im (f))$, on en déduit que $\im (f)=\im (g)$ et également $\Ker(f)=\Ker(g)$.
  2. Puisque $g$ est diagonalisable alors il existe une base $(x_1,\cdots, x_n)$ de $E$ formé de vecteurs propres de $g$, i.e. $$\forall i\in \inter{1,n},\quad g(x_i)=\lambda_i x_i,\quad \Sp (g)=\{\lambda_1,\cdots,\lambda_n\}.$$ Montrons que les éléments de cette base sont aussi des vecteurs propres de $f$ et aussi de $f\circ g$.
    1. Notons d'abord que $1\not\in \Sp (g)$, en effet sinon on aurait $$\exists i_0\in \inter{1,n},\,g(x_{i_0})=x_{i_0}=f(g(x_{i_0}))-f(x_{i_0})=f(x_{i_0})-f(x_{i_0})=0$$ ce qui est impossible.
    2. Soit $i\in \inter{1,n}$, on a $$f(g(x_i))=f(x_i)+g(x_i)\Longrightarrow \lambda_i f(x_i)=f(x_i)+\lambda_i x_i \Longrightarrow f(x_i)=\dfrac{\lambda_i}{\lambda_i-1}x_i$$ autrement dit, $x_i$ est un vecteur propre de $f$ associé à la valeur propre $\dfrac{\lambda_i}{\lambda_i-1}$
    D'après les relations précédentes, on trouve : pour tout $i\in \inter{1,n}$, $$f(g(x_i))=f(\lambda_i x_i)=\lambda_if(x_i)=\dfrac{\lambda_i^2}{\lambda_i-1} x_i$$ Ainsi les vecteurs de la base $\Bb$ sont des vecteurs propres de $f\circ g$, ce qui prouve que $f\circ g$ est diagonalisable.
    D'autre part, on a également $$\Sp (f\circ g)=\{\dfrac{\lambda_i^2}{\lambda_i-1},\,\,\lambda_i\in \Sp (g)\}$$ Une étude rapide de la fonction $\varphi(x)=\dfrac{x^2}{x-1}$ définie sur $\R\setminus \{1\}$ montre que $\varphi (\R\setminus \{1\})= \R\setminus(]0,4[)$.

Soit $E$ un $\K$-e-v de dimension finie, $F$ un sev de $E$ et $u \in \mathscr{L}(E)$. Alors $u$ est diagonalisable si et seulement si :
$\chi_u$ est scindé dans $\K[X]$ ET Pour tout $\lambda \in \Sp(u)$, on a : $m_{\lambda}=\dim E_{\lambda}(u)$


On considère la matrice $A=\begin{pmatrix} 3&-4\\ 2&-3 \end{pmatrix}\in \MM_2(\R)$ et l'application $\varphi$ de $\MM_2(\R)$ dans $\MM_2(\R)$ définie par $\varphi(M)=AM-MA$.
Déterminer $\chi_\varphi(\lambda)$ puis $E_\lambda(\varphi)$ pour tout $\lambda\in \Sp(\varphi)$. $\varphi$ est-elle diagonalisable?

Soit $E$ un $\K$-e-v de dimension finie $n$, et $u \in \mathscr{L}(E)$.
Si $u$ possède $n$ valeurs propres distinctes, ALORS $u$ est diagonalisable.

Remarque

Attention: la réciproque est fausse! autrement dit, il ne s'agit là que d'une condition suffisante, et non nécessaire, de diagonalisabilité. Considérer par exemple $u=\ide$...


Rien

(CCP 2020 (Ecrit))
l’erreur la plus fréquente a été de justifier la non diagonalisabilité de $B$ sur $\R$ par le fait que son polynôme caractéristique n’est pas scindé à racines simples.

On suppose que $E$ est de dimension fini. Pour que $u\in \mathscr{L} (E)$ soit diagonalisable il faut et il suffit qu'il admet un polynôme annulateur scindé à racines simples.


Rien

(CCP 2019 (Oral))
Trop de candidats confondent polynôme annulateur et polynôme caractéristique et utilisent l’expression « LE polynôme annulateur ». Ceci les amène par exemple à considérer que si $P$ est annulateur de $A$, alors les racines de $P$ sont valeurs propres de $A$.
Dans le même ordre d’idées, certains candidats pensent que la diagonalisabilité est déductible du polynôme caractéristique et on voit trop souvent des candidats affirmer que puisque le polynôme caractéristique (ou le polynôme annulateur) est scindé, la matrice est diagonalisable.

Si $u \in \mathscr{L}(E)$ est diagonalisable et possède un ploynôme minimal $\Pi_u$, alors $\Pi_u$ est scindé dans $\K[X]$ et n'a que des racines simples.

Matrice diagonalisable

et définition Une matrice $A \in \MM_n(\K)$ est dite diagonalisable ssi elle vérifie l'une des propriétés équivalentes suivantes :

  1. l'endomorphisme canoniquement associé à $A$ est diagonalisable.
  2. Si $E$ est un $\K$-e-v de dimension $n$ et $\mathscr{B}_E$ une base de $E$ telle que $A=M_{\mathscr{B}_E}(u)$ où $u \in \mathscr{L}(E)$, $u$ est diagonalisable.
  3. $A$ est semblable à une matrice diagonale d'ordre $n$, i.e qu'il existe une matrice $P \in GL_n(\K)$ et $D$ diagonale d'ordre $n$ telles que : $D=P^{-1}AP$ (ou $A=PDP^{-1}$).

(CCINP PSI 2019)

Soit $A \in \MM_n(\mathbb{R})$ et $B=\begin{pmatrix}A&A\\0_n&0_n\end{pmatrix}$.

  1. Diagonaliser $\begin{pmatrix}1&1\\0&0\end{pmatrix}$.
  2. On revient au cas général. On suppose que $A$ est diagonalisable. Montrer que $ B$ est aussi diagonalisable. Quelles sont ses valeurs propres ?

Correction

  1. Notons $C=\begin{pmatrix} 1&1\\ 0&0 \end{pmatrix}$, comme $C$ est une matrice triangulaire supérieur alors les valeurs propres de $C$ sont ses coefficients diagonaux, i.e. $\Sp (C)=\{0,1\}$. Il est facile dans ce cas de vérifier $$C\begin{pmatrix} 1\\0 \end{pmatrix}=\begin{pmatrix} 1\\0 \end{pmatrix},\, \,C\begin{pmatrix} 1\\-1 \end{pmatrix}=\begin{pmatrix} 0\\0 \end{pmatrix} \Longrightarrow C =\begin{pmatrix} 1&1\\ 0&-1 \end{pmatrix} \begin{pmatrix} 1&0\\ 0&0 \end{pmatrix} \begin{pmatrix} 1&1\\ 0&-1 \end{pmatrix}.$$
  2. Comme $A$ est diagonalisable alors il existe une matrice $D$ diagonale et une matrice $P$ inversible tels que $A=PDP^{-1}$.
    On pose alors $K=\begin{pmatrix} P&I_n\\ 0&-I_n \end{pmatrix}\in \MM_{2n}(\R)$ et $K$ inversible d'inverse $K^{-1} = \begin{pmatrix} P^{-1}&P^{-1}\\ 0&-I_n \end{pmatrix}$, et on a $$ \begin{pmatrix} P^{-1}&P^{-1}\\ 0&-I_n \end{pmatrix} \begin{pmatrix}A&A\\0_n&0_n\end{pmatrix} \begin{pmatrix} P&I_n\\ 0&-I_n \end{pmatrix} = \begin{pmatrix} P^{-1}&P^{-1}\\ 0&-I_n \end{pmatrix} \begin{pmatrix} AP&0\\ 0&0 \end{pmatrix}=\begin{pmatrix} D&0\\ 0&0 \end{pmatrix}$$

Trigonalisation

  1. Un endomorphisme $u \in \mathscr{L}(E)$ est dit trigonalisable s'il existe une base $\mathscr{B}$ de $E$ telle que $M_{\mathscr{B}}(u)$ soit triangulaire supérieure.
  2. Une matrice carrée $A \in \MM_n(\K)$ est dite trigonalisable si l'endomorphisme $a$ de $\K^n$ qui lui est canoniquement associé est trigonalisable.
    Cela revient à dire que $A$ est semblable à une matrice triangulaire supérieure, i.e qu'il existe $P \in GL_n(\K)$ et $T \in TS_n(\K)$ telles que : $T=P^{-1}AP$ (ou $A=PTP^{-1}$).

Un endomorphisme $u \in \mathscr{L}(E)$ est trigonalisable si et seulement si son polynôme caractéristique est scindé dans $\K[X]$.

Remarques

  1. Si $\K=\C$, tout endomorphisme de $E$ est trigonalisable.
  2. Si $u\in \mathscr{L}(E)$ est trigonalisable et si $\mathscr{B}$ est une base de $E$ dans laquelle la matrice $T$ de $u$ est triangulaire supérieure, alors les éléments diagonaux de $T$ sont exactement les valeurs propres de $u$ (chacune étant comptée avec son ordre de multiplicité).