Réduction
Rappels
Soit $F$ un s-e-v de $E$. On dit que $F$ est stable par $u$ si
$u(F)\subseteq F$.
Dans ce cas l'endomorphisme $u_1\in \mathscr{L}(F)$ définie par:
$$\forall x\in F,~~u_1(x)=u(x)$$
est appelé l' endomorphisme induit par $u$ sur $F$ .
Exemples
-
$\{0\}$ et $E$ sont stables pour tout $u\in \mathscr{L}(E)$.
-
Pour tout $u\in \mathscr{L} (E)$, l'image et le noyau de $u$ sont stable par $u$.
Soit $u\in \LL(E)$ possédant un polynôme minimal $\Pi_u$ , et soit $F$ un s-e-v de $E$ stable
par
$u$.
Si $v$ est l'endomorphisme de $F$ induit par $u$, alors $v$ possède un polynôme minimal
$\Pi_v$, et $\Pi_v$ divise $\Pi_u$.
Soient $E$ un $\K$-e-v de dimension finie $n \geqslant1$ et $F$ un s-e-v de $E$ de dimension
$p\leq n$, soit $\BB=(e_1,\cdots,e_p,\cdots,e_n)$ une base de $E$ adaptée à $F$. Soit
$u\in \mathscr{L} (E)$, alors:
$F$ est stable par $u$ ssi la matrice de $u$ dans la base $\BB$ est
triangulaire supérieur par bloc. i.e.
$A={M_\BB(u)}\text{ est de la forme }$
$$\begin{matrix}
&\begin{matrix}\overset{p}{\longleftrightarrow}&\overset{n-p}{\longleftrightarrow}\end{matrix}\\
& \begin{pmatrix}
A_1&B_1\\
&\\
0&A_2
\end{pmatrix}& \begin{array}{l}\updownarrow\,p\\ \,\\\updownarrow \,n-p\end{array}
\end{matrix}$$
Dans ce cas la matrice $A_1$ est la matrice de l'endomorphisme induit par $u$ sur $F$ dans la
base
$(e_1,\cdots,e_p)$.
Soient $E$ un e-v de dimension finie $n$ et $(E_1,\cdots,E_p)$ une famille de s-e-v de $E$ tels
que $E=\dsp\bigoplus_{1\leq i\leq p}E_i$. Soit $\BB=(\BB_1,\cdots,\BB_p)$ une base de $E$ adapté
à cette somme.
Soit $u\in \mathscr{L} (E)$, alors $u$ laisse stable chaque $E_i$ ssi la matrice de $u$ dans
$\BB$ est
diagonal par blocs, i.e.
$$ \mathcal{M}_\BB(u)=\left(\begin{array}{cccc}
A_1&0&\cdots&0\\
0 &\ddots&\ddots&\vdots\\
\vdots&\ddots&\ddots&0\\
0&\cdots&0&A_p
\end{array}\right),\text{ avec }A_i\in \mathscr{M}_{\dim E_i}(\K).$$
Éléments propres
Définition
-
On dit que $\lambda \in \K$ est une valeur propre de $u$ s'il
existe un
vecteur $x \in E$, $x \neq 0_E$, tel que $u(x)=\lambda x$.
-
On dit que $x \in E$ est un vecteur propre de $u$ si $x \neq 0_E$
et
s'il existe $\lambda \in \K$ tel que $u(x)= \lambda x$. $x$ est alors dit
associé
à la valeur propre $\lambda$.
-
On appelle spectre de $u$, noté $\Sp_{\K}(u)$ ou plus simplement
$\Sp(u)$, l'ensemble des valeurs propres de $u$ (dans $\K$).
Remarques
-
Il est très important de bien connaître et comprendre les équivalences suivantes
:
$$\begin{array}{lcl}
\lambda \in \Sp(u) & \Longleftrightarrow& \ \exists x \neq 0 \text{ tel que
}u(x)=\lambda x \\
& \Longleftrightarrow &\ \exists x \neq 0 \text{ tel que }(u- \lambda \ide)(x)=0 \\
& \Longleftrightarrow &\ \Ker(u- \lambda \ide) \neq \{0\} \\
& \Longleftrightarrow &\ (u- \lambda \ide) \it{\, non \ injective}.
\end{array}
$$
-
En particulier, on a le résultat suivant :
$0_{\K}$ est valeur propre de $u \ \Longleftrightarrow \ u$ non injective
-
Si $x$ est un vecteur propre associé à une valeur propre non nulle, alors,
nécessairement, $x \in \im u$, en effet, on a alors $x=u \left( \dsp \frac{1}{\lambda}x
\right)$.
(CCP PSI 2017)
Soit $f\in \LL(\R[X])$ définie par
$$\forall P\in \R[X],\,\,f(P)=(X-a)P'(X)+P(X)-P(a).$$
Déterminer les éléments propres de $f$.
Correction
Utiliser la base $((X-a)^n)_{n\in \N}$.
Après calcul, on trouve $\Sp (f)=\N\setminus\{1\}$.
Soit $A\in \MM_n(\K)$
-
On dit que $\lambda \in \K$ est une valeur propre de $A$ s'il
existe
un vecteur $X \in \MM_{n\,1}(\K)$,
non nul, tel que $AX=\lambda X$.
-
On dit que $X \in \MM_{n\,1}$ est un vecteur propre de $A$ si
$X \neq 0_E$ et s'il existe $\lambda \in \K$ tel que $AX= \lambda X$. $X$ est alors dit
associé à la valeur propre $\lambda$.
-
On appelle spectre de $A$, noté $\Sp_{\K}(A)$ ou plus simplement
$\Sp(A)$, l'ensemble des valeurs propres de $A$ (dans $\K$).
Remarques
-
Soit l'endomorphisme $a \in \mathscr{L}(\K^n)$ canoniquement associé à $A$, alors
$\lambda$ est une valeur propre de $A$ ssi $\lambda$ est une valeur propre de $a$.
-
Tout endomorphisme $u$ d'un $\K$-e-v de dimension finie $n$ dont la matrice dans une
base $\mathscr{B}$ quelconque de $E$ est égale à $A$, vérifie la même relation.
On considère la matrice $M=\begin{pmatrix}
a&b&c&d\\
b&a&d&c\\
c&d&a&b\\
d&c&b&a
\end{pmatrix}\in \MM_4(\R)$ et
$v_1=\begin{pmatrix}
1\\1\\1\\1
\end{pmatrix},\,v_2=\begin{pmatrix}
1\\-1\\1\\-1
\end{pmatrix},\,v_3=\begin{pmatrix}
1\\1\\-1\\-1
\end{pmatrix} ,\,v_4=\begin{pmatrix}
1\\-1\\-1\\1
\end{pmatrix}$.
Calculer $Mv_i$ pour $i\in \inter{1,4}$. Que-peut-t-on déduire sur la famille $(v_i)$.
Correction
$$Av_1=\begin{pmatrix}
a+b+c+d\\
b+a+d+c\\
c+d+a+b\\
d+c+b+a
\end{pmatrix} =(a+b+c+d)\begin{pmatrix}
1\\1\\1\\1
\end{pmatrix} =(a+b+c+d)v_1$$
$$Av_2=\begin{pmatrix}
a-b+c-d\\
b-a+d-c\\
c-d+a-b\\
d-c+b-a
\end{pmatrix} =(a-b+c-d)\begin{pmatrix}
1\\-1\\1\\-1
\end{pmatrix} =(a-b+c-d)v_2$$
De même, on trouve $Mv_3 =(a+b-c-d)v_3$ et $Mv_4=(a+d-b-c)v_4$.
Donc la famille $(v_i)_i$ est une famille de vecteurs propres de la matrice $M$.
(CCINP PSI 2019)
Soit $A=\begin{pmatrix}
1&2&\cdots&n\\
2& & & \\
\vdots& &(0)&\\
n& & &
\end{pmatrix}
\in \MM_n(\R)$. Déterminer $\Sp (A)$.
Correction
Clairement $0$ est une valeur propre de la matrice $A$. Soit $\lambda\in \R^*$ et
$X= {\,}^t (x_1,\cdots,x_n)\in \R^n$ non nul tel que
$$AX=\lambda X \Longleftrightarrow\left\{\begin{array}{lcl}
x_1+2x_2+\cdots+nx_n&=&\lambda x_1\\
\vdots&&\\
jx_1&=&\lambda x_j\\
\vdots &&\\
nx_1&=&\lambda x_n
\end{array}\right. \Longleftrightarrow \left\{\begin{array}{l}
x_1+\dsum_{j=2}^n\dfrac{j^2}{\lambda}x_1=\lambda x_1\\
\forall j\in \inter{2,n},\quad x_j=\dfrac{j}{\lambda}x_1
\end{array}\right.$$
Notons dans la suite $\beta = \dsum_{k=2}^nk^2=\dfrac{2n^3+3n^2+n-6}{6}$. La dernière relation
implique (puisque $x_1\neq 0$),
$$1+\dfrac{\beta}{\lambda}=\lambda\Longleftrightarrow \lambda^2-\lambda-\beta=0
\Longleftrightarrow \lambda =\dfrac{1\mp \sqrt{1+4\beta}}{2}$$
On en déduit alors que $\Sp (A)=\{\dfrac{1-
\sqrt{1+4\beta}}{2},0,\dfrac{1+\sqrt{1+4\beta}}{2}\}$.
Si $\lambda \in \Sp(u)$, on appelle sous-espace propre de $u$ associé à
$\lambda$ le sev :
$$ E_{\lambda} (u) = \Ker(u-\lambda \ide)= \{x \in E \textrm{ tq } u(x)=\lambda x
\}$$
Ainsi, $E_{\lambda}(u) $ est l'ensemble des vecteurs propres de $u$ associés à la valeur propre
$\lambda$
plus le vecteur nul.
Exemples
-
Si $h \in \mathscr{L}(E)$ est une homothétie de rapport $\alpha$, $\Sp(h)=\{\alpha\}$ et
$E_{\alpha}(h)=E$.
-
Si $p \in \mathscr{L}(E)$ est une projection, $\Sp(p) \subset \{0,1\}$ et $E_0(p)=\Ker p$,
$E_1(p)=\textrm{Inv}(p)$.
-
Si $s \in \mathscr{L}(E)$ est une symétrie, $\Sp(s) \subset \{-1,1\}$ et
$E_{-1}(s)=\textrm{Opp}(s)$, $E_1(s)=\textrm{Inv}(s)$.
-
$E=\CC([0,1])$ et $\varphi$ définit par
$$\forall f\in E,~~\forall x\in [0,1],~~\varphi(f)(x)=\dsp\int_0^xf(t)\ud t$$
Alors $\textrm{Sp}(\varphi)=\emptyset$.
Remarque
On verra dans la suite de ce cours que lorsque $E$ est de dimension finie alors $u$ n'a admet
qu'un nombre fini de valeurs propres, et lorsque $\K=\C$, $u$ admet toujours au moins une valeur
propre.
Propriétés
-
Si $\lambda$ est une valeur propre de $u$, $E_{\lambda}(u)$ est stable par $u$, et
l'endomorphisme induit
par $u$ sur $E_{\lambda}(u)$ est l'homothétie de rapport $\lambda$.
-
Si $v \in \mathscr{L}(E)$ commute avec $u$, alors $E_{\lambda}(u)$ est stable par $v$.
Soit $p \in \N^*$ et $(\lambda_i)_{1 \leqslant i \leqslant p}$ une famille de valeurs propres de
$u$ deux à deux distinctes .
-
Soit, pour tout $i \in \inter{1,p}$, $x_i$ un vecteur propre associé à la valeur propre
$\lambda_i$.
Alors, la famille $(x_i)_{1 \leqslant i \leqslant p }$ est libre.
-
La somme des sous-espaces propres $E_{\lambda_i}(u)$ est directe.
Soit $u \in \mathscr{L}(E)$ et $\lambda \in \Sp(u)$. Alors,
-
pour tout polynôme $P \in \K[X]$, $P(\lambda) \in \Sp\big( P(u) \big)$
,
- si $\K=\C$, alors pour tout polynôme $P \in \C[X]$,
$\Sp\big( P(u) \big) = \{ P(\lambda), \ \lambda \in \Sp(u) \}$ .
Remarque
Le résultat précédent peut tomber en défaut si l'on suppose seulement $\K=\R$.
Exemple
Considérer par $\fonct{f}{\R^2}{\R^2}{(x,y)}{(-y,x)}$, et
$P(X)=X^2$.
Soit $P\in Ann (u)$ alors $\Sp (u)\subset \{\lambda\in \K,\,P(\lambda)=0\}$.
Remarque
Le résultat précédent nous dit que les valeurs propres de $u$ sont PARMI les racine d'un
polynôme
annulateur $P$ de $u$.
Mais il faut faire attention, les racine de $P$ ne sont pas forcément des valeurs propres de $u$
(c.f. rapport de jury ci-après).
(Centrale 2018 (Ecrit))
Si $P$ est un polynôme annulateur d’une matrice $A$, seule l’inclusion $\Sp(A) \subset
\{\text{racines de } P\}$ est
toujours valable, mais l’inclusion réciproque ne l’est pas forcément.
Si $u$ admet un polynôme minimal $\Pi_u$, les valeurs propres de $u$ sont exactement
les racines (dans $\K$) de $\Pi_u$.
Tout endomorphisme d'un $\C$-e-v de dimension finie admet au moins une valeur propre
.
Remarque
Ce résultat peut tomber en défaut si $\K=\R$ ou si $E$ n'est pas de dimension finie.
Exemples
-
Dans $\R^2$, une rotation d'angle $\theta \notin \pi \Z$ n'admet pas de valeur propre
réelle.
-
Soit $\varphi$ l'endomorphisme de $\C[X]$ qui à tout polynôme $P$ associe $\varphi(P)=XP$.
Alors $\varphi$ n'admet pas de valeur propre.
($\hearts\hearts$)
Soient $E$ un $\C$-ev de dimension finie et $u,v\in \LL (E)$ tels que $u\circ v=v\circ u$.
Montrer que $u$ et $v$ ont un vecteur propre en commun.
Correction
$v\in \LL(E)$ donc $v$ admet au moins une v.p $\lambda$, on note alors $F=E_\lambda (v)$.
Puisque $u\circ v=v\circ u$, alors $u(F)\subset F$. On note alors $\hat{u}$ l'endomorphisme induit
par $u$ sur $F$. Comme $F$ est un s-e-v de $E$ alors $F$ est de dimension finie, donc $\hat{u}\in \LL(F)$
admet une v.p $\beta$.
Ainsi, il existe $x\in F$ non nul tel que
$$ u(x)=\hat{u}(x)=\beta x,\text{ et } v(x)=\lambda x.$$
Donc $x$ est un vecteur propre commun à $u$ et $v$.
(CCP 2018-- S.Diop)
On considère la matrice $A=(a_{i\,j})$ avec $a_{i\,j}=\dfrac{i}{j},\, i,j\in \inter{1,n}$.
-
Calculer $A^2$ en déduire $\Pi_A$.
-
$A$ est-elle inversible?
-
Déterminer $E_\lambda$ pour tout $\lambda\in \Sp (A)$.
Correction
-
Notons $A^2=(b_{i\,j})$, alors
$$\forall i,j\in \inter{1,n},\quad b_{i\,j}=\dsum_{k=1}^n
a_{i\,k}a_{k\,j}=\dsum_{k=1}^n\dfrac{i}{k}\dfrac{k}{j}=n\dfrac{i}{j}$$
On en déduit que $A^2=nA$, donc le polynôme minimale de $A$ est $X^2-nX$ (En faite, la
famille $(I_n,A)$ est libre donc $\deg \Pi_A>1$).
-
D'après le cours $\Sp (A)=\{0,n\}$ donc $A$ n'est pas inversible.
-
Notons $(e_1,\cdots,e_n)$ la base canonique de $\R^n$ et pour $j\in \inter{2,n},\,
X_j=e_1-je_j$, alors
$$\begin{pmatrix}
1&\cdots&\dfrac{1}{j}&\cdots&\dfrac{1}{n}\\
\vdots&\cdots&&\cdots&\vdots\\
i&\cdots&\dfrac{i}{j}&\cdots&\dfrac{i}{n}\\
\vdots&\cdots&&\cdots&\vdots\\
n&\cdots&\dfrac{n}{j}&\cdots&1\\
\end{pmatrix}
\begin{pmatrix}
1\\
0\\
\vdots\\
0\\
-j\\
0\\
\vdots\\
0
\end{pmatrix}=0\Longrightarrow X_j\in E_0(A)$$
La famille $(X_2,\cdots,X_n)$ est clairement une famille libre donc $\dim E_0(A)\geq
n-1$ or
comme $A\neq 0$ alors $\dim E_0(A)< n$. On en déduit alors que
$$E_0(A)=\Ker(A)=\Vect \left( (X_2,\cdots,X_n)\right).$$
On en déduit également que $\dim E_n(A)=1$, donc il faut chercher un vecteur propre de
$A$ associé à la valeur propre $n$. On remarque que
$$A\begin{pmatrix}
1\\
2\\
\vdots\\
j\\
\vdots\\
n
\end{pmatrix} =\begin{pmatrix}
\dsum_{k=1}^n \dfrac{1}{k}k\\
\vdots\\
\dsum_{k=1}^n \dfrac{j}{k}k\\
\vdots\\
\dsum_{k=1}^n \dfrac{n}{k}k
\end{pmatrix}
=\begin{pmatrix}
n\\
2n\\
\vdots\\
jn\\
\vdots\\
n^2
\end{pmatrix}=n \begin{pmatrix}
1\\
2\\
\vdots\\
j\\
\vdots\\
n
\end{pmatrix}$$
Donc $E_n(A)=\Vect \left( \begin{pmatrix}
1&2&\cdots&j&\cdots&n
\end{pmatrix}^T\right)$.
Polynôme caractéristique
Définitions
Soit $u\in \mathscr{L} (E)$ (resp. $A\in \MM_n(\K)$). L'application $x\in \K\longmapsto \det
(u-x\ide)$
(resp. $x\in \K\longmapsto \det (A-xI_n)$) est une fonction polynômiale de degré $n$
.
De plus, pour tout $x\in \K$, on a:
$$ \begin{array}{ll}
\det(u-x\ide)&=(-1)^nx^n+(-1)^{n-1}\tr(u)\,x^{n-1}+\cdots+\det(u),\\
&\\
\det(A-x I_n)&=(-1)^nx^n+(-1)^{n-1}\tr(A)\,x^{n-1}+\cdots+\det(A).
\end{array}$$
- On appelle polynôme caractéristique d'un endomorphisme $u$
d'un
$\K$-e-v de dimension finie $n
\geqslant 1$ le polynôme, noté $\chi_u$, défini par :
$$ \forall \lambda \in \K \ , \ \chi_u(\lambda)=\det(u-\lambda \ide) \ \text{ ou : }
\chi_u =\det(u-X\ide) $$
- On appelle polynôme caractéristique d'une matrice
$A\in\MM_n(\K)$ le polynôme $\chi_A$ défini par:
$$\forall x\in \K,~~\chi_A(x)=\det(A-xI_n).$$
Remarque
D'après la remarque précédente, si $\mathscr{B}$ est une base quelconque de $E$, et si
$A = M_{\mathscr{B}_E}(u)$, on a aussi : $\forall \lambda \in \K \, ,
\chi_u(\lambda)=\det(A-\lambda \textrm{I}_n) \ \text{ ou : } \chi_u =\det(A-X\textrm{I}_n)$.
-
Si deux matrices carrées $A$ et $A'$ sont semblables, alors $\chi_A=\chi_{A'}$ et
$\Pi_A=\Pi_{A'}$.
- $\chi_A=\chi_{{\,}^t A}$ et $\Pi_A=\Pi_{{\,}^t A}$ (donc $\Sp(A)=\Sp({\,}^t A)$).
Soit $E$ un $\K$-e-v de dimension finie et
$u \in \mathscr{L}(E)$. Alors :
le spectre de $u$ (dans $\K$) est l'ensemble des racines du polynôme caractéristique $\chi_u$
(dans $\K$).
Si $\dim E=n$ et $u\in \mathscr{L} (E)$ alors $u$ possède au maximum $n$ valeurs propres
distincts.
($\hearts\hearts$)
Soient $E$ un $\C$-ev de dimension finie et $u,v\in \LL (E)$ tels que $u\circ v-v\circ u=u$.
Montrer que $u$ et $v$ ont un vecteur propre en commun.
Correction
On montre par récurrence :
$$\forall k\in \N,\, u^k\circ v-v\circ u^k =(k+1)u^k.$$
On définit ensuite $\fonct{\varphi}{\LL(E)}{\LL(E)}{f}{f\circ v-v\circ f}$. $\LL(E)$ étant un $\C$-ev
de dimension finie alors $\varphi$ admet un nombre finie de valeurs propres.
Nous avons déjà montré que
$$\forall k\in \N,\quad \varphi (u^k)=(k+1)u^k.$$
Ce qui implique qu'il existe $k_0\in \N$ tel que $u^{k_0}=0$ (sinon $\varphi$ aurait une infinité
de valeurs propres). Donc $u$ n'est pas injevtive.
On montre ensuite que $\Ker(u)$ est stable par $v$. En effet,
$$\forall x\in \Ker(u),\quad u(v(x))=v(u(x))-u(x)=0 \Longrightarrow v(x)\in \Ker(u).$$
La restriction de $v$ sur $\Ker(u)$ admet au moins une valeur propre $\beta$, donc
il existe $x\in \Ker (u)$ non nul tel que :
$$v(x) = \beta x \text{ et on a aussi } u(x)=0.$$
Donc $x$ est un vecteur propre commun à $u$ et $v$.
Si $\K=\C$ alors pour tout $u\in \mathscr{L} (E)$ $\chi_u$ est un scindé.
Soit $E$ un $\K$-e-v de dimension finie et $u \in \mathscr{L}(E)$. Soit $\lambda \in
\Sp_{\K}(u)$.
On dit que $\lambda$ est valeur propre d'ordre de multiplicité $m$ de $u$
si $ \lambda$ est une racine d'ordre $m$ du polynôme caractéristique $\chi_u$ de $u$.
Soit $u\in \mathscr{L} (E) $ tel que $\chi_u$ est scindé sur $\K$. Alors
$$\tr u= \lambda_1 + \cdots + \lambda_n = \dsp \sum_{\lambda \in \Sp(u)} \lambda,\quad
\det u = \lambda_1 \lambda_2 \cdots \lambda_n = \dsp \prod_{\lambda \in \Sp(u)} \lambda$$
Remarque
En particulier si $\K=\C$, on a $\chi_u$ est scindé sur $\C$, mais si $\K=\R$ alors $\chi_u$
n'est pas forcément scindé sur $\R$. On peut alors chercher les racines de $\chi_u$ dans
$\C$ et dans ce cas si $\lambda\in \C\setminus \R$ est une valeur propre de $u$ alors
$\overline{\lambda}$ l'est également.
Ceci peut être très utile pour montrer certains résultat.
Soit $A\in \MM_n(\R)$ tel que $A^3=A+I_n$. Montrer que $\det(A)>0$.
Correction
Le polynôme $P=X^3-X-1$ est un polynôme annulateur de $A$, $P$ admet une racine réel
$\alpha>1$ et deux racines complexes $\beta$ et $\overline{\beta}$.
D'autre part, si $Z\in \C^n$ est un vecteur propre associé à $\beta$ alors
$$\overline{\beta}\,\overline{Z}=\overline{\beta
Z}=\overline{AZ}=\overline{A}\overline{Z}=A\overline{Z}$$
donc $\dim E_\beta (A)=\dim E_{\overline{\beta}}(A)$ (éventuellement nul).
Notons $p$ l'ordre de multiplicité de $\alpha$ et $r$ l'ordre de multiplicité de $\beta$
(donc $n=p+2r$), alors
$$\det (A)= \alpha^p \beta^r\overline{\beta}^r=\alpha^p \abs{\beta}^{2r}>0$$
Restriction à un s-e-v stable
Soit $E$ un $\K$-e-v de dimension finie, et $u \in \mathscr{L}(E)$. Soit $F$ un s-e-v de $E$
stable par $u$, et $v \in \mathscr{L}(F)$ l'endomorphisme de $F$ induit par
$u$. Alors :
$\chi_v$ divise $\chi_u$ (polynômes caractéristiques)
Soit $E$ un $\K$-e-v de dimension finie et $u \in \mathscr{L}(E)$.
Soit $\lambda \in \Sp(u)$, et $m_{\lambda}$ son ordre de multiplicité (dans $\chi_u$).
Alors on a :
$$\boxed{1 \leqslant \dim E_{\lambda } (u) \leqslant m_{\lambda}}$$
La dimension d'un s e propre associé à une valeur propre simple est égale à 1.
Théorème de Cayley-Hamilton
Soit $E$ un $\K$-e-v de dimension finie ($\K=\R \text{ ou } \C$), et $u$ un endomorphisme de
$E$.
Alors : $$\boxed{\chi_u(u)=0_{\mathscr{L } (E)}}$$
Soit $A\in \MM_n(\R)$ ($n\geq 2$). On suppose que $A$ est inversible.
Montrer qu'il existe $P\in \R_{n-1}[X]$ tel que $A^{-1}=P(A)$.
Correction
Puisque $A$ est inversible alors $\det(A)\neq 0$, d'après le théorème de
Cayley-Hamilton, on a $\chi_A(A)=0$ soit
$$ (-1)^nA^n+(-1)^{n-1}\tr(A)A^{n-1}+\cdots a_1A +\det(A)I_n=0$$
ce qui donne,
$$ A\big((-1)^nA^{n-1}+(-1)^{n-1}A^{n-2}+\cdots a_1I_n\big)=-\det(A)I_n$$
On en déduit que:
$$A^{-1}=\dfrac{-1}{\det(A)}\big((-1)^nA^{n-1}+(-1)^{n-1}\tr(A)A^{n-2}+\cdots a_1I_n\big)=P(A)$$
Avec $P(X)=\dfrac{-(\chi_A(X)-\det(A))}{\det(A)X}$.
Endomorphismes diagonalisables
Définitions
Un endomorphisme $u \in \mathscr{L}(E)$ est dit diagonalisable si $E$ est
somme directe des sous-espaces propres de $u$, soit :
$$E = \dsp \bigoplus_{\lambda \in \Sp(u) } E_{\lambda}(u).$$
Exemples
-
Si $u\in \mathscr{L} (E)$ admet une seule valeur propre $\lambda$, alors $u$ est
diagonalisable ssi
$E_\lambda=E$, autrement dit, ssi $u=\lambda \ide$
-
Si $\dim E\geq 2$, et si $p\in \mathscr{L} (E)$ projecteur, alors $\Sp_\K(u)=\{0,1\}$.
D'autre part, on sait que
$$E=\Ker (p)\oplus \im (p)=\Ker (p)\oplus \Ker(p-\ide)= E_0\oplus E_1$$
Donc $p$ est diagonalisable.
(CCP)
Soit $E=\MM_n(\R)$. On considère les fonctions suivants:
$$A\in \MM_n(\R),\, \tr (A)\neq 0,\quad\varphi (M)=\tr (A) M+\tr (M)A.$$
$$\psi (M)=\frac{1}{3}\left(M+2{\,}^t M\right).$$
$\varphi$ et $\psi$ sont diagonalisable?
Correction
Soit $A\in \mathcal{S}_n(\R)$, on a
$$\psi(A)=\dfrac{1}{3}\left(A+2{\,}^t A\right)=A$$
donc $1\in \Sp (\psi)$ et $\mathcal{S}_n(\R)\subset E_1(\psi)$.
Soit $A\in \mathcal{A}_n(\R)$, on a
$$\psi(A)=\dfrac{1}{3}\left(A+2{\,}^t A\right)=\dfrac{1}{3}\left(A-2 A\right)=\dfrac{-1}{3} A$$
donc $\dfrac{-1}{3}\in \Sp (\psi)$ et $\mathcal{A}_n(\R)\subset E_{(-1/3)}(\psi)$.
Etant donnée que $\MM_n(\R)=\mathcal{S}_n(\R)\oplus \mathcal{A}_n(\R)$. On en déduit alors que
$E_1(\psi)=\mathcal{S}_n(\R)$, $E_{(-1/3)}=\mathcal{A}_n(\R)$ et $\psi$ est diagonalisable.
Caractérisations
Soit $u\in \mathscr{L} (E)$ les conditions suivantes sont deux à deux équivalentes:
- $u$ est diagonalisable
- Il existe une base de $E$ formé de vecteurs propres de $u$
- La somme des s-e-p de $u$ est égale à $E$
- La somme des dimensions des s-e-p de $u$ est égale à dimension de $E$
Soit $E$ un $\K$-e-v de dimension finie et $u \in \mathscr{L}(E)$. Alors :
$u$ diagonalisable $\Longleftrightarrow$ il existe une base $\mathscr{B}$ de $E$
telle que $ A= M_{\mathscr{B}_E}(u)$ soit diagonale.
($\mathscr{B}$ est formée de vecteurs propres de $u$, et les valeurs propres de $u$
(éventuellement confondues) sont les éléments de la diagonale de $A$).
(Mines-Télécom PSI 2019)
Soient $E$ un $\R$-e-v de dimension finie et $f,g\in \LL(E)$ tels que $f\circ g=f+g$.
-
Montrer que $\Ker f=\Ker g$ et $\im f=\im g$.
-
On suppose que $f,g$ sont diagonalisable. Montrer que $f\circ g$ l'est aussi et $\Sp
(f\circ g)\subset\R\setminus ]0,4[$.
Correction
-
Soit $x\in \Ker (g)$, alors
$$0=f(g(x))=f(x)+g(x)=f(x) \Longrightarrow x\in \Ker(f)$$
donc $\Ker(g)\subset\Ker (g)$, on en déduit également en utilisant le théorème du rang,
$\dim (\im (f))\leq \dim (\im (g))$ puisque $\dim (\Ker(g))\leq \dim (\Ker (f))$.
Soit $y\in \im (g)$, alors il existe $x\in E$ tel que $y=g(x)$, or
$$g(x)=f(g(x))-f(x)=f(g(x)-x) =y \Longrightarrow y\in \im (f)$$
ce qui implique $\im (g)\subset \im (f)$ mais comme $\dim (\im (g))\geq \dim (\im (f))$,
on en déduit que $\im (f)=\im (g)$ et également $\Ker(f)=\Ker(g)$.
-
Puisque $g$ est diagonalisable alors il existe une base $(x_1,\cdots, x_n)$ de $E$ formé
de
vecteurs propres de $g$, i.e.
$$\forall i\in \inter{1,n},\quad g(x_i)=\lambda_i x_i,\quad \Sp
(g)=\{\lambda_1,\cdots,\lambda_n\}.$$
Montrons que les éléments de cette base sont aussi des vecteurs propres de $f$ et aussi
de
$f\circ g$.
-
Notons d'abord que $1\not\in \Sp (g)$, en effet sinon on aurait
$$\exists i_0\in
\inter{1,n},\,g(x_{i_0})=x_{i_0}=f(g(x_{i_0}))-f(x_{i_0})=f(x_{i_0})-f(x_{i_0})=0$$
ce qui est impossible.
-
Soit $i\in \inter{1,n}$, on a
$$f(g(x_i))=f(x_i)+g(x_i)\Longrightarrow \lambda_i f(x_i)=f(x_i)+\lambda_i
x_i \Longrightarrow f(x_i)=\dfrac{\lambda_i}{\lambda_i-1}x_i$$
autrement dit, $x_i$ est un vecteur propre de $f$ associé à la valeur propre
$\dfrac{\lambda_i}{\lambda_i-1}$
D'après les relations précédentes, on trouve : pour tout $i\in \inter{1,n}$,
$$f(g(x_i))=f(\lambda_i x_i)=\lambda_if(x_i)=\dfrac{\lambda_i^2}{\lambda_i-1} x_i$$
Ainsi les vecteurs de la base $\Bb$ sont des vecteurs propres de $f\circ g$, ce qui
prouve que
$f\circ g$ est diagonalisable.
D'autre part, on a également
$$\Sp (f\circ g)=\{\dfrac{\lambda_i^2}{\lambda_i-1},\,\,\lambda_i\in \Sp (g)\}$$
Une étude rapide de la fonction $\varphi(x)=\dfrac{x^2}{x-1}$ définie sur $\R\setminus
\{1\}$
montre que
$\varphi (\R\setminus \{1\})= \R\setminus(]0,4[)$.
Soit $E$ un $\K$-e-v de dimension finie, $F$ un sev de $E$ et $u \in \mathscr{L}(E)$.
Alors $u$ est diagonalisable si et seulement si :
$\chi_u$ est scindé dans $\K[X]$ ET
Pour tout $\lambda \in \Sp(u)$, on a : $m_{\lambda}=\dim E_{\lambda}(u)$
On considère la matrice $A=\begin{pmatrix}
3&-4\\
2&-3
\end{pmatrix}\in \MM_2(\R)$ et l'application $\varphi$ de $\MM_2(\R)$ dans $\MM_2(\R)$ définie
par $\varphi(M)=AM-MA$.
Déterminer $\chi_\varphi(\lambda)$ puis $E_\lambda(\varphi)$ pour tout $\lambda\in
\Sp(\varphi)$.
$\varphi$ est-elle diagonalisable?
Soit $E$ un $\K$-e-v de dimension finie $n$, et $u \in \mathscr{L}(E)$.
Si $u$ possède $n$ valeurs propres distinctes, ALORS $u$ est diagonalisable.
Remarque
Attention: la réciproque est fausse! autrement dit, il ne s'agit là que d'une
condition
suffisante, et non nécessaire, de diagonalisabilité.
Considérer par exemple $u=\ide$...
(CCP 2020 (Ecrit))
l’erreur la plus fréquente a été de justifier la non diagonalisabilité de $B$
sur $\R$ par le fait que son polynôme caractéristique n’est pas scindé à racines simples.
On suppose que $E$ est de dimension fini. Pour que $u\in \mathscr{L} (E)$ soit diagonalisable il
faut et
il suffit qu'il admet un polynôme annulateur scindé à racines simples.
(CCP 2019 (Oral))
Trop de candidats confondent polynôme annulateur et polynôme caractéristique
et utilisent l’expression « LE polynôme annulateur ». Ceci les amène par exemple à
considérer que si $P$ est annulateur de $A$, alors les racines de $P$ sont valeurs propres de
$A$.
Dans le même ordre d’idées, certains candidats pensent que la diagonalisabilité est déductible
du polynôme caractéristique et on voit trop souvent des candidats affirmer que puisque le
polynôme caractéristique (ou le polynôme annulateur) est scindé, la matrice est diagonalisable.
Si $u \in \mathscr{L}(E)$ est diagonalisable et possède un ploynôme minimal $\Pi_u$,
alors $\Pi_u$ est scindé dans $\K[X]$ et n'a que des racines simples.
Matrice diagonalisable
et définition
Une matrice $A \in \MM_n(\K)$ est dite diagonalisable
ssi elle vérifie l'une des propriétés équivalentes suivantes :
- l'endomorphisme canoniquement associé à $A$ est diagonalisable.
- Si $E$ est un $\K$-e-v de dimension $n$ et $\mathscr{B}_E$ une base de $E$ telle que
$A=M_{\mathscr{B}_E}(u)$ où $u \in \mathscr{L}(E)$, $u$ est diagonalisable.
- $A$ est semblable à une matrice diagonale d'ordre $n$, i.e qu'il existe une matrice
$P \in GL_n(\K)$ et $D$ diagonale d'ordre $n$ telles que : $D=P^{-1}AP$ (ou
$A=PDP^{-1}$).
(CCINP PSI 2019)
Soit $A \in \MM_n(\mathbb{R})$ et $B=\begin{pmatrix}A&A\\0_n&0_n\end{pmatrix}$.
-
Diagonaliser $\begin{pmatrix}1&1\\0&0\end{pmatrix}$.
-
On revient au cas général. On suppose que $A$ est diagonalisable. Montrer que $ B$ est
aussi diagonalisable. Quelles sont ses valeurs propres ?
Correction
-
Notons $C=\begin{pmatrix}
1&1\\
0&0
\end{pmatrix}$, comme $C$ est une matrice triangulaire supérieur alors les valeurs
propres de $C$ sont ses coefficients diagonaux,
i.e. $\Sp (C)=\{0,1\}$.
Il est facile dans ce cas de vérifier
$$C\begin{pmatrix}
1\\0
\end{pmatrix}=\begin{pmatrix}
1\\0
\end{pmatrix},\, \,C\begin{pmatrix}
1\\-1
\end{pmatrix}=\begin{pmatrix}
0\\0
\end{pmatrix} \Longrightarrow C =\begin{pmatrix}
1&1\\
0&-1
\end{pmatrix} \begin{pmatrix}
1&0\\
0&0
\end{pmatrix}
\begin{pmatrix}
1&1\\
0&-1
\end{pmatrix}.$$
-
Comme $A$ est diagonalisable alors il existe une matrice $D$ diagonale et une matrice
$P$
inversible tels que $A=PDP^{-1}$.
On pose alors $K=\begin{pmatrix}
P&I_n\\
0&-I_n
\end{pmatrix}\in \MM_{2n}(\R)$ et $K$ inversible d'inverse
$K^{-1} = \begin{pmatrix}
P^{-1}&P^{-1}\\
0&-I_n
\end{pmatrix}$, et on a
$$
\begin{pmatrix}
P^{-1}&P^{-1}\\
0&-I_n
\end{pmatrix} \begin{pmatrix}A&A\\0_n&0_n\end{pmatrix} \begin{pmatrix}
P&I_n\\
0&-I_n
\end{pmatrix} = \begin{pmatrix}
P^{-1}&P^{-1}\\
0&-I_n
\end{pmatrix} \begin{pmatrix}
AP&0\\
0&0
\end{pmatrix}=\begin{pmatrix}
D&0\\
0&0
\end{pmatrix}$$
Trigonalisation
-
Un endomorphisme $u \in \mathscr{L}(E)$ est dit trigonalisable
s'il existe une base $\mathscr{B}$ de $E$ telle que $M_{\mathscr{B}}(u)$ soit
triangulaire
supérieure.
-
Une matrice carrée $A \in \MM_n(\K)$ est dite trigonalisable si
l'endomorphisme $a$ de $\K^n$ qui lui est canoniquement associé est trigonalisable.
Cela revient à dire que $A$ est semblable à une matrice triangulaire supérieure, i.e
qu'il
existe $P \in GL_n(\K)$ et $T \in TS_n(\K)$ telles que : $T=P^{-1}AP$ (ou $A=PTP^{-1}$).
Un endomorphisme $u \in \mathscr{L}(E)$ est trigonalisable si et seulement si son polynôme
caractéristique est scindé dans $\K[X]$.
Remarques
- Si $\K=\C$, tout endomorphisme de $E$ est trigonalisable.
- Si $u\in \mathscr{L}(E)$ est trigonalisable et si $\mathscr{B}$ est une base de $E$
dans
laquelle la matrice $T$ de $u$ est triangulaire supérieure, alors les éléments diagonaux
de
$T$ sont
exactement les valeurs propres de $u$ (chacune étant comptée avec son ordre de
multiplicité).