Isométries vectorielles

Dans ce chapitre $E$ désigne un $\R$-espace vectoriel euclidien de dimension finie $n$.

Définitions

Soit $u\in \LL(E)$, on dit que $u$ conserve le produit scalaire ssi $$\forall (x,y)\in E^2,~~~~\scal{x}{y}=\scal{u(x)}{u(y)}.$$

Soit $u\in \LL(E)$, si $u$ conserve le produit scalaire alors $u\in GL(E).$

Soit $u\in \LL(E)$. On dit que $u$ est un automorphisme orthogonal si $u$ conserve le produit scalaire.

Remarque

Un endomorphisme orthogonal est aussi appelé isométrie vectorielle de $E$.

Exemple

$E=\R_n[X]$ muni de p.s $\scal{P}{Q}=\dsp\int_0^1P(t)Q(t)\ud t$. On considère l'endomorphisme $f$ défini par $f(P)=P(1-X)$. Alors $f$ est un automorphisme orthogonal de $E$.


Soient $u\in \LL(E)$ une isométrie vectorielle et $F\subset E$ un s-e-v de $E$ stable par $u$. Montrer que $F^\perp$ est stable par $u$.

Correction

Soient $(a,b)\in F\times F^\perp$, on a $$\scal{u(b)}{u(a)}=\scal{b}{a}=0$$ On en déduit alors que $u(b)\in u(F)^\perp$, ensuite comme $F$ est stable par $u$ alors $u(F)\subset F$, enfin on a $u(F)=F$ puisque $u$ est bijective. On en déduit alors que $u(F)^\perp=F^\perp$, ceci implique que $u(b)\in F^\perp$ autrement dit, $F^\perp $ est aussi stable par $u$.

Soit $u\in \LL(E)$, les propriétés suivantes sont équivalentes:

  1. $u$ est un automorphisme orthogonal
  2. $u$ conserve la norme ,i.e., $\forall x\in E,~~\norme{u(x)}=\norme{x}.$
  3. $ u$ transforme toute base orthonormale en une base orthonormale.


Soient $u\in \LL(E)$ une isométrie vectorielle et $\lambda \in \Sp (u)$. Que peut-t-on dire de $\lambda$?

Correction

Comme $\lambda\in \Sp (u)$ alors il existe $x\in E$ non nul tel que $u(x)=\lambda x$. Puisque $u$ est une isométrie vectorielle alors, $$\scal{u(x)}{u(x)} =\scal{x}{x},\,\text{ et } \scal{u(x)}{u(x)}= \scal{\lambda x}{\lambda x} =\lambda^2 \norme{x}^2$$ Donc $\lambda^2=1$ soit $\lambda \in \{-1,1\}$.

Ainsi, les seules valeurs propres possibile d'une isométrie vectorielle sont $-1$ et $1$.

(Groupe orthogonal) L'ensemble des automorphismes orthogonaux de $E$ est appelé groupe orthogonal de $E$ (noté $\mathcal{O}(E)$).


Soit $E$ un e-v euclidien de dimension $n$. Soient $(x_i)_{1\leq i\leq p},\, (y_i)_{1\leq i\leq p}$ deux familles de vecteurs de $E$ vérifiant: $$\forall (i,j)\in \inter{1,p}^2,\quad \scal{x_i}{x_j}=\scal{y_i}{y_j}.$$ Montrer qu'il existe $u\in \mathcal{O}(E)$ tel que, pour tout $i\in \inter{1,p},\,\, u(x_i)=y_i$.

Correction

Notons $V=\Vect (x_1,\cdots,x_p)$ quitte à changer l'ordre dans la famille $(x_i)$ (en faisant aussi le même changement dans la famille $(y_i)$) on peut supposer que $V=\Vect (x_1,\cdots,x_d)$ ou $d=\dim (V)$.

On note $W=\Vect(y_1,\cdots,y_p)$ et on définit $\fonct{\varphi}{V}{W}{\dsum_{1\leq j\leq p}\alpha_ix_i}{\dsum_{1\leq j\leq p}\alpha_iy_i}$.

Il est clair que $\varphi\in \LL (V,W)$, $\varphi$ est surjective, de plus, $$ \begin{array}{lcl} \forall x= \dsum_{1\leq j\leq p}\alpha_ix_i\in V,\quad\, \norme{\varphi(x)}^2&=& \scal{\dsum_{1\leq j\leq p}\alpha_iy_i}{\dsum_{1\leq j\leq p}\alpha_iy_i}\\ &&\\ &=&\dsum_{1\leq i,j\leq p}\alpha_i\alpha_j\scal{y_i}{y_j}=\dsum_{1\leq i,j\leq p}\alpha_i\alpha_j\scal{x_i}{x_j}\\ &&\\ &=&\dsum_{1\leq i,j\leq p}\alpha_i\alpha_j\scal{x_i}{x_j}= \norme{x}^2. \end{array}$$ donc $\varphi$ est injective, donc bijective. On en déduit alors que $\dim(W)=\dim(V)=d$ et que $(y_1,\cdots,y_d)=\varphi((x_1,\cdots,x_d))$ est une base de $W$.
De plus, pour tout $i\in \inter{d+1,p},\,$ si $x_i=\dsum_{j=1}^d \beta_j x_j$ alors $y_i=\dsum_{j=1}^d\beta_j y_j$.

Considérons maintenant une base orthonormale $(x_{d+1}',\cdots,x_n')$ de $V^\perp$ et une base orthonormale $(y_{d+1}',\cdots,y_n')$ de $W^\perp$.
On définit alors $u\in \LL(E)$ par $$\forall i\in \inter{1,d},\,\, u(x_i)=y_i,\,\quad \forall i\in \inter{d+1,n},\,\,u(x_i')=y_i'.$$ Alors $u$ répond à la question demandée (je vous laisse le soin de vérifier).

Matrices orthogonales

Soit $A\in \MM_n(\R)$. On dit que $A$ est une matrice orthogonale ssi $u_A$ l'application linéaire canoniquement associé à $A$ est un automorphisme orthogonal.

Soit $A\in \MM_n(\R)$, les propriétés suivantes sont équivalentes:

  1. $A$ est une matrice orthogonale.
  2. Les colonnes de $A$ forment une base orthonormale de $\MM_{n\,1}(\R)$.
  3. Les lignes de $A$ forment une base orthonormale de $\MM_{1\,n}(\R)$.
  4. $A$ est inversible et $A^{-1}=\,^t A$.

Soit $A\in \MM_n(\R)$, si $A$ est une matrice orthogonale alors $\det (A)=\mp 1$.

Remarque

La réciproque est fausse!

Soit $u\in \LL(E)$. Les propriétés suivantes sont équivalentes:

  1. $u$ est un automorphisme orthogonal.
  2. La matrice de $u$ dans toute base orthonormale est orthogonale.

On appelle groupe orthogonal d'ordre $n$ (noté $\mathcal{O}(n)$) l'ensemble des matrices orthogonales de taille $n$. $$\mathcal{O}(n)=\{A\in \MM_n(\R),~~A\cdot\,^t A=I_n\}.$$

L'ensemble $\mathcal{SO}=\{M\in \mathcal{O}(n),\,\det(M)=1\}$ est appelé groupe spécial orthogonal d'ordre $n$.

Projection et symétrie orthogonales

Puisque $E$ est de dimension finie, alors si $F$ est un sous espace vectoriel de $E$ alors $E=F\oplus F^\perp$.

  1. La projection sur $F$ parallèlement à $F^\perp$ est appelée projection orthogonale sur $F$.
  2. La symétrie par rapport à $F$ parallèlement à $F^\perp$ est appelée symétrie orthogonale par rapport à $F$.
  3. Si $F$ est un hyperplan de $E$, la symétrie orthogonale par rapport à $F$ est appelée réflexion par rapport à $F$.

Les symétries orthogonales sont des automorphismes orthogonaux.

Remarque

En générale un projecteur orthogonal n'est pas un automorphisme orthogonal.

Si $s$ est une réflexion alors $\det (s)=-1$.

Géométrie vectorielle euclidienne en dimension 2 ou 3

Soit $E$ un espace euclidien (de dimension $n\in \N^*$).

On dit que $E$ est orienté ssi on choisit une base $\BB$ de $E$ qualifiée de directe.

Une base $\BB'$ de $E$ est dite directe ssi $\det_\BB (\BB')>0$.

Deux bases $\BB_0$, $\BB_1$ orthonormales de $E$ sont de même orientation ssi $\det_{\BB_0}(\BB_1)=1$.

Géométrie plane

Soit $E$ un espace euclidien orienté de dimension 2.

  1. $\mathcal{O}_2(\R)=\{R_\theta,\,\theta\in \R\}\cup \{S_\varphi,\,\varphi\in \R\}$ avec $$R_\theta=\begin{pmatrix} \cos (\theta)&-\sin(\theta)\\ \sin(\theta)&\cos(\theta) \end{pmatrix}\text{ et } S_\varphi=\begin{pmatrix} \cos(\varphi)&\sin(\varphi)\\ \sin(\varphi)&-\cos(\varphi) \end{pmatrix}.$$
  2. $\mathcal{SO}_2(\R)=\{R_\theta,\,\theta\in \R\}$.

Soient $\BB$ une b.o.n.d de $E$ et $\theta\in \R$. L'endomorphisme de $E$ dont la matrice dans $\BB$ est $R_\theta$ est appelé la rotation d'angle $\theta$, et noté $\mathrm{Rot}_\theta$ .

(et définiton) Soient $u,v\in E\setminus\{0\}$, on pose $U=\dfrac{u}{\norme{u}}$ et $V=\dfrac{v}{\norme{v}}$. Alors il existe $\theta\in \R$, unique modulo $2\pi$, tel que $V=\mathrm{Rot}_\theta(U)$.

Le réel $\theta$ (ou sa classe modulo $2\pi$) est appelé l'angle de $u$ et $v$ et noté $\widehat{(u,v)}$.

  1. $\forall \theta_1,\,\theta_2\in \R,\,\mathrm{Rot}_{\theta_1+\theta_2}=\mathrm{Rot}_{\theta_1}\circ\mathrm{Rot}_{\theta_2}$.
  2. $\forall u,v\in E\setminus\{0\},\,\,\scal{u}{v}=\norme{u}\norme{v}\cos( \widehat{u,v})$.
  3. $\forall u,\,v\,w\in E\setminus\{0\},~~(\widehat{u,w})=(\widehat{u,v})+(\widehat{v,w})\,[2\pi]$.

Soit $\BB=(e_1,e_2)$ une b.o.n.d de $E$, soit $\varphi\in \R$. On considère la droite vectorielle $D=\Vect \left(\cos(\varphi/2)e_1+\sin(\varphi/2)e_2\right)$.

Alors la matrice de la réflexion par rapport à $D$ dans la base $\BB$ est $$S_\varphi=\begin{pmatrix} \cos(\varphi)&\sin(\varphi)\\ \sin(\varphi)&-\cos(\varphi) \end{pmatrix}.$$

Géométrie vectorielle en dimension 3

Soit $E$ un espace vectoriel euclidien orienté de dimension 3, soit $\BB=\{i,j,k\}$ une b.o.n.d de $E$.

Soit $f\in \mathcal{O}(E)$. Alors il existe $x\in E\setminus\{0\}$ tel que $f(x)=x$ ou $f(x)=-x$.

Soit $f\in \mathcal{O}(E)$, $f\neq \mathrm{Id}_E$.

  1. Si $\det(f)=1$ alors $f$ est une rotation de $E$.
  2. Si $\det(f)=-1$, alors:
    1. ou bien $f$ est une réflexion de $E$,
    2. ou bien $f$ est la composée d'une rotation de $E$ et la réflexion par rapport au plan orthogonal à l'axe de cette rotation.

En pratique pour déterminer les éléments caractéristiques d'un élément de $\mathcal{O}(E)$, on commence par calculer $\det (f)$

  1. $\mathbf{a )}$ Si $\det (f)=1$
    1. $\mathbf{1-\,}$ L'axe de rotation est l'ensemble $x\in E$ tel que $f(x)=x$. On choisit $I\in E$ non nul tel que $\norme{I}=1$ et $f(I)=I$.
    2. $\mathbf{2-\,}$ On détermine $\theta$ par:
      1. $\mathbf{2-\,a\,)}$ $1+2\cos(\theta)=\tr (f)$
      2. $\mathbf{2-\,b\,)}$ le signe de $\sin (\theta)$ est le même que le signe de $\det (x,f(x),I)$ pour n'importe quel $x$ non colinéaire à $I$.
  2. $\mathbf{b )}$ Si $\det (f)=-1$
    Si la matrice de $f$ dans la base $\BB$ est symétrique et si $f\neq -\mathrm{Id}_E$ alors $f$ est une réflexion dont le plan de réflexion est l'ensemble des invariants de $f$.
    Si la matrice de $f$ n'est pas symétrique, alors $f$ est la composée d'une rotation d'axe $D$ et d'angle $\theta$ et d'une réflexion par rapport au plan $P$ orthogonal à l'axe $D$.
    1. $\mathbf{1-\,}$ $D$ est caractérisé par la résolution de $f(x)=-x$ ($D=\Vect (I)$).
    2. $\mathbf{2-\,}$ Pour trouver $\theta$, on utilise
      1. $\mathbf{2-\,a\,)}$ $\tr (f)=-1+2\cos(\theta)$
      2. $\mathbf{2-\,b\,)}$ le signe de $\sin(\theta)$ est le même que $\det (x,f(x),I)$ pour n'importe quel $x$ t.q $x\not\in D$.


Soit $f\in \LL(\R^3)$ tel que $M(f)=\Omega=\dfrac{1}{3}\begin{pmatrix} -2&-1&2\\ 2&-2&1\\ 1&2&2 \end{pmatrix}$.

Correction

$\Omega \cdot \,^t \Omega=I_3,\,\det(\Omega)=1$. Donc $f$ est une rotation.

L'axe de la rotation est dirigé par $u=i+j+3k$. On choisit $I=\dfrac{u}{\norme{u}}=\dfrac{1}{\sqrt{11}}(i+j+3k)$.
Notons $\theta$ l'angle de $f$, $1+2\cos(\theta)=\dfrac{-2}{3}\Rightarrow\cos(\theta)=\dfrac{-5}{6}$. Pour déterminer le signe de $\sin(\theta)$, on calcul $$\det(i,f(i),I)=\begin{vmatrix} 1&\frac{-2}{3}&\frac{1}{\sqrt{11}}\\ 0&\frac{2}{3}&\frac{1}{\sqrt{11}}\\ 0&\frac{1}{3}&\frac{3}{\sqrt{11}} \end{vmatrix}=\dfrac{5}{3\sqrt{11}}>0$$ Donc $\theta =\Arccos(-5/6) [2\pi]$


$f$ avec $\Omega =\dfrac{-1}{4}\begin{pmatrix} 3&1&\sqrt{6}\\ 1&3&-\sqrt{6}\\ -\sqrt{6}&\sqrt{6}&2 \end{pmatrix}$

Correction

$\det(\Omega)=-1$ donc $f$ est la composée d'une rotation d'axe $\Delta$ et d'une réflexion par rapport à $P=\Delta^\perp$.
$\Delta =\Vect (\dfrac{i+j}{\sqrt{2}})$. $\tr (\Omega)+1=2\cos(\theta)\Longrightarrow \cos(\theta)=-1/2$. le signe de $\sin(\theta)< 0$ donc $\theta=\dfrac{-2\pi}{3}[2\pi]$.


$f$ avec $\Omega =\dfrac{-1}{9}\begin{pmatrix} -8&4&1\\ 4&7&4\\ 1&4&-8 \end{pmatrix}$

Correction

$\Omega$ est symétrique, $\det(\Omega)=-1$ donc $f$ est une réflexion. Puis on cherche $u$ tq $f(u)=u$ on obtient l'équation $x+4y+z=0$.

Produit mixte et vectoriel dans un espace euclidien de dimension 3

Produit mixte et vectoriel dans un espace euclidien de dimension 3

Soient $u,v,w\in E$, alors $\det_\BB(u,v,w)$ ne dépend pas du choix de la b.o.n.d $\BB$ de $E$.

Soient $(u,v,w)\in E^3$, on appelle produit mixte de $(u,v,w)$ (noté $[u,v,w]$) le déterminant $\det_\BB(u,v,w)$.

Soient $u,w\in E$, on considère l'application $\fonct{f}{E}{\R}{x}{[u,v,x]}$. Il est clair que $f$ est une forme linéaire sur $E$, donc il existe un unique $w\in E$ tel que $$\forall x\in E,~~[u,v,x]=\scal{x}{w}$$

(Produit vectoriel) Pour tout $u,v\in E$, on appelle le produit vectoriel de $u$ par $v$ noté $u\wedge v$ l'unique vecteur $w\in E$ qui vérifie $$\forall x\in E,~~[u,v,x]=\scal{x}{u\wedge v}$$

  1. L'application $\fonct{}{E\times E}{E}{(u,v)}{u\wedge v}$ est bilinéaire alternée.
  2. Pour tout $u,v\in E$, on a $$u\wedge v=0\Longleftrightarrow (u,v)\text{ est liée}.$$ Si $(u,v)$ est libre, alors $(u,v,u\wedge v)$ est une base directe de $E$.
  3. Pour tout $ u,v\in E$, on a $(u\wedge v)\perp u$ et $(u\wedge v)\perp v$.

Soit $\BB=(i,j,k)$ une b.o.n.d de $E$ et $u,v\in E$, on suppose que $$u=xi+yj+zk\text{ et } v=x'i+y'j+z'k$$ alors $$u\wedge v=(yz'-zy')i+(zx'-xz')j+(xy'-yx')k.$$

Réduction des endomorphismes symétriques

Soit $u\in \LL(E)$. On dit que $u$ est symétrique (ou autoadjoint) si $$\forall (x,y)\in E^2,~~\scal{u(x)}{y}=\scal{x}{u(y)}.$$

Soit $u\in \LL(E)$. Les propriétés suivantes sont équivalentes:

  1. $u$ est symétrique.
  2. La matrice de $u$ dans une base orthonormale de $E$ est symétrique.

L'ensemble des endomorphismes symétriques de $E$ est un sous espace vectoriel de $\LL(E)$ de dimension $\frac{n(n+1)}{2}$.

Remarque

La composée de deux endomorphismes symétriques $f$ et $g$ n'est pas forcément symétrique (il faut que $f\circ g=g\circ f$).

Le polynôme caractéristique d'un endomorphisme autoadjoint (resp. une matrice symétrique) est scindé sur $\R$.

Soit $u\in \LL(E)$ un endomorphisme symétrique. Alors les sous-espaces propres de $u$ sont en somme directe orthogonale.

En particulier, $u$ est diagonalisable dans une base orthonormale ( composée de vecteurs propres de $u$).

Soit $A\in \MM_n(\R)$ une matrice symétrique alors $A$ est diagonalisable par une matrice de passage orthogonale. i.e.

  1. Il existe une matrice diagonale $D\in \MM_n(R)$ dont les coefficient diagonaux sont les valeurs propres de $A$.
  2. Il existe une matrice $P\in \mathcal{O}(n)$ dont les colonnes sont des vecteurs propres de $A$ et forment une base orthonormale de $\MM_{n\,1}(\R)$.

tels que $A=P D{\,}^tP$.

Remarque

Une matrice complexe symétrique n'est pas forcement diagonalisable comme le montre l'exemple $A=\begin{pmatrix} 1&\ii\\ \ii& -1 \end{pmatrix}$.

(E3A -- 2018)

Soit $A\in \mathcal{S}_n(\R)$. Montrer l'équivalence des trois propositions suivantes:

  1. $\forall X\in \MM_{n,1}(\R),\, \,^tXAX\geq 0$
  2. $\forall \lambda\in \Sp (A),\,\lambda\geq 0$
  3. $\exists B\in \mathcal{S}_n(R)$ telle que $A=B^2$.

Correction

(1) $ \rightarrow$ (2) Supposons que $A$ vérifie l'hypothèse (1). Soit $\lambda\in \Sp(A)$, et $X\in E_\lambda(A)$ non nul, alors $$0\leq \,^t XAX=\,^t X(AX)=\,^tX(\lambda X)=\lambda \norme{X}^2$$ ceci implique alors que $\lambda\geq 0$ car $\norme{X}^2>0$.

(2) $ \rightarrow$ (3) Puisque la matrice $A$ est symétrique réelle, alors il existe une matrice $P\in \mathcal{O}_n(\R)$ (formée des vecteurs propres de $A$) telle que $A=\,^t P \mathrm{diag}(\lambda_1,\cdots,\lambda_n) P$. Puisque $\Sp(A)\subset\R_+$, on pose alors $B =\,^t P \mathrm{diag}(\sqrt{\lambda_1},\cdots,\sqrt{\lambda_n}) P$, alors $B$ est symétrique et on a $B^2=A$.

(3) $ \rightarrow$ (1) Supposons que $A=B^2$ avec $B=\,^t B$. Soit $X\in \MM_{n,1}(\R)$ alors $$\,^t XA X=\,^t X B^2X=\,^t X \,^t B BX= \,^t (BX) (BX)=\norme{BX}^2\geq 0.$$

(X 2015)

Soit $A\in \MM_n(\R)$ inversible. Montrer qu'il existe une base orthonormale $(X_1,\cdots,X_n)$ de $\R^n$ telle que $(AX_1,\cdots,AX_n)$ soit aussi une base orthogonale de $\R^n$.

Correction

On pose $B=A^t\,A$, $B$ est symétrique réelle donc diagonalisable dans une b.o $(X_1,\cdots,X_n)$, avec $BX_i=\lambda_i X_i$ ($\lambda_i\in \Sp (B)$).
Comme la matrice $A$ est inversible alors $(AX_1,\cdots,AX_n)$ est une base de $\R^n$.

Soit $i,\,j\in \inter{1,n}$ tels que $i\neq j$, on a $$\scal{AX_i}{AX_j}= (AX_i)^t\,(AX_j) =X_i^tA^t\,AX_j =X_i^t BX_j =\lambda_j \scal{X_i}{X_j}=0$$ Ceci prouve que la famille $(AX_1,\cdots,AX_n)$ est orthogonale.