Dans ce chapitre $E$ désigne un $\R$-espace vectoriel euclidien de dimension finie $n$.
Un endomorphisme orthogonal est aussi appelé
$E=\R_n[X]$ muni de p.s $\scal{P}{Q}=\dsp\int_0^1P(t)Q(t)\ud t$. On considère l'endomorphisme $f$ défini par $f(P)=P(1-X)$. Alors $f$ est un automorphisme orthogonal de $E$.
Soient $u\in \LL(E)$ une isométrie vectorielle et $F\subset E$ un s-e-v de $E$ stable par $u$. Montrer que $F^\perp$ est stable par $u$.
Soient $(a,b)\in F\times F^\perp$, on a $$\scal{u(b)}{u(a)}=\scal{b}{a}=0$$ On en déduit alors que $u(b)\in u(F)^\perp$, ensuite comme $F$ est stable par $u$ alors $u(F)\subset F$, enfin on a $u(F)=F$ puisque $u$ est bijective. On en déduit alors que $u(F)^\perp=F^\perp$, ceci implique que $u(b)\in F^\perp$ autrement dit, $F^\perp $ est aussi stable par $u$.
Soient $u\in \LL(E)$ une isométrie vectorielle et $\lambda \in \Sp (u)$. Que peut-t-on dire de $\lambda$?
Comme $\lambda\in \Sp (u)$ alors il existe $x\in E$ non nul tel que $u(x)=\lambda x$. Puisque $u$ est une isométrie vectorielle alors, $$\scal{u(x)}{u(x)} =\scal{x}{x},\,\text{ et } \scal{u(x)}{u(x)}= \scal{\lambda x}{\lambda x} =\lambda^2 \norme{x}^2$$ Donc $\lambda^2=1$ soit $\lambda \in \{-1,1\}$.
Ainsi, les seules valeurs propres possibile d'une isométrie vectorielle sont $-1$ et $1$.
Soit $E$ un e-v euclidien de dimension $n$. Soient $(x_i)_{1\leq i\leq p},\, (y_i)_{1\leq i\leq p}$ deux familles de vecteurs de $E$ vérifiant: $$\forall (i,j)\in \inter{1,p}^2,\quad \scal{x_i}{x_j}=\scal{y_i}{y_j}.$$ Montrer qu'il existe $u\in \mathcal{O}(E)$ tel que, pour tout $i\in \inter{1,p},\,\, u(x_i)=y_i$.
Notons $V=\Vect (x_1,\cdots,x_p)$ quitte à changer l'ordre dans la famille $(x_i)$ (en faisant aussi le même changement dans la famille $(y_i)$) on peut supposer que $V=\Vect (x_1,\cdots,x_d)$ ou $d=\dim (V)$.
On note $W=\Vect(y_1,\cdots,y_p)$ et on définit $\fonct{\varphi}{V}{W}{\dsum_{1\leq j\leq p}\alpha_ix_i}{\dsum_{1\leq j\leq p}\alpha_iy_i}$.
Il est clair que $\varphi\in \LL (V,W)$, $\varphi$ est surjective, de plus,
$$
\begin{array}{lcl}
\forall x= \dsum_{1\leq j\leq p}\alpha_ix_i\in V,\quad\, \norme{\varphi(x)}^2&=&
\scal{\dsum_{1\leq j\leq p}\alpha_iy_i}{\dsum_{1\leq j\leq p}\alpha_iy_i}\\
&&\\
&=&\dsum_{1\leq i,j\leq p}\alpha_i\alpha_j\scal{y_i}{y_j}=\dsum_{1\leq i,j\leq
p}\alpha_i\alpha_j\scal{x_i}{x_j}\\
&&\\
&=&\dsum_{1\leq i,j\leq p}\alpha_i\alpha_j\scal{x_i}{x_j}= \norme{x}^2.
\end{array}$$
donc $\varphi$ est injective, donc bijective. On en déduit alors que $\dim(W)=\dim(V)=d$ et que
$(y_1,\cdots,y_d)=\varphi((x_1,\cdots,x_d))$
est une base de $W$.
De plus, pour tout $i\in \inter{d+1,p},\,$ si $x_i=\dsum_{j=1}^d \beta_j x_j$ alors
$y_i=\dsum_{j=1}^d\beta_j y_j$.
Considérons maintenant une base orthonormale $(x_{d+1}',\cdots,x_n')$ de $V^\perp$ et une base
orthonormale $(y_{d+1}',\cdots,y_n')$ de
$W^\perp$.
On définit alors $u\in \LL(E)$ par
$$\forall i\in \inter{1,d},\,\, u(x_i)=y_i,\,\quad \forall i\in
\inter{d+1,n},\,\,u(x_i')=y_i'.$$
Alors $u$ répond à la question demandée (je vous laisse le soin de vérifier).
La réciproque est fausse!
Puisque $E$ est de dimension finie, alors si $F$ est un sous espace vectoriel de $E$ alors $E=F\oplus F^\perp$.
En générale un projecteur orthogonal
Soit $E$ un espace euclidien (de dimension $n\in \N^*$).
Une base $\BB'$ de $E$ est dite directe ssi $\det_\BB (\BB')>0$.
Soit $E$ un espace euclidien orienté de dimension 2.
Le réel $\theta$ (ou sa classe modulo $2\pi$) est appelé l'
Alors la matrice de la réflexion par rapport à $D$ dans la base $\BB$ est
Soit $E$ un espace vectoriel euclidien orienté de dimension 3, soit $\BB=\{i,j,k\}$ une b.o.n.d de $E$.
En pratique pour déterminer les éléments caractéristiques d'un élément de $\mathcal{O}(E)$, on commence par calculer $\det (f)$
Soit $f\in \LL(\R^3)$ tel que $M(f)=\Omega=\dfrac{1}{3}\begin{pmatrix} -2&-1&2\\ 2&-2&1\\ 1&2&2 \end{pmatrix}$.
$\Omega \cdot \,^t \Omega=I_3,\,\det(\Omega)=1$. Donc $f$ est une rotation.
L'axe de la rotation est dirigé par $u=i+j+3k$. On choisit
$I=\dfrac{u}{\norme{u}}=\dfrac{1}{\sqrt{11}}(i+j+3k)$.
Notons $\theta$ l'angle de $f$,
$1+2\cos(\theta)=\dfrac{-2}{3}\Rightarrow\cos(\theta)=\dfrac{-5}{6}$.
Pour déterminer le signe de $\sin(\theta)$, on calcul
$$\det(i,f(i),I)=\begin{vmatrix}
1&\frac{-2}{3}&\frac{1}{\sqrt{11}}\\
0&\frac{2}{3}&\frac{1}{\sqrt{11}}\\
0&\frac{1}{3}&\frac{3}{\sqrt{11}}
\end{vmatrix}=\dfrac{5}{3\sqrt{11}}>0$$
Donc $\theta =\Arccos(-5/6) [2\pi]$
$f$ avec $\Omega =\dfrac{-1}{4}\begin{pmatrix} 3&1&\sqrt{6}\\ 1&3&-\sqrt{6}\\ -\sqrt{6}&\sqrt{6}&2 \end{pmatrix}$
$\det(\Omega)=-1$ donc $f$ est la composée d'une rotation d'axe $\Delta$ et d'une réflexion par
rapport à $P=\Delta^\perp$.
$\Delta =\Vect (\dfrac{i+j}{\sqrt{2}})$. $\tr (\Omega)+1=2\cos(\theta)\Longrightarrow
\cos(\theta)=-1/2$.
le signe de $\sin(\theta)< 0$ donc $\theta=\dfrac{-2\pi}{3}[2\pi]$.
$f$ avec $\Omega =\dfrac{-1}{9}\begin{pmatrix} -8&4&1\\ 4&7&4\\ 1&4&-8 \end{pmatrix}$
$\Omega$ est symétrique, $\det(\Omega)=-1$ donc $f$ est une réflexion. Puis on cherche $u$ tq $f(u)=u$ on obtient l'équation $x+4y+z=0$.
Produit mixte et vectoriel dans un espace euclidien de dimension 3
Soient $u,w\in E$, on considère l'application $\fonct{f}{E}{\R}{x}{[u,v,x]}$. Il est clair que $f$
est une forme linéaire sur $E$,
donc il existe un unique $w\in E$ tel que
La composée de deux endomorphismes symétriques $f$ et $g$ n'est pas forcément symétrique (il faut que $f\circ g=g\circ f$).
En particulier,
tels que $A=P D{\,}^tP$.
Une matrice complexe symétrique n'est pas forcement diagonalisable comme le montre l'exemple $A=\begin{pmatrix} 1&\ii\\ \ii& -1 \end{pmatrix}$.
Soit $A\in \mathcal{S}_n(\R)$. Montrer l'équivalence des trois propositions suivantes:
(1) $ \rightarrow$ (2) Supposons que $A$ vérifie l'hypothèse (1). Soit $\lambda\in \Sp(A)$, et $X\in E_\lambda(A)$ non nul, alors $$0\leq \,^t XAX=\,^t X(AX)=\,^tX(\lambda X)=\lambda \norme{X}^2$$ ceci implique alors que $\lambda\geq 0$ car $\norme{X}^2>0$.
(2) $ \rightarrow$ (3) Puisque la matrice $A$ est symétrique réelle, alors il existe une matrice $P\in \mathcal{O}_n(\R)$ (formée des vecteurs propres de $A$) telle que $A=\,^t P \mathrm{diag}(\lambda_1,\cdots,\lambda_n) P$. Puisque $\Sp(A)\subset\R_+$, on pose alors $B =\,^t P \mathrm{diag}(\sqrt{\lambda_1},\cdots,\sqrt{\lambda_n}) P$, alors $B$ est symétrique et on a $B^2=A$.
(3) $ \rightarrow$ (1) Supposons que $A=B^2$ avec $B=\,^t B$. Soit $X\in \MM_{n,1}(\R)$ alors $$\,^t XA X=\,^t X B^2X=\,^t X \,^t B BX= \,^t (BX) (BX)=\norme{BX}^2\geq 0.$$
Soit $A\in \MM_n(\R)$ inversible. Montrer qu'il existe une base orthonormale $(X_1,\cdots,X_n)$ de $\R^n$ telle que $(AX_1,\cdots,AX_n)$ soit aussi une base orthogonale de $\R^n$.
On pose $B=A^t\,A$, $B$ est symétrique réelle donc diagonalisable dans une b.o $(X_1,\cdots,X_n)$, avec
$BX_i=\lambda_i X_i$ ($\lambda_i\in \Sp (B)$).
Comme la matrice $A$ est inversible alors $(AX_1,\cdots,AX_n)$ est une base de $\R^n$.
Soit $i,\,j\in \inter{1,n}$ tels que $i\neq j$, on a $$\scal{AX_i}{AX_j}= (AX_i)^t\,(AX_j) =X_i^tA^t\,AX_j =X_i^t BX_j =\lambda_j \scal{X_i}{X_j}=0$$ Ceci prouve que la famille $(AX_1,\cdots,AX_n)$ est orthogonale.