<

Espace euclidien

Produit scalaire

($\star$) Correction

Soient $n\in \N^*,~~x_1,\cdots,x_n\in \R_+^*$ tels que $\dsum_{k=1}^nx_k=1$. Montrer que : $\dsum_{k=1}^n\dfrac{1}{x_k}\geq n^2$, étudier le cas d'égalité.

Correction

On considère $\R^n$ muni de produit scalaire usuel. On note $X=\left(\frac{1}{\sqrt{x_1}},\cdots,\frac{1}{\sqrt{x_n}}\right)$ et $Y=\left(\sqrt{x_1},\cdots,\sqrt{x_n}\right)$ .
En utilisant l'inégalité de Cauchy-Schwarz, on a: $$\scal{X}{Y}^2\leq \norme{X}^2\norme{Y}^2\Longrightarrow \left(\dsum_{i=1}^n\dfrac{\sqrt{x_i}}{\sqrt{x_i}}\right)^2\leq \left(\dsum_{i=1}^n\dfrac{1}{x_i}\right)\left(\dsum_{i=1}^nx_i\right)\Longrightarrow \boxed{n^2\leq \sum_{i=1}^n\dfrac{1}{x_i}}.$$ De plus, on a égalité ssi la famille $(X,Y)$ est liée, i.e. il existe $\lambda\in \R^*$ tel que: $$Y=\lambda X\Longleftrightarrow \forall k\in \inter{1,n},~~\sqrt{x_k}=\dfrac{\lambda}{\sqrt{x_k}}\Longleftrightarrow x_1=\cdots=x_n.$$ Comme $\dsum_{i=1}^nx_i=1$, on obtient alors $\boxed{x_1=\cdots=x_n=\dfrac{1}{n}}$.

($\star$) Correction

Soient $n\in \N^*$, $(a_1,\cdots,a_n)\in \R^n,\,(b_1,\cdots,b_n)\in \R^n,\,(c_1,\cdots,c_n)\in (\R_+)^n$. Montrer que : $$\left(\sum_{k=1}^na_kb_kc_k\right)^2\leq \left(\sum_{k=1}^na_k^2c_k\right)\left(\sum_{k=1}^nb_k^2c_k\right).$$

Correction

Le même raisonnement que l'exercice 1., en posant $X=\left(a_1\sqrt{c_1},\cdots,a_n\sqrt{c_n}\right)$ et $Y=\left(b_1\sqrt{c_1},\cdots,b_n\sqrt{c_n}\right)$.

($\star$) Correction

Soit $A\in\MM_n(\R)$. Montrer que $\abs{\tr A}\leq \sqrt{n\tr (A\cdot {\,}^t A)}$.

Correction

On définit sur $\MM_n(\R)$ le produit scalaire $\scal{M}{N}=\tr ({\,}^t M\,N)$. Alors $\abs{\scal{A}{I_n}} \leq \norme{A}\cdot\norme{I}$, or $\norme{I}=\sqrt{n}$ et $\norme{A}^2=\dsum_{ij}\abs{a_{ij}}^2=\tr(A\cdot{\,}^t A)$, ce qui achève la démonstration.

($\star$) Correction

Soient $x,y$ et $z$ trois réels tels que $ x^2+2y^2+3z^2\leq 1$. Montrer l'inégalité : ${(x+y+z)^2\leq \frac{11}{6}}.$

Correction

On se place dans $\R^3$ muni de p.s usuel. On pose $U=\begin{pmatrix} x\\ \sqrt{2}y\\ \sqrt{3}z \end{pmatrix}$ et $V=\begin{pmatrix} 1\\\frac{1}{\sqrt{2}}\\\frac{1}{\sqrt{3}} \end{pmatrix}$, alors $\langle U,\,V\rangle=x+y+z$.
En utilisant l'inégalité de Cauchy-Schwarz, on trouve: $$ (x+y+z)^2\leq \norme{U}^2\norme{V}^2=(x^2+2y^2+3z^2)(1+\frac{1}{2}+\frac{1}{3})\leq 1\times \dfrac{11}{6}$$

($\star$) Correction

Soient $ x,y $ et $ z $ trois réels tels que $ x^2+y^2+z^2\leq 1.$ Montrer que $ (x+2y+3z)^2\leq 14$.

Correction

On se place dans $\R^3$ muni de p.s usuel. On pose $U=\begin{pmatrix} x\\ y\\ z \end{pmatrix}$ et $V=\begin{pmatrix} 1\\2\\3 \end{pmatrix}$, alors $\langle U,\,V\rangle=x+2y+3z$.
En utilisant l'inégalité de Cauchy-Schwarz, on trouve: $$ (x+2y+3z)^2\leq \norme{U}^2\norme{V}^2=(x^2+y^2+z^2)(1+2^2+3^2)\leq 1\times 14.$$

(MINES PC 2005) Correction

Soit $E= \CC([0,1],\R)$ muni du produit scalaire suivant $\scal{f}{g}= {\dsp \int_{0}^{1}} f(t)\,g(t)\,\ud t$.
Soit $F=\{f\in E,\, f(0)=0\}.$ Montrer que $F^{\perp}=\{0\}$.

Correction

Soit $f\in F^\perp$. Alors, en notant $g:x\mapsto x\,f(x)$, on a $g\in E$ et de $\scal fg=0$ on tire $g=0$ donc, par continuité, $f=0$.

($\star$) Correction

Soient $a$ un vecteur unitaire d'un espace préhilbertien réel $E$, $k$ un réel et $\varphi :E \times E \to \mathbb{R}$ l'application déterminée par $$\varphi (x,y) = \left\langle {x,y} \right\rangle + k\left\langle {x,a} \right\rangle \left\langle {y,a} \right\rangle $$ Donner une condition nécessaire et suffisant pour que $\varphi $ soit un produit scalaire.

Correction

Il est clair que $\varphi$ est symétrique, bilinéaire. D'autre part, pour tout $x\in E$, on a $$\varphi(x,x)=\scal{x}{x}+k\scal{x}{a}^2\geq \norme{x}^2(1-\abs{k}),$$

  1. Si $k\geq 0$ alors $\varphi(x,x)\geq \norme{x}^2$ donc $\varphi$ est définie positive.
  2. Si $k\in ]0,-1[$ alors $1-k>0$ donc d'après la relation ci-dessus $\varphi(x,x)>0$ pour $x\neq 0$, autrement dit, $\varphi$ est définie positive.
  3. Si $k\leq -1$, alors $\varphi(a,a)\leq 0$, comme $a\neq 0$ alors $\varphi$ n'est pas définie positive.

Conclusion, $\varphi$ est un produit scalaire ssi $k\in ]-1,\infty[$.

($\star$) Correction

Soient $E$ un $\C$-e.v et $\varphi$ une f.b.s définie sur $E\times E$. On suppose que, pour tout $x\in E$, $~~\varphi(x,x)\in \R_+$. Montrer que, pour tout $x\in E$, $\varphi(x,x)=0$.

Correction

Soit $x\in E$, on a $$0\leq \varphi(\ii x,\ii x)=\ii^2\varphi(x,x)=-\varphi(x,x)\leq 0\Longrightarrow \boxed{\varphi(x,x)=0}.$$

($\star$) Correction

Soit $\alpha\in \R$, on considère $f_\alpha$ définie sur $E$ euclidien par $f_\alpha(x)=x+\alpha \langle x,\,a\rangle\,a$ où $a\in E$ tel que $\norme{a}=1$.
Montrer que $f_\alpha\in \LL(E)$. Calculer $f_\alpha\circ f_\beta$, a quelle condition $f_\alpha$ est bijective? Déterminer les valeurs propres de $f_\alpha$.

Correction

La linéarité de $f_\alpha$ est évidente....
Soient $\alpha,\,\beta \in \R$ et $x\in E$, on a $$\begin{array}{lcl} f_\alpha\circ f_\beta (x)&=&f_\alpha \left(x+\beta \scal{x}{a}a\right)\\ &=& x+\beta \scal{x}{a}a+\beta \scal{x+\beta \scal{x}{a}a}{a}a\\ &=&x+\beta \scal{x}{a}a+\beta \scal{x}{a}+\beta\alpha\scal{x}{a}\scal{a}{a}a\\ &=&x+\beta \scal{x}{a}a+\beta \scal{x}{a}a+\beta \alpha\scal{x}{a}a=f_{\alpha+\beta +\alpha\beta} (x) \end{array}$$ Puisque $f_0=\mathrm{Id}e$, alors si $\alpha\neq -1$ donc $f_\alpha$ est bijective et son inverse n'est rien d'autre que $f_{\frac{-\alpha}{\alpha+1}}$.
Si $\alpha=-1$ alors $f_{-1}(a)=a-\scal{a}{a}a=a-a=0$ donc $f_{-1}$ n'est pas injective.
Conclusion $f_\alpha$ est injective ssi $\alpha\neq -1$.
Notons $F=(a)^{\perp}$ alors $F$ est un s-e-v de $E$ de dimension $n-1$ ($n$ étant la dimension de $E$), pour tout $x\in F$, on a $$f_\alpha(x)=x+\alpha\scal{x}{a}a=x \Longrightarrow 1\in \Sp (f_\alpha) \text{ et } \dim E_1(f_\alpha)\geq n-1.$$ D'autre part, $f_\alpha(a)=(1+\alpha)a$ ce qui implique que $1+\alpha\in \Sp (f_\alpha)$. IL N'Y A PLUS DE V.P!!
Conclusion $\Sp (f_\alpha)=\{1,1+\alpha\}$.

($\star\star$) Correction

Soit $E$ un espace vectoriel préhilbertien réel, et soit $v\in\mathscr{L}(E)$ tel que : $\forall x \in E, \ \langle x,v(x)\rangle=0 $. Montrer que $\Ker v=(\im v)^\perp$.

Correction

Pour tout $x,y\in E$, on a $$\scal{x+y}{v(x+y)}=0=\scal{x}{v(x)}+\scal{y}{v(y)}+ \scal{x}{v(y)}+\scal{y}{v(x)},$$ ce qui montre $$\forall x,y\in E,~~\scal{x}{v(y)}=-\scal{y}{v(x)}.$$ Soit $x\in \Ker v$ et $y\in\im v$. Alors il existe $z\in E$ tel que $y=v(z)$ et $$\scal{x}{y}=\scal{x}{v(z)}=-\scal{v(x)}{z}=0\Longrightarrow \,\boxed{\Ker v\subset(\im v)^\perp}.$$ Soit $x\in(\im v)^\perp$. Alors $$\forall y\in E,\quad \scal{x}{v(y)}=0=-\scal{v(x)}{y}\Longrightarrow v(x)=0.$$ Donc $\boxed{(\im v)^\perp\subset \Ker v}$.

($\star\star$) Correction

Soient $E,F$ deux espace préhilbertiens réels, $f:E\longmapsto F$ une application telle que: $$f(0)=0,~~\forall (x,y)\in E^2,~~\norme{f(x)-f(y)}=\norme{x-y}.$$ Montrer que $f$ est linéaire.

Correction

Soit $x\in E$, en prenant $y=0$ dans le relation vérifiée par $f$, on trouve: $$\norme{f(x)-f(0)}=\norme{x-0}\Longrightarrow\norme{f(x)}=\norme{x}.$$ Ensuite, on a, pour tout $x,y\in E$, $$\norme{f(x)-f(y)}^2=\norme{f(x)}^2+2\scal{f(x)}{f(y)}+\norme{f(y)}^2\Longrightarrow \norme{x-y}^2=\norme{x}^2+2\scal{f(x)}{f(y)}+\norme{y}^2,$$ on en déduit que, pour tout $x,y\in E$, on a $ \scal{f(x)}{f(y)}=\scal{x}{y}$.
Enfin, soient $\lambda\in ,\,x,y\in E$, on a, $$ \begin{array}{lcl} \norme{f(\lambda x+y)-\left(\lambda f(x)+y\right)}^2&=&\norme{f(\lambda x+y)}^2+\lambda^2\norme{f(x)}^2+\norme{f(y)}^2\\ &&-2\lambda\scal{f(\lambda x+y)}{f(x)}-2\scal{f(\lambda x+y)}{f(y)}\\ &&+2\lambda\scal{f(x)}{f(y)}\\ &&\\ &=&\norme{\lambda x+y}^2+\lambda^2\norme{x}^2+\norme{y}^2-2\lambda\scal{\lambda x+y}{x}\\ &&-2\scal{\lambda x+y}{y}+2\lambda\scal{x}{y}\\ &&\\ &=&\norme{\left(\lambda x+y\right)-\lambda x-y}^2=0 \end{array} $$ On en déduit que $f(\lambda x+y)=\lambda f(x)+f(y)$ soit $\boxed{f\in \LL(E,F)}$.

($\star$) Correction

Soit $E$ un espace préhilbertien réel, $f,g:E\longmapsto E$ deux applications telles que: $$\forall (x,y)\in E^2,~~~~\scal{x}{f(y)}=\scal{g(x)}{y}.$$ Montrer que $f,g\in \LL(E)$.

Correction

Soient $y,z\in E$ et $\lambda\in \R$, on a $$\begin{array}{lcl} \forall x\in E,~~\scal{x}{f(\lambda y+z)}&=&\scal{g(x)}{\lambda y+z}=\scal{g(x)}{\lambda y}+\scal{g(x)}{z}\\ &&\\ &=&\lambda\scal{g(x)}{y}+\scal{g(x)}{z}=\lambda\scal{x}{ f(y)}+\scal{x}{f(z)}\\ &&\\ &=&\scal{x}{\lambda f(y)+f(z)}\Longrightarrow \boxed{f(\lambda y+z)=\lambda f(y)+f(z)}, \end{array}$$ ceci montre que $f$ est linéaire, en faisant la même démarche on montre aussi que $g$ est linéaire.

($\star$) Correction

Soient $E$ un $\R$-espace vectoriel non nul, $\varphi$ un produit scalaire sur $E$, $(a,b,c) \in \R^3$. $\psi : E\times E \to \R$ l'application définie par $\psi(x,y) = a\varphi(x,x) + b\varphi(x,y) + c\varphi(y,y)$. Trouver une condition nécessaire et suffisante sur $(a,b,c)$ pour que $\psi$ soit un produit scalaire sur $E$.

Correction

Soient $x,y\in E$, on a $$\psi(y,x)=a\varphi(y,y)+b\varphi(y,x)+c\varphi(x,x) =a\varphi(y,y)+b\varphi(x,y)+c\varphi(x,x),$$ ainsi pour que $\psi$ soit symétrique il faut que $a=c$.
Supposons dans la suite que $a=c$. Il faut voir si $\psi $ est bilinéaire, soit $y, x\in E$ non nuls et $\lambda\neq 1\in \R$ on a $$\psi(\lambda x,y)=a\varphi(\lambda x,\lambda x)+b\varphi(\lambda x,y)+a\varphi (y,y)=a\lambda^2\varphi(x,x)+b\lambda \varphi (x,y)+a\varphi(y,y),$$ ainsi pour que $\psi$ soit bilinéaire il faut que $a$ soit nul, supposons dans la suit que $a=0$.
Il faut alors déterminer si $\psi$ est définie positive, $$\forall x\in E,\, \psi(x,x)=b\varphi(x,x)$$ Donc il faut que $b>0$ puisque $\varphi(x,x)>0$ pour $x\neq 0$.
Conclusion, $\psi$ est un produit scalaire ssi $a=c=0$ et $b>0$.

(Mines-Télécom PSI 2019) Correction

Soit $\begin{array}{cccl} \varphi : & \mathbb{R}_n[X]^2 & \to & \mathbb{R}\\ & (P,Q) & \mapsto & \dsum_{k=-2017}^{2017}P(k)Q(k) \end{array}$. Quelles sont les valeurs de $n$ pour lesquelles $\varphi$ est un produit scalaire ?

Correction

Il est clair que $(\cdot\,,\, \cdot)$ est bilinéaire symétrique. D'autre part, $$(P,P)=0 \Longleftrightarrow \forall k \in \inter{-2017,2017},\, P(k)=0.$$ Ce qui implique que $P$ a au moins $4035$ racines! Ce qui n'est pas possible que si $n>4034$.

Donc $(\cdot\,,\, \cdot)$ est un produit scalaire ssi $n\leq 4034$.

Projection

($\star$) Correction

$\R^3$ est muni de sa structure canonique d'espace vectoriel euclidien. Vérifier que les vecteurs $e_1=(1,0,1),$ $e_2=(1,0,2)$ et $e_3=(1,1,1)$ forment une base de $\R^3$ et en déterminer l'orthonormalisée de Gram-Schmidt.

Correction

Calculons $\det(e_1,e_2,e_3)$ dans la base canonique, $$\det (e_1,e_2,e_3)=\begin{vmatrix} 1&1&1\\0&0&1\\1&2&1 \end{vmatrix}=-\begin{vmatrix} 1&1\\1&2 \end{vmatrix}=-1\neq 0,$$ on en déduit que $(e_1,e_2,e3)$ est une base de $\R^3$.
On pose $v_1=\dfrac{e_1}{\norme{e_1}}=\dfrac{1}{\sqrt{2}}(1,0,1)$, ensuite on pose $$f_2=e_2-\scal{e_2 }{v_1}v_1=(1,0,2)-\dfrac{3}{2}(1,0,1)=\dfrac{1}{2}(-1,0,1)$$ puis $$ v_2=\dfrac{f_2}{\norme{f_2}}=\dfrac{1}{\sqrt{2}}(-1,0,1).$$ On pose $$f_3= e_3-\scal{e_3 }{v_2}v_2-\scal{e_3 }{v_1}v_1=(1,1,1)-\dfrac{2}{2}(1,0,1)=(0,1,0).$$ Comme $\norme{f_3}=1$ alors on prend $v_3=f_3$.

($\star\star$) Correction

On munit $\R_2[X]$ du produit scalaire défini par, ${\phi:\R_2[X]^2\to\R, (P,Q)\mapsto\dsp\int_{-1}^{1}P(t)Q(t)\,\ud t.}$

  1. Déterminer l'orthonormalisée de Gram-Schmidt de la base canonique de $\R_2[X]$.
  2. Déterminer la distance du polynôme $P=X^2+X+1$ au sous-espace vectoriel $F$ de $\R_2[X]$ formé des polynômes $f$ tels que $f'(0)=0.$

Correction

  1. On note $(e_0,e_1,e_2)$ la base canonique de $\R_2[X]$, on pose $v_0=\dfrac{e_0}{\norme{e_0}}=\dfrac{1}{\sqrt{2}}$.
    On pose $f_1=e_1-\scal{e_1}{f_0}f_0$, $$ \scal{e_1}{f_0}=\int_{-1}^1\dfrac{t}{\sqrt{2}}\ud t=0\Longrightarrow f_1=X,$$ ensuite on pose $v_2=\dfrac{f_1}{\norme{f_1}}=\dfrac{\sqrt{3}}{\sqrt{2}}X.$.
    On pose ensuite $$f_3=e_3-\scal{e_2}{f_1}f_1-\scal{e_2}{f_0}f_0=X^2-\dfrac{1}{3},$$ Il faut normaliser $f_3$, on pose alors $v_3=\dfrac{f_3}{\norme{f_3}}=\dfrac{3\sqrt{5}}{2\sqrt{2}}\left(X^2-\dfrac{1}{3}\right)$. On obtient finalement, $$\left( 1,\, \dfrac{\sqrt{3}}{\sqrt{2}}X,\,\dfrac{3\sqrt{5}}{2\sqrt{2}}\left(X^2-\dfrac{1}{3}\right)\right) \text{ b. o de }\R_2[X].$$
  2. Notons $F_1=\{P\in F,\,P'(0)=0\}=\Vect( v_3,v_0)$. La formule de cours, nous donne $$\begin{array}{lcl} p_{F_1}(P)&=&\scal{P}{v_3}v_3+\scal{P}{v_0}v_0\\ &=& \dsp\int_{-1}^1(t^2+t+1)(t^2-\frac{1}{3})\ud t \dfrac{45}{8}(X^2-\frac{1}{3})+\int_{-1}^1 (t^2+t+1)\ud t \dfrac{1}{2}\\ &&\\ &=&(X^2-\dfrac{1}{3})+\dfrac{8}{3}\dfrac{1}{2}=X^2+1. \end{array}$$ Donc $$\ud (P,F_1)=\norme{P-X^2-1}=\sqrt{\int_{-1}^1t^2\ud t}=\sqrt{\frac{3}{2}}.$$

($\star$) Correction

Dans $\R^3$ euclidien rapporté à la base canonique, déterminer la matrice de la projection orthogonale sur le plan d'équation : $x-2y+z=0$.

Correction

Notons $P=\{(x,y,z)\in \R^3,\,x-2y+z=0\}$, alors $P^\perp=\Vect \big(n=\dfrac{1}{\sqrt{6}}(1,-2,1)\big)$. On sait que $p_P=\mathrm{Id}_{\R^3}-p_{P^{\perp}}$, or $$\forall X=(a,b,c)\in \R^3,\,\quad p_{P^{\perp}}(X)=\scal{X}{n}n=\dfrac{a-2b+c}{6}(1,-2,1)$$ Ce qui donne: $$ M(p_{p^\perp})=\dfrac{1}{6}\begin{pmatrix} 1&-2&1\\ -2&4&-2\\ 1&-2&1 \end{pmatrix}.$$ On en déduit alors, $$M(p_P)=\begin{pmatrix} 1&0&0\\ 0&1&0\\ 0&0&1 \end{pmatrix}-\dfrac{1}{6}\begin{pmatrix} 1&-2&1\\ -2&4&-2\\ 1&-2&1 \end{pmatrix}$$ Soit finalement: $$\boxed{M(p_P)=\dfrac{1}{6}\begin{pmatrix} 5&2&-1\\ 2&2&2\\ -1&2&5 \end{pmatrix} }.$$

($\star\star$) Correction

On considère l'espace euclidien $\R^4$. On note $F=\Vect\big( (1,1,0,1),(1,1,1,0),(1,1,-2,1)\big)$ .

  1. Déterminer une base orthonormée de $F$.
  2. Déterminer $F^\perp$, puis donner une base orthonormée de $F^\perp$.
  3. Déterminer la matrice dans la base canonique de la projection orthogonale sur $F$.

Correction

Notons $x_1=(1,1,0,1),x_2=(1,1,1,0),x_3=(1,1,-2,1)$.

  1. On pose $f_1=\dfrac{x_1}{\norme{x_1}}=\dfrac{1}{\sqrt{3}}(1,1,0,1)$.
    On pose ensuite $f_2'=x_2-\scal{x_2}{f_1}f_1=(1,1,1,0)-\dfrac{2}{3}(1,1,0,1)=\dfrac{1}{3}(1,1,3,-2)$, il reste à normaliser $f_2'$, comme $\norme{f_2'}=\sqrt{\frac{5}{3}}$, alors on note: $$f_2=\dfrac{f_2'}{\norme{f_2'}}=\dfrac{\sqrt{3}}{3\sqrt{5}}(1,1,3,-2)=\dfrac{1}{\sqrt{15}}(1,1,3,-2).$$ Pour terminer, on pose $$f_3'=x_3-\scal{x_3}{f_1}f_1-\scal{x_3}{f_2}=(1,1,-2,1)-(1,1,0,1)+\dfrac{6}{15}(1,1,3,-2)=\dfrac{2}{5}(1,1,-2,-2)$$ Puis $f_3=\dfrac{f_3'}{\norme{f_3'}}=\dfrac{\sqrt{5}}{\sqrt{8}}\dfrac{2}{5} (1,1,-2,-2)=\dfrac{1}{\sqrt{10}}(1,1,-2,-2)$. Ainsi, $F = \Vect\big( f_1,f_2,f_3\big)$ avec $$f_1=(\dfrac{1}{\sqrt{3}},\dfrac{1}{\sqrt{3}},0,\dfrac{1}{\sqrt{3}}), \,f_2=(\dfrac{1}{\sqrt{15}},\dfrac{1}{\sqrt{15}},\dfrac{3}{\sqrt{15}},\dfrac{-2}{\sqrt{15}}),\,f_3=(\dfrac{1}{\sqrt{10}}, \dfrac{1}{\sqrt{10}},\dfrac{-2}{\sqrt{10}},\dfrac{-2}{\sqrt{10}}).$$
  2. On peut chercher une base de $F^\perp$ sous la forme $x=(x_1,x_2,x_3,x_4)$ puis faire $\scal{x}{f_i}=0$ pour tout $i\in \inter{1,3}$, mais en regardant bien les vecteurs $f_1,f_2,f_3$ on trouve rapidement que $x=(1,-1,0,0)\in F^\perp$.
    On en déduit alors que $F^\perp=\Vect \big( (1,-1,0,0)\big)$.
  3. La projection orthogonale sur $F$ est définie par: $$\forall x\in \R^4,\quad p_F(x)=\scal{x}{f_1}f_1+\scal{x}{f_2}f_2+\scal{x}{f_3}f_3.$$ En particulier, $$p_F(e_1)=\dfrac{1}{3}(1,1,0,1)+\dfrac{1}{15}(1,1,3,-2)+\dfrac{1}{10}(1,1,-2,-2)=\dfrac{1}{2}(1,1,0,0)$$ On peut également remarquer que $p_F=\mathrm{Id}e -p_{F^\perp}$, or $$p_{F^\perp}((a,b,c,d))=\dfrac{a-b}{2}(1,-1,0,0)\Longrightarrow M(p_{F^\perp})=\dfrac{1}{2}\begin{pmatrix} 1&-1&0&0\\ -1&1&0&0\\ 0&0&0&0\\ 0&0&0&0 \end{pmatrix} $$ Ce qui donne $$M(p_F)= \begin{pmatrix} 1&0&0&0\\ 0&1&0&0\\ 0&0&1&0\\ 0&0&0&1 \end{pmatrix}-\dfrac{1}{2}\begin{pmatrix} 1&-1&0&0\\ -1&1&0&0\\ 0&0&0&0\\ 0&0&0&0 \end{pmatrix} =\dfrac{1}{2}\begin{pmatrix} 1&1&0&0\\ 1&1&0&0\\ 0&0&2&0\\ 0&0&0&2 \end{pmatrix} $$

($\star$) Correction

Quelle est la transformation de $\R^{3}$ dont la matrice dans la base canonique est $\frac{1}{7} \begin{pmatrix} -2 & 6&-3\\ 6&3&2\\-3&2&6\\ \end{pmatrix}$ ?

Correction

$$\begin{array}{lcl} A^2&=&\dfrac{1}{49}\begin{pmatrix} -2 & 6&-3\\ 6&3&2\\-3&2&6\\ \end{pmatrix}\begin{pmatrix} -2 & 6&-3\\ 6&3&2\\-3&2&6\\ \end{pmatrix}\\ &&\\ &=&\dfrac{1}{49}\begin{pmatrix} 4+9+36&-12+18-6&6+12-18\\ -12+18-6&36+9+4&-18+6+12\\ 6+12-18&-18+6+12&9+4+36 \end{pmatrix} =\begin{pmatrix} 1&0&0\\ 0&1&0\\ 0&0&1 \end{pmatrix} \end{array}$$ On en déduit donc que $A$ est la matrice d'une symétrie $s$. Déterminons les éléments de cette symétrie. $$\begin{array}{lcl} X=(a,b,c)\in \Ker(s-\mathrm{Id}_{\R^3})&\Longleftrightarrow& \left\{\begin{array}{lcl} -2a+6b-3c&=&7a\\ 6a+3b+2c&=&7b\\ -3a+2b+6c&=&7c \end{array} \right.\\ &\Longleftrightarrow &\left\{\begin{array}{l} a\in \R\\ b=\in \R\\ c=-3a+2b \end{array} \right. \Longleftrightarrow X\in\Vect\big( (1,0,-3),(0,1,2)\big). \end{array}$$ $$\begin{array}{lcl} X=(a,b,c)\in \Ker(s+\mathrm{Id}_{\R^3})&\Longleftrightarrow& \left\{\begin{array}{lcl} -2a+6b-3c&=&-7a\\ 6a+3b+2c&=&-7b\\ -3a+2b+6c&=&-7c \end{array} \right.\\ &\Longleftrightarrow& \left\{\begin{array}{l} a=3c\\ b=-2c\\ c\in\R \end{array} \right. \Longleftrightarrow X\in\Vect\big( (3,-2,1)\big). \end{array}$$ On remarque que: $$(3,-2,1)\perp (1,0,-3)\text{ et } (3,-2,1)\perp (0,1,2) \Longrightarrow \Ker(s+\mathrm{Id}_{\R^3}) =\big(\Ker(s-\mathrm{Id}_{\R^3})\big)^\perp.$$ Donc $s$ est la symétrie orthogonale par rapport à $\Vect\big( (1,0,-3),(0,1,2)\big)$ parallèlement à $\Vect\big( (3,-2,1)\big)$.

($\star$) Correction

Déterminer la matrice dans la base canonique de $\R^{4}$ de la projection orthogonale sur $\mathrm{Vect} (v_{1}, v_{2})$ où $v_{1} = (1, -1, 0, 0)$ et $v_{2} = (0, 1, 0, 1)$.

Correction

Notons $F= \mathrm{Vect} (v_{1}, v_{2})$, alors un calcul simple nous donne $F=\Vect(u,w)$ avec $$ u=\dfrac{1}{\sqrt{2}}(1,-1,0,0),\quad w=\dfrac{1}{\sqrt{6}}(1,1,0,2).$$ On en déduit, pour tout $X=(a,b,c,d)\in \R^4$, on a $$p_F(X)=\dfrac{a-b}{2}(1,-1,0,0)+\dfrac{a+b+2d}{6}(1,1,0,2)=\dfrac{1}{6}(4a-2b+2d,4b-2a+2d,0,2a+2b+4d)$$ Donc $$\boxed{M(p_F)=\dfrac{1}{6}\begin{pmatrix} 4&-2&0&2\\ -2&4&0&2\\ 0&0&0&0\\ 2&2&0&4 \end{pmatrix} }.$$

($\star\star$) Correction

Soit $E$ un espace euclidien de dimension $n$. Soient $F,G$ deux sous-espaces de $E$ tels que $F \subset G$. On note $s_F$ et $s_G$ les symétries orthogonales de bases $F$ et~$G$. Montrer que $s_F\circ s_G = s_G \circ s_F = s_{F\oplus G^\perp}$.

Correction

On note $W= G\cap F^\perp$. Montrons les relations suivantes: $$G =F\overset{\perp}{\oplus} W,\quad F^\perp= W\overset{\perp}{\oplus} G^\perp,\quad E=(F\oplus G^\perp)\overset{\perp}{\oplus} W.$$ Pour la première relations, on a $$F \cap W= F\cap (G\cap F^\perp)=F\cap F^\perp \cap G=\{0\}.$$ D'autre part, pour $x\in G\subset E=F\overset{\perp}{\oplus} F^\perp$, ils existe alors $x_1\in F$ et $x_2\in F^\perp$ tels que $x=x_1+x_2$, on peut alors écrire $x_2=x-x_1$ et comme $x_1\in F\subset G$ alors $x_2\in G$. Autrement dit, $x_2\in G\cap F^\perp=W$. Ceci prouve alors que $G=F+W$.
Puisque $W\subset F^\perp$, donc $F$ et $W$ sont orthogonaux, ceci prouve finalement que $ G =F\overset{\perp}{\oplus} W$.
La démonstration de la deuxième relation est similaire à la première.
Pour la dernière relation:
Notons d'abord que la somme $F+G^\perp$ est direct puisque $F\cap G^\perp=\{0\}$ car $G^\perp\subset F^\perp$. Soit $x\in (F\oplus G^\perp)\cap W$ alors il existe $x_F\in F$ et $x_{G^\perp}\in G^\perp$ tels que $x=x_F+x_{G^\perp}$, ainsi on peut écrire $$x=x_F+x_{G^\perp}\in W\Longrightarrow x_{G^\perp}=x-x_F\in G \Longrightarrow x_{G^\perp}=0$$ donc $x=x_F\in F\cap W =\{0\}$, ceci prouve que $(F\oplus G^\perp)\cap W=\{0\}$.
Soit $x\in E$, on peut alors écrire par exemple $x= x_F+x_{F^\perp}$ puisque $E=F\overset{\perp}{\oplus} F^\perp$ ensuite $x_{F^\perp}=x_W+x_{G^\perp}$ car $F^\perp= W\overset{\perp}{\oplus} G^\perp$, ainsi, $$x=x_F+x_{F^\perp}=x_F+ x_W+x_{G^\perp}=x_F+x_{G^\perp}+x_W\in (F\oplus G^\perp)+W.$$ Ceci prouve que $E=(F\oplus G^\perp)+W$.
Soient $x\in F\oplus G^\perp),\,y\in W$ alors $$x=x_F+x_{G^\perp},\,\,\,\scal{x}{y}=\scal{x_F}{y}+\scal{x_{G^\perp}}{y}=0 \text{ puisque } y\in W=G\cap F^\perp.$$ Ainsi, on a montré que $E=(F\oplus G^\perp)\overset{\perp}{\oplus} W$.
Soit $x\in E$, on écrit $x=x_F+x_{G^\perp}+x_W$, ce qui donne $$s_G(x)=s_G(x_F+x_W)+s_G(x_{G^\perp})=x_F+x_W-x_{G^\perp} \text{ car } x_W\in G,$$ puis $$s_F\circ s_G (x)=s_F(x_F+x_W-x_{G^\perp}) =x_F-x_W+x_{G^\perp}= x_F+x_{G^\perp}-x_W \text{ car } x_{G^\perp}\in G^\perp \subset F^\perp,\,\, x_W\in F^\perp$$ On a également, $$s_F(x)=s_F(x_F+s_G(x_W+x_{G^\perp})=x_F-x_W-x_{G^\perp} \text{ car } x_W,\,x_{G^\perp}\in F^\perp,$$ puis $$s_G\circ s_F (x)=s_G(x_F-x_W-x_{G^\perp}) =x_F-x_W+x_{G^\perp}= x_F+x_{G^\perp}-x_W \text{ car } x_{G^\perp}\in G^\perp,\,\, x_W\in G$$ et enfin $$s_{F\oplus G^\perp}(x)= x_F+x_{G^\perp}-x_W.$$ Ceci prouve que $s_F\circ s_G = s_G \circ s_F = s_{F\oplus G^\perp}$.

(Centrale PSI 2019) Correction

On munit $\R[X]$ du produit scalaire $(P,Q)=\dsp\int_0^1P(t)Q(t)\ud t$.

  1. Calculer le projeté orthogonal $p(X^3)$ sur $\R_2[X]$.
  2. Justifier que $X^3-p(X^3)$ est scindé dans $\R[X]$. Trouver ses racines avec {\tt{Python}}.

Correction

  1. La base orthonormé de $\R_2[X]$ (calculée dans le cours), est : $$e_1=1,\,\,e_2=\sqrt{12}X-\sqrt{3},\,\,e_3=\sqrt{180}X^2-\sqrt{180}X+\sqrt{5}.$$ Donc d'après le cours, $$p(X^3)=\scal{X^3}{e_3}e_3+\scal{X^3}{e_2}e_2+\scal{X^3}{e_1}e_1= \dfrac{\sqrt{5}}{20}e_3+\dfrac{3\sqrt{3}}{20}e_3+\dfrac{1}{4}e_1=\dfrac{3}{2} X^2-\dfrac{3}{5} X+\dfrac{1}{20}.$$
  2. Le polynôme $P=X^3-p(X^3)\in \R_2[X]^\perp$ de plus il n'est pas nul car $X^3\not\in \R_2[X]$.
    Si on suppose que $P$ ne s'annule pas dans $[0,1]$ on aurait alors $\dsp\int_0^1P(t)\ud t>0$ ou $< 0$ car $P$ garde une signe constant dans l'intervalle $[0,1]$, ce qui impossible puisque $$\int_0^1P(t)\ud t=\scal{P}{1}=0 \text{ car } P\in \R_2[X]^\perp.$$ Donc $P$ admet au moins une racine $\alpha\in [0,1]$.
    Supposons maintenant que $\alpha$ est l'unique racine de $P$ dans $[0,1]$, alors on écrit $P(X)=(X-\alpha)Q(X)$ avec $Q$ un polynôme de degré 2 qui ne s'annule pas sur $\R$ ( donc $Q>0$). Ce qui donne $$\scal{P}{X-\alpha}=0=\int_0^1(t-\alpha)(t-\alpha)Q(t)\ud t=\int_0^1(t-\alpha)^2Q(t)\ud t.$$ Ce qui est impossible, donc $P$ admet une deuxième racine dans l'intervalle $[0,1]$, ceci montre que $P$ est scindé sur $\R[X]$.
    On peut montrer que $\dfrac{1}{2}$ est une racine de $P$ et les deux autres racines sont également dans l'intervalle $[0,1]$.


Distance

($\star\star$) Correction

Calculer $\underset{(a,b)\in \R^2}{\text{Inf}}\dsp\int_0^1x^2\abs{\ln(x)-ax-b}^2\ud x$.

Correction

On note $E=\{f\in \CC(]0,1[,\R),\,\dsp\int_0^1f(x)x^2\ud x< \infty\}$. On a $E$ un $\R$-e-v.
On définit pour $(f,g)\in E^2$, $\scal{f}{g}=\dsp\int_0^1f(x)g(x)x^2\ud x$ , puis on vérifie que $\scal{\cdot}{\cdot}$ est un produit scalaire sur $E$.
On note enfin, $F=\R_1[x]\subset E$.

(CCP PC 2001) Correction

Déterminer $\displaystyle \inf_{a,b\in\R}\int_0^\pi \big(\sin x-ax-bx^2\big)^2\,\ud x$.

Correction

Pour le produit scalaire $\scal{f}{g}=\dsp \int_a^b fg$, une base orthonormée de l'ensemble $V$ des fonctions polynomiales de la forme $ax+bx^2$ est \begin{equation*} e_1 :x\mapsto\sqrt{\frac{3}{\pi^3}}\;x \qquad e_2:x\mapsto \sqrt{\frac{5}{\pi}}\;(x^2-\frac{3\pi}{4}). \end{equation*} La projection de $g=\sin$ sur~$V$ est $h=\scal{e_1}{g}\,e_1+\scal{e_2}{g}\,e_2$. On trouve alors \begin{equation*} \inf = {\frac{\pi}{2}}-\frac{8}{\pi}+\frac{160}{\pi^3}-\frac{1280}{\pi^5},\quad b=\dfrac{20\pi^2-320}{\pi^5},\,\quad a= 12\dfrac{20-\pi^2}{\pi^4} \end{equation*}


(Mines-Télécom PSI 2019) Correction

Déterminer $a,b\in \R$ tels que $\dsp\int_0^\infty \ee^{-t}(t^2-at-b)^2\ud t $ soit minimal.

Correction

On note $E=\R[x]$ l'ensemble des fonctions polynômiales de degré inférieur ou égale à $n$, et $F=\{P\in E,\,P(x)=a+bx\}=\Vect(1,x)$ un s-e-v de $E$.
On définit sur $E$ le produit scalaire suivant: $$\forall P,Q\in E,\quad \scal{P}{Q}=\int_0^\infty P(t)Q(t)\ee^{-t}\ud t.$$ Il est facile de vérifier d'abord que l'intégrale définie ci-dessus est bien définie (voir cours sur les intégrales impropres) ensuite qu'il s'agit bien d'un produit scalaire.
La fonction $f:x\mapsto x^2\in E$ et $f\not\in F$, il s'agit alors de trouve la projection orthogonale de $f$ sur $F$.
On va construire un b.o de $F$,

  1. On pose $e_1=\dfrac{1}{\norme{1}}$, avec $$\norme{1}^2=\int_0^\infty\ee^{-t}\ud t= \left[-\ee^{-t}\right]_0^\infty=1\Longrightarrow e_1(t)=1.$$
  2. on pose $f_2=t-\scal{t}{e_1}e_1$, ce qui donne: $$\scal{t}{e_1}=\int_0^\infty t\ee^{-t}\ud t= \left[-(1+t)\ee^{-t}\right]_0^\infty=1,$$ Ce qui donne $f_2(t)=t-1$, puis on pose $$e_2(t)=\dfrac{f_2(t)}{\norme{f_2}}=\dfrac{t-1}{1}=t-1.$$

Il nous reste de déterminer le projeté orthogonale de $f$ sur $F$, pour cela il suffit de calculer $\scal{f}{e_j}$ pour $j=1,2,3$. $$\begin{array}{lcl} \scal{f}{e_1}&=&\dsp\int_0^\infty t^2\ee^{-t}\ud t =\left[-(2+2t+t^3) \ee^{-t}\right]_0^\infty =2.\\ \scal{f}{e_2}&=&\dsp\int_0^\infty (t^3-t^2)\ee^{-t}\ud t =\left[-(4+4t+2t^2+t^3) \ee^{-t}\right]_0^\infty =4. \end{array}$$ Ce qui donne $$p_F(f)= 4(t-1)+2=4t-2\Longrightarrow \boxed{ a=4,\,\, b=-2}.$$

(Mines-Ponts PSI 2019) Correction

Soit $\psi _n : \mathbb{R}^n \to \mathbb{R}$ définie par $\psi _n(x_1, \ldots , x_n)=\displaystyle \int _0^{+\infty}\text{e}^{-t}(1+x_1t+ \cdots +x_n t^n)^2\,\text{d}t$. Montrer que $\psi _n$ admet un minimum absolu sur $\mathbb{R}^n$, calculer ce minimum pour $n=3$.

Correction

On note $E=\R_n[x]$ l'ensemble des fonctions polynômiales de degré inférieur ou égale à $n$, et $F=\{P\in E,\,P(0)=0\}=\Vect(x\mapsto x^j,\, j\in \inter{1,n})$ un s-e-v de $E$.
On définit sur $E$ le produit scalaire suivant: $$\forall P,Q\in E,\quad \scal{P}{Q}=\int_0^\infty P(t)Q(t)\ee^{-t}\ud t.$$ Il est facile de vérifier d'abord que l'intégrale définie ci-dessus est bien définie (voir cours sur les intégrales impropres) ensuite qu'il s'agit bien d'un produit scalaire.
La fonction $f:x\mapsto 1\in E$ et $f\not\in F$, alors $\psi_n$ n'est rien d'autre que la distance de $f$ par rapport à $F$ (au carrée) et d'après le cours $\psi_n$ admet un minimum.
Pour $n=3$, on va construire un b.o de $F$,

  1. On pose $e_1=\dfrac{t}{\norme{t}}$, avec $$\norme{t}^2=\int_0^\infty t^2\ee^{-t}\ud t= [-(2+2t+t^2)\ee^{-t}]_0^\infty=2\Longrightarrow e_1(t)=\dfrac{t}{\sqrt{2}}.$$
  2. on pose $f_2=t^2-\scal{t^2}{e_1}e_1$, ce qui donne: $$\scal{t^2}{e_1}=\int_0^\infty t^3\ee^{-t}\ud t/\sqrt{2}= [-(6+6t+3t^2+t^3)\ee^{-t}]_0^\infty/\sqrt{2}=\dfrac{6}{\sqrt{2}},$$ Ce qui donne $f_2(t)=t^2-3t$, puis on pose $$e_2(t)=\dfrac{f_2(t)}{\norme{f_2}}=\dfrac{t^2-3t}{\sqrt{6}}.$$
  3. on pose $f_3=t^3-\scal{t^3}{e_2}e_2-\scal{t^3}{e_1}e_1$, ce qui donne: $$\scal{t^3}{e_1}=\int_0^\infty t^4\ee^{-t}\ud t/\sqrt{2}= [-(24+24t+12t^2+4t^3+t^4)\ee^{-t}]_0^\infty/\sqrt{2}=\dfrac{24}{\sqrt{2}},$$ $$\scal{t^3}{e_2}=\int_0^\infty t^3(t^2-3t)\ee^{-t}\ud t/\sqrt{6}= [-(48+48t+24t^2+8t^3+2t^4+t^5)\ee^{-t}]_0^\infty/\sqrt{6}=\dfrac{48}{\sqrt{6}},$$ Ce qui donne $f_3(t)=t^3-8(t^2-3t)-12t=t^3-8t^2+12t$, puis on pose $$e_3(t)=\dfrac{f_3(t)}{\norme{f_3}}=\dfrac{t^3-8t^2-4t}{\sqrt{48}}.$$

Il nous reste de déterminer le projeté orthogonale de $f$ sur $F$, pour cela il suffit de calculer $\scal{f}{e_j}$ pour $j=1,2,3$. $$\begin{array}{lcl} \scal{f}{e_1}&=&\dsp \int_0^\infty \dfrac{t\ee^{-t}}{\sqrt{2}}\ud t =\left[-(1+t) \ee^{-t}\right]_0^\infty /\sqrt{2}=\dfrac{1}{\sqrt{2}}.\\ \scal{f}{e_2}&=&\dsp\int_0^\infty \dfrac{(t^2-3t)\ee^{-t}}{\sqrt{6}}\ud t =\left[-(-1-t+t^2) \ee^{-t}\right]_0^\infty /\sqrt{6}=\dfrac{-1}{\sqrt{6}}.\\ \scal{f}{e_3}&=&\dsp\int_0^\infty \dfrac{(t^3-8t^2+12t)\ee^{-t}}{\sqrt{48}}\ud t =\left[-(2+2t-5t^2+t^3) \ee^{-t}\right]_0^\infty /\sqrt{48}=\dfrac{2}{\sqrt{48}}. \end{array}$$ Ce qui donne $$p_F(f)= \dfrac{2}{\sqrt{48}}\dfrac{t^3-8t^2+12t}{\sqrt{48}}+\dfrac{-1}{\sqrt{6}}\dfrac{t^2-3t}{\sqrt{6}}+\dfrac{1}{\sqrt{2}}\dfrac{t}{\sqrt{2}}=\dfrac{1}{24}t^3+\dfrac{-1}{2}t^2+\dfrac{3}{2}t.$$ Donc $\psi_3$ admet un minimum pour $x_1=\dfrac{-3}{2},\,x_2=\dfrac{1}{2}$ et $x_3=\dfrac{-1}{24}$ (attention au signes), et on a : $$\psi_3(\dfrac{-3}{2},\dfrac{1}{2},\dfrac{-1}{24})=\int_0^\infty (1-\dfrac{3}{2}t+\dfrac{1}{2}t^2-\dfrac{1}{24}t^3)^2\ee^{-t}\ud t =\dfrac{1}{4}.$$

(CCINP PSI 2019) Correction

  1. Montrer que l'application $\quad (A,B) \mapsto \operatorname{Tr} ( ^t\!A B) \quad$ définit un produit scalaire sur $\MM_2(\mathbb R)$.
  2. Montrer que $E=\left\{\begin{pmatrix} a&b\\-b& a\end{pmatrix} \ /\ (a,b)\in \mathbb{R}^2\right\} $ est un sous espace vectoriel de $\MM_2(\mathbb R)$.
  3. Trouver une base orthonormale de $E^\perp$.
  4. Calculer la distance de $ A= \begin{pmatrix}1 & 1\\1&1\end{pmatrix}$ à $E^\perp$.

Correction

  1. Résultat du cours,
  2. Il est clair que $E\neq \emptyset$ puisque $0\in E$, $$M\in E\Longleftrightarrow\exists a,b\in \R,\,M=\begin{pmatrix} a&b\\-b&a \end{pmatrix}\Longleftrightarrow\exists a,b\in \R, M=aI_2+b\begin{pmatrix} 0&1\\-1&0 \end{pmatrix}\Longleftrightarrow M\in \Vect(I_2,K).$$ Avec $K=\begin{pmatrix} 0&1\\-1&0 \end{pmatrix}$. Ceci montre que $E$ est un s-e-v de $\MM_2(\R)$, de plus $\dim(E)=2$ puisque la famille $(I_2,K)$ est libre.
  3. $\norme{I_2}=\sqrt{(I_2,I_2)}=\sqrt{2}$, on pose alors $e_1=\dfrac{1}{\sqrt{2}}I_2$.
    Notons $V= K-(e_1,K)e_1=\begin{pmatrix} 0&1\\-1&0 \end{pmatrix} -\operatorname{Tr} (I_2K)\dfrac{1}{2}I_2=K$. On pose alors $e_2=\dfrac{1}{\norme{V}}V=\dfrac{1}{\sqrt{2}}K$.
    Donc $(e_1,e_2)$ est une b.o de $E$.
    D'autre part, $M=\begin{pmatrix} x&y\\u&v \end{pmatrix}\in E^\perp$ ssi $(M,e_1)=0$ et $(M,e_2)=0$, ce qui donne, $$M\in E^\perp\Longleftrightarrow \left\{\begin{array}{l} (M,e_1)=0\\ (M,e_2)=0 \end{array} \right. \Longleftrightarrow \left\{\begin{array}{l} x-v=0\\ y+u=0 \end{array} \right. \Longleftrightarrow M=\begin{pmatrix} x&y\\ y&-x \end{pmatrix}.$$ On peut alors choisir comme b.o de $E^\perp$ la famille $(e_3,e_4)$ avec, $$e_3=\dfrac{1}{\sqrt{2}}\begin{pmatrix} 1&0\\ 0&-1 \end{pmatrix},\quad e_4=\dfrac{1}{\sqrt{2}}\begin{pmatrix} 0&1\\1&0 \end{pmatrix}.$$
  4. Déterminons la projection de $A$ sur $E$, (on remarque que $A$ est symétrique), $$P_E(A)=(A,e_1)e_1+(A,e_2)e_2=\operatorname{Tr} (A)\dfrac{1}{2}I_2+\operatorname{Tr} (AK)\dfrac{1}{2}K= I_2.$$ Donc $\ud (A,E^\perp)=\norme{ P_E(A))}=\sqrt{2}.$