Espaces vectoriels

Rappels

Sous-espaces-vectoriel

Soit $(E,+,.)$ un $\K$-ev. Une partie $F$ de $E$ est appelée un sous-espace-vectoriel de $E$ ssi

  • $F \neq \emptyset$
  • $ \forall (\lambda,\mu) \in \K^2 \ , \ \forall (x,y) \in F^2 \quad : \quad \lambda x + \mu y \ \in \ F$.

Remarque

On peut remplacer la condition $\mathbf{b}$ par : $$ \forall \lambda \in \K \ , \ \forall (x,y) \in F^2 \quad : \quad \lambda x + y \ \in \ F.$$ ou par : $$ \forall \lambda \in \K \ , \ \forall (x,y) \in F^2 \quad : \quad x+y \in F \textrm{ et } \lambda x \in F.$$ on dit aussi que $F$ est stable par l'addition et la multiplication par un scalaire (ou stable par une combinaison linéaire).

Si $F$ est un s-e-v de $E$, alors $F$ n'est pas vide, donc contient au moins un élément $x$, donc $-x\in F$ puis $0_E=x-x\in F$. Ainsi $F$ contient $0_E$. Donc généralement, pour montrer que $F\neq \emptyset$, on montre que $0_E\in F$.

Exemples

  1. $\{0_E\}$ et $E$ sont des s-e-v de $E$.
  2. Si $n \in \N$, $\K_n[X]$, ensemble des polynômes de $\K[X]$ de degré inférieur ou égal à $n$, est un sev de $\K[X]$.
  3. L'ensemble des polynômess de degré exactement $n$ n'est PAS un s-e-v de $\K[X]$; en effet, il ne contient même pas le polynôme nul!
  4. Si $I$ est un intervalle de $\R$, l'ensemble $\mathscr{C}(I,\R)$ des fonctions continues sur $I$ à valeurs réelles est un s-e-v de $\mathscr{A}(I,\R)$.
(TPC 2007--P1)

Soit $F=\Bigg \{ M(a,b,c)=\left(% \begin{array}{ccc} a & c & b \\ b & a & c \\ c & b & a \\ \end{array}% \right) ; \, (a,b,c) \in \mathbb{C}^3 \Bigg \}$. Montrer que $F$ est un s-e-v de $\MM_3(\C)$.

Correction

  1. La matrice $0\in F$, puisque on peut écrire $0=M(0,0,0)$. Donc $F\neq \emptyset$.
  2. Soient $A=M(a,b,c),\, B=M(x,y,z)\in F$ (avec $a,b,c,x,y,z\in \C$) et $\lambda\in \C$, on a: $$\lambda A+B =\lambda \begin{pmatrix} a&c&b\\ b&a&c\\ c&b&a \end{pmatrix}+ \begin{pmatrix} x&z&y\\ y&x&z\\ z&y&x \end{pmatrix}=\begin{pmatrix} \lambda a +x &\lambda c+z& \lambda b\\ \lambda b+y&\lambda a+x&\lambda c+z\\ \lambda c+z&\lambda b+y&\lambda a+x \end{pmatrix} =M(\lambda a+x,\lambda b+y,\lambda c+z) $$ donc $\lambda A+B\in F$.

On en déduit alors que $F$ est un s-e-v.

Remarque: On verra dans la suite, comment on peut montrer ce résultat avec une autre méthode (voir exercice ci-après).

$F$ est un s-e-v de $(E,+,\cdot)$ alors $(F,+,\cdot)$ est un $\K$-espace vectoriel.

Si $(E_i)_{i \in I}$ est une famille quelconque de sev de $E$, leur intersection $\dsp \bigcap_{i\in I}{E_i}$ est encore un sev de $E$.

(et définition) Soit $X$ une partie quelconque d'un $\K$-EV $E$. D'après la proposition précédente, l'intersection de tous les sev de $E$ qui contiennent $X$ est encore un s-e-v de $E$; C'est en fait le plus petit (pour l'inclusion) s-e-v de $E$ contenant $X$;

On l'appelle s-e-v engendré par $X$, et on le note $\Vect(X)$.

Exemples

  1. $\Vect ( \emptyset )=\{0_E\}$
  2. $F$ est un s-e-v de $E$ si et seulement si $\Vect(F)=F$.
Remarques

La réunion de sev de $E$ n'est pas, en général, un sev de $E$.

Si $A$ et $B$ sont deux sev d'un EV $E$, $A \cup B$ est encore un sev de $E$ si et seulement si $A \subset B$ ou $B \subset A$.

Combinaison linéaire

Une famille $(\lambda_i)_{i \in I}$ d'éléments de $\K$ est dite à support fini si et seulement si l'ensemble $ \{i \in I \ , \ \lambda_i \neq 0_{\K}\}$ est fini (on dit aussi que les $\lambda_i$ sont presque tous nuls).

Soit $(x_i)_{i \in I}$ une famille quelconque non vide d'éléments d'un $\K$-EV $E$. On dit que $x \in E$ est combinaison linéaire de cette famille s'il existe une famille $(\lambda_i)_{i \in I}$ d'éléments de $\K$ à support fini telle que : $$x= \underset {\lambda_i \neq 0}{\dsp\sum_{i \in I}}{\lambda_i x_i}.$$ On note alors simplement $ x = \dsp \sum_{i \in I}{\lambda_i x_i}$ (somme en fait finie).

Soit $X=(x_i)_{i \in I}$ une famille quelconque non vide d'éléments d'un $\K$-EV $E$. Alors $\Vect(X)$ est exactement l'ensemble des combinaisons linéaires des éléments de $X$.

(TPC 2007--P2)

Soit $F=\Bigg \{ M(a,b,c)=\left(% \begin{array}{ccc} a & c & b \\ b & a & c \\ c & b & a \\ \end{array}% \right) ; \, (a,b,c) \in \mathbb{C}^3 \Bigg \}$. Montrer que $F$ est un s-e-v de $\MM_3(\C)$.

Correction

On note $$ I= \begin{pmatrix} 1&0&0\\ 0&1&0\\ 0&0&1 \end{pmatrix}, \,\, K=\begin{pmatrix} 0&0&1\\ 1&0&0\\ 0&1&0 \end{pmatrix},\,\, J = \begin{pmatrix} 0&1&0\\ 0&0&1\\ 1&0&0 \end{pmatrix}$$ On remarque alors, $$\begin{array}{lcl} F&=&\Bigg \{ M(a,b,c)=\left(% \begin{array}{ccc} a & c & b \\ b & a & c \\ c & b & a \\ \end{array}% \right) ; \, (a,b,c) \in \mathbb{C}^3 \Bigg \}\\ &=&\Bigg \{ M(a,b,c)=a\left(% \begin{array}{ccc} 1 & 0 & 0 \\ 0 & 1 & 0 \\ 0 & 0 & 1 \\ \end{array}% \right)+b\left(% \begin{array}{ccc} 0& 0 & 1 \\ 1 & 0 & 0 \\ 0 & 1 & 0 \\ \end{array}% \right)+c\left(% \begin{array}{ccc} 0 & 1 & 0 \\ 0 & 0 & 1 \\ 1 & 0 & 0 \\ \end{array}% \right) ; \, (a,b,c) \in \mathbb{C}^3 \Bigg \}\\ &=&\Bigg \{ M(a,b,c)=aI+bK+cJ; \, (a,b,c) \in \mathbb{C}^3 \Bigg \}=\Vect (I;K;J) \end{array}\\ $$ Donc $F$ est un s.e.v.

Remarque: La matrice $J=K^2$, et les matrices $K,\,K^2$ étaient données dans le sujet du concoours (voir aussi exercice ci-après).

Somme d'une famille finie de s-e-v

Définitions

Soit $(E_i)_{1 \leqslant i \leqslant n}$ une famille de $n \ (n \in \N^*)$ sev de $E$. On appelle somme des $E_i$ le sev de $E$ : $$\Vect\Big( \dsp \bigcup_{1 \leqslant i \leqslant n}{E_i} \Big).$$

$\Vect \Big( \dsp \bigcup_{1 \leqslant i \leqslant n}{E_i} \Big)$ est l'ensemble des sommes $\dsp\sum_{i=1}^n{x_i}$, où $x_i \in E_i$ pour tout $i \in \inter{1,n}$.

D'où la notation : $$\boxed{\Vect \Big( \dsp \bigcup_{1\leqslant i \leqslant n}{E_i} \Big) \ = \dsum_{i=1}^n{E_i}}.$$

Somme directe

(Somme directe) Soit $(E_i)_{1 \leqslant i \leqslant n}$ une famille de $n$ sev de $E$. On dit que la somme $\dsp\sum_{i=1}^n{E_i}$ est directe ssi : $$\forall x \in \dsum_{i=1}^n{E_i},\quad \exists !\,\,(x_i)_{1 \leqslant i \leqslant n} \in \dsp \prod_{1 \leqslant i \leqslant n }{E_i},\,\, x = \sum_{i=1}^n{x_i}.$$ On note alors : $ \dsp \bigoplus_{i=1}^n{E_i}$ au lieu de $\dsum_{i=1}^n{E_i}$.

Exemples

  1. $\R^2=E_1\oplus E_2$ avec $E_1=\Vect ((1,1))$, $E_2=\Vect ((1,-1))$.
  2. $ \K_n[X] = \dsp \bigoplus_{i=0}^n \K X^i.$

(Caractérisation d'une somme directe) Pour que la somme $\dsp \sum_{1 \leqslant i \leqslant n}{E_i}$ soit directe, il faut et il suffit que : $$\forall (x_i)_{1 \leqslant i \leqslant n} \in \dsp\prod_{i=1}^n{E_i},\quad \dsp \sum_{i=1}^n{x_i}=0 \ \Longrightarrow \forall i \in \inter{1,n}, \ x_i=0.$$.

Soient $E_1,\,E_2$ deux s-e-v de $E$.

$E_1$ et $E_2$ sont en somme direct ssi $E_1 \cap E_2 = \{0_E\}$.

Remarque

Cela ne se généralise pas à plus de deux s-e-v. voir exemple ci-après.

Exemples

Dans $\R^2$ muni d'une base $(e_1,e_2)$, soient $F=\R e_1$, $G=\R e_2$ et $H=\R(e_1+e_2)$: on a bien $F\cap G\cap H=\{0\}$ mais la somme $F+G+H$ n'est PAS directe (le vecteur $e_1+e_2$, par exemple, peut se décomposer de plusieurs façons différentes).

Pour que la somme $\dsp \sum_{i=1}^n{E_i}$ soit directe, il faut et il suffit que :

il existe $j \in\inter{1,n}$ , $\dsp \underset{i \neq j}{ \dsp \sum_{1 \leqslant i \leqslant n}}{E_i}$ soit directe et que $\dsp\underset{i \neq j}{ \dsp \sum_{1 \leqslant i \leqslant n}}{E_i}$ et $E_j$ soient en somme directe.

Pour que la somme $\dsp \sum_{i=1}^n{E_i}$ soit directe, il faut et il suffit que : $$\forall j \in \inter{1,n} \ , \ E_j \bigcap \dsp \underset{i \neq j}{ \dsp \sum_{1 \leqslant i \leqslant n}}{E_i} \ = \ \{0_E\}.$$

(Somme directe) Soit $(E_i)_{1 \leqslant i \leqslant n}$ une famille de $n$ sev de $E$. On dit que $(E_i)_{1\leq i\leq n}$ sont supplémentaires si $E =\dsp \bigoplus_{i=1}^n{E_i}$ .

Remarque

Cela équivaut à l'une des conditions suivantes : $$\forall x \in E \ , \ \exists ! (x_i)_{1 \leqslant i \leqslant n} \in \dsp \prod_{i=1}^n{E_i} \text{ tq } x= \dsum_{i=1}^n{x_i}.$$

Exemple

  1. On considère le $\R$-EV $E=\mathscr{A}(\R,\R)$ des applications de $\R$ dans $\R$, soit $\mathscr{P}$ l'ensemble des applications paires, et $\mathscr{I}$ l'ensemble des applications impaires.
    Alors $\mathscr{P}$ et $\mathscr{I}$ sont des sev supplémentaires de $\mathscr{A}(\R,\R)$.
  2. Soit $P \in \K[X]$, tel que deg($P$)= $n+1, \ n\in \N$. Alors $\K_n[X]$ et $\K[X]P$ (l'ensemble des multiples de $P$) sont des sev supplémentaires de $\K[X]$.
(DS-2017)

Soit $E$ un $\K$-espace vectoriel. Soit $u\in \LL (E)$ tel que $u^3=2u^2+u-2\ide$. Avec la notation $u^2= u\circ u$, $u^3= u^2\circ u=u\circ u^2=u\circ u\circ u$. La relation vérifiée par $u$ se traduit par, $$\forall x\in E,\quad u^3(x)=u(u(u(x)))=2u^2(x)+u(x)-2x.$$ On pose: $$E_1= \Ker (u-\ide),\quad E_2= \Ker (u+\ide),\quad E_3=\Ker( u -2\ide).$$

  1. Montrer que $u$ est injective.
  2. Montrer que $\im (u^2-\ide)\subset \Ker (u-2\ide)$.
    (Rappel $u^2-\ide =(u-\ide)\circ (u+\ide)=(u+\ide)\circ (u-\ide)$).
  3. En déduire que les 3 sous-espaces vectoriels $E_1,\,E_2$ et $E_3$ ne peuvent pas être réduit simultanément à $\{0\}$, i.e. il y a au moins un des trois qui n'est pas réduit à $\{0\}$.
  4. Soit $x=x_1+x_2+x_3\in E_1+E_2+E_3$, avec $x_i\in E_i$ pour $i\in \inter{1,3}$, tel que $x=0$. Montrer alors les relations suivantes: $$x_1-x_2+2x_3 =0,\quad x_1+x_2+4x_3=0.$$ En déduire que $x_1=x_2=x_3=0$. Que peut-on dire de la somme $E_1+E_2+E_3$.
  5. Montrer que $E=E_1\oplus E_2\oplus E_3$.
Correction

  1. Soit $x\in \Ker(u)$, alors $$u(x)=0,\, u^2(x)=u^3(x)=0 \Longrightarrow 0 =2\times 0+0-2x =-2x \Longrightarrow x=0.$$ Donc $\Ker (u)=\{0\}$, donc $u $ est injective.
  2. Soit $y\in \im (u^2-\ide)$ alors il existe $x\in E$ tel que $y=u^2(x)-x$, puis $$ \begin{array}{lcl} u(y)-2y&=& u(u^2(x)-x)-2(u^2(x)-x)=u^3(x)-u(x)-2u^2(x)+2x\\ &=& u^3(x)-2u^2(x)-u(x)+2x=0,\quad \text{ (puisque } u^3=2u^2+u-2\ide \text{)} \end{array} $$ donc $y\in \Ker (u-2\ide)$ ce qui implique que $\im (u^2-\ide) \subset \Ker (u-2\ide)$.
  3. Supposons que $E_1=E_2=E_3=0$, alors d'après la question précédente, on a $$\im (u^2-\ide) \subset \Ker (u-2\ide) = E_3=\{0\} \Longrightarrow \im(u^2-\ide)=\{0\},$$ ce qui implique que $u^2-\ide =(u+\ide)\circ (u-\ide)=0$. Cette relation implique aussi que $\im (u-\ide)\subset \Ker(u+\ide)=E_2$. Or $E_2=\{0\}$ donc $u-\ide =0$ soit $E_1=E$ ce qui contredit l'hypothèse de départ.
    conclusion, il y a au moins un des trois qui n'est pas réduit à $\{0\}$.
  4. Soient $x_1\in E_1,\,x_2\in E_2,\,x_3\in E_3$ tels que $x_1+x_2+x_3=0 \quad (1)$, on applique $u$ à cette relation ce qui donne: $$0=u(0)=u(x_1+x_2+x_3)=u(x_1)+u(x_2)+u(x_3)=x_1-x_2+2x_3 \quad (2)$$ car $x_1\in E_1$ donc $(u-\ide)(x_1)=0$ soit $u(x_1)=x_1$ (même démarche pour $x_2$ et $x_3$).
    On applique à nouveau $u$ à la relation $(2)$, on obtient alors: $$0=u(0)=u(x_1-x_2+2x_3)=u(x_1)-u(x_2)+2u(x_3)=x_1+x_2+4x_3 \quad (3)$$ Puis $(3)-(1)$ donne $3x_3=0$ soit $x_3=0$, ensuite $(1)+(2)$ donne $2x_1=0$ donc $x_1=0$ puis $x_2=0$.
    Cela signifie que la somme $E_1+E_2+E_3$ est direct.
  5. On a déjà montré qua la somme est directe, il reste alors à démontrer que $E_1+E_2+E_3=E$.
    Soit $x\in E$, on pose: $$x_1=\dfrac{2x+u(x)-u^2(x)}{2}=\dfrac{6x+3u(x)-3u^2(x)}{6},\, x_2= \dfrac{u^2(x)-3u(x)+2x}{6},\text{ et }x_3= \dfrac{u^2(x)-x}{3}=\frac{2u^2(x)-2x}{6}.$$ On a $$ \begin{array}{lcl} u(x_1)&=& \dfrac{1}{2}(2u(x)+u^2(x)-\textcolor{red}{u^3(x)})=\dfrac{1}{2}(2u(x)+u^2(x)-(\textcolor{red}{2u^2(x)+u(x)-2x}))\\ &&\\ &=& \dfrac{1}{2}(2x+u(x)-u^2(x))=x_1 \Longrightarrow x_1\in E_1.\\ &&\\ u(x_2)&=& \dfrac{\textcolor{red}{u^3(x)}-3u^2(x)+2u(x)}{6}=\dfrac{(\textcolor{red}{2u^2(x)+u(x)-2x})-3u^2(x)+2u(x)}{6}\\ &&\\ &=&\dfrac{-u^2(x)+3u(x)-2x}{6}=-x_2\Longrightarrow x_2\in E_2.\\ &&\\ u(x_2)&=&\dfrac{\textcolor{red}{u^3(x)}-u(x)}{3}=\dfrac{\textcolor{red}{2u^2(x)+u(x)-2x}-u(x)}{3}\\ &&\\ &=& \dfrac{2u^2(x)-2x}{3}=2x_3 \Longrightarrow x_3\in E3. \end{array} $$ Une petite vérification donne $x_1+x_2+x_3=x$, autrement dit $x\in E_1+E_2+E_3$.
    Ceci prouve que $E= E_1+E_2+E_3$ CQFD.

Familles génératrices, libres, liées

Familles génératrices

Une famille $(x_i)_{i \in I}$ d'un $\K$ e-v $E$ est dite génératrice de $E$ si $$\boxed{\Vect \big((x_i)_{i \in I}\big) = E}.$$

Remarque

Cela équivaut à dire que tout vecteur de $E$ est combinaison linéaire des $x_i$, ou encore (lorsque la famille est finie) que $E$ est somme des sev $\K x_i$.

Si $(x_i)_{i \in I}$ est génératrice de $E$, toute famille contenant les $(x_i)$ (sur-famille) est encore une famille génératrice de $E$.

Soit $(x_i)_{i \in I}$ une famille génératrice de $E$, $i_0 \in I$ et $J=I-\{i_0\}$. Alors: $(x_i)_{i \in J}$ est encore une famille génératrice de $E$ si et seulement si $x_{i_0}$ est combinaison linéaire des $(x_i)_{i \in J}$.

Famille libre

  1. Une famille finie $(x_i)_{1 \leqslant i \leqslant n }$ d'un $\K$-EV $E$ est dite libre si, pour toute famille $(\lambda_i)_{1 \leqslant i \leqslant n}$ d'éléments de $\K$ : $$ \dsp\sum_{i=1}^n{\lambda_i x_i}=0_E \ \Longrightarrow \forall i \in \inter{1,n} \ , \ \lambda_i = 0_{\K}.$$ (on dit aussi que les $(x_i)$ sont linéairement indépendants)
  2. Une famille quelconque $(x_i)_{i \in I}$ d'un $\K$-EV $E$ est dite libre si toutes ses sous-familles finies sont libres.
  3. Une famille $(x_i)_{i \in I}$ d'un $\K$ e-v $E$ est dite liée si elle n'est pas libre,i.e. s'il existe une famille $(\lambda_i)_{i \in I}$ d'éléments de $\K$, à support fini, non tous nuls, telle que $ \dsp \sum_{i \in I}{\lambda_i x_i}=0_E$.
    (on dit aussi que les $(x_i)$ sont linéairement dépendants).

  1. La famille $\{x\}$, est libre ssi $x \neq 0_E$.
  2. Une famille de deux éléments $\{x_1,x_2\}$ est liée ssi : $$x_1=0_E \textrm{ ou } \exists \lambda \in \K \textrm{ tq } x_2=\lambda x_1.$$
  3. Toute famille contenant $0_E$ est liée.
  4. Toute sous-famille d'une famille libre est libre.
    Toute sur-famille d'une famille liée est liée.
  5. Une famille $(x_i)_{i \in I}$ est liée ssi il existe $j \in I$ tel que $x_j$ soit combinaison linéaire des $(x_i)_{i\in I, i \neq j}$.
  6. Soit $(x_i)_{1 \leqslant i \leqslant n}$ une famille de vecteurs non nuls de $E$. Alors cette famille est libre ssi la somme $ \dsum_{i=1}^n{\K x_i}$ est directe.

Soit $(x_i)_{i \in I}$ une famille libre d'un $\K$-EV $E$, et $y \in E$ tel que $\{y\} \cup \{x_i\ , \ i \in I\}$ soit liée.

Alors $y$ est combinaison linéaire des $x_i$, de manière unique.

Bases

Une famille d'un $\K$-ev $E$ est appelée base de $E$ si elle est à la fois libre et génératrice.

SPour une famille $\mathscr{B}=(e_i)_{i \in I}$ d'un $\K$-ev $E$ , les propriétés suivantes sont équivalentes :

  1. $\mathscr{B}$ est une base de $E$.
  2. Tout vecteur de $E$ s'écrit de manière unique comme combinaison linéaire des éléments de $\mathscr{B}$.
  3. $\mathscr{B}$ est une famille libre maximale (i.e. $\mathscr{B}$ est libre, et $\forall x \in E\setminus \mathscr{B} \ , \mathscr{B} \cup \{x\}$ est liée).
  4. $\mathscr{B}$ est une famille génératrice minimale de $E$ (i.e. $\mathscr{B}$ est génératrice de $E$, et $ \forall x \in \mathscr{B} \ , \ \mathscr{B}\setminus\{x\}$ n'est pas génératrice de $E$).
Remarques

Si $(e_i)_{1 \leqslant i \leqslant n}$ est une famille de vecteurs non nuls de $E$, cette famille est une base de $E$ si et seulement si $E = \dsp \bigoplus_{i=1}^n{\K e_i}$.

Soit $\mathscr{B}=(e_i)_{i \in I}$ une base de $E$. Alors, pour tout $x \in E$, il existe une unique famille $(\lambda_i)_{i \in I}$ d'éléments de $\K$, à support fini, telle que $x = \dsp \sum_{i \in I}{\lambda_i e_i}$.

Les $\lambda_i$ sont appelés les coordonnées de $x$ dans la base $\mathscr{B}$.

Soi $E$ un $\K$-ev

  1. Soit $(E_i)_{1 \leqslant i \leqslant n}$ une famille de s-e-v de $E$ telle que $ E = \dsp \bigoplus_{i=1}^n{E_i}$. Si, pour tout $i \in \inter{1,n}$, $\mathscr{B}_i$ est une base de $E_i$, alors, les $\mathscr{B}_i$ sont deux à deux disjoints et $\mathscr{B} = \dsp \bigcup_{i=1}^n{\mathscr{B}_i}$ est une base de $E$.
  2. Soit $\mathscr{B}$ une base de $E$, et $(\mathscr{B}_i)_{1 \leqslant i \leqslant n}$ une partition de $\mathscr{B}$.
    Si, pour tout $i \in \inter{1,n}$, $E_i=\textrm{Vect}(\mathscr{B}_i)$, alors $ E = \dsp \bigoplus_{i=1}^n{E_i}$.

On dit que $(\mathscr{B}_i)_{i \in I }$ est une famille de bases adaptée à la décomposition de $E$ en somme directe $E = \dsp \bigoplus_{i=1}^n{E_i}$.

Espaces vectoriels de dimension finie

Dimension

On dit qu'un $\K$-ev est de dimension finie s'il possède une famille génératrice finie.

Si $E$ est un $\K$-ev de dimension finie, de toute famille génératrice de $E$, on peut extraire une famille génératrice finie.

Si $E$ est engendré par une famille de cardinal $n$, alors toute famille libre est de cardinal inférieur ou égal à $n$.

(Théorème de la base incomplète) Soit $E$ un $\K$-ev de dimension finie, $L$ un système libre de $E$ et $G$ un système générateur de $E$.
Alors $L$ est de cardinal fini, et il existe une base $\mathscr{B}$ de $E$} telle que : $$\boxed{L \subset \mathscr{B} \subset L \cup G}.$$

Si on pose $G=E$ dans le théorème précédent, on trouve,

Soit $E$ un $\K$-ev de dimension finie, $L$ un système libre de $E$. Alors il existe une base $\mathscr{B}$ de $E$ telle que : $L \subset \mathscr{B}$.

Si on pose maintenant $L=\emptyset$ dans le théorème précédent, on trouve,

Soit $E$ un $\K$-ev de dimension finie. De toute système générateur de $E$, on peut extraire une base.

Soit $E$ un $\K$-ev de dimension finie. Alors toutes les bases de $E$ ont même cardinal.

(Dimension) Ce nombre d'éléments commun s'appelle la dimension de $E$, notée $\textrm{dim}_{\K}(E)$ ou $\textrm{dim}(E)$.

Remarques

  • La dimension est le nombre d'éléments dans une base de $E$. Par conséquence c'est une entier!!!
    On ne peut pas avoir $\dim (E)=-1$ et encore moins $\frac{1}{2}$.
  • La dimension est le nombre d'éléments dans une base de $E$ et non pas le nombre d'éléments de $E$.

Exemples

  1. $\dim(\{0\})=0$
  2. $\dim_{\C}(\C)=1$
  3. $\dim_{\R}(\C)=2$
  4. $\dim_{\K}(\K^n)=n$
  5. $\dim_{\K}(\K_n[X])=n+1$
(TPC 2007--P3)

Soit $F=\Bigg \{ M(a,b,c)=\left(% \begin{array}{ccc} a & c & b \\ b & a & c \\ c & b & a \\ \end{array}% \right) ; \, (a,b,c) \in \mathbb{C}^3 \Bigg \}$.

  1. Montrer que $F$ est un s-e-v de $\MM_3(\C)$.
  2. Déterminer une base et la dimension de $F$
Correction

On note $$ I= \begin{pmatrix} 1&0&0\\ 0&1&0\\ 0&0&1 \end{pmatrix}, \,\, K=\begin{pmatrix} 0&0&1\\ 1&0&0\\ 0&1&0 \end{pmatrix},\,\, J = \begin{pmatrix} 0&1&0\\ 0&0&1\\ 1&0&0 \end{pmatrix}=K^2$$

  1. Déjà fait (exercice ci-dessus), et on a montré que $F=\Vect (I,K,K^2)$.
  2. La famille $(I,K,K^2)$ est une famille génératrice de $F$, de plus c'est une famille libre, en effet: $$\forall a,\,b,\,c\in \C,\, aI+bK+cK^2 =0 \Longrightarrow \left(\begin{array}{ccc} a & c & b \\ b & a & c \\ c & b & a \\ \end{array} \right) =0\Longrightarrow a=b=c=0. $$ Donc la famille $(I,K,K^2)$ est une base de $F$, soit $\dim_\C(F)=3$.
(E3A 2012)

$E$ désigne l'espace vectoriel des suites réelles. Une suite $u$ de $E$ est dite périodique de période $p\in \N^*$ lorsqu'elle vérifie~: $\forall n\in \N,\ u_{n+p}=u_n$.

Soit l'ensemble ${\mathcal S}_0=\{u\in E\mid \forall n\in \N,\ u_{n+2}+u_n=0\}$.

  1. Soient les deux suites $\lambda$ et $\mu$ définies par : $\forall n\in \N,\ \lambda_n=\cos\left (n\frac{\pi}{2}\right )$ et $\mu_n=\sin\left (n\frac{\pi}{2}\right )$.
    1. Vérifier que $\lambda$ et $\mu$ sont des éléments de ${\cal S}_0$.
    2. Montrer que ces deux suites sont périodiques.
  2. Montrer que ${\cal S}_0$ est un sous-espace vectoriel de $E$.
  3. Donner une base de ${\cal S}_0$ et préciser sa dimension.

Correction

Une correction est disponible sur le site de UPS

Soit $E$ un $\K$-ev de dimension $n$.

  1. Toute famille libre de $E$ a moins de $n$ éléments; et si elle en a exactement $n$, c'est une base de $E$.
  2. Toute famille génératrice de $E$ a plus de $n$ éléments; et si elle en a exactement $n$, c'est une base de $E$.

(Dimension du produit) Soient $E_1,E_2, \ldots, E_p$ $p$ $\K$-evs de dimensions finies. Alors l'espace vectoriel produit $E=E_1 \times E_2 \times \ldots \times E_p$ est de dimension finie et $$\dim(E) = \dsp\sum_{i=1}^p{\textrm{dim}(E_i)}.$$

Sous-espaces vectoriels d'un e-v de dimension finie

Soit $E$ un $\K$-ev de dimension finie, et $F$ un s-e-v de $E$.

  1. $F$ est de dimension finie, et $\dim(F) \leqslant \dim(E)$.
  2. On a $\dim(E) = \dim(F)$ si et seulement si $E=F$.

Soit $E$ un $\K$-ev de dimension finie.

  1. Tout sev de $E$ possède (au moins) un supplémentaire.
  2. Si $E= E_1 \oplus E_2$, alors $\dim (E)=\dim(E_1)+\dim(E_2)$.
  3. $E=E_1 \oplus E_2$ si et seulement si la réunion d'une base de $E_1$ et d'une base de $E_2$ est une base de $E$.

(Formule de Grassmann) Soit $E$ un $\K$-ev, et $E_1, E_2$ deux sevs de dimensions finies de $E$. Alors $E_1+E_2$ est de dimension finie et: $$\dim (E_1+E_2) = \dim(E_1) + \dim(E_2) - \dim(E_1 \cap E_2).$$

Soit $E$ un $\K$-ev de dimension finie, et $E_1, E_2$ deux sevs de $E$.

Pour que $E_1$ et $E_2$ soient supplémentaires, il faut et il suffit que : $$E_1+E_2=E\text{ et } \dim(E_1)+\dim(E_2) = \dim(E).$$ ou $$E_1 \cap E_2 = \{0_E\} \text{ et }\dim(E_1)+\dim(E_2) = \dim(E).$$

Si $E_1,\ldots,E_n$ sont des sevs de dimensions finies d'un $\K$-ev $E$, alors $\dsum_{i=1}^n E_i$ est de dimension finie et $$\dim \left(\dsum_{i=1}^n E_i\right) \leq \dsum_{i=1}^n \dim E_i.$$

Soit $E$ un $\K$-ev de dimension finie, et $(E_i)_{1 \leqslant i \leqslant n}$ une famille finie de $n$ sevs de $E$ telle que la somme $ \dsum_{i=1}^n{E_i}$ soit directe. Alors : $$\dim \left(\dsp \bigoplus_{i=1}^n{E_i} \right) \ = \ \dsp \sum_{i=1}^n{\dim(E_i)}.$$

Soit $E$ un $\K$-ev de dimension finie, et $(E_i)_{1 \leqslant i\leqslant n}$ une famille finie de sevs de $E$ telle que $ E = \dsum_{i=1}^n{E_i}$. Alors : $$ E = \dsp\bigoplus_{i=1}^n{E_i} \ \Longleftrightarrow \ \dim E = \dsp \sum_{i=1}^n{\dim (E_i)}.$$

Rang d'une famille de vecteurs

Soit $E$ un $\K$-ev, et $(x_i)_{i \in I}$ une famille d'éléments de $E$.

Si $\dim\big( \Vect( (x_i)_{i \in I}) \big)$ est finie, elle s'appelle le de la famille $(x_i)_{i \in I}$ , noté $\textrm{rg} \big( (x_i)_{i \in I} \big)$.

  1. Si $(x_i)_{i \in I}$ est une famille d'éléments d'un $\K$-ev $E$ de dimension finie, alors : $$\textrm{rg} \big( (x_i)_{i \in I} \big) \ \leqslant \ \textrm{dim}(E).$$
  2. Si $(x_1,x_2, \ldots,x_p)$ est une famille finie, alors : $\textrm{rg}(x_1,x_2,\ldots,x_p) \leqslant p $.