Equations différentielles

Présentation

On appelle équation différentielle une équation qui lie la fonction $y$ avec ses dérivées successives.
Ceci se traduit mathématiquement par une relation de la forme $y'(t)=f(t,y(t))$.
Souvent des problèmes issus de la physique ou de la chimie se traduisent en équations différentielles, comme les montrent les exemples ci-dessus.

Équations de Lotka-Volterra

C'est un modèle mathématiques la dynamique de systèmes biologiques dans lesquels un prédateur et sa proie interagissent. $$ \left\{\begin{array}{lcl} \dfrac{\ud}{\ud t}x(t)&=&x(t)\left(\alpha-\beta y(t)\right)\\ &&\\ \dfrac{\ud}{\ud t}y(t)&=&-y(t)\left(\delta-\gamma x(t)\right) \end{array} \right.$$ $x(t)$ (resp. $y(t)$) représente le nombre de proie (resp. prédateurs) à l'instant $t$, Les paramètres suivants caractérisent les interactions entre les deux espèces :

  • \(\alpha\), taux de reproduction des proies en l'absence de prédateurs ;
  • $\beta$, taux de mortalité des proies due aux prédateurs ;
  • $\delta$, taux de mortalité des prédateurs en l'absence de proies.;
  • $\gamma$, taux de reproduction des prédateurs en fonction des proies mangées ;
Si on pose $X(t)={\,}^t(x(t)\,\, y(t))$, alors on peut écrire $$X'(t)=f(t,X(t)), \text{ avec }\fonct{f}{\R\times\R^2}{\R^2}{(t,\begin{pmatrix} x\\y \end{pmatrix})}{\begin{pmatrix} \alpha x-\beta xy\\ -\delta y+\gamma xy \end{pmatrix}}.$$

Force de Lorentz

C'est la force subie par une particule chargée dans un champ électromagnétique.
Si on considère une particule $M$ de charge $q\neq 0$ et de masse $m$, placée dans un champ électromagnétique $(\mathbf{E},\mathbf{B})$, alors cette particule est soumise à la force $\mathbf{F}$, avec $$\mathbf{F}=\mathbf{F}_e+\mathbf{F}_m= q \mathbf{E}+q\,v\wedge \mathbf{B}.$$ Avec $v$ la vitesse de $M$, en utilisant la loi fondamental de la physique, on a $$\mathbf{F}=m\dfrac{\ud }{\ud t}v \Longrightarrow v'= v\wedge \left(\frac{q}{m}\mathbf{B}\right) +\frac{q}{m}\mathbf{E}.$$ Ainsi $v$ vérifie l'équation différentielle suivante \begin{equation} \tag{FLorentz} x'= x\wedge \left(\frac{q}{m}\mathbf{B}\right) +\frac{q}{m}\mathbf{E}. \end{equation}

Modélisation d'une epidime

voir sujet mines 2016

Équations différentielles linéaires

On appelle équation différentielle linéaire toute équation de la forme, $$(E)~~~~~~ x'=a(t)x+b(t),$$ ou $a:I\longmapsto \LL(F)$ et $b:I\longmapsto F$ et l'inconnu est la fonction $x:I\longmapsto F$.
On appelle équation homogène associée à $(E)$ l'équation $$(H)~~~~~~x'=a(t)x.$$

Exemple

Dans l'exemple de l'équation (\eqref{FLorentz}), on peut écrire, $$x'=a(t)x+b(t)$$ avec $\fonct{a(t)}{\R^3}{\R^3}{x}{x\wedge ((q/m)\mathbf{B})}$ et $\fonct{b}{\R}{\R^3}{t}{ (q/m)\mathbf{E}}$

Soient $a:I\longmapsto \LL(F)$ et $b:I\longmapsto F$ deux applications continues. On appelle solution de l'équation différentielle $(\EE)~~~~x'=a(t)x+b(t)$ toute fonction $x:I\longmapsto F$ dérivable sur $I$ telle que pour tout $t\in I,~~x'(t)=a(t)x(t)+b(t)$.
Si $x$ est une solution de $(\EE)$, l'arc $(I,x)$ est appelée courbe intégrale de $(\EE)$.

Exemples des courbes intégrales

On suppose que les fonctions $a, \,b$ sont continues. Alors

  • L'équation différentielle $(\EE): x'=a(t)x+b(t)$ possède des solutions sur $I$.
  • Pour tout $(t_0,x_0)\in I\times F$, le problème de Cauchy $$\left\{\begin{array}{lcl} x'(t)&=& a(t)x(t)+b(t),~~~~~\forall t\in I,\\ &&\\ x(t_0)&=&x_0 \end{array} \right.$$ admet une et une seule solution.

Remarque

Si $b=0$, alors l'application nulle est une solution de $(\EE)$ (ou $(\HH)$), le théorème de Cauchy nous indique que aucune autre solution de $(\EE)$ ne peut s'annuler sur $I$.

Remarque

Sous l'hypothèse de la continuité de $a$ et $b$, alors si $x$ est une solution donc $x$ est de classe $\CC^1$ sur $I$.

Si $x_p$ est une solution de l'équation $(\EE)$ alors $\mathscr{S}=\{x+x_p,~~x\in \mathscr{S}_\HH\}$.

Supposons que $b=\dsum_{k=1}^mb_k$ ou $b_k:I\longmapsto F$ une fonction continue et que l'on dispose de $x_k:I\longmapsto F$ solution de $y'=a(t)y+b_k$.
Alors $x=x_1+\cdots+x_m$ est une solution de l'équation $x'=a(t)x+b$.

L'ensemble $\mathscr{S}_\HH$ est un sous espace vectoriel de $\CC^1(I,F)$ de dimension finie égale à $\dim(F)$ .
De plus, pour tout $t_0\in I$, l'application $\fonct{\varphi_{t_0}}{\mathscr{S}_\HH}{F}{x}{x(t_0)}$ est un isomorphisme .

Une base $(x_1,\cdots,x_n)$ de $\mathscr{S}_\HH$ est appelée un système fondamental de solution de ($\HH$).

Soit $(x_1,\cdots,x_n)$ une famille d'éléments de $\mathscr{S}_\HH$. Alors les propriétés suivantes sont équivalentes:

  1. $(x_1,\cdots,x_n)$ est un système fondamental de solutions de ($\HH$).
  2. Il existe $t_0\in I$ tel que $W(t_0)=\dsp\det_\BB(x_1(t_0),\cdots,x_n(t_0))\neq 0$.
  3. Pour tout $t\in I,~~W(t)\neq 0$.

Soit $(x_1,\cdots,x_n)$ un système fondamental de $(\HH)$. Soit $x:I\longmapsto F$,

  • Il existe une unique famille $(\alpha_1,\cdots,\alpha_n)$ de fonction de $I:\longmapsto \K$ tels que $x=\dsp\sum_{i=1}^n\alpha_ix_i$.
  • De plus, $x$ est dérivable sur $I$ ssi toutes les fonctions $\alpha_i$ sont dérivable sur $I$.

Soit $(x_1,\cdots,x_n)$ un système fondamental de $(\HH)$. On a: $$ x=\sum_{i=1}^n\alpha_i x_i\in \mathscr{S} \Longleftrightarrow \sum_{i=1}^n\alpha_i'x_i=b.$$

Remarque

Comme $(x_1,\cdots,x_n)$ est un système fondamentale, alors on peut écrire $b$ sous la forme, $$b=\beta_1x_1+\cdots +\beta_nx_n=\dsum_{k=1}^n\beta_kx_k$$ donc en utilisant la méthode de la variation des constante, on cherche $x=\dsum_{i=1}^n\alpha_i x_i$ tels que $ \dsum_{i=1}^n\alpha_i'x_i=b= \dsum_{i=1}^n\beta_ix_i$.
Ce qui donne, $\alpha_i=\dsp\int\beta_i +k_i$.

Équations linéaires à coefficients constantes

Cas générale

On suppose dans cette partie que $a$ est une fonction constante. On note $A\in \MM_n(\K)$ la matrice de $a$ dans la base $\BB$ et $X\in \MM_{n\,1}(\K)$ la matrice colonne de vecteur $X$ dans la base $\BB$, $$x\in \mathscr{S}\Longleftrightarrow \forall t\in I,~~X'(t)=AX(t)+B(t).$$ Le théorème de Cauchy assure ici l'existence de solutions de l'équation $(\EE)$ (resp. $(\HH)$). De plus pour l'équation $(\HH)$ les solutions sont définies sur $\R$.

Soit $\lambda\in \mathrm{Sp}(a)$, alors pour tout $x_0\in E_\lambda(a)$ la fonction $\fonct{x}{I}{F}{t}{\ee^{\lambda t}x_0}$est une solution de l'équation homogène $x'=a(t)x$.

Remarque

Ainsi, ce résultat montre que l'étude de l'équation homogène dans ce cas est liée à la réduction de l'endomorphisme $a$ (ou de sa matrice $A$).

Cas où $A$ est diagonalisable

Soit $A\in \MM_n(\K)$ diagonalisable . On suppose que $\mathrm{Sp}(A)=\{\lambda_1,\cdots,\lambda_n\}$ et $(V_1,\cdots,V_n)$ une base de $F$ composée de vecteurs propres de $A$ associées respectivement à $\lambda_1,\cdots,\lambda_n$.
Alors, la solution générale de $(\HH)~~~~X'=AX$ est définie par: $$\forall t\in I,~~~~X(t)=\sum_{i=1 } ^nc_i\ee^{\lambda_i t}V_i,~~~~(c_1,\cdots,c_n)\in \K^n.$$

Remarques

  • On n'a pas besoin de calculer $P^{-1}$ pour la détermination des solutions de $(\HH)$.
  • Si $A\in \MM_n(\R)$ diagonalisable dans $\MM_n(\C)$ et non dans $\MM_n(\R)$, on cherche alors les solutions de $(\HH)$ à valeurs complexes et ensuite on déduira celles qui sont réelles.


Soit $A\in \MM_n(\R)$ une matrice symétrique positive. On considère $X$ une fonction de $\R$ dans $\R^n$ dérivable telle que $X'=AX$.
Montrer que la fonction $t\longmapsto\norme{X(t)}^2$ est croissante sur $\R$.

Correction

Puisque $A$ est symétrique donc $A$ est diagonalisable dans une b.o.n $\BB=(b_1,\cdots, b_n)$ de $\R^n$ formée des vecteurs propres de $A$.
On suppose que $Ab_i=\lambda_i b_i$, alors il existe $\alpha_1,\cdots,\alpha_n\in \R$ tels que, $$\forall t\in \R,\quad X(t)=\sum_{i=1}^n\alpha_i\ee^{\lambda_i t}b_i \Longrightarrow \norme{X(t)}^2=\sum_{i=1}^n\alpha_i^2 \ee^{2\lambda_i}$$ or $A$ est positive donc $\Sp(A)\subset \R_+$, ce qui montre que $t\longmapsto\norme{X(t)}^2$ est croissante sur $\R$.


Résoudre $X'=AX$ avec $A=\begin{pmatrix} 1&0&-5\\ 0&1&1\\ 1&1&1& \end{pmatrix}$, d'inconnu $X:\R\longmapsto \MM_{3\,1}(\R)$.

Correction

On calcul $\xi_A(\lambda)$, $$\xi_A(\lambda)=-(\lambda-1)(\lambda-1-2\ii)(\lambda-1+2\ii).$$ Ainsi $A$ est diagonalisable dans $\MM_3(\C)$ avec les valeurs propres: $\lambda_1=1,\,\lambda_2=1+2\ii, \,\lambda_3=1-2\ii$. Le calcul des vecteurs propres donne $$V_1=\begin{pmatrix} 1\\-1\\0 \end{pmatrix},\,\,V_2=\begin{pmatrix} -5\\1\\2\ii \end{pmatrix},\,\,V_3=\begin{pmatrix} -5\\1\\-2\ii \end{pmatrix}.$$ On trouve les solutions à valeurs complexes, $$\forall t\in \R,\,X(t)=\sum_{i=1}^3c_i\ee^{\lambda_i t}V_i,~~(c_1,c_2,c_3)\in \C^3.$$ Pour obtenir les solutions réelles, il suffit de prendre $c_1,\in \R$ et $c_3=\overline{c_2}$, ce qui donne $$\mathscr{S}_\HH=\{t\longmapsto \begin{pmatrix} c\ee^{t}-5\ee^t\big(a\cos(2t)+b\sin(2t)\big)\\ -c\ee^t+\ee^{t}\big(a\cos(2t)+b\sin(2t)\big)\\ \ee^t\big(2b\cos(2t)-2a\sin(2t)\big) \end{pmatrix},~~c,a,b\in \R\}.$$


Résoudre le système différentiel suivant: $$ \left\{\begin{array}{lcl} x'&=&2x+z\\ y'&=&-x+y-z\\ z'&=&x-2y \end{array} \right. $$

Correction

On pose $A=\begin{pmatrix} 2&0&1\\ -1&1&-1\\ 1&-2&0 \end{pmatrix},\,\,X(t)=\begin{pmatrix} x(t)\\y(t)\\z(t) \end{pmatrix}$. Ainsi le système différentiel est équivalent à $X'=AX$. Le calcul de $\chi_A$ donne $\chi_A(\lambda)=-(\lambda-1)(\lambda+1)(\lambda-3)$, puis on a $E_{-1}(A)=\Vect \left(e_0=\begin{pmatrix} 1\\-1\\-3 \end{pmatrix}\right),\,\,E_1(A)=\Vect \left(e_1=\begin{pmatrix} 1\\1\\-1 \end{pmatrix}\right),\,\,E_3(A)=\Vect \left(e_2=\begin{pmatrix} 1\\-1\\1 \end{pmatrix}\right)$, donc d'après le cours, l'ensemble de solution est $$S=\left\{t\in \R\longmapsto a\ee^{-t}e_0+b\ee^te_1+c\ee^{3t}e_2,\,\,a,b,c\in \R\right\}.$$

Cas où $A$ est trigonalisable

Soit $A\in \MM_n(\K)$ une matrice trigonalisable, il existe une matrice $P\in GL_n(\K)$ et une matrice triangulaire supérieur $T=\begin{pmatrix} t_{11}&\cdots&t_{1n}\\ &\ddots&\vdots\\ 0 & & t_{nn} \end{pmatrix}$ tels que $A=PTP^{-1}$ (les coefficients diagonaux de $T$ sont les valeurs propres de $A$).
On effectue le changement de fonction $Y=PX$, on se ramène au système $$Y'=TY\Longleftrightarrow \left\{\begin{array}{ccccccc} y_1'&=&t_{11}y_1&+&t_{12}y_2+\cdots&+&t_{1n}y_n\\ y_2'&=& &&t_{22}y_2+\cdots&+&t_{2n}y_n\\ \vdots& & & & &&\vdots\\ y_n'&=& & & &&t_{nn}y_n \end{array}\right.$$ On commence alors par la dernière équation $y_n'=t_{nn}y_n$ qui nous donne $y_n(t)=c_n\ee^{t_{nn} t}$, puis on résout l'avant dernière équation: $$y_{n-1}'=t_{n-1\,n-1}y_{n-1}+t_{nn}y_n=t_{n-1\,n-1}y_{n-1}+t_{nn}c_n\ee^{t_{nn} \,t}$$ on est amené à résoudre une équation de type $y'-ky=\lambda \ee^{a t}$.
On poursuit la résolution de proche en proche.


Résoudre le système $\left\{\begin{array}{lcl} x'(t)&=&x(t)+y(t)\\ y'(t)&=&-x(t)+3y(t) \end{array} \right.$ puis tracer les courbes intégrales.

Correction

On pose $X=\begin{pmatrix} x\\y \end{pmatrix},\,A=\begin{pmatrix} 1&1\\-1&3 \end{pmatrix}$, on détermine les éléments propres de $A$, $$\chi_A(\lambda)=(\lambda-2) ^2,\,\quad E_2(A)=\Vect (b_1=\begin{pmatrix} 1\\1 \end{pmatrix}).$$ Donc $A$ n'est pas diagonalisable. On pose $b_2=\begin{pmatrix} 0\\1 \end{pmatrix}$, ainsi, $$A= PTP^{-1}=\begin{pmatrix} 1&0\\ 1&1 \end{pmatrix} \begin{pmatrix} 2&1\\ 0&2 \end{pmatrix} \begin{pmatrix} 1&0\\-1&1 \end{pmatrix} $$ On pose $Y=P^{-1}X=\begin{pmatrix} a\\b \end{pmatrix} $ donc $Y$ vérifie $$Y'=TY \Longleftrightarrow \left\{\begin{array}{lcl} a'&=&2a+b\\ b'&=&2b \end{array} \right. \Longleftrightarrow Y(t)=\begin{pmatrix} \alpha+\beta t\\ \beta \end{pmatrix}\,\ee^{2t}.$$ Puis $$X=PY=\begin{pmatrix} \alpha+\beta t\\ \alpha+\beta +\beta t \end{pmatrix}\,\ee^{2t}.$$ Si on suppose que $X(0)=\begin{pmatrix} a_0\\b_0 \end{pmatrix}\in \R^2$, alors la solution du problème de Cauchy est $X(t)=\begin{pmatrix} a_0+(b_0-a_0)t\\ b_0+(b_0-a_0)t \end{pmatrix}\,\ee^{2t}$.

Faite bouger le point rouge pour tracer la courbe intégrale.


Résoudre l'équation différentielle $X'=AX$ d'inconnue $X:\R\longmapsto \MM_{3\,1}(\R)$, ou $A=\begin{pmatrix} 1&0&2\\ 1&1&-5\\ 0&1&5 \end{pmatrix}$.

Correction

Un calcul simple nous donne $\xi_A(\lambda)=-\lambda^3+7\lambda^2-16\lambda+12=-(\lambda -2)^2(\lambda-3)$ donc $\mathrm{Sp}_A=\{2,3\}$, et le calcul des vecteurs propres nous donne, $$E_3(A)=\Vect( e_1=\begin{pmatrix} 1\\-2\\1 \end{pmatrix}), \text{ et } E_2(A)=\Vect (e_2=\begin{pmatrix} 2\\-3\\1 \end{pmatrix}).$$ $A$ n'est donc pas diagonalisable, on cherche alors $e_3\in \R^3$ tels que $\BB'=(e_1,e_2,e_3)$ soit une base de $\R^3$ et la matrice de $a$ soit de la forme $\begin{pmatrix} 3&0&0\\ 0&2&\alpha\\ 0&0&2 \end{pmatrix}$. $$Ae_3=2e_3+\alpha e_2\Longleftrightarrow (A-2I_3)e_3=\alpha e_2\Longleftrightarrow e_3\in \Ker (a-2Id)^2$$ Après calcul, on peut choisir $e_3=\begin{pmatrix} -2\\1\\0 \end{pmatrix}$. La matrice de $a$ dans la base $\BB'$ est $T=\begin{pmatrix} 3&0&0\\ 0&2&1\\ 0&0&2 \end{pmatrix}$ , on pose $P=\begin{pmatrix} 1&2&-2\\ -2&-3&1\\ 1&1&0 \end{pmatrix}$, on a alors $A=PTP^{-1}$.\\ On pose maintenant, $X=PY$, l'équation différentielle devient, $$\left\{\begin{array}{lcl} y_1'&=&3y_1\\ y_2'&=&2y_2+y_3\\ y_3'&=&2y_3 \end{array} \right.\Longleftrightarrow\left\{\begin{array}{lcl} y_1(t)&=&c_1\ee^{3t}\\ y_2'&=&2y_2+c_3\ee^{2t}\\ y_3(t)&=&c_3\ee^{2t} \end{array} \right.$$ $$\Longleftrightarrow\left\{\begin{array}{lcl} y_1(t)&=&c_1\ee^{3t}\\ y_2(t)&=&(c_3t+c_2)\ee^{2t}\\ y_3(t)&=&c_3\ee^{2t} \end{array} \right.$$ Donc $$X=PY=\begin{pmatrix} 1&2&-2\\ -2&-3&1\\ 1&1&0 \end{pmatrix}\begin{pmatrix} c_1\ee^{3t}\\ (c_3t+c_2)\ee^{2t}\\ c_3\ee^{2t} \end{pmatrix}$$


Résoudre le système $X'=AX$ avec $A=\begin{pmatrix} 0&2&2\\-1&2&2\\-1&1&3 \end{pmatrix}$.

Correction

Le polynôme caractéristique de $A$, $\chi_A(\lambda)=(\lambda-1)(\lambda-2)^2$. donc $\mathrm{Sp}_A=\{1,2\}$, et le calcul des vecteurs propres nous donne, $$E_3(A)=\Vect(e_1)\text{ avec } e_1=\Vect\begin{pmatrix} 2\\0\\1 \end{pmatrix} \Vect \text{ et } E_2(A)=\Vect (e_2) \text{ avec } e_2=\begin{pmatrix} 2\\1\\1 \end{pmatrix}.$$ On pose $e_3=\begin{pmatrix} 1\\0\\0 \end{pmatrix}$ et $P=\begin{pmatrix} 2&2&1\\ 0&1&0\\ 1&1&0 \end{pmatrix}$, le calcul de la matrice $T=P^{-1}AP$ donne $T=\begin{pmatrix} 1&0&0\\ 0&2&-1\\ 0&0&2 \end{pmatrix}$. Puis on résout le système $Y'=TY$ ce qui donne: $$y=\begin{pmatrix} a\ee^t\\ b\ee^{2t}-ct\ee^{2t}\\ c\ee^{2t} \end{pmatrix}\Longrightarrow X=PY=\begin{pmatrix} 2a\ee^t +(2b+c-2ct)\ee^{2t}\\ (b-ct)\ee^{2t}\\ a\ee^t+(b-ct)\ee^{2t} \end{pmatrix},\quad a,b,c\in\R.$$

Équations linéaire scalaire du second ordre

On appelle équation différentielle linéaire scalaire du second ordre l'équation suivante: $$(\EE)~~~~ax''+bx'+cx=d.$$ On appelle solution de l'équation $(\EE)$ toute fonction $x:I\longmapsto \K$ deux fois dérivable sur $I$ telle que: $$\forall t\in I,~~a(t)x''(t)+b(t)x'(t)+c(t)x(t)=d(t).$$ On appelle équation homogène associée à $(\EE)$ l'équation $(\HH)~~ax''+bx'+cx=0$.

L'ensemble $\mathscr{S}_\HH$ des solutions de l'équation homogène associée à $(\EE)$ est sous espace vectoriel de $\DD(I,\K)$.

Si $x_p$ est une solution de $(\EE)$, alors $\mathscr{S}=\{x_p+x,~~x\in \mathscr{S}_\HH\}$.

Cas ou $a$ ne s'annule pas sur $I$

Pour tout $t_0\in I, x_0,x'_0\in \K$ le problème de Cauchy suivant: $$\left\{\begin{array}{l} ax''+bx'+cx=d\\ x(t_0)=x_0\\ x'(t_0)=x_0' \end{array}\right. $$ admet une unique solution sur $I$.

$\mathscr{S}_\HH$ est un $\K$-espace vectoriel de dimension $2$.

Soient $g_1,g_2$ deux solutions de $(\HH)$, les propositions suivantes sont équivalente:

  1. $(g_1,g_2)$ est un système fondamental de $(\HH)$
  2. il existe $t_0\in $ tel que $W_{g_1,\,g_2}(t_0)\neq 0$
  3. Pour tout $t\in I$, $W_{g_1,\,g_2}(t)\neq 0$.

Soient $g_1,g_2$ deux solutions de $(\HH)$, montrer que $W=W_{g_1,\,g_2}$ vérifie $aW'+bW=0$.

Correction

Puisque $g_1,g_2$ sont des solutions de $(\HH)$ alors $W=g_1g_2'-g_1'g_2$ est de classe $\CC^1$ sur $I$, $$\begin{array}{lcl} \forall t \in I,~~a(t)W(t)&=&a(t)(g_1g_2''-g_1''g_2)(t)\\ &=&g_1(t)(-b(t)g_2'(t)-c(t)g_2(t))\\ &&-g_2(t)(-b(t)g_1(t)-c(t)g_1(t))\\ &=&-bW(t)\end{array}$$


On considère l'équation $(1+t^2)x''-2x=0$.

  1. Chercher une $f_1$ solution de $(\HH)$ sous la forme d'une fonction polynomiale,
  2. Soit $f_2$ une deuxième solution de $(\HH)$, on note $W=W_{f_1,f_2}$: trouver une expression de $W$, en déduire $f_2$.

Correction

  1. On peut prendre, $f_1(t)=(1+t^2)$.
  2. $W$ vérifie $aW'+bW=0$ soit $(1+t^2)W'(t)=0$, on peut prendre $W=1$.
    Puisque $f_1$ ne s'annule pas sur $\R$, on définit $g$ par $g=\frac{f_2}{f_1}$, on a $g'=\frac{W}{f_1^2}$, $$g'(t)=\dfrac{1}{(1+t^2)^2}\Longrightarrow g(t)=K+\frac{1}{2}\arctan (t)+\frac{t}{2(1+t^2)}$$ On peut donc prendre $f_2(t)=\dfrac{(1+t^2)\arctan(t)+t}{2}$.

Soit $(x_1,x_2)$ un système fondamental de $(\HH)$ et $x\in \CC^2(I,\K)$. Alors, on a:

  1. Il existe deux applications $C_1,\,C_2\in \CC^1(I,\K)$ tel que $$\left\{\begin{array}{lcl} C_1x_1+C_2x_2&=&x\\ C_1x_1'+C_2x_2'&=&x' \end{array}\right.$$
  2. $x$ est une solution de $(\EE)$ ssi les fonctions $C_1,C_2$ vérifie $$\left\{\begin{array}{lcl} C_1'x_1+C_2'x_2&=&0\\ C_1'x_1'+C_2'x_2'&=&\dfrac{d}{a} \end{array}\right.$$

Utilisation d'une série entière

Dans certains cas, on cherche une solution de l'équation $(EE)$ sous forme d'une somme d'une SE, en particulier lorsque $\frac{b}{a}$ et $\frac{c}{a}$ sont des polynômes.

  • On se donne une SE $\dsum a_nt^n$, on suppose que $R>0$ et que sa somme $x$ est une solution de $(\EE)$.
  • Pour $t\in ]-R,R[$, on exprime $x'$ et $x''$ sous la forme des SE.
  • On remplace dans $(\EE)$, puis en utilisant l'unicité des $(a_n)$,on trouve une relation entre les $(a_n)$.
  • Réciproquement, on vérifie que la SE obtenue a bien un rayon de convergence strictement positif. Sa somme sera alors une solution de $(\EE)$.

Résoudre $(EE)~~y''+xy'+y=0$.

Correction

Soit $\dsum a_nx^n$ une SE de rayon de convergence $R$ (qu'on va déterminer après), on note $f$ sa somme sur $]-R,R[$. On sait que $f\in \CC^\infty(]-R,R[,\R)$. $$\forall x\in \R,~~f'(x)=\dsum_{n=1}^\infty na_nx^{n-1},~~~~f''(x)=\dsum_{n=2}^\infty n(n-1)a_nx^{n-2}.$$ Si on suppose que $f$ est une solution de $(\EE)$, alors, pour tout $x\in ]-R,R[$, on a: $$\begin{array}{l} f''(x)+xf'(x)+f(x)=0\\ \Longleftrightarrow\dsum_{n=2}^\infty n(n-1)a_nx^{n-2}+\dsum_{n=1}^\infty na_nx^{n}+\dsum_{n=0}^\infty a_nx^{n}=0\\ \\ \Longleftrightarrow a_0+2a_2+\dsum_{n=1}^\infty\left((n+2)a_{n+2}+a_n\right)(n+1)x^n=0 \end{array} $$ Par unicité de DSE, on a $f$ solution ssi $\forall n\geq 0, \,a_n+(n+2)a_{n+2}=0$.
Après calcul, on trouve, $$\forall n\in \N,~~a_{2n}=\dfrac{(-1)^n}{2^nn!}a_0,~~a_{2n+1}=\dfrac{(-1)^n2^nn!}{(2n+1)!}a_1.$$

  1. On pose $a_0=1$ et $a_1=0$, ce qui donne $f_1(x)=\dsum_{n\geq 0}\dfrac{(-x^2/2)^n}{n!}=\ee^{-x^2/2}$.
  2. On pose $a_0=0$ et $a_1=1$, ce qui donne la solution $f_2(x)=\dsum_{n\geq 0}\dfrac{(-1)^n2^nn!x^{2n+1}}{(2n+1)!}$, puis on vérifie que le rayon de convergence est $\infty$..

On montre que $(f_1,f_2)$ est un système fondamental de solutions.


On considère la suite $(a_n)$ définie par: $a_0=a_1=1$ et pour tout $n\in \N,\, a_{n+2}=a_{n+1}+(n+1)a_n$.

  1. Montrer que : $\forall n\in \N,\, a_n\leq n!$.
  2. Qu'en déduit-on sur le rayon de convergence de la série entière $\dsum \dfrac{a_n}{n!}x^n$, on note $f$ sa somme.
  3. Trouver une équation différentielle d'ordre 1 dont $f$ est solution et la résoudre.

Correction

  1. Par récurrence sur $n\in \N$.
  2. Puisque $a_n\leq n!$ alors $\dfrac{a_n}{n!}\leq 1$ donc le rayon de convergence de $\dsum \frac{a_n}{n!}x^n$ est $\geq 1$.
  3. Pour $x\in ]-1,1[$, on écrit $$\begin{array}{lcl} f'(x)&=&\dsum_{n\geq 1}\dfrac{a_n}{(n-1)!}x^{n-1}\\ &=&\dsum_{n\geq 0}\dfrac{a_{n+1}}{n!}x^{n}=x\dsum_{n\geq 1}\dfrac{a_{n+1}}{n!}x^{n-1}+a_1\\ &=&x\dsum_{n\geq 0}\dfrac{a_{n+2}}{(n+1)!}x^n+a_1=x\dsum_{n\geq 0}\dfrac{a_{n+1}+(n+1)a_n}{(n+1)!}x^n+a_1\\ &=&\dsum_{n\geq 0}\dfrac{a_{n+1}}{(n+1)!}x^{n+1}+xf(x)+a_1\\ &=&(1+x)f(x) \end{array} $$ On en déduit que $f(x)=\ee^{x+\frac{x^2}{2}}$.

Utilisation de changement de variable

Soit $\varphi: J\longmapsto I$ un $\CC^{2}$-difféomorphisme, soit $x$ une solution de l'équation $(\EE)$. On définit, $z:J\longmapsto \K$ par $z(t)=x(\varphi(t))$.
On dérive deux fois la fonction $z$, puis on montre que $z$ vérifie une équation $(\EE')~~a_1z''+b_1z'+cz_1=d_1$, le but est d'arriver à une équation $(\EE')$ à coefficients constantes, dont on connait les solutions, une fois qu'on a trouvé $z$ on détermine $x$ en utilisant $\varphi^{-1}$.


Résoudre $(\EE)~~(1+x^2)y''(x)+xy'(x)-4y=x\ln\left(x+\sqrt{x^2+1}\right)$.
On pourrait utiliser le changement de variable $x=\sh (t)$.

Correction

Soit $y$ une solution de $(\EE)$, on pose $z(t)=y(\sh(t))$. $$z'(t)=\ch(t)y'(\sh(t)),~~z''(t)=\sh(t) y'(\sh(t))+\ch^2(t)y''(\sh(t))$$ En utilisant le faite que $y$ est une solution de $(\EE)$, on trouve $$\forall t\in \R,~~z''(t)=4y(\sh(t))+\sh(t)\ln\left(\sh(t)+\sqrt{\sh^2(t)+1}\right)$$ On en déduit, que $z$ vérifie l'équation $(\EE')~~z''-4z=t\sh(t)$. $$\mathscr{S}'=\left\{t\longmapsto a\ee^{-2t}+b\ee^{2t}-\dfrac{3t\sh(t)+2\ch(t)}{9},~~a,b\in \R\right\}.$$ Puis on revient à $(EE)$ en remplaçant $t$ par $\ln(x+\sqrt{x^2+1})$ $$\mathscr{S}=\left\{\begin{array}{lcl} x&\longmapsto& \dfrac{A}{(x+\sqrt{x^2+1})^2}+b(x+\sqrt{x^2+1})^2\\ &&-\dfrac{3x\ln(x+\sqrt{x^2+1})+2\sqrt{x^2+1}}{9},~~a,b\in \R \end{array}\right\}.$$