Sauter au contenu

Section 1.3 Équations linéaires scalaires du deuxième ordre

Mise en garde 1.36.

Sous le thème des équations différentielles, les équations linéaires scalaires du deuxième ordre sont les équations les plus fréquemment abordées dans les sujets de concours.

Conventions et notations 1.37.

Soient \(a, b, c\) et \(\varphi\) des applications continues de \(I\) dans \(\K\text{.}\) On considère l’EDLS du deuxième ordre :
\begin{equation*} a(t)x'' + b(t)x' + c(t)x = \varphi(t) \end{equation*}
Une solution de \((E)\) sur \(I\) est une fonction \(f: I \to \K\) telle que :
  • \(f\) est deux fois dérivable sur \(I\) ;
  • \(\forall t \in I, \; a(t)f''(t) + b(t)f'(t) + c(t)f(t) = \varphi(t)\text{.}\)
L’équation \((E)\) est dite normalisée si \(a\) est constante de valeur \(1\) et normalisable si \(a\) ne s’annule pas sur \(I\text{.}\)
Attention donc, les résultats du cadre général ne sont applicables à \((E)\) que si elle est normalisable. En particulier, la dimension de l’ensemble \(S_I(H)\) des solutions de l’équation homogène peut être strictement supérieure à \(2\text{.}\)
Dans le cas où \((E)\) est normalisable, elle équivaut au système différentiel :
\begin{align*} (SE) \amp\amp X' \amp= A(t)X + B(t) \end{align*}
\begin{equation*} X(t) = \begin{pmatrix} x(t) \\ x'(t) \end{pmatrix}, \quad A(t) = \begin{pmatrix} 0 \amp 1 \\ -\frac{c(t)}{a(t)} \amp -\frac{b(t)}{a(t)} \end{pmatrix}, \quad B(t) = \begin{pmatrix} 0 \\ \frac{\varphi(t)}{a(t)} \end{pmatrix} \end{equation*}
On notera \((H)\) l’équation homogène de \((E)\) et \((SH)\) celle de \((SE)\text{.}\)

Récapitulatif.

Dans cette rubrique, on ne fera qu’adapter les énoncés du cadre général au cas particulier d’une EDLS du deuxième ordre normalisable.
On suppose donc que l’équation \((E)\) est normalisable.
  1. Théorème de Cauchy-Lipschitz.
    Pour tout \((t_0, x_0, x_0') \in I \times \K^2\text{,}\) il existe une unique solution \(f\) de \((E)\) telle que :
    \begin{equation*} f(t_0) = x_0 \quad \text{et} \quad f'(t_0) = x_0' \end{equation*}
  2. Structure des ensembles de solutions.
    \(S_I(H)\) est un \(\K\)-espace vectoriel de dimension \(2\text{,}\) et \(S_I(E) = f_0 + S_I(H)\) pour toute solution \(f_0\) de \((E)\) sur \(I\text{.}\)
  3. Système de solutions et wronskien.
    Si \(f_1\) et \(f_2\) sont des solutions de l’équation homogène \((H)\text{,}\) on appelle wronskien de \(f_1\) et \(f_2\) la fonction \(w\) définie par :
    \begin{equation*} w(t) = \begin{vmatrix} f_1(t) \amp f_2(t) \\ f_1'(t) \amp f_2'(t) \end{vmatrix} \end{equation*}
    La famille \((f_1, f_2)\) est une base de \(S_I(H)\) si et seulement si \(w\) ne s’annule pas sur \(I\text{.}\) Pour cela, il suffit qu’il ne s’annule pas en un point de \(I\text{.}\)
  4. Équation du wronskien.
    Soit \(w\) le wronskien de deux solutions quelconques de \((H)\text{.}\) Alors :
    \begin{equation*} \forall t \in I, \; a(t)w'(t) + b(t)w(t) = 0 \end{equation*}
  5. Variations des constantes.
    On suppose qu’on connaît une base \((f_1, f_2)\) de \(S_I(H)\text{.}\) On note \(w\) leur wronskien. En remplaçant \(X\) par \(\lambda_1(t)\mathbf{V} f_1 + \lambda_2(t)\mathbf{V} f_2(t)\) dans le système différentiel \((SE)\text{,}\) alors :
    \begin{equation*} (E) \Longleftrightarrow \begin{cases} \lambda_1'(t)f_1(t) + \lambda_2'(t)f_2(t) = 0 \\ \lambda_1'(t)f_1'(t) + \lambda_2'(t)f_2'(t) = \frac{\varphi(t)}{a(t)} \end{cases} \end{equation*}
    Les solutions de \((E)\) sur \(I\) sont donc les fonctions :
    \begin{equation*} t \mapsto \lambda_1(t)f_1(t) + \lambda_2(t)f_2(t) \end{equation*}
    où les fonctions \(\lambda_1\) et \(\lambda_2\) sont données par :
    \begin{equation*} \lambda_1'(t) = -\frac{f_2(t)\varphi(t)}{a(t)w(t)}, \quad \lambda_2'(t) = \frac{f_1(t)\varphi(t)}{a(t)w(t)} \end{equation*}
  6. Une solution particulière.
    En fixant un point \(t_0\in I\text{,}\) on obtient une solution particulière \(g\) de \((E)\) en posant
    \begin{equation} g(t) =-f_1(t)\int_{t_0}^t\frac{f_2(s)\varphi(s)}{a(s)w(s)}\mathrm{d}s+f_2(t)\int_{t_0}^t\frac{f_1(s)\varphi(s)}{a(s)w(s)}\mathrm{d}s\tag{1.1} \end{equation}
    \begin{align*} \amp\text{ou encore}\amp\amp\amp g(t)\amp=\int_{t_0}^t\frac{\varphi(s)}{a(s)}H(t,s)\mathrm{d}s \\ \amp\text{avec}\amp\amp\amp H(t,s)\amp=\frac1{w(s)}\left|\begin{matrix} f_1(s) \amp f_1(t) \\ f_2(s) \amp f_2(t)\end{matrix}\right| \end{align*}
    en dérivant la relation (1.1) on voit en outre que
    \begin{equation*} g'(t)=\int_{t_0}^t\frac{\varphi(s)}{a(s)}\frac{\partial H}{\partial t}(t,s)\mathrm{d}s \end{equation*}
    De quoi on déduit que \(g\) est l’unique solution de \((E)\) qui vérifie \(g(t_0)=g'(t_0)=0\text{.}\)
  7. Expression complète des solutions de \((E)\).
    Les solutions de \((E)\) sont ainsi les fonctions de la forme
    \begin{equation} f(t) = \lambda_1 f_1(t) + \lambda_2 f_2(t) + \int_{t_0}^t \frac{\varphi(s)}{a(s)}H(t,s) \, ds\tag{1.2} \end{equation}
    \(\lambda_1, \lambda_2\) sont des scalaires quelconques dans \(\K\text{.}\)
  8. Solution du problème de Cauchy.
    Soient \(x_0,x_0'\in\K\text{.}\) Sur la base de la relation (1.2) l’unique solution \(f\) de \((E)\) qui vérifie \(f(t_0)=x_0\) et \(f'(t_0)=x_0'\) est déterminée par le système linéaire d’inconnues \(\lambda_1\) et \(\lambda_2\)  :
    \begin{equation*} \begin{cases} f_1(t_0)\lambda_1+f_2(t_0)\lambda_2=x_0 \\ f_1'(t_0)\lambda_1+f_2'(t_0)\lambda_2=x_0' \end{cases} \end{equation*}
    dont le déterminant est \(w(t_0)\text{.}\)

Spécificités des EDLS du second ordre.

Dans cette rubrique, on examine quelques spécificités des équations linéaires scalaires du deuxième ordre. On considère les équations différentielles qu’on suppose normalisables sur \(I\) :
\begin{align*} (E) \amp\amp a(t) x'' + b(t) x' + c(t) x \amp = \varphi(t) \\ (H) \amp\amp a(t) x'' + b(t) x' + c(t) x \amp = 0 \end{align*}
  1. Solutions passant par un même point.
    Pour tout \((t_0, x_0) \in I \times \K\text{,}\) il existe une infinité de solutions \(f\) de \((E)\) telles que \(f(t_0) = x_0\text{.}\)
    Si \(f\) et \(g\) sont des solutions distinctes de l’équation homogène \((H)\) vérifiant la condition \(x(t_0) = x_0\text{,}\) alors  :
    \begin{equation*} (f, g) \text{ est un SFS de } (H) \Longleftrightarrow x_0 \neq 0 \end{equation*}

    Explication.

    \(W(t_0) = x_0 (g'(t_0) - f'(t_0))\) et puisque \(f \neq g\text{,}\) alors \(f'(t_0) \neq g'(t_0)\text{.}\)
  2. Système fondamental canonique en un point.
    Soit \(t_0 \in I\text{.}\) On appelle système fondamental canonique de solutions de \((H)\) en \(t_0\) le couple \((f_0, f_1)\) de solutions de \((H)\) définies par :
    • \(f_0(t_0) = 1\text{,}\) \(f_0'(t_0) = 0\) ;
    • \(f_1(t_0) = 0\text{,}\) \(f_1'(t_0) = 1\text{.}\)
    L’intérêt et qu’on obtienne des expressions simplifiées des solutions de \((H)\) et de \((E)\) :
    • Les solutions de \((H)\) sont données par :
      \begin{equation*} f(t) = f(t_0) f_0(t) + f'(t_0) f_1(t) \end{equation*}
    • Les solutions de \((E)\) sont données par :
      \begin{equation*} f(t) = f(t_0) f_0(t) + f'(t_0) f_1(t) + \int_{t_0}^t H(t, s) \frac{\varphi(s)}{a(s)} \, ds \end{equation*}
    pour rappel, \(\ds H(t,s)=\frac1{w(s)}\left|\begin{matrix} f_0(s) \amp f_0(t) \\ f_1(s) \amp f_1(t)\end{matrix}\right|\text{.}\)
  3. Wronskien croisé.
    On considère deux EDLS homogènes normalisables sur \(I\) (qui ne diffèrent que par le coefficient de \(x\)) :
    \begin{align*} (H_1)\amp\amp a(t) x'' + b(t) x' + c_1(t) x \amp = 0\\ (H_2)\amp\amp a(t) x'' + b(t) x' + c_2(t) x \amp = 0 \end{align*}
    Soient \(f_1\) une solution de \((H_1)\) sur \(I\) et \(f_2\) une solution de \((H_2)\) sur \(I\text{.}\) En posant \(w(t) = f_1(t) f_2'(t) - f_2(t) f_1'(t)\text{,}\) on a :
    \begin{equation*} a(t) w'(t) + b(t) w(t) = (c_1(t) - c_2(t)) f_1(t) f_2(t) \end{equation*}
    c’est l’équation du wronksien croisé des équations \((H_1)\) et \((H_2)\text{.}\)

    Explication.

    Par dérivation du déterminant selon les lignes :
    \begin{equation*} w'(t) = \frac{d}{dt} \begin{vmatrix} f_1(t) \amp f_2(t) \\ f_1'(t) \amp f_2'(t) \end{vmatrix} = \begin{vmatrix} f_1(t) \amp f_2(t) \\ f_1''(t) \amp f_2''(t) \end{vmatrix} \end{equation*}
    En utilisant les équations différentielles, on obtient :
    \begin{equation*} w'(t) = \frac{c_1(t) - c_2(t)}{a(t)} f_1(t) f_2(t) - \frac{b(t)}{a(t)} w(t) \end{equation*}
    d’où le résultat.

Techniques de résolution.

Cette rubrique rassemble quelques remarques pratiques qui peuvent mener à la résolution d’une équation linéaire scalaire du deuxième ordre.
Dans les deux techniques suivantes, on suppose que \((E)\) est normalisable sur \(I\) et qu’on connaît une solution \(f_0\) de l’équation homogène \((H)\) qui ne s’annule pas sur \(I\text{.}\)
  1. Méthode de Lagrange.
    On pose \(x = f_0(t)y\) et on remplace dans \((E)\) pour obtenir l’équation :
    \begin{align*} (E')\amp\amp a(t)f_0(t)y'' + \big(2a(t)f_0'(t) + b(t)f_0(t)\big)y' \amp= \varphi(t) \end{align*}
    Cette équation peut être regardée comme une EDLS du premier ordre en \(y'\text{.}\)
    Par ailleurs, en multipliant \((E')\) par \(f_0/a\text{,}\) on obtient la forme plus mnémonique :
    \begin{equation*} \frac{d}{dt}\big(f_0(t)^2y'\big) + r(t)\big(f_0(t)^2y'\big) = \psi(t) \end{equation*}
    \(r=b/a\) et \(\psi =\varphi/a\text{.}\) Ce qui donne la forme générale de \(y'\) :
    \begin{equation*} y' = \frac{\e^{-R(t)}}{f_0(t)^2}\Big(\lambda + \int_{t_0}^t \e^{R(s)}\psi(s) \, ds\Big) \end{equation*}
    \(\lambda\) est quelconque dans \(\K\) et \(R\) est une primitive de \(r \) sur \(I\text{.}\)
  2. Méthode du wronskien.
    L’idée est d’utiliser le fait que les wronskiens de \((H)\) sont les solutions de l’équation \(a(t)w' + b(t)w = 0\) :
    \begin{equation*} (H) \Longleftrightarrow \begin{cases} a(t)w' + b(t)w = 0 \\ f_0(t)x' - f_0'(t)x = w(t) \end{cases} \end{equation*}
  3. Solutions développables en série entière.
    Si les fonctions \(a\text{,}\) \(b\) et \(c\) sont polynomiales, il est fort possible que \((H)\) admette des solutions développables en série entière en \(0\text{,}\) parfois polynomiales.

Cas d’une EDLS à coefficients constants.

On rappelle ici l’expression des solutions d’une EDLS d’ordre 2 à coefficients constants :
\begin{equation*} x'' + p x' + q x = \varphi(t) \end{equation*}
On note \(r_1\) et \(r_2\) les racines dans \(\C\) du polynôme caractéristique de \((H)\) :
\begin{equation*} P = X^2 + p X + q \end{equation*}
  1. Solutions de l’équation homogène.
    les solutions de \((H)\) sur \(\R\) à valeurs dans \(\K\) sont de la forme :
    • \(f(t) = \lambda_1 \e^{r_1 t} + \lambda_2 \e^{r_2 t}\) si \(r_1, r_2 \in \K\) et \(r_1 \neq r_2\) ;
    • \(f(t) = (\lambda_1 t + \lambda_2) \e^{r t}\) si \(r_1 = r_2 = r\) ;
    • \(f(t) = \e^{\alpha t} \big( \lambda_1 \cos(\beta t) + \lambda_2 \sin(\beta t) \big)\) si \(\K = \R\) et \(r_1 = \overline{r_2} = \alpha + i \beta \notin \R\text{.}\)
    À chaque fois, \(\lambda_1\) et \(\lambda_2\) sont des scalaires quelconques dans \(\K\text{.}\)
  2. Solution particulière de \((E)\) dans le cas où \(\varphi(t) = R(t) \e^{\omega t}\).
    si \(\varphi(t)\) est de la forme \(R(t) \e^{\omega t}\)\(R\) est une fonction polynomiale à coefficients dans \(\K\) et \(\omega \in \K\text{,}\) alors \((E)\) admet une solution unique de la forme :
    \begin{equation*} f_0(t) = t^{\beta} Q(t) \e^{\omega t} \end{equation*}
    \(\beta\) est la multiplicité de \(\omega\) en tant que racine du polynôme caractéristique \(P\) de \((H)\) et \(Q\) est un polynôme qui a le même degré que \(R\) à déterminer.
  3. Solution particulière dans le cas général.
    sur la base de la relation (1.2), \(t_0\) étant un point quelconque choisi dans \(I\text{,}\) \((E)\) admet une solution de la forme :
    \begin{equation*} f_0(t) = \int_{t_0}^t H(t, s) \varphi(s) \, ds \end{equation*}
    \begin{equation*} H(t, s) = \frac{\begin{vmatrix} f_1(s) \amp f_1(t) \\ f_2(s) \amp f_2(t) \end{vmatrix}}{\begin{vmatrix} f_1(s) \amp f_1'(s) \\ f_2(s) \amp f_2'(s) \end{vmatrix}} \end{equation*}
    Tout calcul fait :
    • \(H(t, s) = \frac{\e^{r_2 (t - s)} - \e^{r_1 (t - s)}}{r_2 - r_1}\) si \(r_1 \neq r_2\) ;
    • \(H(t, s) = (t - s) \e^{r (t - s)}\) si \(r_1 = r_2 = r\) ;
    • \(H(t, s) = \frac{\sin(\beta (t - s))}{\beta} \e^{\alpha (t - s)}\) si \(r_1 = \overline{r_2} = \alpha + i \beta \notin \R\text{.}\)

Exemple 1.38. Exemples non génériques.

  1. Résoudre en observant que \(x = t^2 + 1\) est une solution :
    \begin{equation*} (1 + t^2) x'' - 2 x = 0 \end{equation*}
  2. Résoudre en commençant par chercher des solutions polynomiales de l’équation homogène :
    \begin{equation*} (1 + t^2)^2 x'' - 2 t (1 + t^2) x' + 2 (t^2 - 1) x = 1 + t^2 \end{equation*}
  3. Résoudre sur \(]0, 1[\text{,}\) en commençant par chercher les solutions développables en série entière :
    \begin{equation*} t (1 - t) x'' + (1 - 3 t) x' - x = 0 \end{equation*}
  4. Résoudre sur \(]-1, 1[\text{,}\) en commençant par chercher les solutions développables en série entière :
    \begin{equation*} 4 (1 - t^2) x'' - 4 t x' + x = 0 \end{equation*}
  5. Résoudre sur \(\R\text{,}\) en posant \(u = t^2\) et en étudiant le raccord en \(0\) :
    \begin{equation*} t x'' - x' - t^3 x = 0 \end{equation*}

Exemple 1.39. Équation de Cauchy-Euler.

On considère l’équation
\begin{equation*} t^2 x'' + a t x' + b x = 0 \end{equation*}
L’équation n’est pas normalisable en \(0\text{.}\)
On cherche les solutions sur \(]0, +\infty[\) qui sont de la forme \(f(t) = t^r\text{.}\) Pour que \(f\) soit une solution, il faut et il suffit que \(r\) soit une racine du polynôme :
\begin{equation*} P = X (X - 1) + a X + b \end{equation*}
Si \(r_1\) et \(r_2\) sont les racines de \(P\) dans \(\K\text{,}\) les solutions de \((H)\) sur \(]0, +\infty[\) sont de la forme :
  • \(f(t) = \lambda_1 t^{r_1} + \lambda_2 t^{r_2}\) si \(r_1 \neq r_2\) ;
  • \(f(t) = (\lambda_1 + \lambda_2 \ln t) t^r\) si \(r_1 = r_2 = r\) ;
  • \(f(t) = \big( \lambda_1 \cos(\im r \ln t) + \lambda_2 \sin(\im r \ln t) \big) t^{\re r}\) si \(\K = \R\) et \(r = r_1 = \overline{r_2} \notin \R\text{.}\)
Autre méthode :
Si on pose \(x(t) = y(\ln t)\text{,}\) alors \((E)\) équivaut sur \(\R_+^*\) à l’EDLS à coefficients constants :
\begin{equation*} y'' + (a - 1) y' + b y = 0 \end{equation*}
équation à coefficients constants qui a pour polynôme caractéristique \(P\text{.}\)

Exemple 1.40. Équation d’Airy.

On considère l’équation :
\begin{equation*} x'' - t x = 0 \end{equation*}
On cherche les solutions développables en série entière sur \(\R\text{.}\)
Solution.
En remplaçant \(x\) par \(f(t) = \sum_{n=0}^{+\infty} a_n t^n\) dans \((H)\text{,}\) on obtient :
\begin{equation*} 2 a_2 + \sum_{n=1}^{+\infty} \big( (n + 2) (n + 1) a_{n+2} - a_{n-1} \big) t^n = 0 \end{equation*}
Ce qui revient à :
\begin{equation*} a_2 = 0 \quad \text{et} \quad \forall n \in \N, \; a_{n+3} = \frac{a_n}{(n + 3) (n + 2)} \end{equation*}
ou encore, pour tout \(n \in \N^*\) :
\begin{equation*} a_{3n + 2} = 0, \quad a_{3n + 1} = \frac{2 \cdot 5 \cdots (3n - 1)}{(3n + 1)!} a_1, \quad a_{3n} = \frac{1 \cdot 4 \cdots (3n - 2)}{(3n)!} a_0 \end{equation*}
Alors les solutions de \((H)\) sur \(\R\) sont les fonctions données par :
\begin{equation*} f(t) = a_0 f_0(t) + a_1 f_1(t) \end{equation*}
\(a_0\) et \(a_1\) sont quelconques dans \(\R\) et :
\begin{equation*} f_0(t) = 1 + \sum_{n=0}^{+\infty} \frac{1 \cdot 4 \cdots (3n - 2)}{(3n)!} t^{3n}, \quad f_1(t) = t + \sum_{n=0}^{+\infty} \frac{2 \cdot 5 \cdots (3n - 1)}{(3n + 1)!} t^{3n + 1} \end{equation*}
On notera que les séries entières qui interviennent dans les expressions de \(f_0\) et \(f_1\) sont bien de rayon de convergence infini.

Exemple 1.41. Équation d’Hermite :.

\begin{equation*} x'' - 2 t x' + 2 a x = 0 \end{equation*}
\(a\) est un réel positif ou nul. On cherche les solutions développables en série entière sur \(\R\text{.}\)
Solution.
Comme pour l’équation d’Airy, \((H_a)\) admet effectivement des solutions développables en série entière sur \(\R\) En remplaçant dans \((H_a)\text{,}\) on obtient :
\begin{equation*} \forall n \in \N, \; (n + 2) (n + 1) a_{n+2} = 2 (n - a) a_n \end{equation*}
Et donc pour tout \(n \in \N^*\) :
\begin{equation*} a_{2n} = \frac{2^{2n}}{(2n)!} (n - (1 + a / 2)) (n - 1 - (1 + a / 2)) \cdots (1 - (1 + a / 2)) a_0 \end{equation*}
\begin{equation*} a_{2n + 1} = \frac{2^{2n}}{(2n + 1)!} (n - (a + 1) / 2) (n - 1 - (a + 1) / 2) \cdots (1 - (a + 1) / 2) a_1 \end{equation*}
Si on prolonge la fonction \(\Gamma\) d’Euler sur \(\R \setminus \Z_-\) par la relation :
\begin{equation*} \forall s \in \R_- \setminus \Z_-, \; \Gamma(s) = \frac{\Gamma(s - E(s))}{s (s + 1) \cdots (s - E(s) - 1)} \end{equation*}
De cette manière, elle continuera à vérifier l’équation fonctionnelle :
\begin{equation*} \Gamma(s) = (s - 1) \Gamma(s - 1), \quad \forall s \in \R \setminus \Z_- \end{equation*}
et donc :
\begin{equation*} \forall s \in \R \setminus \Z_-, \forall n \in \N, \; \Gamma(s) = (s - 1) (s - 2) \cdots (s - n) \Gamma(s - n) \end{equation*}
Avec respectivement \(s = \frac{1}{2} a + 1\) et \(s = \frac{1}{2} a + \frac{1}{2}\text{,}\) on obtient les écritures :
\begin{equation*} a_{2n} = \frac{(-1)^n 2^{2n} \Gamma(\frac{1}{2} a + 1)}{(2n)! \Gamma(\frac{1}{2} a + 1 - n)} a_0, \quad a_{2n + 1} = \frac{(-1)^n 2^{2n} \Gamma(\frac{1}{2} a + \frac{1}{2})}{(2n + 1)! \Gamma(\frac{1}{2} a + \frac{1}{2} - n)} a_1 \end{equation*}
d’où les solutions de \((H_a)\) :
\begin{equation*} f(t) = a_0 f_0(t) + a_1 f_1(t) \end{equation*}
avec :
\begin{equation*} f_0(t) = \sum_{n=0}^{+\infty} (-1)^n \frac{2^{2n} \Gamma(\frac{1}{2} a + 1)}{(2n)! \Gamma(\frac{1}{2} a + 1 - n)} t^{2n}, \quad f_1(t) = \sum_{n=0}^{+\infty} (-1)^n \frac{2^{2n} \Gamma(\frac{1}{2} a + \frac{1}{2})}{(2n + 1)! \Gamma(\frac{1}{2} a + \frac{1}{2} - n)} t^{2n + 1} \end{equation*}
En fait, les écritures précédentes ne sont valables que si \(\frac{1}{2} a + 1 \notin \N\) et \(\frac{1}{2} a + \frac{1}{2} \notin \N\text{.}\) Dans le cas contraire, en revenant aux relations précédentes, on aura :
  • Si \(\frac{1}{2} a + 1 \in \N\text{,}\) c’est-à-dire \(a = 2 p\) avec \(p \in \N^*\text{,}\) alors :
  • Si \(\frac{1}{2} a + \frac{1}{2} \in \N\text{,}\) c’est-à-dire \(a = 2 p + 1\) avec \(p \in \N^*\text{,}\) alors :
On notera que si \(a\) est un entier positif, alors \((H_a)\) admet au moins une solution polynomiale. Cette solution est paire si \(a\) est pair et impaire si \(a\) est impair.

Exemple 1.42. Équation de Tchebytchev.

On considère l’équation différentielle :
\begin{equation*} (1 - t^2) x'' - t x' + a^2 x = 0 \end{equation*}
\(a\) est un réel positif. On cherche les solutions développables en série entière sur \(]-1, 1[\text{.}\)
Solution.
En remplaçant \(x\) par \(f(t) = \sum_{n=0}^{+\infty} a_n t^n\) dans l’équation, on obtient la relation de récurrence :
\begin{equation*} \forall n \in \N, \; (n + 2) (n + 1) a_{n+2} = (n^2 - a^2) a_n \end{equation*}
Pour tout \(n \in \N^*\text{,}\) on a :
\begin{equation*} a_{2n} = \frac{(2n - 2)^2 - a^2}{(2n) (2n - 1)} \frac{(2n - 4)^2 - a^2}{(2n - 2) (2n - 3)} \cdots \frac{-a^2}{2 \cdot 1} a_0 = \frac{a_0}{(2n)!} \prod_{k=0}^{n-1} ((2k)^2 - a^2) \end{equation*}
\begin{equation*} a_{2n + 1} = \frac{(2n - 1)^2 - a^2}{(2n + 1) (2n)} \frac{(2n - 3)^2 - a^2}{(2n - 1) (2n - 2)} \cdots \frac{1 - a^2}{3 \cdot 2} a_1 = \frac{a_1}{(2n + 1)!} \prod_{k=0}^{n-1} ((2k + 1)^2 - a^2) \end{equation*}
Par suite, les solutions de l’équation sur \(]-1, 1[\) sont les fonctions données par :
\begin{equation*} f(t) = a_0 f_0(t) + a_1 f_1(t) \end{equation*}
où :
\begin{align*} f_0(t) \amp = 1 + \sum_{n=1}^{+\infty} \prod_{k=0}^{n-1} \big((2k)^2 - a^2\big) \frac{t^{2n}}{(2n)!}\\ f_1(t) \amp = t + \sum_{n=1}^{+\infty} \prod_{k=0}^{n-1} \big((2k + 1)^2 - a^2\big) \frac{t^{2n + 1}}{(2n + 1)!} \end{align*}
On notera que :
  • Si \(a\) est un entier positif pair, \(a = 2p\) avec \(p \in \N\text{,}\) alors \(a_{2n} = 0\) si \(n \geq p\) et \(f_0\) est une fonction polynomiale paire de degré \(2p\text{.}\)
  • Si \(a\) est un entier positif impair, \(a = 2p + 1\) avec \(p \in \N\text{,}\) alors \(a_{2n + 1} = 0\) si \(n \geq p\) et \(f_1\) est une fonction polynomiale impaire de degré \(2p + 1\text{.}\)
  • Si \(a\) est un entier positif, alors l’équation admet au moins une solution polynomiale.

Transformation d’une EDLS du second ordre.

Pour la simplification de l’étude de certaines proriétés des solutions d’une EDLS du second ordre, on la transforme en des formes plus adaptées. La suite expose les deux transformations les plus utilisées.
  1. Forme normale d’une EDLS du deuxième ordre.
    On suppose que les fonctions \(a\) et \(b\) sont de classe \(\mathcal{C}^1\text{.}\) Alors il existe une fonction \(k\) de classe \(\mathcal{C}^2\) qui ne s’annule pas sur \(I\) telle qu’en posant \(x = k(t) y\text{,}\) \((E)\) soit équivalente à une équation de la forme :
    \begin{align*} (EN)\amp\amp\amp\amp y'' + q(t) y \amp= \psi(t)\mkern100mu \end{align*}
    Cette équation est dite une forme normale de l’équation \((E)\text{.}\)

    Explication.

    Supposons pour l’instant qu’une telle fonction existe. On a alors :
    \begin{equation*} x = k(t) y, \quad x' = k(t) y' + k'(t) y(t), \quad x'' = k(t) y'' + 2 k'(t) y' + k''(t) y \end{equation*}
    \((E)\) sera de ce fait équivalente à l’EDLS d’inconnue \(y\) :
    \begin{equation*} a(t) k(t) y'' + \big(2 a(t) k'(t) + b(t) k(t)\big) y' + \big(a(t) k''(t) + b(t) k'(t) + c(t) k(t)\big) y = \varphi(t) \end{equation*}
    En choisissant \(k\) comme une solution non nulle de l’équation du premier ordre :
    \begin{equation*} 2 a(t) k' + b(t) k = 0 \end{equation*}
    elle sera effectivement de classe \(\mathcal{C}^2\) car \(a\) et \(b\) sont supposées de classe \(\mathcal{C}^1\text{,}\) ne s’annulera pas sur \(I\) et on aura :
    \begin{equation*} (E) \Longleftrightarrow y'' + q(t) y = \psi(t) \end{equation*}
    avec :
    \begin{equation*} q(t) = \frac{a(t) k''(t) + b(t) k'(t) + c(t) k(t)}{a(t) k(t)}, \quad \psi(t) = \frac{\varphi(t)}{a(t) k(t)} \end{equation*}
  2. Forme auto-adjointe.
    On suppose que la fonction \(a\) est de classe \(\mathcal{C}^1\) sur \(I\text{.}\) Alors il existe une fonction \(p\) de classe \(\mathcal{C}^1\) ne s’annulant pas sur \(I\) et une fonction \(q\) continue sur \(I\) telle que \((H)\) soit équivalente à l’équation :
    \begin{equation*} (p(t) x')' + q(t) x = 0 \end{equation*}
    Cette équation est dite une forme auto-adjointe de l’équation homogène \((H)\text{.}\)

    Explication.

    Considérons pour l’instant une fonction \(\sigma\) quelconque de classe \(\mathcal{C}^1\) et ne s’annulant pas sur \(I\text{.}\) Alors :
    \begin{equation*} (H) \Longleftrightarrow a(t) \sigma(t) x'' + b(t) \sigma(t) x' + c(t) \sigma(t) x = 0 \end{equation*}
    Si on choisit \(\sigma\) comme une solution non nulle sur \(I\) de l’EDLS du premier ordre :
    \begin{equation*} a(t) \sigma' + (a'(t) - b(t)) \sigma = 0 \end{equation*}
    on aura \((a \sigma)' = b \sigma\) et \((H)\) se ramène donc à :
    \begin{equation*} (a(t) \sigma(t) x')' + c(t) \sigma(t) x = 0 \end{equation*}
    Il suffit de poser \(p = a \sigma\) qui est bien de classe \(\mathcal{C}^1\) et ne s’annule pas sur \(I\) et \(q = c \sigma\text{.}\)