Sauter au contenu

Exercices 1.4 Exercices d’approfondissement

1. Lemme de Gronwall.

Soit un intervalle \(I\) de \(\R\text{.}\) On fixe un point \(t_0\) de \(I\text{.}\)

(a) Version réelle.

Soit une application continue positive \(\varphi : I\longmapsto \R\text{.}\) On suppose qu’il existe \(\alpha:I\longrightarrow \R\) continue positive et \(M\in\R\) tels que
\begin{equation*} \forall t\in I,\; \varphi(t)\leq M+\Big|\int_{t_0}^t \alpha(s)\varphi(s)\dt s\Big| \end{equation*}
Montrer que
\begin{equation*} \forall t\in I,\; \varphi(t)\leq M\exp\bigg(\Big|\int_{t_0}^t \alpha(s)\dt s\Big|\bigg) \end{equation*}
Solution.
On introduit la fonction \(\beta\) définie sur \(I\) par
\begin{equation*} \beta(t)=\bigg(M+\int_{t_0}^t\alpha(s)\varphi(s)\dt s\bigg) \exp\bigg({-\!\!\int_{t_0}^t\alpha(s)\dt s}\bigg) \end{equation*}
\(\beta\) est de classe \(\mathcal C^1\) et on a
\begin{align*} \beta'(t) \amp= \bigg(\alpha(t)\varphi(t)-\alpha(t)\Big(M+\int_{t_0}^t\alpha(s)\varphi(s)\dt s\Big)\bigg)\exp\bigg({-\!\!\int_{t_0}^t\alpha(s)\dt s}\bigg)\\ \amp= \alpha(t)\bigg(\varphi(t)-\Big(M+\int_{t_0}^t\alpha(s)\varphi(s)\dt s\Big)\bigg)\exp\bigg({-\!\!\int_{t_0}^t\alpha(s)\dt s}\bigg) \end{align*}
Si \(t\geq t_0\text{,}\) la fonction \(\alpha\) étant positive, on a \(\int_{t_0}^t\alpha(s)\dt s=\Big|\int_{t_0}^t\alpha(s)\dt s\Big|\) et donc \(\beta'(t)\leq 0\text{.}\) La fonction \(\beta\) est donc décroissante sur l’intervalle \(I\cap[t_0,+\infty[\text{.}\) Ce qui conduit à \(\beta(t)\leq\beta(t_0)=M\) pour tout \(t\geq t_0\) et ainsi
\begin{equation*} \forall t\geq t_0,\; M+\int_{t_0}^t\alpha(s)\varphi(s)\dt s\leq M\exp\Big(\int_{t_0}^t\alpha(s)\dt s\Big) \end{equation*}
Soit
\begin{equation*} \forall t\geq t_0,\; \varphi(t)\leq M\exp\Big(\int_{t_0}^t\alpha(s)\dt s\Big) \end{equation*}

(b) Version vectorielle.

On considère une fonction continue \(f:I\longrightarrow E\text{.}\) On suppose qu’il existe \(a:I\longrightarrow \mathcal L(E)\) continue et \(M\in\R\) tels que
\begin{equation*} \forall t\in I,\; \nm{f(t)}\leq M+\Big\Vert \int_{t_0}^t a(s)\cdot f(s)\dt s\Big\Vert \end{equation*}
Montrer que
\begin{equation*} \forall t\in I,\;\nm{f(t)}\leq M\exp\bigg(\Big|\int_{t_0}^t \nmm{a(s)}\dt s\Big|\bigg) \end{equation*}
Solution.
Il suffit d’appliquer le résultat précédent aux fonctions continues positives \(\varphi:t\longmapsto \nmm{a(t)}\) et \(\alpha:t\longmapsto \nm{f(t)}\) en remarquant que
\begin{equation*} \forall t\in I,\;\bigg\Vert\int_{t_0}^t a(s)\cdot f(s)\dt s\bigg\Vert\leq \bigg|\int_{t_0}^t\nmm{a(s)}\nm{f(s)}\dt s\bigg| \end{equation*}

(c) Application.

Utiliser ce résultat pour montrer l’unicité de la solution d’un problème de Cauchy relatif à une EDL du premier ordre.
Solution.
Voir exercices d’approfondissement

2. Expression des solutions quand \(a(t) \circ a(s) = a(s) \circ a(t)\).

(a)

On considère une EDL du premier ordre homogène
\begin{equation*} x' = a(t) \cdot x \end{equation*}
et on suppose que \(a(t) \circ a(s) = a(s) \circ a(t)\) pour tous \(t, s \in I\text{.}\) On fixe \(t_0 \in I\text{.}\) Montrer que les solutions de \((H)\) sont les fonctions
\begin{equation*} t \longmapsto \exp\bigg(\int_{t_0}^t a(s) \, ds\bigg) \cdot v \end{equation*}
\(v\) est un vecteur quelconque de \(E\text{.}\) Quel est l’unique solution de \((H)\) telle que \(f(t_0) = x_0\) lorsque \(x_0 \in E\) est donnée ?
Solution.
Soit \(v \in E\) et considérons les fonctions
\begin{equation*} A : t \longmapsto \int_{t_0}^t a(s) \, ds \quad \text{et} \quad f : t \longmapsto \e^{A(t)} \cdot v \end{equation*}
\(A\) est dérivable de dérivée \(a\) et on a pour tout \((t, s) \in I^2\)
\begin{equation*} A'(t) \circ A(t) = \int_{t_0}^t a(t) \circ a(s) \, ds = \int_{t_0}^t a(s) \circ a(t) \, ds = A(t) \circ A'(t) \end{equation*}
Un résultat usuel affirme que dans ce cas, l’application \(B : t \longmapsto \e^{A(t)}\) est dérivable de dérivée \(B'(t) = A'(t) \circ \e^{A(t)}\text{.}\) Ensuite, cela implique que la fonction \(f\) est dérivable et que
\begin{equation*} f'(t) = A'(t) \circ \e^{A(t)} \cdot v = a(t) \cdot f(t) \end{equation*}
La fonction \(f\) est donc une solution de \((H)\text{.}\) C’est l’unique solution de \((H)\) qui vérifie \(f(t_0) = v\text{.}\) Le vecteur \(v\) étant quelconque dans \(E\text{,}\) cela prouve que toutes les solutions de \((H)\) sont de la forme de \(f\text{.}\)

(b)

Résoudre sur \(\R\) le système différentiel \(X' = A(t)X\) lorsque
\begin{equation*} A(t) = \begin{pmatrix} 0 \amp 1/2 \amp 0 \\ -1/2 \amp 0 \amp 0 \\ 0 \amp 0 \amp 1 + \sin t \end{pmatrix} \end{equation*}
Solution.
La condition \(A(t)A(s) = A(s)A(t)\) est bien vérifiée et on a
\begin{equation*} \int_0^t A(s) \, ds = \begin{pmatrix} 0 \amp t/2 \amp 0 \\ -t/2 \amp 0 \amp 0 \\ 0 \amp 0 \amp t - \cos t + 1 \end{pmatrix} \end{equation*}
et ensuite
\begin{equation*} \exp\bigg(\int_0^t A(s) \, ds\bigg) = \begin{pmatrix} \cos(t/2) \amp -\sin(t/2) \amp 0 \\ \sin(t/2) \amp \cos(t/2) \amp 0 \\ 0 \amp 0 \amp \e^{t - \cos t + 1} \end{pmatrix} \end{equation*}
Alors les solutions du système différentiel sont les fonctions
\begin{equation*} t \longmapsto \lambda_1 \begin{pmatrix} \cos(t/2) \\ \sin(t/2) \\ 0 \end{pmatrix} + \lambda_2 \begin{pmatrix} -\sin(t/2) \\ \cos(t/2) \\ 0 \end{pmatrix} + \lambda_3 \begin{pmatrix} 0 \\ 0 \\ \e^{t - \cos t} \end{pmatrix} \end{equation*}

3. Solutions bornées d’une équation différentielle linéaire à coefficients constants.

Soit \(A \in \mathcal M_d(\C)\text{.}\)

(a)

Montrer que l’application \(t \longmapsto \e^{t A}\) est bornée sur \(\R\) si et seulement si
  • \(\displaystyle \forall \lambda \in \OPN{Sp}(A),\; \re \lambda \leq 0\)
  • \(\displaystyle \forall \lambda \in \OPN{Sp}(A),\; \re \lambda = 0 \Rightarrow \ker(A - \lambda I)^2 = \ker(A - \lambda I)\)
Solution.
Considérons une formule de trigonalisation \(A = PTP^{-1}\)
\begin{equation*} T = \begin{pmatrix} \lambda_1 I_{\alpha_1} + N_1 \amp \amp \amp \\ \amp \lambda_2 I_{\alpha_2} + N_2 \amp \amp \\ \amp \amp \ddots \amp \\ \amp \amp \amp \lambda_r I_{\alpha_r} + N_r \end{pmatrix} \end{equation*}
\(\lambda_1, \ldots, \lambda_r\) sont les valeurs propres distinctes de \(A\text{,}\) \(\alpha_1, \ldots, \alpha_r\) leurs multiplicités respectives et \(N_1, \ldots, N_r\) des matrices nilpotentes. Alors \(\e^{tA} = P \e^{tT} P^{-1}\) avec
\begin{equation*} \e^{tT} = \begin{pmatrix} \e^{\lambda_1 t} \e^{t N_1} \amp \amp \amp \\ \amp \e^{\lambda_2 t} \e^{t N_2} \amp \amp \\ \amp \amp \ddots \amp \\ \amp \amp \amp \e^{\lambda_r t} \e^{t N_r} \end{pmatrix} \end{equation*}
L’application \(t \longmapsto \e^{tA}\) est donc bornée sur \(\R\) si et seulement si toutes les applications \(t \longmapsto \e^{\lambda_k t} \e^{t N_k}\) le sont. Or si \(\lambda \in \C\) et \(N\) est une matrice nilpotente d’indice de nilpotence \(p\text{,}\) alors
\begin{equation*} \e^{\lambda t} \e^{t N} = \sum_{k=0}^{p-1} \frac{t^k \e^{\lambda t}}{k!} N^k \end{equation*}
Puisque \(|t^k \e^{\lambda t}| = t^k \e^{t \re \lambda}\text{,}\) alors la fonction \(t \longmapsto t^k \e^{\lambda t}\) est bornée sur \(\R\) si et seulement si (\(k \gt 0\) et \(\re \lambda \lt 0\)) ou (\(k = 0\) et \(\re \lambda \leq 0\)). On en déduit que la fonction \(t \longmapsto \e^{\lambda t} \e^{t N}\) est bornée si et seulement si
\begin{equation*} (N = 0 \text{ et } \re \lambda \leqslant 0) \text{ ou } (N \ne 0 \text{ et } \re \lambda \lt 0) \end{equation*}
Et finalement, l’application \(t \longmapsto \e^{tA}\) est bornée si et seulement si
\begin{equation*} \forall k \in \iic{1, r},\; \begin{cases} \re \lambda_k \leq 0 \\ \re \lambda_k = 0 \Rightarrow N_k = 0 \end{cases} \end{equation*}
sachant que la condition \(N_k=0\) équivaut à \(\ker(A-\lambda_kI)^{\alpha_k}=\ker(A-\lambda_kI)\) ou encore que le sous-espace propre de \(A\) en \(\lambda_k\) est égal à son sous-espace caractéristique.

(b)

Quelles sont les solutions \(t \longmapsto \e^{tA}V\) du système différentiel \(X' = AX\) qui sont bornées ?
Solution.
Soit \(V \in \mathcal M_{n,1}(\C)\) et considérons la solution \(f : t \longmapsto \e^{tA} V\text{.}\) Décomposons \(V\) sous la forme \(V = V_1 + V_2 + \cdots + V_r\) où pour tout \(k \in \iic{1, r}\text{,}\) \(V_k \in \ker(A - \lambda_k I)^{\alpha_k}\text{.}\) On peut poser pour tout \(k \in \iic{1, r}\)
\begin{equation*} V_k = P^{-1} \begin{pmatrix} 0 \\ \vdots \\ W_k \\ \vdots \\ 0 \end{pmatrix} \end{equation*}
\(W_k\in\mathcal M_{\alpha_k,1}(\C)\text{.}\) On a alors pour tout \(t \in \R\text{,}\)
\begin{equation*} f(t) = P \begin{pmatrix} \e^{\lambda_1 t} \e^{t N_1} W_1 \\ \e^{\lambda_2 t} \e^{t N_2} W_2 \\ \vdots \\ \e^{\lambda_r t} \e^{t N_r} W_r \end{pmatrix} \end{equation*}
et donc \(f\) est bornée si et seulement si les fonctions \(g_k : t \longmapsto \e^{\lambda_k t} \e^{t N_k} W_k\) sont toutes bornées.
  • Si \(\re \lambda_k \lt 0\text{,}\) alors la matrice \(\e^{\lambda_k t} \e^{t N_k}\) est bornée et donc \(g_k\) est bornée.
  • Si \(\re \lambda_k = 0\text{,}\) on introduit l’entier \(\beta = \max\{j \in \N \;|\; N_k^j W_k \ne 0\}\text{.}\) On peut alors écrire
    \begin{equation*} g_k(t) = \sum_{j=0}^{\beta-1} \frac{t^j \e^{\lambda_k t}}{j!} N_k^j W_k \end{equation*}
    La fonction \(g_k\) est bornée si et seulement si les fonctions \(t \longmapsto t^j \e^{\lambda_k t}\) sont bornées. Alors \(g_k\) ne peut être bornée que si \(\beta = 1\text{,}\) c’est-à-dire si \(N_k W_k = 0\) ou encore \(V_k \in E_{\lambda_k}(A)\text{.}\)
  • Si \(\re \lambda_k \gt 0\text{,}\) alors \(t \longmapsto \e^{\lambda_k t}\) n’est pas bornée et donc \(g_k\) ne peut être bornée que si \(W_k = 0\) ou encore \(V_k = 0\text{.}\)
Ainsi, la solution \(f : t \longmapsto \e^{tA} V\) de \((H)\) est bornée si et seulement si
\begin{equation*} V \in \underset{k \in I}{\bigoplus} \ker(A - \lambda_k I)^{\alpha_k} \oplus \underset{k \in J}{\bigoplus} \ker(A - \lambda_k I) \end{equation*}
\(I = \{k \in \iic{1, r} \;|\; \re \lambda_k \lt 0\}\) et \(J = \{k \in \iic{1, r} \;|\; \re \lambda_k = 0\}\text{.}\)

4. Théorème de l’application spectrale.

Soit \(\sum a_n z^n\) une série entière de rayon de convergence infini. On note \(f\) sa somme sur \(\C\text{.}\)
  1. Montrer que pour toute matrice \(M \in \mathcal M_d(\C)\text{,}\) la série \(\sum a_n M^n\) converge. On note également \(f(M)\) sa somme.
  2. Montrer que \(\OPN{Sp}\big(f(M)\big) = f\big(\OPN{Sp}(M)\big)\text{.}\)
  3. Soit \(\mu\) une valeur propre de \(f(M)\text{.}\) On suppose que \(f'(\lambda) \ne 0\) pour toute valeur propre \(\lambda\) de \(M\) telle que \(f(\lambda) = \mu\text{.}\) Montrer que
    \begin{equation*} E_\mu\big(f(M)\big) = \bigoplus_{\substack{\lambda \in \OPN{Sp}(M) \\ f(\lambda) = \mu}} E_\lambda(M) \end{equation*}
  4. On suppose que \(f\) induit une injection sur \(\OPN{Sp}(M)\text{.}\) Soit \(\lambda \in \OPN{Sp}(M)\text{.}\)
    • Montrer que les valeurs propres \(\lambda\) de \(M\) et \(f(\lambda)\) de \(f(M)\) ont la même multiplicité.
    • Montrer que si \(f'(\lambda) \ne 0\text{,}\) alors
      \begin{equation*} \forall k \in \N^*,\; \ker (f(M) - f(\lambda)I)^k = \ker (M - \lambda I)^k \end{equation*}
Solution.
  1. Pour tout \(n \in \N\text{,}\) on a \(\|a_n M^n\| \leq |a_n| \|M\|^n\text{.}\) Puisque la série entière \(\sum a_n z^n\) a un rayon de convergence infini, la série \(\sum |a_n| \|M\|^n\) converge et donc la série \(\sum a_n M^n\) converge absolument.
  2. Écrivons une formule de trigonalisation de \(M\) : \(M = PTP^{-1}\)
    \begin{equation*} T = \begin{pmatrix} T_1 \amp \amp \amp \\ \amp T_2 \amp \amp \\ \amp \amp \ddots \amp \\ \amp \amp \amp T_r \end{pmatrix} \end{equation*}
    chaque bloc \(T_k\) étant triangulaire supérieure avec une même valeur propre \(\lambda_k\) de \(M\) sur sa diagonale. On peut alors justifier que \(f(M) = Pf(T)P^{-1}\) avec
    \begin{equation*} f(T) = \begin{pmatrix} f(T_1) \amp \amp \amp \\ \amp f(T_2) \amp \amp \\ \amp \amp \ddots \amp \\ \amp \amp \amp f(T_r) \end{pmatrix} \end{equation*}
    et \(f(T_k)\) est triangulaire supérieure d’éléments diagonaux tous égaux à \(f(\lambda_k)\text{.}\) Ainsi,
    \begin{equation*} \OPN{Sp}\big(f(M)\big) = f\big(\OPN{Sp}(M)\big) \end{equation*}
  3. Posons
    \begin{equation*} F_\mu = \bigoplus_{\substack{\lambda \in \OPN{Sp}(M) \\ f(\lambda) = \mu}} E_\lambda(M) \end{equation*}
    Soit \(\lambda\) une valeur propre de \(M\) telle que \(f(\lambda) = \mu\text{.}\) On a alors pour tout \(V \in E_\lambda(M)\)
    \begin{equation*} f(M)V = \sum_{n=0}^{+\infty} a_n M^n V = \sum_{n=0}^{+\infty} a_n \lambda^n V = f(\lambda)V \end{equation*}
    Ainsi, \(E_\lambda(M) \subset E_\mu\big(f(M)\big)\text{.}\) Par suite, \(F_\mu \subset E_\mu\big(f(M)\big)\text{.}\) La réciproque nécessite le recours à la réduction de Jordan. Examinons ce qui se passe avec une cellule de Jordan \(J_p(\lambda) = \lambda I_p + N_p\) dans la décomposition de \(M\text{.}\) Pour tout \(n \in \N\text{,}\) on peut écrire
    \begin{equation*} J_p(\lambda)^n = \sum_{k=0}^{p-1} \lambda^{n-k} \binom{n}{k} N_p^k \end{equation*}
    Avec la convention \(\binom{n}{k} = 0\) si \(k \gt n\text{.}\) Pour chaque \(k \lt p\text{,}\) on a
    \begin{equation*} \binom{n}{k} \lambda^{n-k} = \frac{n(n-1)\cdots(n-k+1)}{k!} \lambda^{n-k} \end{equation*}
    Donc la série \(\sum \binom{n}{k} a_n \lambda^{n-k}\) est convergente de somme \(\frac{f^{(k)}(\lambda)}{k!}\text{.}\) Par linéarité de la somme d’une série convergente, on a donc
    \begin{equation*} f\big(J_p(\lambda)\big) = \sum_{n=0}^{+\infty} a_n J_p(\lambda)^n = \sum_{k=0}^{p-1} \frac{f^{(k)}(\lambda)}{k!} N_p^k \end{equation*}
    Concrètement, \(f\big(J_p(\lambda)\big)\) est de la forme
    \begin{equation*} \left(\begin{array}{cccccc} f(\lambda) \amp f^{\prime}(\lambda) \amp * \amp \cdots \amp * \amp * \\ 0 \amp f(\lambda) \amp f^{\prime}(\lambda) \amp \cdots \amp * \amp * \\ 0 \amp 0 \amp f(\lambda) \amp \cdots \amp * \amp * \\ \vdots \amp \vdots \amp \vdots \amp \ddots \amp \vdots \amp \vdots \\ 0 \amp 0 \amp 0 \amp \cdots \amp f(\lambda) \amp f^{\prime}(\lambda) \\ 0 \amp 0 \amp 0 \amp \cdots \amp 0 \amp f(\lambda) \end{array}\right) \end{equation*}
    Ainsi, \(f\big(J_p(\lambda)\big) - \mu J_p\) est triangulaire supérieure stricte et tous les coefficients sur sa deuxième diagonale supérieure valent \(f'(\lambda) \ne 0\text{.}\) Elle est donc échelonnée de rang \(p-1\text{.}\) Si on écrit maintenant \(M = QTQ^{-1}\)\(T\) est la réduite de Jordan de \(M\text{,}\) alors \(f(M) - \mu I_d = Q\big(f(T) - \mu I_d\big)Q^{-1}\text{.}\) Soit \(J_{p_1}(\lambda_1'), \ldots, J_{p_s}(\lambda_s')\) la liste de toutes les cellules de Jordan de \(T\) qui correspondent à des valeurs propres de \(M\) telle que \(f(\lambda_k') = \mu\) et soit \(J\) le bloc diagonal qui regroupe toutes les autres cellules et dont la taille sera notée \(q\text{,}\) quitte à réordonner toutes les cellules de \(T\text{,}\) on peut écrire
    \begin{equation*} f(T) - \mu I_d = \begin{pmatrix} f(J_{p_1}\big(\lambda_1')\big) - \mu I_{p_1} \amp \amp \amp \\ \amp \ddots \amp \amp \\ \amp \amp f(J_{p_s}\big(\lambda_s')\big) - \mu I_{p_s} \amp \\ \amp \amp \amp f(J) - \mu I_{q} \end{pmatrix} \end{equation*}
    Le bloc \(f(J) - \mu I_q\) est inversible car \(\mu\) ne figure pas dans la diagonale de \(f(J)\text{.}\) Donc
    \begin{equation*} \rg\big(f(M) - \mu I_d\big) = d - s \end{equation*}
    D’un autre côté, pour chaque valeur propre \(\lambda\) de \(M\text{,}\) le nombre de cellules de Jordan de \(M\) relative à \(\lambda\) est égal à \(\dim E_{\lambda}(M)\text{.}\) Ce qui prouve que \(s = \dim F_\mu\) et ainsi
    \begin{equation*} \dim F_\mu = \dim E_\mu\big(f(M)\big) \end{equation*}
    En conclusion,
    \begin{equation*} E_\mu\big(f(M)\big) = F_\mu = \bigoplus_{\substack{\lambda \in \OPN{Sp}(M) \\ f(\lambda) = \mu}} E_\lambda(M) \end{equation*}
    • Reprenons l’expression de \(\chi_{f(M)}\) donnée précédemment
      \begin{equation*} \chi_{f(M)} = \prod_{k=1}^r (X - f(\lambda_k))^{\alpha_k} \end{equation*}
      \(\alpha_k\) est la multiplicité de la valeur propre \(\lambda_k\) de \(M\text{.}\) Puisque on a supposé que \(f\) induit une injection sur \(\OPN{Sp}(M)\text{,}\) alors les nombres \(f(\lambda_k)\) sont distincts et donc \(f(\lambda_k)\) est une racine de multiplicité \(\alpha_k\) de \(\chi_{f(M)}\text{.}\)
    • On suppose que \(f'(\lambda) \ne 0\text{.}\) Il va falloir passer encore par la réduction de Jordan de la matrice \(M\text{.}\)

5. Application résolvante d’une équation différentielle linéaire.

On considère une EDL du premier ordre
\begin{align*} (E) \amp\amp x'\amp=a(t).x+b(t) \end{align*}
et on note \((H)\) son équation homogène. On appelle équation résolvante de \((E)\text{,}\) l’équation différentielle linéaire homogène d’ordre 1
\begin{equation*} u' = a(t) \circ u \end{equation*}
l’inconnue \(u\) étant une application de classe \(\mathcal C^1\) de \(I\) dans \(\mathcal L(E)\text{.}\) On appelle application résolvante de \((H)\) l’application définie sur \(I^2\) par
\begin{equation*} \forall (t, s) \in I^2 \qquad R(t, s) = r_s(t) \end{equation*}
\(r_s\) est l’unique solution de \((RH)\) qui vérifie \(r_s(s) = \id_E\text{.}\)
  1. Montrer que pour tout \((t, s, \sigma) \in I^3\text{,}\) \(R(t, s) \circ R(s, \sigma) = R(t, \sigma)\text{.}\) En déduire que \(R(t, s)\) est inversible et que \(R(t, s)^{-1} = R(s, t)\text{.}\)
  2. Exprimer les solutions de \((RH)\) et celles de \((H)\) en fonction de \(R\text{.}\)
  3. Donner l’expression de \(R(t, s)\) dans le cas où l’application \(a\) est constante.
  4. Montrer que si \(a(t) \circ a(s) = a(s) \circ a(t)\) pour tout \(t, s \in I\text{,}\) alors
    \begin{equation*} R(t, s) = \exp\bigg(\int_s^t a(\theta) \, d\theta\bigg) \end{equation*}
  5. On fixe \(t_0 \in I\) et on considère l’application \(r : t \longmapsto R(t, t_0)\text{.}\) Vérifier que pour tout \((t, s) \in I^2\text{,}\) \(R(t, s) = r(t) \circ r(s)^{-1}\) et en déduire que \(R\) est de classe \(\mathcal C^1\) sur \(I^2\) avec
    \begin{equation*} \frac{\partial R}{\partial t}(t, s) = a(t) \circ R(t, s) \quad \text{et} \quad \frac{\partial R}{\partial s}(t, s) = -R(t, s) \circ a(s) \end{equation*}
  6. On suppose que \(a\) est bornée et on pose \(M = \sup\limits_{s \in I} \|a(s)\|\text{.}\) Montrer que
    \begin{equation*} \forall t \in I,\; \|R(t, t_0) - \id_E\| \leq \e^{M|t - t_0|} - 1 \end{equation*}
    En déduire que pour toute solution \(f\) de l’équation homogène \((H)\)
    \begin{equation*} \|f(t) - f(t_0)\| \leq \big(\e^{M|t - t_0|} - 1\big) \|f(t_0)\| \end{equation*}
  7. Soit \(x_0 \in E\text{.}\) Montrer que l’unique solution \(g\) de l’équation complète \((E)\) telle que \(g(t_0) = x_0\) est donnée par la formule de Duhamel :
    \begin{equation*} \forall t \in I \quad g(t) = R(t, t_0) x_0 + \int_{t_0}^t R(t, s) \cdot b(s) \, ds \end{equation*}
Solution.
  1. Pour \(s \in I\) fixé, la fonction \(t \longmapsto R(t, s)\) est par définition l’unique solution de \((RH)\) qui prend la valeur \(\id_E\) en \(t = s\text{.}\) Si on fixe \(s\) et \(\sigma\) dans \(I\text{,}\) les fonctions \(u : t \longmapsto R(t, s) \circ R(s, \sigma)\) et \(v : t \longmapsto R(t, \sigma)\) sont des solutions de \((RH)\) et on a \(u(s) = v(s) = R(s, \sigma)\text{.}\) On a donc \(u = v\) d’après le théorème de Cauchy-Lipschitz, soit \(R(t, s) \circ R(s, \sigma) = R(t, \sigma)\) pour tout \(t \in I\text{.}\) En particulier lorsque \(\sigma = t\text{,}\) on obtient \(R(t, s) \circ R(s, t) = R(t, t) = \id_E\) donc \(R(t, s)\) est inversible d’inverse \(R(s, t)\text{.}\)
  2. Fixons \(t_0 \in I\text{.}\) Pour tout \(u_0 \in \mathcal L(E)\text{,}\) l’unique solution \(u\) de \((RH)\) telle que \(u(t_0) = u_0\) est donnée par \(u(t) = R(t, t_0) \circ u_0\text{.}\) Pour tout \(x_0 \in E\text{,}\) l’unique solution \(f\) de \((H)\) telle que \(f(t_0) = x_0\) est donnée par \(f(t) = R(t, t_0) \cdot x_0\text{.}\)
  3. On suppose que \(a\) est constante. Pour tout \(s \in I\text{,}\) l’unique solution \(f\) de \((H)\) telle que \(f(s) = x_0\) est donnée par \(f(t) = \e^{(t - s)a} \cdot x_0\text{.}\) On a donc
    \begin{equation*} \forall (t, s) \in I,\; \forall x_0 \in E,\; R(t, s) \cdot x_0 = \e^{(t - s)a} \cdot x_0 \end{equation*}
    Ce qui implique que \(R(t, s) = \e^{(t - s)a}\text{.}\)
  4. On suppose donc que \(a(t)\) et \(a(s)\) commutent pour tout \(t, s \in I\text{.}\) Posons alors
    \begin{equation*} U(t, s) = \exp\bigg(\int_s^t a(\theta) \, d\theta\bigg) \end{equation*}
    Fixons \(s \in I\) et considérons la fonction \(r : t \longmapsto U(t, s)\text{.}\) L’application \(r\) est dérivable sur \(I\) et on a
    \begin{equation*} r'(t) = a(t) \circ \exp\bigg(\int_s^t a(\theta) \, d\theta\bigg) = a(t) \circ r(t) \end{equation*}
    \(r\) est donc une solution de \((RH)\) sur \(I\text{.}\) Notons par ailleurs que \(r(s) = \id_E\text{.}\) Donc par définition de \(R\text{,}\) on a
    \begin{equation*} \forall t \in I,\; U(t, s) = R(t, s) \end{equation*}
    Ces égalités sont valables pour tout \(s \in I\) donc \(R = U\text{.}\)
  5. \(r\) est l’unique solution de \((RH)\) telle que \(r(t_0) = \id_E\text{.}\) Soient \(r, s \in I\text{.}\) On a \(R(t, s) = R(t, t_0) \circ R(s, t_0)^{-1} = r(t) \circ r(s)^{-1}\text{.}\) Les fonctions \(t \longmapsto R(t, s)\) et \(s \longmapsto R(t, s)\) sont donc dérivables et on a
    \begin{equation*} \frac{\partial R}{\partial t}(t, s) = r'(t) \circ r(s)^{-1} = a(t) \circ r(t) \circ r(s)^{-1} = a(t) \circ R(t, s) \end{equation*}
    \begin{equation*} \frac{\partial R}{\partial s}(t, s) = r(t) \circ \frac{d}{ds} r(s)^{-1} = -r(t) \circ \big(r(s)^{-1} \circ r'(s) \circ r(s)^{-1}\big) = -R(t, s) \circ a(s) \end{equation*}
  6. On a
    \begin{equation*} R(t, t_0) - \id_E = r(t) - r(t_0) = \int_{t_0}^t a(s) \circ r(s) \, ds \end{equation*}
    \begin{equation*} r(t) - r(t_0) = \int_{t_0}^t a(s) \circ \big(\id_E + (r(s) - r(t_0))\big) \, ds \end{equation*}
    \begin{equation*} \|r(t) - r(t_0)\| \leq M \bigg|\int_{t_0}^t \big(1 + \|r(s) - r(t_0)\|\big) \, ds\bigg| \end{equation*}
    On introduit maintenant la fonction réelle continue \(\varphi\) définie par
    \begin{equation*} \forall t \in I,\; \varphi(t) = 1 + \|r(t) - r(t_0)\| \end{equation*}
    Si \(t \gt t_0\text{,}\) on a d’après l’inégalité précédente
    \begin{equation*} \varphi(t) \leq 1 + M \int_{t_0}^t \varphi(s) \, ds \end{equation*}
    En posant
    \begin{equation*} \psi(t) = \e^{-M(t - t_0)} \bigg(\frac{1}{M} + \int_{t_0}^t \varphi(s) \, ds\bigg) \end{equation*}
    on a
    \begin{equation*} \psi'(t) = \bigg(\varphi(t) - 1 - M \int_{t_0}^t \varphi(s) \, ds\bigg) \e^{-M(t - t_0)} \leq 0 \end{equation*}
    Et donc \(\psi\) est décroissante sur \(I \cap [t_0, +\infty[\text{.}\) Comme \(\psi(t_0) = \frac{1}{M}\text{,}\) alors \(\psi(t) \leq \frac{1}{M}\) sur \(I \cap [t_0, +\infty[\text{.}\) Ainsi
    \begin{equation*} \forall t \in I \cap [t_0, +\infty[,\; \varphi(t) \leq \e^{M(t - t_0)} \end{equation*}
    et donc
    \begin{equation*} \forall t \in I \cap [t_0, +\infty[,\; \|r(t) - r(t_0)\| \leq \e^{M(t - t_0)} - 1 \end{equation*}
    Si \(f\) est une solution de \((H)\text{,}\) alors \(f(t) = r(t) \cdot f(t_0)\) et donc
    \begin{equation*} \|f(t) - f(t_0)\| = \|(r(t) - r(t_0)) \cdot f(t_0)\| \leq \big(\e^{M|t - t_0|} - 1\big) \|f(t_0)\| \end{equation*}
  7. Les solutions de l’équation homogène s’écrivent sous la forme \(f(t) = R(t, t_0) \cdot v\)\(v\) est un vecteur quelconque de \(E\text{.}\) La variation des constantes revient donc à faire varier le vecteur \(v\text{.}\) Posons donc \(x(t) = R(t, t_0) \cdot v(t)\text{.}\) On a alors
    \begin{equation*} (E) \Longleftrightarrow R(t, t_0) \cdot v'(t) = b(t) \Longleftrightarrow v'(t) = R(t_0, t) \cdot b(t) \end{equation*}
    \begin{equation*} \exists v_0 \in E \;;\; v(t) = v_0 + \int_{t_0}^t R(t_0, s) \cdot b(s) \, ds \end{equation*}
    \begin{equation*} \exists v_0 \in E \;;\; x(t) = R(t, t_0) \cdot v_0 + \int_{t_0}^t R(t, s) \cdot b(s) \, ds \end{equation*}
    Dans cette dernière expression de \(x(t)\text{,}\) on a \(x(t_0) = v_0\) donc L’unique solution \(f\) de \((E)\) qui vérifie \(f(t_0) = x_0\) est donnée par la :
    \begin{equation*} \forall t \in I,\; f(t) = R(t, t_0) \cdot x_0 + \int_{t_0}^t R(t, s) \cdot b(s) \, ds \end{equation*}
    c’est la formule de Duhamel. Elle généralise l’expression de la solution du problème de Cauchy d’une équation à coefficients constants donnée dans Théorème 1.24

6. Déterminant de l’application résolvante.

On reprend les notations de l’exercice précédent.
  • Montrer que
    \begin{equation*} \forall (t, s) \in I^2,\; \det\big(R(t, s)\big) = \exp\bigg(\int_s^t \tr\big(a(\theta)\big) \, d\theta\bigg) \end{equation*}
  • On suppose que \(I = \R\) et que l’application \(t \longmapsto \|a(t)\|\) est intégrable sur \(\R\text{.}\) Montrer qu’il existe \(\delta \gt 0\) tel que
    \begin{equation*} \forall (t, s) \in \R^2,\; \det\big(R(t, s)\big) \geq \delta \end{equation*}
Solution.
  • Fixons \(s \in I\text{.}\) Soit \(\mathcal B = (e_1, e_2, \ldots, e_n)\) la base qu’on a fixée dans \(E\text{.}\) Les fonctions \(f_k : t \longmapsto R(t, s) \cdot e_k\) sont des solutions de \((H)\) et leur wronksien est
    \begin{equation*} W(t) = \det_{\mathcal B}(R(t, s) \cdot e_1, \ldots, R(t, s) \cdot e_n) = \det\big(R(t, s)\big) \end{equation*}
    L’équation du wronksien donne ainsi
    \begin{equation*} \frac{d}{dt} \det\big(R(t, s)\big) = \tr\big(a(t)\big) \det \big(R(t, s)\big) \end{equation*}
    Il existe donc un scalaire qui dépend de \(s\) qu’on va noter \(\lambda(s)\) tel que
    \begin{equation*} \forall t \in I,\; \det\big(R(t, s)\big) = \lambda(s) \exp\bigg(\int_s^t \tr\big(a(\theta)\big) \, d\theta\bigg) \end{equation*}
    Mais comme \(\det\big(R(s, s)\big) = \det(\id_E) = 1\text{,}\) alors \(\lambda(s) = 1\) et ainsi
    \begin{equation*} \forall (t, s) \in I^2,\; \det\big(R(t, s)\big) = \exp\bigg(\int_s^t \tr\big(a(\theta)\big) \, d\theta\bigg) \end{equation*}
  • La trace est une forme linéaire continue de \(\mathcal L(E)\) donc il existe une constante \(c \gt 0\) telle que
    \begin{equation*} \forall u \in \mathcal L(E),\; |\tr u| \leq c \|u\| \end{equation*}
    On a donc
    \begin{equation*} \forall t \in \R,\; |\tr a(t)| \leq c \|a(t)\| \end{equation*}
    Ce qui montre que l’application \(t \longmapsto \tr a(t)\) est intégrable sur \(\R\text{.}\) Posons alors
    \begin{equation*} T = \int_{-\infty}^{+\infty} \tr a(\theta) \, d\theta \end{equation*}
    Soit un réel \(\alpha \gt 0\text{.}\) Il existe un réel \(A \gt 0\) tel que
    \begin{equation*} \forall (s, t) \in \R^2,\; |t| \gt A \text{ et } |s| \gt A \longrightarrow \bigg|\,T - \int_s^t \tr\big(a(\theta)\big) \, d\theta\,\bigg| \leq \alpha \end{equation*}
    et donc
    \begin{equation*} \forall (t, s) \in \big(\R \setminus [-A, A]\big)^2,\; \int_s^t \tr\big(a(\theta)\big) \, d\theta \geq T - \alpha \end{equation*}
    Ce qui implique que pour tout \((t, s)\) en dehors du compact \([-A, A]^2\text{,}\) on a
    \begin{equation*} \det\big(R(t, s)\big) \geq \e^{T - \alpha} \gt 0 \end{equation*}
    Sur le compact \([-A, A]^2\text{,}\) l’application continue \((t, s) \longmapsto \det\big(R(t, s)\big)\) est bornée et atteint ses bornes. Comme elle ne s’annule pas sur \([-A, A]^2\text{,}\) alors sa borne inférieure est strictement positive. D’où l’existence d’un réel \(\delta \gt 0\) tel que
    \begin{equation*} \forall (t, s) \in \R^2,\; \det\big(R(t, s)\big) \geq \delta \end{equation*}

7. cas où \(a(t)\) est un endomorphisme antisymétrique.

On suppose que \(E\) est un espace euclidien. On considère une équation différentielle linéaire homogène
\begin{equation*} x' = a(t) \cdot x \end{equation*}
On suppose que pour tout \(t \in I\text{,}\) \(a(t)\) est un endomorphisme antisymétrique.
  • Montrer que si \(f\) est une solution de \((H)\text{,}\) alors \(t \longmapsto \|f(t)\|\) est constante.
  • Soit \(r\) une solution sur \(I\) de l’équation résolvante de \((H)\) :
    \begin{equation*} u' = a(t) \circ u \end{equation*}
    Montrer que s’il existe \(t_0 \in I\) tel que \(r(t_0)\) soit inversible, alors pour tout \((t, s) \in \R^2\text{,}\) \(r(t) \circ \big(r(s)\big)^{-1}\) est une isométrie de \(E\text{.}\)
Solution.
  • Soit \(f\) une solution de \((H)\) sur \(I\text{.}\) La fonction \(\rho : t \longmapsto \|f(t)\|^2\) est alors de classe \(\mathcal C^1\) sur \(I\) et on a
    \begin{equation*} \rho'(t) = 2 \langle f(t), f'(t) \rangle = 2 \langle f(t), a(t) \cdot f(t) \rangle = 0 \end{equation*}
    Donc \(\rho\) est constante sur \(I\text{.}\) Ce qui implique que la fonction \(t \longmapsto \|f(t)\|\) est constante sur \(I\text{.}\)
  • Posons pour tout \(v \in E\text{,}\) \(f_v(t) = r(t) \cdot v\text{.}\) La fonction \(f_v\) est dérivable et
    \begin{equation*} f_v'(t) = r'(t) \cdot v = a(t) \circ r(t) \cdot v = a(t) \cdot f_v(t) \end{equation*}
    Donc \(f_v\) est une solution de \(x' = a(t) \cdot v\text{.}\) Soit maintenant \((v_1, v_2, \ldots, v_d)\) une base de \(E\text{.}\) Pour tout \(k \in \iic{1, d}\text{,}\) on a \(f_{v_k}(t_0) = r(t_0) \cdot v_k\) et comme \(r(t_0)\) est inversible, alors \((f_{v_1}(t_0), \ldots, f_{v_d}(t_0))\) est une base de \(E\text{.}\) La famille \((f_{v_1}, \ldots, f_{v_d})\) est donc un système fondamental de solutions de \((H)\text{.}\) La famille \((r(t) \cdot v_1, \ldots, r(t) \cdot v_d)\) est ainsi une base de \(E\) pour tout \(t \in I\text{.}\) Ce qui implique que \(r(t)\) est inversible pour tout \(t \in I\text{.}\) Par ailleurs, pour tout \(s \in I\) fixé, il est immédiat que la fonction \(t \longmapsto r(t) \circ r(s)^{-1}\) est une solution de \((RH)\text{.}\) Donc pour tout \(v \in E\text{,}\) la fonction
    \begin{equation*} t \longmapsto r(t) \circ r(s)^{-1} \cdot v \end{equation*}
    est une solution de \((H)\text{.}\) La fonction \(t \longmapsto \|r(t) \circ r(s)^{-1} \cdot v\|\) est donc constante. Pour \(t = s\text{,}\) elle prend la valeur \(\|v\|\) donc
    \begin{equation*} \forall t \in I,\; \|r(t) \circ r(s)^{-1} \cdot v\| = \|v\| \end{equation*}
    Ceci pour tout \(v \in E\text{.}\) Alors \(r(t) \circ r(s)^{-1}\) est une isométrie de \(E\) pour tous \(t, s \in I\text{.}\)

8. Solutions périodiques d’un système différentiel périodique.

Soient des applications continues \(A:\R\longrightarrow\mathcal M_d(\C)\) et \(B:\R\longrightarrow \mathcal M_{d,1}(\C)\text{.}\) On suppose que \(A\) et \(B\) sont \(T\)-périodiques. On considère le système différentiel
\begin{equation*} X'=A(t)X +B(t) \qquad (E) \end{equation*}
et note \((H)\) son système homogène.
  1. Soit \(\alpha\) une fonction réelle continue \(T\)-périodique. Donner une cns pour que l’edls \(x'=\alpha(t)x\) admette des solutions \(T\)-périodiques non nulle.
  2. Soit \(G\) une solution du système \((E)\text{.}\) Montrer que \(G\) est \(T\)-périodique si et seulement si \(G(T)=G(0)\text{.}\)
  3. On suppose que l’application \(A\) est constante.
    1. Montrer que \(H\) admet une solution \(T\)-périodique si et seulement si \(A\) admet au moins une VAP \(\lambda\in\mathbf i\frac{2\pi}T\Z\text{.}\)
    2. On suppose que \(B\) est \(T\)-périodique. Soit \(G\) une solution de \((E)\text{.}\) Montrer que \(G\) est \(T\)-périodique si et seulement si
      \begin{equation*} (I_d-\e^{-TA})G(0)=\int_0^T\e^{-sA}B(s)\dt s \end{equation*}
      Montrer que si \((H)\) n’admet aucune solution périodique alors \((E)\) admet une unique solution \(T\)-périodique.
  4. On note \(R\) l’application résolvante de \((H)\text{.}\) Montrer que
    \begin{equation*} \forall (t,s)\in \R^2,\; R(t+T,s+T)=R(t,s) \end{equation*}
  5. Montrer que \((H)\) admet une solution \(T\)-périodique non nulle si et seulement si \(1\) est une VAP de la matrice \(R(T,0)\) .
  6. Soit \(p\in\N^*\text{.}\) Montrer que \((H)\) admet une solution \(pT\)-périodique non nulle si et seulement si \(R(T,0)\) admet une VAP \(\lambda\) telle que \(\lambda^p=1\text{.}\)
  7. Montrer que si \(R(T,0)\) admet au moins une VAP \(\lambda\) telle que \(\lambda^p=1\) et \(\lambda\ne 1\) alors \((H)\) admet au moins une solution \(pT\)-périodique non constante.
  8. On suppose que \(A\) est l’application \(2\pi\)-périodique :
    \begin{equation*} A:t\longmapsto \begin{pmatrix} 0\amp 1/2\amp 0 \\ -1/2\amp 0\amp 0 \\ 0\amp 0\amp 1+\sin t\end{pmatrix} \end{equation*}
    Montrer que
    \begin{equation*} R(t,0)=\begin{pmatrix} \cos(t/2)\amp -\sin(t/2)\amp 0 \\ \sin(t/2)\amp \cos(t/2)\amp 0 \\ 0\amp 0\amp \e^{1-\cos t+t} \end{pmatrix} \end{equation*}
    En déduire que \((H)\) admet des solutions \(\pi\)-périodiques non constantes.
Solution.
  1. Les solutions de l’équation différentielle \(x'=\alpha(t)x\) sont les fonctions \(f:t\longmapsto \lambda \e^{A(t)}\)\(A\) est une primitive de \(\alpha\text{.}\) Si \(\lambda\ne0\) alors \(f\) est \(T\)-périodique si et seulement si pour tout \(t\in\R\text{,}\) \(\e^{A(t+T)-A(t)}=1\text{,}\) ce qui équivaut à
    \begin{equation*} \forall t\in\R,\int_t^{t+T}\alpha(s)\mathrm{d}s\in2\mathbf i\pi\Z \end{equation*}
    Puisque \(\alpha\) est \(T\)-périodique, ceci équivaut à
    \begin{equation*} \int_0^T\alpha(s)\mathrm{d}s\in 2\mathbf i\pi\Z \end{equation*}
  2. Si \(G\) est \(T\)-périodique alors \(G(T)=G(0)\text{.}\)
    Réciproquement supposons que \(G(T)=G(0)\) et considérons \(H:t\longmapsto G(t+T)\text{.}\) Pour tout \(t\in\R\) on a
    \begin{equation*} H'(t)=G'(t+T)=A(t+T)G(t+T)+B(t+T)=A(t)H(t)+B(t) \end{equation*}
    donc \(H\) est une solution de \((E)\text{.}\) En outre on a \(H(0)=G(T)=G(0)\) donc selon le théorème de Cauchy-Lipschitz, \(F=G\text{.}\) Ce qui signifie que \(G\) est \(T\)-périodique.
    1. Soit \(F\) une solution non nulle de \((H)\text{.}\) On a alors \(F(t)=\e^{tA}F(0)\) pour tout \(t\in\R\text{.}\) La fonction constante \(A\) est \(T\)-périodique donc selon la question précédente \(F\) est \(T\)-périodique si et seulement si \(F(T)=F(0)\text{.}\) Ce qui équivaut à
      \begin{equation*} \e^{TA}F(0)=F(0) \end{equation*}
      Comme \(F\) est non nulle alors \(F(0)\ne0\) et donc \(F\) est \(T\)-périodique si et seulement si \(1\) est une VAP de \(\e^{TA}\) et \(F(0)\in E_{1}(\e^{TA})\text{.}\)
      D’après l’exercice , les VAP de \(\e^{TA}\) sont les nombres de la forme \(\e^{T\lambda}\)\(\lambda\) est une VAP de \(A\) donc \(1\) est une VAP de \(\e^{TA}\) si et seulement s’il existe \(\lambda\in\OPN{Sp}(A)\) tel que \(\e^{\lambda T}=1\text{.}\) Ce qui équivaut à \(\lambda\in\mathbf i\frac{2\pi}{T}\Z\text{.}\)
    2. \(G\) est une solution de l’équation complète. Son expression intégrale est
      \begin{equation*} G(t)=\e^{tA}G(0)+\int_0^t\e^{(t-s)A}B(s)\mathrm{d}s= \e^{tA}\bigg(G(0)+\int_0^t\e^{-sA}B(s)\mathrm{d}s\bigg) \end{equation*}
      Elle est \(T\)-périodique si et seulement si \(G(T)=G(0)\text{,}\) ce qui équivaut à
      \begin{equation*} (I_d-\e^{-TA})G(0)=\int_0^T\e^{-sA}B(s)\mathrm{d}s \end{equation*}
      Supposons que \((H)\) n’a aucune solution périodique. Selon la question précédente \(1\) n’est pas une VAP de \(\e^{TA}\) et donc de son inverse \(\e^{-TA}\text{.}\) La matrice \(I_d-\e^{-TA}\) est alors inversible et il existe donc un vecteur \(V\in\mathcal M_{d,1}(\C)\) unique tel que
      \begin{equation*} (I_d-\e^{-TA})V=\int_0^T\e^{-sA}B(s)\mathrm{d}s \end{equation*}
      L’unique solution \(G\) de \((E)\) qui est alors \(T\)-périodique est celle qui vérifie la condition initiale \(G(0)=V\text{.}\)
      Si \((H)\) admet des solutions \(T\)-périodiques alors \(1\) est une VAP de \(\e^{-tA}\text{.}\) L’existence de vecteurs \(V\) qui vérifient \((I_d-\e^{-TA})V=\int_0^T\e^{-sA}B(s)\mathrm{d}s\) dépend alors de la condition
      \begin{equation*} \int_0^T\e^{-sA}B(s)\d s\in\im\big(I_d-\e^{-TA}\big) \end{equation*}
      Si cette condition se réalise alors une solution \(G\) de \((E)\) sera \(T\)-périodique si et seulement si
      \begin{equation*} G(0)\in V_0+\ker\big(I_d-\e^{-TA}\big)=V_0+\ker\big(I_d-\e^{TA}\big) \end{equation*}
      \(V_0\) est une solution quelconque de l’équation \((I_d-\e^{-TA})V=\int_0^T\e^{-sA}B(s)\d s\text{.}\)
  3. Considérons l’équation résolvante de \((H)\) :
    \begin{equation*} U'=A(t)\circ U \qquad (RH) \end{equation*}
    et rappelons que pour un \(s\) fixé la fonction \(U : t\longmapsto R(t,s)\) est l’unique solution de \((RH)\) qui vérifie \(U(s)=I_d\text{.}\)
    Fixons maintenant \(s\in \R\) et considérons la fonction \(r:t\longmapsto R(t+T,s+T)\text{.}\)
    \begin{equation*} r'(t)=\frac{\partial R}{\partial t}(r+T,s+T)=A(t+T)R(t+T,s+T)= A(t)r(t) \end{equation*}
    Donc \(r\) est une solution de \((RH)\) et elle vérifie \(r(s)=R(s+T,s+T)=I_d\text{.}\) Alors par définition de \(R\)
    \begin{equation*} \forall t\in\R,\;R(t+T,s+T)=R(t,s) \end{equation*}
    ceci pour tout \(s\in \R\text{.}\)
    Ensuite pour tout \(t\in\R\text{,}\) on a selon les résultats de l’exercice et la relation précédente
    \begin{equation*} R(t+T,t) = R(t+T,T)R(T,0)R(0,t) = R(t,0)R(T,0)R(t,0)^{-1} \end{equation*}
    \(R(t+T,t)\) est donc semblable à \(R(T,0)\text{.}\)
  4. Considérons une solution non nulle \(F\) de \((H)\text{.}\) Alors pour tout \(t\in\R\) on a \(F(t)=R(t,0)F(0)\text{.}\) \(F\) est \(T\)-périodique si et seulement si \(F(T)=F(0)\) ou encore
    \begin{equation*} R(T,0)F(0)=F(0) \end{equation*}
    Sachant que \(F(0)\ne0\text{,}\) ceci équivaut à ce que \(1\) soit une VAP de \(R(T,0)\) et que \(F(0)\in E_1\big(R(T,0)\big)\text{.}\) Ainsi \((H)\) admet des solutions non nulles \(T\)-périodiques si et seulement si \(1\) est une VAP de \(R(T,0)\) et dans ce cas ces solutions sont les fonctions \(t\longmapsto R(t,0)V\)\(V\in E_1(R(T,0))\setminus\{0\}\) .
  5. \(A\) est \(T\)-périodique donc elle est \(pT\)-périodique. La question précédente implique que \((H)\) admet une solution \(pT\)-périodique non nulle si et seulement si \(1\) est une VAP de \(R(pT,0)\text{.}\) En s’appuyant sur les propriétés de \(R\) on s’aperçoit par ailleurs que pour tout \(n\in\N\)
    \begin{equation*} R\big((n+1)T,0\big)=R\big((n+1)T,T)R(T,0)=R(nT,0)R(T,0) \end{equation*}
    Et donc \(R(nT,0)=R(T,0)^n\) pour tout \(n\in\N\text{.}\) D’après l’exercice \(1\) est donc une VAP de \(R(pT,0)\) si et seulement s’il existe une VAP \(\lambda\) de \(R(T,0)\) telle que \(\lambda^p=1\text{.}\) Dans ce cas ces solutions sont les fonctions \(t\longmapsto R(t,0)V\)\(V\) est un vecteur non nul quelconque de \(E_1(R(T,0)^p)\text{.}\)
  6. Soit \(V\in E_\lambda(R(T,0))\setminus\{0\}\text{.}\) Puisque \(\lambda^p=1\) alors la fonction \(F:t\longmapsto R(t,0)V\) est une solution \(pT\)-périodique non nulle de \((H)\text{.}\) Supposons qu’elle est constante. On aura alors \(R(T,0)V=R(0,0)V=V\text{.}\) Le vecteur \(V\) serait donc associé à \(1\text{,}\) ce qui est contradictoire puisqu’on a supposé que \(\lambda\ne1\text{.}\)
  7. On suppose que \(A\) est l’application \(2\pi\)-périodique :
    \begin{equation*} A:t\longmapsto \begin{pmatrix} 0\amp 1/2\amp 0 \\ -1/2\amp 0\amp 0 \\ 0\amp 0\amp 1+\sin t\end{pmatrix} \end{equation*}
    Montrer que
    \begin{equation*} R(t,0)=\begin{pmatrix} \cos(t/2)\amp -\sin(t/2)\amp 0 \\ \sin(t/2)\amp \cos(t/2)\amp 0 \\ 0\amp 0\amp \e^{1-\cos t+t} \end{pmatrix} \end{equation*}
    En déduire que \((H)\) admet des solutions \(\pi\)-périodiques non constantes.

9. Équations différentielles linéaires scalaires à coefficients constants.

Dans cet exercice, on résume les connaissances de base sur la résolution d’une équation différentielle linéaire scalaire à coefficients constants.
Soit \(E = \mathcal{C}^\infty(\R, \C)\text{.}\) On note \(D\) l’opérateur de dérivation de \(E\) et pour tout \(\lambda \in \C\text{,}\) \(T_\lambda\) l’endomorphisme de \(E\) défini par
\begin{equation*} \forall f \in E, \forall t \in \R, \; T_\lambda f(t) = f(t) \e^{\lambda t} \end{equation*}
On considère dans la suite un polynôme non constant \(P \in \C[X]\text{.}\)
  1. Montrer que pour tout \(\lambda \in \C\text{,}\)
    \begin{equation*} P(D - \lambda \id) = T_\lambda \circ P(D) \circ T_{-\lambda} \end{equation*}
  2. Montrer que pour tous \(\lambda \in \C\) et \(p \in \N^*\text{,}\)
    \begin{equation*} \ker (D - \lambda \id)^p = \big\{ t \mapsto Q(t) \e^{\lambda t} \mid Q \in \C_{p-1}[X] \big\} \end{equation*}
  3. Décrire les solutions de l’EDLS :
    \begin{equation*} P(D) \cdot x = 0 \end{equation*}
  4. Soit \(n \in \N\text{.}\) Montrer que \(P(D)\) induit un endomorphisme inversible sur \(\C_n[X]\) si et seulement si \(P(0) \neq 0\text{.}\)
  5. Soient \(R \in \C[X]\) et \(\lambda \in \C\text{.}\) Montrer que l’EDLS
    \begin{equation*} P(D) \cdot x = R(t) \e^{\lambda t} \end{equation*}
    admet une solution unique de la forme \(t \mapsto t^\beta Q(t) \e^{\lambda t}\)\(Q\) est un polynôme de même degré que \(R\) et \(\beta\) est la multiplicité de \(\lambda\) en tant que racine de \(P\) (avec \(\beta = 0\) si \(\lambda\) n’est pas une racine de \(P\)). Décrire les solutions de \((E)\text{.}\)

10. Solutions DSE d’une EDLS normalisable.

On considère une EDLS normalisée d’ordre \(2\)
\begin{align*} (H) \amp\amp x''(t)+p(t)x'+q(t)x=0 \end{align*}
et on suppose que \(p\) et \(q\) sont DSE en \(0\) sur un intervalle \(]-r,r[\) :
\begin{equation*} \forall t\in]-r,r[\qquad p(t)=\sum_{n=0}^{+\infty} p_nt^n\qquad q(t)=\sum_{n=0}^{+\infty}q_n t^n \end{equation*}
On considère une fonction \(f\) DSE en \(0\) qu’on écrit sous la forme \(f(t)=\sum\limits_{n=0}^{+\infty}a_n t^n\text{.}\)

(a)

Montrer que si \(f\) est une solution de \((E)\) alors
\begin{align*} (ER) \amp\amp \forall n\in\N,\; a_{n+2}=\frac{-1}{(n+1)(n+2)} \sum_{k=0}^n\big((k+1)a_{k+1}p_{n-k}+a_kq_{n-k}\big) \end{align*}
Solution.
En injectant l’expression \(f(t)=\sum_{n=0}^{+\infty}a_nt^n\) dans l’équation \((H)\) on obtient
\begin{equation*} \sum_{n=0}^{+\infty}(n+2)(n+1)a_{n+2}t^n+\sum_{n=0}^{+\infty}\sum_{k=0}^n((k+1)a_{k+1}p_{n-k})t^n+\sum_{n=0}^{+\infty}\sum_{k=0}^na_kq_{n-k}t^k=0 \end{equation*}
De quoi on déduit que
\begin{equation*} \forall n\in\N,\; (n+2)(n+1)a_{n+2}+\sum_{k=0}^n\big((k+1)a_kp_{n-k}+a_kq_{n-k}\big)=0 \end{equation*}

(b)

Réciproquement, soit une suite non nulle \((a_n)_n\) qui vérifie la relation \((ER)\text{.}\) On considère \(\rho \in{}]0,r[\) et \(M\gt0\) tels que \(|p_n|\rho^n\leq M\) et \(|q_n|\rho^n\leq M\) pour tout \(n\in\N\text{.}\) On pose \(b_0=|a_0|,\; b_1=|a_1|\) et
\begin{equation*} \forall n\in\N,\; b_{n+2}=\frac{M}{(n+1)(n+2)}\Big( \sum_{k=0}^n\frac{(k+1)b_{k+1}+b_k}{\rho^{n-k}}+ \rho b_{n+1}\Big) \end{equation*}
  1. Montrer que \(|a_n|\leq b_n\text{,}\) pour tout \(n\in\N\text{.}\)
  2. Montrer que \(b_{n+1}=\ds b_n\frac{n(n-1)+nM\rho+M\rho^2}{\rho n(n+1)}\text{.}\)
  3. En déduire que \(\sum a_nt^n\) a un RC \(\geq r\text{.}\)
Solution.
L’existence de \(M\) tel que \(|p_n|\rho^n\leq M\) et \(|q_n|\rho ^n\) découle du fait que \(\rho\) est plue petit que les rayons de convergence des séries entières \(\sum p_nt^n\) et \(\sum q_n t^n\text{.}\)
Ensuite la relation précédente sur les termes \(a_n\) implique que pour tout \(n\in\N\)
\begin{equation*} |a_{n+1}|\leq\frac M{(n+2)(n+1)} \sum_{k=0}^n\frac{1}{\rho^{n-k}}\big((k+1)|a_{k+1}|+|a_k|\big) \end{equation*}
  1. Une récurrence évidente établit donc que \(|a_n|\leq b_n\) pour tout \(n\in\N\text{.}\)
  2. Simplifions l’écriture de \(b_{n+1}\text{.}\) Pour tout \(n\geq 2\)
    \begin{align*} b_{n+1}\amp= \frac{M}{n(n+1)}\Big(\sum_{k=0}^{n-1} \frac{(k+1)b_{k+1}+b_k}{\rho^{n-1-k}}+ \rho b_{n}\Big)\\ \amp= \frac{M}{n(n+1)}\bigg(\frac1\rho\Big(\sum_{k=0}^{n-2} \frac{(k+1)b_{k+1}+b_k}{\rho^{n-2-k}}+\rho b_{n-1}\Big)+(nb_n+b_{n-1}) +\rho b_{n}- b_{n-1}\bigg) \\ \amp= \frac{M}{n(n+1)}\Big(\frac{(n-1)n}{\rho M}b_n+nb_n+\rho b_{n}\Big) \\ \amp= \frac{b_n}{\rho n(n+1)}\big(n(n-1)+n\rho M+\rho^2 M\big)\\ b_{n+1}\amp=\alpha_nb_n \qquad \text{avec}\;\alpha_n=\frac{n(n-1)+n\rho M+\rho^2M}{\rho n(n+1)} \end{align*}
  3. La suite \((a_n)\) est non nulle donc \((b_n)\) est non nulle, et comme \(\alpha_n>0\) alors \(b_n>0\) pour tout \(n\geq n_0\) dès que \(b_{n_0}\ne 0\) pour un certain \(n_0\text{.}\) Par suite
    \begin{equation*} \forall t\ne0,\; \Big|\frac{b_{n+1}t^{n+1}}{b_nt^n}\Big|=\alpha_n|t|\longrightarrow \frac{|t|}\rho \end{equation*}
    La série entière \(\sum b_nt^n\) a donc un RC qui vaut \(\rho\text{.}\) Notons \(R\) le RC de \(\sum a_n t^n\text{.}\) Comme \(|a_n|\leq b_n\) alors \(R\geq \rho\) pour tout \(\rho \in]0,r[\text{.}\) Donc \(R\geq r\text{.}\)

(c)

Montrer que pour tous \(a_0,a_1\in \K\text{,}\) il existe une unique solution \(f\) de \((H)\) DSE sur \(]-r,r[\) telle que \(f(0)=a_0\) et \(f'(0)=a_1\text{.}\)
Solution.
En compilant les résultats de la question précédente, on voit que \(f\) est une solution de \((H)\) sur \(]-r,r[\) si et seulement si la suite \((a_n)\) vérifie la relation \((ER)\text{.}\)
La suite \((a_n)_n\) elle même est entièrement déterminée par les termes \(a_0\) et \(a_1\text{.}\) Comme \(a_0=f(0)\) et \(a_1=f'(0)\) alors pour tout \(a_0,a_1\in \R\) il existe une unique solution \(f\) de \((H)\) DSE en \(0\) telle que \(f(0)=a_0\) et \(f'(0)=a_0\text{.}\)

11. Solutions pseudo-DSE d’une EDLS non normalisable.

On considère une edls homogène d’ordre 2 de la forme
\begin{equation*} t^2x''+tp(t)x'+ q(t)x=0 \qquad (H) \end{equation*}
et on suppose que les fonctions \(p\) et \(q\) sont dse en \(0\) sur un intervalle \(]-r,r[\) :
\begin{equation*} \forall t\in]-r,r[\qquad p(t)=\sum_{n=0}^{+\infty} p_nt^n\qquad q(t)=\sum_{n=0}^{+\infty}q_n t^n \end{equation*}
On cherche les solutions de \((H)\) qui se prolongent sur \(]-r,r[\) sous la forme
\begin{equation*} f(t)=|t|^z\sum_{n=0}^{+\infty}a_n t^n \end{equation*}
\(a_0\ne0\) et \(z\in \K\) qui reste à déterminer. On note \(R\) le rc de \(\sum a_n t^n\text{.}\)
  1. Montrer que si \(f\) induit une solution de \((H)\) sur \(]0,r[\) alors
    \begin{equation*} P(z)=0 \end{equation*}
    \begin{equation*} \forall n\in\N^*,\; P(n+z)a_n=-\sum_{k=0}^{n-1}\big((k+z)p_{n-k}+q_{n-k}\big)a_k \end{equation*}
    \(P\) est le polynôme donné par \(P(X)=X(X-1)+p_0X+q_0\text{.}\)
  2. Réciproquement soit \(z\) la racine de \(P\) qui a la plus grande partie réelle. On suppose que la suite \((a_n)\) vérifie la relation de récurrence \((ER)\text{.}\)
    Montrer que \(R\geq r\) et que \(f\) induit une solution de \((H)\) sur \(]0,r[\text{.}\)
  3. Étudier la possibilité de prolonger \(f\) en une solution de \((H)\) sur \(]-r,r[\text{.}\)
Solution.
  1. Supposons que \(f\) soit une solution de \((H)\) sur \(]0,r[\text{.}\)
    On peut dériver terme à terme la somme de la série de fonctions \(\sum a_nt^{n+z}\) pour les mêmes raisons que pour une série entière, à savoir une cvu sur tout segment de \(]0,r[\) de cette série et de ses séries dérivées.
    En remplaçant \(x\) par \(f(t)\) dans \((H)\text{,}\) on obtient
    \begin{equation*} \sum_{n=0}^{+\infty}\bigg( (z+n)(z+n-1)a_n+\sum_{k=0}^n(z+k)a_kp_{n-k}+\sum_{k=0}^na_kq_{n-k} \bigg)t^{n+z}=0 \end{equation*}
    Maintenant en multipliant par \(t^{-z}\) on fait apparaitre la somme d’une série entière nulle. Ces coefficients sont donc tous nuls.
    \begin{equation*} \forall n\in\N,\; (n+z)(n+z-1)a_n+\sum_{k=0}^n\Big((z+k)p_{n-k}+q_{n-k}\Big)a_k=0 \end{equation*}
    Sachant qu’on a supposé que \(a_0\ne0\text{,}\) on peut donc écrire
    \begin{equation*} (ER)\qquad \left\{\;\begin{aligned} \amp P(z)=0 \\ \amp \forall n\geq 1,\;P(z+n)a_n =-\sum_{k=0}^{n-1}\Big((z+k)p_{n-k}+q_{n-k}\Big)a_k \end{aligned}\right. \end{equation*}
  2. Soit \(z\) la racine de \(P\) ayant la plus grande partie réelle. Alors pour tout \(n\in\N^*\text{,}\) on ne peut avoir \(P(z+n)=0\) et donc les relations \((ER)\) définissent complètement la suite \((a_n)_n\) à partir de son premier terme \(a_0\text{.}\) Il reste à justifier que le rc \(R\) de la série entière \(\sum a_n t^n\) vérifie \(R\geq r\text{.}\) Pour cela, comme dans l’exercice précédent, en prenant \(\rho\in]0,r[\) et \(M\gt0\) tel que \(|p_n|\rho^n\leq M\) et \(|q_n|\rho^n\leq M\) pour tout \(n\in\N\text{,}\) on a
    \begin{equation*} \forall n\in\N^*,\; |a_n|\leq \frac M{|P(z+n)|} \sum_{k=0}^{n-1}\frac{|z+k|+1}{\rho^{n-k}}|a_k| \end{equation*}
    En introduisant maintenant la suite \((b_n)_n\) définie par \(b_0=|a_0|\) et
    \begin{equation*} \forall n\in\N^*, b_{n}=\frac M{\rho^n|P(z+n)|}\sum_{k=0}^{n-1}\big(|z+k|+1\big)\rho^k b_k \end{equation*}
    On aura pour tout \(n\in\N\)
    \begin{equation*} b_{n+1} = \frac M{\rho^{n+1}|P(z+n+1)|}\bigg( \frac{\rho^{n}|P(z+n)|}{M}b_n+\big(|z+n|+1\big)\rho^n b_n \bigg) = \frac{|P(z+n)|+M|z+n|+M}{\rho |P(z+n+1)|}b_n \end{equation*}
    Ici \(b_0\gt0\) donc la relation \((ER)\) implique que \(b_n\gt0\) pour tout \(n\in\N^*\text{.}\) Par suite pour tout réel \(t\ne 0\)
    \begin{equation*} \Big|\frac{b_{n+1}t^{n+1}}{b_nt^n}\Big|=\frac{|P(z+n)|+M|z+n|+M}{\rho |P(z+n+1)|}|t| \end{equation*}
    \(P\) est unitaire de degré \(2\) donc \(|P(z+n)|\sim |P(z+n+1)|\sim n^2\) et donc
    \begin{equation*} \Big|\frac{b_{n+1}t^{n+1}}{b_nt^n}\Big|\longrightarrow \frac{|t|}\rho \end{equation*}
    La série entière \(\sum b_n t^n\) a donc pour rc \(\rho\text{.}\) Comme par construction \(|a_n|\leq b_n\) alors \(R\geq \rho\text{,}\) ceci pour tout \(\rho\in]0,r[\text{.}\) Ainsi \(R\geq r\text{.}\)
    La fonction \(f\) est donc bien définie et de classe \(\mathcal C^\infty\) sur \(]0,r[\text{.}\) La suite \((a_n)\) vérifiant la relation \((ER)\text{,}\) la fonction \(f\) induit une solution sur \(]0,r[\) de \((H)\text{.}\)
    Si les nombres \(p(0)\) et \(q(0)\) sont réels alors le polynôme \(P\) est à coefficients réels. S’il admet deux racines complexes non réelles \(z\) et \(\overline z\) alors \(z-\overline z\) est imaginaire pure et ne peut donc être un élément de \(\Z\text{.}\) En revenant aux équations \((ER)\text{,}\) on peut observer que si \((a_n)_n\) est la suite associée à \(z\) alors \((\overline{a_n})_n\) est la suite associée à \(\overline z\text{.}\) On obtient ainsi les deux solutions indépendantes de \((H)\) sur \(]0,r[\) :
    \begin{equation*} \begin{aligned} f_1(t)\amp =t^{z}\sum_{n=0}^{+\infty}a_nt^n \amp \amp \amp f_2(t)\amp =t^{\overline z}\sum_{n=0}^{+\infty}\overline{a_n}t^n \end{aligned} \end{equation*}
  3. Par ailleurs en posant \(a_n=\delta_n a_0\text{,}\) les relations \((ER)\) se traduisent par
    \begin{equation*} \delta_0=1 \qquad \forall n\in\N^*,\; \delta_n= -\frac1{P(z+n)}\sum_{k=0}^{n-1}\Big((z+k)p_{n-k}+q_{n-k}\Big)\delta_k \end{equation*}
    La suite \((\delta_n)_n\) est donc unique et on a
    \begin{equation*} \forall t\in{}]-r,r[,\; f(t)=a_0|t|^z\sum_{n=0}^{+\infty}\delta_n t^n=a_0|t|^zg(t) \end{equation*}
    La fonction \(g\) ainsi introduite est de classe \(\mathcal C^\infty\) sur \(]-r,r[\) et vérifie \(g(0)=1\text{.}\) La fonction \(f\) est donc deux fois dérivable en \(0\) si et seulement c’est la cas de la fonction \(t\longmapsto |t|^z\text{.}\) Ce qui n’est possible que si \(z=2\) ou \(\re z>2\text{.}\)

12. Zéros des solutions d’une EDLS du second ordre.

On considère une edls homogène normalisée
\begin{equation*} x''+p(t)x'+q(t)x=0 \qquad (H) \end{equation*}
  1. Montrer toute solution non nulle de \((H)\) admet au plus un nombre fini de zéros dans tout segment de \(I\text{.}\) En déduire que l’ensemble de ces zéros dans \(I\) est au plus dénombrable.
  2. On suppose que \(f\) est une solution non nulle de \((H)\) qui admet au moins deux zéros dans \(I\) et on considère \(t_1,t_2\) deux zéros successifs de \(f\text{.}\) Montrer que toute solution \(g\) de \((H)\) non colinéaire à \(f\) admet exactement un zéro entre \(t_1\) et \(t_2\text{.}\)
Voir la section Sous-section 2.2.4 pour plus de résulats sur ce thème.
Solution.
  1. Soit \(f\) une solution non nulle de \((H)\) et considérons un segment \(J\subset I\text{.}\) Supposons que \(f\) admet une infinité de zéros dans \(J\text{.}\) Il est alors possible de construire une suite injective formée de zéros de \(f\) dans \(J\text{.}\) Le segment \(J\) étant un compact, cette suite aurait au moins une suite extraite qui converge. Notons \((t_n)_n\) cette sous-suite et \(\ell\) sa limite.
    On a \(f(t_n)=0\) pour tout \(n\in\N\) et \(f\) est continue donc \(f(\ell)=0\text{.}\) Ensuite, la suite \((t_n)_n\) étant injective, au plus un terme \(t_n\) peut prendre la valeurs \(\ell\text{,}\) il existe donc un rang à partir duquel \(t_n\ne\ell\text{.}\) On a alors
    \begin{equation*} \frac{f(t_n)-f(\ell)}{t_n-\ell}\xrightarrow[n\to\infty]{}f'(\ell) \end{equation*}
    et donc \(f'(l)=0\text{.}\) Pour résumer, \(f\) est une solution de \((H)\) et il existe \(\ell\in I\) tel que \(f(\ell)=0\) et \(f'(\ell)=0\text{.}\) La fonction nulle étant une solution de \((H)\) qui vérifie aussi ces conditions on a donc \(f\equiv0\text{.}\) Ce qui contredit l’hypothèse faite sur \(f\text{.}\)
    \begin{equation*} Pour tout segment de admet au plus un nombre fini de zéros dans \end{equation*}
    Ensuite, tout intervalle de \(\R\) peut être écrit comme une réunion dénombrable de segments, donc l’ensemble des zéros de \(f\) dans \(I\) est au plus dénombrable.
  2. Soit \(g\) une solution de \((H)\) non colinéaire à \((H)\text{.}\) La famille \((f,g)\) est donc un sfs de \((H)\text{.}\) Son wronksien \(w\) garde un signe constant sur \(I\text{.}\) Quitte à remplacer \(f\) par \(-f\) on peut supposer que \(w(t)\gt0\) partout sur \(I\text{.}\) On a alors
    \begin{equation*} \begin{aligned} w(t_1)\amp =-f'(t_1)g(t_1)\gt0 \amp \amp \amp w(t_2)=-f'(t_2)g(t_2)\gt0 \end{aligned} \end{equation*}
    Par ailleurs \(f\) ne s’annule pas sur \(]t_1,t_2[\) donc elle y garde un signe constant donc les fonctions \(t\longmapsto \frac{f(t)}{t-t_1}\) et \(t\longmapsto \frac{f(t)}{t-t_2}\) ont des signes contraires dans \(]t_1,t_2[\text{.}\) Leurs limites respectives en \(t_1^+\) et en \(t_2^-\) sont \(f'(t_1)\) et \(f'(t_2)\) donc \(f'(t_1)\) et \(f'(t_2)\) ont des signes contraires. Les inégalités \((ER)\) montrent alors que \(g(t_1)g(t_2)\lt0\text{.}\) Selon le tvi, \(g\) admet au moins un zéro dans \(]t_1,t_2[\text{.}\) Ce zéro ne peut être qu’unique car sinon selon cette même propriété qu’on vient de démontrer, \(f\) aurait au moins un zéro entre \(t_1\) et \(t_2\text{.}\)

13. Solutions périodiques d’une EDLS du second ordre.

Soit \(p\) une fonction continue \(T\)-périodique sur \(\R\text{.}\) On considère l’équation
\begin{equation*} x''+p(t)x=0 \end{equation*}
Soit \((f_1,f_2)\) le sfs canonique de \((H)\) en \(0\text{.}\) On note \(w\) son wronksien.
  1. Montrer que \(w\equiv 1\text{.}\)
  2. Montrer que \((H)\) admet au moins une solution \(T\)-périodique non nulle si et seulement si \(f_1(T)+f_2'(T)=2\text{.}\)
  3. Montrer que \((H)\) admet au moins une solution non nulle \(f\) telle que \(f(t+T)=-f(t)\) si et seulement si \(f_1(T)+f_2'(T)=-2\text{.}\)
Solution.
  1. Puisque l’équation est normale tous ses wronksiens sont constants (\(w'=0\)). Les solutions \(f_1\) et \(f_2\) sont définies par les conditions \(f_1(0)=f_2'(0)=1\) et \(f_1'(0)=f_2(0)=0\) donc leurs wronksien \(w\) vérifie \(w(0)=f_1(0)f_2'(0)-f_1(0)f_2'(0)=1\text{.}\) Alors \(w\equiv1\text{.}\)
  2. Soit \(f\) une solution de \((H)\text{.}\) Posons
    \begin{equation*} f=\lambda f_1+\mu f_2 \end{equation*}
    On considère la fonction \(g:t\longmapsto f(t+T)\text{.}\) Puisque \(p\) est \(T\)-périodique alors \(g\) est aussi une solution de \((H)\text{.}\) Elle est égale à \(f\) si et seulement si \(f(0)=g(0)\) et \(f'(0)=g'(0)\text{.}\) Ce qui équivaut à \(\lambda =\lambda f_1(T)+\mu f_2(T)\) et \(\mu =\lambda f_1'(T)+\mu f_2'(T)\text{.}\) Ainsi \((H)\) admet une solution \(T\)-périodique non nulle si et seulement si le système linéaire d’inconnues \(\lambda\) et \(\mu\)
    \begin{equation*} \begin{cases} (f_1(T)-1)\lambda +f_2(T)\mu=0 \\ f_1'(T)\lambda+(f_2'(T)-1)\mu=0 \end{cases} \end{equation*}
    admet au moins une solution non nulle. Ce qui équivaut à dire que le déterminant \(\Delta\) de ce système est nul. Comme
    \begin{equation*} \Delta=(f_1(T)-1)(f_2'(T)-1)-f_1'(T)f_2(T)= w(T)-f_1(T)-f_2'(T)+1=2-f_1(T)-f_2'(T) \end{equation*}
    alors \((H)\) admet au moins une solution \(T\)-périodique non nulle si et seulement si \(f_1(T)+f_2'(T)=2\text{.}\) Dans ce cas toute solution \(f\) de \((H)\) qui vérifie \(f(0)=\lambda\) et \(f'(0)=\mu\)\((\lambda,\mu)\) est une solution de \((ER)\) est \(T\)-péridodique.
    Pour faire le lien avec les résultats déjà démontrés en exercice concernant les solutions périodique d’un système différentiel linéaire du premier ordre observons que :
    1. La condition donnée équivaut à ce que \(1\) soit une VAP de la matrice \(r(T)=\smash[b]{\left(\begin{smallmatrix} f_1(T) \amp f_2(T) \\ f_1'(T) \amp f_2'(T)\end{smallmatrix}\right)}\)
    2. Si \(A(t)=\left(\begin{smallmatrix}0\amp 1\\-q(t)\amp 0\end{smallmatrix}\right)\) alors l’application \(r:t\longmapsto \left(\begin{smallmatrix} f_1(t) \amp f_2(t) \\ f_1'(t) \amp f_2'(t)\end{smallmatrix}\right)\) est l’unique solution de l’edl \(U'=A(t)U\) telle que \(U(0)=I_2\text{.}\)
  3. Une solution \(f\) non nulle de \((H)\) vérifiera \(f(t+T)=-f(t)\) si et seulement si \(f(T)=-f(0)\) et \(f'(T)=-f(0)\text{.}\) En posant \(f=\lambda f_0+\mu f_1\text{,}\) ces conditions équivalent à
    \begin{equation*} \begin{cases} (f_1(T)+1)\lambda +f_2(T)\mu=0 \\ f_1'(T)\lambda+(f_2'(T)+1)\mu=0 \end{cases} \end{equation*}
    Ce qui équivaut cette fois à \(f_1(T)+f_2'(T)=-2\text{.}\)