Sauter au contenu

Section 1.1 Équations différentielles linéaires d’ordre \(1\)

Conventions et notations 1.1.

  • \(E\) désignera un \(\K\)-evn de dimension finie non nulle \(d\text{.}\)
  • On fixe une base \(\mathcal B=(e_1,e_2,\ldots,e_d)\) de \(E\text{.}\)
  • \(I\) sera un intervalle non trivial de \(\R\text{.}\)
  • On notera \(\mathcal C^k(I,E)\) l’ensemble des fonctions de classe \(\mathcal C^k\) de \(I\) dans \(E\text{.}\)
  • Pour tout \(u\in\mathcal L(E)\) et \(h\in E\text{,}\) on notera \(u\cdot h\) le vecteur \(u(h)\text{.}\)

Rappels.

  1. L’application \(\func{}{\mathcal L(E)\times E}{E}{(u,h)}{u\cdot h}\) est bilinéaire.
    Donc si \(a\) est une application dérivable de \(I\) dans \(\mathcal L(E)\) et \(x\) est une application dérivable de \(I\) dans \(E\) alors l’application \(t\longmapsto a(t)\cdot x(t)\) est dérivable et on a
    \begin{equation*} \frac{\dt}{\dt t}\big(a(t)\cdot x(t)\big)=a'(t)\cdot x(t)+a(t)\cdot x'(t) \end{equation*}
  2. Soient des réels \(a \lt b\) et un autre \(\K\)-evn de dimension finie \(E'\text{.}\)
    Soit \(f:[a,b]\longrightarrow E\) une fonction CPM. Pour toute application linéaire \(u\) de \(E\) dans \(E'\)
    \begin{equation*} u\cdot \bigg(\int_a^b f(t)\dt t\bigg)=\int_a^b u\cdot f(t)\dt t \end{equation*}

Sous-section 1.1.1 Solutions d’une équation différentielle linéaire du premier ordre

Conventions et notations 1.2.

Dans toute cette section, on considère des applications continues
\begin{equation*} \begin{aligned} a:I\longrightarrow\mathcal L(E) \amp \amp b:I\longrightarrow E \end{aligned} \end{equation*}
Les notations suivantes seront valables tout au long de la première section de ce chapitre.
  • Forme générale.
    L’équation différentielle
    \begin{align*} (E)\amp\amp x'\amp =a(t)\cdot x+b(t) \end{align*}
    est dite une équation différentielle linéaire du premier ordre. L’inconnue \(x\) est une fonction dérivable de \(I\) dans \(E\text{.}\)
  • Solutions de \((E)\).
    On appelle solution de \((E)\) sur \(I\) toute fonction \(f:I\longrightarrow E\) telle que :
    • \(f\) est dérivable sur \(I\) ;
    • \(\forall t\in I,\; f'(t)=a(t)\cdot f(t)+b(t)\text{.}\)
    On notera \(S_I(E)\) l’ensemble des solutions de \((E)\) sur l’intervalle \(I\text{.}\)
  • Équation homogène de \((E)\).
    L’équation différenteielle linéaire du premier ordre
    \begin{align*} (H)\amp\amp x'\amp=a(t).x \end{align*}
    est dite équation homogène (ou équation sans second membre) de \((E)\text{.}\)
  • Système différentiel asscocié.
    On fixe une base \(\mathcal B=(e_1,e_2,\ldots,e_n)\) de l’espace \(E\) et on note \(x_1,x_2,\ldots,x_n\) les applications composantes de \(x\) et \(b_1,b_2,\ldots,b_n\) celles de \(b\) dans la base \(\mathcal B\text{.}\) Alors \((E)\) équivaut au système d’équation
    \begin{align*} (SE) \amp\amp \begin{cases} x_1'\amp =a_{1,1}(t)x_1+a_{1,2}(t)x_2+\cdots+a_{1,n}x_n+b_1(t) \\ x_2'\amp =a_{2,1}(t)x_1+a_{2,2}(t)x_2+\cdots+a_{2,n}x_n+b_2(t) \\ \amp\vdots \\ x_n'\amp=a_{n,1}(t)x_1+a_{n,2}(t)x_2+\cdots+a_{n,n}x_n+b_n(t) \end{cases} \end{align*}
    où on a posé \(\operatorname{Mat}_{\mathcal B}(a(t))=\bigl(a_{i,j}(t)\bigr)_{i,j}\text{.}\) Le système \((SE)\) est dit système différentiel associé à \((E)\) dans la base \(\mathcal B\text{.}\) On notera \((SH)\) celui associé à l’équation homogène \((H)\) et on les écrira sous forme compacte
    \begin{align*} (SE) \amp\amp X'\amp= A(t)X+B(t) \\ (SH) \amp\amp X'\amp= A(t)X \end{align*}
    \(X(t)=[x(t)]_{\mathcal B}\text{,}\) \(A(t)=\operatorname{Mat}_{\mathcal B}(a(t))\) et \(B(t)=[b(t)]_{\mathcal B}\text{.}\)

Démonstration.

Ce résultat revient à démontrer qu’il n’y a qu’une fonction \(f:I\longrightarrow E\) de classe \(\mathcal C^1\) qui vérifie
\begin{equation*} \forall t\in I,\; f(t)=x_0+\int_{t_0}^t\big(a(s)\cdot f(s)+b(s)\big)\dt s \end{equation*}
  • Existence.
    On introduit la suite de fonctions \((f_n)_n\) définie par \(f_0=x_0\) et
    \begin{equation*} \forall n\in\N,\;\forall t\in I,\; f_{n+1}(t)=x_0+\int_{t_0}^t\big(a(s)\cdot f_n(s)+b(s)\big)\dt s \end{equation*}
    En constantant ensuite que
    \begin{equation*} \forall n\in\N^*,\;\forall t\in I,\; f_{n+1}(t)-f_{n}(t)=\int_{t_0}^ta(s)\cdot\big(f_{n}(s)-f_{n-1}(s)\big)\dt s \end{equation*}
    et en posant \(M(t)=\sup_{s\in [t_0,t]}\nmm{a(s)}\text{,}\) on démontre par récurrence que
    \begin{equation*} \forall t\in J,\; \nm{f_n(t)-f_{n-1}(t)}\leq \frac1{n!}\big(|t-t_0| M(t)\big)^n \end{equation*}
    Ce qui permet de justifier que la série de fonctions continues \(\sum(f_n-f_{n-1})\) converge uniformément sur tout segment de \(I\text{.}\) La suite de fonctions \((f_n)_n\) converge donc uniformément sur tout segment de \(I\) vers une fonction \(f\) continue sur \(I\) et qui vérifie naturellement l’équation intégrale.
  • Unicité.
    Si \(f\) et \(g\) sont des solutions du problème alors
    \begin{equation*} \forall t\in I,\; f(t)-g(t)=\int_{t_0}^ta(s)\cdot \big(f(s)-g(s)\big)\dt s \end{equation*}
    Ce qui permet de justifier par récurrence que pour tout \(t\in I\)
    \begin{equation*} \nm{f(t)-g(t)}\leq \frac{\big(M(t)|t-t_0|\big)^n}{n!} \end{equation*}
    et donc que \(g(t)=f(t)\) puisque ce dernier majorant converge vers \(0\text{.}\)

Démonstration.

Toute solution réelle de \((SH)\) est sa propre partie réelle. Si maintenant \(f\) est une solution complexe de \((SH)\) alors, du fait que \(A(t)\) est une matrice réelle, \(\overline f\) est une solution de \((SH)\text{.}\) L’ensemble des solution complexes de \((SH)\) étant un \(\C\)-espace vectoriel, \(\re f=\frac12(f+\overline f)\) est une solution de \((SH)\text{.}\)
Ce qui montre que les solutions réelles de \((SH)\) sont les parties réelles de ses solutions complexes.

Remarque 1.8.

L’ensemble des solutions réelles \((SH)\) est aussi l’ensemble des solutions à priori complexes qui prennent des valeurs réelles. Concrètement, une fois obtenu les solutions complexes, il suffit de déterminer les valeurs des paramètres en jeu qui permettent que la solution prennent uniquement des valeurs réelles.

Résolution pratique.

Avertissement
Sauf dans des cas très particuliers, il n’y a aucune méthode générale de résoultion des EDL du premier ordre.
On s’interesse au système différentiel homogène
\begin{align*} (SH) \amp\amp X'=A(t)X \end{align*}
  • On suppose que la matrice \({}^t\!A(t)\) admet un vecteur propre \(V\) qui ne dépend pas de \(t\) associé à une valeur propre \(\lambda(t)\text{.}\) En multipliant \((SH)\) par \({}^tV\) et en posant \(z={}^tVX\) on voit que
    \begin{equation*} z'=\lambda(t)z \end{equation*}
    Ce qui permet de calculer \(z\) sachant qu’elle est une combinaison linéaire des composantes de \(X\text{.}\) Cela permet d’exprimer l’une des fonctions inconnues en fonction des autres et donc, par report dans \((SH)\text{,}\) de réduire le nombre de fonctions inconnues.
  • Dans le cas où les matrices \(A(t)\) se réduisent toutes sous la forme
    \begin{equation*} A(t)=PR(t)P^{-1} \end{equation*}
    \(P\) est une matrice inversible qui ne dépend pas de \(t\) et \(R(t)\) est une matrice plus simple (diagonale, triangulaire supérieure ou même diagonale par blocs) alors
    \begin{align*} (SH) \amp\Longleftrightarrow \begin{cases} X=PY \\ Y'=R(t)Y\end{cases} \end{align*}
    Les solutions de \((SH)\) sont les fonctions \(X=PY\)\(Y\) est une solution quelconque du système \(Y'=R(t)Y\) qui est plus simple à traiter :
    • si \(R(t)\) est diagonale alors il est formé d’équations indépendantes en les composantes de \(Y\)
    • si \(R(t)\) est triangualaire supérieur alors il peut être résolu de proche en proche en commençant par la dernière équation.
    • Si \(R(t)\) est diagonale par bloc alors il peut être éclaté en plusieurs systèmes différentiels de tailles plus petites.

Exemple 1.9.

Résoudre le système différentiel
\begin{equation*} \left\{\begin{array}{l} \left(t^{2}+1\right) x^{\prime}=t x+y \\ \left(t^{2}+1\right) y^{\prime}=-x+t y \end{array}\right. \end{equation*}
Solution.
Le système s’ecrit
\begin{equation*} X'=A(t)X \quad\text{avec } X=\begin{pmatrix} x\\y\end{pmatrix} \text{ et } A(t)=\frac1{1+t^2}\begin{pmatrix} t \amp 1 \\ -1 \amp t\end{pmatrix} \end{equation*}
La matrice \(\sqrt{1+t^2}A(t)\) est orthogonale directe donc \(V={}^t(1\;\; i)\) en est un vecteur propre. C’est aussi un vecteur propre de \({}^t\!A(t)\text{.}\) En multipliant la relation \(X'=A(t)X\) par \({}^tV\) on obtient l’equation en \(z=(1\;\; i)X=x+iy\) :
\begin{equation*} (L)\qquad (1+t^2)z'=(t-i)z \end{equation*}
En suivant la procédure standard de résoltion pour une EDL linéaire du premier ordre on a
\begin{equation*} \int\frac{t-i}{1+t^2}\mathrm dt= \frac12\ln(1+t^2)-i\arctan t+\mathrm{cte} \end{equation*}
alors il existe \(\lambda\in\C\) tel que
\begin{equation*} z(t)=\lambda\exp\bigl(\frac12\ln(1+t^2)-i\arctan t\bigr)=\lambda\sqrt{1+t^2}\e^{-i\arctan t} \end{equation*}
dans l’expression \(\sqrt{1+t^2}\e^{-i\arctan t}\) on reconnait le module et l’argument de \(1-it\) donc
\begin{equation*} z(t)=\lambda(1-it) \end{equation*}
En posant \(\lambda=\alpha+i\beta\) avec \(\alpha,\beta\in\R\) et en identifiant les parties réelle et imaginaire
\begin{equation*} \begin{cases} x=\alpha+\beta t \\ y=\beta-\alpha t \end{cases} \end{equation*}
\(S_\R(H)\) est effectivement un \(\R\)-espace vectoriel de dimension \(2\text{.}\) Il est engendré par les fonctions
\begin{equation*} t\longmapsto \begin{pmatrix} 1\\-t\end{pmatrix} \qtext{et} t\longmapsto \begin{pmatrix} t\\1\end{pmatrix} \end{equation*}

Exemple 1.10.

Résoudre sur l’intervalle \(]0,+\infty[\) le système différentiel
\begin{equation*} \begin{cases} tx'= (-2t^2+2)x+(4t^2-2)y\\ ty'= (-2t^2+1)x+(4t^2-1)y \end{cases} \end{equation*}
Solution.
Le système équivaut à \(X'=A(t)X\) avec
\begin{equation*} A(t)=\frac1t\left[\begin{matrix}- 2 t^2 + 2 \amp 4t^2-2\\-2t^2+1 \amp 4t^2-1\end{matrix}\right] \end{equation*}
On constate que la somme des deux colonnes de \(A(t)\) vaut \(2tV_1\) avec \(V_1={}^t(1\;\;1)\text{.}\) Donc \(V_1\) est une vecteur propre de \(A(t)\) associé à la valeur propre \(2t\text{.}\) Comme \(\tr A(t)=2t+1/t\) alors l’autre valeur propre de \(A(t)\) est \(1/t\) et après un calcul rapide le vecteur \(V_2={}^t(2\;\;1)\) est un vecteur propre qui lui est associé. Ainsi
\begin{equation*} A(t)=PD(t)P^{-1}\quad\text{avec } D(t)=\begin{pmatrix} 2t \amp 0 \\ 0 \amp 1/t \end{pmatrix} \text{ et } P=\begin{pmatrix} 1 \amp 2 \\ 1 \amp 1 \end{pmatrix} \end{equation*}
En posant \(X=PU\) avec \(U={}^t(u\;\; v)\) on obtient le système différentiel d’inconnues \(u,v\)
\begin{equation*} \begin{cases} u'=2tu \\ v'=\frac1t v \end{cases} \end{equation*}
Il existe donc \(\lambda,\mu\in\R\) tels que
\begin{equation*} \begin{cases} u=\lambda\e^{t^2} \\ v=\mu t \end{cases} \end{equation*}
La relation \(X=PU\) se traduit pas \(x=u+2v\) et \(y=u+v\) donc
\begin{equation*} \begin{cases} x=\lambda \e^{t^2}+2\mu t \\ y=\lambda \e^{t^2}+\mu t \end{cases} \end{equation*}

Exemple 1.11.

Résoudre sur \(]0,+\infty[\) le système différentiel
\begin{equation*} \begin{cases} tx'= (t+1)x-2t^2y-(t^2+t+1)z \\ y'=t y +t z \\ z'=-2ty-tz \end{cases} \end{equation*}
Solution.
Ici le système différentiel s’écrit \(X'=A(t)X\) avec
\begin{equation*} A(t)=\frac1t\left[\begin{matrix}t + 1 \amp - 2 t^{2} \amp - t^{2} - t - 1\\0 \amp t^{2} \amp t^{2}\\0 \amp - 2 t^{2} \amp - t^{2}\end{matrix}\right] \end{equation*}
\begin{align*} \chi_{A(t)} \amp =(X-1-1/t)\begin{vmatrix} X-t \amp -t \\ 2t \amp X+t \end{vmatrix} \\ \amp= (X-1-1/t)(X^2+t^2) \end{align*}
Ce qui prouve que \(A(t)\) est semblable dans \(\mathcal M_3(\C)\) à la matrice diagonale \(D(t)=\mathrm{diag}(1+1/t,it,-it)\text{.}\) Clairement \(V_1={}^t(1\;\;0\;\;0)\) est un vecteur propre de \(A(t)\) associé à la valeur propre \(1+1/t\) et pour tout \(X={}^t(x\;\;y\;\;z)\in\mathcal M_{3,1}(\C)\) on a
\begin{align*} A(t)X = itX \amp \Longleftrightarrow \begin{cases} (1+1/t-it)x-2ty -(t+1+1/t)z=0\\ (t-it)y+tz=0 \\ -2ty-(t+it)z=0 \end{cases} \\ \amp\Longleftrightarrow \begin{cases} (t+1-it^2)x-t^2(1+i)z+(t^2+t+1)z=0 \\ y=\frac1{1-i}z=\frac12(1+i)z \end{cases}\\ \amp\Longleftrightarrow \begin{cases}x=-z \\ y=\frac12(1+i)z\end{cases} \end{align*}
Comme prévu \(E_{it}(A(t))\) est une droite vectorielle. Elle est engendrée par le vecteur
\begin{equation*} V_2=\begin{pmatrix} -2 \\ 1+i \\ 2\end{pmatrix} \end{equation*}
\(A(t)\) étant une matrice réelle, \(E_{-it}(A(t))\) est la droite engendrée par \(V_3=\overline{V_2}\text{.}\) Ainsi \(A(t)=PD(t)P^{-1}\) avec
\begin{equation*} P=\begin{pmatrix} 1 \amp -2 \amp -2 \\ 0 \amp 1+i \amp 1-i \\ 0 \amp 2 \amp 2 \end{pmatrix} \end{equation*}
Si on pose maintenant \(X=PU\) avec \(U={}^t(u\;\; v\;\; w)\) alors
\begin{equation*} (SE)\Longleftrightarrow U'=D(t)U \Longleftrightarrow \begin{cases} u'=(t+1/t)u \\ v'=itv \\ w'=-itw \end{cases} \end{equation*}
Il existe donc \(a,b,c\in\C\) tels que
\begin{equation*} \begin{cases} u=at\e^{t^2/2} \\ v=b\e^{it^2/2} \\ w=c\e^{-it^2/2} \end{cases} \end{equation*}
de quoi on déduit que les solutions complexes de \((SH)\) sont données par
\begin{equation*} \begin{cases} x=at\e^{t^2/2}-2b\e^{it^2/2}-2c\e^{-it^2/2} \\ y=b(1+i)\e^{it^2/2}+c(1-i)\e^{-it^2/2} \\ z=2b\e^{it^2/2}+2c\e^{-it^2/2} \end{cases} \end{equation*}
cette solution est réelle si \(a\in\R\) et \(c=\overline b\) donc en posant \(b=\alpha+i\beta\) on peut écrire
\begin{equation*} \begin{cases} x=at\e^{t^2/2}-4\alpha\cos(t^2/2)+4\beta\sin(t^2/2) \\ y=(\alpha-\beta)\cos(t^2/2)+(\alpha+\beta)\sin(t^2/2) \\ z=4\alpha\cos(t^2/2)-4\beta\sin(t^2/2) \end{cases} \end{equation*}
\(a,\alpha,\beta\in\R\text{.}\) L’ensemble des solutions de cette forme est de dimension \(3\) sur \(\R\) donc il est l’ensemble des solutions réelles de \((SH)\text{.}\)

Sous-section 1.1.2 Système fondamental de solutions de l’équation homogène

Vocabulaire 1.12.

  • On appelle système fondamental de solutions de l’équation homogène \((H)\) toute base \((f_1,f_2,\ldots,f_d)\) de \(S_I(H)\text{.}\)
  • Soient \(f_1,f_2,\ldots,f_d\) des solution de \((H)\text{.}\) On appelle wronksien dans la base \(\mathcal B\) du système de solutions \((f_1,f_2,\ldots,f_d)\) de \((H)\) la fonction définie par
    \begin{equation*} \forall t\in I,\; W(t)=\det_{\mathcal B}\big(f_1(t),f_2(t),\ldots,f_d(t)\big) \end{equation*}

Remarque 1.14.

Avec les notations de la proposition précédente :
  • la fonction \(W\) est soit partout nulle sur \(I\text{,}\) soit ne s’annule en aucun point de \(I\) ;
  • la famille \(\big(f_1(t),f_2(t),\ldots,f_d(t)\big)\) est soit une base de \(E\) pour tout \(t\in I\) soit elle est liée pour tout \(t\in I\text{.}\)

Remarque 1.16.

Ainsi la fonction \(W\) est une solution sur \(I\) de l’équation différentielle linéaire scalaire homogène du premier ordre
\begin{equation*} w'-\tr\big(a(t)\big)w=0 \end{equation*}
Ce qui implique que son expression est de la forme \(W(t)=\lambda\e^{\alpha(t)}\)\(\lambda\in \K\) et \(\alpha\) est une primitive sur \(I\) de la fonction \(t\longmapsto \tr\big(a(t)\big)\text{.}\) Ce qui confirme que \(W\) est soit partout nulle, soit ne s’annule pas sur \(I\text{.}\)

Sous-section 1.1.3 Méthode de la variation des constantes

Exemple 1.19.

On veut résoudre complétement le système différentiel
\begin{equation*} \left\{\begin{array}{l} \left(t^{2}+1\right) x^{\prime}=t x+y+2 t^{2}-1 \\ \left(t^{2}+1\right) y^{\prime}=-x+t y+3 t \end{array}\right. \end{equation*}
sachant que les fonctions \(t\longmapsto (t,1)\) et \(t\longmapsto (-1,t)\) sont des solutions du système homogène.
Solution.
Les fonctions \(t\longmapsto (t,1)\) et \(t\longmapsto (-1,t)\) sont des solutions du système homogène associé à \((S)\text{.}\) Elles en constituent un SFS. Les solutions de \((H)\) sont donc données par
\begin{equation*} \begin{cases} x=\lambda t-\mu \\ y=\lambda+\mu t \end{cases} \end{equation*}
\((\lambda,\mu)\in\R^2\text{.}\) En posant \(x=\lambda(t)t+\mu(t)\) et \(y=-\lambda(t)+\mu(t)t\text{,}\) la métode de la variation des consantes aboutit à
\begin{equation*} \begin{cases} t\lambda'(t)-\mu'(t)=\frac{2t^2-1}{t^2+1} \\ \lambda'(t)+t\mu'(t)=\frac{3t}{t^2+1} \end{cases} \end{equation*}
Système linéaire d’inconnues \(\lambda'(t)\) et \(\mu'(t)\) et de déterminant \(w(t)=t^2+1\text{.}\) Il se résout en
\begin{equation*} \begin{cases} \lambda'(t)=\ds\frac1{(t^2+1)^2}\begin{vmatrix} 2t^2-1 \amp -1 \\ 3t \amp t \end{vmatrix}=\frac{2t^3+2t}{(t^2+1)^2}=\frac{2t}{t^2+1} \\ \mu'(t)=\ds\frac1{(t^2+1)^2}\begin{vmatrix} t \amp 2t^2-1 \\ 1 \amp 3t\end{vmatrix}=\frac{t^2+1}{(t^2+1)^2}=\frac1{t^2+1} \end{cases} \end{equation*}
ce qui donne :
\begin{equation*} \begin{cases} \lambda(t)=\lambda_0+\ln(1+t^2) \\ \mu(t)=\mu_0+\arctan(t) \end{cases} \end{equation*}
\(\lambda_0\) et \(\mu_0\) sont des constantes quelconques. Les solutions du système différentiel de départ sont donc données par
\begin{equation*} \begin{cases} x(t)=\lambda_0 t-\mu_0+t\ln(t^2+1)-\arctan(t) \\ y(t)=\lambda_0+\mu_0 t+\ln(1+t^2)+t\arctan(t) \end{cases} \end{equation*}

Sous-section 1.1.4 Équation différentielle linéaire du premier ordre à coefficients constants

Conventions et notations 1.20.

Soient \(a\) un endomorphisme de \(E\) et \(b:I\longrightarrow E\) une application continue. Dans toute cette section, on considère l’équation différentielle
\begin{align*} (E)\amp\amp x'\amp=a\cdot x+b(t) \end{align*}
et le système différentiel associé à \((E)\) dans la base \(\mathcal B\)
\begin{align*} (SE) \amp\amp X'\amp=AX+B(t) \end{align*}
\((E)\) est dite une équation différentielle linéaire du premier ordre à coefficients constants. On notera \((H)\) l’équation homogène de \((E)\) et \((SH)\) celle de \((SE)\text{.}\)

Remarques pratiques.

  1. Solutions propres de l’équation homogène.
    Soit \(\lambda\) une VAP éventuelle de \(a\text{.}\) Pour tout VEP \(v\) de \(a\) associé à \(\lambda\text{,}\) la fonction \(t\longmapsto \e^{\lambda t}v\) est une solution de \((H)\) sur \(\R\text{.}\)
  2. Solution de l’équation homogène dans le cas où \(a\) est diagonalisable.
    On suppose que \(a\) est diagonalisable. On considère une base de diagonalisation \((v_1,v_2,\cdots,v_d)\) de \(a\) et on pose \(a\cdot v_k=\lambda_k v_k\text{.}\) Alors les solutions de \((H)\) sur \(\R\) sont les fonctions
    \begin{equation*} t\longmapsto \smash[t]{\sum_{k=1}^d}\alpha_k\e^{\lambda_k t}v_k \end{equation*}
    \(\alpha_1,\alpha_d,\ldots,\alpha_d\) sont des scalaires quelconques.
  3. Méthode pratique de résolution du système homogène \((SH)\).
    On suppose que la matrice \(A\) se réduit sous la forme \(A=PRP^{-1}\text{.}\) Alors
    \begin{equation*} X'=AX \Longleftrightarrow \begin{cases} X=PY \\ Y'=RY \end{cases} \end{equation*}
    la résolution du système différentiel \(X'=AX\) passe donc par celle du système «plus simple» \(Y'=RY\text{.}\)
    Noter aussi que puisque \(\e^{tA}=P\e^{tR}P^{-1}\) on peut directement fournir les solutions de \((SH)\) en calculant \(\e^{tR}\text{.}\) Ces solutions sont de la forme :
    \begin{equation*} t\longmapsto P\e^{tR}W \end{equation*}
    \(W\) est un vecteur quelconque de \(\mathcal M_{n,1}(\K)\text{.}\)

Remarque 1.23. SFS et variation des constantes.

  1. Système fondamental de solution et wronksien.
    Soient \(v_1,v_2,\ldots,v_d\in E\) et posons pour tout \(k\in\iic{1,d}\text{,}\) \(f_k(t)=\e^{ta}\cdot v_k\text{.}\)
    • \((f_1,f_2,\ldots,f_d)\) est un SFS de \((H)\) sur \(\R\) si et seulement si \((v_1,v_2,\ldots,v_d)\) est une base de \(E\text{.}\)
    • Le wronksien de \((f_1,f_2,\ldots,f_d)\) dans la base \(\mathcal B\) est donné par
      \begin{equation*} \forall t\in\R,\; W(t)=\det\big(\e^{ta}\big)\det_{\mathcal B}(v_1,v_2,\ldots,v_d) \end{equation*}
  2. Variation des constantes.
    Les solutions de l’équation homogène étant les fonctions
    \begin{equation*} t\longmapsto \e^{ta}\cdot v \end{equation*}
    \(v\) est un vecteur quelconque de \(E\text{,}\) faire varier les constantes revient à faire varier le vecteur \(v\text{.}\) On pose donc \(x(t)=\e^{ta}\cdot v(t)\) de telle sorte que
    \begin{equation*} (E)\Longleftrightarrow v'(t)=\e^{-ta}\cdot b(t) \end{equation*}
    Cette présentation n’offre toutefois pas d’avantage pratique par rapport à la méthode générale de la variation des constantes puisqu’elle exige le calcul de l’exponentielle \(\e^{-ta}\) et donc le calcul de l’inverse de la matrice de passage dans une base de réduction.

Démonstration.

Notons \(f\) l’unique solution de \((E)\) telle que \(f(t_0)=x_0\) et posons
\begin{equation*} g(t)=\e^{-ta}\cdot f(t) \end{equation*}
La fonction \(g\) est de classe \(\mathcal C^1\) et on a
\begin{align*} g'(t)\amp =-a\circ \e^{-ta}\cdot f(t)+\e^{-ta}\cdot f'(t)\\ \amp= -a\circ \e^{-ta}\cdot f(t)+\e^{-ta}\cdot\bigl(a\cdot f(t)+b(t)\bigr)\\ \amp= \e^{-ta}\cdot b(t) \end{align*}
\(g\) est donc une primitive de la fonction \(t\longmapsto \e^{-ta}\cdot b(t) \text{.}\) Puisque \(g(t_0)=\e^{-t_0a}\cdot f(t_0)=\e^{-t_0a}\cdot x_0\) alors
\begin{equation*} g(t)=\e^{-t_0a}\cdot x_0+\int_{t_0}^t \e^{-sa}\cdot b(s)\mathrm ds \end{equation*}
et donc
\begin{align*} f(t) \amp= \e^{ta}\cdot\biggl(\e^{-t_0a}\cdot x_0+\int_{t_0}^t \e^{-sa}\cdot b(s)\mathrm ds\biggr)\\ \amp= \e^{(t-t_0)a}\cdot x_0+\int_{t_0}^t\e^{(t-s)a}\cdot b(s)\dt s \end{align*}