THESE DE DOCTORAT D'ETAT
ès-Sciences Mathématiques Appliquées
OPTION:
ANALYSE NUMERIQUE ET INFORMATIQUE
PRÉSENTÉE
ICA
t>,.f R
lIVE
à la Faculté d.es Sc.ie,nces et Techniques (FA.S....l,f;jR\\\\-
~.t\\,.
- UmversIte de Ouagadougou -
~M r-:~i
i,
J
f
\\
~.
1)
; '2 .
-_ p:r:1
;.
_
.
l'"l
\\ "
/ ~~
BI ·
SOME
\\,'. ~.,.0
Par
aIse'
<~2ementS»~~:~~
0
'--_',o=.~
Pour obtenir le Grade de
Sujet de la thèse:
ALGORITHMIQUES NUIVIERIUOE"S -DE RESOLUTION
DES PROBlEMES DE CONTROLE OPTIMAL ET
D'EQUATIONS INTEGRALES COIVIPARTIIVIENTAUX.
Soutenue le 12 Octobre 1994 devant le Jury composé de :
PRESIDENT ET RAPPORTEUR: Professeur Yves CHERRUAULT,
Université Pierre et Marie Curie -PARIS VI.
RAPPORTEUR : Professeur Alain MIGNOT, Université de RENNES 1.
MEMBRES:
Professeur Albert OUEDRAOGO, Université de OUAGADOUGOU.
Professeur Bernard PHILIPPE, Université de RENNES 1.
Professeur Côme GOUDJO, Université Nationale du BENIN.
Professeur Akry I<OULIBALY, Université de OUAGADOUGOU.

S013/0M
BURKINA FASO
DÉCISION N° 94- 85
fESSRSIUOIFAST
Port:mt autorisation de soutenance
MINISTÈRE DES ENSEIGl'Œlv1ENTS
de Thèse de Doctorat d'Etat es-Sciences
SECONDAIRE, SUPERIEUR ET DE
LA RECHERCHE SCIEI\\'fIFIQUE
UNIVERSITÉ DE OUAGADOUGOU
..RECJORAT
Vu
La Constitution du 11 Juin 1991,
Vu
le Decret N° 92 - 336/PRES/PlvlJMESSRS du 23 Novembre 1992, portant organisation du
Ministère des Enseignement Secondaire, Supérieur et de la Recherche Scientifique;
Vu
le Decret N° 91 - 00346/PRESfESSRS du 17 Juillet 1991, portant restructuration et
fonctionnement de l'Université de Ouagadougou;
Vu
le Kiti N° AN VIII -114/PRES/FPfESSRS du 27 Novembre 1990, portant nomination du
Recteur àe l'Université de Ouagadougou;
Vu
le Raabo Ministériel N° AN IV - 0291CNRfESSRS/uOlIMP du 9 Avril 1987, portant
autorisation d'ouverture d'un troisième cycle d'Etudes de Mathématiques à l'Université de
Ouagadougou (U..,1.P.)
Vu
le Raabo Rectoral 1\\0 AN V - 058 IFP/ESSSRSfLTO/I.M.P. du 6 Juillet 1988, portant
orpnisation d'un troisième cycle d'Etudes J l'Université de Ouagadougou (LM.P.)
Vu
la Note de ser,.ice ?\\C 94-94fESSRS/UO/R du 31 Août 1994, portant nomination de Doyens, de
Vice-Doyens. de Directeurs. de Directeurs des Etud~s dans les Facultés. Instituts et Ecole de
l'Université .Je OuagJdougou ;
Vu
l':lvis (k la commission de 3è cyck <.k MathérnJtiques ;
Sur
propositir'n du D\\)yen (k b FJcull~ (.lès ScienCl:s ct Techniques:
DECIDE
Article 1er: Il est Jutnrisé b soutenJnce de b Thèse de Doctorat d'Elat es-Sciences mathématiques
de fv10nsieur SO~1E Blais,-',
Article 2 : Le Vice-Doyen chargé de la Recherche de la Faculté des Scienœs et Techniques et k
Resronsabk du cyck de :--1athématÎLjtles sont char'gés, chacun en cc qui k concerne, de
l'application de la présente décision.
Ouagadougou, le 03 SepcffTbre 199':'
Amrli:llion :
- Diffusion 1:'l'nér:Jk'

REMERCIEMENTS
Je tiens à
exprimer ma profonde gratitude à Monsieur
le
Professeur
Yves
CHERRUAULT
qui
m'a
permis
d'entreprendre ce travail
scientifique,
qui
a
rédigé
un rapport scientifique de ce travail et qui me fai t
1 ' honneur
de
présider
le
Jury
de
cette
thèse.
Ses
actions
scientifiques
ont
été
déterminantes
pour
l'aboutissement de ce travail.
Je
rend hommage
au Professeur Albert
OUEDRAOGO pour
toutes les actions qu'il a entreprises en faveur de la
soutenance de cette thèse.
J'~rime aussi mes sincères remerciements aux :
- Professeurs A. MIGNOT (Université de RENNES I) et
PG CIARLET (Université Pierre et Marie Curie -
PARIS VI)

qui me font l'honneur d'être les rappor-
teurs de ma thèse.
- Professeurs Côme GOUDJO (Université Nationale du
BENIN) et Bernard PHILIPPE (Université de RENNES I)
qui, malgré leurs occupations ont accepté d'effectuer
le pla cemen t pour participer au Jury.
- Professeur A. KOULIBALY (Uni versi té de OUAGADOUGOU)
pour sa participation au Jury.
Je
remercie
le
Comi
du
Colloque
Africain
pour
la
Recherche en Informatique
(CARI)
pour l'aide qu'il nous
a apportée dans la préparation de la soutenance.
Je
remercie
très
sincèrement
Madame
Annick
CHERRUAULT
qui,
malgré
ses
multiples
occupations
au
sein
du
MEDIMAT,
a
effectué le déplacement
de OUAGADOUGOU pour
assister à cette soutenance.
UNE FOIS DE PLUS MERCI.

RESUME:
Le travail présente l'étude d'algorithmes numériques de résolution de
quelques problèmes
issus de la modélisation mathématique en analyse
compartimentale.
Dans une première partie nous résolvons numériquement le problème de
contrôle des systèmes pharmaceutiques pour une thérapeutique optimale.
Nous abordons ensuite,
dans une deuxième partie,
la r6so1ution
numérique d'équations intégrales par l'algorithme de décomposition d' Adûmian.
Enfin, nous présentons dans un dernier chapitre une étude (;omparative
d'algorithmes numériques (Galerkin, collocation, etc ... ) avec la méthode
d'Adomian.
MOTS-CLES:
Modélisation mathématique, algorithmes numériques, analyse compartimentale,
algorithme de décomposition, contrôle des systèmes pharmaceutiques, équations
intégrales.

Table des matières
Pages
INTRODUCTION
1
PREMIERE
-0- PARTIE
Méthodes numériques de résolution des problèmes de contrôle optimal.
Chapitre!:
Contrôle optimal avec contraintes linéaires .
/--~
-"'~AI-,jtBt~
/.\\'t-\\ l-
-
'--{ 1
10) Introduction
r~;,..'.. ~:~.-.:.::.)
6
2°)P
't'
OSl Ion d u probl'eme
I~~/
;.,,'
,'\\~\\,
.:,:W
.7
3°) Identification des paramètres d'équatio~~cJfifféte"l,ltlelle~fompartimentales
8
4°) Résolution numérique .
\\~.-o\\------ )..Ih
"
4 1 C
.d"
" 1
\\.o~;~
'OJI
22
.
onSl eratlOns genera es············,.~·<;-I.
: ·.~..·.~.:S~7/
··
.
4 2
A
1' , '
, .
<0
.
t\\~
27
.
pp lcatlOns numenques
_.~;:~~:-.r.I"?~.,
.
~-'=i''''.4-
a) Exemplel
:
27
i)
Forme particulière de xl (t)
2 8
ii) Une méthode de dérivations successives de produit de convolution et de
décompQsition de la solution
33
iii) Méthode d'approximation l1Umérique par des spline fonctions.
)' 'Li
. .
,
46
ex
. ;approxlmatlon
;
..
~) Ré'sultats numériques
51
b) Etude de la convergence du critère J .
i) Convergence de J ,
64
ii) Application à l'exemple 1
69
"') R' ,
l
' . .
74
III
esu tats numerlques
.
c) Exemple2
77
i) Contrôle optimal avec I.V.P. '
:
79

") A
1"
/ .
11
pp lcatlon numerlque
79
iii) Influence de la variation du contrôle optimal sur la fonction d'évolution
xl(t)
82
iv)Influence de la variation du coefficient ko de la matrice compartimentale sur
xl (t) pour un contrôle optimal u(t) = akO + ak12 .expÇ-k21 t) fixé
102
Chapitre 2:
Contrôle optimal avec contraintes
non linéaires .
1
Introduction
'
109
II
Algorithme1 : résolution par une méthode de pénalisation
110
lu Algorihme2: résolution par tme méthode de programmation dynamique
113
IV
Résultats numériques,
~
115
-0-
DEUXIEME
-0- PARTIE
Résolutions
numériques d'équations intégrales
1
Généralités.
a)
Problèmes physiques
127
1
b) Problème mathématique
.'
128
II Méthodes numériques
1°) Un algorithme numérique utilisant une suite d'équations intégrales linéaires .. 128
2°) Un algorithme de discrétisation
131
3°) Un algorithme numérique de décomposition de la solution ou méthode
de G .Adomian .
.
3a) Aperçu général de la méthode de G.Adomian
.133
i) Description générale de la méthode
:
134
ii) Résolution d'équations algébriques par la méthode de G.Adomian
138
1

lii) Réso1ut.ion d'équations différentielles parla mét.hode de G. Adomian
: 140
iv) Résolution ct 'équat.ions aux délivées partielles par la nÉt.hode
!
de G. Adornian
144
Œ) lllustra.ti,)nsurtme1."Bmple simple
146
pr~ommenl. utiliser la méthode de G.,è..,jomian pour résoudIe
diffén:'11ts types d'EDP
,
,
,
149
,
3b) Résolutidn d'équaÜons intégiâles par la mét.hode d'Adonuan
154
1(1) Int.ll:)duction
:
:
155
2')) The Adon-rian's metllod for functional èquation
155
:{') Resolution of integm1 eqpations
156
3c) Conll8rgenc.e. de. la rnéthode d'i\\dornian appliquée aux équaüons intégla1es... 164
r=') In1.P)duc fion
164
~?) Ne~l conv81gence pn)of in a simplified. case
165
·~::"C,-,·Try·-"~p."
",·,pUP.·
!.Ù~tl·~f{,·~
1f'7
, )
111 el.sell'-- .. llllIl L o':••.1181t
•. L.1..1 ..1..11.::
.),
'.r=') Application of Adornian's tBc1mic 1.0 intBglal equations
169
3d) Etude cOlnpznative d'algo:)ritlmi8s munériques
(Galelbn..collocation..projectiol1, ) avec la méthode d.'Adomian
173
1°) Inb1)duction
:
173
2(1) Pl')j:.ct.iollS method
:
1"74,
:(') Adomian's method
177
4°) Discussion
_
;
_
180
COl·lC:LUSION GENERALE
.
..
.
181
i
:
BJBLIOGRAPH lE GENEPj·.LE
f
183

INTRODUCTION
,:
L'objet de ce travail est l'étude numérique des problèmes
.:~~i:;': de contrôle optimal et des équations intégrale.s provenant de la
modélisation
mathématique
en
physique,
biologie,
chimie,
biomédecine, .etc ...
Il comporte pour l'essentiel deux parties . Il existe dans
chaque partie des paragraphes qui ont leurs propres introduction- et
bibliographie. Ces paragraphes sont constitués - de textes d'articles
déjà publiés ou en voie de publication .
PREMIERE PARTIE - CONTRôLE OPTIMAL
Dans cette partie nous traiterons le problème suivant
Trouver
une fonction réelle u*(t) telle que:
T
(1)
J(u*(t)) = Minu(l) f f(x(t),u(t))dt
o
avec les contraintes
d x(t)
(2)
= g(x(t),u(t))
dt
x(o) = xo
où f et g sont des fOIJctions conrwes
g étant linéaire ou non
linéaire.

2
Dans un premier chapitre nous avons étudié le problème
(1) (2) avec f(x(t),u(t)) = (X1 (t) - a)2
et g(x(t),u(t)) = Ax(t) + u(t)
où A est une matrice carrée , a une constante ~ biologique , x(t) et
x 1 (t) so~t des fonctions d'état et u(t) est la fonction de contrôl~ :
1
:
g étant: linéaire nous avons utilisé
la transformation de Laplace et
prouvé
que
la
solution
u(t)
de
(1)
(2)
est
aussi
solution
de
l'équation de convolution (3)
K(t)*u(t) = a ,où K(t) est une fonction
connue et * désigne le produit de convolution. La irelation (3) a été
obtenue grâce à une technique de, calculs de variations. Pour obtenir
explicitement
u(t)
nous
avons
été
amené
à
la
résolution
de
l'équation de convolution (3), pour cela nous avons procédé par les
deux méthodes suivantes
1°)
Une méthode de dérivations successives de produit de
convolution
2°) Une méthode d'approximation par des spline fonctions.
,
Dans un deuxième chapitre nous avons étudié le problème (1)' et (2)
dans
le
cas
général

g
est
non
linéaire, à
l'aide
de
deux
algorithmes
numériques
que
nous
avons
mis
au
point
,
l'un
1
provenant
d'une
méthode
de
pénalisation
associée
à
une
discrétisation
de
(1)
(2)
et
l'autre dérivant
d'une
méthode
de
programmation dynamique associée aussi à la même discrétisation.
1
DEUXIEME PARTIE: EQUATIONS INTEGRALES
i
Dans
cette
deuxième
partie, de "notre
travail
nous
rechercherons la solution numérique de l'équation ,:
,
1

;
: :
3
b
(4)
u(x)
+ f g(u(t))k(x,t)dt
=
f(x~,
a
'O'IJ les fonctions g , k et f sont données définies et continues
et où
u
est
la
fonction
inconnue
On
ne
s'intéresse
ni
à
l'existence,
ni
éventuellement à la multiplicité des solutions de (4) on renvoie pour cela à
[7 ] [ 11]
et [46] .
On
s'intéressera
seulement à
l'exposé
des
méthodes, simples
récentes pour la résolution numérique de (4) dans le cas favorable
d'existence d'une solution unique.
Parmi les méthodes numériques que nous développerons
nous proposerons une utilisation de la méthode de décomposition
dite méthode de G. Adomian [ 18 ] [ 44]
pour la résolution de (4).
En résumé:
Dans ce travail notre originalité a consisté à
Proposer
deux
algorithmes
numériques
de
résolution
des
problèmes de contrôle optimal non linéaires.
- Utiliser la méthode de dérivations successives de produits de
convolutions, ainsi qu'une technique d'approximation par des spline
fonctions
dans le cas de problèmes de contrôle optimal linéaires.

4
-A développer des tehniques de résolution numérique des équations
intégrales par. l,a méthode de décomposition proposée par George
Adomian '.~t à" étudier
la convergence de cette méthode
. Cette
dernière étude a fait l'objet de deux articles déjà publiés l'un dans
"Mathematical and Computer Modelling" et l'autre dans "Applied
Mathematics and Optimization".
- Enfin une étude comparative d'algorithmes numériques récents
provenant des méthodes de projection (Galerkin , Collocation etc ... )
et de la méthode d'Adomian a été réalisée . Elle a été publiée
dans
"Mathematical and computer Modelling"
,VoI.18, N° 9 , PP.55-62.
:
1

PREMIERE -0- PARTIE
METHODES NUMERIQUES DE RESOLUTION
DES PROBLEMES DE CONTRÔLE OPTIMAL
(en pharmacocinétique)

6
CHAPITRE 1: CONTRôLE OPTIMAL AVEC CONTRAINTES
LINEAIRES
1°)
1n t r 0 duc t ion
On souhaite maintenir une fonction d'évolution constante,
par exemple
X1 (t) = a , t ~ 0 . Pour cela on agit sur le système
différentiel (1.2) ci-après en y injectant un vecteur de contrôle
u(t) = I(U1 (t) , U2(t) , .... un(t)).
D'une
manière générale dans les
applications
à des problèmes concrets
(en
physique,
biologie,
biomedecine, etc ... ) on a Uj(t) = 0
sauf pour une valeur de j,
soit
par exemple
U1 (t) =1=
0 donc u(t) = I( u1(t) , 0 , .... , 0) .
Pour si~plifier l'écriture·, U1 (t) sera appelé toujours u(t) (dans les
applications)
Le problème est de trouver le contrôle uh) qUI
minimise la fonctionnelle
(le critère).
00
.
2
(1.1)
J(u(t)) =
J (X1 (t) - a) dt
o
avec les contraintes
dx
(1.2)
dt
= Ax + u(t)
x(O) = XQ
où A est une matrice carrée nxn , nE IN *

7
Nous avons là: ~n problème de contrôle optimal, u(t) est le
vecteur· de contrôle (par opposition à x(t) qui est le vecteur d'état)
sur lequel
on
peut agir.
Le
u(t) qui
réalise .l'optimum sera le
contrôle
opti mal
(voir
éventuellé.ment
la
théorie
du
contrôle
optimal dans les écritsdeJ.L. Lions
dans [9]
ou
certains

1
docu ment$
cités en bibliographie).
En résumé la situation se présente comme suit
2°) Position
du
problème
Trouver une fonction u*(t) telle que
00
(1.3) J(u*(t)) = Minu(t)
J(X1 (t) - a)2d t
o
sachant que X1 (t) et u(t) sont solutions du système d'équations
différentielles compartimentales
suivant
:
(1.4) I~~ == Ax(t) + u(t)
l x(o) =Xc
où a est une constante donnée et ayant une signification physique
(biologique) . La difficulté majeure du problème (1.3) (1.4) provient
du
fait
qu'on
minimise
par
rapport
à
une
fonction
u(t)
qui
n'intervient qu'implicitement dans
le critère
J par l'intermédiaire
du système différentiel (1.4) . Dans la pratique la matrice A est
inconnue
par
conséquent
elle
doit
être
identifiée
avant
la
résolution du problème de contrôle associé d'où la considération du
problème d'identification ci - après :

8
3°) ;Identification: de: paramètres
des
systèmes
,
:d'équations
'différentielles
compartimentales

9
IDENTIFiCATION DE PARAMETRES DES SYSTEMES
D'EQUATIONS DIFFERENTIELLES COMPARTIMENTALES
Par Blaise SOME
Département de mathématiques ef informatique
Facultédessciènces et techniques (FA .S .T)
Université de OUAGADOUGOU
03 B. P. 7021 OUAGADOUGOU 03
BURKINA
FASO
Résumé
Le thème général de ce travail est l'étude théorique et numérique
du problème d'identification des paramètres (ou coefficients) des
systèmes d'équations différentielles compartimentales .
Dans une première partie nous avons démontré l'existence et
l'unicité de la solution du problème c'est - à - dire l'existence des
paramètres du système et dans une deuxième partie nous avons
traité un exemple concret en dimension 3 par une méthode
numérique.
Abstract
;
The general theme of this work is the numerical and theoritical
study of identifying parameter problems of compartimentai
differential equations .
First , we show the existence and the unicity of the solution to the
problem i. e the existence of the parameters (or coefficients) and
that of the matrix of the system . Second , we resolve a concret
example in tree dimension by using a numerical method of
application .
1°) INTRODUCTION
On considère le système d'équations différentielles
compartimentales suiv'antes:
;

1 0
ld~(:) =AX(t)
(1 .1)
X(O) = Xo
Z(t) = BX(t)
où t E [0 )(1\\ avec T< +00
X(t) , Z(t) E Rn et A et B sont des
matrices .caYrées d'ordre·" n .
Le Problè~l qutl,se pos~\\ n'est pas la résolution classique du
syst~me ~~~. \\)vJ>~s ~JI }~~agit ~Iutôt de trouver les équations à
partir d'un~) connalssan...,e partielle des Xi (t) .
Dans laÜft~?-ttJr€~existe très peu de méthodes qui traitent des
problèmes d~O'~tt,r,fiJ;f~ation de paramètres d'un système d'équations
différentielles cornpartimentales provenant de
la théorie de
modélisation mathématique en physique , bi,ologie,
biochimie etc...
Les paramètres
(ou la matrice A) de (1.1) que nous cherchons à
identifier ici ont une signification physique .
Dans ;ce travail
,no'us
avons montré l'existence et l'unicité de la
matrice A et traité un exemple concret provenant de la biologie
Du p'oint de vue mathématiques le problème à traiter se pose
comme ci-après [2
]
2°)
POSITION DU PROBLEME
Trouver (identifier) la matrice
compartimentale
A = ( kij )1 ~ i,j~ n
solution
du système d'équations
différentielles suivant:
\\
d~~t) = AX(t)
(2.1)
X(O) = a
à partir de l'observation
(2.2) Z(t) = BX(t)
tel que
n
o ~ kij pour i "* j et kjj = - Ik j j
j=1
B est une n x n matrice donnée.
Z est un vecteur connu expérimentalement
avec:
Xj(t) connu ( expérimentalement) pour i = 1 , ... ,no
Xj(t) non connu pour i= no +1 , ... , n
REMARQUES:
a) On a X(t) = t( X1 (t)
... ,Xn (t)) et Z(t) = t(Z1(t) , ... , Zn(t) )

1 1
b) On cherche à identifier la matrice A de (2.1) . La difficulté majeure
provient du fait que X(t) n'est connu que partiellèlement,
autrement la solution serait evidente si on connaissait totalement X(t) .
c) Il est nécessaire de donner quelques définitions avant
l'étude de l'existence et l'unicité
de la solution de
(2.1)
(2.2).
3°) DEFINITIONS ET PROPRIETES DES· SYSTEMES
D'EQUATIONS DIFFERENTIELLES
COMPARTIMENTALES [ 5] [7]
On considère le système différentiel suivant:
dX(t)
_ AX(t)
dt
-
(3.1 )
X(O) = Xo
où X(t) = t( X1 (t) ... , Xn (t))
; A une nxn matrice.
Supposons que la matrice A ait les propriétés suivantes
i) Tout élément non diagonal est positif ou nul : i.e tout élément
non situé sur la diagonale principale est positif ou nul .
ii)
Les éléments diagonaux sont tous négatifs .
iii) La somme totale des éléments d'une même colonne est nulle .
Définition1
- Toute matrice A ayant les propriétés i) , ii) et iii) est
dite
matrice
compartimentale
fermée
.
- Si la matrice A du système différentiel :(3.1) est une
matrice
compartmentale
fermée
alors
le
s'ystème
différentiel
(3.1)
est
dit
système
différentiel
fermé
.
De même supposons que la matrice A ait les propriétés suivantes
iv) Tout élément non diagonal est positif ou nul .
v) Tout élément diagonal est négatif .
vi) La somme totale des éléments d'une même colonne est négative
ou nulle.

1 2
Définition2
- Toute matrice ayant les pll'oprétés iv) v) et vi) est une
matrice
compartimentale
ouverte
.
- Si la matrice A du système différentiel· (3.1) est une
matrice
compati mentale
ouverte
alors
le
système
(3.1)
est
dit
système
différentiel
compartimentai
ouvert
.
Rmarqu~s·[2] ': 1°) Il est facile de montrer que tout système
compartimentai ouvert peut être fermé par introduction de
compartiments supplémentaires .
2°) Les équations ci-après que nous étudiérons sont
celles. d'un système compartmental fermé le plus général .
i
Propriété vii) - Toute matrice compartimentale (fermée ou
ouverte) a ses valeurs propres nulles ou négatives [3] .
4°) EXISTENCE ET UNICITE
i) Cas
général
Dans ce paragraphe nous étudiérons l'existence et l'unicité d'une
matrice A solution du problème (2.1) (2.2) de manière générale
En fait (2.1) n'est rien d'autre qu'un système d'équations
différentielles de premier ordre à coefficients constants dont la
matrice est inconnue .
a) Supposons que les racines caractéristiques (les valeurs
propres) À1 , .... , À n de la matrice A sont distinctes .
b) Supposons que chaque composante Zj(t) de z(t) peut s'écrire de
façon unique sous la forme
n
.
(4.1) 'i(t) ~ L..c~eXP(À.kt)
k=1
Remarque : la matrice B de (2.2) étant connue , on montre [3, 7]
qu'on peut déterminer À et les ~ de (4.1) .
k
Soit Al = ( ~) i,k = 1, .... ,n la matrice des coefficients des
exponentielles de (4.1) et
A = diag (Àj ) i = 1 , ... , n la nxn matrice
diagonale des valeurs propres de A . Alors on a les résultats
suivants :

1 3
Théorème1
[3]
S'il existe une matrice T inversible telle que
B.T =Al
T.1 = a

1 = t(1, ... , 1)
Alors la matrice" A de (2.1) est identifiable et est égale à
TA T-1 .
De plus si. la matrice T est unique alors A est identifiable
de façon' iù, iClue .

Démontrotlon:
10) Existence
Introduisons le système différentiel
dY _ A Y
dt-
Y(o) = 1
A
est la matrice diagonale constituée des valeurs propres de A .
Posons x = TY , T est la matrice de transition deY (qui est connue)
à x qui est partiellement connue . Remarquons que nous avons
Z = Al Y , puisque x = TY , nous obtenons:
dx
dY
dt = Tdt = TAY = TAT-1 x et x(0) = TY(0) = T.1 = a .
D'autre part Z = Al Y = Al T-i X = Bx . On en conclut que TA T-1 est
une solution de notre problème d'identification
En fait si l'on pose A = tA T-1 on obtient :
dx
;
dt =, Ax,
x(O) = Cl
ainsi que Z = Bx . A vérifie bien le système dj{férentiel (2.1) et
l'observation Z = Bx .
2°) Unicité
Puisque A = TA T-1 ; l'unicité de T entraîne celle de A .
ii)
Existence
et
unicité
d'une
matrice
compartimentale.
Le théorème1 ne montre que l'existence et l'unicité de la matrice
A quelconque solution de (2.1) . Dans ce paragraphe nous
montrerons l'existence et l'unicité d'une matrice A
compartimentale solution, de (2.1) . .
.
Nous avons déjà souligné que tout système compartimentai ouvert
pouvait être fermé par l'astuce d'addition de compartiments
supplémentaires .
' .
Nous utiliserons uniquement les propriétés des matrices
compartimentales fermées .

14
Nous rappelerons chaque propriété et nous essaye~ons de la
"
1
traduire: par des des relations algébriques entre les coefficients de
la matrice et nous utiliserons le théorème1 ci-dessus pour montrer
l'existence et l'unicité ,d'une matrice compartimentale solution de
(2.1) .
Propriété1.
5iA .est, une mat~ice d'un système
compartimentai
fermé alors la somme des éléments d'une colonne
quelconque est nulle'.

Soit t1 = (1 , .... , 1) , le produit t1. A est composé d'éléments qui
sont chacun la somme des coefficients d'une même colonne , donc
on a:
(4.2) t1. A = 0
avec 0 = (0 , .... ,0).
D'après le théorème1 on a : A = TA T-1
et (4.2) équivaut à :
(4.3)
t1.A = t1.TAT-1 = 0
(4.3) ne rend pas compte de la présence éventuelle d'éléments nuls
dans A .
On peut conclure que ( en utilisant les hypothèses du théorème1)
s'il existe une matrice T inversible telle que :
B.T=A 1
(4.4)
T.1 = a
{
t1.TAT-1=0
alors il existe une matrice compartimerntale pleine ( sans élément nul) A
telle que :
(4.5)
A = TAT-1.
de plus si T est unique alors A est unique
Remarque : La démonstration de ce résultat est identique à celle
du théorème1 pourvu qu'on ajoute la traduction (4.2) en fin de
démonstration.
Pour bien rendre compte de la présence éventuelle d'un zéro
(élément nul) dans la matrice compartimentale nous utiliserons la
propriété suivante :
Propriété2
Tout élément nul d'une matrice compartimentale
fermée est égale à la somme des éléments rion nuls situés
sur la même colonne que lui .

Soit A = TA T-1
une matrice compartimentale fermée et soit (t..)
1J
o
I,j = 1 , ... ,n
les coefficients de A(ou TA T-1) , posons ti j'
un
o o·
o
coefficient de TA T-1 qui est nul , autrement ti j'
désigne un zéro
00

1 5
(élément nul) situé sur la ioième ligne et joième colonne , alors
d'après la propriété2 on a :
p
(4.6) t~aja ='2., tjja avec tija -:;t. a et p~ n, i-:;t. Ïo,
i= 1
Nous so.ùhaitons écrire (4.6) en fonction des coefficients de T pour
cela nous partons de la considération générale ,d'algèbre linéaire
suivante :
Si A =(a..) B = (b..) C =(c..) i,j =1 , .. , , n sont trois matrices et
Il
Il
Il
n
~
~ ~
ABC
(oij) le produit de A , B et C , alors on a 0ij
iaikbkh
L.J k=1
1= 1
En posant T = (~ij ), T-1 = (a ) i,j = 1 , ... , n et en utilisant les
ij
mêmes notations qu'au théorème1 on aura :
n
tij = L~ikÀkakj pour i,j = 1 , ... , n
k=1
,n
n
i
i
t
et; (4.6) devient alors:
iOjO ,= L~iOkÀkakjO " tijo = L~ikÀkakjO
k=1
k=1
n
L~'kÀkakjO
k=1
i='1
(4.6) ou (4.7) sont des relations
non linéaires entre les
coefficients de T .
Théorème2
On fait les mêmes hypothèses qu'au théorème1 . De plus ,
on suppose que la matrice T vérifie les relations (4.4) et
(4.7)
alors
il
existe
une
matrice
compartimentale
fermée
A telle que A = TA T-1
de plus si T est unique alors 'A est
unique .

1 6
Démonstration: ce théorème se démontre de la même manière que
le théorème1 . Les propriétés (4.4) et (4.7) traduisent le caractère
compartimentai de A .
5°) . Application
numérique
On considère le modèle compartimentai [3] proveriant de la
modélisation mathématique en pharmacocinétique :
Ko
avec les conditions initiales : x (8) = x (8) = 0 et x (8) = 0 où 8 est
1
2
o
un retard inconnu . xo(t) , x (t) et x (t) sont des concentrations
1
2
d'un produit pharmaceutique dans les compartiments 0 , 1 et 2
(qui
sont respectivement le tube digestif , le sang et les autres tissus).
x (t) est connu expérimentalement ( c'est-à-dire on a relevé la
1
concentration sanguine du produit) , on cherche alors à identifier
les kij et 8 (c'est -à-dire les vitesses d'échange et le retard).
Les équations du modèle ci-dessus [7] sont : pour t~8 on pose
t1 = t-8 et on a :
(5.1 )
dx o
dt
= - kax o
1
avec les conditions initiales : x (0) = x (0 = 0 , xo(O) = 0 ( t = a ::::) t = 8).
1
2
1
On a relevé la fonction X1 (t) et on demande d'identifier les coefficients kij
, le retard 8 et la fonction x2 .
Remarque : - Le système différentiel (5.1) n'est rien d'autre qu'un
système compartimentai ouvert . On peut alors montrer l'existence et
l'unicité de la matrice A == (k..) de (5.1) par une simple application des
Il
théorèmes 1 et 2 vus au paragraphe 4 . Cependant on obtient des relations
algébriques non linéaires entre les cefficients k... Pour obtenir les
IJ
'
coefficients k.. de (5.1) nous procédons par une méthode originale
IJ
ci-dessous décrite .

1 7
Le problème consiste à identifier d'abord la matrice A de (5.1) à partir de
la connaissance de X1 (t) , on a :
avec k..>o
J
IJ

On peut écrire les xi(t) de (5.1) sous la forme suivante :
x (t) = a ex,p(-À
exp(-À t) + a exp(-À t)
1
1
1t) + a2
2
3
3
(5.2)'
x (t) = b exp(-À t) + b exp(-À t) + b exp(-À t)
1
2
1
1
2
2
3
3
avec
0< 1.,1 < 1.,2 < 1.,3 où -À (i=1,2,3) désigne une valeur propre de A .
j
Connaissant X1 (t) on sait identifier a
' a
' a
' \\
(i = 1 , 2
3 ) par une
1
2
3
1
méthode d'optimisation globale (Aliénor)
des fonctions de plusieurs
variables décrite en [7]
. Nous utilisons une méthod,e dite de ~agner pour
identifier les kiJ' étape par étape . Puis que les À. (1 = 1 , 2 , 3) sont les
1
1
valeurs propres de A , d'après (5.2) , -ka est une des valeurs propres de A ,
donc connaissant les À. par la méthode d'optimisatic~n globale , on connaît
1
ka'
Prenons par exemple 1.,3 = ka alors les autres coefficients de A sont
obtenus successivement par les formules suivantes [7] :
'1)
a 1À2 k a + a 2 À1 ka + a 3 À1 1.,2
k
=
21
a
(ka - 1.,1) + a (k
1
2
a - 1.,2)
et K21 est connu
puisque a
' a
' a
' À i = 1 , 2 , 3
et ka sont identifiés .
1
2
3
j
Par suite on a :
1.,11.,2
.
ii)
K o = ç
k
cornu
Ensuite on a :
1
o est ainsi connu une fois k21
iii)
k
= 1.,1 + À,2 -k
- K
12
21
o
1.,1 ' 1.,2 ,k
et K
est connu
21
o étant connus alors k12

1 8
Ainsi la matrice A est parfaitement identifiée à partir de la seule
connaissance de x (t) .
1
Démonstration des résultats i) ii) et iii)~.
Avec les considérations ci-dessus le système d'équatio~s différentielles
(5.1) peut se mettre sous la forme :
(5.3)
et le système (5.2) devient :
.
x 1(t) = a exp(-À t ) + a exp( -À t ) + a exp( -À t )
1
1 1
2
2 1
3
3 1
(5.4)
x (t) = b exp(-À t )
exp(-À t )
exp(-À t )
2
1
1 1 + b2
2 1 + b3
3 1
a
=
=
1 + a2+ a
b
0
3
1+ b2 + b3
En injectant (5.4) dans (5.3) et en identifiant les coefficients des
exponentielles , on obtient le système algébrique non linéaire
suivant
. (-À
+ k
+ k )a
= k
b
(5.5a)
1
12
O 1
21 1
(-À
)a
b
(5.5b)
2 + k12 + kO
2 = k21 2
(5.5)
(-ka + k12 + ko)a = k
+ ka D
(5.5c)
3
21 b3
(-À
) b = k
a
(5.5d)
1 + k21
1
12 1
(-À~+ k21 ) b2 = k12a2
(5.5e)
(-ka + k
=
21 ) b
k
(5.5f)
3
12 a 3
des relations (5.5) on tire la relation
(k 21 -À 2 ~a1 (ka - À1) = -,(ka-À2)a2(k21-À1)
.
:
a 1À2(ka-À1),+ a2À1(ka-À2)
Salt k21
=
en dévéloppant le numérateur de
a 1(k a -À1) + a 2(ka -À2)
,
l'expression k
et en tenant compte des conditions initiales qui donne
21
. ' .
'
a 1À2ka + a 2À1k a + a À
3
1 À2
a 1 + a2 = - a3 ' on obtient finalement K21 =
(k
_ À)
.
(k' - À )
: ,
a 1
a
1
+ a 2
a
2
Pour démontrer ii) et iii). nous utilisons les deux propriétés générales
d'algèbre linéaire suivantes concernant les matrices :

1 9
a) Le déterminant d'une matrice est égale au produit de ses valeurs
propres.
b) La trace d'une matrice est égale à la somme de ses valeurs propres .( on
rappelle que la trace d'une matrice est la somme 'Cie ses éléments
diagonaux) . Notre matrice A est
-(k 12 + ka)
k21
ka
A =
.
~1 2'
-k21
0
,
,
(
.
0
O - k a
J
Le déterminant de A est
dét(A) == -k k k
a a 21
-1. 1 ' -1.2 ' -1. étant les valeurs propres de A on déduit de la propriété a)
3
que
dét(A) = -À À À
d'où. dét(A) = -k k k
= -À À À
;
1 2 3
! . .
a a 21
1 2 3
puisqu'on a ka == À~on ci, ' kak21 = \\ 1.2 où encore ka = \\ À2/k21 ce qui
démontr~ ii) .
Finalement la trace de A est trA = -'(ka + ka + k12 + k21
on déduit de la
propriété b) que trA == -(ka + ka + k1~ + k21 ) == -( 1.1 + 1.2 + 1. ) et puisque
3
1.
= ka on a alors: k12
3
== 1. 1 + 1.3 - k21 - ka ce qui démontre iii) .
Calcul du retard 8
D'après (5.1) on peut écrire x (t
a 1) = ci e- kat1 où ci :'est une constante à
déterminer . En additionnant membre à membre les égalités (5.1) on obtient
\\
(5.6)
x (t
(t
(t
1
1 ) + x2
1 ) + x
)
x (t )
3
1
== -ka 1 1
.
dx (t )
. •
1
1
(où x1(t1) ==
d t ) · En utilisant les expressions de x (t )
1 1
dans (5.2) en injectant dans (5.6) et par identifièation des
coefficients de e- Àjt1 on obtient les relations suivantes :
\\ ai + \\ b 1 == ka ai
(5.7)
1.2 a2 + À2b2 == K a
a 2
[
À3a3 + 1. b + À
a
3 3
3C1 == ka 3
La dernière égalité de (5.7) donne la valeur de ci . D'autre part on
sait que:
xa(O) == xa(8) = D pour t1 == 0 ou encore t = 8 et d'après l'expression

20
Détermination
de
la fonction
x (t)
2
La matrice A étant identifiée et les valeurs propres -À. étant
1
3
L
connues d'après (5.1) on a : x (t) =
bje-Àjt et d'après (5.2)
on
2
i= 1
3
' a.k
trouve bi~= a.k
/(k21
1 12
À t
-\\ ) d'où x
-(k-2----=-1----'-:.....::À'-----.-) e- i
1 12
2(t) = L
1
i = 1
Résultats
numériques
On a relevé expérimentalemrent x sur le tableau suivant [7]
1
-
t, en
1
1.5
2
3
4
6
heures
~~1'\\0'lÇ~2~ 28 32 36
l '
; ';>.\\
, ~ 'lA'
' .........
/
" '.
x 1(t) en 1.5
3.2
3.5
3.5
3.2
2.7
',2,35 ~.)~) 0.9 0.55 0,4
~g/I
UJ(
v
\\
(
o v'
...,~
'.1
"
/ s-';
.
,,:,'
u
, "--._-/' ,.,,,,<:-
'-0. (1
"
'~..~_......
3
L
On cherche d'abord
ai' \\
i = 1 , ... ,3 tels que x1(t) =
a je -À it
i= 1
en utilisant la méthode d'optimisation globale [7] , on obtient :
a1 = -0.686
À = 2.7448
1
a2 = -3.760
À2 = 2.027
a3 = 4.446
À3
= 0.0858
On prerd ka = À
= 0;0858
les
formules i) ii) iii) ci-dessus
3
donnent,alors
k
= 2.602, ka = 2.1385 et k
= 0.031556
21
12
Finalement la matrice à identifier est :
(-(k12 + ka) k21
ka
A =
k12
-k21
0
J~ (-2.17 2.602 0.0858
0.031
-2.602
0
0
0
-k
o
0
-0.0858
a
J
Le retard
o = 0.7993h
avec D = 106.39 .

21
Bibliographie
[1] R.Bellman , K.J.Astrom:
Math. Biosc vol.7 , P.329-339 , 1978.
[2] Y . Cherruault et P.Loridan : Modélisation
et méthodes
mathématiques en biomédecine , Masson
Paris ,-1977 .
l
[3] Y . Cherruault : Identification des paramètres d'échange dans les
systèmes compartimentaux , revue céthélec , n059 , 1979
[4] C.Cobelli, G.Romanin Jacur : Math. Biosc . vol .30 P.139-151 , 1976.
[5] J.D~lforge. : Math.Biosc'. vo1.36' P.119-125 , 1977.
[6] Pon~riaguine L : Equations différentielles ordinaires :Ed . Mir Moscou
1969. ':
[7] B.Somé : Identification ,côntrole optimal et optimisation dans les
équations différentielles compartimentales . Thè;se de 3ième cycle,
université Pierre et Marie Curie , Paris VI , Juin 1984 .
[8]
Y.Cherruault: New deterministic method for global optimization and
application to biomedecir)e .Int. J. Biomed. Com'put. 27(3/4) , 215-229
(1991).

22
4°) Résolution
numérique
4.1 - Considérations
générales
La matrice A étant connue par identificati~n, nous pouvons
i
résoudre ,le problème (1.3)
(1.4).
Comme nous; l'avons dit , le
contrôleu(t) intervient implicitement dans le critère (1.3). Pour la
,
résolution de notre problème de contrôle optimal posé en 2°), nous
chercherons d'abord une relation (explicite si possible) entre X1 (t)
et u(t) ; c'est-à-dire
on veut trouver une fonction F telle que
!
X1 (t) = F(u(t) , kij)
où l'on a:
A = (kij)1 ~ iJj~:n
alors (1.3) deviendra :
00
(1.3')
J(u*(t)) = MinU(t)
f (F(u(t),kij) - a)2dt
o
Pour déterminer la fonction F, nous allons transformer le
systèm~
différentiel
linéaire
(1.4)
par
le
biais
de
la
transformation
de
Laplace,
ce
qui
nous
donnera
une
relation
explicite entre X1 (t) et u(t).
Considérons
en
général
le
système
(1.4)
avec
des
conditions initiales nulles c'est-à-dire
dX
.
(1.4')
Cft = Ax(t) + u(t)
[ x(o) = Xo = 0
oC.J seule la première composante de u(t) encore qotée u(t) est non
nulle.

23
La transformation de Laplace de (1.4') donne
,
(1.5)
Sx = Ax
.......
+ u

xet û désignent "Ici, transformée de
:
Laplace de x et uJ
S la variable complexe liée à! la transformation
de Laplace;' ,En supposant que la matrice (SI-A) est inversible,
d'inverse' notée (SI-A)-1:,
on déduit de (1.5) la relation
(1.5 1
où 1 désigne
la
matrice
unité
)
x(s) = (si -Ar 1 û
d'ordre n. On déduit de (1.5') que:
(1.6)
x1(s) = [ (si - A)-1 ]11Û(s)

X1 est la première composante du vecteur x.
Dans (1.6) [(si -A)-1 ]11 désigne l'élément de la ~atrice (SI - A)-1
i
situé sur la première ligne et à la première colqnne. Soit J11 (s)
i
cet élément ; c'est une fraction
rationnelle par' rapport à S, en
effet d'après la règle de Cramer J11 (s) est le quotient de. deux
\\
déterminants,
celui
du
dénominateur vaut dét(SI-A)
(déterminant
de (SI-A) ) c'est uh polynôme de degré n pàr: rapport à S. Le
déterminant du numérateur est de degré n-1
par rapport à S. On
aura donc:
Pn-1(s,kij) ....... (
=
li s)
qn(s,kij)
P n-1
et qn
sont respectivement des polynômes de degré n-1 et n
par rapport à S . (1.7) peut encore s'écrire :
.......
gn(s,kij)
.......
(1.7')
u(s) =
( k .. ) X1 (s)
p n -1 s, IJ

24
---9L
Une décomposition de
en somme d'éléments isimples de la
p n-1
1
forme
nous permettra de trouver l'original (image
s + b
!
i
inverse de la .transformation de Laplace) de la relation (1.7'). Eh
,
1
fait nous 'ohtien'drons une expression expficite de u(h par
1
!
(1.8)
...... ( ) J qn(s,kij)
u(t) = rn(t) * X1 (t)

rn
est te 1 que
fn S....,
. (
k
! Pn-1
s, ij)
(le signe * désigne le produit de convolution).
qn
Il
La détermination de rn tel que f n =
s'effectuera comme suit:
p n-1
On décomposera fn
en
somme
d'éléme~ts simples, oh
1
cherchera l'original pour chacun d'eux en se servant des propriétés
1
J
, : "
1:.
'
de la tra,nsformation de' Laplace
. Pour cela , 0,11 recherche les
1
pôlesSk: (k = 1,2'00"
m) de la fraction rationnelle fn(S) et leur ordre
!
1
de multiplicité nk
,alors l'original rn(t) de fn(S) sera la fonction
:
m
1
( 1.9)
L
'n(l) =
(nk 1)! '.Ii.:n s --; sk (
k=1
où la somme est étendue à tous les pôles de la fonction fn(S),

25
Dans le cas où tous les pôles de fn(S)
sont simples, la formule
(1.9) prend la forme
(1.9')
en revenant à (1.8) on obtient une forme explicite de u(t).
Dans
la
pratique
on
calculera
explicitement
u(t)
en
fonction des k
sans aucune difficulté. A priori, on peut dire que la
ij
solution optimale sera une combinaison linéaire de~ fonctions 1, t ,
J.qt
~lmt
1
e
, ... e
où les ~i sont fonction des kjj" Est-on sûr d'avoir
ainsi trouvé la solution optimale ?
Le problème est de trouver u(t) qui minimise
00
J(u(t)) = f (X1 (t) - a )2 dt . Par la transformatiQn de
o
Laplace
de
l'optimum
X1 (t) en X1 (s)
cela
r,evient à
minimiser
00
f
a
(X1 (s) - ~) 2ds où on a choisi s réel et
est
la
s
o
transformation de Laplace de a. On peut alors écrir~
00
MinU(I) J = Minu(l) f (F(s,kii)Û - as)2 ds
o
1
où F(s, !kij) est la fraction rationnelle faisant passer de X1 à Û.
Rem a r que:
les conditions d'existence de l'intégrale du critère J
sont étudiées au paragraphe 4. b) de ce chapitre1.

26
~
A l'aide d'un calcul de variations (en posan
il = Ûo + cil ) on obtient
dJ
.
une fonctionnelle J( E) qui est minimum quand
dE := 0 pour E = 0

1
00
f (
~
a)2
i
J ( E ) =
F ( s , k ij) . (ûo + Ell ) -
;-
ds
o
Les calculs effectués donnent
00
~~
f
=2
(F(s,k;j). (ûo + tTl) - as) .F(s,kij)T1ds ~ 0 pourE=O.
o
~
Comme cette relation est vraie quel que soit
11 (S) on en déduit
que:
(1.10) (F(s,kij) .(Ûo+ETl) -~) = 0
b
( Jf(x)g(x)dx = 0
\\j g(x)
~ f(x) == 0 )
a
a
(1.10). s'écrit
encore
F(s,kij) .ûo
=
s
relatidn
satisfaite
par
l'optimum
; c'est bien cette relation que nous avons considérée au
,
,
i
début du paragraphe (relation (1.7) ou (1.7') avec
i
X,1 (t) = a
).
,
On déduit que l'on a bien trouvé la solution optimale au
sens du critère défini plus haut . Donc le contrôle optimal u(t) tel
que û(S) soit solution de (1.10) est tel que
A
f(t, k )* u(t)
ij
= a où f est telle que f = F .

27
4.2
Applications
numérigues
à
des
exemples
concrets
de
la
pharmacocinétfgue
!
a) Exerrlple
1
Un
problème de contrôle optimal souvent rencontré en
pharmacocinétique
[14] se présente comme
suit
: Trouver une
fonction u* (t) telle que :
00
(1.11) J(*u(t)) =
MinU(I) J (X1 (t) - a )2d t
o
a étant donnée , X1 (t)
et
u(t)
vérifient
le
système
différentiel
1
compartimentai (1.12) suivant :
dX1 (t)
dt
= - (ka + k12)X1(t) + k21 X2(t) + u(t)
(1.12)
dX~~t) = k12X1(t) - k21 X2(t)
X1 (0) =
X2(0) = 0,
: En
utilisant la transformation
de
Laplace
, le système
(1.12) donne:
- "
où Xi
est la transformée de Laplace de Xi .
,
p '
. :
.~ ••

28
En éliminant
X2
grâce à la relation
(S+k21) X2
k 1 2X1
il
vient
"
" k 2 1 k 12-'"
"
que : s x 1 == - (ka + k12) x 1 +
k
x 1 + li
.
. ...
s+ 21
:
. . "
[.k 21 k1 2
]"
d'où (1~.13). : ,li =
- S+k21
+ (ka + kJ2) + s .. X1
.
.
.
En passant aux originaux on déduit de (1.13) que
t
-k21t f k21'C
.
(1.14) u(t) == -k21k12e,
e .
x1('C)d'C+(k a +k12)X1(t)+x1(t)
o
Pour
la
résolu~ion effective de
(1.13)
nous
utiliserons
1
plusieurs
méthodes
d'abord
nous
considèrerons
une
forme
particulière de X1 (t) , ensuite nous utiliserons une technique de
dérivations successives et en"fin une méthode d'approximation de
u(t) par des spline fonctions.
i) Forme
particulière
dex1(t)
1
Puisqu'on sait que le critère atteind son minimum ahsolu lorsque
1
x 1(t) == a
pour tout t > 0 d'une part et
X1 (0) == 0 diautre part, tout cela peut
1
être réalisé en choisissant pour
X1 (t),
une fonction qui s'approche de a
!
au sens de L2(O, (0)
autant que l'on veut :, soit par exemple
a -----
t
o

29
,
En faisant tendre h vers a , on fait, tendre X1 (t) vers a
(dans L2). l,'expression de X1 (t) donnée par la figure ci-dessus est:
1
ah"t si O$t$h
a
si h~ t
En portant X1(t) dans (1.14) on obtient (1.15) ci - après
t
'u(t) = -k
k
e-k21tf~"Cek21"Cd +(k +k1 )~t + a
21
12
h '
"C
0
2
h
h
a
(1.15)
,si O~ t~ h
k21 h
-k21 t
(e
,_ 1)
u(t) = ako + ak12 e
hk21
'.
si h~ t
,
t
'
k21
Dans (1.15) il faut calculer Je
"C ha"Cd"C!
o
:
_t_ ek 21 t
1_ (e k 21 t _ 1)
il est égal à
k21
2
k21
Finalerilent l'expressio;n (1.'15) donne :
i
1
--
ak12'
,
-k21 t
akot
§!. ,
+ - - +
u(t) = h k21' (1 - e
)
si O~ t~ h
h
h
(1. 1 5 ')
ak1 2
., k21 t(
u(t) = ako'- - - e
1
si hi t
hk21
'
.....
,",
;

1
. -~.~-- -- ~ - - - - -
1
1
30
~JJ..wu_s
numériques
1
On veut maintenir une concentration Xl(t) = 18~lg/rnl d'un pr8cjuit
pharmaceutique
da~s le com;1artiment sanguin avec les' données
[14] (consta,ntes biologiques) : k12 = 2.9545 ,k21 =5.7:~14 ,
ka c:: 0.3658
avec X1 (0) '= X2(O) = ,0.
En
utilisant nos résultats trouvés
(1.15')
on obtient les valeurs
numériques du ·contr610 optimal u(t) pour différentes valeurs de h
,
suivantes :
--------
u(t)
t
-------
-------
-
Il = 0.19
Il = 0.15
h = 0.10
h ~ 0.05
h = ---
0.03
_0-
a
91\\.736
120
180
350
6UO
0.01
97.804
123.885
185.827
371.655
619 .424
0.U3
103.492
131. 09
196.636
393.271
55 .4517
0.05
108.641
137.612
206.417
52.635
5Q .168
U.10
119.517
151.388
47.0816
41. 3213
39 .3248
0.15
128.118
42.2825
37 .006
32.6B4
31 .179
0.19
39.009
33.401
30.7833
27.3454
27 .345
0.20
37.206
31.91
29.4377
26.191
25 .060
0.5
12.0874
11.4036
10.6913
10.1079
9 .90il6
1
6.899
6.86à
6.8194
6.786
:6 .774
1 r
• :.>
6.6024
6.6003
6.58517
6.S8506
.58502
G
2
6. A~5
6.5854
6.5844
6.5844
6 .5844
i
2.5
6.5854
6.5854
6.!:i844
6.58·14
6 . 58'1 il
3
6.5854
6.5854
6.5844
6.5844
fi .58~1
--
- - - ,
- - - - - - - - ' - ' -

')
C(J URBESOLI CCl NT RCl L E (j PT Hl fi l. u ( t )
T!
AVEC PRRRMETRE ~t VAR l ABL.E
1
l 56
CôN5TANTE R==18
;
1
1
I \\ ~l::::~j
, l . O~
~
1
1
\\
1,1
\\ "
H=O. 10
1
\\
14\\~\\H\\~O~~:.19
32
"'-,
24
16
,
U (T)
8
"----=:
= = = = - - - - - - - - - - - - -
0.2
0.4
0.6
0.8
1
2
2.4
.-,-
,
1
··1
l
,1
1
1

CelURBES DU CGN1RôLE ôPTIMRL u(t) et x1(t)
r
AVEC PARAMETRE H VARIABLE
C~NSTANTE A=18
~ 56
i
1
Îi \\ri 0::0 • D5
t \\
j
\\\\H=O.10
l 4à\\\\èi~O. 15
H~O.19
\\ \\ \\ \\
32 \\ \\' \\
\\
.
t
~
24
Xl (T)
UrT)
----=-.;;::0;;;;:::-------
0.2
O. 4·
0.6
0.8
1
2
2.4
1
1
l
,
t---
t----
1
..
T

ii) Une
méthode
de
dérivations
successives
de
produit de convolution et de
décomposition
de
la
solution
applicable
à
un
problème
de
contrôle
optimal
avec contrainte issu de la biologie.
Préalable:
Cette partie a été l'objet d'un article publié en 1991 dans
Afrika Mathematika.

35 -
Afrika. Mathematika
Series 2 Vol. .j (1991)
UNE METHODE DE DECOMPOSITION DE LA
SOLUTION APPLICABLE A UN PH.OBLEME DE
CONTROLE OPTIMAL AVEC CONTRAINTE
ISSU DE LA BIOLOGIE
D. SOME
~ous proposons un'~ mét:ilOde de JécOlIll)()~ition (G, Adoillian) pour la résolution
J'un problèlll,:"de runtrôl,! optilll:L! avec contr:linte i~su de la lId'orie dl~ lllodélisation
m:,thélllati'lue en hiOlllér1ecin .. , Celte mdllt,de a été appliquée à la résolution de
nombreuses équations foncliol\\n"lI"s (:d~ébrique", dilTérelltielleB, aux dérivées par-
tielles etc) Ijnéairt,~ ou n(Jl' lin,;:,ir"B,
MOTS CLÉS~
Méthode de décomposition. contrôle optimal modélisation
maJhématiqlw, équations f,.nctiollnellcB.
A bBlracl
We propose a dl~COlllposition method (C. Adomian) in view of solving a constraint
control problelll frolll a Illathelllaticai Illodei theary in biollledicinc. This lIlethod
ha-'l be(~n applied tu Bolv .. IIL,ny funclion:d equ:;~;0ilci (algebric. ditTerent.ial, partial
din'erential etc ... ) line:.r ur Ill) lincar.·
KEYWOliDS:
UecolllpoBition IlIethe.J, optimal controllllathelllatic:L! modrdling,
[unctional equatiolls.
o.
Introduction
Les situatiolls concrètes qui conduisent du point de vue mathématique il la
résolution des problèmes de contrôle optimal sont fréque~tes'et variés. On les
rencontre, en particulier, en biologie physique,mecanique etc...
.
Dans la
littérature, il existe très peu de méthodes performantes qui traitent des problèmes
'de contrôle i&luS de la théorie des modèles mathématiques en biomédecine.
Dan!:! ce travail, nuus proposons J'abord une méthdde de dérivations successives
Je produit de convolution qui permet de ramener la résolution d'un problème de

1
-
:)6 -
B. SOME
1
contrôle optimal avec contrainte en biornédecine à la résolution d'une équation
différentielle. Ensuite nous appliquons la méthode de décomposition de G. Ado-
mian [1] pour resoudre cette équation différentielle.
1
1.
Postion du probleme
Un probème souvent rencontré en biologie (pharmacocinétique) est le Rui.ant.
1
Trouver u*(t) tel que

J(u*(t)) = min [+00 (xdt), _a)2 dt
(1.1 )
1
u(!) 10
~a.ch8.ht que Xl Ct) et u( t) sont solutions du' système différentiel sui vant:
1
x(t)
= Ax(t) + u(t) }
( 1.2)
x(ü)
= Xo
1
avec
A =" (kij h:Si"Sn
une matrice à coefilcients constants k;j ayant une
signific.ation biologique; x(t) = (Xi(t), X2(t), ... , xn(t))
1
Rell1arques
10)
Nous n'étudions pas ici le problème d'existence et d'unicit.é. Nos méthodes
exp!icites décrites plus bas, prouveront l'existence et l'unicité de la solut.ion.
20 )
On peut aussi montrer l'existence et l'unicité de la solution du problème
1
(1.1) et (1.2) en utilisant le principe du maximum de Pontryaguine [9].
2.
Essai de res~lution
1
La difficulté du problème (1.1) (1.2) provient du fait qu'on minimise par rapport
à une fonction u(t) qui n'intervient qu'implicitement danR le critère J. Pour lever
1
cette difficulté, nous allons chercher d'abord une relation (explicite si possible)
entre Xl(t) et u(t) soit
XI(t) = F(u(t), kij )
de sorte que le problème (1.1)
devient
1
min [+00 [F(u(t),kij ) _ aj2 dt
(2.2)
u( t) 10
Pour cela nous utiliserons les propriété de la transformation de Laplace [41
1
sur le système différentiel (1.2), ce qui nous permettta de donner une relation
explicite entre x](t) et u(t). En effet si Î désigne la transformation de Laplace
de /(t) S EQ;; la transformation de Laplace du systèmJ différentiel (1.2) avec
1
conditions initiales NULLES donne
SI = Ai + û
(2.3)
1
1
1
1
1

- J?
UNE METODE DE DECOMPOSITION DE LA SOLUTION
En supposant que la matrice (51- A) est inversible avec (51- At! comme
inverse ,et 1 la matrice unité d'ordre n, on déduit de (2.3) que

[(SI - A)-l] 11
désigne le premier élément de la rri-atrice
(SI _ A)-l. Le
problème (1.1) d~viellt alors
min 1
Xl(S) -
a)2'
-~
dS = min 1+00 F(S,kij)û - aJ2
+00
(
[
_
dS
'U(I)'
0
.
S
u(l)
0
S

.
a
et
cst la transformat.ion de Laplace de a. A l'aide du calcul de va.riations
S
.
(en posant
Û:::: Ûo + E~), on obtient une fonctionnelle J(e) qui est minimum
quand
o
[+00 [
a]' 2
Jo
F(S), kif)' (ûo + (;"/0 - S
dS
Le\\l caleds effectués donnent:
dJ
[+00 [
aJ2
de :::: 2 Jo
F(S,k,;)ûo - S
F(S, kij)f} dS :::: 0
Comme cet.te rélation e::lt vraie quelque soit ry(S) on en déduit que
[ F (S , ~j) ÛO - ~] = 0
(2.5)
(1.' {(x)g(x) dx =0Vg(x) =>: {(x) ~ 0)
(2.5) s'écrit encore
F(S,k,)ûo = ~. rélation satisfaite par l'optimum uo. On
s
.
en deduit que l'on a bien trouvé la solution optimale au sens du critère défini
plus haut. Donc le contrôle optimal u*(t) tel que û(S) soit s?lution de (2.5) est
telle que
.
f(t, ~j)'* u(t) où. J vérifie j = F
l
Dans la pratique on pOurra utiliser des méthodes d'approximation pour résoudre
(2.6) mais nous présentons ici ~ne méthode de dérivations successives de produit
1
1
1
1
1
1

1
- 38 -
B. SOME
1
de convolution pour obtenir une équation différcntielle que nous résolvons par la
suite par la méthode de dé~'omposition en series de G. Ador:nianill.
Nous ullustrons maintenant nos idées par un exemple concret provenant d'un
1
modèle compartimcntal classique en pharmacocinétique.
3.
Exemple d'application
U
On considère le problème suivant [9]. Trouver u·(t) tel qtJe :
J( u·(t) == min [+00 (XI (t) - a)2 dt
i
.
u(t) Jo
1
. Sachant qùexl (t) et u(t) 'sont solutions du système différentiel suivant. décriv~t
un'mbd~le compartimentaI 15]:
ft
:i: 1(t) . --
-(ko -+ kI2Xl(t) -+ k2IX2(t) -+ u(i) }
X2( t)
=
ki2XI (t) -k21 :i:2(t)
(3.2)
XJ (0)
=
X2(U) = 0
1
x.(t) dési~ne la déri'vée Jexi(t), i = 1,2.
,
3.1
Description de la m~thode de dérivations 8uccessiv."
1
En utilisant la transformation de Laploce dans (3.2) et après élimination de X2
la rélation (2.6) s'exprime ici par une éqiJation de convolution [91 de la Corme:
1
K(t) *:u(t) == a
(3.3)
où * désigne le produit de convolution 181 avcc
1
K(t) == C1e-)11 -+ C2C-2)1t
(3.4)
où ÀI et À 2 sont les valeurs propres de la matrice du système d'~quationsdifférc:1ticlles
1
(3.2), Cl et C2 sont des constantes données par:
Cl == K 21 -+ .\\) et C -:::: K21 -+ .\\2
2
À
1
2 -
ÀI
À2 -
À 1
Comme K(t) est une somme de deux exponentielles elle est solution d'une
équation différentielle de second ordrro [10] de la forme:
1
K(t) -+ oK'(t) -+ f3K"(t) == 0
(3.5)
On motre que, en derivant deux foiB K(t) donné par (3.4) et. en injectant dans
1
(3.5) que:
1
1
1
1
,

- 39 -
UNE METODE DE DECOMPOSITION DE LA SOLUTION
Décrivons maintenant la méthode de dérivation,
Nous voulons résoudre l'équation intégrale (3.3) et pour ce faire nOUR allons
dériver flUCCe!:lsivement (3.3) deux fois par rapport à t; on obtient alors:
a)
K(t) * u(t)
=a
b)
K'(t) * u(t) + K(O)u(t)
=0
} (3.6)
(1ère derivatioll)
c)
K"(t) * urt) + K'(O)u(t) + K(O)u'(t)
=0 ( 2è dérivation)
En utilisant.(3.5).la relatior
K(t) * u(t) = a
équivaut à:
-oK'(t) * u(t) - {3K'(t) * u(t) = a
(3.7)
La d(~uxièrne équation de (3.G) équivaut il
K'(t) * u(t) = -K(O)u(t)
(3.B)
La troisième cqu,ùion de (3.fi) équivaut à
K"(t) " u(t) = -K'(O)u(t) - K(O)u'(t)
(3.9)
En injectant (3.8) et (3.9) dantl (3.7) on obti.mt l'équation différentielle de premier
ordre en u(t) !luivanLe:
,BK(O}u'(t) -\\-- [oK(O} + {3K'(O)j urt)
= a }
(3.10)
u(D)
==
UQ
il cxitlte des méthodes pour r(~soudrc l'équation (3.10) ici nous utilisons une
méthoJe nouvelle; méthode de décomposition en séries de G. Adomian [21 pour
la résolution de (3.10).
3.2
Résolution de l'équation différentielle obtenue (3.10) par la méthode
de décomposition en series de G. Adonllan
Nou!l donnons d'abord une description sommaire de la méthode que nous allons
utiliser par la !luite.
La méthode de décomposition de G. Adomian est employée pou( la résolution
des équations de la forme
Au = g
(3.11)
l
A est un opérateur linéaire ou non linéaire [1] et u est l'inconnue. L'opérateur
de base A est décomposé comme suit:.
A = L + N
oùL est un opérateur
linéaire et N ~n opérateur non linéaire, 'de sorte Que l'équation (3.11) devienne
1
(3.12)
1
1
1
1
1


- 40 -
1
B. SOME
1
On suppose ensuite que l'opérateur linéaire L est inversible avec L- 1 comme
inverse; alors la solution u de (3.11) ou (3.12) vérifie la relation,
1
(3.13)
,
On montre que /11 la solution u vérifiant (3.13) est la somme d'une serie soit
00
1
u = L Un
où Uo est donné par les conditions initiales où" les conditions aux
n=O
,
limites et la partie linéaire de l'équation (3.11); les autres Un
(n ~ 1) sont
calculés à p'artir de Uo ct une relation recurrente donnée par (3.13) en remplaçant
1
i
.,
00
,
la partie non linéaire Nu par
' " An
où les (ln sont les c6efficients de G.
l
'
L....,
"
•.
.,
;'=0
Adomian[l] donné par la formule suivante:
1
1
Renrnrque
"II exillte déjà des tableaux des coefficients À [2] pour un grand nombre de non
Il
linéarités."
1
Résolvons maintenant l'équation (3.1O) par la méthode ci-dessus décrite. No UR
rappelons que l'équa.tion à résoudre est:
1
,BK'(O)u!(t) + I(kK(O} +- ,BK'(O)j u(t)
(3.10)
u(O)
1
Si on pose
,
a
C = (kK(O) + ,BK'(O) et a = ---~
t3K(O)
fJ K(O)
1
l'équation (3.10) devient
u'(t) + Cu(t)
=
a'}
, (3.14) '.
1
u(O) = Uo
Application de la méthode de G. Adomian à la résolution de (3.14) soit l'opérateur
1
d
A=-(')+C
dt
1
(3.14) donne
Au
=
a'
{ u(O)
1
1,

- h1 -
UNE METODE DE DECOMPOSITION DE LA SOLUTION
En décompo8&llt.
Â::: L + R

L:::~(.) et R == COlI obt.ient l'équation
Lu(t) + Ru(t)
(3.15)
u(O)
avec z(t)::: a'
L'opérateur L est invenil:-Ie et a pour in~ene
La 8OIution u
dè (3.1~) verifie 12\\ la rélal.ion
u = u(O) + L-l:r - L-IRu
(3.16)
ce qui équivaut d'après la mét.hod de G. AdomiaD à
00
u= Lu..
(3.17)
n=O
dans cette approximation de u par la serie de terme,gén~ral Un on a;
uo
::::
u(O)+L-1z(t)=UO+I1't
r'
.
t2
U1
::::
- L- l RUO = - Jo (UO C + Il'C:r)d:r:::: -,"OCt - a'e 21
o
,
1
i
i
U2
-L-1Rul = -
(-UOCX-I1'C:r;2) dk
(-Ct)2
a'
(-Ct)3
U Q - - - -
- . - - -
2!
C
3!
-1
(-Cl)S
a'
(-Ct)4
Us
- L
Ilu2 = UQ . -
-
-
-
. - - -
3!
C
4!
Par récurrence on montre de façon générale que
(-Ct)" _ a' (_Ct)nH
U" = Uo •
n!
C (n + 1)!
et. fin&lement on a:
l
00
00
(-Ct)"
a' 00 (-Ct)A+!
L
L
, -
U
::::.
Un = Uo
C L
(. 1)1
""'0
n=O'
n.
n=0
n, +
.
1
.
a'
1
i
, ,-~
-m
a
1
~e
- Ce
+
1
1
1
1
1•

1
- 42 -
1
B. SOME
1
Soit. encore
,
i
u = uoe- Ct + ~ (1 - e- C1 )
(3.18)
,
C
avec.'
1
C = oK(O) +,8K'(~!
,
,8K(O)
et.
1
a'
a
C
oK(O) + {JK'(O)
1
Remarqué
En appliquant. une méthode quelconque classique (par exclIlplt> méthode de vari-
ation de la constante) à la résolution du problème (3.15) on retrouve exactement
la solution donnée pat (3,18).
1
4.
Conclusion
1
LeB problèmes de c:ontrôle optimal ne sont pas des problème nouveaux, Mais pour
la présente étude, nous avons proposé des démarches "origillalc~", d'abord nOll9
avons ramené la résolution du problème de contrôle optimal avec contrainte à celle
d'une équation différentielle, ~i nous avons pu
1
y parvenir c'est grâce à la transfor-
mation de Laplace et à notre technique de dérivations successives de lJroduit de
convolution. Ensuite nous avons resolu l'équation différentielle par la méthode
de décomposition en serie de G. Adomian; cette méthode d'approximation de la
1
solution cat simple et utile surtout pour la résolution des équations non linéaires,
numériquement elle n'exige pas de gros ordinateurs pour sa mise en Oeuvre in-
formatique.
1
Bibliographie
1
1. G. Adomain, (1984): Convt:rgt:nt series solution of non linedr equations, J. \\
Comput. App\\. Math., 11 (2) 225 - 230.
1
2. G. Adomain, (1981): On produci non lineUl ~'lies in stochastic differential
t:quation, App!. Math. Comput. 8 (1).
- 3. G. Adomain, R. Rach and D. Ssrafyan, (1985): On the 80lution of equations
1
cuntaining radica~ by the decomposition method, Journal of Mathematical
Analysis and Applications, Academie Press, New York and London, Vol
111, no. 2, November 1985.
1
4. Y. Cherruau)t, (1986): Mathematico.l modt:lling an biomeduint:, Optimal
Control of Biomedical Systems, Reidel, 1986.
1

- 4) -
UNE METODE DE DECOMPOSITION DE LA SOLUTION
5. Y. Cherruault, (1983):
Biomathimatiques, P.U.F. collect.
"Que sais-je",
Paris 1983.
6. Y. Cherruault et P. Loridan, (1917): Modélisati!Jn et méthodes mathématiques
en biomedecine, Ma.'l:ion Paris, 1977.
7. J.L. Lioll!!, (1968): Contrôle optimal de sJlstèmes gouvernis par des équations
aux dirilJit:s partitlles dunod, Gauthier~Villars, Paris, 1968.
R h. Schwartz, (1966) Thiorie des distributions, Hermann, 1966.
9. B. Sorne, (1984): Identification, contrôle optimal et optimisation dans les
sysU!mes d'équations diffirentielles compartimenta les, Thèse de 3è cycle.
PlI.ri~ VI, juin 1984.
10. B. Sorne et Y. Chcrruault, (1986):
Optimisatio~ et contrôle optimal en
,.,,;'wrmawcinétique, biomedecine and pharmacotherapy, Masson, Vol.
40,
no. 5, 1986
Il. G. W. Swan, (1984): Applications vf control optimal theory in biomedecine,
M. Ddk(:r, New York, 1984.
B. SOME
l.M.P. Univer!lité de Ouagadougou,
Burkina F~o
'

1
1
44
Résultats
numériques
1
Nous utilisons' la formule du contrôle optimal trouvée dans
l'article
pour
traiter
les
données
suivantes {fournies
par
Mme
1
GUERRET Laboratoire SANDOZ) avec ko variable:
1
k12 = 1(h- 1) ; k21 = 1.5· (h- 1) ;ko ~ 0.01(h- 1) ; ka == 0.1(h- 1)
1
;

la
constàhte!' a
=
1011 g/ml,
la
constante
don née
ici
est
une
1
concentratio n.
Si
X1 (t)
et u(t) désignent nos fonctions habituelles ; on a :
1
x 1 (t) = V1 c 1 (t)
où V1 =- 4000 ml et C1 (t) la fonction désignant la
1
concentration. La fonction contrôle représentée sur les courbes ci-
après est
U(t) == ~(!1
et on a montré dans l'article ci-avant que :

V1
1
a'
uae-ct
a'
u(t) == Ua e- ct + C ( 1- e-ct ) donc U(t) ==
VI
+ cv1 ( 1- a-cI)
1
- - - - - - - , -
1
u ( t)
u(t)
T
k
= 0.01
k
= 0.1
1
0
0
- - - - - - - - - - - _ .
0
0
0
-.
1
1 ;-5
0.5
70.88B 10- 5
5~.945
o :
r::
1
l.O-5.
90.870 10-::>
64.311
1
10- 5
r::
1.5
96 . 503
65.562 10-::>
1
2
98.090 10- 5
65.749 10- 5
3.5
98.699 10- 5
65.782 10- 5
1
10- 5
r::
4
98.709
65 782 10-::J ;
5
98.713 10- 5
G5.782 10- 5 .
1
5.5
98.713 10- 5
65.782 10- 5 ~1
1
10
98.713 10- 5
6~J.782 10- 5
20
9.8.7.13 10- 3
65.782 10- 5
!
1
1
1

1-
N
0..
0
\\1

~O
0
\\~ 0
'y'
Il")
..
-.
,,.:,
..
o
.'
o
o
ro
1 ~
: .
~ , .

46
Hi) Méthode
d'approximations
numériques
par
des
fonctions
splines
-a) L'approximation
On rappelle qu'il s'agit de trouver u(t) qui minimise la
fonctionnelle
00
(1.11)
J(u)
= J (X1(t) - a )2dt
o
avec les contraint~s
d x-1l!l
dt
dX2(t)
(1 .12)
dt
Par la transformation de Laplace nous avons montré que la solution
optimale u(t) de (1.11) (1.12) est telle que l'on ait :
Xi (t) = k(t)· u(t) = a, où • désigne le produit de convolution des
fonctions définies sur [0, 00 [ (support limité à gauche) avec
Àd
À2t
k(t) = Ki e
+ K2e
et où Ki , K2, À] , À2
sont fonction
des coefficients k de (1.12) .
ij

47
Précisément on a montré que
Àl et
À2 sont les valeurs propres de
la matrice. A = (kij) de (1.12) vérHiant :
Îq + À2 =: -( ka + k12 +k21 )
Àl À2 = ko k21
·k21+Àl
et que :·K1= X À
.
1- 2
Finalement notre problème était réduit à la résolution de l'équation
de convolution
t
(1.16) k(t)· u(t) = a
<=> f k(t--r) u (-r)d-r = a
o
Dans le paragraphe précédent nous avions résolu (1.16) par
;
une méthode de dérivations successives de produit de convolution.
Ici nous utiliserons une méthode d'approximation de la solution
u(t). Dans toute la généralité du problème on a montré
que:
:
Àlt
À2t
X1 (t)
=
k(t)·u(t)
= (K1 e
+ K2e
)·u(t)
00
Le critère à minimiser.
MinU(t) J. (x 1 (t) - a ) 2 d t
o
00
devient (1.17)
MinU(t) f (k(t)·u(t) - a )2d t
o

48
On discrétise le problème de minimisation classique en cherchant
u(t) sous une forme particulière (méthode de Ritz [19]).
n
(1.18)
u(t) =
LC p8p (t)
p=O
où les cp sont des constantes, et 8p(t) sont des polynômes, des
exponentielles ou des fonctions splines [ 14].
Le problème "trouver u*(t) telle que :
00
J(u*(t))
= Minu(t) J (k(t)*u(t) - a )2 dt
"devient
o
*
*
*
tels que:
00
n
*
(1.19) J(c
*
*
,c
f
1
2 ' ... , cn ) = MinCR.
( k ( t) * ( LC p8p (t)) - a) 2 d t
p=O
a
P =1 , 2 , ... , n

49
La fonction J à minimiser est en fait un polynôme de degré 2
par
rapport aux
Cp. La solution est donnée par:
aJ
(1.20)
""\\
=0
p=1 ,2, ... ,n
oCp
(1.20) n'est rien d'autre qu'un système algébrique linéaire de n
équations à n inconnues. Précisément on a :
n
n
k(t)·u(t)
= k(t).( LCp8p(t)) = LCp(k(t)·8p(t))
p=O
p=O
(1.19) s'écrit alors :
00
J(c1* ,C2*, ... , cn*)
= Mincp J(Ïcp (k(t)•8p(t)) -a)2dt
p=O
.
o
p = 1,2, ... ,n
00
:aJ
J
n
.
el on a: dCp ~ 2 (k(l) .e~(t))( i~~; (k(t)'9;(I)) -a)dt
p = 1,2,... ,n
o
Soit encore
00
00
- 2 a 5(k ( t) • 8p(t) ) dt
o
p = 1,2, ... ,n

50
Remargue1 :
i
En utilisant les formules. (1.21) alors (1.20) s'écrit :
00
(i~Ci
~a
Jk(t).6P(I))
(k(t)·6;(t) )dt
Fk(t).6p(t))dt p = 1,2,... ,n
o
ou encore:
00
00
n
(1. 22)
Lci( j(k (t) •8p ft) )(k (t) •8i(t) )dt) = a j(k (t) *8p (t) )d t
i=O
0
0
P =1,2, ... n
On peut mettre (1.22) sous la forme matricielle·
(1.23)
AX = B
où on a :
x = t( C1, C2 , ... , cn)
inconnue
00
B = t( b1, b2 , .,. , bn ) avec bp = a j(k(t).8p (t))dt
o
que l'on calculera car k(t) et 8p(t) sont connues. Enfin A est la n x n
matrice de convolution suivante :
A = (aip)
i, P = 1,2 , ... , n
00
avec
aip = j(k(t)*8p (t))(k(t)*8i(t))dt
i , P = 1,2 , .,. , n
o

51
Remargue 2:
La matrice A est symétrique ; en effet on a
aip = f(~'(t)*Sp(t))(k(t)*Si(t))dt =
f(k(t) * Si (t)) (k (t) * Sp(t))dt
= a .
pl
o
o
i , P = 1,2 , .. , , n
Les aip
sont calculables. Il existe plusieurs méthodes numériques
classiques de résolution de (1.23) (on pourrait par exemple utiliser
la méthode d'élimination de GAUSS).
p) Résultats numérigues
:Soit N un entier positif et h un paramètre défini par h = ~
(on prendra h = ~t le pas de temps). Pour p donné entier relatif, on
considère tp = P ~t = ph puis on approche les 8p(t) par les
fonctions splines suivantes
t
(p-l )h
ph
(p+l)h

52
On a donc:
- t
8p (t)
h + (p+1) si t E [ph , (p+1)h ]
t
(1.24 )
8p (t) ::::: h
- (p -1)
si t E
[(p-1)h , ph ]
8p (t) ::::: 0
si t ~ [ (p-1)h , (p+1)h ]
Application
numérique:
On veut réaliser x (t) ::::: 7 avec ki2 ::::: 0.16 ; k2i ::::: 0.13 ; ka = 0.07
La résolution de (1.23) par la méthode de GAUSS donne les
valeurs de Cp pour différentes valeurs de h et n dans les tableaux
1, 2 et 3 qui suivent. Le tableau 4
donne les valeurs numériques de
u(t) pour h ::::: 0,5 et le tableau 5 donne les valeurs numériques de
Xi (t)
pour h ::::: 0,5. Ensuite nous présentons les résultats
graphiques.
N. B. : Tous ces résultats numériques ont été obtenus par
calcul
sur
les
micro-ordinateurs
(équipés
de tables
traçantes pour les copurbes ) du centre de calcul de
Medimat,
Université
Pierre
et Marie
Curie
(PARIS
VI)

- 5J -
Tableau 1
n = 10
CP
P
-
------
Il = 0.5
h = 0.1
h = 0.05
h = -
0.01
1
- 8.501 E6
295512
155965
9302.62
'.
2
2.961 E6
94026.4
49625.1
2648.17
3
- 6.209 E6
80594.2
42535.2
-
6111.26
4
1.022 E7
- 161188
-
85071.7
3530.99
5
- 6.113 E6
- 268647
- 141786
1086.45
6
1.890 E6
53729.5
-
42535.3
-
4074.15
7
- 5.349 E6
- 537294
28357.3
-
14123.8
8
- 1. 738 E7
- 805594.1
- 283572
-
17111.5
9
1. 566 E7
322377
170143
22136.4
10
2.559 E6
93228.6
49204.1
126523
Tableau 2
n = 15
6
Cp en 10
p
;
-
,
h = 0.5
, h = 0.1 ..
h = 0.05
h = -
------
0.01
1
4.04
9.03
4.77
- 1. 67
2
5.83
6.421
3.39
1. 22
3
11.119
-
1. 99
-
1.05
0.3334
4
11.119
4.39
2.31
1.49
5
4.081
-
8.13
-
4.29
- 0.323
6
-
17.7
-
9.17
0.455
- 1. 39
7
- 77.77
0.863
-
3.44
1. 72
8
- 15.31
-
0.653
21.50
1. 96
9
-
9.341
40.71
- 10.7
0.983
10
- 10.03
- 20.2
7.14
1. 98
11
-
9.34
13.5
- 25.10
- 1.39
12
50.2
-
0.926
-
0.488
7 .41
13
-
6.02
+
0.726
4.053
6.49
14
- 73.6
4.36
21.15
8.03
15
290
- 35.41
- 18.7
6.42

- 54 -
Tableau 3
n = 20
Cp
P
-
...........
h = 0.5
h = 0.1
h = 0.05
h = -
0.01
1
- 8.40 E7
- 3.36 E8
- 1. 77
E8
4.28 E6
2
- 9.78 E7
- 7.21 E7
- 3.80
- 2.89 E6
3
5.28 E7
4.66 E8
2.458 E8
7 .75 E6
4
1.34 E8
- 3.50 E8
- 1.85 E8
- 3.37 E6
5
- 1.41 E8
4.27 E7
2.25 E7
- 2.98 E6
6
- 1.14 E8
2.42 E8
1. 27 E8
8.71 E6
7
4.26 E7
- 8.22 E7
- 4.34 E7
1.32 E7
8
2.20 E7
- 8.91 E7
- 4.70 E7
- 5.17 t6
9
- 7.77 E7
1.12 E8
5.94 E7
- 8.06 E6
10
2.14 E8
- 7.96 E8
- 4.20 E8
- 9.20 E6
11
3.16 E7
1.03 E8
5.44 E7
9.19 E6
12
- 1'.04 E8
- 6.07 E8
- 3.20 E8
1.39 E7
13
- 2.19 E8
1.44 E8
7.61 E7
- 2.28 El,
14
- 3.73 E8
9.74 E7
5.14 E7
3.55 E7
15
1. 33 E9
- 4.11 E8
- 2.17 E8
2.33 E8
;
16
7.74 E8
4.14
,
E8
2.18 E8
3.77 El
17
6.56 E9
- 1.49 ElO
- 7.85 E9
2.33 E8
18
- 2.7
E8
- 2.45 E9
- 1.29 E9
1.89 E8
19
3.82 E8
- 1.93 E9
- 1.01 E9
- 5.95 E7
20
1.04 E8
- 7.23 E8
- 3.81 E9
- 401905

- 55 -
Tableau 4
Valeurs numériques de u(t) pour h
0.5
"
U (t . )
t. = ih
l
l
i = 0, .. n
-
-----
-
n ,=
,
10
n = 15
n = 20
i
,
'
0
8.5306 E7
3.111
E9
1.49667 El1
0.5
8.2745 E7
2.82269 E9
1.49563 Ell
1
8.0186 E7
2.52869 E9
1.49459 Ell
1.5
7.7627 E7
2.23469 E9
1.49251 E11
2
7.5068 E7
1.94069 E9
f.49251 Ell
2.5
7.2509 'E7
1.64669 E9
1.49147 El1
3
6.995
E7
1.35269 E9
1.49043 Ell
3.5
6.7391 E7
1. 05869 E9
1.48939 Ell
4
6.4832 E7
' 7.64686 E8
1.48835 Ell
4.5
6.2273 E7
4.70686 E8
1.48731 El1
5
5.9714 E7
1. 76686 E8
1.48627 Ell
\\
5.5
1.17314 E8
1. 48523 Ell
6
4.11314 E7
1.48419 El1
6.5
7.05314 E6
1.48315 Ell
7
9.99314 E5
1.48211 Ell
7.5
1.29331 E5
1.48107 El1
8
1.48003 Ell
8.5
1.47899 Ell
9
1.47795 El1
9.5
1.47691 El1
10
1.47587 Ell

- 56 -
Tabl eau 5
Valeurs numériques de x (t) pour h = 0.5
1
,
t.
xl (t
= i h
i )
l
i = 0, .. n
--
.......
---
n = 10
n = 15
n = 20
0
0
0
0
0.5
1. 598
2.395
2.920
1
2.72384
4.074
4.975
1.5
3.506
5.2356
6.404
2
4.0432
6.027
7.384
2.5
4.404
6.556
8.044
4
4.878
7.225
8.903
5
4.944
7.302
9.029
7.5
7.159
8.896
10
8.7140

o
N
1.D
0
r-/
r-/
Il
~
+-'
<::t
r-/
r-/
X
co
r-/
X
Lf)

o
N
U)
r-l
Ln
r-l
Il
.q-
~
r-l
....,
r-l
X
N
r-l
o
r-l
co
N
r-l
X
t----+---+---+--+--__4f---.....--+---+--+--~f__- .....--+_-_+--+_-__4-.:::...0
co
LO
N

o
N
co
.......
~
.......
0
N
Il
5;
<:::t
.......
+->
.......
x
N
.......
.......
x
I----+---+---t---f----jf----+----f---..---f----..,f--,....--+--.f---..---f-----lf--~"""O
co
Ln

o
N
0
Ln
0
U)
N
.......
.......
.......
Il
Il
Il
fi:
e
E
+J
+J
+J
o:::t
.......
.......
.......
.......
X
X
X
o
.......
N
1----+----f.--'--+--......-~I--.....-
......- -.....-
.....-
......' " - -.....-
......---,fmo:=""*'=:::;:::_:lI:-=~"h.O
N

N
,-....
0
Il
?
d
•...J
~
~o
~
..1:i'
~
~
b
0
0-
ro
t-...
-0
V)
'<t
C"')
N

o

1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
"
1
1
1
1
1
1
1
1
1
1
1
1
1
1
......
1
tf'
,.......
1
1\\
<;,)
....
~
1
1\\
~
~
1
v
3
......-
1
u
(T\\
.
1
"-.J
9
1
rt-.9
~-
1
~
...,L.)
1
- . )
..J.J
......,
:j
1
:j
1
1
1
1
1
1
1
1
1
1
1
('l.
..q
(")-
1
I.f)
;,()
----.""~
1
o
et:J
0-
"
.....
"
1
1
1

64
b) Etude de la convergence du critère J
Rappel
L~ problème consiste à trouver une fonction u(t) qui
00
minimise le critère (1)
J =
f (X1 (t) - a )2d t
o
avec les conditions
bx
;
(2)
.
: d t = Ax(t) + u(tf
[ x(o) = Xo
.
où a est une constante biologique donnée. Dans les paragraphes
précédents nous avons transformé le système différentiel (2) par
la transformation de Laplace pour obtenir une relation entre
)(1 (t)
et u(t) de la forme
X1 (t) = F(kij, t)·u(t)
ce qui nous a permis de
résoudre (1) par deux méthodes différentes.
Dans ce paragraphe nous étudions la convergence de
00
J=
f (X1(t) - a )2 dt
o
c'est-à-dire les conditions d'existence du critère J.
i) Etude de la convergence de J
Puisque (2) est un système d'équations différentielles du
premier ordre à coefficients constants, toute solution
Xj(t) de (2)
peut s'écrire sous la forme :

65
n
Xj(t) = ~ c .. e Àit + fj(t) j = 1, 2 1 ..... 1 n
L..J JI
i = 1
où les
cji sont des constantes; les Àj <0 sont les valeurs propres
distinctes de A et
fj(t) est une fonction due à u(t). En particulier
on a:
n
(1.25)
X1(t) =Lc1ieÀit
+ f(t)
i = 1
Dans (1.25) on a appelé f(t) la fonction
f1 (t) due à u(t) . Avec
l'écriture (1.25) on a :
00
n
00
~
Àit
J = J (X1 (t) - a) 2 dt =
(L..J (c 1ie ) + f (t) - a) 2 d t
o
i = 1
o
soit encore :
00
00
f(i~C1iéil)2dt
n
J -
+ [(1(1) - a)2dl
LC1ieÀit(f(t) -~)dt
i = 1
o
o
donc on a : J = J1 + J2 + 2J3 avec
00
~ f(i~C1ieÀit)2dt
J1
:0
00
(1.26)
J2
J
='
(f (t) - a ) 2 d t
o
,00
n
22 c1jeÀit( f(t) - a) dt
i =1
o '

66
Pour que J converge il faut et il suffit que J1 , J2 , et J3 soient
convergentes. Si toutes les valeu rs propres À
sont négatives
j
alors J1
est convergente, dans ce cas il reste à étudier la
.
"
convergeQ'èe de J2 et celle de J3
. Le p"rocédé (Galerkin)
[37]consiste à imposer un développement convenable de f(t). Le
développement ici, n'est pas quelconque car on veut
J< +00
pour
À ~ a
li =
j
1, 2, ... , n.
!
Théorème
1
On suppose que les. valeurs propres
À·
i = 1 1 ••• 1 n de la
1
matrice
A
du
système différentiel
(2)
sont négatives . S'il
existe une fonction
:<P(t) telle que f(t) = a +
<P( t)
vérifiant
les
condition
suivante
:
00
alors
la fonctionnelle
J
est
convergente.'
Démonstration
Puisque les
À·
= 1 , ... , n sont négatives alors J1
est
1
convergente et on a :

67
00
~ f(~
C 1 jC 1 i
J1
C1ièit)2dl
À i.
+ Àj
o
00
00
l (-f(t),-' a )2 dt = J(<p(t))2dt < +00
o
o
0 0 :
n
00
Àjt
.
- a)dt
I-
=
J(t(l) - a )(
C1ie
)dt
o
.
1= 1
00
-fi~el';' 'P(t)dl<+00
o
J 1 , J2 et J3 étant convergentes on en déduit que J = J1
+ J2 + 2J3
est aussi
convergente.
CQFD
On sait d'autre part qu'on peut représenter n'importe
quelle fonction réelle
continue [ 14 ] [42] par un développement
exponentiel avec la précision que l'on veut ; on peut donc écrire
n
llJt
'P(t) =L. bje

bj et Ilj
sont des coefficienls à
j=1
identiIier. Ici, il vaut mieux imposer Àj
= \\lj où les Àj
sont les
valeurs propres de A. On a donc:
n
~
À't
(1.27)
<pet) =LJ b je J
j = 1

68
<P(t)
ainsi choisie, vérifie les hypothèses du théorème précédent,
par conséquent la convergence de la fonctionnelle J est assurée
quand
<P(t) est prise comme au (1.27). Pour déterminer parfaite-
ment
<P(t)
,étant donné que les
Àj
sont connues par calcul
direct du déterminant
A-I..I
,1 est la matrice unité, on
minimisera J par rapport aux bj, j = 1 , "', n et en annulant les
dérivées on obtient alors un système algébrique linéaire pour
déterminer les coefficients inconnus bj de <P(t) . Précisément on a :
OQ
aJ
(t~
À it ÀJ't
ab'
b; /11 ) dt + f t; c 1i e e dt = 0
= 2
e ÂJI
J
o
0:
j = 1 , ".. ,n . Connaisséhlt <P(t)' on connait alors f(t) = a + <P(t) .
Pour obteniru(t) il suffit d'établir le li.en entre f(t) et u(t)
ou encore celui de
xl(t) et u(t), On pourra utiliser à nouveau la
transformation de Laplace' ou une méthode de calcul opérationnel.
J
On a déjà montré que
;X1 (t) = F(kij,t)* u(t), D'après (1.25) on a :
n
L Àit
.X1 (t) =
c 1je
+ f(t)
i= 1
Ce qui peut se résumer comme suit:
n
=L
(1.28)
F(kij,t). u(t)
c1ieÀit
+ f(t)
i = 1

69
les coefficients
C '
étant calculables par les conditions initiales .
1
. J
(1.28) est une équation de convolution plus diffièile à résoudre que
celle trouvée au paragraphe précédent de la forme k(t)· u(t) = a.
ii) Application à l'exemple1 ci - dessus.
On considère toujours le problème ,
trouver u(t) qui minimise :
00
(1')
J(u(t))
=
f (X1 (t) - a)2 d t
o
avec
X1 (t) et u(t) solutions de
dX1(t)
.
dt
=
- (ka + k12)X1 (t) + k21 X2(t) + u(t)
dx2.i!L
(2')
dt
=
k12 X1(t) - k21 X2(t)
X1 (0) = X2(0) = 0
En appliquant la relation (1.25) à
X1 (t) on obtient ici
À 1t
À2 t
X1 (t) = C11 e
+ c12e
+ f(t)

c11 et c12
sont
calculables par les conditions initiales et f(t) est due à u(t).

70
Relation
entre
I(t)
et
u(t)
ill
Soit 0 l'opérateur
alors (2') devient
dt
(1.29),
OX2 = k12 X1 - k21X2
Du système (1.29)
on obtient par dérivation de la première
équation et utilisation de l'expession
OX
= k12 X
- k21 x
'
2
1
2
l'équation 02 X1 = - (ka + k12)OX 1 + k21k12X1 - k212x2 + Du
soit :
(1.30)
(0 2 + (ka + k12)D + k21 k12)X 1 = Du - k212x2
, :
;u t
i .
~2t
.
or
xHt):= C11 e
+ c 12e
+ f(t) = x11 (t) +.'f(t)

x
(t)
est solution de l'équation homogène, de (2') c'est-à-dire
11
l'équation (2') sans u(t) et f(t) est une solution particulière de (2').
D'après (1.30) on a :
En écrivant que x (t) = x
(t) + f(t)
on a :
1
11

71
cela implique :
(1.31 )
(1.30) est une relation différentielle entre
X1 (t) et u(t).
(1.31) ii) est une relation différentielle entre f(t) et u(t).
On remarque bien, d'après (1.31) que f(t) est une solution
particulière de (2'). On avait vu qu'on pouvait prendre
f(t) = a + <P(t)

<P(t)
peut être approchée par i
1
n
1
l
1
1
1
'P(I) =
bj8 Àjl
j = 1
Remargue1 :
Cette approximation est très particulière et n'est pas du
tout générale.
Dans ce cas on a <P(t) = b1 e À1 t + b2 eÀ2t
bonnaissant les Àj ,i = 1,2
on détermine les
bj
i = 1,2 par la minimisation dei J par rapport aux
bj et
par l'utii,isation de la condition initiale . Pour cel~ il suffit d'écrire le
,
1
système; linéaire suivant :

72
aJ
=0
ab1
aJ
(1.32)
ab2
= 0
xi (0) = 0
(1.32) équi,vaut à
00
À1t (b
À1t
b
À2 t
fe
1 e
+
2e
) dt
o
i
"
'
\\
o
'
. f 21
e
2 1
À
(b 1 e À1 t + b 2 e À
) dl ~ a
o
L
soit encore
À1
=
a
+ À2 +
La résolution du système ci-dessus nous donne b1 et b2 .
Remarque2:
L'utilisation des conditions initiales xi (0) :b x (0) = 0
2
et la considération u(O) = 0 dans (2') et (1.31) donnent
c
= .c
= 0
11
12

73
On a finalement
f(t) = a + <P(t) =
a +
À1 t
À2t
d'où
x1 (t) =
a + b1e
+ b2 €!
(1.30) s'écrit alors :
2
À1t
2 · À2t
(k
.
À 1 t À 2 t
(1.33) (~t.b1,e
+ À2 b2e
) +
a +;k12 )(À 1b 1e
+ À2b2e
) +
. : ~.
À1t
'
. À2 t
du (t)
+ k12k21 (a + b1e
+ b2 e
) =
dt
- k21 2x 2(t)
(1.33). équivaut à :
(1.33')
01eÀ1t+02eÀ.2t +00 = d~~t) -k212x2(t)
où on a pris:
2
'
01 = À1
b1 + (ka +k12 ) À1 b 1 +k12 k 21 b 1
02 =À22b2 + (ka +k12 )À2b2
+ k12 k21 b1
00 = ak12k21
À1 t
À2t
Soit g(t)
=
01 e
+ 02e
+ 00 , alors on a à résoudre le problème
suivant(en tenant compte des mlations compartimentales [19]), trouver u(t)
telle que :
du (t)
(1.34)
dt
+ k21 u(t)
= g(t}
u(O) = ua = 0
La solution générale de (1.34) est
t
-k21t
( -k211 s
(1.35) u(t) = ua e
+ Je
9 (t- s) d s
o

74
En développant
l'expression u(t) donnée par (1.35) on obtient :
t
t
f -k21S
e
g (t-s)ds = Je -k21 (t-s) g(s)ds =
o
o
t
-k21 (t-s) (
Do
+
À1S
À2j
= fe
01e
+ 02e
dt
=
o
Si u(o) = 0 alors la solution optimale est :
u t -
DO(1_e- k21t )+
Di
(1_e(k 21 +Àl)t)+
() -
k21
À 1 + k2 1
02
(
(k21 + À2)t)
+
1 - e
À2 + k2 1
iii) Résultats
numenques
\\
On souhaite avoir X1 (t) = a =18
avec k
= 2.9545 ,
12
k
= 5.7214
; ko = 0.3658
et X1 (0) = x~(O) = u(O) = 0
21
i En appliquant i les résultats ci-dessus, les b1 ,b2 solutions
,
' 1
i
de (1.32) ci-dessus sont' b1
= 1.00917 ; b2
= -18;9572
Nous avons obtenu les résultats suivants pour
X1 (t) et
u(t).

- 75 -
t
xl(t)
ù(t)
0
0
1
0
0.1
11 ,10
2,850
0.5
18,3'3
6,210
0.8
18,89
6,510
1
.
18,78
6,5626
1.5
18,69
6,570
2
18,60
6,58419
2.5
lA,57
6,58419
3
18,44
6,58419
5
18,26
6,58419
8
18,098
6,58419
10
18,041
6,58419
15
17,97
6,58419
20
17,96
6,58419
25
J7,95
6,58419
30
17,95
6,58419
40
17,95
6,58419

....
....
.....
o
X
N
CD
.....
(D
.....
CI:
+
....*
od"
N
.....
- l
0-
X
W
*
N
N
.....
(Il
+
....*.....
0
..J
......
~
0-
X
W
*.....
al
CD
Il
.....
CD
X
.....Il
a:=.
cr.
::J
0
W
0-
....
(0
Z
W
CI:
al
....
a:=.
(J)
::J
Z
0
0
U
U
~
o
CD
N
.....
J - - - - - - - i ~.. ---_+_-----.-..
+ _ - - - - - + _ -

77
c) 'Deuxième
exemple
1
i) Contrôle 'Optimal avec' I.V ±
perfusi'on (I.V.P.)
1
i
Considérons le, modèle compartimentai sùivEmt [19] :
Ce que nous allons écrire se généralise sans difficulté à
un système compartimentai où le critère de contrôle, et la variable
de contrôle font intervenir le même compartiment . Nous supposons
le système préalablement identifié, mais il n'est pas, nécessaire de
1
savoir identifier uniquement chacun des kij' En fait'i' il suffit de
pouvoir identifier la relation permettant de passer d~
X1 (t) à u,(t)
1
ou réciproquement dans les équations ci-après.
1
l,
!
Le problème consiste à trouver la fonction ;contrôle u(t)
telle que :
(1.36)
J(u(t))
=
f (Xi (t) - a )2d t
o
soit minimum , a étant une constante donnée. Le modèle ayant reçu
1
au temps t = 0 une quantité constante égale à a. Autrement dit, les
i
fonctions
Xi (t) et u(t) sont solutions des équations
'

1
1
78
dx 1 (t)
1
dt
dX2(t)
(1.37)
dt
1
avec les conditions
X1 (0) = a
,X2(0) = 0
1
Dans ces conditions on peut chercher s'il existe u(t) qui
1
donne
X1 (t) = a pour tout t ~ O. En appliquant la tr~nsformation de
1
Laplace, il n'est plus nécessaire d'utiliser une fonctIon
X1 (t)
1
partant de zéro, puisque à cause des conditions initi'ales on a :
1
1
X1 (0) = a. La transformation de Laplace de (1.37) donne le système
1
1
1
:
1
(1.38)
S x 1 - x1(0)
= - (ko + k12) x 1 + k~ 1 x2 + Û
sX
k
x
- k
x
2
12 1
21
2
1
est la transformée de Laplace de x. et û celle de u.
1
:
1
1
En éliminant
)(2
grâce à la relation (s + k21))(2 =;
k12)(1
on obtient :
1
(
'" =[
k
1
k12 21
+(ko+k12")+slx1
( )
1.39) li
S
+ k2 1
- X1 9
1
En passant à la transformation de Laplace inverse dans (1.39) on
obtient :
1
1
1
1
1
1

79
On avait déjà montré que le contrôle u(t) optimal était de la forme
donnée par (1.40).

1
Puisque
X1 (t) = a alors (1.40) donne:
- k21 t
(1.41)
. u(t) ::::' ako + ak12 e
Remarques:
1°) On peut généraliser ce type de résultat a un système
compartimentai quelconque. La solution optimale u(t) sera la
somme d'une constante et d'une combinaison d'exponentielles.
et X1 (t) = a la solution
X2(t) correspondante est :
ak 12 (
-k 21 t)'
(1.42)
X2(t) = ~k-
1 - e
21
Inversement en prenant u(t) donnée par (1.4 i) et
X2(t) donnée\\par
i
(1.42) on trouve
X1 (t) = a pour tout t ~ 0
,ce qWi prouve bien que
u(t) donnée par (1.41) est bien la solution dPtim~le Ide notre
problème.
1
ii) Application
numérique
.
1
Au paragraphe précédent nous avions vu qL:Je
X1 (t) évoluait
-
i
de zéro à une constante sensiblement égale à 18. Dans ce
1
j
paragraphe nous traitons numériquement le même ~roblème mais
i
cette fois-ci, le système aura reçu: au temps initial; une quantité
égale à 18, nous avons imontré que dans ce 9as on peut prendre
1
. '
i
X1 (t) = a: = 18 pour tout t ~,d et alors le contrôle optimal sera donné
. '
.
par (1.41).

1
1
80
1
1
1
Numériquement nous avons obtenu les 'ré~ultats ci-après
avec les données [14] : k
= 2.9545 ; k
= 5.7214 J; ka = 0.3658 et
12
21
1
x (t) = a = 18 pour tout t l 0 .
1
Le tableau ci-après est celui des valeurs numériques de
1
u(t) correspondc!wt aux données ci-dessus.
1
t
u (t)
1
1
0
59.7654
0.1
36.5953
1
0.2
23.5201
0.3
16.1415
1
0.5
9.62788
1
0.8
7.13134
1
6.75857
1
1.2
6.63987
, '
1.5
6.59437
1
1.8
6.58619
2
6.58497
1
2.5
6.58443
1
2.8
6.58441
3
6.58440
1
4
6.5844
1 0
6.5844
1
20
6.5844
li
30
6.5844
1
1
D'où la courbe correspondante.
1
1

.....
\\.
Z
N
D
.....
tn
=>
IJ-
QJ
CD
Q:;
....
W
Il
.....
Q..
a:
olJ
;>
W
.....
.....
Z
(()
lJJ
cr;
ID
.....
'""'
0::
tn
.....
,::)
Z
'-"
.....
-
D
10
......
.....
U
U
x
::>
.q-
.....
CD
o
ID
o
N
o
.q-
N
......
Ul
----------
....-...-'------.--'-----f--.
.....

1-
Vl
Cl.
E
QJ
1-
N
o

82
iii)
influence de
la
variation
des
coefficients
du
contrôle
optimal sur la fonction d'évolution
x1ill
Nous avions montré que le contrôle optimal u(t) qui
00
minimise la fonctionnelle
J(u(t))
=
f (x 1(t) - a ) 2d t
o
(1.43)
avec les conditions
X1 (0) = a
,X2(0) = 0
était donné par (1.41) u(t) = ako
ak12(
-k 21 t)
et
x2 (t) = -k-
1 - e
21
Ainsi
X1 (t) est une constante égale à a (constante donnée) si u(t)
vérifie (1.41) et
X2(t) vérifie (1.42). Dans cette partie nous
gardons les coefficients k jj du système différentiel ci-dessus
fixes et nous faisons varier ceux de u(t). Le problème est d'étudier
dans de telles conditions le comportement de la fonction
d'évolution
X1 (t). Cela revient à résoudre (4.43) avec:
*
-k21 t
ex) u*(t) = a~ + ak12e
les coefficients de (1.43) étant fixés et u(t) remplacé par u*(t).

1
1
83
1
a)
Premier cas : Etude de la variation de
X1 (t)
en
fonction de celle
de ko de u(t)
1
*
-k21 t
*
1
Soit u*(t) = a~ + ak12e
on cherche X1 (t) telle que l'on ait:
·1
1
dX1 *(t)
dt
dX2*(t)
1
(1.44)
dt
1
1
On peut encore écrire (1.44) sous la forme
1
*
(1.45)
X*(O) = Yu
1
où on a posé
X*(t) = t( X1*(t) ,X2*(t))
1
U*(t) = t(u*(t) , 0)
1
X*(O) = t( a ; 0)
_ ( - (kO + k 1 2)
k 2 1
:
et A -
k 1 2
- k 2 1
1
1
La solution générale de (1.45) est de la forme
1
n
(1.46)
X*(t) = LKieÀit + ~
1
i = 1
1
1
1

84

les  sont les valeurs propres de la matrice compartimentale
i
*
*
A,
les k sont des constantes et ~ =
est une solution
j
*
x2p
*
k
t
particulière de (1.45). Comme
u*(t) = a~ + ak
e - 21
, on peut
12
chercher des solutions particulières de la forme
*
(1.47)
-k21 t
~ P = C1 + C2e
*
"2p = d1 + d2 e -k21 t
où C.
d.
2 sont des constantes à déterminer.
1
= 1 1
1
1
Détermination de la solution particulière XQ."
En prenant
Xp" sous la forme (1.47), en l'injectant dans
le système (1.44) et par identification des coefficients de
e-k21 t
,on obtient le système algébrique linéaire, d'inconnus
Ci , di i = 1 ,2 suivant:
*
(1.48)
- k21 d2 = k12 C2 - k21d2
0= k12C1 - k21d1
dont la résolution nous donne
.' :::"
... ", - ,' ..'

1
85
1
ako*
ako*k12
d
_- ak 12
c 1 = k 0
,C2 = 0 , d 1 = k 0 k 2 1
2 -
k21
1
et par la suite la solution particulière est donnée par
1
*
*
ak12
-k21t
- - e
1
X:2p
k21
·1
1
Détermination des constantes Ki, i= 1 , 2
Un calcul nous montre que
1
1
est un vecteur propre associé à À.1
1
1
(-(k\\:
et
J
À2)
est un vecteur propre associé à À2
1
*
En considérant la solution particulière
~ (t)
ci-dessus trouvée,
1
et en utilisant les conditions initiales dans (1.46) on a :
*
1
ako
(1.49)
x 1*(0)
=
k1 + k2 + ~ =a
1
(ko +À.d
(ko +À. 2)
a k o*k12
ak12
X2*(0) = -
K1 -
K2 +
=0
À.1
À.2
kok21
k21
1
La résolution de (1.49) nous donne :
1
1
1
1
··-----:1
i·i:::.::ifj~t?{.

86
-.
*
*
a ( k 0 + À. 2) ( k 0 - kO)
a k 12(k 0 - kO)
(1.50)
K1 =
+
kaÀ.2 0
kaÀ.2 0
*
*
a(ka + À.t}(ka - ka)
ak12(ka - ka)
K2 =
+
kaÀ. 1O
kaÀ.2 0
ka
ka
où 0 =
1..2
1..1
Finalement la solution cherchée est donnée par
À. 1t
À.2t
*
(1.51)
X1*(t)
= K1 e
+ K2e
+ ~ p(t) =
*
aka
+ -
ka
Vérification:
*
Si le coefficient ko de u(t) prend la valeur ko alors
X1 (t)
prend la forme
X1 *(t) donnée par
(1.51).
Par hypothèse on a
X1 *(0) = a, alors si ko* tend vers ko, les constantes k1, k2 données
par (1.50) tendent toutes deux vers zéro et la solution particulière
tend vers a.
En résumé
On a :
. k *
SI
a --------7
ka
alors
. K1, K2 --------7 0
*
~ P(t)
--------7
a
*
~ (t)
--------7
a
*
-k21t
-k21 t
et
u*(t) = a'b + ak12e
--------7
u(t) = ak
k
a + a 12e
.
. '.
.
"
.' ~.
",
,','

1
1
87
Résultats
numérigues:
1
Données (de Mme Guerret Laboratoire pharamacelJtique
1
SANDOZ) :
k
= 0.13 ; k
= 0.16; k = 0.07 ; V
= 4001 (ml)
12
21
o
1
1
Variations de ko : 0.03 ; 0.05 ; 0.10 ; 0.20
On veut réaliser une concentration de 711 g/ml. Si C1 (t) désigne la
1
concentration on a : X1 (t) = V1 C1 (t)
ou encore
C1 (t) = x~ ~t)
1
. Dans ce cas le contrôle optimal est donné par la formule
1
-k21t
u(t) =
~ ( ako + ak12 e
)
1
~
et on veut avoir
C1 (t) =
V 1
= a .
1
En appliquant nos résultats ci-desus trouvés on obtient les
tableaux
l, Il et les courbes ci-après représentant les valeurs de
1
u*(t) et de C *(t).
,"-
1
1
1
1
1
1
1
1
1
1
1
····,,·
.::: ..···1
;:;.'-:: ~

- 88 -
Tl\\BLE1\\U l
u* (t) en }Jg/m1
,At
,r;
e
Temps
kO*=0.20
1
kO .=0.03
kü*=0.05
kO*=0.07
kO*=0.10
en
heures
'"
0
1.12
1.26
1.4
1.61
2.31
,
0.1
1.1056
1. 2456
1.3856
1. 59556
2.29556
0.2
1. 0911
1. 2313
1.3713
1.58134
2.28134
0.5
1.0500
1.1900
1.3300
1.54004
2.24004
1
0.9854
1.12545
1.26545
1. 47545
2.17545
1.5
- 0.9258
1.06583
1.2058
1. 41583
2.11583
2
0.87079
1. 0108
1.1508
1.3608
2.0608
3
0.7731
0.9131
1.0509
1.26309
1. 96309
5
0.6188
0.75889
0.89889
1.10889
1.80889
10
0.3937
0.5337
0.6737
0.883726
1.58373
15
0.29255
0.43255
0.57255
0.782553
1.48255
20
0.2471
0.38709
0.521609
0.737094
1.43709
jo
0.2175
0.35758
0.497429
0.707489
1.40749
40
0.2115
0'.351512
0.491512
0.701512
1.40151
50
0.2105
0.35030
0.4903
0.700305
1.40031
60
0.2101
0.3501
0.4901
0.7001
1.4001
70
0.2100
0.3500
0.4900
0.700
1.400
80
0.2100
0.3500
0.4900
0.700
1.400
1
90
0.2100
0.3500
0.4900
0.700
1.400
1
1
1
1

û\\
{
t)

K
= 0.13
(h- 1 )
1 .6 .-
12
K
= 0.16
(h-1)
restent fixes
1.5
21
1.4
1.3
1.2
1.1
1
0.9
1-
( -1
k
= 0.18
h
)
0.8
o
0.7
1
k+-= 0.07 (h- )
0.6
o
0.5
k=t- = 0 05 (h- 1 )
o
.
0.4
klt- = 0 03 (h- 1 )
o
.
0.3
0.2
0.1
o
2
10
20
t

- 90 -
TABLEAU II
*
Cl (t) en
)Jg/ml
"A.
r
Temps
kO*=0.03
kO*=0.05
kO*=0.07
kO*=0.10
"
kO*=0.20
en
heures
0
7
7
7
7
7
0.1
6.97166
6.98583
!
7
7.02126
7.09212
1
1
0.2
6.94265
6.97132
7
7.04302
7.1864
.
0.5
6.85209
6.92~05
7
7.11093
7.4807
1
6.69177
fi.84588
7
7.23117
8.00176
1.5
6.52341
6.76171
7
7.35744
8.54892
.
2.
6.35059
6.67529
7
7.48706
9.11059
3
6.00244
6.50122
7
7.74817
10.2421
5
5.34491
6.17246
7
8.24132
12.379
10
4.1426
5.5743
7
9.13855
16.2671
15
3.52534
5.26267
7
9.60599
18.2926
20
3.23293
5.11646
7
9.82531
19.243
30
3.04408
5.04408
7
9.96694
19.98567
"
1
40
3.0082
5.0041
7
9.99385
19.9734
50
3.00152
5.00076
7
9.99886
19.9951
60
3.0001
5.0001
7
9.9998
19.9998
70
3
5
7
10
19.9999
80
3
5
7
10
20
90
3
5
7
10
20
1
'7'-": -,- "." .~ .- -~--- -.:
...... ,' "
-,-.-;-.,:,,~::~~
:.::.. ,::,
":""/;<:

on a fixé
1
1
1
K
= 0.13 (h- )
K
= 0.16 (h- )
k
= 0.07 (h- )
12
Z1
o
c~ t)
1\\
puis on fait varier
k*
(k* = 0.03 (h- 1 ) ; 0.05 (h- 1 ) ; 0.07 (h- 1 ) ; 0.10 (h- 1 )
o
0
k* = 0 10 (h- 1 )
10
o
.
_-_
_
_.---~...
..-..---_.".~-------.-.---_ ... ....._ - - - - - - -
--_.-
9
8
k~
1
'" 0.07 (h- )
7
6
k* = 0 05 'h- 1 )
o
.
\\
5
1
4
k~ = 0.03 (h- )
3
<':- '
''',
2
1
_ •• _ _ .__ . ; ; . t ; " " ~ ~
o
2
10
20
t

92
~ ) Deuxième cas : Etud,e de la variation de X1 (t) en
fonction de celle de k
de u(t).
12
On procède exactement comme dans le premier cas avec
k~
-k21 t
cette fois-ci : u*(t) = ako + a'12e
2

~
Îqt
on trouve : (1.52)
X (t) = LJ Kje
i = 1
La matrice A étant la même, les valeurs propres
Ai
sont
*
*
inchangées, cependant on a:
~ =
avec
*
*
~ P (t) = a
*
~p (t) =
où on a toujours
o =
AIt
A2t
Finalement on a ici : (1.53)
x l' (t)
= K1 e
+ K2e
+ a =
= a (k1 2' - k1 2) eA1t
Dk21
+a

1
1
93
1
Vérification
1
Si le coefficient k12 de u(t) prend la valeur k 12* alors X1 (t) prend
la valeur de
X1
1
* (t)
donnée par (1.53) . Par hypothèse ,les formules
ci-dessus nous permettent de conclure que
1
quand
k12 * -------~
k1 2
alors
K1t K2 -------~
0
1
*
~ P (t)
-------~ a
*
1
~ (t)-------~
a
*
-k21 t
et
u*(t)
1
= ak
+ ak
e
-------~
o
12
1
Résultats
numériques
1
On fixe k21 = 1.4201 ; ka = 1.175
1
on fait varier k

12
= 3.308 ; 0.3308 ; 0.03308
9.924
On veut réaliser a = 15 ~g/m
1
1
1
Les tableaux et les courbes ci-après donnent les variations de
x 1*(t) lorsque k12* varie .
1
1
1
1
1
1
1

l '1.
!.
"."
- 9h -
*
t
1
--
xl (t)
------
_..
k]2 *==O.OnOH
k
*=().330H
*
k17. =3.308
k]2 *=9.924
12
--
_._---._._- _.. --_._. -------_.
-.-
.._._-_.
. _ ~ ~ _ . _ - -
- - - . _ ~ , - _
0
l ')
15
15
15
O. ]
Il .3(14
1] .64
15
22.4668
0.5
7.61027
8.28206
15
29.5689
1
8.1R57fi
fl.fl0523
15
28.0148
1.5
9.09813
9.63467
15
26.923
2
9.CJ0973
10.3725
15
25.2834
2.')
·10.611
] 1. 01
15
23.8667
3
11.2157
Ll.5598
15
22.645
5
12.9086
13.0987
15
19.2251
8
14.1407
14.2188
15
16.7359
10
14.5251
14.56R3
15
15.9594
1')
14.8922
14.902
15
15.2179
20
14.9Y)5
14.9777
15
15.0495
25
14.9944
14.9949
15
15.0112
30
14.9987
14.9989
15
15.0026
35
14.9997
14.9997
15
15.0006
40
14.999
15
] ')
15.0001
50
le,
15
15
15
- - -
._--------

1-
U1
0-
E
Q)
1-
o
N
co
o
CV)
CV)
Il
r-i
(
o
LD
N
o
co
r-i
r-i
r-i

1-
VI
Cl.
E
Q)
1-
o
N
o
r-l-
aJ
0
CV)
CV)
Il
aJ
N
a
r-l
CV)
:><:
CV)
0
Il
0
N
-le r-l
Il
:><::
N
- i
0
I.D
Ln
<:::t
0
N
r-l
r-l
.---<
r-l

1
1
1-
Vl
0-
E
QJ
1-
o
N
0
..-<
co
0
CV)
CV)
Il
N
..-<
:>.<:
Il
N
-1<
..-<
:>.<:
o

Vl
D-
E
(1)
f--
o
N
r-
-.J
)
)
co
0
CV)
CV)
co
o
CV)
N
CV)
r-i
o
::><::
o
Il
Il
('.1
N
-lC..-l
::><::
--+_..._-=::;;;~~lailiiii_~
"'-----r""!·~'·!!!'!'··4~.~_~_:::.~:::'~t--.--.f--
"""_-----4......--~--_I. o
LO
o
N
r-i
r-i

101
Remarque
Les courbes et le tableau ci-dessus montrent clairement
que
X1 *(t) évolue de a = 15 en croissant (ou en décroissant)
jusqu'à un maximum (ou un minimum) et décroît (ou croît) jusqu'à
une valeur constante qui est égale à a = 15 .
*
*
Pour k12
= k12
= 3.308 on a directement X1 (t) = X1 (t) = a
y) Troisième cas : Etude de la variation de X1 (t) en
fonction
de k
de u(t)
21
Comme les cas précédents on pose
*
et on cherche une solution particulière de la forme (1.46)
où on a :
*
-k21 t
( 1..54)
x1P = C1 + c2e
*
"2p = d1 + d2 e-k21 t
En injectant (1.54) dans (1.44) pour rechercher les constantes Ci, di
*
i'
, 1 = 1,2 ; l'identification des coefficients de
e-k21 t et de
e-~ 1t
fait ressortir que ak12
= 0 ce qui est impossible car
les
"
constantes k12 et a
sont toutes deux non nulles. On peut conclure
que la variation de k21
de u{t) n'a pas de "sens" (ou pas d'influence
sur X1 ill)·

102
IV) Influence de
la variation
du coefficient
ko
de
la
matrice
compartimentale
sur
X1(t)
pour un contrôle
-k21 t
u(t) = ako + ak12e
fixé
Nous rappelons que le problème : trouver u(t) tel que
(1) J(u)
=
J (X1 (t) - a )2d t
o
soit minimum avec les contraintes
d X 1(t)
(2)
dt
=
- (ka + k12)X1(t) + k21 X2(t) + u(t)
dX2(t)
==
k12 X1(t) - k21 X2(t)
dt
X1 (0) == a
,X2(0) = 0
-k21 t
a pour solution
u(t) == ako + ak12e
lorsque X1 (t) est pris
identiquement égal à a. Dans ce cas on a montré que :
_ak 12 ( 1 _ -k 21 t)
x2 ()
t -
k
e
.
21
Nous avons étudié l'évolution de X1 (t) lorsque les coefficients k12
de u(t) varient.

103
Ici nous fixons
solution de (1) (2) et
nous cherchons à étudier le comportement de la fonction X1 (t)
lorsque ko de la matrice compartimentale de (2) varie.
Le problème peut se résumer à l'étude de l'évolution de
x 1*(t) telle que l'on ait :
(1.55
i.
En: procédant exactement de là même" manière qu'aux
: .
paragraphes précédents on trouv.e que :'
*
aka
(1.56)
+ -
ka
avec
*
*
a(ka + À2)(ka - ka)
ak12(ka - ka)
K1
-
+
ka *À2 D
ka *À2 D
*

a(ka + À1)(ka - ka)
ak12(ko - ka)
K2
-
+
ka *ÀI 0
ka *À2D

!<a(À 1 - À2)
où 0 =
ÀIÀ2

104
Vérification
Ouand ka * -------~
ka ,
on a :
K1 , K2 -------~
0
*
a 1<0
X1*(0) = K1 + K2 + - -
-------~
a
ka
et
x1 * (t)
-------~ X1 (t) = a
hesultats
numériques
On veut réaliser
xdt) = a = 7 avec k12 = 0.16 ; k21
= 0.13 fixé. On
fait varier ka = 0.01 ; 0.003 : 0.07 ; 0.5 ; 0.7.
L'étude de la variation (;e
X1*(t) a donné les résultats numériques
suivants :
_._----- - - - - -
----------~ -----------
t.
k *
, k *=0. ()J
y. *
*
-
y.Q =0. 1
o =o.(n
O
Q =0.07
.
- - t - - - - - - I - - - - . - - . - - - - - - -
- - - - - - -
o
7
7
7
7
7
0.1
7.04164
7.02774
7
6.70871
6.57742
0.5
7.2015
7.Jl1~7
7
S.JJ703
5.20~32
t
7.38755
7.2~~A6
7
4.7RY21
4.03224
J .5
7. c.(;025
7. JhH 17
7
4. l l ' ' ; ( ) l ) i . ?')f)R7
2
7.72139
7.471~5
7
3.h1')fi
).73R43
3
R.OJ506
7.h~R42
7
2.qG~lfi
2.140R1
5
8.51964
7.Q70S]
7
}.]J542
1.657~
10
9.53f!3
8.57f10l
7
1.nS42
1.24031
]5
10.0797
9.0()r,()fj
7
1.4(;4:\\/
1.0231R
7.0
11 .7742
lj. 'ilr,I1G
7
1.2H"n
o. R93542
JO
12.89Y3
10.32(19
7
1. ()'J947
0.76lJ4l"1
_:_~-----,-_~_r:_~._"~_~_~_;
~:_~:5 . .;.~J ~::~;;~~
~:~_~:~;:~
Les résultats ci-dessus et les courbes ci-après montrent
bien que X1*(t) évolue de a = 7 rn croissant (ou en décroissant)
suivant la variation de ka' quand -:It devient très grand.

courbe de xl(t) pour
*
*
k
variable dans la matrice compartimentale
xl (t)
o
12
11
la
I<~ :; 0.03
9
8
k* = 0.07
o
7
6
5
4 1
1
1
3
2
k* = 0 5
1
o
.
11
k* = 0.7
o
.
1
UJ,
a
2
la
20
Temps t

1
: ;
106
Remarque :
L'étude du cpmportement de Xl (t) et urt) en
fonction
de l'évolution des coéfficients kij correspond
à
des cas ,concrets (en biologie: et pharmacocinétique par
,"
, .
~ .
" ,
exemple) . Précisémènt les
coéfficients kijSont des
constantes biologiques qui dépendent du sujet soumis à
l'expérience ;par conséquent ils
varient suivant les sujets
et cette étude nous a permis de voir· l'évolution du vecteur
d'état Xl (t) et du vecteur de con tôle urt) .
~
i
t
1

.CHAPITRE 2:
CONTRÔL~OPTIMAL AVEC CONTRAINTES
non LINEAIRES
(ce chapitre est le texte d'une communication faite au séminaire
international de recherche en mathématiques ,GIRAGA IV à Lokossa
en Décembre 1992
au Benin ,organisé par l'univerité nationale du
BENIN et celle de YAOUNDE)

108
RESOLUTION
NUMERIQUE
D'UN PROBLEME
DE CONTROLE
OPTIMAL AVEC CONTRAINTE NON LINEAIRE COMPARTIMENTALE.
Blaise SOME
Département
de
mathématiques et informatique.
Faculté
des
sciences
et
techniques (FA.S.T)
UNIVERSITE
DE OUAGADOUGOU
RESUME
Nous recherchons la solution numérique du problème de contrôle optimal
suivant: Trouver une fonction u*(t)
T
telle que J(u* (t)) = Min u(t) f f(x(t),u(t»dt
o
sachant que x(t) et u(t) vérifient le système différentiel compmtimental
non linéaire [ Il] :
dx(t)
dt
~ g(x(t),u(t))
x(O) = X o
où f et g sont des fonctions ( éventuellement vectorielles) connues
expérimentalement.
,
Dans ce travail nous proposons une démarche originale donnant lieu à
deux algorithmes numériques de résolution du problème ci - dessus\\. Une
application à un problème concret en pharmacocinétiqye a été faite.
Mols clés: contôle optimal , équations différentielles compartimentales,
méthode de pénalisation, programmation dyna!mique.
ABSTR,ACT
.
.
We are looking for the numerical solution of the following optimal
1
control problem : fincl a funetion u*(t) so that :
'T
1
J(u*(t» ~ Min u(t) Jf(x(t),u(t»dt
o
'
i
1
where x(t) and u(t) verifythe 110nlinear compartimentaI differential
system [11]:
'
1
~
clt
= g(x(t),u(t»
x(O) = xo
1
where f and g are functions (vectorial eventually) given experimently .
1
1

109
ln this work we propose an original method giving two algorithms of the
resolution of the above problem .
An application to a real problem of pharmacokinetic has been given .
keywords: optimal control ,compartimentaI differential
equation,penalisation,dynamic programming .
. ;
1
INTRODUCTION
(1.1)
/~
vérifient:
(1.2)
dt
= g(x(t),u(t»
x(o) =Xo
.....
Olt f et g sont des fonctions (éventuellement vectorielles) connues de la
modélisation mathématique en pharmacocinétique [ 12] .
Dans cet article nous résolvons numériquement le problème (1.1)! (1.2) en adoptant
la démarche suivante: dans une première étap~ nous discrétisons totalement le
problème (1.1) (1.2) ensuite nous utilisons une technique de péna~isation pour
ramener la résolution du problème discrétisé à celle djun problèthe de contrôle
optimal sans contrainte que nous avons résolu par OHe inéthode de minimisation de
1
1
plusieurs fonctionnelles.
:

110
Un deuxième procédé a consisté à résoudre le problème discrétisé en adoptant
judicieusement le principe de la programmation dynamique. Les deux algorihmes
ainsi obtenus ont été utilisés pour résoudre un probl~me concret posé en
pharmacocinétique .
Remarques :,1°) Le problème (1.1) (1.2) est d'application plus large que celle du
domaine de la,pharmacocinétique .
2°) Dans ce travail on ne s'intéresse ni à l'existence, ni
éventuellement à la multiplicité des solutions de (1.1) (1.2) . On s'intéresse
seulement à exposer des méthodes de résolution numérique de (1.1) (1.2) ci - dessus
dans le cas favorable d'une solution unique. Pour les problèmes d'existence et
d'unicité on renvoie à [3] [4] et [11] .
II
RESOLUTION PAR UNE METHODE DE PENALISATION
1°) Description de la méthode
On va chosir pour déterminer le contrôle u(t) qui minimise le critère (1.1) une
méthode numérique utilisant: une discrétisation de l'intégrale (1.1) et du système
'r
",'
différentiel (1.2) . L'intégrale f(.)dt sera approchée par une fonnule des
o
rectangles à pas équidistants. On aura donc:
T
n-l
(2.1) ff(x(t),u(t)) == h I/(\\ ,U i ) où h = t1t ( p~s de discrétisat'ion) Xi == x(ti) ,
o
i=o
'
ui == u(ti) , ti = ih , les ti sont: les points de discrétisation de la subdivision de [ 0 , T]
et on a (n-1)h = T .Le système différentiel (1.2) se discrétise comme suit:
dx(t) _ Xi + 1 - x i ,
.
dt:
-
h
et (1.2) deVIent alors:
(2.2)
~i+l = Xi +hg(Xi, Ui) = G(Xi ,Ui) avec Xl connue
Le problème (1.1) (1.2) devient:
n-l
(2.3) Min
L f(xi,Ui)
1=0
avec contrainte Xi+ = G(xi,u i) i= 0 ,1 , ... , n-1
1

1
1
111
1
Ainsi la résolution du problème (l.1) (1.2) équivaut à cdle du problème [6,11]
d'optimisation dans le cas discret (2.3) avec contrainte. Afin de résoudre un
problème sans contrainte, introduisons la fonctionnelle "pénalisée" JE définie par:
1
11-1

n-1
E
_ ~ { 1
2}
~ i
(2.4) J
f L..J f(xi' qi} +E (xi+ 1 - G(xi ' ui))
= ~ JE
1
i = O ·
1=0
où Ji = f(xj,Ui) +1(xi+1 - G(xi, ui))2 . '
1
E
E .
On peut montrer que [7] si l'on recherche le minimum de J~ par rapport à un , u1 ,
1
'" , un_1 et xl ' x2 ' ...... , xn on convergera, lorsque E tend vers zéro, vers le
n-1
1
minimum de L f(xi,ui) pa~ rapport à Uo' ...,un-1 et sous la contrainte xi =
i=O
G(x.,u.)
1
1
1
c'est - à dire on convergera vers la solution du problème discrétisé (2.3) et par la
suite on obtient la solution de (1.1) (1.2). Nous sommes maintenant à mesure de
1
proposer un algorithme simple. On cherche le ~inimum de JE donné dans (2.4)
1
E
par rapport à lli , on obtient un contrôle u
qui dépend de E , xi et xi+ 1 en fait on a
i
E
u
= rE(xi ,G(xi ' ui E» .
1
i
1
D'après la formule de JE ' la fonction rE dépend seulement de E et pas de i .Pour
1
être précis on a Min ui J~ = J~ (Xi' xi+1' rE(xi,xi+l)):' La difficulté numérique
1
consiste à déterminer la fonction r
pour tout xi et xi+l . Si on prend les relations
E
(2.2) en compte on obtient:
1
E
(2.5) u
=rE(xi ,G(xi ' uiE» . D'après (2.5) on peut calculer les lliE et xi : en
i
E
E
effet on a: uo = rE(xO ,G(xO ' uOE) et u
= r
1
l
E(x1 ,G(x1 ' u1 E)) qui donnera
explicitement u E en fonction de xl (connu). u E étant déterminé, on tire x
à
l
1
2
1
partir de (2.2) puis u Epar unc relation analogue à (2.5) puis x de (2.2) etc ...
2
3
.
"
Jusqu a un-1 .
1
1
1
1

112
Les valeurs U E. ,ulE., .... , un_lE. obtenues dépendent bien entendu de E.. Il ne
o
restera plus qu'à faire tendre E. vers zéro .
2°) Application
On souhaite maintenir une des variables d'état constante; par exemple Xl (t) = a . le
problème est de trouver u*(t) telle que:
T
(2.6)
J(u*(t)) = Min
)
f (x] (t) - a )2 dt
uCt
o '
.
avec les contramtes (2.7) ~dX(t)
ili = g(x(t),u(t))
~(O) = X o
Ott on a x = t(XI , X2 , .... , Xn ) . D'après l'origine (pharmacocinétique) de
l'exemple concret à traiter ci -après, le contrôle u(t) intervient de façon linéaire
-ldx(t)
clans (2.7) sous la forme (2.8)
dt
= g(x(t),u(t)) = gl (x(t)) +u(t)
x(O) = Xo
.
où g, est la partie non linéaire de g ne contenant pas u(t). Ici on a : f(x,u)=(xi _a)2
si Xli ~ x (t
1 i), tXi = (Xli' x2i ' .... ,.xni) on a:
n~ L
L{
n-l
~ Ji "avec:
.JE =
f(xi, uil + ~ (xi+ 1 - G(Xj ,Uj ) )2 )
LJ E. '
i=o
1 = 0
I
2
:1,
(2.9) JE. = (Xli - a)
+:E (x li+ - G(xi ' ui))2 . ~n discrétisant (2.8) et en
1
1
s'intéressant à Xl discrétisé on peut écrire que:
(2.10) x li+l = Xli +h(gil(xi) +ui) où gll est la partie non linéaire de l'éq~ation
différentielle en XI(t) . Pour se fixer les idées on prend un exemple. Soit le système
différentiel suivant:
c1 x l(t)
2
dt
= 3xl - Xl x2 + u
dX2(t)
dt
2
dans cet exemple on a : x = t( Xl , X2)
; gI (x) = t( 3x
- 2XIX2, xI
I
X 2 + X22 )

1
1
113
et gl1(X) = 3X12 - 2XIX2.. 0n peut encore écrire (2.10) sous la forme:
(2.11) xli
1
= x +
li l - h(gll(xi) + Di)
finalement on a :
.
1
I
(2.12) J
= (x +
E
1i l - h(gll(xi) + ui) - a )2 + E"Cic li+ l - h(gll(Xi) + ui)2
1
On cherche ui qUI mInImISe J~ pou~ cela on dérive J~ par rapport à Di puis on
1
al
1
E
annule la dérivée pour trouver Ui . D'après (2.12)
aUi =a équivaut à :
1
1
1
D'après l'algorithme ci - dessus décri t , les Xi sont calculés par les contraintes
1
D'autre part d'après (2.13) on a :
1
.
E .
a
(2.15)
x + = hUi
+ hgll(Xl) + 1 + E . En égalant (2.14) et (2.15) et par
1i 1
1
simplification on a : (2.16) x ,E = 1 a
i = a , l , .... n-1 .La f~rmule (2.13 )
11
+ E
1
du contrôle optimal se simplifie en prenant Xl' l' = -l'a et on a .
I+
• + E
.
1
(2.17) 1I/~ = _gll(xj) . Quand Etend vers zéro on a :d'après (2.16) et (2.17) :
1
1
III
Résolution par une méthode de programmation dynamique
1
l°)DescivtiQn de la méthode.
Dans ce paragraphe ,pour la résolution du problème (1.1) (1.2) " nous partons de
1
sa forme discrétisée .
:
1
1
1

114
Nous avons montré que le problème (1.1) (1.2) discrétisé devenait (2.3) ci -desous
rappelé : il s'agit de trouver ui ,i = 0 , 1 , .... ,n-l solution de :
n-l
(2.3), Mjn
Lf(xi ,ui) avec x
=
i+1
G(xi ,ui)
i =0, 1 , ...... , n-1
1=0
u(» ... ,Un-l
.
"
Ensuite nous avions utilisé une méthode de pénalisation pour résoudre (2.3) . Ici
nous procédons autrement, puisque la discrétisation provient d'un schéma explicite,
on écrit alors
n-1
n-2
Min
(If(Xi lUi)) =
Min
{ If(xi,ui) +
Min
ua, ....
un - 1
ua ' ... , u n-2
1=0
i=o
u n -1
car seul
f(x _
-
(x
n 1 , un 1 ) dépend de un-1 • Posons
Min
f(x n_1 , un_1) = Gn_1 n_1) ,
u n_1
G
sera calculable numériquement.
n-1
Le u - optimal de
Min
f(x _ , u - )} dépend de x
n 1
n 1
n 1
n-1 et sera
un_1
noté un_1 = <1>n-1 (xn-1) où <1>n-1 sera calculable numériquement.
L'étape suivante consiste à résoudre: Min { f(x n_2, un_2 ) + Gn-1(xn-1)}
un-2
or xn-1 = G(xn_2 ' un_2 ) donc on a à calculer
Min { f(x _ , U _ ) + G
_
n 2
n 2
n_1(Gn 2(x n_2 ' un_2» } et la fonctionnelle à minimiser
u n-2
ne dépend que de x _
_
n 2 et un 2 . On obtiendra comme précédemment:
G
=
n_2(x _
<1>n-2 (x
n 2) = Min {f(x n_2 , un_2) + Gn_1(G(x n_2 ,U n_2)} et un_2
n_2 )
un-2
Ensuite on aura le problème: Min {[ f(x n_3 ' un_3) + Gn_ixn_2) } . De proche
un-3
en proche on obtiendra: {G n_1 ,<1>n-1) ; { Gn-2 ' <l>n-2 } ; ... ; { G1 , <1>1 } ; {Go' <1>0 }
or <1>0 (xo) =Uo avec Xo et <1>0 connus d'où Uo puis;.?n tire xl = G(xo ' uo) qui
donne u =
=
1
<1>1(X 1) avec <1>1 et xl connus d'où u1 ,puis on tire x
G(x ,u ) qui
2
1
1
donne u2 = <1>2(x2) etc ... On détermine ainsi successivement: U ' xl ' u] , x
'
o
2 ' u2
x3 '
, xn_1 ' un_l' xn '
.

1
1
115
2°)Application
On considère le problème (2.6) (2.7) précédent avec les mêmes notations et
1
considérations puis on s'intéresse particulièrement à la discrétisaton de xl (t) ; on a :
x 1i+1 = xli + h(gll(xi) + ui)
.
1
f(x ,ui)=(x
-a)2= {x
-h(gll (x
i
li
li + 1
i)+ui -a}2 i=O, 1, ... ,n-1.
Le minimum de f(Xi , ui ) par rapport à ui est donné par : .
1
df(xi , un
x1i+1
a
.
(3.1) . . ',') ~
= ° ~ ui = h
= ,-gl1(xi) - -h'
1 = 0,1 , ... , n-1 . Donc
,
aUI
'
1
. .
~ ( ) Xli+1
(
)
a
.
:
h(
( )
)
ICI on a: 'l'i Xli
= -h- = gll Xi - h pmsque x li+1= xli + gll xi + ui on
déduit de (3.1) que: (3.2) xli = a pour i = 1,2, .... ' n-l et finalement
1
(3.3) ui = - g11 (xi) soit <Pi(x li) = - gll (xi) . On, détennine ainsi successivement Uo
,
'
, xl ' u 1 ' x2 ' .... , un-l' Xn comme suit:
1
Uo = - gll (xo) avec txo = (x 10 ' x20 ' .... , XnO):
xII = x lO + h(gll (XO) + ua) .
1
u 1 = - gll(X1) avec tX1 = (XII' X21 ' .... , Xnl,)
1
x
=
12
x l1 + h(gl1(x 1) + u1)·
1
U2 = - gll (X2) avec
tX2 = (x 12 ' x22 ' .... , xn2)
x
= x
l3
l2 + h(gll(x2) + u2) .. , etc.
1
IV RESULTATS NUI\\1ERIQUES
,
1
' , '
,

1
Nous considérons le modèle compartimentaI suivant [12] provenant de la
1
modélisation mathématique e'n ,phannacocinétique: ;
1
1
KzI
1
K
K
a
m
1
U(t)
1
1
1
1

116
Les équations du modèle ci - dessus sont [12] :
dxl(t)
-kat
Vm
(4.1)
dt
= kacoe
- (k 12 +k
+x 1(t) )x1 (t) + k
m
21 x2(t) + u(t)
dX2(t)
dt
= k12 Xl(t) - k21 X2(t)
.. xl(b),~ XlQ; X2(0) = X20
Les xi(t) sont des concentrations d'un produit pharmaceutique clans les
compartiments i (i = 1 , 2 ) .
Pour avoir une thérapeutique optimale, on souhaite maintenir une des
concentrations constante par injection de u(t) ; par exemple xl (t) = a constante.
Mathématiquement le problème revient à trouver u*(t) telle que:
T
(4.2) J(u*(t)) = Min u(t) f(xl (t) -a )2 dt où xl (t) et u(t) sont solutions de (4.1)
o
En appliquant la méthode de la programmation dynamique ci - dessus avec les
mêmes notations nous avons: xli = a pour i = 1 , ... , n-1
k · .
v
ui = - gl1(xi) optimal avec gl1(x1) = kacoe- atl - (k12 +k
: xl i )x
m
li +k21 x2i
Données numériques (Laboratoire Sand oz/France) [11]:
.
On donfle a = 7Jlg/ml d'tin produit pharmaceutique avec les coeffi6ients d'échange
suivants;: k 12 = 3, k21 :J,2 ,ka = 2 ,co = 2, vm =.0.418, km =0.182.
Nous avt>ns obtenus les résultats ci-après (cf .tableaux et courbes) de Xl(ti) ,X2(tj)
et u(tj) poiIr différentes valeurs de h ~
Remarques:
i) Nous avons toujours considéré X2(O) == 0 .
A chaque pas X2i+1 est calculée par la formule suivante :
X2i+1
= 1tkl2xli + (l-hk21)X2i
ii) Les deux algorihmes ci - dessus donnés en II et III ont donné (es
mêmes résultats sur le même eXèmple
: en effet d'après la méthode de
pénalisation les relations (2.8) donnent ui e' ----~ ui = . gll( xi)
(optimal) avec Xli = a
,tandis que pour la méthode de programmation
dynamique on a directement
les relations (3.2) (3.3)
ui = . gll(xi)
(optimal ) avec x li = a .

1
-
117 -
1
1
h = 0.1
.
h = 0.1
n = 500
.
1
x
x2(0) := Xl(O) := 0
1 (0) = a = 7
x2(0) = 0
!
1
t,
'U,
u,'
xli
:X2'
xli
x2i
1
1
.. 1
.
1
1
0
17.4074
7
0
-4
0
0
1
0.1
13.9325
7
2.1
18.1324
7
0
0.2
Il.1662
7
3.78
14.526
7
2.1
1
0.3
8.9642
7
5.124
Il.652
7
3.78
1
0.5
5.8172
7
7.05936
7.53748
7
6.124
0.8
3.1230
7
8.73839
4.0038
7
8.29799
1
1
2.1209
7
9.37257
2.6846
7
9.0907
1.2
1.4876
7
9.778844
1.8484
7
9.5980~j
1
1.5
0.94713
7
10.13056
1.1318
7
10.038205
i
2
0.57625
7
10.3789
0.63678
7
1,0.34867
1
i
2.5
0.45979
7
10.460
0.~7963
7
10.4504
i
1
0.42998 i
3
0.42349
7
10.487
7
10.4837
5
0.407525
7
10.4998
0.4076
7
10.4998
1
8
0.407407
7
10.4999
0.407407
7
10.4999
10
0.407407
7
10.5
0.407407
7
10.5
1
20
0.407407
7
10.5
0.407407
7
10.5
1
30
0.407407.
7
10.5
0.407407
7
10.5
0.i407407
7
10.5
40
0.407407
7
10.5
1
50
0.407407
7
10.5
0 •.407407
7
10.5
1
1
1
1

-
118 -
,
h = 0.3
xl(O) = a = 7
x2(0) = 0
. n = 125
t.1
ui
xli
x2i
-
,
,
0
10.4074074
7
0
0.3
6.61216
7
6.3
0.9
1.0902
7
9.828,
1.5
0.423299
7
10.3925
2.1
0.384128
7
10.4828
2.7
0.394846
7
10.497
,
3
0.39969
7
10.497
3.6
0.40477
7
10.4988
4.2
0.40656
7
10.4999
5.1
0.40726
7
10.4999
6
0.40738
:
7
10.4999
8.1
0.407406 . ,
7
10.5 ,,
10.2
0.4074074 i
7
:10.5
,
i
1
12
0.4074074

'10.5
;
,
J
,
i
15
0.4074074,
7
10.5
20.1
0.4074074 (
7
10.5
,
1
30
0.4074074
7
10.5
30.9
0.4074074
7
10.5
33
0.4074074
7
10.5
33.1
0.4074074
7
10.5
37.5
0.4074074
7
10.5
\\

(
1
t
1
f-
.......
x
o
"
o
o
"
..c
N
a
1

li)
0-
E
QJ
1-
N
r--..
Il
CO,
Il
o
o
Il
o
1
o
\\.0
N
r i
r-i
1
NI
/(/
1
1

l/l
0-
E
Q)
f-
N
+J
N
X

Ul
0-
E
Q)
f-
N
X
r--
Il
n:l
Il
o
o
..c
o
o
o
co
........

Vl
0-
E
QJ
~
+J
N
.r-!
X
........
II
rtl
Il
o
r-!
X
CV)
o
Il
..c
N
o
.i

Vl
0-
E
(])
1-
N
r--..
Il
ttl
II
a
r-l
X
C"0
a
II
N
a
a
N
co
N
. - f

125
V
Conclusion
Les problèmes de contrôle optimal ne sont pas des problèmes "nouveaux" ,
cependant il existe "peu" de méthodes mathématiques de résolution de èe genre de
problèmes en pharmacocinétique . Dans cette étude nous avons mis au point deux
algoritlunes numériques originaux de résolution des problèmes de cOI1trôle optimal
en phannacocinétique non linéaire. Une application à un problème concret avec des
données expérimentales (de SANDOZ) a été faite.
Dans le cas de la phannacocinétique linéaire, on peut obtenir un contrôle optimal
analytique [17] .
Bibliographie
[1] G . Adomian : A review of the decomposition method and sorne recent
results for nonlinear equations , Math. Comput. Modelling 13'(7) , 17·43 ,
(1990)
.
,
[2] G.Adomian : Nonliriear stochastic systems theory and applications to physics ,
Kluwet: (1989).
'
1
[3] C.T.H.llaker and C.PhiHjps : The numerical solution of non-linear
problems , Clarenton press (1981).
[4] S . BarneU : Introduction to mathematical control theory , Clarenton
presss(1975) .
i
.
i
[5] R.Bellman:
Adaptative contol process ;a guide tour ,Princeton
university press (princeton N . J) 1961.:
, .
[6] R . BeUman :Introduction to the mathematical theory of control process .
Academic Press
(1967) volume 40.
'

126
[7] R.Bellrnan : Dynamic programming and modem control theory , Academie
press (1;965) .
'
[8] J . Cea : Théorie et algorithme ,Dunod (1971) .
[9] Y .Cherruault : New! deterministic methods for global optimization and
applications té> 'biomedeCine, Int . J . biolhed. Comput. 14(3) , 249-262
(1991)::
'
.
[10] Y . Cherruault and Coll: Recherches biomathématiques ,Méthodes et
exemples ,CIMPA ed. OFFILIB ,diffusion (1983).
[11] Y . Cherruault : Mathematical modelling in biomedecine . Optimal control
of biomedical system . D. Reidel publishing company
(1986).
[12]P . G . Ciarlet : Introduction à l'analyse numérique matricielle et
optimisation ,Masson ,Paris (1982) .
:
[13] R . Kalaba and K . Springarn : Control, identification and input
optimization . Plenum press (1982) .
.
[14] Kendal E . Atkinson :A survey of numerical methpds for solving nonlinear
integral equations , Journal of Integral Equations and Applications VolA
N° l,pp 15 -46 (1992).
[15] Kurnar : The numerical solutions of hammerstein equation by a method based
on polynomial collocation , J . Austral. Soc. 5ER B31 , 319 -329 (1990).
[16] B . Sorne: A new computational methorl for solving integral equations ,
Applied Mathematics and optimization (to appear , accepted 1992) .
[17] B . Sorné : Identification, controle optimal et optimisation dans les systèmes
d'équations différentielles compartimentales .
Thèse
Paris IV Uuin 1984) .
[18] B. Sorne et Y . Cherruault : Optimisation et contrôle optimal en
pharmacocinétique , Biomed . and Pharm . (1986) ,40 , 183-186 .
[19] B . Sorne ,Y. Cherruault and G. Saccornandi : News results for
convergence of Adomian's method applied td integral equations , Math. Comput
. Modelling
Vol .16, N).2 , pp 85-93 (I992) .
[20] J .Wagner : Fundamentals of clinical pharmcokinetics , lJrug intelligence
(1975).

DEUXIEME "0- PARTIE
RESOLUTIONS NUMERIQUES D'EQUATIONS
INTEGRALES

127
1
GENERALITES
a)
Problèmes' 'physiques
De nombreux problèmes de la vie pra:tique donnent lieu à
des équa'tions intégrales.
Nous en citons quelques uns à titre
illustratif . Dans la première partie de ce texte nous avons vu que
la
résolution
du
problème de contrôle
optimal
provenant de- la
pharmacocinétique équivalait à celle d'une équation de convolution
de la forme
Xj(t) =
Ki (t)*u(t) cette équation n'est rien d'autre
qu'une équation intégrale. Ainsi ce problème de contrôle optimal se
ramène à une équation intégrale . Plus
généralement tous
les
problèmes
d'analyse
compartimentale
linéaires
ou
non
peuvent se ramener à des équations intégrales .
Les
éq uatio ns
intég raies
so nt
so uve nt
uti 1isées
en
biomécanique . Par exemple, le mécanisme de transport des fluides
dans une cavité et la déformation des surfaces de contact sont
importants pour la compréhension
des processus
biomécaniqiues
dans
la
physiologie.
La
modélisation
mathématique
donne
des
équations intégrales de la forme [ 14 J.
b
u(x) + À f k(x,t)g(u(t))dt = f(x)
a
où les fonctions g, k, f et le paramètre
À
sont
obtenus
d'un
raison nement physiq ue ; la fonction u(x) est à déterminer.

128
b) Problème
mathématique
Le problème qui se pose est de trouver une fonction réelle
u(x) soluHon" qe l'équation
b
(1) u(x)
==
f k(x,t)g(u(t))dt + f(x)
a
où f, 9 et k sont des fonctions continues données (expérimentale-
ment
ou
par
modélisation
mathématique)
des
phénomènes
physiquE;is.
1
! Nous
nous intéressons aux méthodes numériques dans le
"
,
cas favorable d'existence et d'unicité d'une solution de (1). Pour les
problèmes d'existence et d'unicité on renvoie à [35]
[46]
.
Il - METHODES NUMERIQUES
1°) Un
algorithme' numérique
utilisant
une
suite
d'équations
intégrales
linéaires
Nous rappelons qu'il s'agit de trouver u(x) tel que
b
(1 ') u(x)
==
f k(x,t)g(u(t))dt + f(x)
a
Pour cet algorithme, on suppose que 9 est non linéaire .

--------------1
1
129
1
1
1
A partir, de (1) nous construisons une suite (un vn) comme suit :
,
1
Soit uo(x) une solution initiale de
b
(2) uo(x)
=
Jko(x,t)g(uo(t))dt + f(x)
a
où k
est une approximation de K. En fait on choisit k
de façon à
o
o
faciliter le calcul de U
dans (2) .
o
Posons : (3)
R(x,t) = K - Ko
b
r(x)
J
=
R(x,t)g(uo(t))dt
a
On montre facilement que v(x) = u(x) - uo(x) est solution de
b
(4) v(x) = r(x) + Jk(x;t)(g(u(t)) - g(uo(t)))dt
a
On remarque que r(x) est connu si U
est calculé. Posons:
o
(5) g(u) - g(uo) = (u - uo)G(uo'u) = G(uo,u)v(t)
alors les formules (3) (4) et (5) nous donnent l'équation intégrale
b
(6)
v(x) ~ r(x) + f k(x,t)G{uo(t),u(t))v(t)dt
a

130
Maintenant la méthode numenque se base sur une approximation de
G (u ,u) . Pour ère plus précis, on a l'algorithme suivant défini par :
o
~1=UO+VO
u
1= u + v
n+
n
n
u 1
est calculé par la résolution de l'équation intégrale
b
(7)
vo(x) =
r(x) + f k(x,t)?(Uo(t),U(t))vo(t)dt
a
En fait (7) est une équation intégrale linéaire qu'on peut résoudre
par différentes méthodes classiques [16 ].
Plus généralement vn(x) est obtenu en résolvant l'équation
intégrale linéaire suivante
b
(8) vn(x) = r(x) + f k(x,t)G(uO(t),un(t))vn(t)dt
a
où un
a été calculé jusqu'à l'ordre n-1.
La convergence de cette méthode a été montrée par
Y. Cherruault [17 ] sous les hypothèses suivantes :
1 G(uo,u)l~ G*<oo
IK(x,t)I~K*<oo
avec G* , K* des constantes positives
et v(x) E H1 (a,b) où
H1 (a,b) = { ViVE L2(a,b) , V'E L2(a,b) }

131
Dans la pratique, .de tests numériques ont permis d.'obtenir
la solution en trois ou quatre opérations [17 J.
2°) Un
àlgorithme
de
discrétisation
,
"
.
Cette méthode utilise des idées déjà développées dans[16].
Nous allons décrire l'algorithme à partir d'un exemple d'é~uation
intégrale non linéaire.
Soit l'équation intégrale
1
(9)
u(x) + Jk(x,t)u 3 (t)dt = f(x)
o
Cette équation peut être remplacée par
n-1
L (j+1)h
(10)
u(x) +
Jk(x,t)u3(t)dt = f(x)
j h
j =0
où n est un entier tel que nh = 1 avec h tendant vers zéro.
En prenant x = ih dans (10) on a :
n -1
L (j+1 )h
(11) uOh) +
Jk(ih,'t)u3(t)dt = f(ih)
j h .
j = 0
avec i = 0,1 ,2, ... ,n.

132
Sur l'intervalle [jh, (j+ 1')h] avec h petit, la fonction non
linéaire g(u) = u3
peut être
approximée par:
(12) u3 (jh) + 3u2 (jh)[u((j+1)h) - u(jh)]
En fait, nbus avons utilisé une linéarisation au voisinage de t = jh.
, Dans le cas général, g(u) peLit être remplacé par :
g(uo) + (u-uo)g'(u o)'
,
,
Nous pouvons alors proposer l'algorithme suivant :(13)
n-1
.
un(ih)+
L hK(ih,(j+1)h')[U~_1(jh) + 3U~_1(jh)(Un((j+1)h )-Un_ (jh))] =f(ih)
1
j = 0
'
i = 0 , 1 ,.", n;
j = 0 ,... ,' n-1 ; n = 1,2, .......
Les uo(jh) j = 0, 1 ,,,., n-1
sont fixés (à f(jh) par exempl,e) ou
calculés.
Pour un n fixé le système algébrique (13) est linéaire
d'inconn ues
U
(jh) . La solution numérique de (13) donne une
o
solution approchée de (10). Quand n tend vers +00
, la convergence
du processus itératif peut être prouvé [14 ].
Remarque
" n'y a pas unicité du système de discrétisation ci:.dessus
décrite.

133
3°) Un algorithme numérique de décomposition de la
solution ou méthode de G.Adomian .
3a) Aperçu général de la méthode de G. adomian
IJIJùU[f@<illl!.J]©U~@1Ji)
dans 'le milieu des années 80, George
Adomian
[1]
a
développé une méthode originale qui peut résoudre plusieurs types
,
de problèmes linéaires et non linéaires tels que : les éq'uations
stochastiques,les
équations
différentielles,
différentielles
ou
aux
dérivées
partielles
bref,
les
équatio ns
1
fonctionnelles
en
général,
Cette
méthode
est
basée
:sur
la
décomposition de la fonction inconnue en une somme infinie de
fonctions définies par une relation de récurrence. La non linéarité
est aussi écrite comme une somme infinie de polynômes spéciaux
(polynômes d'Adomian).
Si la série converge vers une somme finie ou si le calcul
de la somme partielle est facile,
la méthode conduit sûrement à
une expression analytique exacte de la solution,
sinon, o~ peut
trouver
une
approximation
analytique
de
cette
solution.
La
convergence de la méthode a été étudiée par y', Cherruault ,et coll.
i
en tronquant la série [13] mais des problèmes subsistent pour
l'applic~tion à tous, 'les' types d'équations aux dérivées
partielles
Actuellement,
il
existe
de
nouveaux
résultats
prometeurs
[18 ] où
la convergence ne fait intervenir que des
dérivées de la non li néarité en un, point. Dans la pratique ,il n'est
i
1
pas toujours facile de vérifier les hypothèses de la convergehce de

1
la méthode.
"

134
i) Description
générale
de
la
méthode
, Considérons ,l'équation fonctionnelle (3.1) AU = f où A est
i ' ·
1
un opérateur .d'un hilb'ert. H dans H contenant· des termes linéaires
~ .
'
,
et des termes non linéaires, f est une fonction donnée. On :cherche
1
U EH solution de (3.1).
1
Le terme linéaire de l'opérateur A est décomposé en L+R ,
où L est inversible et R le reste de l'opérateur linéaire. On' note N,
le terme non linéaire de A, on a donc A = L+R+N,
L'équation (3.1) s'écrit alors
(3.2)
LU + RU + NU = f
L étant inversible , si L-1
est son inverse on a l'expr~ssion
équivalente :
(3.3)
U = L-1f- L-1RU - L-1NU
La méthode d'Adomian consiste à calculer la solution sous
la forme d'une série :
00
(3.4) U == L Un
n=O

135
Le terme non linéaire est égal à
00
(3.5)
NU == L An
n==O
où les An sont des polynômes en Uo ' u ' ... , un
appelés polynômes
1
d'Adomian, obtenus à partir des relations
00
00
00
(3.6) Z == L))Ui, N( L))Ui) = Ll-nAn
i=O
i=O
n=O

À est
un paramètre introduit par convenance. Les An de (3.5)
sont calculés par la formule :
dn
00
(3.7)
n!An = -n [
N( LÀiui) lÀ =0

i=O
n==O,1,2, ......
La fo'rmule (3.7) permet· de déterminer les An. Généralement il est
possible d'obtenir exacte,merit An comme fonction de ua ' u1 ' ... , un
à partir de la non linéarité N.
,
1
En remplaçant (3.4) et (3;5) dans (3.3) on trouve :
00
00
00
L Un = L-1 f - L-1 R ( L Un ) - L~1 CLAn)
n=O
n=O
n=O

136
00
Les terrmes de la sé iè
peuvent être identifiés: par les
. ,
formule's :
u
==L-1 f
O
U1 == -L~1Ruo - L-1A o
u
== ~L-1 RU
- L-1A
2
1
1
Un+1 == -L-1 RUn - L-1A n
Remarque 1
"Si Nu = g(u) où 9 est une fonction analytique, les An peuvent être
calculés par la formule :
Ao == g(uo)
A
= u g'(u )
1
1
o
n
An = LC(k,m)g(k)(Uo)
k==1
où les C(k,n) représentent la somme de tous les produits; (divisés
par n) d~s k termes uj dont la somme des indices i est égale à n, m
étant le nombre de répétitions des mêmes termes dans le produit.

137
Par exemple :
Si g(u) = Nu = u3 on a :
3
2
2
2
Ao = Uo ' A1 = 3uOu1 ' A2 = 3uOU1 + 3u1Uo
etc ...
Remarque 2
" D'une manière générale si g(u) = Nu = un où n est un entier non nul,
les polynômes d'Adomian sont donnés par une expression plus
simple:
~ ~ fi
A
Uij
.k;o,O!
k
L-ii=O
P (J i)
où les P(Jj), i = 0,1, ... , n-1 'désignent les permutations des n:ombres
n -1
Ji qui vérifient
LJj =k
i=O
La solution exècte de (3.2) est maintenant déterminée ,
00
mais en pratique , tous les termes ,de la série
L Un ne peuvent
n=O
n -1
être calculés, on utilise alors l'approximation <l>n = LUi avec
i=O
lim
<l>n = u .
n~ +00

138
ii) ~ésolution
d'équations
algébriques
par
la
méthode
d'Adomian
Exemple d'équation. de second degré
,
Soit à résoudre dans IR· l'équation
"x 2 - 5.15x + 2.37 = 0 "
On a ici Nx = x2
non linéaire
L est la multiplication par -5.15
L -1
est la division par -5.15
Les An doivent être évalués à partir de Nx = x2
On a : x = (2.37/5.15 ) + (1/5.15)LA n
00
et x = LXn
X
est le premier terme
o
n=O
On a : X
= 2.37/5.15 = 0.460
o
1
2
X1 = 5.15 Ao avec Ao = Xo
X1
= 0.00411
1
x
est donné par
2
X2 =
5.15 A1 avec Ai = 2xOx1
on a
x
=
2
0.00735
etc ...
A la deuxième itération on a une approximation d'une
solution donnée par :

139
x = Xo + x1 + x2 = 0.50845. Si ce résultat est
r1
une des racines
de l'équation
,la deuxième racine est donnée par :
2.37
r2 = 0.50845 = 4.6612
2
et on a ,: ·(xirl)'(x-r2) = x - 5.16965x + 2.37 =0
(donc à la deuxième itération seulement on obtient une "bonne"solution )
Exemple d'une équation de degré 3
Soit à résoudre dans lR l'équation
x3 -4x -1 = 0
On a
ici x:= -0.25 + 0.25 LAn
oil les An sont évalués à partir de x3 .
, ;En partant de X
~ -0.25 on obtient:
o
.
3
X1 == 0.25Ao = 0.25x
= 0.00039
O
X2 = 0.25A1 = 0.25( 3X~X1) = -0.00018
2
: ,
2)
x3 ==0.25A2 = 0.25 ( 3XOX2' + 3xox 1 = .....
,
L'approximation à trois termes seulement donne
x = Xo + x1 + X2 + X3
:= -0.254
Remarques
[5]
1°) D'une manière générale on peut résoudre l'équation
Pn(x) == 0 où Pn est un polynôme de degré n quelconque.

140
2°) Des équations algébriques autres que polynomiales sont aussi
résolues [ 5] .
3°) Les systèmes d'équations linéaires AX = B sont résolus [5]
1
4°) Les systèIT,les d'équations non linéaires sont aussi résolus. (Cf.
G. Adomian, G.E. Adomian " A. Global method for solution of complex
system ": Mathematical modelling Vol. 5, pp. 251-263, 1984).
iii) Résolution
d'éguations
différentielles
par
la méthode de G. Adomian
Si AU
=
f est une équation différentielle où A est un
opérateur différentiel non linéaire possédant des termes linéaires
et non linéaires (ou A linéaire) . Le terme linéaire est décomposé
en L+R, où par convenance L est l'opérateur différentiel d'ordre le
plus grand facilement inversible;
Soit l'équation différentielle d'ordre n E lN*
~ + Ru + Nu = f
dt n
avec
u(to) , u'(tO) , u"(tO) , ... , u(n-1)(tb) des valeurs données
Si on pose L -- ~
dt n
la formule (3.2) transforme l'équation
différentielle ci - dessus en
Lu+ Ru + Nu = f

1
avec
u(to) , u'(tO) 1 u"(tO) , ... , u(n-1 )(to) des valeurs données

141
L'équation (3.3) s'écrit :
n-1
L
00
u(t) =
(t-~~)k u(k)(ta) + L-1f(t) - L-1R (Iun(t))
k=O
n=O
d'où on tire :
n -1
Uo(l) ~ L(I_~~)k u(k)(lo) + L-11(1)
k=O
U = - L-1Ru
- L-1A
1
a
a
u
=-L-1Ru
-L-1A
2
1
1
où L-1
désigne n intégrations successives de t
à t.
o
Exemple1
Soit l'équation
u'(t) = u(t), + t2
u(O) = -2
on a: Lu = Ru + t2
avec ta = 0 , Nu = 0
L -1
représente une simple intégration de 0 à t. On tire
00
00
u =
l Un = u(O) + L-1 (t2) + L-1 ( l Un
n=O
n=O
Par identification on a :
t3
Ua = u(O)
+ L-1(t2) = -2 +3
t 4
U1 = L-1(ua) = -2t + 12
t n
tn + 3
Un = -2 nT + 2 (n+3)!

142
00
d'où
u =
L Un = -2 -2t - t2 qui est la solution exacte de
n=O
l'équation
différentielle
N.lt. : Les An so~t nuls car Nu = 0
Exemple 2:
Soit l'équation
u" + 4u = 0
u(o) = ao
u'(O) == a1
ao et a1 sont données.
En appliquant la méthode d'Adomian on a :
sru
Lu + Ru + Nu =0 avec Nu ==0 ,L = dt 2 ,to = 0 , Ru = 4u
L-1 représente deux intégrations successives simples de 0 à 1. On a
00
00
u = L Un = u(O) + tu'(O) + L-1 (
L Un
n=O
n=O
par identification on a :
Uo = u(O) + tu'(O) = aO + a1 t
,
2
U1= - L-1: R uo = -L-1( 4u 6) = ..2a t -3 a1t3
o
1
2
12
1
U2 = -L-1 RU1 ="3 aot4 + 15' a1 t5
1
1
2
un = ao[ 1-2t2 + ~ t4 + .:.. ] + a1 [ t - ~ t3 +1 5 t5 + ..... ]
1
n
a1
"
(-1 )k(2t)2k+1
+ 2 [ 2t + L..J
(2 k+ 1) !
]
1
,
k=1
1
1
1

1
1
143
Donc on a
1
00
00
00
.~ t:11n(2t)2 n
1
u = l Un = ao[L...J
(2 n) !
]
n=O
n=O
1
u = aOcos(2t) + .~ a1sin(2t)
Ce qui ;est la solution .exacte.
1
1
Exemple 3:
du
.
Soit l'équation
dt + u2 = -1
u(O) = 0
On peut encore écrire ce~te équation sous la forme Lu + Nu = f avec
t
L = 9il
2
1
d t ' Nu = u
,f(t) = -1 , L- = f(.) dt
o
Alors on a Lu = f - Nu = -1 - u2
L-1Lu
= L-1f - L-1Nu
00
ou encore
u = ua - L-1 ( L An )
n=O
Avec
ua = u(O) + L-1f = u(O) + L-1(-1) = -t
t 3
U1 = -L- 1A o =
-L- 1t 2 = 3
-2t 5
U2 = -L-1A1 = -L-1(2u ou ) =~
1
2
-1.7t7
u3 = -L- 1A3 = -L-1(u
+ 2u u ) =
1
O 2
315
00
t 3
2t5
-17t 7
u =L Un = - [t + 3
+15 + 3 15
+ .... ] = - tgt
n=O
donc u = -tgt ce qui donne la solution exacte .

144
Remarque :[5]
Les systèmes d'équations différentiel lès linéaires ou non
linéaires peuvent aussi être résolues par la méthode de G. Adomian.
iv); Résol·ution
d'équations
aux
dérivées
partielles
par
'la méthode de G. Adomian
1
On
peut
utiliser la
mé'thode
de
décomposition
de G.
i
,
Adomian pour résoudre '; les EOP. Pour cela on écrit l'équation sous la
forme Lu + Nu = f où u est la fonction inconnue, L est un opérateur
inversible, N est un opérateur non linéaire et f est une fonction
donnée. Dans: les EOP, u est une fonction' de n variables xi et
l'opérateur L peut être décomposé en une somme d'opérateurs
différentiels partiels par rapport aux Xi :
n
n
Lu =
LA = LL~iU
ax.J1
j
J
i=1
i= 1
avec

145
Le principe de la méthode consiste à chercher la solution u
i
de l'équation comme une somme infinie de fonctions Ui. L'opérateur
non linéaire est aussi une somme infinie de polynômes particuliers
!
!
(les polynômes d'Adomian).
1
Les fonctions Uj sont données par la relation
de récurrence
,
. '
~
génér,e
suivante ::
1
v i~O u· = L-1A. 1 - L-1 u . 1
1
1-
1-
ua
est donnée par ua = -L-1f. Généralement L n'est pas totalement
inversible. Pour les EOP, un ou plusieurs
~'I
sont successivement
i
inversés
, les autres
étant écrits dans
le
second
membre
de
l'équation.
Généralement,
trois
algorithmes peuvent être utilisés.
Soit,
par
exemple u = u(x,y) et l'équation linéaire Lx u + Ly u = f à résoudre
par la méthode de décomposition de G. Adomian, on peut utiliser les
algorithmes suivants :
1er cas: L'opérateur Lx
est inversé on obtien
alors
!
i
-1
V n~1 iUn = -~ Ly un_;1
cas: : L'opérateur Ly est inversé on obtient
-1
V n~1 ,un = -~ Lx un_1
3è cas: On utilise une, double inversion
1 (
-1
.
-1
)'
Vn~1 un =-2
~ Ly'+~ Lx Un-1

146
Chacun des algorithmes ci-dessus peut être programmé. Le choix du
"bon" algorithme dépend non seulement de l'équation, mais aussi
des conditions aux limites ou initiales.
Considérons
dans IR 2 le problème :
au
a2u
dX + dy2 = 2x + y2
avec les conditions:
u(o,y) = 0
u(x,o) = 0
dU
dY (x,o) = a
Selon les notations ci-dessus l'équation s'écrit encore
1
2
Lx u + LY u = 2x + y2
1 er algorithme: Il consiste à inverser l'op$rateur
et à
calculer la constante d'intégration qu'il crée. On a le schéma
-1
ua = ~ (2x + y2) + aa(Y)
-1 2
V n~O un+1 = -~ Ly un + an+ (y)
1
Le premier terme de la série est :
ua = x2 + xy2 + aa (y)

aa (y) est une fonction constante par
rapport à x déterminée par la première condition initiale. On a
ao(y)= 0 et finalement U
= x2
o
+ xy2 .. Ensuite on a :
u 1 = - Lx -1 (2x) = -x 2 + a1(y) on obtient à nouveau a (y) = 0
1

147
donc u1 = -x2
Le terme suivant est u
=
=
2
a2
0
et par la suite on a : T::/ n~2 un = 0
00
Le résultat fin~1 est u =
L Un = ua + u = xy2
1
n=O
qui est la solution exacte du problème ci-dessus
2 ième algorithme: Il consiste à inverser l'opérateur L 2 on a
y
alors le schéma suivant
2
U =
o
L - (2X+ y2 ) + ao(x)y + bo(x)
y
-1 2
T::/ n~O un+1 = -~ Ly un + an+1(x)y + bn+1 (x)
1
Les calculs sont plus longs ici à cause de la double intégration.
4
4
:
On a : Ua = xy2 + f:; + aa(x)y + ba(x) = xy2 + f:;
r ·
r
u1 == - 1 2 + a1 (x)y + b1 (x) = - 1 2
iU2 = a2(x)y + b2(X) =.0
1
T::/n > 2 U = 0
;'
n
Finalement la solution ,exacte est obtenue par
l
00
u =
L Un == ua + u = xy2
1
1
n=O
3ième
algorithme ':
Il consiste à
inverser :simultanément les
1
deux
opérateurs
de. dérivation
sans
calc~1 de constantes
!
d'intégration
1
1
- 1
-2
ua
- (L
+), )(2x + y2)
= 2
x
1
1
1
1

148
De simp,les calculs nou~ donnent
x2 :
~.
UQ = 2
;+ xy2 + 24
On obtient imniédiatement
2p
x2
y4
S2p = l Un = ~ + xy2 + 3 x2 P+3
n=O
2
2p+1
S2p+1 =
l Un = (1 - 2P+1 )xy2
n=O
Ainsi on a:
Iim
S2P
= lim
S 1
= xy?
P --Hoo
P ---t+ oo
21?+ 1
1
1
1
!
1
1
Ce qui donne le résultat attendu :
1
,
00
!
1
u = l un = lim
S
= xy2
n
1
---t +00
n
n=O
1
1
i
[
1
1
,
1
!
;
l
..,
1
1
Remargue : Pour un problème donné les trois-algorithmes donnent
1

la même solution exacte. Dans ce cas, il Jst intérèssant de choisir
"
!
1
,
'
l'algorithme qui nécessite moins de calculs, généralement, on doit
l
,
!
1
j
1
inverser l'opérateur de plus petit degré. S'il: y a deux opérateurs de
1
1
degré minimal, on ·choisit alors celui qui génère des constantes
1
1
1

1
1
149
1
d'intégration
faciles
à
identifier.
Malhe:ureuse~ent, pour une
équation avec des conditions données, tous les; algorithmes ne
,
i
1
conduisent pas nécessairement à la sol~tion analytique [1]. Le
problème
est
alors
d'établir
le
schéma; qui
converge
vers
la
1
solution .d~ l'éguation.
~ ) '©©ffi1ïl(J[ji)@lfilU
<gJ Q ~ @]@ !1@ Qb:i'!@}~®~.......d@Li!'0 ~@~QJ!i!b:U'!.==,llbit&~®~@~[JJ]~@]~OC@&· ~~@!b'i~~J1~~~r&~·Ii'..;;@~lfi)~U~®~~..i!o.~ ~
521 Q [§ fI» f?
Pour cette étude nous allons considérer des exemples
simples.
~ 1) Une éQuation hyperboliQue
i
"
Considérons l'équation hyperbolique
a2u
a2u
at2
= 9 ax 2
avec les conditions
U;(O,t) i= u(1,t) .= 0
!
u(x;o) = sin( 1tx)
dU ..
al (x,O) = 0
i
La soliJtion exacte de cette équation est u(x',t) = ,cos(31tt) sin( 1tx)
1
.
.
1
Nous allons prouver qu~ cette solution péut être obtenue par la
,
,
méthode de décomposition. On peut écrire l'équation sous la forme
2
2
'
1
L u =9L; u.
t
Pour le premier terme de la série, on peut prendre la
fonction Uo qui vérifie les conditions aux limites et
1
1
l'équation L; U
=
o
0 . On a L'algorithme suivant :
1
1
i
U = sin( 1tx)
o
1
-2 2
V n~O
u
1
n+1 = 94 Lx Un

150
Ainsi les calculs donnent
ua = sin( 7tx)
u
=
-~( 7tt)2sin( 7tx)
1
4
u2 = ~7( 7t t) sin ( 7t X)
. '.!U

u3 = -80( 7tt) sm( 7tx)
n
n
2n 9
.
u
=
n
(-1) (7tt)
(2n)! sm( 7tx)
00
~
n (37tt)2:n
On a u =
L Un = sin( 7tx) Li (-1)
(2n)!
n=O
n=O
00
n (37tt)2n
or
~ (-1)
(2n)!
est le développement en série entière de
n=O
!
la fonction cos (37tt) .
Donc on a
u = cos(37tt) sin(7tx). On retrouve ainsi la solutiol1 de
l'équation hyperbolique.
~2) Une équation elliptique
Considérons l'équation elliptique
d2U
d2U
dx2 + dy2 = 0
avec les conditions
Ü(X,o) = u(x,1) == a
1
. :u(o,y) = 0
u(1,y) = sin( 7tY):

1
1
i
i
151
i
1
1
:
1
On peut vérifier que la fonction
u(x,y)
-
-h· sh(1tx)sh(1tY)
S,1t
1
l
,
est solution de l'équation. On peut résoiudre cdtte équation en
1
i

1
prenant l'inverse de l'opérateur différentiel ~ar rap~ort à x.
.En écrivant l'équation ci-dessus' sous la forme
. 2
2
1 :
~ u + LY u = 0 .
on obtient l'algorithm'e
d'où on tire
ua= sin( 1tY) x
X 5
x3
7x
4 ,.
)
(
u2 = 120 - 36 + 360)1t Sln( 1tY
x7
x 5
7x 3
31x
6.

u3 = (5040 -720+2160 -15120)1t sln( 1tY)11i
x9
x 7
7x 5
31x 3
;127x
:8 .
'
u4 = (362880 - 30240 + 43200 - 90720 + 6p4800)1f Sln( 1tY) .
i
1
1
i

i
1

l
'
152
Dans ce cas on ne peut pas trouver une expression simple de u
. En
,
n
additionnant les premiers termes on obtient une: approximation de
la solution, comme l'expression général de un ne peut pas être
trouvée
il
est
alors
difficile
de
montrer
la· convergence
de
;
1
l'algorithme
. Des recherches se mènent actuellement sur une
théorie générale de la convergence de la méthode bans le cadre des
EDP [3] .
P3) Une équation parabolique
soit à résoudre dans le domaine de IR 2défini
par x ~O, a ~ y ~ 1 l'équation parabolique:
dU
d2U
1
2
dX
== dy2
(ou encore Lx u == LY u )
avec les conditions
u(o,y) == a
u(x,o) == 1 - e- x
u(x,1) = sinx
La
méthode
de
décomposition
peut
être
utilisée
en
prenant
2
l'opérateur inverse de L
, sans calculer la constante d'intégration,
y
,
1
!
nous devons prendre la valeur initiale de ua de un qui vérifie les
1
conditions données et on a alors l'algorithme suivant
1
ua ==(1~y)(1
\\j n~O , u +
1
n 1
1
1
1

153
De simples calculs nous donnent
u 0 = .; .e: x(1,. ,y) + ysinx + 1 - Y
_xy 2
~
~
u 1 =. e (2 - 6 ) - 6 cosx
-x~ ~
~.
U 2 = - e
(24 - 1 20 ) - 1 20 SInX
-x~
y7
y7
u 3 = e (720 - 5040 ) - 5040 cosx
-x (~
y4n+1
y4n+1
- L . . - _ _
sin x
-e
(4 n)! - (4 n+1)! )
(4n+1)!
-x (.J'4n+2
_y4n+3)
.J'4n+3
U 2n+1 = -e
(4n+2)! - (4n+3)!
- (4n+3)! cosx
,
On
ne peut pas trouver une expression analytique de la somme de
ces séries mais on peut affirmer qu'il existe deu:x
fonctions f et g
de la variable y telle. que cette somme puisse s'écrire
u(x,y)
= e-X(siny -cosy) +sin(x)f(y)
+ cos(x)g(y) .
où f et g vérifient g" =: -g et g" =' f.

3b)
Résolution
d'équations
intégràles par la méthode
d'Adomian
cette partie est le texte d'un article accepté dans la revue Applied
Mathématics and optimization

- 154 -
A NEW COMPUTATIONAL METHOD
FOR SOLVING INTEGRAL EQUA1ION
by Blaise
SOME'
Institut
de mathématiques
et de physique ( I.M.P)
UNIVERSI1E DE OUAGADOUGOU
BURKINA "FASO
ABSTRACT
We propose a new computational method [ 1 ] fOf solving integral
equations like
b,
i
u(x)= J~(x,t)g(U(t»dt ~,f(x),
a '
This method has been applied to solve many functional equations (algebraic ,
differential , partial differential etc ...) linear or non linear.
RESUME
Nous proposons une nouvelle méthode numérique
1]
pour la résolution
d'équations intégrales de type:
1
b
u(x)=
fk(x,t)g(u(t»dt + f(x).
1
a
1
1
Cette méthode a été appliquée à la résolution d'équations fonctionnelles
(algébriques , différentielles , aux dérivées partielles etc .. ) linéaires
ou non
1
l
'
.
linéaires .
1
1
1

i
. :
- 155 -
. 1
1
1°)
INTRODUCTION
1
In many publications [ 1 ] [ 3]
G. Adomian develops a new computational
method
using specials kinds of polynomials, for sol~ing functionai equations
1
This method is very easy to use and can solve wide classes of non linear or
1
linear equations : algebraic , differential , integro differential , partial
1
1
differentialequa~ions ... Il avoids cumbersome numerical methods . H can be
supported· ?ya'pocket calculator . In this' method the solution is given by a
serie whose each term is easily obtained owing to Adomian's polynomials
1
adapted to the non linearity [1 ] [3]
. Concrete applications are given by
Adomian . This method is specially recommanded for numerical résolution of
1
non linear mathematical equations .
In these applications the number of variables is not an inconvenient because 1
the serie does not depend of this number . However Adomian and coll did
not develop
the method for solving integral equations like :
1
1
b
1
u(x)=
Jk(x,t)g(u(t»dt
+ f(x) .
a
In this work we propose a possibility of using this method for solving linear
1
or non linear integral equations .
1
i
The Adomian's
method
for
functional
equations
i
1
Consider for example the general functional equation (2.1)
AU' = F t where
,
'
1
A is a linear or non linear operator from hilbert
H into H ; F is a glven
function in H and we are looking for U E H satisfying[ (2. 1) .
1
We assume that ( 2.1) has a unique solution for U E: H . We'll
see later sorne
1
hypothesis [ 1 ] [ 10 ] ensuring this condition' .
j
The operator A is decomposed as following : i A = L +N , where L is a linear
1
,
1
operator and
N is a non linear operator , then ( 2.1) becornes
(2.2 ) LU + NU = F . After if L-1 is the inverse of tlie linear operator
L, then
1
the solution of
(2.1) or (2.2) verifies the relation
( 2.3) U = L- 1 F - L-1NU .
1
1
,
;
1
1
1

156 -
The initial Adomian's method [ 1 ] consists to represent Vasa sene
00
(2.4) V =
L,un the non linear operator is decomposed as following
n=O
00
(2.5) : N(V) = L An , where the An are polynom;~als of
Va ,VI, ... , Vn
n=O
,
(Adomians. polynomials ) that we obtain by writing
+ 0 0
Z= LAI Vi, N( LAi Vi) =
Dn An
where A is a parameter
introduced
1
n=O
for "convenience", and we have :
,
d n
(2.6)
nl lA =
[! N ('LAI Vi)] À;=O n=O, 1,2, ".
. . .
n
dA"
It allows, to de termine An by formula (2.6) '. Generally it is possible to obtain
exactly An as function of ( Va , UI , .:. , Un ) from' th~ nonlinearity N.
,
3°)
Resolution
of integral
equations
.
\\
b
Let's consider the integrals of the form : (3.1) u(x) = fk(x,t)g(u(t» dt
+ f(x)
, a
1
where f, g and k are given functions . We are lookin~. for a function u
satisfying (3.1) . When g is linear or nonlinear
.
The fundamental problem is to find numerical methods based on the
Adomian's technic
to solve the problem (3.1) .

1.
- 157 -
1
a) Estimation of Adomiim's polynomials
1
b
!
,
Let's consider
Au = u(x)-
Ik(x,t)g(u(t) )dt
the equation (3:1) become :
1
a
1
1
solution u of (3.4) verifies : (3.5) u = LUn
where; the Un are ca1culed
n=O
the Adomian's polynomials :
Ua = f(x) , UI =Ao, U 1 =Al , .... , Un =An-l
where
the Ai , i = 0 , ..... , n-l are
the
Adomiart's polynomials coefficients
b
calculated from the non linearity.Nu ; here we have Nu = Ik(x, t) g( u( t) )dt
a
b
00
00
1
(3.6)
N (
DIUi) =
i~O
fk(x.t)g(
À,iUi(t) ) dt
l Â.n An .where Â. i s
i=O
n=O
a
a parameter introduced for "convenience"
From (3.6) we obtain :

-158 -
b
00
n! An =
[ N( DI Ui) ]
fk(X.:)g(~~iUi(t)dt)]
À=O = ::n [
i=o then
i=O
a
b
we have
: (3.7)
An = - \\ (fk(X,t)
n.
a
b) Examples of application
1
1
1
We'll 't~~ simple example's, o,f linear and non linearproblems and solve them
by using: the formulas (3.7).
Problem
1:
find a real funetion
u ~define on Rand satisfying the integral
1
2x
equation:
u(x) = 3
·+ Jxt u(t)dt
x
E
R
o
We have here f(x) = 2 x , k(x,t) = xt and g(u)=u which is linear .\\
3
The theoritical solution of this problem is u(x) = x . !
i
When applying Adomian's method we have from (3.7) and taking
2x
UO(x) = f(x) = 3
the following
algorithm
1
1
1
2x
'2x
Ao = Jxt uO(t)dt =
then we take UI (x) = Ao = (3 )2
o
9
1
1
2 x
2x
Al = fxt Ul(t) dt = 27 then we take U2(X) = Al = (3)3
o

-î59 -
1
2x
1
By recurrence we can prove that
Un (x) = (3 )n+ 1
and then according
Adomian's technic the numerical solution of the problem is :
1
~
00
2x
2x ~ 1
~ 1
u= L Un = L
3 n+ 1 = T ~3n
but ~ 3 n
IS a
convergent
1
n=O
n=O
n=O
n=O
3
geometricalserie which sum is S=2
finally the solution u is
1
00
_ 2x ~ _1__ 2x J- = x .we find again the theoritical solution.
1
u - 3 ~ 3 n - 3 . 2
n=O
1
Poblem
2:
Find a real function u define on R an
satisfying the
non
linear
1
1
3 x
1
integral
equation:
u(x) =
j(x-t)u 3 (t)dt
+ - +-
o
4
5
1
3x
1
1
We have here f(x) = 4
+ 5"
,k(x,t) = x-t
and g(u) = u3
which is non linear .
The theoritical solution of this problem is u(x) = x .
1
When applying Adomian's method we have from (3.7)
1
00
1
An =~! f (x-t) [d~nn
(
L ~)Ui(t)) À=O) ] dt
i=O
1
o
taking uo
= f(x) = 0.75x + 0.20 we obtain after two iterations
1
A 0 = u l ,= 0.23 x-0.19
.
AI = U2 := 0.00354712x: -, 0'.004464994
1
1
The approximate solution is : u = uo + u1 + u2 = 0.98x + 0.003
1
Problem
3:
1
Find a real function 'u' define on R by .
1
1
u(x) = Jl
fxt(u(t))2 dt + x
where Jl is a real parameter in 1 0, Il
o
1
1


-
160 -
The theoritical solution of this problem is -not known , but we'll verify if the
numerical solution given by Adomian's method sati~fies the equation with a
"little " error .
After four iterations Adomian's method give the following results :
uo(x) = x .
.
1
.
.
Ut(x) = ~o = JI fxt(uo(d)2dt= JI~.
,
0
'
1
'
J
x
U2(X) = At = 2J.l xt uo(t) Ut (t)dt = JI2 "8.
o
1
5JI3 x
U3(X) = A2 = JI fxq 4UO(OU2(t) + 2u t 2(t)]dt = "32
o
1
u4Cx) = A3 = JI fxt[ 12u3(t)UO(t) + 12ut (t)u2(t)]clt =
o
etc
Then the approximate solution u is
JI
JI2 +5JI3
9JI4
u(.~) = uo(x) + Ut (x) + U2(X) + U3(X) + U4 (x) = (1 +'4 +8
32
+ 16 ) x
Ve rifiçation
1
1
The problem :find a real function u define by : u(x) ~ JI fxt(u(t»2dt + x is
o
equivalent to the functional
equation: Au = B
1
where
Au = u(x) - JI fxt(u(t»2dt
and B= x . After, using the approximate
o
solution u we have :
x
1
1
1 .

- 1G1 -

1
I st case: if .11 ~ 0
have
A(u)~ x
and B ~ x then the eqution A(u) = B IS
verified .
1
1
1
2 nd case: if.11 = 2
whe have
A(u) = 1.04x and· B(x) = x then the equation
A(u) = B is verified whith an error of 4 10-2 .
1
d
. .
1
3 r
case:'jf.11' = 10 we have A(u) = 1.00098x and B(x) = x then the
1
equation A(u) = B is verified with and error of 9.7 10-4 .
1
1
etc
1
REFERENCES
1
[1]
G. Adomian , G.E. Adomian . " A global method for solution of
complex systems ."
Math. Modelling , Vol . 5 , P . 251-263 , 1984 .
1
[2] G . Adomian , R . Rach.
"Polynomial non linearities in differential
1
equations" J; of Math.anal . and Ap. , Vol. 109 , n0 1 , 1985 . '. .
1
[3] G . f\\domian • " Convergent series solution bf nonlinear equations "
Journal of Comp. ,and Ap. Math. ,Vol .11 , P . 225-230 , 1984 .
1
[4. G. Adomian : Non linear-Stochastic, systèmes théory and applications to
physi~s, Kluwer (1989): :
1
[5] G. Adomian : "A Review of the decompositiori method and sorne recent 1
results for non-lïnear equations" Math. comput. Modelling 13 (7), 17-43
(1990).
1
!
[6]
G. Adomian . " On' the convergence region' fot decompositin solutions
" 1
Journal of comput. and Ap . Math. , vol. 11 , P . 379- 380 , 1984
1
1
1

16:~ -
[71 A . Caron : Méthode de résolution numenque d'équations intégrales non
lllteaires à noyaux
réguliers. par un· schéma itératif sous contrainte de
régularité! .
C.R A.S .. 13 , P .649 , 1981 .
[8] A . Caron : Méthodes numériques pour la résolution d'équations
intégrales linéaires et
n'on lineaires.. contribution à la définition et à
l'approximation des parties' finies.
these de -3ême 'cycle, paris
(june 1981) .
[9] Y. Cherruault: Convergence of Adomian's method.
Kybernetes 18(2) ,31-38 (1989)
[lof "'y .Cherruault and A .guillez : Quelques-méthodes numériques pour
la lèsolution d'équations intégrales non linéaires .
Note to C.R.A.S (1980).
[11] Y . Cherruault
and A. Guillez : Méthodes numériques pour la
résolution d'équations intégrales non linéaires.
Calcolo , Vol. XVII fas . IV , PP.385- 407 (1981
[12] Y . Cherruault : Mathematical modelling 10 biomedecine., Optimal
\\
control of biomedical systems.
Reidel ,Dordrecht , Holland (1986)
[13] S. . Kumar and LH. Sloan : " A new collocation-type method for
P::mw.erstein integral equations . "
Math ", Comp . 48 (1987) 585-593 .
.... IT.-.·~ :
Ù41"R. K . Miller : Non linear Volterra integral equations
B<?J1jamin (1971) .
[15]
R. Piessens and M . Branders ; ( 3 ) Numerical solution of integral
equation of mathematical physics , using chebyschev plynom!als "
J . Comput. PHys . 21 (1976) 178 -196 .

1
.. 163 -
[16] I.H. Sloan and B . Burn , " Collocation with polynomials for integral 1
equations of the second kind : anew approch to the theory "
1
J .:" integral equations 1 (1979) 77-94 .
1
1
1
1
1
1
1
1
" .~ .. ,',:.: .'
1
1
1
1
1
......:.~:.,;
1
1
1
1
1

3c) Convergence de la methode d'Adomian appliquée aux
équations
intégrales
cette partie est le texte d'un article publié dans Mathematical and
Computer Modelling
1
1
1
1
1

Ma/hl. Comput. Moddling Vol. 16, No. 2, pp. 85-93,1992
0895-7177/92 $5.00 + 0.00
Prinled in Greal 8ritain. Ail righls reserved
Copyri~hl© 1992 Pergamon Press pic
- 164 -
NEW RESULTS FOR CONVERGENCE OF ADOMIAN'S
METHOD APPLIED TO INTEGRAL EQUATIONS
Y. CHERRUAULT, G. SACCOMANDI, AND B. SOME
Medimal -
Université Paris 6
15 Rue de L'Ecole de Médecine
75270 Paris Cedex 06, France
(Received July 1991)
Abstraet-This paper deals wilh a new proof of convergence of Adomian 's method. Series subslilion
properlies are used. We give numericlÙ applications to nonlinear integra! equations.
1. INTRODUCTION
In many papers [1-3] G. Adomian has presented a decomposition technique for sol~ing nonlinear
equations of various kind (aIgebraiC, differential, partiaI-differential, .; .. ). The solution is found
as an infinit~ series which converges rapidly to accurate solutions. The method is well-suited to
physical problems since it makes'unnecessary thc linearization, perturbation and other restrictive
methods a~d assumptions which may change the problem being solved,'sometimc3 seriously.: In [<1]
a proof of c~nvergenceis given by usirig f1xed point theorems. But the hypothesis of snch thcorems
are often difficult to verifty on concrete problems (partial differential equations for instance) and
then it became interesting to stigg~st other proofS of convergence whose hypotheses arc easier to
satisfy. Let us finit recall the basic prinCiples of the Adomian's technique [1,4].
Consider the general functional equation
y - N (y) == J,
(1.1 )
where N is a nonlinear operator from a HilLert H into H, J is the givch function in Il and we are
looking for y E H sntisfying (1.1). Wc assume that (1.1) has a unique solution for cvery JE H.
Thc AdomiRn's technique [4] consists of representing y as a series
'00
y == L:Yi
( 1.2)
i=O
and the nonlinear operator N is decomposed as follows:
1
00
N(y) == LAn,
(1.3)
n=O
where the A~s are polynomials of Yo, ... , Yn (Adomian's polynomials) that are obtained by writ-
ing:
00
00
z == L:,\\i yi , N (L,\\iyj ) == L,\\iA j ,
(lA)
i=o
i=O
whcre ,\\ is a parameter introduccd for "convenience." From (1.4) we ded'lced the A~s by tIJe
formulae
Typesel by A.M'S·-1FX

- 165 -
Y. CHERRUAULT tl al.
Making an abstraction of convergence problems, we bring back (1.2) and (1.3) into Equation (1.1).
This leads to:
'
00
00
LYi - LAi = f.
,
(1.6)
i=O
i=O
i
.
,
1
If the series in (1.6) are convergent, we can ensure the relatjons~ip (1.6) by setting
!
'Yo =f
YI = A o
(1.1)
Yn = A n - l
The results is that Yo, ... , Yn, ... may he calculated in a recurrent manner. Indeed we have
YI = Ao and Ao depends only on Yo which is a1ready known (:= J). Then Y2 = Al with Al a
known function depending only on Yo and YI which as been preJiously calculated. Therefore, we
can determine every term of the series L:~o Yi.
!
.
Note that the A~s are generally exactly determined from rel,ationships (1.6). The Adomian
technique gives the exact solution of Equation (1.1). But with concrete problems the sum of the
series L~o Yi cannot he generally calculated and the exact solution will he approximated hy a
truncated series L~=o Yi.
.
In a recent paper [4], Y. Cherruault has given a proof of cl)nv~rgence of Adomian 's" techhique.
He introduced a new formulation of the method by setting
i
Sn = YI + ... + Yn
(1.8)
and proving that Sn is solution of the fixed point equation
N (Yo + S) =S.
(1.9)
In the following we shaH detail a new convergence proof using the properties of the entire series
subslituted in another series.
2. NEW CONVERGENCE PROOF IN A SIMPLIFIED CÀSE
Let us come hack to our nonlinear funetional equation
u-N(u)=f.
(2.1)
We shaH look for a solution of (2.1) in the family
00
11,\\ == 2: un>'".
(2.2)
n=O
We suppose that the convergence .radius P of (2.2) is grellter than il : p> 1. Thus, (2.2) converges
for 1,\\11; P with p> 1 . !
. j
i
Let ~s now suppose that: N(u) can be expanded in an en tire sb ries
,
.
,.
' 1
1


00
!
N(~)=Lniui,
(2.3)
i=O
witIJ radius Pl > 1. This implies that the series (2.3) converges (or lui < Pl with Pl > 1.
It would be generally poSsible to suppose Pl == +00 because irt practica1 applications the non-
Hnear operator N(u) is a polynomial or a nonlinear function admltting lm entire series converging
for any u with lui < +00. Tllen we use a classical result given in [5]. Let
,
i
z = f(y) =ao + alY + ... + anyn +1",
(2.4)
.
!

- 166 -
Convergence of Adouùan'Il method
1
1
\\
be a series converging for Iyl < +00 and another series
:
Y=4>(X)=bo +b,X+ ... +bn xn + ... ,1
(2.5)
n
which converges for Ixl :s r, (r> 1). If we put (2.5) into (2.4) we obtrn a new series E~o cnx ,
wh ose convergence radius is strictly greater than one. Futhermore. w~ have:
CO = 00 + olbo + 02b~ +
+ onbo + ... ,
(2.6)
Cl = lJlb.l +2a2blbO +
+ nanb~-lbl + ... ,
{ C2 =alb2+a2 (b~ + 2bob2) + ... 1
: .
~
.
!
l '
proving 'tha{ the Ci 's de pend only 'on bo1 bl , ... ,hi. If we transpose these results to our problem
we have:
'
'
00
;
00
00
i
n
U = LUnÀ",
N(u) = Lniui =Lni (LunÀ )
n=O
'
i=O
i=O
1.
and we obtain
00
i
(2.7)
N(u) = ~ AjÀ ,
1
\\
;
i=O
a series converging for I~I $ Pl ~ > 1. The Ai's are given by relatiopships obtained from (2.6)
and involving that An depends only on Uo, Ul, ... , Un'
1

It remains to put (2.2) and (2.3) into (2.1) and to make À = 1. re obtain, because of the
convergence of the two series:
'
00
00
I: Ui - I: Ai = f.
(2.8)
i=O
i=O
The last relationship may be satisfied by writing Adomian's equations.
Uo = f
Ul = AD
(2.0)
!
Un = An_l
1
1
1
.
1
, 1 ·
Unlike the developments given in the introduction, the relationships (2.9) are now proved by using
a result on the substitution of series. Furthermore, we justified -tha~ the An 's depend only on
Uo l' •• ,Un' To sum up the hypothesis which are necessary for provingi convergence of Adomian's
technique by this method we must satisfy the fol1owing conditions:
!.
• The nonlinear functional equation has a series solution
i
00
00
~ Ui sueh that ~ (1 + c)" Iunl < 00,
(2.10)
i=O
n=O
1
where ! > 0 may be very smaU. This last inequality involves that E ~nun has a conver-
gence radius greater than one.
. '
• The nonlinear operator N(u) can be developed in series accor~ing to u:

00
N(u) = L Q'u'.
1
i=D
i
The c?nvergence radius was supposed infinite but in the following, result will be given
1
for provmg convergence when the convergence radius is greater or equal to one. These
two ~y~otheses ~e rather weak and generally satisfied in physic',al problems. They are less
restflctlve than ln the paper by Cherruault [4], using fixed:point theorems.
1
1

Y. CHERRUAULT et Ill.
1
,
1
- 167 -
3. CONVERGENCE IN MORE GENERAL ISITUATIONS
:!
Wc start agnin from the equation
u + N(u) == f(x).
(3.1)
If u(x) can be developed as an infinite series, i.e., we can write:
00
li =L Un'
n=O
1
This expression can be parameterized by the introduction of À in~o:
i
i
(3.2)
The series (3.2) is obviously convergent for IÀI ~ 1 and, for sucll ~alues of À, the series:
:
m(1+G)+···+Gr +..):,
(3.3)
where m is the upper limit of the series element and 0 < P < 1 is a majorant 6~ries for (3.2).
On the other hand, if N(u) is an analytical function with respect to u in the interva~'(-R, +R),
we have:
1
00
N(u) =
n
LanU .
i
(3.4)
n=O
1
Then substituting (3.2) into (3.4), we obtain the following array:1
1
1
ao + al Uo + a2u6 + ... + an u~ + ... + al ul À
.
,
+ 2a2uOuIÀ + ... + n anu~-luI>' + '" + alu2>.2
(3.5)
+ a2 (u~ + 2UOU2) + ... + ... .
'
\\
The i-row of this array converges to the Ai defined as in (2.4), when we set 'À = 1, bccause
N( u) can be developed in a Taylor series. Our problem is now to prove tile convergence of the
double series in the array (3.5) for>' = L It is necessary tÇl have À ::.= 1 inside the radius of
convergence; otlierwise we àre not able tor,ecover the solution of (3.1). ln our situation, the
classical 'theorems of elemerttary èa!culus ori double series cannot ensure that 1 will be inside
the radi~s of convergence of (3,.5). The following theorem states la sufficient condition to cnsure
the convergence of ndd (3.5) convergent foi' >. = 1. ObviollAly l~e must require some stronger
hypothesis thnn in usual coriditions, but usually the equations co,ning from physics satisfy these
hypothescs.
i,
1
THEOREM 3.1. IfN(u) is ~n 811a/ytica/ function ofu in (-R,-t-R) , u(x) can be decomposed
as an infinite series u = L Un, the parameterization U,\\ = L un~n is absoJutf/y convergent (or
>. E (-1, 1] and the series u tan be majored by:
' i
'
l
'
1
.
"
(3.6)
(1:'é) (1+(1 ~ é) (;) + .. ,+ (1:Er (;)n + ...) , ':
!
1
where m' ~ m (m upper Jjmi~ (or tlle Un), E ,> miR and p ~ 1 then the double series converges
{or>' = 1.

Convergence of Adomian's method
168
P/lOOF.
N(u) is analytical in (-R,+R) then wc can write:
( (u(x))
(u (x)) ")'
N(u);5M
1+ ~ + ... + m
"
(3.7)
1
where IIN(u)W' $ M, (II Wis the norm in the dual of H), and R' ~ [m,R]. We now employ
the hypothcsis (3.6) to write [5]:
(3.8)
then substituting (3.B)'into (3.7)', '~e obtain the anay:
i
• .
.
~
i
'
1
~ ~ M Cl ::')R,)'t .'..'+ M Cl +~;" R')" +.,.
(3.9)
"
(
M',
')'
+M
'
À):
-
' ( 'M'
+,,·+nM
)n ~À)
( 1
1-
+ ... + ...
(1. + f) R' , " p
, ( 1 + f)" R'
p
1
,i
l
'
Ali the coefficients of this array are positive and greater than the respective coeffièients of (3.3).
Evcry column of this anay converges and more precisely the (n + 1) column conv~rges to:
;
1
1
"
M'
Jn
1
(3.10)
[
: M
R' [1 + f - (À / p)]
Obviously for having the convergence of (3.7) 1we must satisfy:
1
1
M'
R'[l+f-(À/p)] < l,
that is to say:
(3.11)
In our situation, we can choose p :::: l, then (3.7) converges for À = 1 if:
f> ; .
1
th~
When N(u) is anulytical over the cntire realline (i.e., in (-00,)00)) then
Iast relation
becomcs E: > O. If this theorem hoids we arc sure that the anay (3.3) is convergent for À = 1,
,
1
then wc can write;
l
,
1
i
n
N (u>.(x)) = Ao + Al>' + A2>.2 + ... + AnÀ +1'" ,
where:
A o = ao + al ua + a2 u6 +
+ an u~ + ... = N (uor.
Al = al ul + 2a2 U)tlO +
+ n anu~-IUl + ... :::: u'IN' (ua).
Note tlrat eaclr An depends only on Ui with i ;5 n.
The role played here by f is fundamental; if we let in (3.9) f =10 then , even in the most
favourabl, situalion, w, shall n,ot be abl, to prov, th, converg,nce oil (3,1) for ~ ~ L
!

- 169 -
Y. CHERRUAULT et al.
i
1
4. APPLICATIONS OF ADOMIAN'S TECHNIQUE
TO INTEGRAL EQUATIONS
1
1
We shaH consider four examples. The first one is linear and th~ others are nonlinear.
Ex AMPLE 1. (Linear problem)
We have to find a real function u(x) defined on R arid 8a~isfyi~g the linear integral equation:
!
,1
2
t
1
u(x) == ; + Jo :t t u(t)dt ..
The solution of this problem is u(x) = x.
When applying Adomian's method, we obtain the series:
1
2
udx) == (3)2 x;

2
u 2 (x)!= (3)3 x.
!
In a recurrent manner we prove that:
VnE N.,
1
Then the solution of the problern is:
,
1
00
00
2x
2x 00', l
u(x) = L un(x) = L 3"+1 = "3 LI 3n'
n=O
n=O
:
,.=0
But L~=o 31n is a convergent geometrical series whose Bum is:
3
s == 2'
Finally the solu tion u is given by:
u(x) = 2x ~ -.!..- = 2x X ~ = x.
3 L- 3"
3
2
1
;
n=O

We fi'Id :agaill the theoritical solution u(x) = x.
EXAMP~E 2. (Nonlillear problem)
Let us consider the nonlinear integral eqtlation
!
1
1
1
, 1
3
3x
1
u(x) == 10 (x- t) u (t) d,l + - + .l...
o
, 4
The theorical solution is u(x) ==,X.
When.applying Adomian'smethod wc have:
uo(x) = 0, 75x + 0,20
1
:
Ul (x) =
Ao = f (f ,- t) u~(t) dt =0, 23t,' - 0, 19
Jo
;
1
l'
"
Al = 31 (x - t) U1(t) u~(Ü dt
(0.00354712)x
- 0.004464994
and so on ....

-
170 -
,Convergence of Adomian '6 method
The app;o~.imatcd solution involvil~g three terms is:
1
u(x) ~ uo(x) + Ul(X) + U2(X) = O.98x + O.OO~,
wh ich LS verynear to the exact sol ution.
EXAMPLE 3. (Nonlinear biblogical problern)
Find a real function u defined on R by:
.
1
1
11
u(x) + O.25x
]((x,t)'g('u(t)) dt = 1
with [«(x,t) = - .-, g(u) = -:-.
x+ t
u
The theoretical solution is not known but wc shaH compare our reaults with those of Jaggi-
Caron [6J.
The sol ution givcn by Adornian's method is:
:
u(x)~ O.25x (log (x + 1) -log x).
,
The following table gives a comparison between our results, those obtained by A. Caron in [6],
and those of Chandrasekhar [6J.
, ' ,
1

!
x
A. CARON
A.CARON
CHANDRASEKHAR
ADOMIAN
NUMERICAL
NUMERICAL
BEEN
METHOD WITH
SOLUTION
SOLUTION
TI-IREE
2n + 1 = 27
2n + 1 = 51
,INTERATIONS
0.1 ..
1.084011
1.083535
1.07241
1.059947
0.2
1.135319
1.129598
1.11349
1.089588
0.3
1.171541
1.163468
1.14391
1.109975
004
1.199692
1.190233
1.16800
1.125276
0.5
1.222945
1.212029
1.18776
1.137327
0.6
1.242576
1.230444
1.20436
1.147124
0.7
1.25922
1.246124
1.21858
i
1.155278
0.8
1.273916
1.259747
1.23091
1.162186
"
0.9
1.286551
1.271713
1.24171
1.168123
1.0
1.297909
1.282296
1.25128
1.173287
1
EXAMPLE 4. (Nonlinear l'rob lem)
Find a real function u satisfying the integral equation:
1
2
u(x) = >.1 xt lu(t)1 dt + x,
w!Jere >. is a real parameter, >. E [0,1].
"1

The exact solution of this praolem is not known but we shaH verify that the solution given by
Adominn 's method satisfies the equation. Also, the error will be specified. After four iterations
Adomian's methocl gives the following results:
, an cl 60 on ... .'
~H l6:?-G
,
:

Y. CHERRUAULT et al.
-
171 -
Theil wc have an approximation with 5 terms:
An error of methocl may be defined as follows, our problem bein~ equivalent to:
rl
2
i
u(x) - ,\\ Jo xt lu(t)1 dt =~, :
,
'V'
J
B(x)
1
A(r)
!
which is to say:.
A(x) = B(x),
.
1
2
with A(x) = U(:l:) -,\\ Jo xt lu(t)1 dt and B(x) = x.
,
After using the approximated function and an integration, we obtain:
FmST CASE.
,\\ = 0
When ,\\ --+ 0 we bave A(x) = x = B(x) and the equation is verified.
SECOND .CASE.
,\\ = ~
A( x) = l.040x
B(x) = x.
,
, :
'
,
!
Theequation A(x) = B(x) isverified with an error of 4 x 10- 2 . :
TlIlIlD CASE.
,\\ = 1/10
A(x) = l,00097x
B(x) = x
The equation A(x) = B(x) is'satisfied with an error of 9.7 x 10- 4 "" 10-3 •
In aH these cases Adomian:s technique gives very good results. Of course it is not difficult ta
verify the two hypotheses given ,in Scction 2 and ensuring convergence.
.
!
1
5. CONCLUSIONS
'l'Ile numerical essays have shawn a very fast convergenc,e of f\\,.domian's tt:chnique. No proof
of this [aet has been proposed. Il could be due to the definiti<hn of the An is involving ft. term
in lin! but the problcm remains open. Adomian's methodis eiky ta use because of the simple
recurrent relationships giving the scries terms in functions of IA n , the Adomian polynoll1ials.
These polynomials are generally easy to find from the definit.ion i: equation.
Most of the nonlincarities N (u) are polynomials are defined by nonlinear c1assical functions
(un, eU ,log 11,1/11))) ... ).
A software can be proposed for calculating the An 's corresponding
to !mcb linearitcis [1].
Of course, dimculties increMc when considèring functional equations
dcpcndillg on several variables. But numerical trials exist [2] and it is always possible ta eouplc
Adomian's technique with the Alienor method [7,8] aIlowing us ta transform n variables into
a single one (reducing transformation). Difficulties also arise ~hen trying to apply.Adornian's
technique to partial dirrerential equatiolls with boundary conditions.
In sueh cases, it is very
important to consider a matllell1atical model we1J-defined from the physiè~ point of vie\\\\'. A
gcneral theory for applyillg AcJomian 's method to any 'a partial cliffereutial equation is necessary.
IL could be a challengc for young applied mat!lematicians. The difficulty comes, from the necessary
transformation of partial cJifrerential equation into an integral equation. Thi~ can be donc with
1

172
Convergence of Adomian 's IIlelhod
93
integrations bllt they have to take into account, the Loundary alld i~litial conditions [2]. But
Adomian's technique il> especially, weil adapted to Harnmerstein integr~l equations because of the
form of the nonlinear functional equation chosen by Adomian. Convergence hypotheses are easy
to verify and We oLtain quickJy (~ith il rninimun Of numei'ical calculut'ions) an approximation of
the solution' (truncated series).
.
i
The solution is given by a functlon' and not only at sorne grid points as in collocation meth-
ods [9]. This nlet)lOd is very powe~ful and more 'efficient and faster Uian Caron's technique [10]
or collocation methods [9]. The ,only difficulties, when applied ta nbnlinear integrnl equations
cou Id arise fr.om the éalculations of Adom.ian 's polynomials An. But i'n most practical cases the
nonlinearities giv~ tisé to simple An which can be easily" determined. i
REFERENCE
1
1. G. AdomÎilll, Nonlinear Stochastic SysteJ1\\s Theory and Applications tf; Ph~sics, Klm,'er, (1080).
2.
G. AdoIlU1UI, AIl alliJyt iC/l1 solution of the stochastîc Navier-Stokes 6y~tems, Founda tions of Ph ysics (10
appear).
3. G. Adom.iulI, A review of the decolllposition rnethod and sorne recent results for nonlinear equations, "latll.
COIll]JUt. Modelling 13 (7),17-43 (1900).
4. Y. Cherrunult, COllvergence of AdolllÎlUl'S Illethod, Kybernetes 18 (2),31-38 (1989).
5. E. Goursat, Cours d'Analyse Mathématique, Tome J., Gauthier-Villars, Paris, (1902).
6. S. Jaggi alld A. Caron, The solution of ail integral equation with its application to the human joint, Jnt. J.
Biolllcd. COJ1\\]Jut. 14 (3), 2,10-262 (1983).
7. Y. Chernlhult, New dcterrnin-Ïstic lIlr.thods for global optimization and applications to biomcdidne, Jnt . .1.
Biol1\\ed. Comput. 27 (3/4), 215-220 (1991).
8.
Y. ChelTuault, Mathematical modelling ill biomed.icine, Optimal Control of Biomedical Systems, Reidel
Kluwer, (}{J8G).
9. S, I<wnar, The nWllerical solution of Hammerstein equations by a method based on polynomial collocatioll,
J. Austral. Soc, Ser. B 31, 319-329 (lD90).
'
10. A. Caron, Méthode de résolution nllillérique d'équations intégrales non linéilies à noyaux réguliers par un
schéma itératif sous contrainte de régularité, C.R.A.S., Paris 1.292(30:3.1981), Serie l, 649-:652.
l,

3d) Etude comparative d'algorithmes numériques (G~lerkin ,
collocation, projection ...) avec la m6thode d'Adomian .

r'
W&lhl. CmnpuL ModeWng Vol. '8, No. 9, pp. 55-62, 1993
0895-7177/03 16.00 + 0.00
Pr!nted ln Great Brltaln. Ali rlghla rœerved
Ccpyrlght@ 1993 Pergamon Press Ltd
,... ,
: :!
.. 1 ~ "
..."
" ,:.'
"Sorne' Recent Numerical Meth6ds ,~':. :., ",'.'
l
.
1
for Solving Nonlinear
~ l''~: ~ : ... , .
! Hammerstein Integral Equations' , ' ;'
.", .,- il,
B. S O M E " :, ,.,;
Faculté d,~ Sciences et Techniques (FA. S. T.)
'1
~ '.'
{j,
Dép8ftcment de Mllthéml\\tiqucs et Inform~t1que
03 B.P. 7021 OuagBdougou 03, Université de OuagBdougou, Burkina Faso
j
...
::1 "
. '
l '
;
i,.}·'I.:
(Receiued April 1993j nccepted Mali 1993)
. 'Abstract-A IIUrvey III glven of sorne recent numerical methodll for flxed pol nUl of nonllnee.r natn-: 1
met1lt.eln In~~al oper&tors. Thœe methodll Include projection methodll (Galerkin Md collocation)
Md Adomlan'II decomp06ltlon method. Proof of convere:imce of Adomllm'II method applled to Ham-
merst.eln nonllnee.r Integr~1 equ~L1on 18 glven. A dillCu/IIIlon III glven of sorne recent works on Iter~t1on
"
methods for oolvlng Lhœe nonllnear equatiollll.
1. INTRODUCTION
In the followlng s~rvey, wc consldcr numcrical methocls of a gcilcral'n'~ture'. th~ thilt can he
applled to ft wlde variety of nonlincllf integral equationS. The Integral equatlons are rœtrlcted to
be of the second kind,
.
x = H(x),
whcre H la a nonlinear integral opcrntor. An important special case, thc Hammcrsteln IntegrlJ
f-quntlon la consldered here M' the following:
R
x(t) = y(t) + IR K(t, s) I(s, x(s)) ds,
,with R> O.
(1.2)
!
A -wc1J-knawn l'.xample lB the ChlUlllra.sekhar H-equntlon
H(t) = ~ l' t H(t) H(s) dSi:
(1.3)
2
0
t+s
,__' i
",.
.
i
" ; ,
.
It can he rewrltten ln the form (1.2) by letting x(t) = 1/H(t) and rcarranging the equation. For
M exncl solution and sorne recent workB on (1.3) and related eq,uationB, Bee [11. Another r!ch
BOurce of HlUllmersteln Integral equations lB the refonnulatlon oC:boundary vnJue problcrns ror
bath ordlnary' and partial differential e q u a , t i o n s . ,
, The numerlcN solution of nonllnear equationa has two major aspects. Flrat, the .equatlon :r =
H(x) la dlscretlzcd, gcnerally by rcplnclng it wlth a acq~cn(;e oC tinltc-dlmcnalonaJ 8pproxlml\\tlng
problcffiB (projection methdda):xn = Hn(x n ), wlth Tl ...... +00, and n la BOrnc diBcrctizatlon
1
1
1
1
,pa:àmeter. Second (Adomlan'a method), the solution x of the equation x = H(x) la replaced by
1
~
,~

8 series x = 2: Xn, and H(x) =2: An. 'whcre thc An are polynomialB of xo; ... ,Xn (Adomian'a
:
"-0
, ' n - O
polynomlals). Projection methoda are dlscussed ln S~t1on'2, Adomlan'B method ln SectIon 3,
Md a dlscUBBlon folJOWB ln Section 4 . '
;

174
J.
~:. .
B. SOI'jE
:",1
. !
2. PROJECTION METHOnS
General Description
We give only the most important fcatures of the analysis of projection methods and thcn discUS8
sorne applications. General theoreticaJ frllJlleworks for projecQoq metqocia have been given by a
number of reseo..rchcrs,· among these are Atkinson [2,3] and Potra [3],' Golberg [4], Kumo..r [5], and
Saramen [6].
. , :
Let E be a Banach space. UBually CO([-R, R]) or L 2 ([-R. R])j and.l.c~ f:'l'" ~ 1. be a 6(;quencc
of finite-dime~ional~uoo'pacesbcing used ta approximatc (solution cf (1.1)). Let Pn : E ~
En be a bounded projection, n ~ 1 and, for si rnplicity, let En have dimension n. It is usually
ossumed that
, Pnx -+ X,
ll.6 n -+ +00,
x E E,
(2.1)
for all x in somo denoo subspo.co of E contllining the range of H. In abstra.ct form,' the projection
method amowits ta solve
! ,
XII = Pn H(x n ).
(2.2)
For motivation' ~bout COWlecting ulis with amore concrete integral equation, liCe the dÏllCussion
in [7, pp. 54~71J for a linear integral equation. Assume P n can he written
I l '
Pn~"'; LJj(x)4>j,
X EE,
(2.3)
j=1
with (4)j)l:!>j~n ll. bll.';;130fE,;. l\\Jld'(Ij)l:!>jSn a set of bounded lineo..r functionals t!~'l.t o..re inde-
pendent over En' 'l'he latter is truc if
' .
. ' t .
.
.
.; .. i
.;:,
, . :(2.4~
•• '
l.
....
'1'0 rtxluce l2.2) to ll. fi nite nonlinear system, let
'"
n
~
l '
,
X n = LJ Clj 4>j
j-l
he solved for {aj}, j'T l, .. " n from the nonlinear system
i = l, ... jn.
(2.6)
1
The choice of {4>l, ... ,4>n} and {ll, ... ,ln} determine the partièular method. A very genern1
framew~~~ fort~e error analyais of projection methocls W88 given,'.in [3].
.1:
" .;i
TUEOREt.k.Lct H : n c E -+ E he compJetely continuous, witb E, Banach abd n :.>pen. Assume
tbllt tbe Beq,uepce of bQundtX"1 IJl',~jectjOlJ8 {fn} on E 6ljJis1ies
"
; , ;'.
"
,.. '
sup 11(1 - Pn) H(x) Il -.0,
as n -+ +00,
(2.7)
zE8
'
"",
..
..

"
'
"

1 ;
t
• .~ 1"
for a1J bounded sets Ben. Tben, for 8.llJ' bOWlded open set B, 'witb fJ c n, tliei-e is .an N
8Uch tbat 1 ~ H ilnd 1- PnH bave the same rotation on the bounda.r;y of B, for n ~ N. In th~
partlCuJllr' calXJ that x· lB an lsoJated iixed point of nonzcro 4Jdei of H, thero lB 1). nèighbarbOôd
Be = {x 1 IIx..- x-II ~~}, wlth Pn H having fixed points ln Be that are convergHDt ta x·.':(Tbe'
ind~ of x·,lB d~r4 l)B ~e rot{ltion of1 - H OYel" tbe ~urfACe Se of al\\)' !J, ,!f~Ç.b 'èQ.qflllM 0ll1.y .
tbe one
Jixed point x·. In case [1 - H'(x)]- 1 exista on E ÏDto E, tbf3. Jlld~ 91.;~ 4 ±~.) ,.' I:Jib"
For the proof of the above theorem, see [31. Generally. the projections are aaaumcd' to he
polntw18e convergent on E, as ln (2.1) and ln that C8B6 (2.7) follow8 ln stralghtfàrward way.
However, only equMlon (2.7) la actu&.1Jy needed.
"
f1

175
(
Nonllnel\\/" Hl11T1rnerllteln Integral Equl'Illona
li1
Iternted ProjectIon Methoda
.. i
Glven the projection method solution x n • define
(2.8)
then ~slng (2.2) we have
. .
,
(2.9)
and in BatiBfies
(2.10)
. I.!
wlth H differentlable ln a neightborhood of x·,
n ~ N,
C > O.
(2.11)
ThUR, in -> P.t least 8.3 rapidly ll.3 X n -. x·.
For .many methods, eBpecial1y Galerkin methods, the convergence i,n -> C/lJ1 be sJ"own ta
be more rapid than thnt of X n -> X·. For the nonlinear iteratcd projection method, Bee [3].
Gnlerkln's Method
Let E l>~ CO([-R, R]) with the uniform norm Il . 1100 or L,2([-R, RJ)~ IlJ1d let En be a finite-
, dimensionoJ flubspace of E. Define Pn x to be the orthogonal projection of x onta En', bast'd on
using the inner pr0duct of L2([-R, RJ) and regarding En as 8 Bubspace of L2([~R, RD; thus , "
(Pn x, y) = (X, 11),
nll1l E En,
: . :'
.. (:.1.12)
with (-,.) the (nner product in L 2 ([-R, RD. Other Hilbert spaces (e.g., Hr(["':R, RI) ll.n~ "111er
'produetB arc also used ln sorne applications.
'
Let Xn = 'L,J-l Oj <Pj, with (<Pj)l::;j::;n, a basls of En. Soive tor {<pj}, uslng'
r,
, (2.13)
. .....~".
I , . ' l
,GcneraIly, the IntegraIs' mll'lt be evaJuated ilUmerically, thuB Introductlng new errora. When
tWs la done, It la caJlcd the di"cn~te Galerkin method.
'
....
In gcneraJ, for any projc~tion method,
IIx· '- in Il :5 c.. IIU - Pn) x·lI,
with
c" = c max{II(I - Pn ) x·II, /IH'(x·) (I - Pn )II}.
(2.14)
If E lB a HiI~rt spnee, then C
)1I
n convergeS to zero, because IIH'(x·) (1 -
Pn
-> 0, as n + 00.
ThIs uses the cnet that H'(x·) and H'(x·)" are compact linear operators. Thua, .in com-erges
ta more rapldly than X n dOeR. In any HUbert space, xn --+ more rapidly thllJ1 X n ->
doea. Siml1nr results can be shown Cor Galerkln's method ln CO([-R, R]) wlth the unlform norm,
1500 [8J.
For numerlcal exam'ples of application of the GaJerkln's method to nonllnear Integral
,
1
equatlona, Bee [2J.
.'i
' .
,
, r
" ,

1;76
68
n. SOM':
Collocation Method
Let E = e()(j-R, RD, let tl, .... tn E [-R, R] be such that
detl4Jj(tt}] = O.
(2.15)
Dellne Pn X ta be the element in E that interpolntcs x at the noèles t
ll
l , •.. ,tn • To ~Ild X n element
of En, solve the nonlinear system
;i = 1, ... ,n;
(2.16)
the illtegrals mllst tiB~o.liy be evnluated numeriCnlly, introducing a ~ew error. this is cnllcd the
discrete collocation method. In using the genernlerror rcsult [2), IIx· - Pn x·lloo is Bimplv DJ1
interpolation error. For the iterated collocation lIlethod,
.: "
IIx· - xnll S Cn IIx· - xnll.
with
(2.17)
Cn = C 1Ilu.x{lIx·' -' xnll. 11(1 - Pnf LII. en}
and
IIL(I - Pn ) x 1100
en =
11(1 - Pn)xll
.
(2·W
. . 1 .
To 'show superconvegence of in ta 1 one 'must show
;,.. ;
lim en = O.
(2.1 Il)
ra-oo
Studics of tlll.li alld various types of colloctltioll methods applied to the Uryoohn Integral (HIU&-
tion are givell in [3].
CllSQ of Hammorllt()in Eq'lation
.--"~"
Considor using the projection method to solve
xU) ~~ y(t) + (R lqt,s)!(:,x(s»ds,
J-R
with R> o.
(2.20)
For nonlille<U" integral, equlltious, the Gn.lerkin and collocation methocls can be quite expensiva
la implcment. But, for this equatioo; there isan n.Iternative formulation which cu.n leu.d tq ~i~,
expensivo projection method. Wc consider' the problem when using a collocation method. Let'
xn(t)'= I:j-l Qj 4Jj(t) and solve for {aj}, using
, .;:<
t Qj 4Jj(ti) =y(ti) + fR K(t,s)1 (~,t Qj4Jj(tt» ds, for i =l,.i..,n. (2.21)';
je>!
-R
jo.al
, "
ln the iterative 6OIution of this system, many intcgrnls will need ta be computed, which Wll!IÙJ/
becomcs quite expenBive. ln particulcu:, the integraJ on the right side will need to be re-evnlua!~'
with each new iterate. Kumnr [5J and Kumar 1l11d Sioan- [9] recommend the following varian;,'
npproach. Deline
.
. ':';:
,(t) = f (t: .(tH 1>(t,S) f(s,x(.» dS) :
(2.~).:
and ob tain x(t) from x(t) = y(t) + J~Rl((t,s)z(s)dsi the collocation method for (2.22) iB~!
1
'l'
t.
t.
,(t) =
/l, ., (t) = f (ti ' .(t;) +
/l, 1: K(ti, sHi(S) dS)' .',(;:~!!
1
Tpe integr~ on the right hand aide nccd to be evnluated only once, aince they are dependellL:
o}lly on the bMis, Dot on the unknownll {aj}. Many fewer integrals need to be cnlculated ta !lQl~'~
1
this system. For thu resulta on Hammerstein's integml equations. see (6).
.
.'. ;1,',;':
.
,}
(
1
1
1

1Tâ
NonlinclU" !lnrnmerotcin Inlegrnl Equations
159
3. ADüMIAN'S METHüD
Gem~rnl Description
,'; Consider, for exnmple, the genernl fll~ctionnl equation
.fi x == !I.,
(3.1)
wherc A is an opcrntor from nn Hilbert spnce V into V, y is a given function ln V, and wc
are Iqoking for' x E V satisfying (3.3). We assume· that (3.1) has ~ unique 6OIution for x E V.
If thcoperator A has Iinear and nonlinenr tcrms, the Iinear terni is decornposed into L + R,
wherc L la casily invertible nnd R is the remaindcr of the Iinear opcrator. Then, the operator A
ï8 dceo'mposed aB flJlloWing: A == L -1- R + N, whcrc N represents the nonlinear term. With thefie
\\
.'.
.
.
considerations, the equntion (3.1) becomes
i ' l ...
Lx + R x + N x == y.
(3.2)
\\
.
1
Further, if L- I ia the inverse of the lincnr operntor L, then the solution x of (3.1) or (3.2) verifies

t

• 1
i
x == L-1!J - L- 1 Rx - L- 1 Nx.
1-
, ',01'
(3.:1)
The inltinl Adorninn's method [LO,ll] consists of rcprcscnting J: Ils ~ r;erics,
00
x==Lxn .
(3.4)
n=O
The nonlincnr operntor is dccomposcd as
00
=A
Nx ==
n
(3.5)

n=O
wherè the An' ml; polynominls of 1:0, .•. 1 X n (Adominn plynominls), thr.t wc obtl\\ln by writing
% == I:~O..\\iXi, N(z) == I:r=o..\\n'A n , with ..\\.being n pl\\rnrnctcrintroduced for convenience, and
havlng
n == 0,1,2,· ....
(3.6)
It allows to determine the An 's by formula (3.6). Gcnernlly it is possible to obtaln eXl\\ctly An as
Cunctions of Xo, XI, ••• , X n from the nonlincnrity N. With thcsé'decompositions. formula (3.3)
can be wri tten
;
-
1
00
Taking Xo == L-I y, wc can idel'tify the other terms of the nbovc s'cries L X n . by the followlng
a . I g o r l t h m ·
n~O
.
XI == -L-J:Rxo - L- I A o,'
'~ .
X2 == -L- 1 RXI -
L- 1 AI,
-
L-1R
L-1A'
;(n == -
n-I.
Xn-I -
/Dl 1819-[
"
.
,1
, .
"
" ; . "
.
-, .. " ..... '1 ' r - r
1
..
1 .
j ; .
,i l,
,4,
-----,._-_.~.~-.-_._._
.... __ ..

178
.LI .'
60
B.SOME
Adominn'B Mothocl Appliod to Hammcrstcin Integrnl Equation
We cOI1Bider a Hammerstein integral equation of the form·
1:
, ' : ,
1. .
: .,'
x(t) == y(t) +
K(t, s) J(s, x(s)) ds,
. with R > O.
(3.7) ;
...
.....
From (3.7), we obtlÜn directly Adomian's fundamental functional equation by writihg
1 •
.::, ..
.
,
n
1
Ax'::::y,
'where Ax(t) == x(t) - ln K(t, s) I(s, x(s» ds.
(3.Br
·1
' ~
, '. .
i
': "
"
Here, the operator A can be decomposed as: A == L + N; where Lx::::: X is the linear term (th~~~ :,
is no remainder !inear tenn) and N x::::: - J!:n K(t, s) I(s, x(s» ds is the nonlinear term, with i:
nonlinear. Then (3.B) can be writtcn
.
' ','\\
.
. i
Lx + N x == y
or
x + N x == y.
(
"
3.9:
00
. "
According ta Adomian's technique the solution x of (3.9) .. erifies x::::: L x n , whcrc the terms XII':
are calculated by the following a1gorithm:
" " , 0 :
Xo == y,
Xl ::::: Ao•
X2 -= Al,
We obtain the Adomian's polynomials An from the nonlinear terrn by writillg
(3.101'::
,(' l'/'i
, .~
",1
where >. is a parametcr introduced for convenience.
From (3.10) we obtain
.' ~.;
Then we have
",
': ,~~
An == ~~ 1: K (t,S) d~n [f (8If~iXi(8)) dB]"
(3.11)":-
~
.-0
A-O
:
,.
"
:
;.
REMARK. Formula (3.11) allowB us tà calculate X n and then the solution x of the Hammerateill.
.
,
.
integral equatiOIl. Numerlcally (3.11) iB Ilot expenllive to impleinent [121.
' ! ' "
.';'~.'!
i
,:i
Convergence of Adomian's Method Applied to Hammerstein Int~!graJ EquatioOB
,
Let us come back to our nonlinear integral ~quation (3.9) x+N x == Il. Accorclillg 100 AdornllW,.i
l
, '
teclmique, equation (3.9) cao be replaccd b y '
. .<.;
t",'
00
00
LXn + LAn == y,
n-O
n-O
,
1
. : ~
(

1
1.7t9
(
Nonlinenr Hllmmelllteln Integral Equations 1
61
~~.
.
~1::but the convergence problem remains ln suspense. We ~o.ve ~answer to th~fol1owlngquestion:
f:'What hypotheslB will ensure the convergence of the senes Ln_O Xn and Ln-o An? In a recent
~/7~per [13/, Y. Cherrunult has given nn nnswer ta the nbove question of convergence. In a general
l~'CMef he hM given n proof of the convergence of Adornian'B rncthod by using the fixed point
~~theorcm. He introduced 0. new formulation of the method by settlng Sn = Xl +X:I" ••• +Xn and
!(prOvtng tho.t Sn Is II. solution of the fixcd point equo.t.ion
~(
.
.
,
,
/t,"
~;v.'
N(xo +S) ~ S.
1>
l'In the followJng, we will give n new convergence thcorem using the properties of the entirc
:;,flcrlcs substltuted ln nnothcrseries, n~d recent results of converg~nc~ obtained by Y. Cherruault,
/G. Sa.ccomnndi and B. Some [12].
' i
"
We conBider a Hammerstein nonlinenr Integra! equation of the form
1
i
1
X(t) =y(t)+ [n K(t,s)f(.~,:l:(s))ds,
Ln
witll R > Oi
(3.13)
"r
'
R
call1ng Nz = - LnK(t,s)f(s,z(s))ds, equation (3.13) becomes
I
+ Nz = y.
(3.14)
1
i
0 0 "
.If x 'can be developed M ;an Infinite scrieB,'we can write x = L;'xn • This exprœsion caio IJe
pil.ra:met,~:ized by Introdu~ing >.
n..O
00
x), = ~ X n >'n'
(3.15)

: 1 ~
,
n=O
,
i
The series (3.15) isnbsolutely con~ergent forlÀI :: .1, l'.nd for s'-'~.• ~lues of>' the series
!i1
1
(3.16)
l"
.';
;
.!
1"
.
'where m iB the upper Iimit ,of~he Beries' elements and 0 < p < l, iB a rnajorlUll series for (3.15).
Ou the other hdJlJ, if f iB an o.no.lyticnl function with respect ta X i~ the interva! [-R, R] we have
00
,.
Nx = L:anx n •
, (3.17)
n=O
'l'ben, subtituting (3.15) into (3.17) wc obtnin the following o.rrny' .....
1 Go + al Xo + a. I~ + ,.. + an X~ + ... + al Xl>' + 2a. IO Xl>' + .. '. + n an X~-l XIÀ
,
+ '" +al X:l >.:l + a:l (xf+ ~XO X:I) + ..... (3.18)
The ηrow of thla array converges to the A, defined 88 in (3.11) (for delai/s, sec [12]); when we
set À = 1 because N X can be developed in a Taylor series. ourl problem is now ta prove the
convergence of the double serie in the o.rrny (3.18) for À = 1. It ls necessary to have >. = 1
lnslde the radluB of convergence: o.therwise, we are not able ta recover the solution (3.14). In our
81tuo.tlon, the clo.ssicol thcorcms of elcmentary calcuJus on double series cannot ensure tho.t 1 wlll
be lnside the radiuB of convergence of (3.18). The following thcorem sta.tes 0. sufficient condition ta
ensure the convergence o{ (3.18)/or >. = 1. Obviously, we must requlre sorne stronger hypothesls
Ulan WlUaJ but genera..Jly the equations coming {rom physics Batisfy Buch hypotheses.
,
...
,.
..
~
,.
............ __
-
__
_._. ,,_
- __
............
._-.~~,~.~~~
"
1

180
., .
1
. ' . ,
::1EOUEM.
;,:~~
u.nni2~i
I[ f 15 M Ma/Y'ioa/ ["n,ôon oi:
R, R), x cMhe decompooed .;. M
series x = ~;::"=o X n, the PM.aIIleterizlltion;x>. == ~ Xn -'n is llbsoJuteJ; convergent for -' E [~(ii'i~
and the senes x CIIll be maJored by
11-0
·r·
'.'.', i
~ (1 +_1 (~) +...+ 1, (~' + .) . (' . {J:i'~~'~
fi
1+t:
1+t:
P
(I+E)1I
r ) ' "
,
:,L:.I,.r}J
· ; " l
where m' 2: m (m tlle upp~ limit of the x n ), ê > miR, and p ~.1 ,. then the double series (3.J..8)':~:'
converges for -' == 1.,
. ,
.',
:l
,
~;
. <,.1"
This theorem cao be demonstruted in a sirnilar way us the proof of our theorem given in the;}
,,j
recellt work [12, pp. 88-891
. '
' .
. .
. '.. '. !i;',~l
~ ;; ; .
:::î .:!)
4. DISCUSSION
:/.,')
ln prnctice, Adomian's method is a numerical eleglUlt method that caB solve wide cl~';;l
of nonlinear eqUo.tiollS (algebruic differentiw, intergro-differentio.l, partial difh'cntial equutioD8I!.~

1
' .
~
etc.) lt avoids the cumbcrsome integrutions of the projection methods Md can 60lve phY6ical,~
plOblcms which U1l1llot be donc by olher numericw lllcthods (itçrutive collocation methods, e~c.) ~t
AdomilU1't1 method is cbpcciwly well-adapteù ta Hummcn;tein integral equlltiolls becuu6e of thô ~l
Corrn of the nonlinear fUllctional equo.tion chosen by AJl.llllian.
.~::
Convergence hypothc~s are eusy to verify and wc obtuin rupidly un approximation of tho :;t
6Olutioll. The solution is given by 0. function, alld Ilot only at 60rne grid' poi!lts 5,S. is in tho ;::
collocation method [5].
This method iE; powerful, more efficienl, und fnstel' thun ji,Djcction;J
methods (Gwerkin's method, co!locution method, ctc.) [21.
:. '~~,
The only ùifficulties, could arise from the calculations of AùomilU',"6 polYllorniu.1s An when::
o.pplied ta nonlillear illtegru.1 equations. Dut, in motit pruticw cases, the nOlllinearities give riliOl
LO simple An's, which cun be easily ùetcrmilled."
J
"',
:d q
,
:,
REFERENCES
~I~
:.\\i
.,"\\
1. C.T. Kelley, 'A ClISt to\\io-grid mcthod Cor mutriJt J/-cquMiollS, 7hll~. Thw'll Stat. Phl/3Îc3 18, 185-20(\\!
(1989).
il
2.
K.E. At ki 1\\8011 , A sur vey oC numerical methodô Cor wlving nOlllinear integral cquations, J. of 1nttil1
Equation.. 4 (1), lfr-.46 (1992).
.
'.
' :
: ; , ~
3. K. Atkil\\8On and F. j'ulra, Projoction and iterat.ed methods Cor nonlincar integral e<juatiOIlS, SlAM. J.·Nlloi..!~
.
" ' }
Anal. 24,1352-1373 (1989).
...;
.
\\
4. M. Coillerg, Edilor, Perturbod projoction metllous Cor VUriOWI c1w;:;ca of operatolll,und Integral oquatlona la, 'i
numerlcal solution or integral equl\\liOllS, Plenum PrClill, New York, (1090).
.
....~~
6. S. Kumar, A discrete collocation type methou Cor Ilammcrstcin cqublio/LII. SIAM J.. Num. Anal. 26, 328-;UV~
(1088).
. .. ,
6. J. SlIJ'anen, Projection methods Cor a c1ll&1 oC Ilarnlllcfliteill equatiollll, SIAM J. lIum. Anal. (to nppelU')~."'\\1
7. K. Atkll\\8On, A survey or numerical mcthow for Fredholm llltegral equalion8 or the 8OCond klnd, SlAM I,'~
Num. AnaJ. 24, 248-262 (1976).
,..
-',,'
._-
J " , l
8. K. Atkil\\8On IUld G. Chandler, DIE methods Cor oolvillg Lnplace's cqullotion with nonlinear boundW)' CQ~d
tiollB: The smooth boundary C68C, Math. Camp. 66, 451--472 ( 1 0 9 0 ) . "
'J
O. S. Kumar r.nd 1. SIOllon, A new col1ocBtwn type method Cor Hnmmonüein integral cquntiollB, Math. Comr.~·~
48, 5BS-503 (1087).
,
. . .
.. '
'.
'~~
10. C( . Ad)omm,n., Convergent series 80Jutwn of nonlineBr equatiol1Jl, J. of ,Comp. and AfP..~ath3, 1.1. 2?5-:';~.;
1084 .'
.
.~~:.
Il. C. Adornian, A review oC the decompœition method and /SOrne roc.ent rllllu/18 Cor nonlillooc .equations, MlliAJr'
Comput. Model/mg13 (1), 17--43 (1990)..
. '
.
,',; '..
'
''l''II~~
12. Y. Cherruault, C. SBCcomandl and B. Sorne, News rt:l.lul18 Cor convergence oC Adomian's Jl)I!~hod, appllllll.~~
inlcgral equationa, Mathl. Comput. Madel/mg lB (2), 85-93 (1992).
"I.~.
13. Y. ChelTuau.lt, Converg<lnce oC AdomiM'~ method, KlIbemete~ 18 (2),31-38 (1080).
. .
:.:/;,;iJ,
, .:
,
"
,1.
·.:;JI
,'"
'.
'
l,· ; .
. .;,:n~~1
,r
:.'
·'~:~I
. \\'çj

1 81
CONCLUSION GENERALE
Il
existe
"beaucoup"
d'algorithmes
numériques
pour
la
résolution
d'équations
intégrales
et
celle
qes
problèmes
de
contrôle ,'optimal. Mais,
ces méthodes
souven't difficiles à mettre
f
en œuvre et de plus e~les ont l'inc'onvenient de discrétiser l'espace
et le temps contrairement à la méthode d'Adomian
Nous
avons
proposé
dans
ce
travail
des
démarches
"originales"
qui
ont
abouti
à
la
mise
au
point
d'algorithmes
numériques
simples
à
convergence
"rapide"
(justifiée
empiriquement) et qui peuvent être implémentés sur des micro-
ordinateurs . Dans le cas du contrôle optimal linéaire, nous avons
proposé une technique de dérivations successives de distributions
pour
la
résolution
de
l'équation
de
contrôle
optimal.
Cette
technique est facilement généralisable à la ré,solution d'un grand
\\
nombre d'équations intégrales. Une approximàtion de la fonction
contrôle u(t) par des fonctions
"spline" a été ytilisée et conduit à
une seconde méthode.
Dans le cas du contrôle optimal non Jinéaire nous avons
.
mis au
point deux algorithmes
numériques,
l'un
à partir d'une
méthode de pénalisation
et
l'autre à
partir d'une
méthode de
programmation
dynamique.
Nous
avons
montré
dans
les
applications
en
pharmacologie
que
ces
deux
algorithmes
convergent
vers
la
même
solution
du
même
problème
posé
initialement.

182
Dans la deuxième partie de ce travail, nous avons proposé
plusieurs
méthodes
numériques
et exactes
dont l'une
est très
récente et utilise une décomposition de l'opérateur non linéaire
Cette
dernière
technique
permet
la
résplution
d'équations
fonctionnelles de tous types et en particulier résoud les équations
intégralès. Il n'existe pratiquement pas beaucoup d'études de la
convergence
de
la
méthode
dans
la
littérature.
Les
premiers
résultats "fiables" de la preuve de la convergence de la méthode
sont dûs au Professeur Y. Cherruault et ses collaborateurs [18].
La
convergence a maintenant été assez bien étudiée par Y. Cherruault ,
K . Abbaoui et L. Gabet [20] .Dans les applications on constate que
cette méthode converge rapidement et récemment des estimations
d'erreur de troncature ont étén données [20] .
Enfin
tous ces
algorithmes
numériques
ont permis de
résoudre des problèmes concrets
provenant de la modélisation
mathématique en biologie,et plus spécialement en pharmocinétique
\\
. Cependant toutes ces métodes peuvent être
appliquées à beàucoup
de
problèmes
issus
du
réel,
autres
que
qeux
rencontrés
en
biomathématique .
Sur le plan :informatique: ces méthodes numériques sont
simples à programmer: sur ordinateurs et peuvent donner lieu à des
logiciels informatiques;

183
BIBLIOGRAPHIE GENERALE
!
'
1
l
1
[1] G .; ADOM!AN
: " Convergent
series
solution
of
nonlinear equations "
Journal of comp . and Ap . Math . , Vol 11 ,
1
P.225 -: 230 , 1984 .
, [2] G . ADOMIAN
"Nonlinear stochastic systems theory
and applications to physics"
Kluwer (1989) .
J
[3] G . ADOIVIIAN
"
A
review
of
the
decomposition
method and some recent results for nonlinear equations"
,Math.
Comput . Modelling: 13(7) , 17-43 (1990) .
[4] G . ADOIVIIAN : " On
the
convergence
region
for
decornposition sdutions "
Journal of comput . and Ap . Math . ,
J
Vol .11 P . 379 - 380
1984
J
[5] G . ADOMIAN
G
E Adomian
"A global method
for solution of complex systems "
Math. Modelling 1 Vol. 5 P . 251 - 263 1 1984
[6] G . ADOMIAN
R. Rach :"
Polynomial
nonlinearities
in differential equations "J
of Math . anal . and Ap . Vol 109 n° 1 ,
1985 .
[7] P . M . Anselone : " Nonlinear integral equations " J
1
Madison Wiscons.in Press (1964) .
l
,
, [8] C . T . H . Baker and C . Phillips : " The.numerical
solution' of non,. linear problems "
Clarendon Press (1981') ..
1
[9] S . 'BaJnett : "
Int~oduction to mathematical control
theory "
Clarendon Press (1975) .
1
[10]
R
Bellman
and
R
.
Kalaba
."
Dynamic
programming and modern control theory"
Academie Press (1965) .

184
[11] A . Caron: " Méthodes numériques pour la résolution
d'équations intégrales linéaires et non linéaires . Contribution à la
définition des parties finies
Thèse de 3è cycle ,Paris (juin 1981) .
[12] A . Caron : "
Méthodes
de
réso lutio n
n umériq ue
d'équations
intégrales
non
linéaires
à
noyaux
réguliers
par
un
schéma itératif sous contrainte de régularité
C . R . A .S. 1 p. 649 , 1981
[13] Y.Cherruault: " Convergence of Adomian's method . "
,Kybernetes 18(2), 31- 38 (1989).
[14]
Y
Oherruault:
"
Mathematical
modelling
in
. biomedecine . Optimal control of biomedical systems " , Reidel ,
Dordrèch ,Holland (1986) .
[15]
Y . Cherruault
. " New deterministic
method
for
globé?-I optimization
and
applications to biomedecine
"
ln:!
. J
.
biomed . Comput. 27 (3/4) ,215 - 229 (1991) .
[16]
Y . Cherruault
and
A . Guillez : "
Quelques
méthodes numériques pour la résolution d'équations intégrales non
linéaires" Notes to C. R.A.S(1980)
[17]
y
. Cherruault
and
A
.
Guillez
:"
Méthodes
numériques
pour la' résolution d'équations intégrales non linéaires
. " Calcolo , Vol. XVII fas.IV ,PP .385 -407 (1981) .
[18] Y . Cherruault , G . Saccornandi and 8 . Sorne: "
News
results
for convergence
of
Adomian's
method
applied
to
integral equations . ".~. Math. Comput. Modelling Vol. 16 . n° 2 , PP .
85 - 93 , 1992 .
[19] Y . Cherruault
and P". Loridan : " Modélisation et
méthodes mathématiques en biomédecine " Masson , Paris (1997) .

185
i
1
[20]
C
.
Chevalet
and
A
.
Micali i
"
Modèles
mathématiques en biologie" , Springer Verlag (1981) .
[21] P.G . Ciarlet : " Introduction à l'analyse numérique
matricielle et l'optimisation " , Masson ,Paris (198~)
i
[22], E .' T . Copson : " Partial differential equations "
Cambridge"Uni~ersity Press (1975)
i
,
i
[23] M . Crouzeix and A
Mignot
"Analyse numérique
des équations différentielles"
Masson, Paris (1984) .
[24] K . Godfrey : "
Compartimentai \\models
and
their
application ", Academie Press( 1983) .
[25] A . Guillez and Y . Cherruault
",
Indentification
des
systèmes
compartimentaux
ordinaires
Les
prog ré;lmmes
,
FELICITY et SOPHIE - ALICE. "Proceedings of the
:10th congrès Int.
de cybernétique , Namur (1983)
[26] P . Henrici,:
"Disrete
variables
methods
in
1
ordinary differential equations"
Wiley (1961)
;
\\
1
[27]
S. Jaggi
and
A.
Caron
: "
The
solution
of
i
integral equations with its applicatio,! to the hum;an: joint . " Int . J
Biomed '. Comput. 14(3) ': 249 -262 (1983) .
,
[28] J.A.Jacquez : " Compartimentai analysis in biology
1
!
and medecine ", Elsevier(1972) .
;
[29]
R
.
Kalaba
and' K
.Spingarn,
"
Control
!
identification and input optimization " , Plenum Pre'ss(1982) ;
:
l
'
[30]
S
.
Ku mar
:
"
The
nu mer'ica 1
sol utio n
of
Hammerstein
equations
by
a
method
based
on
polynomial
collocation ."
J. Austral. Soc. Ser B31 ,319 - 329 (1990)

186
[31] S . Kumar and 1 • H Sioan : ". A new collocation
type method for Hammerstein integral equations
'~
,Math. Comp.
48(1987) 585· ~593
[32]
J
. P . Kernevez
."
Evolution
et
contrôle
de
systèmes biomathématiques . "
Thèse d'état , Paris (Mars 1972)
1
[33] G . 1 • Marchuk :
Méthodes de calcul numérique ",
Il
Mir, Moscou (1980)
[34] G. 1 Marchuk and
I.N.
Belykh
.
"Mathematical
rr.odelling in immunology and medecine
North Holland (1983).
Il
,
[35] R . K . Miller :
"
Non
linear
volterra
integral
1
equations ",Benjamin (1971) .
1
[36]
R . Piessens
and
M.
Branders 1 :(3)
Numerical
1
\\
solution
if
integral
equatioll
of
mathematical' physics
,'using
i

1
Tchebyschev polynorTllals " J . Comput. Phys . 21 (1976) 178 -196 .
[37]
P.A.
Raviart
and
J.M.Thomas
:
Introduction à
Il
l'analyse
numérique
des
équations
aux
dérivées
partielles
"
Masson
Paris (1983).
[38] R.D . Richtmayer
"difference .' methods
for
initial
value problems
",Wiley Interscience(1962) .
1
[39]
L
Schwartz
:
Théorie
des' distributions
"
Il
1
1
1
Hermann
(1966)
i
i
[40] L . Schwartz: " Méthodes mathém\\atiques 'pour les'
scinces physiques
Hermann(1961)
Il

187
[41] B . SOME et Y . Cherruauh ... Optimisation et
contrôle optimal en pharmacocinétique
." 'Biomed. and Pharm.
(1986) , 40 , 183-186 .
,[42] B . SOME . "
identification
contrôle
optimal
et
optimisàton
dans
les
systèmes
d'équations
différentielles
compartimentales " Thèse de 3è cycle , Paris VI (Juin 1984) .
[43] B . SO,ME
" une méthode de décomposition de
solution
applicable
,a un problème de contrôle optimal avec
contrainte issu de la biologie
"
,Afrika Mathematka , Séries 2
VolA (1991) .
[44] B
SOME:" A new computational method for solving
l
,
integral
equation
.",Applied
mathematics
and i optimization
(To
appear)
[45]
B.SOME
:"
Some
recent
numerical
methods for
solving Hammerstein integral equations
Mgths . and Comput
Il
\\
Mode!ling ,Vo1.18 N°.9 PP 55-62 5 (1993).,
[46] B . SOME : " Un algoritme numérique de résolution
d'équations fonctionnelles
Afika Mathematika (sumitted)
Il
,
[47] G.W.Swan
"Applications of optimal control theory
in biomedecine."
,M.Dekker(1984).
,
i
[48]
F.G.Tricomi
:/~~;ja;re, eq'uations ",Wiley
." - /'
'-
'\\
"?' /
'\\, /.
1nterscience
(1963).
l,:; / C ~
\\.~

,
[491 J . Vignes :" \\M4~~d:slè ?L~~riqUeS d'optimisation
d'une fonction de plusieurs \\~ri~5Ies:):~~~,~~b;i~imie Industrie - genie
,
~p.:-
chimique , 97, nO 8 ,pp 1264 - 1276 (1967) ,
[50]J. Wagner:"Fundamentals
dfclinical
pharmacokinetics
", Drug intelligence (1975).

RESUME:
Le travail préseiJ~e l'étude d'algorithmes numenques de ïésolution de
quelques p.L"cblèm~s
issus de la modéEsatiO!l matr..ém2~ique. en analyse
compartim~ntale.
,Dam; une pi.-::mière partie nou~ résolvor...s r.umé;:ique:-l1c~t 10 p:-cblème de
cûntrô'le des tY5~è:r.es pharmace~tiquesp8ur une thér~pel!tiç::e op~iina~(;.
..~.
.
"
Noas
abordons
ensuite,
d~ns uüc de~xiè:n~ pâl~ie, 1.::. ,-'ésoh~tion
numérique d' tq~atloi1s îlitégrales par l 'a!gorithi11e de déc.omiJositio~~c:.: !:.ÜO::JÎâll.
Enft:1, :~8~~:; présentons dans un dernicr chapitre une étüGC cOrnp2r3.trvc
d'algorithmes numériCiue~ (Galerki~, collocation, c,te ... ) 2.vec I~ luéthode
d'Adomian.
TvfOTS=CLES :
. Modélisation mathématique, ai80rithmes num6riques, amdysc coa:partiilleatale,
algorithme de décomposition, contrôle des systèmes pharmace~tiques,équê.tioas
'intégrales.
,"
...........
"
'
.... ,." ":-" ~.-.
g!i
. , J '
~ ~':"" -.~,
,
'.