~
~-.;..'
3 Je
1~
1 1ESTIMATION DELADENSITE ETDE '~A 1
IIREGRESSION DANS LES PROCESSUS
i
Il!:'_<2~.g'''_~_§_~S~Jj_~~~_~TlQ.UES __.. ~_J
L
...
.
.
~
.
~
.
.
_
Soutenue le 22 Février 1992 devant
la commission composée de :
SAKHIR THIAM
Président
HAMET SEYDI
Examinateur
EDMOND FEDIDA
Examinateur
GAlAYE DIA
Examinateur
JACQUES BREUNEVAl
Examinateur

Remerciements
Je
remercie très vivement Monsieur
le
Professeur Sakhir
THIAM qui
me fait
l'honneur de présider ce
jury
Je
remercie Monsieur
le Professeur Hamet
SEYDr pour
sa
disponibilité constante et
sa bienveillante présence parmi
les
membres du
jury
Monsieur
le Professeur Edmond
FEDIDA a
bien
voulu
accepter de faire
partie du
jury
qu 1 il
trouve
l Cl
1 1 expres-
sion de ma gratitude
Je
remercie Monsieur
le
Professeur Jacques BREUNEVAL
d1avoir accepter de participer au
jury
Je tiens à
remercier particulièrement
le Professeur
Galaye DIA pour avoir
voulu me soumettre cette étude et pour
avoir dirigé mes
recherches avec compétence et efficacité

1
o 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
l NTRODUCTI ON
Le travail
que
nous présentons nous a
été proposé par
G.
DIA.
Il
a
pour cadre
les processus ponctuels,
dont
il
ana 1 yse se s di ffé rent s
paramètres
.
Tout au
long de
l ' exposé
nous voyons comment
la statistique classique basée sur
1 'échantillon de
variables aléatoires peut
s'étendre de
manière
naturelle à
la
statistique sur
les processus
ponctuels.
Il
faudra cependant
se
souvenir que
les
variables
générées par
un processus ponctuel
ne sont pas des variables
aléatoires au
sens classique;
ce
sont plutôt ce que
Mr J.
GEFFROY appelle des
"variables statistiques" ou
"restreintes" parce qu'elles ne
sont pas définies
sur
tout
l'espace fondamental
et de
pl us
1 1 échanti 11 on de
processus
utilisé peut avoir
une
ou plusieurs composantes vides
c'est-à-dire sans points.
La théorie des processus ponctuels a
fait
l'objet de
nombreux travaux.
Nous pouvons citer dans ce cadre ceux de
GEFFROY
[8),
MENDES
LOPEZ
[13),
DIA [5)
.
Les précursseurs
sont
PREKOPA
(16],
THEDEEN
(19],
MOYAL
(14)
Notre étude est consacrée à
l'estimation de
la densité
d'un processus et de
la
régression
sur
un processus
L'intérêt que ~résente une telle étude est réelle
Considérons
la circulation automobile
sur
une autoroute sup-
posée
infinie et
sans
voie de dégagement.
Nous pouvons
nous
i ntér'esser à
l ' é t a t de
1 a
ci rcul ati on à chaque
instant
.
Cha-
que
vehicule est
représenté par
un point
(
élément de
l'espace
des points)
auquel
est associé
sa
vitesse
(élément de
l'espace des couleurs)
.
L'étude d'un tel
problème se
situe
dans
le cadre des processus ponctuels chromatiques.
-
On peut aussi
s'int~resser aux conditions de crois-
sance d'une certaine espèce végétale dans
une
région donnée
pour
voi r
à des époques di fférentes,
l 1 état de
l'espèce consi-
dérée du point de
vue de
la densité de
répartition
Tout com-
me on peut s'intéresser à
son évolution au cours du
temps

II
o 0 0 0 0 0 0 0 0 0 000 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 000 0 0 0 0 000 0 0 0 0 0 0 0 0
-
En biomètrie,
le paramètre densité d'un processus est
d1un certain intérêt lorsqu'on étudie
l'arrivée des patients
dans
un cabinet médical
voir LEWIS
[9]
,
cox and LEWIS [3]
En
1977 Marion [12]
a
estimé
la densité d'un processus
ponctuel
par
la méthode de l 1 histogramme et en
1982 MENDES
LOPEZ
(13]
par celle de
l'histogramme et de
la fenêtre mobile.
Dans
le cas particulier du processus de
Poisson CURIONI
(4]
a
utilisé la méthode du noyau
En
1986 OIA
(5,
a]
a
estimé
le paramètre de
la régression
sur
un processus en uti-
lisant
le
régressogramme de TUKEY
(20]
En
1987
[5,
c]
,il
proposa
une généralisation de
la méthode du noyau au cas des
processus ponctuels pour l'estimation de
la densité
Nous utiliserons dans
notre
travail
cet estimateur à
partir duquel
nous construisons un estimateur de
la
régression
sur
un processus
Le travail
que nous présentons est composé de cinq
chapitres
Au chapitre
l,nous donnons
des
résultats généraux sur
les processus ponctuels chromatiques
Le paragraphe
III,
con-
sacré aux transformées dlun processus,
est d'un
intérêt
particulier dans
l'estimation de
la
densité et de
la
ré'~ression
ainsi
que dans
la simulations des processus ponctuels
.
Le pa-
ragraphe IV étudie
le processus de
Poisson qui
sert de test à
nos
résultats.
Les chapitres
II et
III
sont consacrés à
l'estimation
de
la densité.
On étudie la convergence forte
et
la
loi
l imite de
l'estimateur.
On examine aussi
la convergence
complète et
la
vitesse de convergence
Le chapitre
IV
étudie un estimateur de
la
régression,
sa convergence presque cdmplète et
sa vitesse de convergence
Le chapitre V est réservé aux questions
liées à
la
simulation des processus ponctuels et à
l'utilisation des
estimateurs proposés dans
un cas pratique
.11
s'agit d'estimer
la densité et
la
régression dans
un processus de
Poisson.
B

SOMMAIRE
Page
Chapitre
l
Processus ponctuels chromatiques
o Répartition Ponctuelle Chromatique
l
Processus Ponctuels Chromatiques
II Processus Ponctuel
Chromatiques Aléatoires
3
III Transformée de
Processus
7
IV Le Processus de
Poisson
1 1
Chapitre
II
1 5
Estimation de
la densité marginale
d'un processus chromatique
l
Introduction
15
II Convergence en
Probabilité
et Loi
Limite de f
1 7
n
III Convergence Presque Complète
22
Cas où f
est à
support compact
)
IV Vitesse de Convergence
3 1
Chapitre
III
36
Convergence Presque Complète de f Il
( Cas où f
uniformément continue sur ~ )
Chapitre
IV
4 1
Estimation de
la fonction
Régression
l
Introduction
4 1
II Estimation de
la fonction de
Régression
42
III vitesse de Convergence
50
Chapitre V
53
Simulation
l
Introduction
53
II ûrganigramme des Progammes
55
III Principe de
la Simulation
56
IV Présentation des graphiques
58
Problèmes ûuverts
59
Annexe
Bibliographie

...ç..~.~P...~_~.r..~ J:
!:'.!:.9.~~~~:::~ !:'.9.?::~_~_:::~.~.~ ~~9.~.~..~.9.:::~~
...........................................................................!:'.?:~~ ~
--
.
CHAPITRE
l
PROCESSUS PONCTUELS ALEATOIRES CHROMATIQUES
O. REPARTITIONS PONCTUELLES CHROMATIQUES.
0.1
Définit·ion
: Soit X et y deux espaces métriques non vi-
des queLconques.
On appeLLe répartition ponctuelle chromatique
sur Xxy une appLication f
de XxY dans ~
teLLe que
L'ensembLe
X E
XxY
, f(x)
~ 0
~ soit fini ou dénombrabLe.
Nous dirons simplement par la suite répartition, ou
répartition ponctuelle notée r.p
Nous appelerons 5 le support de la répartition.
0.2
Définition:
Soit
A une partie queLconque de Xx:l.-
/
On appeLLe effectif de
la répartition f
sur A,
notée NCf,A)
La quantité
E
f(x,y)
(X,y)E A
f
est dite finie à distance finie
si
N(f,A) est fini
pour
toute partie A , bornée, de Xxy
.
Soit (x
,y ) ~ 1 une suite de points de XxY .
n
n n::::
L'application f
de XxY dans ~ définie par:
f(x,y)
= card~(x,y) E
Xx:!/
,
3
n E
o·~ /
(x
,y )= (x,y)
n
n
est une répartition ponctuelle chromatique.
Remarque:
Deux suites différentes peuvent être
representées par la même r.p
.
l . PROCESSUS PONCTUELS CHROMATIQUES
Soit (Xxy,~) un espace mesurable
, F un sous ensemble
non vide de r.p sur XxY et ~ une tribu de parties de F .
1.2
Définition:
L'espace (F,~) est
un espace mesurable
de r.p sur
"
(Xxy,~), si
pour
tout
B E ~
L' a.D.DL icat'-ion ~I (
8)
I~
. , '

...Ç.~.~.p..~.~.:..~ ~
~!:~~~~~:::~ ~~!::~.~.:::~.~.~ ~t::!: ~~.~..~.9.:::~:::
...........................................................................~~~~ ?
.
de F dans ~ définie par :
N(f,B)
= E
f(x,y)
(X,Y)E B
est mesurabLe
.
i.e
- ,
(N ( • ,A))
( C)
E
?5
(
La tribu choisie pour N est yeN)
)
liI1
soit
A,
, ... ,A
'
k ~ "
k élèments de la tribu $
et
k
soi t
.J
E
Y(lNk)
1.2
Définition
On appeLLe ensemble cylindrique de
F ,
adapté ct
La tribu $
L'ensembLe des éLéments f
E
F teLs que
(N ( f,
A,), ••• ,
N ( f,
Ak )) E
J
.
L'ensemble des cylindriques est une algèbre Œ de parties
de F ( fermé pour l'union finie,
la différence et contient F).
1.3 Théorème: Soit a($)
(resp a(Œ))
La PLus petite
a-algèbre rendant mesurable
Les N(.,B)
(resp contenant Œ
aLors on a
:
a(Œ)
= a($)
Preuve
: On a
a($)
c a(Œ)
Pour tout
J
E
Y(lNk) on a
- ,
k
_ 1
[ N ( • ,A 1 ) , •• ,N ( • ,A
) ]
( .J)
=
u
( n ( N
(.,A·))ia.~)
k
( a , , . . , a k ) EJ
i = 1
1
1
E
a($)
dl
a(Œ)
c a($)
El
IN
soit
Ilt
l'appl ication de
(~xy)
dans F
qui
à
toute
suite (x
associe la répartition ponctuelle f
définie au
n 'Yn)
lN
para'3raphe 0
. On munit
(~xy)
de sa'tribu borélienne.

...~.!:l.~P...~.:t:.r..~ ~
!.'.!:?~~~~~~ !.'.?:::~.~.~~.~.~ ~0.!:?~.~..~.9.~~~
...........................................................................!.'.~~~ ~
.
[N
1.4 Théorème
L'appLication
~
de
(~xy)
dans
F e s t
mesurab~e.
Preuve
- 1
- 1
~
([N(.,A ),··, ,N(. ,A )]
(J») =
1
k
k
-1
-1
=
U
(
n '1' (N
( . , A . ) ( ~ a. ~»)
(a
, •• ,a
)E.J
i=l
l
l
"
1
k
Il
suffit donc de montrer que
les ensembles
\\y,- 1 J
t'
H. =
N(f,A.)
'J:'
)
= a. ~
sont mesurab'les
.
l
l
l
Soit ç.
l'ensemble de toutes
les parties à
a.
éléments
l
l
de [N
On a
X.
E
A., ••. ,x.
E
A.
}
1
J
1
H.
=
u
{( xl)
J 1
a.
l
.
1

( j 1 ' • , , j
)
a _
E
ç.
xl
g
A.
, l ..,t. J . , . , . J
1
1
l a .
1
a _
1
u
1
CA.
x
n<IR-A.»)
l
K
[N- K
E
"
1
'. i
comme
l'ensemble ç.
est dénombrable,
on en déduit que H.
est
1
l
mesurable
.
II . PROCESSUS PONCTUEL CHROMATIQUE ALEATOIRE .
II.1 Définition: Soit
(~xy,~) un espace mesurab~e ,
(F,~)
un espace mesurabLe de répartitions
ponctueLLes chromatiques
sur
(xxy ,~) et
(0

,P)
un espace
probabiLisé queLconque
On appeLLe répartition ponctuelle aléatoire chromatique sur
(xxy,~) toute appLication mesurabLe f '
de
(0 ,Œ) dans (F'~)'a
II.2 Proposition:
Pour
tout
B E
~ ,
L'appLication
W
~ N(fw,B) de 0 dans [N est une variabLe aLéatoire appeLée
effectif aléatoire de f '
sur B
Preuve:
Soit f '
un
r.p,a.c
.Pour tout B on a
N ( f . , B )
= N ( • , B ) of ..

...f..~.~p...~.!.:'.~ ~
~~~~~~~?::~ ~~~~.~.?::~.~.~ ~':::~~~.~..~.9.?::~~
Page 4
.
...............................................................-
.
On a
la composée de deux applications mesurables donc
(
O
N(f
,B) est mesurable
11.3 Définition: Sotent
(~,$1) et (eY,$2) deux espaces m.e-
surabLes
teLs que $
= $ * $
o(
* étant Le produtt tensorteL)
1
2
On appeL Le effectifs marginaux de f.0
sur ~ et eY
res pec t t vem.en t
Les quantttés déftntes sur B E $1 et B E $2 par
1
2
N~(fO ,B ) = N( f 0 ,8 xy)
1
1
N,y(fO,B ) = N(f 0 ,~XB
)
2
Il
2
11.4 Corollaire
0
0 Les appL Lcat tons de 0 dans [N déftntes
par
\\ri B 1 E $1
w ---+ N~(fO,Bl)
\\ri B
E
2
$2
w ---+ Ny( f 0 ,B 2)
sont
des vartaàLes aLéatoi.res
EIlI
Soit (O,Œ,p)
un espace probabilisé et soit Pfo,
la loi
image de P par fO
sur (F,~), appelée
loi
du processus
po~ctuel 0 On a le théorème suivant
1105 Théorème:
La connai.ssance de
P_o entratne ceLLe de
t
O
La
LOt
de
tout
vecteur
[N(f
,A ), 0 0 0 ,N(f O,A )]
pour
tout
k
et
1
k
pour
tout
A.
E
$
i=
1'000 ,k
0 Et réctproquement
.
l
Preuve:
Supposons connue la loi
des éléments de $
, k un entier- non nul.
Considérons la loi
image P* de P par le vecteur
[N(f·,A ), . . . ,N(f·,A )]
.
On a
1
k
-k
*
1
\\ri .J
E
.1'(O'J )
, P (J)
= P~ [N ( f . , A1) , . 0 0 , N( f 0, A ) ] - (.J) ~
k
- 1
= Pfo( [N(
,Al)"
.0,N(
,A )]
(J»)
k
Réciproquement supposons connue la loi de tout vecteur
O
[N(f
,A 1),···,N(f",A ») 0 Pour connaître la loi de fO, il
k
suffit de
la connaitre sur le semi-anneau Y,
engendré par les

Chaoitre l
Processus PonctueLs Chromatiques
•••••••••••• 1':"
.
Page 5
................................................................................-
.
ensembles ~ N(
,8)
~-l(m) , m E [N et 8 E $ ,qui n1est autre
que l'ensemble des intersections finies de ces ensembles
°
D'où
k
pfoC.n ~N( , 8 i ) ~- 1( mi) ) = Pf ° (CN ( ,8 1 ) ,
,N (
,8 k ) ) - 1 ~ m1 '
,m k ~J
0
0
0
0
0
0
0
l =1
-1
= P f ° oCN ( • ,8 1 ) ,
,N (
,B k ) )
~ m1 ' • ,m k ~
0
0
0
0
0
p*(~m1,o.o,mk~J
=:
P * étant
connue,
on connait donc Pfo
sur y
.
P
. étant
f
une mesure bornée elle se prolonge de façon unique sur ~ . •
II.6 Définition: On appe~~e mesure moyenne du processus
fO
sur B E $,
L'espérance mathématique de
La variabLe aLéa-
toi re N ( f ° ,8)
°
On
La
no t e
~ ( 8)
III
II.7 Théorème
: ~ est une mesure pos i t ive S"llr $
.
II1'II
+00
Preuve:
1°)
~(8)
=:
[[(N ( f . ,8»)
=
2kP(N ( f . ,B) =k) > 0
k = 1
Si
(B.) E
$
,B.n B.
= 0
,on a dlaprès le
1 1 ]
théorème de Beppo-Levi
+00
Ile U Bk) =:
k = 1
=
rIoS
Définition: Soit
À
"lme
mesure
a-finie
S'upposons
que ~ soit absoLument continue par rapport à
À .
On appeLLe
densité de ~ La dérivée de Radon-Nikodym de ~ par rapport à À.
On
La notera f*
*
v
(x, y)
d Il
E
~x:y
f
(x,y)
= d~(x,y)
modulo À
III
Soit (X
,Y ) une suite de vecteurs aléatoires définies
n
n
sur (O,Q) à valeurs dans l?x:y et soit <Il l'appl ication définie
au paragraphe r

..S.~.~p...1.!.:'.~ ~
~~9.~~~~~~ ~?!::~.~.~~.~.~ ~?~~9.~.~..~.9.~~~
...........................................................................~?:~~ ?
.
A tout W E 0 on peut faire correspondre la suite
ex (w) ,Y (w») à laquelle on peut associer une répartition
n
n
ponctuelle d'après le paragraphe a . soit ~ cette application
(X
,Y
)
(O,a)
n
na
(~xy,!B")[N
( F , ~)
rp = '*'oC (X
,Y
) )
'*' étant mesurable on a :
n
n
II.9 Théorème
A toute suite de vecteurs atéatoires
à
valeurs dans ~xy , on peut
faire correspondre un processus
ponctuel chromatique aléatoire.
La réciproque de ce théorème n'est pas évidente
Dans
"le cas ~xy = [R2 , elle a fait l'objet d'étude dans la thèse de
F.
DABOIJZ [6]
On a
?
II.10 Théorème:
Soit m t'effectif atéatoire de f'
sur ~-.
Si
on ordonne les points de f'
suivant
l'ordre
lexico~raphique
dans [Rê la suite obtenue (Xl ,Y
), . . . ,(X
,Y ) eneendre
le
1
m
m
processus
w
'ri B E
!B" ,
N(f
,B)
= card ~j /
1:5
j:5 m(w)
,CX.(w),Y.(w») E
B
~ •
J
]
On remarquera que
les (X. ,Y.)
ne sont pas des variables
1
1
aléatoires car (X. ,Y.) est seulement définie sur une partie
1
1
O.
de 0
avec
1
Les (X.,Y.)
sont appelées variables statistiques
1
1
.

Chapitre
l
Processus PonctueLs Chromatiques
' ~ " " " " "
• • • • • • • • • • • • • • • • • • 0
• • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • _
• • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • •
...........................................................................!:.~~~ ?
.
III. TRANSFORMËE DE PROCESSUS
Soient
(XO,V
), . . . ,{Xp,V
)
les variables statistiques
O
p
engendrant un processus f·
sur ~xy où p = N{f·,~2) et soit ~
une fonction borélienne de ~xy dans ~
111.1 Définition:
On appe~~e transformée àe
par ~, notée
~(f·) ,Le processus engendré par
~(XO,Vo),···,~(Xp,Vp)
m
111.2 Théorème:
Supposons que pour p = k
( k >
1)
et
pour
tout
k,
Œ(~(X.,V.) /
k ) est
uniformément bornée i= 0, . . . ,k
;
l
l
P =
i.e
3
~1 > 0 /
IŒ(~(Xi,Vi) /p=k )1:5 M
V
k 2: 0,
V
i= O, . . . • k
si
Œ(p)
< +00 aLors :
2
Œ(
~(x .• v.») = f
~(x,y) dv.(x,y)
III
i =0
l
l
Preuve:
Supposons que ~ =- X
fonction
indicatrice de
A
A E ~ . On a
:
Œ( ~ ~(X .• V.») = ~(A)
XA(X.y)
d~(x.y)
.lo
l
l
f
l =
2f x:J,'
Si
~ est une fonction borélienne positive. soit ~
une suite
n
croissante de fonctions
simples convergeant vers p
telle que
~ (X
,V
)
= a
Pour tout n on a
n
0
0
2
( 1 )
Œ(
~ (x .• V.») = f
~ (x , y) d ~( x , y)
i=O n
l
l
n
2fxY
Le premier membre de
(1)
slecrit
:
p
+00
k
Œ( ~ ~(X. ,V.») = ~ {~Œ(~ (X: .V.) /P=k).·} P(p=k)
.to
1
1
kto .to
n
1
1
1 -
k
-
·1 -
comme
~ Œ(~ (X. ,V.) /
k):5 M k
i f o
n
1
1
P =
et
Œ(p)
< 00 , le théorème de la convergence monotone de
Lebesgue
implique
p
k
l i m
n--)
Œ( 2 ~ (x., V • ) )
lim ~ Œ(~ (X. ,V.)
00
;=0 n
1
1
n
.La
n
1
1
1 =

...ç!:l.~P..~.:t.:"~ ~
!:.::.9.~~~~:::~ !:.9.~~.~.:::~.~.~ ~0.::.9.~.~..~.9.:::~~
Page 8
.........................................................................................................-
.
k
(2)
~ Œ(p(X. ,V.) / -k) P{P=k)J
. La
1
1
p-
l =
p
cette dernière expression représente
lE (
~ p{ x. , V• ) J
. La
1
1
l =
D'autre part on a par définition de l'intégrale
lim
f
p (x,y)d~(x,y) = f
p(x,y)d~(x,y)
n
~
00
n
l?xY
l?xy
(1)
et (2)
impl iquent
p
E( 2p( X• , y'. »)
f
p(x,y) d~(x,y)
i =a
l
l
l?xY
Si P est une fonction borélienne quelconque on applique à
sa partie positive et à sa partie négative ce qui précéde
.a
Si
~ admet une dérivée par rapport à
Îa mesure de
Lebesgue
, notée f * ,on a
111.3 Corollaire
1: Lorsque p = k les variables (X
,V), .. ,
1
1
(X
,V) sont abso~ument continues par rapport ct ~a mesure
de
k
k .
k
l
+00
Lebes6u e
de densité hkf* i=
1, ... ,k;
De p~us 2 (.2
h~ J = 1.
k=o
1.=0
Preuve :Soit A un borélien quelconque et soit ~ = X

A
On obtient
pep = k) Œ(X (X,V)/p
-<
kJ
J.-1(A)
i
= 1 , ••• , k
A I . l .
ou
p ( x . , v . )
E A, p=
::s
kJ
~(A)
'" i ::s k
l
l
ce qu i prouve que p(X.,Y.) E A, p= k) admet une dérivée de
l
l
Radon-Nikodym par rapport à ~(A)
.
Il
existe donc une fonction
Borel
mesurable h~ telle que:
'
i
P(X.,V.)E A,p= k) =
*
f h~(x,y)d~(x,y)
J
,
hk(x,y)f (x,y)dxdy
.
1
l
A K
A

Chanitre l
Processus PonctueLs Chromatiques
........••.. 1:..............••.................................•••..................•.....................•......•...................................••............ ~
_
_
.
Pa6G 9
..............................................-
.
Nous avons d'après le théorème 111.2
+00
k
l [Jo
k)] "
(1)
P(Xi,Vi)E A,p"
.(A)
k=O
Les quantités intervenant sous le signe somme étant posi-
tives
, on a pour tout s ~ 1
s
k
( 2)
L [J, p(X.,V.)E A,p= u] ::5 ~(A)
1
l
k=O
ce qui
implique, que pour tout 5
,
s
L U, h~(x,Y)flie
] lie
( X , y)
::5
f
( x , y)
k=O
k
+00
.i
*
*
d'où
l i ~1 hk(x,y)f (x,y) ::5 f ( x,y)
k=o
On peut alors dériver (1)
sous le signe somme et obtenir
+00
k
~ [.2 h~(x,y)f*(x,y) ] = f*(x,y)
L
1=1
k=O
d'où le resultat désiré.
III
111.4 Corollaire 2:
Soit
f'
un processus ponctueL
de mesure
transformée ~Cf·~ a
aLors pour mesure
Preuve
: Prenons p = X o~

A est un borélien que1-
A
P
conque de [R • ~( 2XAO~(X.,y.))
J
XAo~(x,y) d~(x,y)
i = 0
1
1
l'.x3/
si ~(x,y) E A ou (x,y) E ~-1(A)
o
sinon
d'où le second membre est égal
à ~(~-1(A») .

Chanitre
l
Processus PonctueLs Chromatiques
............1":................................................................................ .
.
...........................................................................~?:~~ ~..o
.
p
D'autre part
2XAo~(X.'y.) = NC~(f·),A) .D'où le
i =0
l
l
résultat désiré.
Remarque:
Prenons pour ~ l'application première projection
sur ~ et ~xy = ~x~, on a alors
- 1
~eY:l
(A)
= ~(Ax~)
qui
est la mesure moyenne de
1 leffectif marginal
N~(f· ,A)
défini
en II.3
111.5 Définition:
On appeLLe processus marginal
de f·
sur
o
Le processus f
sur ~ en8endré par X , ... ,X
Oi
1
P
On a aLors pour tout B
E!E
,
N(f·
,B
)
=
N~(f·
1
1
, B 1 )
• l'ii
Oi
1
....
0
Soit ~ une fonction borélienne de ~ dans ~
111.6 Théorème:
Supposons que pour p
= k
k
2::
1)
et
po'ur
tout
k,
~C~(X.) /
k) est unifor~~~~nt bornée i= 0, ... ,k
l
p=
l
• e
3
M > 0 /
1~C~( Xi) / p =k ) 1:5 M
'\\ri
k:;:' 0,
'\\ri
i=
O, ••• ,k
si ~(p) < +00 aLors
:
~C 2: rp(X.») =
i =0
1
(où
~. est la mesure moyenne du processus marginal f .
)
1
01
lm
Preuve:
Similaire à
celle du théorème 111.2
Si
~1 admet une dérivée
par rapport à la mesure de
Lebesgue
,
notée f
,on a
111.7 Corollaire:
Lorsque p
= k Les variabLes X , •••
1
X
sont
absoLument continues par rapport
à
La mesure
de
k
i
+00
k
rite
Lebes8ue de densité gk f
i= 1 •... ,k;
De PLuskte
g~ J =

~....

Chanitre l
Processus PonctuelS Chromatiques
............. 1":'"••••••• _
~ ••••••• _..
•••••••••••••• ••••

_•••••••••• _._
_._ ••••••••••••• _•••••••• _•••••••
Pa8e
11
..........................................................................................................................................................................................
Preuve
On
utilise
les mêmes arguments que
la preuve
du corollai re.
en 111.3,
en prenant pour référence
le
théorème 111.6 au lieu du théorème 111.2
.
IV. LE PROCESSUS DE POISSON :
Nous nous plaçons dans le cas où ~xy = ~2 muni de sa
tribu des Boreliens $
IV.1 Définitions
On di t
qu' "Un process'us f '
s"Ur [R
01
i)
N'a pas d'atome en x si
P(N(f~1,ix~) > 0) = 0 .
ii)
N'a pas de
points mUltipLes si
Soit f'
un processus sur [R tel
que la mesure
01
À = ~(N(f· ,.») soit non atomique et finie sur tout Borélien
01
bornée
.
On a
IV.2 Définition
On dit
q"Ue
est un processus
01
de
Poi sson si
:
i)
('1 B E
$b)' ('1 k E
[N) ,P(N(f~1,B)=k) =
i i )
'1 p
E lN *-
i 1 ~ , '1 CiE $b
i =1 , ••• ,p
,
c.n c. = 0 '1 i~j
l es var i ab Les N ( f ~1 ' Ci)
i =
1, ••• , P
son t
1
J
indépendantes
.
où $b désigne
l'ensemble des 8or'él iens bornés de [R.
À est appelé mesure moyenne du processus.
La condition
i)
exprime que
la v.a N(f·
,B)
suit
une
loi
de Poisson de
01
paramètre
À(8)
et
ii) que
le processus f·
est à accrois-
01
sements indépendants.
IV.3 Théorème
: Un processus de Poisson f'
sur [R
01
est sans atome ni
point double.

...~.~.~.p..~.~.f..~ ~
~!:.?~~~~~~ ~?!::~..~.:!~.~.~ ~~!:.?~.~..~.9.~~~ .
Pa6e
12
...........
-..
.
.
~."'."'."
Preuve:
Soit À la mesure moyenne du processus fO
On a
O~
P(N(f~~,~x~)=
O
0)= e-À(x)= e
= 1
d 1 0 Ù
P (N ( f"
, ~ x ~ >0 ) = 0 "
01
Soit K un compact de ~ et soit ~ > 0 quelconque
,
pour
tout
intervalle ouvert borné V
de
x E
K',
on a
:
foo À k (
)
PCN(f"
,V ) ;::: 2 )
=
\\' ~kl Vx
exp(-À(V))
01
X
1.
_
x
k=2
À étant une mesure positive
telle que À(~x~) = 0, on peut
choisir V
assez petit de telle
sorte que
À(V )
< ~ "
x
{ + o o À k - 2
x
}
P(N(f' ,V )
;::: 2 )
=À(V ) À(V )
\\' -k-I(V x ) exp(-À(V)
0
O~
x
x
x
1 . .
x
k=2
(1)
S
À(V )À(V )
S
~ À(V )
x
x
x
Considérons V
, i = l , . . . ,
n
x .
,un
recouvrement de
K par
l
des
intervalles ouverts de
longueur
inférieure à
~.
i - 1
Le
systeme.
S.= V
-
U V
i = 2 , •• 0 ,
n
;
B
= V
,
forme
un
1
1
Xi
k=l
x
xl
k
recouvrement de K constitué de Boréliens disjoints
°
A.= K fiS.
i=
1 • . . . ,
n est
une
partition de
K.
on
l
l
a
dans ces conditions
:
2
pC w / 3 XE K:
N(fO,~x~r~~: 2)::::
PCN(fO,A.);::: 2)
î = 1
l
On déduit de
~ PCN(f' ,A.) >-
.2..
O~
l
1 = 1
e
étant arbitraire que f'
nia donc pas de point double sur K.
01
On obtient alors
le résultat désiré car ~ est o-compact
Le processus de
Poisson,
nous
servira souvent de test
pour nos
résultats
,il
est alors
interessant de dégager cer-
taines propriétés
importantes
notamment
le
théorème
[voir,
l i ]
\\1,

Chanitre l
.Processus PonctueLS Chromatiques
•••••••••••• 1':"
.
...........................................................................!.'.9.'!?~ ~..3
.
IV.4 Théorème:
Soit
f '
,
Un processus de Poisson
0:1
de paramÈ' tre À . te 1.
que
IIÀ Il
= À(IR) soi t fi nie . Soient
p
;: N(f'
,IR)
et
x , ... ,X
Les variabl.es statistiques engen-
0:1
1
p
drant
I.e processus
A 1. ors condi t ionne 1. I.ement
à
p
= j, I.es v. s
X ,· .. ,X
,
ont
I.a même
I.oi
conjointe que cel.l.e d'un
1
j
échantil.l.on ordonné de
j
v.a
indépendantes de
fonction de
répartition F définie par:
F(x)
;:
\\.(]-oo,x[)
IIÀII
IV.S Définition:
On dira qu'une v.a X satisfait
à
l'inégalité de Bernstein si
a)
X admet des moments de tous I.es ordres
b)
3
M > 0 /
V k
~ 2 ,
I~(
k
X - ~(X»)k 1 < M - 2
~! Var(X)
IV.6 Théorème:
Si
f"
est
un processus de Poisson de
0:1
paramètre À
f i n i ,
al.ors pour
tout
S E ~ ,I.a v.a N(f',5)
vérifie
L'inégal.ité de Bernstein
Preuve:
Soit 5
E
~ , pour alléger les nota-
tions
,on posera À= À.(5)
.
Il
est bien connue que
la
loi
de
Poisson de paramètre À admet des moments de tous
les ordres
Posons
~(N (f • ,8)
/\\,)k
1
M =!\\,+
1
1
Lorsque
k = 2
~
..:'
= /\\, ..:; - 2 ! ~
on a
11
"-
2
2
et si
k=
3
11
À
:::; 3M ~/\\,
car M > 1
3
d l '
-
1
3 1
ou Il
::: -
M
.
~
/\\.
3
2
Supposons que
la
relation soit vraie à
l'ordre
k et montrons
l a à l ' o r d r e k +
" Pour cela,
on
utilise
la relation de
récurrence de
Riordan
[17]

...~J:l.~.P..~.:t.!:.~ ~
~!::?~~~~~~ ~?:.~~.~.~~.~.~ ~t~?~.~..~.9.~~~ .
PaBe 14
• • • ~ • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • •
. " . _ . _ . . . . . . .
• • • • 0
.
(1)
À.
k
À.
~k
~k+1 =
~k-1 +

Cette relation de récurrence nous permet d'affirmer
que
tous
les coefficents de À dans
l'expression du polynôme
~k
t
' " f
+ - '
f
.
"
k!
t
t
k
son
posltl
s eL
ln erleurs ou egaux a
~ pour
ou
.
Elle
montre aussi
que
~k est de degré
:
k/2
si
k est pair et
(k
-
1)/2
si
k
i mpa i r
.
Il
en
resu1te que
l'iné9a1ité
~k S ~! ",k-2 À. se conserve
alors
lorsqu Ion passe à
la dérivée par
rapport à
À
;soit
d
s ~(k _ 2) Mk - 3 À + k!
k-2
dÀ (~k )
2
2
M
.
De
(1)
i l
vi ent
~k+1
+
I l
suffit alors de montrer que
le
terme entre crochet est
inférieur- à
c'est à dire
2
(2)
À + À(k -2)
+ M S
(k
+
1)M
.
En
remplaçant M par
sa valeur À
+
l,
l'inégalité
(2)
est
vraie dés que k ~
1
\\.

Chanitre
II
.
Estimation de
la densité
............. 1':"••••••••••••••••••••••••••••••••••••••••••••••••••••••••••••••••••••••••••••• __ •••••••••••••••••••••••••.•.•••••••••••••••••••••••••••••• -••••••••••••••••••••••••••••••••
...........................................................................~9.~~ ~..5
.
CHAPITRE II
ESTIMATION DE LA DENSITE MARGINALE D'UN PROCESSUS CHROMATIQUE
1.
INTRODUCTION
L'es t im.a.t ion de
la densité d'un processus
,
a
été
entreprise par M.Curioni
en
1977
(4).
Son étude se
limitait
au
cas particuLier d'un processus de Poisson non homogène.
En
1982
[13),Mendes
Lopez étudie
l'estimateur de
la densité d'un
p.p.c
par
la méthode de
l'histogramme et
de
La
fenetre
~nbile
en utiLisant
Les e f f e c t i f s aLéatoires du processus.
Un
tra-
uaiL
simiLaire a
été entrepris par J.M.
Marion en
1985
(12)
La méthode du noyau pour
L'estimation de
La densité n'a
été utiLisée que
par Curioni
et
Le conditionnement
des obser-
uations par
L'effectif
totaL
du processus
Le ramenait
au cas
de
L'échantiLLon cLassique.
C'est
en
1987 que G.DIA [S,
cj
proposa un estimateur de
La densité
par
La méthode du noyau appliquée aux processus
ponctueLs.
C'est
précisément
cet
estimateur qui
sera
L'objet
de notre étude
.
Considérons
un p.p.c f
sur ( 0,
~ ,p) à valeurs dans
a
2
[R

On suppose que
p
= N (f ,[R2) est presque sQrement fini et
a
on désigne par f * la dérivée par rapport à
la mesure de
Lebesgue de
la mesure moyenne
~ de fa supposée finie
Posons
II~II = E(p)
Soient
(X
,Y
), ••• ,(Xp,Y
)
les points génériques de
1
1
p
f
;
si
p
= ° , on pose (X ,Y ) = (0,0)
a
a
a
Considérons
n p.p.c f:
1=
1, ••• ,n
indépendants définis
1
sur
(
n,~.,p) de même distribution que f
.
On
o
note
par t(n)
[02 \\
lr.
)

...~~.~.P...~.!.r..~ ..}..~........................................................... .
~~.~..~.~.~..~.9.!: ~~ ~.~ ?~~.~..~.~
.
...........................................................................~~~~
~.~
.
(X~n),y~n», ••. ,(X~n),y~n» les m observations de la superpo-
sition
• Si
m = 0
,
on pose
(X(n)
y(n»
= (0,0)
o
'
0
Soit f·
le processus margimal
sur ~ de f·
généré par
0 , 1 '
0
Xl' . . . ,X
et soit ~1
sa mesure moyenne.
Nous montrerons que
~1
p
admet pour dérivée de
Radon-Nikodym la fonction
f +OO *
f(x)
=
f
(x,y)dy
-00
m
x -
x~n)
Nous estimons f
par f(x)
=
1
1
)
nh
h
où h est
une constante positive dépendant de
n tendant
vers 0
lorque
n ----~) 00 et K est une fonction borélienne vérifiant
r
sup
IK(y) 1<+00
~ 1
-00
<y<oo
00
f
'-2
IK(y) Idy <+00
-00
,-
a
-3
1 im
lyK(y) 1
y
~ +00
Lorsque f
est
le processus ponctuel
associé à
une v.a
01
X ,
de
la façon
suivante
si
X E
A
et
a
sinon
où A est
un borélien de ~ alors m = n
et
llestimateur f
obtenu dans ce cas a
fait
llobjet d'études
n
par- de
nombreux auteur-s
Rosenblatt
[18J
,
Nadaraya
[ la J
Cheng et Taylor
[1)
.
On peut se refèrer à
Collomb
[2,
b)
pour
une revue bibl iO'~raphique sur l'estimation de la densité
et de
la régr~ssion
Nous supposerons par
la suite que
:h
h
est telle
n
que
lim
h
= a
et que
K(X
-
Xo)/h)
= a pour toute
n ~ 00
n
fonction borélienne
K

,
Chapitre II
Estimation de
La densité"
...............................................-
-
-
-
.
...........................................................................!:.~~~ ~..7
.
II. CONVERGENCE EN PROBABILITt ET EN LOI LIMITE DE
f n
II.1
Théorème: La mesure moyenne ~1 du processus f 01
admet
une
dérivée
de Radon-Nikodym f
définie par
:
00
lit
f{x)
= f f
{x,y)dy
m
-00
Preuve:
Soit 6 un borélien quelconque de ~ et n llap-
plication première projection sur ~ .Prenons ~
=
X
est
la fonction
indicatrice de
ô . On a diaprés le
6
théorème 111.2 du chapitre l
:
p
Œ:
(2: X6on{Xi,v;)J=f Xô{X)f*{x,Y)dxdY •
.
~2
1 =0
li'.
Le premier membre de llégalité est égale à Œ:(N{f
,Ô)J
o1
et lion a
:
~,
UI/(
[[
( f 0' • <5) )
x • y ) d y] d x
pour tout borélien <5
• d'où
d~l° [I~f'(X'Y)dyJdX .
II.2 Théorème
: $"!..(pposons q"!..(e K soi. t ?m.e fone t i.on boré l i.enne
satifaisant
Les conditions C
, C ,
si
f K(y)dy = 1
1
2
~
aLors en tout
point de continuité x de f
on a
lim
EU (x») = f{x)
n ---') 00
n
Preuve:
Les f
, ••• ,f
étant de même distribution que
1
n
f
,on a
:
o
p
X
-
X
E(f
(x»)
= E (1 .2:
..!.. K ( X -
Y J f(x)dx
n
K (
i
JJ = f
h
1=0
h
CR h
h
et en appliquant le théorème
1.A de Parzen [15), on a le
résultat désiré.
II.4 Théorème
'.nT"'!
C"")J~'-"'-"c:.c:::>
son.t,
.....·1 1.-
'-" "·"'1-"' r" '-"" '-" '--
"-''''IJ::::i
'-t ._...._.
1 J::::I C
, - ,-., "r""'\\ ri JO
f " r'\\1""1 c-
l.' ~_. '_"
'_' ._'" 1 \\"'_'" ,-.
,-.
\\,.. '_'" , \\'''_"
satisfaites.
Si
de PLus

Chapitre II
Estimation de
ta densité
........................................................................................................................................................................................
...........................................................................~~~~ ~..8
.
b )
f
est uniformément continue sur ~.
co
c )
J K(y)dy = ,
-co
2
d
)
lim nh
= +co
n --+ 00
e
)
k = f(K)
(k la transformée de Fourier de K),
k E
L,(~).
Ators
~
'ri E: ;:.
0
l i m P(sup 1f
(x)
-
f (x) 1< E:) = 1 •
n---? co
XE~
n
Preuve:
k E
L, donc on a :
iuy
iuy
k(u)
= --l--J e-
K(y)dyet K(y)
= --'-J e
k(u)du.
rm~
r2ii ~
Remplaçons K par sa valeur dans 1 1 expression de f n
X
-
X~ n)
x~n)",
1
m
i
J
Ju
[
f
(x)
J
J=
n'
~ J
1
e
h
k(u)du
nh-l zn:.
rt:>
J=l
lJ'.
m
.
(n)
.
-lX.
U
lXU
='
f [ ~ p
J
Je
k(hu)du
n-rm ~ j=,-
J
i xu
=
~n(u)e
k(hu)du
~
.
m
'X· (n)
,
-1
.
U
avec
~
(u)
~ e
J
51
m 2:
n
nr2ii.] =,
= 0
sinon
Soit il> = f(f)
J
1
::-iXU
~(u) =
-=
f(x)dx
et
nous avons
-I2ii ~
[E(f
(x»)
n
=
Appliquons
le théorème de Fubini pour obtenir

Chanitre II
Estimation de
La densité
•••••••••••• 1':'"
.
Pa.8e
19
...........................................................................................................................................................................................
J
[[( f n ( x») =
e i x u k ( h u ) ~ ( u ) du
[R
D'où,
~
~
ixu
1
1f
(x)
-
[[( f
(x») 1
~ ( u »)e
k ( h u) d u
n
n ·
par suite
J
su pif (x)
-
[[( f
(x») 1 :5
1(~ (u ) - ~ ( u ) ) 1 1k ( hu) 1du.
xe[R
n
n
n
[R
En utilisant l'inégalité de Schwarz et Fubini on obtient:
~
~
[[(sup If (x) - [[Cf (x») 1) :5 J{
2}1/2
([[(~n(U) - ~(u»)k(hU»)
du.
xe[R
n
n
[R
D'autre part ,
p
- i uX .
2
J -ixu
2
[[(if!
(u)
- ~(u») =
[[(2:
J
e
-
e
f(X)dX)
n
2nn
j=1
[R
1
<
1)2
([(p +
donc
1
~
~
[[(P + 1)2 ]1/2J
[[Cs u pif (x)
-
[[Cf (x») 1) :5
2
Ik(u) Idu
xe[R
n
n
[
2 nnh
[R
Les conditions
a ) ,
d ) et e
) impliquent
~
~
( *)
[[(suplf (x)
-
[[Cf (x»)I)----+ 0
quand n ----+ 00 •
rD
n
n
xelJ'.
L1inégalité de Markov nous permet de dire que ( *) implique
p
~
~
(1)
suplf (x)
-
[[Cf (x»1 ----+ 0
quand n ----+ 00 .
xe[R
n
n
De 1 1 uni forme continuité de f , on obtient (Nadaraya [ 1 0 1 aJ)
~
( 2)
su pif ( x ) - [[Cf (x») 1 ----+ 0
quand n ----+ 00 •
xe[R
n
Les relations (1) et (2)
impliquent que:
~
p
suplf (x)
-
f(x)1
----+ 0
quand n ----+ 00
xe[R
n
II.5 Théorème
On suppose q1.,e,
~es condi-tions '--1'
sont
satisfaites
Si
de pl.us
,

...fh~.I?.1.:t.:r..~ ~J
~~.~..~.~.~..~.?!:: ~~ ~.~ ~~!::~.~..~.~
.
...........................................................................~~~~ ?.o
.
00
a
)
f K(y)dy =
-00
b )
1; m nh = +00
n ---4 00
C
)
E(p2)
< 00
ALors en tout
point de cont i nui té x de f
, nous
[ f
(x)
-
[E( f
(x) )
lim
P
n
n
::s
~(a)
a J=
n ---4 00
/
Var(f n(x»)
~ est.
La fonction de répartition de
La
Loi normaLe st.andard
Lemme:
Si.
x est. 1.m poi.nt. de conti.nlâ·té de f
on a.
p
( _ x
---:....X; JJ
l
2
(
O( 1)
+ hf (x)~.
Var
i ~o K
h
h
p
x-X.
Preuve
Nous avons
E (
; ~o K (
h
1
X
:
X; H x : Xi')]
;~; 1
2
D'une part
) ]
= J[RK
( x :
V)f(V)d V ,
en utilisant
le théorème
1.A de
Parzen
(15)
x -
y
f
2
K
[ - - - Jf( y)dy ~
h
[R
h
P
(x - X.
x
-
X
D'autre part
ilJ / p
~
= k
]
[
E
; ~i 1 K
h
1
h
2
(k
-
k)(Sup
K(y»)2 pour
n assez grand
d'où
ye[R
o ( 1 )
on a
le
résultat
\\
désiré.

Chal?itre I I
Estimation de
~a densité
................................................................................-
.
...........................................................................~~~~ ?1
_
.
Preuve du théorème:
Les processus f.,i=
1, ••• ,n étant
1
indépendantes de même distribution que fa
'
x-X.
posons
V.= h- 1K(
1
)
1
h
il
suffit (LOEVE, p 275 Lemme B) alors
de montrer que
p
P
3
Œ:
1i ~ 1Vi - Œ:( i ~ 1Vi) 1
~
o.
p
2
n
---. 00
n 1/2 var 3 /
(.l V.)
l = 1
l
3
3
En utilisant l'iné'~alité : (a + b)3 S 4(a + b ), a>O et b>O;
on a
p p p
p
3
Œ:I '
V.-Œ:( 'v.)1 3S 4 (Œ:I '
v_1 3 + IŒ:(' V.)1 ].
i f 1 1
i f 1 1
L i f 1 1
i f 1 1
p
P
3
Mais
Œ: 1 .l Vi 1 S Œ:(.l 1Vi 13 + lIV V V
j :1
j2
j3 1)
1=1
1=1
J
avec
j:)
{ (j, • j 2 • j 3 )
/
iL" pet (j , • j 2 •
"'0 ( 1 • 1 • 1 )
00
et
Œ:( ,
1v. V _ v.
1)
p ( p =
k)
Œ:( ,
1V - V.
v. 1/
k )
L
) 1 ) 2
J3
= l
L
):1
J2 J3
p=
.J
k= 1
J k
P
Œ:( ,
1v. V. v.
1/
k)S
k
L
J:1
J 2 ) 3
p=
S u P
K ( y)
Œ:(l 1V j :1V j 2 1/p =k )
h
yE[R
·J
j:1;z!j2
k
A ce dernier terme
on applique le théorème de Schwarz
dy
h
Œ:(p 3)M
2
DIOL!
IE('
Iv. v. v. 1 )S
f ( x ) f
K
(Y)dY
(
1
+ .c(n-'»)
L
J1
J2
J3
h 2
J
[R
p

·..~.~.~p...1.:t.f..~ ~..~
~~L~~.~..~.~!: ~~ ~.~ ~~!:~.~..~.~
.
Pa66'
22
..........................................................................................................--_
-
.
p
f(x)
3
1
CEe 2 IV~ 1)=
--f IK(y) 1 dy(1 + &(n- ») et
2
h
IR
j =1
P
3
1CE(
2v.) 1 = f 3 ( x ) ( 1 + & ( n-- 1) ) •
J
j = i
Par suite on a
:
p
p
t. 3
2
lin h 2CE
2f(x)Œ::(p3)SUp K(y)S K (Y)dY
1 : 2:" Vi -- Œ::( .
Vi) 1 ::;
n
--HXl
1=,
1 - ;
[R
< + 00
p
2
et
V .) = (nh) 1/ {hvar(2 V )}
+00
J
j
+00
j=1
p
p
Œ::
1.2 V. -- CE(. 2
1
1
D'où
1 =
1 =
quand
p
-
0
n
-
00
n
2
1/2 var 3 /
(.2: V.)
1 =
1 1
III. CONVERGENCE PRESQUE COMPLETE
( de f
vers f
à
support compact )
n
Dans toute l a sui te de 1 1 exposé on suppose que K est
positif et à
support compact [a,b]
tel
que ~ K(x)dx = 1
a
Posons ~ = [c,d] et pour tout & > 0 ~(&)
= [c+&,d--&]
111.1
Définition: Un6' suit6' de variabL&s aLéatoir&s
Xn
converge presque complètement vers une variabLe aLéatoir6' X •
si
pour
tout
~ > 0
,
~ p (IX - xl> E:) <+'00 .
n
n=
111.2
Lemme
: Si f
est
uniformsm.ent
continue sur [R aLors
.
S [x-y)
pour\\tout
entier
s
positif.
~ f
K
h
'
f(y)dy
tend 'uers
h
[R
f(x)J
KS(Y)dV
uniforrn.ém.ent
Lorsque
n _
+00 .
[R

Estimation d~
La d~nsité
...~~.!:'.~. p...~.~.[.~ ~.~
.
...........................................................................~~~~ ?.3
.
x - y
s
Preuve
:
1- S Ks (
.J f( y) d y ~ f (x) S K (y)dy
h
IR
h
IR
dlaprès le théorème
lA de Parzen [15]
f
uniformément continue implique pour tout ~ > ° ,
l'existence d'un Ti tel
que
If(x)
- f(x l ) 1< &
si
-Ix -
Xl 1< Ti •
Soit no tel
que
Iht 1< TI pour tout n > no et tout t E [a,b].
On a
b
S
h
S[RK
( x : y ]f(Y)d Y - f(x).f[RKS(Y)d Y
f_ K(t) [f(X-ht)-f(X)]dt
cl
b
~
f
E:
KS(t)dt
a
111.3 Corollaire:
Si
f est uniformément continue sur CR ,
aLors
sup
I[[Cf (x») - f(x) 1 ~ 0
si
n ~
...
00
iii
X E
IR
n
Preuve:
Il
suffit de prendre s=
1 et
utiliser le
théorème III chap 1
111.4 Lemme:
Si
f
est
continue sur n aLors pour
tout
E:
~
0
5 U p
1 [[C f
(x») - f ( x) 1 ~ 0
si
n ~
... 00 •
n
XE n(&)
Preuve:
On reprend le lemme précédent, et on utilise
'uniforme continuité de f
sur n en slassurant que x - ht et x
appartiennent à n
ce qui
est équivalent à
:
(1)
C
...
h Max(O,t)
~ x ~ d ... h Min(O,t)
Soient & > 0 et n
tels que pour tout
n ~ n
et pour
a
a
tout t
E
[a,b]
La relation:
( 2)
c
...
&
< x < d
impl ique
(1)
pour tout t
d'oll
IŒ:Cf (x») -
f(x) /:; &
n
uniformément en x satisfaisant
à
(2)

·..Ç~~.p..L~.:'.~ I.~
~~.~..~.~.~..~.~?: 9.~ ~.~ 9.~?:~.~..~.~
.
...........................................................................!.'.~~~ ?~
.
Si
la fonction K est continue il
existe alors une fonction
À(u)
(u ~ 0 ) qui
tend vers 0 en décroissant avec u telle que
(
'ri x et
xie [a,b]
)
IK(x)
-
K(x l ) 1 S À( lx -
xii).
À
peut être le module de continuité de K utilisé par
Cheng et Taylor [1]
et défini
par
w (a)
=
sup
IK(x)
-
K(x')I.
K
I x - x ' I S a
On
considére les hypothèses suivantes
i )
pour ~ entier positif
ii)
p
satisfait à
lliné'~alité de Bernstein i.e
a)
p admet des moments de tous les ordres .
b)
3
H > 0, 'ri k~ 2 ,
IECp -
Il ~ 1 Il)k Il ..::: k!
k-2
-
H
6
2
où 6
= Var(p)
111.5 Lemme
: On suppose,
que f'
es t
un prc){:::ess1..tS àe
0:1
Poisson.
Alors pour
toute fonction borélienne P
,
bornée et
p
positive,
2p(X ) satisfait à l'inéBalité de Bernstein
i
i =1
p
Preuve
: Posons V
= 2P(K.) et A= E(V ) =f p(x)d~(x)
p
1
P
CR
î =Î
L 1 i néqa lité V
..::: p sup
p(x)
implique que V
-
p
admet des
p
XE
CR
moments de tous les ordres
+00
p
IE(V p - A)sl :::; 2 IE(C 2P(Xi) - A)S / p= k JI P(p= k)
k=l
i=l
En utilisant
la propriété des variables Xl' ••• ,v
,
p
lorsque p = k , pour un processus de Poisson. on a
+00
P
::;
le
2
l
( 1 )
'1 E (C 2:P (X
A)s
1
p=
..:'"
1
-"
s
l A:::- J
i )
kJ 1
E (
2: CJ
2: p( Xi)
k'= 1
i = 1
:i:::O
i ::: 1

Chanitre II
Estimation de
La densité
1:"••• _•••••• _•• ~~ •••••••••••••••••••••• _••••••••••••••••••••••••• _... •••••••••••••
••••
•••••••••••••••• _•••••••••••••••••••••• -••••••••••••••••••••
•••••••••••
• • 0 • • • • • • • • •
...........................................................................~~~~~ ?.5
.
'"
où X.
i=
"
. . . ,k sont les variables non ordonnées correspon-
l
dant à
X"
••• 'X k
5
k
j
s-j
( 2)
2: C E ( 2: '1'( Xi) JJ A
~
5
j=O
i =,
s
- 1
j
J .
:S 2: C
E(tp(X
) l.) ••• E(tp(X
)
k) A
-
s
0(1. ! . . . O(k ! (
L
~
a
~
a
5-;
i
k
J.
j=O
0(
+ • • • +0(
=j
1.
k
Soi t
A =
sup E(tp(J('. )J) et B = sup CA,A)
on a
.
.
L
J = L • • • s
( 3 )
S
5
s-j
j
:S 2: cj(kA)j
:S
BS 2 J
c
k
B 5 ( ,
k)s
A
=
+
S
5
j=O
j=O
d'où
IE(V
- A)s 1 :S sS E(p + 1 ) 5 :S (2B)5 E(PS)
p
On a
s
IE(PS) 1
1 E [ 2c J (p -
Il ~ Il) j Il ~ Il s - j
S
J 1
j=O
5
:S
2C:IE(P - lilill) j I"~ Il 5 - j
::>
j=O
s
:S
21I~1I5-j cj
Hj - 2
• 1
J •
6 2 +
II~IIS
s
2
j=2
5
~
2 II~ 11 5 - j cj
j-2 ~I
H
::> •
6 2 +
11~lls
5
2
j=~.:>
2
:.;
2 tl~IIS- j Cj
;-2
H-
s!
6
+
tl~lIs
5
2
i - "
où on\\a posé
6 = 6 + H
"L
s!
6
:;
dès que
S
>
:2
,
d'où

Chaf?itre II
Estimation de
La densité
........................................................................................................................................................................................
...........................................................................!:.~~~ ?:.6
,
.
2
~
'"
1I~lIs-j
j
j
j
C
Hj - 2 ·'62
J •
+ 1I~lIs
s! 6
::S -
H
~ 1I~lIs-j C H =
s Z
2
Z
5
j=2
j=O
2
'"
s!
6
(1I~1I+ H)s
=-2 HZ
D'où finalement
2
""
s!
6
IE{Y
-
A)sl
::S -
p
2
2
H
111.6 Lemme:
Supposons que
L'hypothèse i)
soit vérifiée et
q ue f'
soit
un processus de
Poisson.
0:1
si
f
est continue sur ~ aLors
La reLation
h- 1 =o(_n_J impLique, pour tout;:; > 0,
Logn
s up
1f n ( x) - lE (f n ( x ) J1----+ 0
XE
~(;:;)
presque compLetèment
Lorsque n ----+ +
..
00

p
\\K(X-X
Preuve
D'après
le
lemme précédent
~
iJ
i = 1
h
satisfait à
l'inégalité de Bernstein avec 1p(X.)
,
et B = O(h)
d1après
le
lemme
111.2
.
Il
en
résulte que
p
Var (
O(h)
m
x -
x(n)
Notons
variance de
---'.:.... J et
h
Soit V tel
que
,
avec
V indépendant de
x
rv
V C >0 et 0
tel
que
o < ;M ::S 1/2

·..ç.~9.p...1.~.r..~ ~.I
~=.~..~.~.~..~.?~ ~~ ~.~ ~~~.~..~.~
.
Page 27
............................................................................................... .
.
on a d'après l'inégalité de Bernstein
( voir Fréchet [7,
p 150])
"" 2
C
-C
( 0)
P (1 f (x) - !E(f (x)) 1>
+ aa J::=;;
2 e
n
n
anh
nh
Choisissons C et a
vérifiant
~ >
( 1 )
""2
2
l.
a
a
C
"" 2
( 2)
- - + aa
::=;; l:"nh .
a
On obtient dans ces conditions
"" 2
""
"" 2 ~
( 3 )
2aa ::=;; Cio. + 0.0' ~ nhl:" •
nhl:"
l:"h
(3)
implique
:0.
< - - =
2
2
2g
2
h
E
Comme 52::=;; Vh
on a
- - : :
2
2 s
2V
Prenons a
=
La condition
aM::=;; 1/2 est alors
2V
satisfaite dès que l:" est assez petit
,
2
l:"
1:"2
~~2
2
2
a
0'
=
ns
:S
nh
.
~V
l:"
Prenons
C = - - nh
4V
C et a ainsi choisis impliquent
:
2
C
l:" nh
2V
l:"
~~
2
2
-
+ 0.0'
( - - ) ( - ) +
a
~ l:"nh
.
a
4V
l:"
2V
L'inégalité
(0)
implique
2
l:" nh
(4)
exp(---) .
2V
x-X.
Pour tout
i,K(
1J = 0 sauf S1 c + ah < x <d + bh
h
comme ah et bh tendent vers 0 si
n -4 +00,
on a
:
c + ah < c + l:" < d - l:" < d + bh
pour n assez grand
1
1
Posons k =(h-
] partie entière de h-
et partitionnons
a
(c+.c,d-l:") en kn
intervalles ~k
. Soient x et (
E
~
,n
k , n
'
on
a:

Chanitre I I
Estimation de
La densité
•••••••••••• 1":"
~............. ••••••
••••••••••••••••••••••••••••••••••••••••••••••••••••••••••••••••••••••••••••••••••••••••••
...........................................................................!:'.?~~ ?.8
.
-
-
-
~
~
-.
1f
(x )
-
lE( f
(x» 1 ::s
1f n ( x)
- f n (e) 1 +
1lE( f n ( x») -
lE(f n ( e ») 1+
n
n
~
~
+
1f n ( e)
- lE(f n ( e)) 1
~
~
~ + 1f n (ç) - [[(f n (ç») 1
Comme
si
n ~ + 00
m
et
~II~ Il
p.s
si
n ~ + 00 ,
n
1
,
l'inégalité (4) implique pour n suffisamment grand
2
E: nh
(5)
p( suplfn(X) - [[(f (X»)I>E:/2]::S 2nO-k exp(---) , on a
n
XE~(E:)
16V
2
0-
E: nh
2
n
E: nh
0-
(6)
n k exp(-
) ::s
exp( -
) .
16V
h
16V
n
- 1
En posant h
= E:
avec
E:
~
0
si
n ~ +00,
n
n
Logn
le second membre de (6) slécrit sous la forme
E:
(1
2
n
,E;
( 1 +
0-
-
-
)
T
=
n
E:

(1
=
n
n
Logn
16V
La série dont l e terme général est T
est convergente
n
pour tout CI. E IN *
111.7 Théorème
111.6 sont satisfaites
aLors
La condition
h- 1 = o(_n J
impLique,
pour
tout
E: > 0 ,
Logn
sup
1 f
(x)
- f(x)
~
0
presque compLètement
x E ~(E:) n
Lorsque
n ~ + 00'

·..Ç.~.~p.5.~.:..~ !.~
.
Estimation d~
~a densité
...........................................................................!.':9:!!!.~ ?9
.
Preuve
On applique les lemmes précédents en écrivant:
""
_ . -
-.
1f n ( x)
- f ( x) 1 :$
1f n ( x)
- [[Cf n ( x ) ) 1 + 1[[Cf n ( x ») - f ( x) 1.
III
Lorsque f ' est un processus quelconque, on aura besoin
du lemme suivant de Col 10mb [2,a]
.
111.8 Lemme
Soit
Z une variabLe a~&atoire qui v&rifie La
propriét&
(P)
: E(Z) = 0, 3 r > 0, 6 > 0, ~ k e ~, k ~ 2
2
2
IE(Zk) 1 s k; r k -
6

Si
Z.
i= 1, ... ,n
sont
n v.a indGpendantes qui ont mâme
,
distribution que Z,
aLors
p(;
p
i!,Zi > tJ < 2 ex (-
6 2
,
V t
2:
0,
t
< r
111.9 Lemme:
Si
p satisfait à
L'hypothèse ii),
aLors pour
p
toute
fonction boréLienne p,
bornée,
2p(X.) satisfait à La
i =,
l
propriét& (P)
du
Lemme 111.8
.
P
Preuve: Posons
v = 2
'"
p
p(X )
et A = E(Y )
i
p
i =1
Soit M = sùplp(x)1 et B = sup(M, lAI) , on a Iv 1 s Mp,
xe(R
p
r._,
ce qui
implique que Y
admet des moments de tous les ordr'es .
p
p
1 E (C 2
P ( Xi)
-
A)s
/
p =;
k J1 P (p = k) .
; =1
s
"l C~ (J,
j
1<p(X ) I)j lA 15
i
-
j=O

-Est.imation de
~a densit.é
.,.Ç!:t.~p..1.t.r..~ JJ
:
.
...........................................................................~::~~ ~..o
.
D10ù
IE(V - A)s 1 ::s; BS E( 1 + p)s :5 (2B)s E(ps) .
p
La démonstration s'achève comme dans le lemme III.S. m
111.10 Lemme
: On. suppose que 'Les hypothèses i),
ii) sont
satisfaites et
que
est un processus ponct.ue~ vérifiant
Les
conditions généraLes du paragraphe ,1
Si
f
est
continue sur ~,
aLors
La reLation
n
h - 2
--
o (
- - - J
. ,
lomp .. .
loque,
pour
tout
~
> 0
,
Logn
~
~
s up
1 f
(x)
- E(f
(x»)
1 ---.
0
presque comp~ètement
X
E
~(~) n
n
Lorsque
n
---.
+
ro

llII
Preuve: Nous reprenons la démonstration du lemme en 111.6
en appliquant les lemmes (en 111.8 et 111.9 )
On a
2 h2
a
~
n
(*)
p( suplfn(x) - [[(fn(X»)I>~/2J:; 2n k exp(-
)
XE.t.(~)
4/\\
où /\\ = {
6(2B(H
+
II~II»)/ H}2
Le second membre de cette inégalité est inférieur à T n
défini par
a
2
2
( 2)
T
= ~ exp (- ~ nh
J
n
h
4/\\
soit al
un entier supérieur strictement à
al
~2nh2
Log(n
T )
=
Log2 + (a + a')Logn - Logh -
n
4/\\
Pour montrer la convergence de la serie de terme
générale T
, ,; 1 suffit de montrer que
n
(a + a')Logn - Logh
( 3 )
- -
0
si
n ----+ ro •
- 1
On
a pour n suffisamment grand h
< n, d'où
0 + 0 1
n
1 +0<+0. 1
< n
h

,
, Chapitre I I
Estimation de
La densité
1
• • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • •
........................................................................... ~~~~ ~..1
.
On en déduit que
-2
-1
01+01'
2 -1
nh
Log(h
n
.
) < (l+OI+OI')(nh)
Logn
n
,
2
L'hypothèse
h-
= (
J implique que le premier
!
1
o
Logn
f
!
'membre de (4) tend vers 0 lorsque n ~ +00 .
1
DI
;
111.11
Théorème
Supposons que
L'hypothèse i)
soit véri-
fiée et que f~1 soit un processus de Poisson.
Si
f
est conti-
nue sur ~
,
aLors
La reLation
n
- 1
h
Logn J
impLique pour
tout E
> 0
sup
1 f
(x)
-
f (x)
1 ~ 0
presque compLètement
x E .6.(E)
n
Lorsque
n ~ + 00 .
DI
Preuve: On applique les lemmes 111.3 et 111.6 en écrivant
~
~
f
(x)
-
f(x)
I:SI f (x) -EU (x»)I+1 EU (x») - f(x)
n
n
n
n
••
111.12 Théorème:
On suppose
t'hypothèse i) soit satisfaite
et que
est
un processus ponctueL
vérifiant
Les conditions
BénéraLes du paraBraphe l
.
Si
f
est continue sur ~,
aLors
La reLation
h -2
= 0 ( _n_ J
impL ique, . pour
tout
E
_,
a ,
Logn
sup
1 f
(x)
"':f(x) 1 ~ 0
presque comptètement
x E .6.(e)
n
Lorsque
n ~ + 00
Preuve: On utilise
la même décomposition de
fn(x)
- f(x)
précédente et les lemmes 111.3 et 111.10

IV . VITESSE DE CONVERGENCE
On utilise essentiellement les résultats établis dans
[S,a] pour le régressogramme
On suppose que
:

...ç~~.P'.j.!:..~ !!.......................................................... .
~~.~..~.~.~..~.?~ ~~~ ~.~ ~~~~.~..~.~
.
...........................................................................!:.9.~~ ~..2
.
iii) f est différentiable de dérivée bornée.
d -
c
.
2
iv) À(
nah
)= o(h ) pour un a entier positif
IV.1 Théorème
Supposons que f '
soit un processus de
0 1
min[~ ,~ )
Poisson
h
et
soit x =
n
[ Logn )~
aLors pour tout ~, ~ > 1/2
impLique pour
tout
t: >0
~
X
sup
If (x)
- f(x) 1 --+ 0
n
n
xELl(t:)
presque conpLètement
Lorsque
n --+ + co
Preuve
On a pour tout x et Xl
de ~
If(x)
- f(x ' ) Is Dix - xii, D étant une constante
Appliquons de nouveau llinégalité de Bernstein
2
[ ~
~
C
Cl.o)
C
(0)
P
Ifn(x)
- Œ:(fn(x»)I> - - + -
S 2e-
.
Cl.nh
nh
On choisit a et C vérifiant les conditions
C
t:D
(1)
et
( 2)
+ Cl.V S
Cl.nh
X
nt:D
V étant tel
que
D'où
1 i néga 1 i té
CI.
<
2VXn
~
Dt:(Logn)
mais
>
On prendra alors
2VX
2V 1""'nh
n
o
Dt:(Logn)
CI.
=
et par suite d1après (1)
~V2-rnh 20
D F (Logn)
c =
4V
~
C
(Logn)
Dt:
C~n
a
=
Dt:
< - - -
Cl.nh
2-rnF\\
2Xn
d'où
la condition (2)
est véri~iée .

Chapitre II
Estimation de
~a densité
..........................................................................................................................................................................................
............................................................................~~~~ ~..3
.
D'après le lemme 111.4, on a uniformément en x E ~(E)
~
b
(3)
IŒ(fn(x») - f(x) 1 =
If K(t)[f(x - ht)
- f(x)]dtl
a
.
::; DM a x. ( la l,lb 1) h •
DMa x ( 1al, 1b 1) h
2Max (1 al, 1b 1) h
Min (-rnh ,h - 1)
=
(
)(
)
(8)
(Logn)
2JCn
2Ma x ( 1al, 1b 1)
(8)
E( Logn)
Ce dernier terme tend vers 0 lorsque n ~ + 00 ,
d'où dès que n est suffisamment grand,
DE
DMax (la l , lb 1) h < - .
(4)
2JCn
D'après le choix de C et de Ot,
(0)
implique
2
2
2(8)
D E
(Logn)
(5)
p (1 f (x)
- Œ:C (f (x» 1 > ~ J ::; 2 expC- - - - - - - - ) .
n
n
X
4V
n
Ot
En partitionnant ~ en
kn
intervalles ~
, on a pour
k , n
tout x et ç e
fJ. k
'
, n
~
~
2 (d-C
~
~
(6)
1 f
(x)
- Œ:C f
(x») 1 :s; -
À
J m + 1f n (1:) - Œ(f n ( ç ») 1
n
il
h
Ot
n
n h
rn
On a
~ 1I~111 p.s
n
L1hypothèse i)
implique que
1
d-c Jx
-
À (
~ 0
Si
n ~ + 00 •
h
n Oth
n
Des inégalités (5) et (6) i 1 vient
2 2
21&>
o E (Logn)
p(
~
Ot
(7)
suplfn(x)- Œ:Cf (x») 1 > ~~OJ ::; 2n kexpC-
)
n
.x efJ. ( E)
_t.
4V
n
et de
(3),
(4),
(7)
il
résulte que

...ç..~.9.p...1.!.:'.~ !.!
~~.~..~.~.~..~.?:.: ~~ ~.~ ~~:.=:.~..~.~
.
..
~~~~ ~.~
;
.
2 2
2~
D & (Logn)
2&0
Ct
(8)
P [ sup If n(X) - f(x)
2n
kexp(
)

1 > ~Js
xE..Ô.(x)
4V
n
Ct
2 2
2~
2n
D & (Logn)
Ct
(9)
2n
kexp(-
) s
exp(-
)
4V
h
4V
n
En posant
= &
&
--+ 0
si
n
--+ + 00 ,
n
n
h
Logn
le second membre de
(9)
s'écrit sous
la forme
( ' + Ct)
&
n
2
2
2~
n
D & (Logn)
(
) exp(-
)
Logn
4V
qui
est
le terme général
d'une
série
convergente.
D'Où
le
résultat désiré.
IV.2 Théorème:
Sl.{pp,OSons qw~ f '
uéri.·fi.e
l.es cond1.~ti.ons
généraLes du paragraphe 1,
et
que
Les hypothèses i i ) ,
i i i )
et
iv)
soient
satisfaites
min(~ h J
Soit
x =
n
( Logn J0
ALors pour
tout
~, 0 > '/2
,
La condition
h-'- o( _n J
Logn
impLiquent
pour
tout
& >0,
X
sup
If
(x)
-
f(x) 1 --+ 0
n
n
xEL'l.(&)
presque conpLètement
Lorsque
n --+ + 00
Preuve:
On
utilise
les
lemmes 111.8 et
111.9 et
l'inégalité
(8)
de
la démonstration du théorème
IV.'
en posant
2
A = { 6( 2 B (H + Il ~ Il ) ) / H} • l l vie nt
2 h202
n.s:
~
1
.
2.s:D)
(1)
0.
p ( sup If n(x) - f(x) 1> ~
:S
2n
k exp(-
)
XEL'l.(.s:)
n
a: A
n

Chapitre II
Estimation de
~a densité
........................................................................................................................................................................................
Pa~e 35
........................................
.
'"
.
::
-
~
n&2 h 20 2
Cl(
n&2
2n
h 20 2
Cl(
et
2n k exp(-
)

exp(-
)
.
~ A
h
~. A
n
n
Con·sidérons la série de terme générale
( 2)
T
=
)
n
h
~ A
n
on a
2
<&>
nh (Logn)
2<&>
( 3 )
2 > (Logn)
~ J }
d'où
Cl(
2n
(4)
T

exp(-
) .
n
h
A
- 1
En posant h
=
n
&
,&
--+
a S 1 n --+ +00 ,1 e s"econd
n Logn
n
de
(4)
s'écrit sous la forme
CH 1
2n
&
exp(-
) ,
n Logn
A
qui
est le terme général
d'une série convergente.


ç.~.~.p...1.:t.:'.~ I.~..~ :
_ _.._
~~!::~~:..~~!::::~ !:'.:..~~9.~~..E~~p..~.~.~.~ ~~:.. ~ .
...........................................................................!:'.~~~ ~..6
__
.
CHAPITRE III
CONVERGENCE ~RESQUE COMPLETE DE
f
vers f
uniformément continue sur ~
n
On se propose de démontrer le théorème suivant
111.1
Théorème: Soit f'
La prem.ière projection de f'
a~
a
vérifiant
~es hypothèses sénéra~es du parasraphe l
chap I I .
Si
~es conditions suivantes sont satisfaites:
-2
(n
i)
h
= 0
-'-o-g-n- J
Ô
i i )
IL
existe ô
> 0 .f Ixl f(x)dx < 00
~
i i i )
À(
x- 1 n-~ = o(x) , x ~ 0 , a e ~*, aô > 2 .
A~ors
m
x
_ X(n)
1
sup
I----nt) t
i
K (
h
i
J- f(x) 1 ----+ 0
xe[R
1
presque comp~ètement Lorsque n ----+
+00


Posons H
= ~w e 0 : p(w) = k ~
et ~k la tribu induite
k
sur H
par C

k
111.2 Théorème:
Supposons que p = k ( k ~
1 )
.
Si
ô
f Ixl f(x)dx < 00 pour un ô > a . a~ors Les uariab~es
[R
Ô
Xl'···'
X
appartiennent
, ~k '
k
à
L ( Hk
p)
Preuve:
Résulte du corollaire 111.7 chap l
.
En effet
on a
:::; f(x)
i=
1, .•• ,
k
l
gk(x)f(x)dx < +00
i = 1,...,
k

111.3 Cor.ollaire
: Supposons que
m = ma ( ma ~ 1)

si
f
ô
Ixl
f(x)dx < +00
pour ô
> a , a~ors pour i
1 , . .
[R
on a
rUl<n) j)
r
ô
,',
1y 1
-+= l " , d x
--
J
" l ' '-" J
[R

ç.~.~.P...~.!:"~ II.~
~~!:':~~~~~!:':~.~ ~~~~9.:::~ ~~~!?.~.~.~.~ ~~~ ~ .
...........................................................................~~!?~ ~..7
.
Preuve: La mesure moyenne de la première projection de
f(n) est n~l • Les variables x~n) i= 1, ••. , ma admettent donc
une densité f~(X)f(X) vérifiant f~(X)f(x) ~ nf ( x) •
..
Lorsque m = k ( k ~ 1 ) définissons, pour i= 1, ••. ,k ,
les variables v~n) par
l
v~n) = x(.nL;r
1
i
[Ix~n) 1 < (kn)o J
tS
Lemme IILl
Supposons que f
Ixi f(x)dx < +00 , tS > 0 .
[R
A~ors
j,H - x~n)J
(n) ]
1
K(
x
x :
Vi
J
----+
0 .
sup
nt)
xe[R
h
presque com.p~ètem.ent ~orsque n ----+ 00

(1)
m
(2)
p[ 2: CX~nl_ V~n») q]
k
~
=
{2: CX~nl- V~n») -;I! 0 • m
l
k]
=
i = 1
1
1
k=l
1=1
k
nl
V~n)-;I!
( 3 )
" ~ [.2: pCxl -
o , m = k)]
k=l
1=1
l
p(x ~ n) _ V~n)-;I! o ,
l
m = k) =
dP(w)
S
l
1
.
[1< n) 1> ( kn) ° , m = kJ
l Ix~n)(w)
n
(4)
S
ItS dP(w)
<
(kn)otS
[Ix~n)
(kn)otS
1 > (kn)o,
m = kJ
dès que n est suffisamment grand.
D'où
+00
[
~, sup 1
P
xe[R
nh

ç~.~.p...1.t.:..~ ~..~..~
~~~~~~~~~~~ ~~~~9.~~ ~~~p..~.~.~.~ ~~~ ~ .
Pa6e
38
.
..................................................................................................
.
+cc
+cc
l L
< + 00
Il
n=1 k=1
(kn}0.6-1
Lemme 111.2
Supposons que J Ix I6 f(x}dx < +00 , 6 > 0 .
[R
A 1. ors; ,
(n)
- Xi
J _ K(
sup
x
---+
0
xeIR
h
1. ors;que
n
---+ 00 •
Les variables V~n) sont celles définies dans la preuve
l
précédente
Preuve
Poson s
D( n , k , i)
=
[1 X~ n) 1 > (k n) Ol ,
1
,
1
{k [
x~n)J_ K(
00
x
h- v~n)J]/ m }
" ~\\~,Œ: J, K( _x_:_
= k
P(m = k)
J
00
{
k
[K ( x h-
X( n )
x
}
~\\~t ift P(m"k)
;
) -
K( h )]dP P(m" k)
D(n,k,i)
Soit
M = sup K(x)
. Il
vient
xe[R
00
k
IŒ:CAn(X»)1 ~ ~h ~ {;ft 2M J
dP}.
k = 1
. . •
D(n,k,l}
Et en tenant compte de l'inégalité
(4)
du lemme II!.1, on a
00
00
kn
2M
n
nh
L
2M
( k n ) 01.6
" hn
l
1
1[[CA
(x») 1 ::5
::5
-----et6
(kn)0.6-1
k = 1
k = 1
Comme nh ~ 00
et
0(6 > 2 , i 1 resulte de 1 1 i néga 1 i té que
1 i m
su p 1[[C A (x») 1 = 0 .
n
---)
00
xe[R
n
lemme 111.3
Supposons que
l.es condiLions du
Lhéor~me
111.1
soienL
vérifiées
AloT'~

~~~.P...~.:t.f..~ !.~.~
~~?::~~!:.~~?:::-:~ !:.!:.~~9.~~ ~~~p..~.~.~.~ ~~!:. ~ .
...........................................................................!:.::~~ ~.~
:
.
sup
nh ~{j1 K
[
m
y(n)
x
-
1
:
X~ n»)} 1
x
-
----+ 0
xe[R
r:ih i~1 KX
i
J
h
presque com.p1.ètement
1.orsque n ~ 00.

-
y(n)
Preuve
Si m = k , .K( X
i
J
= 0
i= 1 , ••• , k
h
y~n)
X
-
sauf si
a ::s;
------:....'
::s; b
c'est à dire S1
h
O!
ct
(kn)
+
ah ::s; X ::s; (kn)
+
bh

1
Soit E: > 0 , partitionnons l'intervalle
ct 2ct
1
[-(kn)O! + ah,
(kn)ct + bh ] en k k n
intervalles où k = [h- ]
1
désigne la partie entière de h-
et ~kn ces intervalles.
On a pour n suffissamment grand,
ct
2(kn)
+
(b - a)h <
3
ct 2ct
ct
k k n
kn
Soient x et < E ~- et posons
kn
m
v(n)
'::::
x -
f n(x) = n~
i
J
, on a
i ~/ (
h
p(l~n(x)
'::::
- (1
Œ:(f (x») 1>& ,m = k) ~
.?. 1,- (1 x
E:
P [
J
2
h
h
~ >- ,m =
n
k]
p(l~n«)
~~
+
- Œ:(f n « » I>i ,m = kJ
2
:;
À( 3
p [
ct
J m- -
>~
m = k]
+
n
2 '
h
hn
......
.......
+ P (If n«)
- Œ:(f n(~») I>i ,m = kJ
m
comme
presque sûrement lorsque n
00
ét que
n

h-
~nctJ ~ 0 , i 1 vient pour n supérieur à no
(
n -+ 00
p(l~n(x)
ct
ct
d'où
,en posant B(n,k)
= [-(kn)
+ ah,
(kn)
+
bh
J, on a
~
p (
sup
1 f
(x)
Œ:(f
(x»)I>E:
n
n
xEB(n,k)

çJ:,.~.p..1.~.:"~ I.~.I
~~~~~!:.~~~::.~ ~!:.~~9.~~ ~~~p..~.~.~.~ ~~ ~ .
...........................................................................~~~~ ~.o
.
- 1
2
2
n& h
J) P(m = k)
On en déduit que
';::
sup
If (x)
~(fn(x»)I>& ,m =kJ ~
n
xeB(n,m)
Comme p admet des moments de tous les ordres et que les
f:,
sont indépendants et identiquement distribués,
m admet
1
00
donc des moments de tous les ordres; d10ù
2ka P(m = k)
k=l
existe. De même, comme dans la preuve du lemme 111.10 chap II,
avec le même raisonnement, on montre que
+00
,L 2a
k n
exp (-
Il
n=l
Preuve du théorème III. 1 : Elle r-esulte, de l'inégal ité
m
x(n)
x -
xe[R
;~/
~
sup
-
~(f (x») 1
1 ~h
(
i
J
n
h
(n)
Y
sup
+
x: i J}
xe[R
_ x(n)
1
sup
+
h
;
nh
J
xe[R
sup
~{_1
nh
xe[R
du corollaire 111.3 chap II et de l'iné'3a1ité
sup
xe[R
m
X(n)
-
A
1
(
x
;
J
&
pC sup 1- 2K
- [E(f
(x») 1 >
)
+
xe[R
nh ;=1
n
2
h
~
&
pC sup 1[E(f (x») - f(x) 1 >
)
III
xerR
n
2
1-

·.
-
Chanitre IV
.
Estimation de
ra Régression
.......... 1'7
~.................. •••••••••• •
.
...........................................................................~~!?:~ ~..1
.
CHAPITRE IV
ESTIMATION DE LA FONCTION DE REGRESSION
1. 1NTRODUCTION
1.1 Défi nition
Les notations sont celles utilisées dans
le chapitre II dont
nous conservons les hypothèses générales
.
Nous faisons 1 1 hypothèse sui vante
:
a)
Lorsque
P = k,
k;-:::
1;
IE(V /
Xj=x J, j =
1, ••• ,
k,
est
j
indépendante de
j
et de k
Nous nous proposons d'estimer la fonction de
régression
lE (V 1/ Xl = x J = VJ( x) .
Par convention si
p = 0
on définit
VJ(x)
= 0

Avant de proposer
un estimateur de VJ,
nous allons exa-
mi ner une conséquence de
1 1 hypothèse a).
1.2 Théorème:
Si,
Lorsque p
= k,
La fonction àe régression
lE (V j /
Xj =x J es t i ndé penàan t e de j = 1, ••• ,k et de k , al.ors
r(x)
= IE(V
Jyf * (x,y)dy
si
f(x)
~ 0
j /
Xj=x J
1
f(x)
!R
On définit
r(x)
-
0
si
f(x)
= 0
Preuve:
On suppose f(x)
~ 0

On a
1
j .
*
- j - - -
IE(V
Jyhk(x,y)f
(x,y)dy
j=l, . . . ,k
j /
Xj=x J = 9~f(X) [R
.
*
JYh~(x,y)f (x,y)dy
.2
J=O
[R
k
j ~o .~ ~ f ( x)
Cette relatidn étant indépendante de k
,
on a alors

Chapitre IV
Estimation de
La Ré8ression
.........................................................................................................................................................................................-
..............................................................................~9.?~ ~.2
.
.
*
fYh~{x,y)f (x,y)dy
[R
(1)
=
co
k
\\'
\\'
'3~f{x)
kfo j fo
pourvu que le numérateur et le dénominateur existent.
1
Considérons le numérateur du second membre de
(1);
On a
.!
1
pour tout
s"::
s
k
.
*
*
Î
\\'
\\'
Yh~(x,y)f (x,y)dyl :S Iylf (x,y) .'
kfo j fa
La condition
f Iylf *(x,y)dy < co implique alors que
[R
co
k
.
*
.
*
fYh~(x,y)f (x,y)dy ::; f
2 2 y~~(x,y)f (x,y)dy
[R
k=O
j=O
[R
= r yf *(x,y)dy
'[R
co
k
Comme
\\'
\\'
g~f(x) = f(x) ,
kfa j fa
on obtient le résultat désiré.

Nous proposons pour estimateur de lIJ la fonction lIJ
définie par
n
m
x
_
x~n)
2y~n)K(
h i
J
m
i ::; 1
si
2
(n)
X
i ::; 1
lIJ
(x)
i
J
n
o
sinon
ou Sim ::; 0
II. ESTIMATION DE LA FONCTION DE REGRESSION
On pose
:
r(x)
::; fyf*(x,Y)dY et on définit
[R
f * (x,y)
f(y/ ) -
51
f(x)
~ 0
x
f ( x)

Chapitre IV
Esti~~tion d~
La R~Br~ssion
................................-
-
__
.
........................................................................... ~~~~ ~..3
.
=
o
si
f{x)
= 0 .
II.1
Lemme: Si
L~s variabL~s
V.
i=
1, ..• ,p sont unijor-
1
mBm.Bnt born~~s ~t
si
r ~st uni j ormém.Bn t continu~ sur [R aLors
1
[P
-
X
sup
1-
Xi)]
r (x) 1
Œ:
i~,ViK[
-
-----+
0
X E
[R
h
h
Lorsqu~
n -4 + 00 •
t
-
x.
Preuve :Pour i=
l , •. , p ,
'P(X.,Y.)
= VoK(
,)
sont
1
1
1
h
~niformément bornées. On a d'après le théorème 111.2 chap l
,
U) f *(u, y) dudy
Posons
Q
= ~ u: f(u) ;II!. 0 ~ ,
J
*
YK(x ~ u]f*(u,Y)dUd Y =f
-
u)f (U'Y)f(U)dU]d
y [J ~ K(x
Y +
0;::
'~
h
f(u)
0;::2
Montrons que 1e second terme· est nul
; 1 l
suffi t
de
u
-
montrer que f_K(x
-
*
)t
(u, y) d u
o
. Or
, 1 1 i ntégrand est ~ 0
Q
h
et
J. (J::;-K( x - u)f '" ( u , y ) dU] d y = J-K( x - u)f Cu ) d u = 0 .
0;::
'->1
h
Q
h
Le second terme peut encore s'écrire
Le premier terme est égal
à
= J K(-x----=..u)r(u)du ,
f~
Il
d10ù
finalement
p
-
x
Œ:[
Xi] 1
2
x -
Yi K [
Jr'(u)K(
u)du
h
h
, -

~.~.~.P..~.:t.!.'.~ !.Y................................................................. ~~.~..~.~.~..~.~:.: ~~ ~.~ ~~~!:.~~~.~.~!} .
Pa8e 44
..........................................................................................................................................................................................
I~ IE[.Ï ViK[ x: Xi)] - r(x) HSIRK(V)[r(X -hv) - r(x)]dvl
.
1 = 1
r étant uniformément continue, pour E > 0 donné, il existe 6 et
no tel
que pour tout n 2: n
,
on ait
Ihv
o
1 < 6
pour tout v e
[a,b) et donc
b
IS[R K(v)[ r(x -hv)
- r(x)] dv
ES
1 ::;
K(v)dv = E:
a
uniformément par rapport à x .
II.2
Lemme: On suppose que Les variabLes
V.
i=
. . . p
1
sont
uniformément
bornées et
r
que est
continue sur ~
On a
aLors pour
tout
E
> 0
SUp
1
-
[[ [
xe~(
- r(x) 1 -
0
.
E:) 1h
Lorsque n _
+ 00

D
Preuve
Elle résulte de l'inégalité du lemme précèdent
r(x) 1 =
IS[RK(V)[ r(x -hv)
- r(x)] ~v 1
et on obtient le résultat en reprenant la démonstration du
lemme 111.4 du chapitre II
II.3
Lemme
On suppose que
Les conditions
i)
et
ii)
du
chapitre II sont
satisfaites et
que f '
vérifie
Les conditions
8énéraLes du para8raphe l
chap II
.
Si
r
est
continue sur ~
,
,
1
aLors
La reLation
n
-2
h
= 0 ( - - )
Logn
impLique pour
tout
E
> 0
~ y~n)K(_X_-_x_~n)J] ~[
5UP
1 _1
. nh
h
h
XE
h.(E:)
;=1

,
Chaf?itre IV
Estimation de
La Ré8reSStOn
-_............
..
.
.~. '-~'''"
Pa8e 45
..............................................................................................................................-
-..
presque compLètement
Lorsque n ~ + 00
Preuve
Il
~
tJ
~1
Soit M ;:: sup ~ IV.K(x) 1
i
~ 1 et x E ~ ~ , en posant
i
1
'1
'"
;::
'"
V
on a
Iv 1 ~ pM ,implique que V admet
P
p
p
des moments de tous les ordres
D'après le lemme II.2
,
A est borné pour x E
~(~)
et en
posant B;:: sup (lAI, M) on montre, en utilisant la démarche
'"
de la preuve du lemme 111.9 du chap II, que V
satisfait à
la
p
propriété (9) du lemme 111.8 du chap II
.
En utilisant ·1 'inégalité (1) dans la preuve du lemme
111.8 chap II
,
on a
:S
2n'\\ exp (-
La série dont le terme général
est le second membre de
(1) est convergente d'après le lemme 111.9 chap II
.
II.4 Théorème
Si
Les conditions d~ ré8uLarité d~s
L~mmes
II. 2 ~ t
II. 3 son t
satisfait&s,
aLors
l.a ro;;Lation
n
-2
h
= 0(--)
Logn
impLiquo;; pour
tout
~ >
0
1
m
x _ X~n)
1-
1
sup
l y~n)K(
1
J - r(x) --+ 0
. X el> ( ~ )
n h
;_ <
1
h
; \\
!
-
:
pr&sque compLèt&ment
Lorsque n -4
+
00


ç.~.~.P...~.tr..~ ~.Y.
"
~~.~..~.~.~..~.?~ 9:~ ~.~ ~~~~~~~.~.?~ .
Pa8e 46
....................................................................................................................................... -
.
Preuve:
Il
suffit d'écrire
1
m
x
-
x(n)
1-
sup
2: V~n)K(_ _i J - r(x) 1 > " ] "
xell.(&)
nh
i=1
'
h
+
P
-
r(x) 1 > ; ]
et d1appl;quer les lemmes II.2 et II.3

II.S Théorème:
On suppose
Les conditions de ré8uLarité
des
Lemmes II.2 et
II.3 satisfaites,
que f
est
continue sur ~
et
qu'iL
existe & > 0
teL
que:
inf f(x)
> 0
et
sup
IJtI(x) 1 < + 00
xe ~(&)
XE
-Ô.(&)
-2
n
aLors
La reLation
h
= 0 ( - - )
Logn
impLique pour
tout
&
> 0
~
.
S up
1JtIn ( x) - JtI( x) 1-----+ 0
xe ~(&)
presque compiètement
Lorsque n
- 4
+
00
.

Preuve
:
sup
]JtI
(x)
-
JtI(x) 1 :5
xe -ô'(&)n
r(x)
sup
x e .6.(&)
;=1
r(x)
r(x)
+
sup
x e .6.(&)
f(x)
nh

Chanitre IV
.
Estimation de
La Réeression
.........r:
_
.
...................:
~~§?~ ~.?
.
inf
y~n)
x
sup
1
XE .6.(E)
f
(x)
XE .6.(E)
n
; = 1
~
+
su p
Ilfi( x) 1
inf
x
sup
ICf - f
)(x) 1
n-
XE.6.(E)
XE.6.( E)
f
(x)
Xef.(E)
n
inf
sup
y~n)
r(x)
+
1
XE .6.(E)
f
(x)
{ XE.6.(E)
n
i =1
+
sup
11jJ(x)lsup
ICf-fn)(X)I}
XE.6.(E)
XE.6.(E)
~
Comme
sup
ICf - f
)(x) 1 -+ 0 presque complètement et
n
Xef.(E)
inf f(x) > O'; Il existe alors des constantes a > 0 et v >0
XE .6.(E)
telles que
a
~ f
(x) < v presque sûrement.
n
Le résultat désiré se deduit alors du théorème 111.11
chap II et du théorème II.4
.

II.6 Lemme
Supposons que
L'hypothèse i)
soit vérifiée et
que f'
soit un processus de poisson.
ALors si
r
est continue
0:1
sur .6.,
La reLation
-1
(n
J,
h
= 0
Logn
impLique pour
tout
E
> 0
presque compLètement
Lorsque n ~ + 00
III
Preuve
soit
()n
sait que

Chaoitre IV
Estimation de
La Régression
••••••••• 1:'"
:
.
..............................................................................~?:~~ ~..8
.
J
II(
V )
=
r(u)K( X -
u)du = A est borné pour tout
p
[R
h
X E
1l(.E:)
x
K(
où M est la borne supérieure des V. et '"
X.
des variables
1
1
f(x)
aléatoires indépendantes de densité TI;iI
'"
X
h-
Xi)J
K(
j}
En posant A =.
sup
IE{(M
et B= sup (A,A),
J = 1, . . . ,s
on montre,
comme au lemme 111.5 du chap II, que V
vérifie
p
.
11 inégal ité de Bernstei n , où B
O(h), d'après les lemmes
111.5 et 111.2 du chap II
. On en déduit que
s2 =Var
[
~ V;K[ x - X;]] = O(h) uniformément en x E 1l(.E:) •
.
1
h
1 =
2
Soit V tel
que s
5
vh
, V indépendant de x , en
utilisant 1a même démarche qu'au lemme 111.3 du chap II où on
m
X(n)
x -
1
substitue
2y~n)K(
i
J à f
, on a 1 linégalité suivante
nh
n
h
i = 1
m
sup
1
2y~n)K(
XE ll(.E:)nh
i=1
2
CI.
(_nh.E:
5
2n k exp -
J obtenue à partir de
16V
'inégalité (5) du lemme 111.6 chap I I .
2
La serie de terme g$néral
2nCl.k ex p (- nh.E:
J est alors
16V
convergente
On peut énoncer les deux théorèmes suivants

- - - - - -- -
, ~~.~p...~.t.!.'.~ ~y.
~~.~..~.~.~..~.~~ ~~ ~.~ ~~~!:.~~~.~.?~ .
Paee 49
.
t
.
II.7 Théorème: Si
Les conditions de réguLarité des
Lemmes
II.6
et
II.2 sont satisfaites, aLors La reLation
-1
n
h
= 0(--)
Logn
impLique pour
tout
e > 0
1
m
X
-
x~n)
1-
1
s up
2: y ~ n ) K (
,
)
-
r ( x)
~ 0
xeâ(e)
nh
i=l
'
h
presque compL~tement Lorsque n -4 + 00
II.8 Théorème: On suppose que Les conditions de réeuLarité
des
Lemmes II.2 et
II.6 sont satisfaites, que f
est continue
sur â
et
qu'iL existe e
> 0 teL que:
inf f(x)
> 0
et
sup
IVJ( x) 1 < + 00
XE
â(e)
xe â(e)
-1
n
aLors
La reLation
h
= 0(--)
Logn
impLique pour
tout
e
>
0
~
sup
Ilf' (x) - lf'(x) I~ 0
n
XE
â(e)
presque compL~tement Lorsque n
- 4
+ 00 .

Preuve du théorème II.7
: On écrit
m
x _ X~n)
ln: l y~n)K (---' ) - r(x)
h
i =1
+
et on applique
les lemmes
II.6 et II.2
.

Preuve du théorème
II.8
Résulte du
théorème
II.7 et
la démonstration est
similaire à
celle du théorème II.5
.

Chapitre IV
Estimation àe
La RéBression
...............................
.
'
..............................................................................~~~:: ?~
.
III. VITESSE DE CONVERGENCE.
On suppose que les hypothèses iii) et iv)
sont vérifiées.
111.1 Théorème: Supposons que f'
soit un processus àe
0:1
Poisson et
que r
soit
continue sur ~ .Soit
~
=
n
[ Logn ] ~
A l.ors pour
tout
~ > 1/2
,
La conài t ion
-1
n
h
= 0 ( - - )
Logn
impl.ique pour
tout
E
> a
m
_
X(n)
1
~
1-
x
i
J _
sup
l y~n)K (
r(x)l---t a
n XE~( E) nh.
l
h
l = 1
presque compl.ètement
Lorsque n ----) + co •
Preuve:
Elle est exactement simulaire à celle du
théorème IV.1
chap II
où on aura substitué
m
x _ x(n)
l y~n)K(
i
J à f (x)
et
r(x)
à
f(x)
n
nh i = 1
h
linégalité (6)
devenant
n~
1
m
-
c
m
<
d
n) ]
- /~ (
n
ct
J +
-
Œ[j,YiK[ f
h
n h
l~it1K( ( -
?- M
h
h
où M est· une borne uniforme pour les y •l
111.2 Théorème
Supposons que
l.es conàitions àu
théorème
II.7 satifaites et que f
soit
continue su ~ .
Min (-1~~
- 1
nh
, h
J
Sc,i t
2r n
[ LO'~n J0

1
~~.~.p..1.!!.'.~ ~':!.............................................................. ...!.:~.~:.~.~.~..~.?0. ~~ ~.~ ~~~!:~~~.~.?0. .
................................
!.:?:!?~ ?.1
.
A~ors pour
tout
0
> 1/2 ,
l.a condi t ion
- 1
n
h
;:
0 ( - - )
Logn
imp~ique pour
tout
E:
> 0
~
sup
!Wn(X) - 'IJ(x)
----+
0
n xeLl(E:)
presque comp~ètement ~orsque n -7 + 00 •

Preuve
:
On utilise la décomposition
l~n(X) - 'IJ( x) 1 :s
m
x(n)
-
1
K ( x
inf
+
nh l
v~n)
i
J - r(x)
{
sup
xELl(E:)
1
f
( x)
xELl(E:)
h
n
i ;: 1
+
sup
I/p(x)!sup
l(f-fn)(X)I}.
xELl(E:)
XE~(E:)
Le théorème 111.1 et la convergence presque complète de
sup
Ifn(X)
- f(X)!
vers 0 assurent le résultat désiré .•
XE~(E:)
111.3
Théorème
:. On suppose
a)
f '
vérifie
l.es conditions général.es du chapitre l
ainsi
o
que
l.es hypothèses ii)
.iii) et iv) .
b) Les conditions du
théorème
II.4
sont
s a t i s f a i t e s .
Min(~
j
, h-
J
50 i t
ze
=
n
[ Logn J20
al.ors pour
tout
0
>j/2.
l.a rel.ation
n
- 1
h
= 0(--)
Logn
impl.ique pour
tout
E:
> 0
x
-
X~n)
h
J -
1
r(x) 1 - - t
0
presque compl.ète~Rnt l.orsque n -7 + 00 •

Charitre IV
Estimation de
La Réeression
......................................_........................................
.
-
~
_
.
..............................................................................:~?:~~ _?.2
.
Preuve
Dlaprès le lemme II.3
la variable
p
~ K(_X_-_X_
y
=
L
1
satisfait à
la propiété (P) du lemme 111.8
p
J
i = 1
h
chap II
.En substituant
m
x
_
x(n)
2<n)K(__i J à f (x) et r(x) à f(x)
n
nh i = 1
, h
dans l'inégalité (1) du théorème IV.2 du chap I I ,
on a
le
résultat désiré.
111.4 Théorème:
On suppose que
a)
Les conditLons du
théorème
111.3 sont
satisaites et
qu'LL
existe ~ > 0
teL
que
inf f(x)
> 0
et
sup
I~(x) 1 < + OJ
XE
Ll(~)
XE
Ll(~)
b)
f
es t
cor"tin.1.1~ su b.
( ~
t-lin --Inh
SOL t
~
=
n
aLors pour
tout
i8>
:> 1/2 "
La reLat Lon
-1
n
h
= 0 ( - - )
Logn
impLiqu~ pour
tout
&
~
0
~
sup
l~n(X) - IJf(x) ~ 0
n
XELl(~)
presque compLètement
Lorsque n -4 + OJ

Preuve: On utilise
la décomposition de
comme au théorème 111.1
;le résultat désiré est obtenu grâce
au théorème 111.3 et au théorème IV.2 chap II
.

Ç~~.p..1.~.:'.~ y.
.
Simul.at ion
.....................:
~9.-~~ !?.3
.
V. SIMULATION
I.INTRODUCTION
L1étude d'un estimateur peut être conduite de deux
façons
a soit par les méthodes mathématiques de la théorie des
probabilités et de
la statistique mathématique.
~ Soit par la reproduction du fonctionnement de cet
estimateur sur ordinateur.
Ce dernier procédé porte
le
nom de simulation statistique
utilisé conjointement avec
le premier procédé,
il
donne une
justification des outils analytiques
utilisés pour
la cons-
tructi on et
l'étude des esti mateurs
.
Nous donnons
les
graphiques de
la densité et de
la
régression
,obtenus en
programme Basic,
à
partir des estimateurs proposés
Les programmes simulent des échantillons de
taille
n
quelconque d'un processus de
POISSON
non
homogéne de mesure
moyenne admettant
la densité
f(x)=exp(ax)
sur
[,0
1]
(pour exemple)
Les
valeurs de
n et de a
sont demandées à
'utilisateur-
ensuite
le programme calcule et donne
une
représentation gra-
phique de
la fonction
f
et de
son estimateur en
utilisant
la
méthode du
noyau
.
Dans
le cas de
la
régression,
ces programmes simulent
des couples de processus ponctuels tels que:
les processus première et seconde projection soient de
Poisson
non
homogène de même mesure
moyenne
de
densité.

ç..~~.P".~.~.r..~ .Y.
:?~.~:!.~.~.~..~.?.!:l: .
...........................................................................~~~~ ~.~
.
f(x)= exp(ax)
sur
[0,1]
; puis donnent
un graphique de ~ (x)
n
sur
[0
1]
Les noyaux
utilisés sont:

le noyau
normal
ou de LAPLACE GAUSS et

le noyau de CAUCHY.
les modifications,
à faire dans les programmes par
le choix
d'une autre fonction f,
seront explicitées dans
les pages
suivantes
le matériel
utilisé pour cette simulation est
un
micro-ordinateur OLIVETTI M 290 S sans autres extentions
ni
coprocesseur mathématique
Du fait de ce matériel
minimal,
on
est confronté aux problèmes suivants
-
Dépassement de capacité pour
les valeurs
a > 5 et n > 100
.
-
Imprécision des calculs dans
le traitement de données qUi
sont proches de zéro
.
-
Durée d'exécution des progammes très
longue
jusqu'à des
heures pour
les échantillons de taille
n > 200
.
(Pour
les
graphiques présentés,
la durée d'éxécution est d'environ
12 heures par graphique
.)

r
ç,.~~.P...~.~:"~ y.
.'...................... .
~.~.~~.~.~.~..~.~!:: .
...........................................................................~~~~ !?.5
.
I I .
ORGANIGRAMME
DES
PROGRAMMES
Les
programmes
présentés
fonctionnent
selon
le principe
suivant:
Le
programme
u t i l i sé
demande
la
valeur d1un paramètre
puis
attend
qu·on
la
lui
donne
pour
poursuivre.
!TAILLE DE
L'ECHANTILLON

?
_______1
---,
VALEUR
DU
PARAMETRE
P=
?
l
SIMULATION
1
.l
valeur
du
pas
pour
les
x : e =?
,k
IVa 1;=.ur du parametre de K : h =?
[ '
I _
1
1
J
AFFICHAGE DU GRAPHIQUE
0
1
l
1
0
!VOULEZ-VOUS
FAIRE
DES
IT ERATIONS
VOTRE
REPONSE
( 1
ou
0)
?
1
?
]
fvoUlez-vous
abandonner
cet
E D'ITERATIONS
EST
Léchantillon
réponse ( 1 ou
O)?
1
1
J.
1
1
FIN

ç~.~P...~.!'['!7 y.
.
SimuLation
.~ • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • 0-' •••••••••••••••••••
...........................................................................!:.?:!?~ ?6
.
III.
PRINCIPE DE LA SIMULATION
111.1 Analysé
Pour simuler un processus. de poisson non homogène f"0:1
de mesur.e moyenne admettant la densité f,
nous allons lui
,
associé un processus de Poisson homogène f'
.En effet
0:1
x
lE[N(f~,[O xDJ= F(x) = fof(t)dt= ~([o,xD
F étant une fonction continue et croissante, on peut
définir sa fonction réciproque:
F-'(y)
t
~ F(t)
= Y .
Soit le processus f'
defini
par
0:1
- ,
lE
[N(f~.,[ 0 ,-y- ] )J= lE [N(f~,[ 0 ,F-'(Y)] )J= ~oF ([O,y])
F ( 1)
= FoF- 1 (y)
y
=
y=
- F ( 1 )
F ( , )
f-
est donc un processus de Poisson homogène de paramètre
0:1
c
= F(1)
De plus i l
existe une bijection entre llensemble des points de
,
f"
et llensemble des points de f'
.En effet,si
X est
un point
01
0:1
,
1
de f"
alors son image est
T=
F-
(F(1}xJ.par suite i l
suffit
0:1
,
donc de simuler les points du processus f'
puis dlen déduire
0:1
ce u x de f"
"
0:1
REMARQUE'
En posant F(x)
= ~[o,x) et
h llhomothétie de centre 0 et de rapport
1/F(1);
on obtient
:
lE
[N (f: ,[ 0 ,-y- ] )J = lE (N(f" ,[ 0 ,F-'(Y)] )J= ~oF-'([o,YD
0:1
01
F ( 1 )
-
1
._ ,
- 1
- 1
= ~oF
'oh
<:.h([O,yJ)
'"
~,:.Foh
C[O,y/
F ( l » ) ) .

r
r
ç..~~.P'.~.!r..~..~.Y.
,
.
Siml1tation
...........................................................................~~~~ !?.7
.
la transformation hoF étant bijective
,diaprés le co-
,
rollaire 111.4 du chap l
le processus f'
transformé de f'
01
01
1
est un processus de Poisson de paramètre
h-
= F(l)
Remarque
2
Dans
le cas particulier où f(t)=exp(pt),nous avons:
- ,
F(x)
=(
exp(ax)
-
1)p
et
Pour une autre fonction f
il
suffit de
remplacer dans
- 1
les programmes de simulation les expressions de F et de
F
. •
111.2 Application
Clest ainsi
que la simulation des points d'un
processus de
Poisson non homogène se fait
en trois étapes
1°)
Simuler une
variable aléatoire de
Poisson de
paramètre:
c
= F(1)
- 1
P
c
= F(l)
= p
(e
-
1)
dans le cas particulier t r a i t é )
Pour cela
,on utilise
une suite de
variables aléatoires
n
uniformes
sur
[0,1]
IJ •
i = 1 , • • •
et on pose
P
= n IJ ••
1
n
i =1 1
Par un
resultat classique,
N
=min{ n /
P < e -c} ,
1
n
suit une
loi
de
Poisson de paramètre c.
2°) On génére N, variables uniformes sur (D,')
Xi
i=
"
. . . . ,N,
,
Les points
Xi(i=, . . . N )
sont
les points du processus f~1
1
3°)
Enfin
les points du processus f '
sont:
01
- 1
T.= F
ex.), i= "
. . . ,N,
1
1
-1
P
(T;=,p
Lo'~(' + Ce
-1)X;)
i=
1,
. . . ,
N,
dans
le cas
trait~
)

~~~.P..~.:t.~~ .Y.
.
Simu1.ation
...........................................................................~?:f!.~ ?.8
.
IV.
PRESENTATION DES GRAPHIQUES
Nous
présentons en an"nexe quelques graphiques.
Nous
remarquerons ainsi
que
les estimateurs proposés convergent
trésbien
sauf pour
les points voisins de zéro ou
un
; ce qui
est prévisible car dans 1 létude théorique de ces estimateurs,
dans
le cas où
la fonction f
est à
support compact ~ ,
la
convergence
uniforme nia 1 ieu qulà 11 intérieur de il
D'autre p a r t ,
pour les petits échantillons,
on arrive
à
des résultats acceptables; ce qui
laisse penser que les
estimateurs proposés peuvent servir quelle que
soit la taille
,
de "échantl11on u t i l i s é .
Le problème reste cependant celui
du choix du paramètre h
; ce problème même dans
le cas de
l'é-
chanti110n
n'est"pas encore réglé de manière satisfaisante.

1
Paae
59
PROBLEMES OUVERTS
Le travai1
que nous
venons de présenter pose des
problèmes intéressants de
recherches.
1°)
La conve~gence forte de 1 lestimateur de la
régression
lorsque le
noyau K n'est pas à
support compact.
2°)
Le choix optimal
de h pour
la simulation.
3°) Quel
estimateur proposer pour la
regression
lorsque
Y.
dépend des points X.
voisins
lorsque p
= k ~ 2, i et j
J
,
étant
inférieurs à
k.
Nous espérons pouvoir étudier ces questions dans le
cadre de nos préoccupations de
recherches
ultérieures.

~~~~~
0.!:.9:P!::.~.9.~~~
.
..............................................................................~9:~~ ~
.
y
TAILLE H: 1999
HOMBRE D'itèrations 199
VALEUR DE h EST: ,98
VALEUR DE pEST: 1
.....' .
....
..,'
1::""""" .,."
, ", '..,'"" :: :::::::::, .
f( xl :exp( px)
fn(x) par le noyau NORMAL
y
TAILLEN: 599
NOMBRE D'itèrations IQQ
VALEUR DEh ESt .1
.......
VALEUR DE pEST: 1.2
., ......
...........
: .
li':""
I(x),,,,,( 1.2 x)
1 .:::::::.. ,"''''''''''.''''.''''
fn(x) par le noyau CAUCHY

~~.~~.~
0.!".~P..T:::.~.9:~~~
.
.............................................................................. ~~!?~ ?
.
TAILLE N: 19
NOMBRE ~ itël'ations 199
UALEUR DE h EST: ,93
UALEUR DE pEST: 1
.............::/::::::.
.'
1 •;:::.:::::::,.::::::::::::>""::::>:: :::::
.
î(x):exp(px)
g
(n(x) pal' le n~au NORMAL
y
TAI LLE N: 19
NOMBRE D'itël'ations lB
UALEUR DE h EST: ,93
UALEUR DE pEST: 1
.::::.:"
1:::::::;:::::,"" •.••:' ,,,.,:::.... :::.:.
f( x) :exp( px)
rn(x) par le noyau NORMAL

~~~~~
~z::9.P.~~.~.9~~~
.
..............................................................................:~9.f.?~ ~
.
y
TAILLE H: 599
1
HOMBRE DE POINTS DES 599
PROCESSUS EST : 854
~ALElJR DE hEsr: .98
UALEUR DE pEST: l
dl'oite D:y=x
---rx
l'--.-<~~_-.........;
Q
REGRESSION DE YEN X m(x)=E(Y/X=x)
TAILLE H: 10
HOMBRE. DE POINTS DES le
fROCESSUS EST : 18
UUEUR DE h EST: .1
UA~EUR DE pEST: 1

Page
1
BIBLIOGRAPHIE
0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
BIBLIOGRAPHIE
[1]
CHENG,
K.F & TAYLOR,
R.L
(1980).
On the uniform compLete
convergence of estimates for
muLtivariate density
functions
and regression curves
.
Ann.
Inst.
statist.
Math.
32,
Part A,
187-199
[2)
COLLOMB,
G.
a)
(1979)
Conditions nécessaires et
s u f f i -
santes de converBence uniforme d'un estimateur de
La
régression,
estimation des dérivées de
La réBression
C.R.
Acad.
Sc.
Paris T.
288,
A,
161-163
b)
(1981).
Estimation non-parametrique de
La
régression:
Revue bibLioBraphique.
International
Statistical
Review
,
49,
75-93
[3)
COX,
D.Ran P.A.W Lewis
(1966)
The statisticaL anaLysis
of series of events
Methven,
London)
[4)
CURIONI,
M.
(1977)
Estimation de
La densité des
processus
de Poisson non homoBène .
pm p
Thèse de 3-
-
cycle,
Univ.
P.
et M CURIE,
Paris VI
(5)
DIA,
G.
a)
(1986)
Statistiques d'ordre dans
Les processus
ponctueLs,
estimation de
La réeression
Thèse d'Etat,
Univ.
P et M.
CURIE
Paris VI
b)
(1987).
Etude d'un estimateur de
La fonction
de ré5 ression pour un processus ponctueL à vaLeurs dans
s
~+x~ (5 ~ 1).
5ERDICA Bulg.
Math.
Publ.
13,
383-395.
c)
(1990).
Non-parametric
estimation of
the
density of point
process
.
statist.
Prob.
Letters,
10,
397-405

Page 2
BIBLIOGRAPHIE
0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
[6)
FAR IDA Dabouz (1984)
Proc~ss~s ponct~~ts, so~s-proc~ss~s ~t
~ns~mbt~ atéatoir~ .
h ~
d è m e
1
U'
T es€
e 3
cyc e,
nlV.
P.
et M Curie,
Paris VI
[7) FRECHET, M.
(1950).
R~ch~rch~s théoriq~~s mod~rn~s sur t~S
.
.
~mp
.
catc~ts des probàbitités .
Premler llvre (2- - éditlon)
[8)
GEFFROY,
J.
et QUINDEL,
P.
(1974)
Conu~r6~nc~s stochasti-
qU8s d~s répartitions ponctu~ttes atéatoir~s
Sep.
da Revi sta da Facul.
de Ci ênci as da Uni v.
de
Coimbra Vol.
XLIX
.
[9)
LEWIS,P.A.W (1972). R~c~nt r~sutts in statisticat anatysis
of uniuariat~ point proc~ss~s, in:
Lewis, ed,
stochastic
Point Processes:
Statitical
Analysis,
Theory and Application
( W;ley,
N.Y
)
[ 10)
N.o.DARAYA
a)
(1 965)
On non
parame tri c
~s t i ma t ~s of
d~nsity functions and rger~ssion curU9S
Theory Prob. Applic.
Vol
X,
186-190
Theory Prob.
Applic.
15,
134-137
[11)
NEVEU,
J.
Ecole d1été de st Flour
L9ctur~ notes
in Hath.

598
Spr;nger Verîag
[12)
MARION .J.M
(1985)
ponctu~t chro~~tiqu~ .
ème
Thèse de 3
cycle,
Un;v.
P~ et M. Curie,
Paris VI
[13)
MENDES Lopez
(1982).
Prob~~~~s d'9~ti~~tion dans
~95
pm'"
Thèse de 3- -
cycle,
Un;v.
P.
et ~1 CURIE,
Par'; s
VI
.

Page
3
BIBLIOGRAPHIE
0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
[14)
MOYAL,J.E
(1962).
The 6eneraL
theoryof
stochastic,poPuLation processes
Ac t .
Mat h,
108,
1 - 3 1
[15]
PAR2EN,
E (1962)
On the estimation of a
probabiLity density
function and mode.
Ann.
Math.
Statist.
33,
1065-1076
[16)
PREKOPA
(1958)
On secondary processes 8enerated by a
random point
distribution of Poisson type.
Ann.
Univ.
Sc.
Budapest,
Mathl,
153-170
[17)
RIORDAN,
J.
(1937)
Homent
recurrence reLations
for
binomiaL,
Poisson an hyper8eometric
frequency
distribution.
Annals of Mathematical
Statistics,
8,
103-111.
[18]
ROSENBLATT,M.( 1969).
ConditionaL
probabiLity density and
re8ression estimators.
In Multivariate Analysis
II,
25-31.
[19]
THEDEEN,
T
a)
(1964)
A note on
the Poisson
tendancy
in
traffic
distribution.
Ann.
Math.
statist.
b)
(1967)
On stochastic stationarity of
renewaL
processes
.
Arkiv.
Math.
87,
18,
249-263
c)
(1967)
Conver8ence and
invariance
questions for
point
systems
in
under random motion
Ark.
Math.
7,
16,211-269
[20)
TUKEY,
J.
(1961)
Curves
as
parameters and
touch
estimation.
Proc.
Four'th.
8er~k. Symp.
Math.
stat.
Pr'ob. 11,
681-694.