UNIVERSITE CHEIKH ANTA DIOP - DAKAR
ANNEE: 1994
THESE
présentée à
L'ECOLE NATIONALE SUPERIEURE UNIVERSITAIRE
DE TECHNOLOGIE (E.N.S.U.T)
en vue de l'obtention du
Diplôll1e de DOCTEUR - INGENIEUR
Spécialité: Physique
par
Mr Sidi Mohammed FARSSI
TITRE
VISION PAR ORDINATEUR:
APPLICATION A LA REALISATION D'UN OUTIL
D'AIDE A L'ANALYSE D'IMAGE NUMERISEE
soutenue le 29 octobre 1994 devant le jury composé de :
MM.
M.
DIOPSALL
Professeur à L'ENSUT de Dakar
M.T
NIANE
Maître de Conférences à L'Université de S.Louis
H.
NGOM
Maître de Conférences à L'ENSUT de Dakar
G.
SISSOKO
Maître de Conférences à L'Université de Dakar
G.
SOW
Maître Assistant à L'ENSUT de Dakar
A.
CORENTHIN
Maître Assistant à L'ENSUT de Dakar

DEDICACE
NOUS DEDIONS CE TRAVAIL
A
FEU OUSMANE SECK
QUI FUT ET RESTERA
POUR NOUS UN
SYMBOLE D'AMITIE ET DE
BONTE

A ma mère /
pour l'immense sacrifice qu'elle a consenti pour ses enfants.
A mon épouse, à qui j'exprime toute mon affection
pour son soutien moral permanent, notamment au cours de la
réalisation de ce travail
A mon frère,
je t'exprime toute ma reconnaIssance
A El Hadj Abdoul Aziz SY/
ma profonde gratitude d'avoir été à mes côtés à toutes épreuves

A toute la famille SY/
ma profonde reconnaissance

AVANT - PROPOS
Le travail présenté dans ce mémoire a été réalisé au Laboratoire d'Energies
Renouvelables (L.E.R) de l'ENSUT, Université Cheikh Anta Diop, dirigé par
Monsieur
Gustave Sow .
Nous tenons tout particulièrement à remercier:
- Monsieur
le Professeur A.L. DIA, Directeur de l'ENS UT.
- Monsieur Le professeur M. DIOP SALL , Professeur à l'ENSUT, pour l'intérêt
qu'il porte à ce travail et pour avoir accepté de présider notre jury de thèse. Qu'il
soit assuré de notre profonde reconnaissance pour les importants conseils qu'il
nous a prodigués.
- Monsieur G. SISSOKO, Maître de Conférences à l'Université de Dakar, qui est
le Directeur de cette thèse. Il a suivi notre travail depuis ses premières heures et
nous a permis de partager son expérience. Qu'il trouve ici l'expression de notre
sincère reconnaissance pour l'intérêt et le soutien qu'il porte à ce que nqus faisons.
- Monsieur M.T NIANE, Maître de Conférences à l'Université de Saint-Louis,
pour l'honneur qu'il nous fait d'accepter d'être le rapporteur de ce travail et pour
avoir accepté de participer à notre jury de thèse.
- Monsieur H. NGOM, Maître de Conférences à l'ENS UT, pour l'intérêt qu'il
porte à ce travail et pour avoir accepté de participer à notre jury de thèse.
- Monsieur G. SOW, Maître assistant à l'ENSUT, pour ses compétences
techniques dont il a su nous faire profiter.
Qu'il soit assuré de notre profonde
gratitude pour les conseils et le soutien qu'il nous a apportés tout au long de nos
travaux.
- Monsieur A. CORENTHIN, Maître assistant à l'ENSUT, responsable du
groupe traitement d'images, pour son initiation , sa grande contribution , et les
critiques constructives dans l'aboutissement de ce travail. Nous lui exprimons
notre profonde gratitude .

- Monsieur ].C TAPAMO, Maître assistant à l'Université de Saint-Louis, pour
l'honneur qu'il nous fait d'accepter d'être rapporteur de ce travail. Qu'il soit assuré
de notre profonde gratitude pour nous avoir fait profiter de ses observations pour
améliorer la rédaction de cette thèse.
Nous associons à ces remerciements:
- Monsieur O. MONGA, Chargé de Recherche à l 'INRI A, qui a bien voulu
s'intéresser à la rédaction de ce document et ses remarques nous ont permis
d'améliorer la présentation du travail réalisé.
Nous voudrons respectueusement
lui exprimer notre reconnaissance.
- Monsieur S. FONGANG, Maître de conférences, Directeur du Laboratoire de
Physiques de l'Atmosphère ( LPA) pour
ses remarques
et conseils.
Nous voudrons
respectueusement lui exprimer notre reconnaissance.
- Monsieur M. AD], Chef du Département Génie Electrique pour son soutien
constant et l'ambiance qu'il a su créer dans le Département,
- Monsieur T. SECK, Enseignant (Chercheur) au département Informatique
pour sa disponibilité et sa sympathie,
- Messieurs C. LISHOU , P. NDJA YE & P. ROUAN Enseignants (Chercheurs)
au département Génie Electrique pour leurs disponibilités et leurs sympathies.
- Tous les enseignants du département Informatique et Génie Electrique pour
leur disponibilité, nous leur exprimons toute notre sympathie,
- Tous les encadreurs et chercheurs des différents laboratoires, en particulier
tous nos collègues du L.E.R, du L.E.A, du L.P.A, du Département Génie Electrique,.
et du laboratoire de Génie Electrique de Créteil
qui, à des degrés divers, ont été
impliqués dans nos travaux, en particulier Monsieur E .PETIT P. BUNEL, O. DIOP,
K. TALL, O. ANNE, T.NDIAYE , C. MARR
& THEO pour nous avoir soutenu et
aidé dans les moments les plus' difficiles,
- l'ensemble du personnel de l'ENSUT quz, de près ou de loin a permzs de
mener à bien ce travail.
Que Mesdames, E. GAYE, K. LY & ].SARR ne soient pas oubliées pour avoir
fait preuve d'une gentillesse à toute épreuve.

Liste des .figures
CHAPITRE 1
1.1
a: Image échantillonnée avec 8 niveaux de quantifications
b: Image quantifiée
12
1.2
a: Image échantillonnée avec 3 niveaux de quantifications
b: Image quantifiée
12
1.3
Rotation de rr/4 dans une structure à maille carrée
13
lA
Rotation de rr/4 dans une structure à maille hexagonale
13
CHAPITRE II
ILl
a: Fonction de transfert d'un filtre fréquentiel passe-bas idéal
b: section méridienne correspondante
21
II.2
Filtre passe-bas de Butterworth
22
II.3
Filtre passe-bas exponentieL.
22
lIA
Filtre passe-haut idéal.
23
11.5
Filtre passe-haut exponentieL.
24
IL6
Filtre passe-haut de Butterworth
:
24
II.7
Filtre moyenneur spatail 3x3
27
IL8
Image originale de 512 x 512 pixels
28
II.9
Masque passe-bas atténuateur des contours
28
II.10
Masque passe haut extracteur de contour suivant Px
30
II.11
Masque passe haut extracteur de contour suivant Py
30
II.12
Comparaison entre filtre médian et filtre moyen:n~GtTI~qùèlques signaux
/t;>.'
',,',
.
.
'.'.
/ ~ ~~.
monodlmenslonnels
·:!J.: (
, .-~.\\
31
. .
,.
Irl .
. -'
\\ (.>\\
II.13
Application du filtre Medlan
.!:..: .. i..( I;>.. I'/; ..';-
~ ..L.;';-.n.
31
" ,
hlU'
II.14
,,~.
\\ . ' , !
E.x~mpled ~I~ment s.truc.turdnt .a.: elemen.t s\\l~~tllrant:
~0..fj
b. Image ongmale, c. umon , d. lntersectlon ..~: .. ·r
• .. • ..;, .. ,·
• .. •
••••

• .. ·33
.".<.
l\\\\'?A"
ILl5
1
E
d ,
'.... ( ne rf\\~.;7""
35
mage
ro ee
:·~·,
;.--:
..
Il.'16
Image Dilatée
35
ILl7
Courbes de changement d'échelle
36
ILl8
Principe du recadrage de la dynamique
AO
II. 19
Mise en évidence d'une zone d'intérêt de l'histogramme
AO
II.20
Image d'origine et son histogramme
.41

11.21
Mise en évidence d'une zone d'intérêt de l'histogramme
.41
11.22
Recadrage de la dynamique de l'histogramme
.42
II.23
Histogramme d'images
a: trop foncée, b: trop claire
.43
11.24
Transformation exponentielle
.43
11.25
Représentation tridimensionnelle d'une image. a: image originale
b: représentation en perspective, c: coupe suivant l'axe x
.44
11.26
Image initiale 512 x 512
.45
11.27
Profil de l'image initiale
.45
11.28
Section d'un contour idéaJ.
50
11.29
Section d'un contour réel non bruité
50
11.30
Représentation des opérateurs: a: ~O(f) et ~rr(2(f)
b: ~3rr/4( f) et ~rr/4 (f)
55
11.31
Dérivation en présence d'un contour, a: contour
b: gradient, c: Laplacien
55
11.32
Points utilisés dans l'algorithme de suppression
61
11.33
Laplacien 8-connexité seuillé
63
11.34
Laplacien 4 connexité seuillé
63
II.35
Sobel.
64
II.36
Prewitt
64
II.37
Opération d·ouverture
65
11.38
Opération de fermeture
65
II.39
Image Originale
66
II.40
Squelette de l'imge oroginale
66
CHAPITRE III
IIU
Architecture matérielle d'un système complet d·analyse
69
111.2
Systènle de traitement.
71
111.3
Les différents chemins possibles dans un processus de traitement d'image
7l
III.4
Organisation générale du logiciel SAPIN
74
111.5
Principe de l'égalisation d'histogramme
80
III.6
Résolution des effets de bord
83
111.7
Principe de fonctionnement d'un filtre médian
85
111.8
Masques utilisés pour le filtre médian a masque carré,
b: masque en croix, c: masque en X
85
IIUO Masques utilisés pour l'amincissement.
94

CHAPITRE VI
VI.l
Champ de vision de METEOS AT
102
VI.2
Image METEOS AT dans le canal visible VIS
102
VI.3
Image METEOS AT dans le canal Infrarouge IR
103
VIA
Image METEOS AT dans le canal vapeur d'eau WV
103
VI.5
Passage des coordonnées images (X,Y)
aux coordonnées géographique et inversment...
106
IV.6
Image B2 originale
111
IV.7
Inversion de la dynamique de l'image B2 originale et une rotation
lll
IV.8
Palette de couleur utilisée pour les images infra-rouge
112
IV.9
définition d'une zone d'intérêt...
112
IV.I0 Zoom éffectué sur la zone d'intérêt...
113
IV.ll
échographie mode A
116
IV.12 échographie mode B
116
IV.13
échographie mode T.M
117
IV.14
Principe de l'échographie Doppler.
117
IV.15
Tracé en mode TM des ventricules et des parois
120
IV.16 Principes des mesures
121
IV.17
image échocardiographique mode TM
123
IV -18
image TM Cl ère procédure de mesure)
:
123
IV -19
image T.M (2ème procédure de mesure)
124
IV.20
Représentation des axes sur le contour de l'image TM
I27
IV.21
Image origine
132
IV.22
Image amél iorée
132
IV.23
Transformation des niveaux de gris
133
IV.24
histogramme
135
IV.25
Détection par seuillage
135
IV.26
Laplacien
137
IV.27
Sobel.
137
IV.28
Extraction automatique de la racine principale
139
IV.29
Extraction automatique de la racine principale (avec une fenêtre plus grande)
139

Liste des tableaux
IV.l
Résultats des mesures et calcul des paramètres physiologiques
124
IV.2
Valeurs nomlalisées selon EDITIONS MSD MEDICALE
125
IV.3
Résultats des mesures et calcul des paramètres physiologiques
(Méthode automatique)
128

SOMMAIRE
INTRODUCTION
1
CHAPITRE l : IMAGE NUMERIQUE ET NOTION D'ANALYSE
1.1 Générali tés
5
1.2 Notion d'image
7
1.2.1 Représentation mathématique d'une image continue
7
1.2.2 Opérateur linéaires sur une image continue bi-
dimensionnelle
9
1.2.3 Numérisation d'une image
la
1.3 Structure d'une image
12
3.1 Structure à maille carrée
12
1.3.2 Structure à maille hexagonale
13
1.4 Transformation sur une image
14
CHAPITRE II : LE TRAITEMENT D'IMAGES
,
II. 1 Généralités
16
II.2 Suppression du bruit
17
11.2.1 Le brui t
17
11.2.2 Amélioration du rapport signal sur bruit
19
11.2.3 Amélioration par filtrage
19
II.2. 3.1 Fil tres linéaires
20
II .2.3.2 Filtre adaptatif ou non linéaire "filtre médian"
39
II.2.3.3 Filtres morphologiques
32
II 3. Les outils pratiques en traitement d'image
36
II.3.1 Transformation de la dynamique des niveaux de gris
36
II.3.1.1 Transformation de l'échelle des niveaux de gris
36
11.3.1.2 Histogramme d'images et ses traitements
37
11.3.3 Profil d'une image
44

SOMMAIRE
INTRODUCTION
1
CHAPITRE l : IMAGE NUMERIQUE ET NOTION D'ANALYSE
1.1 Généralités
5
1.2 Notion d'image
7
1.2.1 Représentation mathématique d'une image continue
7
1.2.2 Opérateur linéaires sur une image continue bi-
dimensionnelle
9
1.2.3 Numérisation d'une image
10
1.3 Structure d'une image
12
3.1 Structure à maille carrée
12
1.3.2 Structure à maille hexagonale
13
lA Transformation sur une image
14
CHAPITRE II : LE TRAITEMENT D'IMAGES
....
,
II. 1 Généralités
16
II.2 Suppression du bruit
17
11.2.1 Le bruit
17
II.2.2 Amélioration du rapport signal sur bruit
19
II.2.3 Améliora tion par fi 1trage
19
II.2. 3.1 Fil tres linéaires
20
II .2.3.2 Filtre adaptatif ou non linéaire "filtre médian"
39
II.2.3.3 Filtres morphologiques
32
II 3. Les outils pratiques en traitement d'image
36
11.3.1 Transformation de la dynamique des niveaux de gris
36
11.3.1.1 Transformation de l'échelle des niveaux de gris
36
II.3.1.2 Histogramme d'images et ses traitements
37
11.3.3 Profil d'une image
44

11.4 Segmentation
46
IIA.1 Seuillage de l'image
46
IIA. 1.1 Seuillage global
46
IIA.1.2 Seuillage adaptatif
47
IIA.1.3 Choix du seuil.
47
IIA.1A Recherche d'un seuil T optimise
49
IIA.1.5 Seuillage par la variation du gradient directionnel
50
II.4.2 Détection des contours
50
IIA.2.1 Opérateurs différentiels
51
II.4.2.2 Opérateurs dérivés filtrés
56
II.4.2.3 Opérateurs Optimaux
59
II.4.3.3 Le filtre de Canny
59
11.404 Amincissement des lignes de contour
61
11.404 Image binaire
Contour, squelette
61
11.4.5 Squelettisation
62
CHAPITRE III : DEVELOPPEMENTS LOGICIELS :LOGICIEL SAPIN
III.1 Système de traitement de l'image
68
111.1.1 Le capteur
:
69
III. 1.2 Le processeur analogique
70
III.1.3 Le processeur d'images
70
IIL1A L'ordinateur hôte
70
IIL2 Description du matériel utilisé
70
III. 3 Logiciel SAPIN (Sys tème d'Anal yse Pour Image Numérisée)
71
III.3.1-Choix du langage
72
III.3.2 Description du logiciel "SAPIN"
72
III.3.2.1 Menu principal.
73
IIIA Mise en oeuvre des procédures
74
IIIA.1 Procédures D'affichages
74
IIIA.1. 1 La représen ta tion des images
74
IIIA.1.2 Histogramme
78
III.4.2 Procédures de prétraitements et d'amélioration d'images
78
IIIA.2.1 Modification de l'histogramme
79

IIIA.2.2 Procédures de filtrages
82
IIIA.3 La segmentation des images
87
IIIA.3.1 Procédure du filtre SOBEL
87
IIIA.3.2 procèdure LAPLACIEN
89
II1.4A Routines de filtre standards
91
111.4.5 Image binaire
92
IlIA. 5. 1 Binarisation d'une image
92
IlIA. 5. 2 Opérateurs morphologiques
92
111.4.6 Squelettisation
93
IIIA.7 Opérateurs géométriques
97
IIIA.8 Opérateurs algébriques entre images
97
CHAPITRE IV: APPLICATIONS
IV.l Générali té
100
IV.2 Les images Satellitaires
100
IV.2.1 Le satellite METEOSAT
101
IV.2.2 Bandes spectrales utilisées par METEOSAT
104
IV.2.3 Programme ISCCP
104
IV.2.4 Les images du forma t B2
104
IV.2.5 Le système de visualisation d'images
104
IV. 2.6 Affichage des Images B2 sur écran vidéo
109
'IV.3 Images échocardiographiques
114
IV.3.1 Principes de l'échographie
114
IV.3.1.1
Les différents modes de représentation des
échos
115
IV.3.3 Techniques échographiques dans le domaine médical
118
IV.3.4 Problématique
118
IV .3.5 Amélioration des images échocardiographiques
119
IV.3.6 Mesures des structures cardiaques à partir des images
TM
119
IV.3.7 Méthode de mesure
121
IV .3.8. Interprétation des résultats obtenus
128

IV.4. lInages racinaires
130
IV.4.1 Acquisi tion des images
130
IV.3.2 Amélioration des images
130
IV.3.3 Segmentation
134
IV.3.4. Extraction automatique de la racine
138
CONCLUSION
141
BIBLIOGRAPHIE
143
ANNEXE
152

INTRODUCTION
Au cours des dernières années est apparu, sous la pression des grandes
mutations technologiques un ensemble, de disciplines interdépendantes, portant
sur le traitement par ordinateur d'images provenant de sondes spatiales,
d'observations biomédicales.... La miniaturisation et les capacités croissantes des
ordinateurs, ont contribué à l'essor d'une nouvelle science qui est celle des
systèmes de vision par machine, comprenant la prise de vue et son
interprétation; cette activité spécifique a pris le nom de Visionique ou Vision
par ordinateur ou Vision artificielle.
Ce domaine se divise en plusieurs branches parmi lesquelles:
- la saisie de l'image, sa digitalisation et ses traitements,
- la reconnaissance sémantique et l'interprétation de l'image,
- la vision tridimensionnelle, la modélisation des objets et de l'espace,
- la CAO, l'infographie et la synthèse d'image.
Aujourd'hui la vision par ordinateur est devenue un ensemble de techniques
qui combine les lois de l'optique à celles du traitement
du signal et de la
compréhension de scénarios d'objets.
Les domaines d'application du traitement d'image se classent actuellement
suivant trois catégories prépondérantes:
- L'imagerie aérienne et spatiale
dans laquelle les traitements concernent
l'amélioration des images satellitaires, l'analyse des ressources terrestres, la
cartographie automatique et les données météorologiques.
- Les technologies biomédicales dont l'exemple le plus connu utilisant le
traitement d'image est le scanner. On trouve aussi des utilisations de cette
technique dans l'échographie, la scintigraphie...etc, ainsi que dans le domaine de
la reconnaissance automatique de cellules ou de chromosomes.
- La robotique qui connaît actuellement le plus grand développement et dont
les tâches utilisant de l'imagerie sont principalement: l'assemblage (pièces
mécaniques, composants électroniques...), le contrôle de qualité, ainsi que la
robotique mobile.
1

A ces trois domaines, s'ajoute une multitude d'autres très significatifs de
l'expansion que connaît aujourd'hui ce domaine. Nous citerons pour mémoire:
la reconnaissance de l'écriture ou des empreintes digitales, la perception
tridimensionnelle pour la navigation de robots, les diagnostics médicaux, la
géologie,..etc.
Cependant, la complexité des formes naturelles constitue toujours un
obstacle pour leur reconnaissance, et il n'est souvent pas possible d'effectuer les
traitements nécessaires directement sur les données initiales. C'est la raison pour
laquelle on s'efforce d'obtenir une description compacte et structurée des images,
à l'aide de méthodes d'amélioration et de techniques d'extraction d'information
utile et de reconnaissance des formes.
Le traitem2nt d'image commence à voir apparaître un grand nombre de
machines spécialisées dédiées à des nouvelles applications allant des diagnostics
médicaux à la vision par ordinateur appliquée à la robotique et à l'intelligence
artificielle.
Cette abondance des
utilisations de traitement d'image a eu deux
conséquences importantes.
-la multiplication des logiciels d'applications spécialisés ainsi que des
logiciels des traitements "standards",
-la commercialisation de petites stations de traitements vendues "clefs en
main". Beaucoup de ces systèmes présentent l' avan tage d'être ouverts,
(programmable par l'utilisateur pour son application particulière) et dotés d'un
certain nombre de procédures standards.
Ces deux philosophies différentes ont fait apparaître des logiciels et des
machines spécialisées, qui offrent l'avantage d'une architecture optimisée pour
l'imagerie, et dotées d'une grande rapidité de traitement, mais dont le principal
inconvénient reste les prix prohibitifs pour les pays en développement. De plus
ces systèmes ne sont pas toujours en adéquation avec les besoins exprimés par les
utilisa teurs.
C'est pour ces raisons que nous allons, dans cette thèse, présenter une
architecture minimale. Elle s'appuie sur la structure d'un micro-ordinateur
compatible PC et une carte de traitement d'image MATROX PIP 1024 associés à un
2

logiciel "SAPIN" (Système d'Analyse Pour Image Numérique) ergonomique
d'aide à l'analyse des images, réalisé entièrement au L.E.R (Laboratoire des
Energies Renouvelables) de l'ENSUT.
Nous commençons par étudier dans le premier chapitre, l'image
numérique constituée d'un ensemble de points-image où l'on a accès à
l'intensité lumineuse locale de l'image. Les premiers problèmes rencontrés sont
relatifs au traitement de cette image numérique par analyse des niveaux de gris
de l'ensemble de ces points-image, ce qui fera l'objet du deuxième chapitre.
Le même chapitre montre
comment l'analyse
d'un
ensemble de
paramètres caractéristiques ou attributs, mesurés ou calculés en chaque point-
image, permet de décomposer l'image en régions d'aspect visuel uniforme et
homogène. Cette segmentation apporte l'indispensable compréhension de
l'information sans laquelle l'exploitation des images nécessiterait des moyens de
calcul prohibitifs.
Nous décrivons au chapitre trois
l'aspect matériel de notre système de
traitement d'image qui représente une architecture matérielle et logicielle
minimale permettant d'effectuer les différentes procédures rencontrées dans un
système d'analyse.
Enfin dans le chapitre quatre, nous donnerons les résultats relatifs aux
différents algorithmes développés et appliqués sur trois types d'images
(météosat,
échocardiographiques et racinaires)
et montrerons la facilité de
l'utilisation du logiciel SAPIN sur ces types d'image.
3

1 CHAPITRE 1 1
IMAGE NUMERIQUE ET NOTION
D'ANALYSE
4

IMAGE NUMERIQUE ET NOTION D'ANALYSE
1.1 Généralités
La représentation a probablement précédé l'écrit. A l'origine de l'écrit il y a
une pictographie. Que ce soit en Egypte, à Sumer ou en Chine, l'écriture débute
par des représentations figurées. Cependant le fond primitif de l'écriture a
rapidement disparu et ne forme guère qu'une infime partie de la graphie
moderne. L'image ne fonctionne jamais comme pur signe et actualise toujours
une certaine relation entre ce qu'elle est (objet signifiant) et ce à quoi elle renvoie
(concept signifié). On peut trouver de nombreuses définitions du mot "IMAGE".
En consultant par exemple le dictionnaire nous trouvons la définition suivante :
"Reproduction exacte ou représentation d'un être ou d'une chose". On peut
appeler image tout ce qui est une représentation d'autre chose (qu'elle même). Si
on nomme objet tout ce qui a une existence matérielle ou immatérielle, c'est à
dire tout être, toute chose et tout concept, les images faisant évidement partie des
objets, on peut diviser l'ensemble des objets en 2 catégories [36] :
- le monde des objets ,
- le monde des images, lui même subdivisible en trois groupes:
*les images physiques visibles qui sont parfaitement matérielles et de
nature soit permanente ( clichés photographiques, documents imprimés,
gravures, etc... ) ou volatiles (images optiques, constituées de photons dans le
domaine visible, ou les images électro-optiques comme l'écran d'un tube
cathodique).
*Les images physiques non visibles qui sont des images optiques hors du
domaine visible ou images de natures "immatérielle" : spectre physique, carte de
populations, de températures, de pressions, en générale représentations de tous
paramètres physiques non visibles directement.
C'est ainsi qu'une vue infra-rouge est non visible mais, après exposition
d'une pellicule sensible à ce rayonnement, elle devient une image visible
(exemple: les images tomographiques).
5

*les images mathématiques qui sont des concepts et sont donc invisibles
par nature. Elles peuvent être continues (f(x,y» ou discrètes, ce sont alors des
tableaux ou des matrices (c'est le cas en particulier des imgaes purement
synthétiques créées par ordinateur, tant qu'elles ne sont pas restituées sur un
système de visualisation) .
En mettant à part le cas des images mathématiques discrètes, les autres
images
sont généralement
continues,
tout
au
moins
à
notre
échelle
d'observation macroscopique.
Tout traitement qui transforme une image continue (image entrée) en une
autre image continue (image sortie) est un traitement analogique et de la même
manière un traitement
numérique, effectué généralement par un
ordinateur,
transforme une image discrète d'entrée en une image discrète de sortie. En plus
du traitement numérique, il est souvent nécessaire de récupérer une image
visible: C'est le rôle des systèmes de visualisations ou de restitution.
Un exemple de processus classique de traitement, partant de l'objet que
l'on étudie jusqu'à l'extraction de l'information dans une image, est donné ci-
après.
VISION PAR ORDINATEUR
quantité d'information infinie
' - - - - m r - -.....
quantité d'infonnarion finie
Acquisition de
' - - - - - . " , . . . . - _.....
de l'imge de l'objet
Amélioration de l'image
Partition de l'information
Traitement
d'images
Réduction de la quantité
EXTRACfION
DE
de l'information
L'INFORMATION
Classification
EXPLOITATION
DES
RESULTATS
Les différentes étapes d'analyse d'une image se décomposent en trois grandes
parties:
6

a) l'acquisition de l'information,
b) le traitement: qui permet l'extraction de l'information d'une prise de
vue et comprend deux phases dont l'importance est fonction de la complexité de
l'image, de sa taille et de la puissance des algorithmes utilisés pour le traitement.
* Prétraitement et segmentation.
* Extraction de l'information.
c) l'exploitation des résultats du traitement de l'image, dont le but est la
détermination d'un ordre de classement à partir des caractéristiques de
l'informa tion.
1.2 Notion d'image
Une image est toujours définie dans un espace à 2 dimensions. Elle
correspond:
- soit à l'intersection d'un objet par un plan de coupe.
- soit à la projection d'un objet.
Pour
une
image
numérique,
on
la
décompose
dans
un
espace
bidimensionnel en points élémentaires qui sont répartis sous forme de matrice.
Une image en niveaux de gris est définie par une fonction f (x,y), où f (x,y)
représente l'amplitude du signal discret au point de coordonnées (x,y) dans
l'image.
On appelle niveaux de gris, l'intervalle de quantification élémentaire du
signal f(x, y).
1.2.1 Représentation mathématique d'une image continue
On peut définir une image continue [48], par sa distribution énergétique
spatiale C, qui est fonction des variables suivantes:
- les coordonnées spatiales x et y,
- le temps t d'observation,
- la longueur d'onde À de la lumière émise.
Certaines limitations physiques obligent à borner cette fonction en vue
d'une description plus réaliste des images:
7

- l'intensité lumineuse d'une image est d'une part
toujours positive ou
nulle, d'autre part limitée en amplitude (exemple : saturation des supports
photographiques), aussi la fonction C est bornée, on a:
o ~ C ( X, y, t, Id ~ A
où A est l'intensité lumineuse maximale de l'image;
- une image physique est aussi à support borné, aussi:
-Lx ~ x ~ Lx
-Ly ~ Y ~ Ly
mage
- le temps d'observation de l'image étant limité on aura:
-T ~ t ~ T
Si on définit la fonction S 0,,) comme la sensibilité standard d'un oeil
humain, en fonction de la longueur d'onde À de la lumière, la fonction E qui
mesure l'énergie lumineuse perçue par l'oeil en un point de l'image x,y au
temps t est donnée par:
f:
E(x,y,t) =
(x,y,l, le) S (À) d OJ
o
On supposant l'image fixe, on obtiendra une fonction F, intensité
lumineuse, qui ne dépend plus que des coordonnées spatiales x et y :
F(x,y) = E(x,y,t)
Cette fonction F peut être également représentée dans un domaine spatial
infini comme la somme des amplitudes de distributions de Dirac cS pondérées:
8

F(x,y) =
( 1 )
-
00
où F(a,~) est le facteur de pondération de l'impulsion de Dirac située aux
coordonnées a,~ , conformément à la figure ci-après:
I.z.z Opérateur linéaires sur une image continue bi-dimensionnelle
Un système bi-dimensionnel est dit linéaire si sa réponse possède les deux
propriétés d'additivité et multiplication par un scalaire. Il vérifie la relation
suivante:
T {al FI (x/y) + az FZ (x/y) } = al T { FI (x/y) } + aZ T { FZ (x/y) }
où al et a2 sont des constantes et T une transformation linéaire.
Soit T une transformation linéaire de F(x,y) et G(x,y) comme l'illustre le
schéma ci-dessous :
F (x,y)
T [ F (x,y) ] = G (x,y)
...
T
~
T[
è5 (x,y)
è5 (x,y) ] = H (x,y)
Cette figure illustre également la transformation par T de l'impulsion de
Dirac qui conduit à la réponse impulsionnelle du système H (x,y).
Nous supposerons le système invariant spatialement, considérant que
cette réponse H(x,y) est identique en tout point (x/y).
On peut alors, en partant de la relation G(x,y) = T [ F (x,y) ] et en utilisant
l'expression (1), écrire:
9

-
00
Soit
H =T {8 ( x - a, y - ~) )
Le terme désigné par H constitue la réponse impulsionnelle d'un système
bi-dimensionnel, d'où:
fr;(
G(x,y) =
CI, Pl H (x-
CI, y- Pl d cr d P
( 2 )
-
00
qu'on exprime sous la forme d'un produit de convolution par:
G(x,y) =F(x,y) ® H(x,y)
1.2.3 Numérisation d'une image
La numérisation d'une image comprend deux étapes:
-l'echantillonnage de l'image continue,
-la quantification des echantillons obtenus.
Ces deux opérations sont effectuées lors de la lecture ligne par ligne de
l'image originale.
-Echantillonnage d'une image
Soit une image idéale f(x,y) non bornée. L'échantillonnage de cette
fonction est obtenu en la multipliant par une fonction d'échantillonnage spatial:
+oc
+oc
S(x,y) = l
l B(x - i~x, y- j~y)
1=-OC J==-=
Composée d'un treillis infini d'impulsions de DIR~~ 8, arrangées en une grille
d e pas d "ech
'11
anh onnage uX et uy comme l"ll~l~f'
A
A
l"l:.l-sfre a
"".
l:ga[e .
cl-après:
. '.'~..
,/----------" ,.'
~. t"
',-:,.,
•l .
~.
1 0
\\

L'image échantillonnée Fp (x,y) est donc représentée ainsi:
F (x,y) =F(x,y)*S(x,y)
P
+oc
+oc
= I
I
F (i~x,j~y) * o(x - i~x, y - j~y)
Î=- oc j=_oc
Cette représentation mathématique présente un grand intérêt dans l'étude
théorique des déformations produites par l'échantillonnage d'une image et des
moyens de reconstitution possible de cette image.
Une image discrète sera couramment représentée par une matrice
bidimensionnelle F(m,n). Un point élémentaire F(i,j) de cette image est appelé
"pixel" néologisme anglais qui vient de la contraction de l'expression"Picture
Element".
Quantification des échantillons
L'opération consiste à attribuer à chaque valeur continue f(x,y) une valeur
numérique fq(x,y) choisie parmi un ensemble fini de valeur discrètes.
Cette attribution est faite conformément à une règle qui consiste à diviser
la dynamique du signal d'entrée en n niveaux de quantification également
répartis et à définir les deux niveaux consécutifs fi et fi+l qui bornent la valeur
continue f(x,y). On affecte à chaque valeur f(x,y) la valeur quantifiée inférieure fi,
comme le montre la figure suivante:
1 1

f(x,yo)
avec Yo
8 niveaux de
fq (x,y 0)
constant
quantification
avec Yo
J
"
constant
gaIement répartis
"'
é
, I,-j "
--
1
1\\..
J
1 1
-L
x
a)
-x
b)
Figure I.1 : a: Image échantillonnée avec 8 niveaux de quantifications; b: Image quantifiée
Les niveaux de quantification peuvent ne pas être également répartis dans
le but d'améliorer l'image ou de
la corriger (prise en compte de la loi de
sensibilité logarithmique de l'oeil).
Le choix du nombre de niveaux de quantification est très important. Si
celui-ci est trop faible on obtient des faux contours, comme le montre l'exemple
suivant où on utilise que trois niveaux de quantification:
f(x'Yd
fq (x,y 0)
avec y 0
J
avec y 0
constant
1
constant
J
Faux
-
,
Contour
-
J
1
1 1 1
1
...
x
a)
x
b)
Figure I.2: a: Image échantillonnée avec 3 niveaux de quantifications; b: Image quantifiée
Pour éviter les faux contours, il faut utiliser un grand nombre de niveaux
de quantification mais cette précision limite la rapidité de la numérisation et
augmente l'encombrement mémoire des systèmes informatiques. Il faut donc
réaliser le meilleur compromis possible [47/48].
1.3 Structure d'une image:
L'image pEut être configurée selon deux types de structures:
1.3.1 Structure à maille carrée
Soit M la matrice des points-images du tableau rectangulaire. Dans cette
structure les points-images sont disposés suivant les lignes et les colonnes de la
1 2

matrice. Elle présente l'avantage de refléter l'échantillonnage du signal vidéo et
de permettre une manipulation mathématique simple de la matrice M. Par
contre, elle a l'inconvénient d'être variante en rotation (rr/4) et entraîne une
distorsion de l'image de départ comme le montre la figure 1.3.
.----------11,... X
......---------fIII~ X
0 0 0 0 0 0 0
0 0 0 0 0 0 0
o 0 0 0 0 0 O
....~I
o
0 0 0
rotation
o
0 0 0 0 0
o
0 0 0
Figure 1.3 : Rotation de 1t/4 dans une structure à maille carrée
1.3.2 Structure à maille hexagonale
Cette structure présente l'avantage d'être invariante en rotation. Cette
propriété est liée aux caractéristiques de cette forme géométrique qui permet une
rotation sans distorsion (figure 1.4).
x
o
0
0
0
0
0
008°~o>:0
o
0
0
0
0
0
A
0
0
0
o
0
0
0
0
y
Figure lA : Rotation de 1t/4 dans une structure à maille hexagonale
Remarque
Le modèle d'image numérisée, introduit au début de ce chapitre, nous a
appris que l'image originale est réduite à un tableau de NxM pixels codés sur m
bits représentant 2m niveaux de gris f.
Chaque point d'une image numérique
A(x,y) a quatre voisins horizontaux et verticaux et quatre voisins diagonaux.
-Voisin d'un pixel
Un pixel, représenté par son intensité ou niveau de gris {(x,y), "attribut du
point (x,y)", a quatre voisins aux points:
(x+l,y)
(x-l,y)
(x,y+l)
(x,y-l)
1 3

Cet ensemble de pixels appelé 4-voisins de f est noté N4(f) et représente les
pixels aux points cardinaux de fo
Les voisins diagonaux de f se trouve aux points
(x+l,y+l)
(x+l,y-t>
(x-l,y+1)
(x-l,y-l)
Ce nouvel ensemble est noté ND (f)o Les ensembles N 4 et ND réunis
constituent l'ensemble NS (f), appelé 8-voisins de f.
(x-l,y)
(x-l, y-l)
(x-l, y)
(x-l,y+l)
(x,y-l)
(x , y)
(x,y+l)
(x, y-l)
(x , y)
(x,y+l)
(x+l,y)
(x+l,y-l)
(x+l, y)
(x+l,y+l)
4-Connexi tés
8-Con nexi tés
1.4 Transformation sur une image numérisée
Soit une image discrète bornée, représentée par une matrice
F (nI, n2) avec nI = 1,2 . 00NI et n2 = 1,2 000N2
Soit la réponse impulsionnelle d'une transformation T sous sa forme
ma tricielle:
H (h, 12; m}, m2) avec h = 1,20 . 0LI et 12 = 1,20 00L2
La généralisation au cas discret de l'expression de l'intégrale de
convolution (2) permet d'exprimer G(m}, m2), la transformée par T de F(n}, n2):
ml m2
G(ml,m2) = l
l F (nI, n2) H (ml- nI + 1, m2 - n2 +1; ml, m2)
nl=l n2 =1
Le terme H (11, 12; ml, m2) est appelé noyau de convolution ou masque de
convol u tion.
14

1 CHAPITRE
II 1
LE TRAITEMENT D'IMAGES
1 5

LE TRAITEMENT D'IMAGES
II. 1 Généralités
On peut dire que l'on traite une image, dès lors que l'on extrait une
information de cette image[37/ 48].
Cette façon de voir n'a aucun rapport avec la création d'images purement
synthétiques à i' aide d'un ordinateur. Ce domaine, la création d'images
artificielles ou images de synthèse, ne fait donc pas partie de ce qu'on a coutume
d'englober sous le vocable "traitement d'images" ou vision par ordinateur.
Ceci étant précisé, il existe de très nombreuses façon de traiter des images.
Une première manière de tenter une classification des types de traitements est de
se référer au but poursuivi.
1- On peut chercher à améliorer sa qualité, qu'il s'agisse d'une qualité
subjective (rendre plus agréables à l'oeil) ou d'une qualité objective, donc
mesurable. On peut améliorer son contraste, accroître la perception de certains
détails ou contours, faire ressortir plus nettement certaines zones ou formes,
dimin uer les bruits etc....
Il s'agit donc de techniques d'amélioration qui font appel à des procédures
variées (modification d'histogramme, convolution ou filtrage linéaires, filtrage
non linéaire et filtrage
morphologique) créant des lissages, accentuation des
contours, rehaussement, etc...
2- Améliorer la qualité d'une image peut aussi signifier qu'on cherche à
retrouver une image "idéale" de l'objet qui a été dégradée par divers processus:
On veut corriger les distorsions géométriques ou photométriques d'un capteur
dans le cas des images satellitaires etc ... Il s'agit des techniques de restauration.
3- On peut chercher à détecter la présence de certaines formes, certains
contours ou certaines textures de modèle connu, sans vouloir préserver les
autres informations contenues dans l'image.
1 6

4- On peut chercher
à extraire les informations contenus dans les divers
objets de la scène, sans toutefois fournir d'interprétation; les techniques de bases
sont
essentiellement l'extraction d'attribut, c'est à dire de "forme" (contours,
textures) et la segmentation de l'image en zones présentant des caractéristiques
spécifiques, grâce à l'utilisation de seuillage, extraction et poursuite de contours,
érosion-dilatation, etc...
La classification des formes dans des catégories préétablies utilise les
principes de la morphologie mathématique.
II.2 Suppression du bruit
II.2.1 Le bruit
Les images sont sujettes à un grand nombre de bruits. Certains sont dûs en
particulier aux imperfectionnements de la source (photons ou électrons) qui
active l'image, au capteur (caméra, détecteur électronique) et enfin de toute
l'électronique de transfert.
On peut donc exprimer l'image S après transfert comme M = S + B
où B
représente le bruit additif.
Dans d'autres cas le niveau de bruit est proportionnel au signal vidéo. On
peut écrire
M = S + B.S
C'est le cas du bruit engendré par le "spot" d'un balayage télévision.
Un des bruits très souvent présent dans les images numériques est le bruit
de quantification, qui se manifeste à l'intérieur d'une zone de niveau de gris
homogène par des points isolés d'intensités différentes (souvent plus ou moins
un niveau de gris). Ce bruit, est couramment appelé ''bruit poivre et sel" .
II.2.2 Amélioration du rapport signal sur bruit
La qualité de l'image est améliorée en modifiant le rapport signal sur
bruit. La méthode la plus simple pour améliorer ce rapport consiste à appliquer
l'analyse des systèmes multicanaux, c'est à dire faire effectuer n acquisitions de
l'image (n sommations)[6].
Le bruit n'apparaissant jamais statistiquement au même endroit et sera
donc uniformément réparti, alors que le signal apparaissant toujours au même
endroit sera amplifié.
1 7

Supposons que l'on dispose de n images d'une même scène. Chaque image
Mï<x,y) est composée de même signal utile S(x,y) auquel est superposé un bruit
additif Bi(x,y) :
Mi(X,y) = S(x,y) + Bi(x,y)
i = 1, 2,3,
n
Bi(X,y) peut représente
le bruit de numériseur, le bruit de grain du film
photographique, etc. .. On fait les hypothèses suivantes:
-le bruit est un processus aléatoire stationnaire et ergodique, de valeur
moyenne nulle et d'écart-type (j
donc < B > = l'fi = 0
et < B 2> = "'B"'7 = (j 2
-Les Bi constituent n réalisations de ce processus; si n est assez grand on fait
l'approximation:
B 1 +B 2 +·· .. ····+B
~_-=-
--.:n = < B > = 0
n
-On suppose les bruits Bi(X,y) non corrélés entre eux. Mathématiquement
cette condition s'écrit
B. (x , y) B. (x , y) = B. (x , y)
. B. (x , y )
(i"* j)
donc ici
B. B. = 0
1
J
1
J
1
J
On peut définir pour chaque image un rapport signal sur bruit:
au point (x,y) : (S/B) i = S(x,y) 1 (j . Il est donc le même pour n images.
Faisons la moyenne arithmétique des n images et calculons le rapport
signal sur bruit qui en résulte.
n
1
L
M (x, y) = n
i= 1
(S (x , y) + Bi (x, y )) = S ( x , y) + B (x , y )
1
n
avec B (x, y) = -
L
Bi (x, y )
n
i=l
On constate que:
-le signal est inchangé
-le bruit B(x,y) a un écart-type (jB tel que
1 8

Le deuxième terme de cette expression étant nul, il reste:
n
2
_1_2. B?
1
n
2
= ----, (2. B. +2. B· B. )
aB = (n
i=l
i
n L-
i= 1 1
i:;t:j
1
J
1
n
2
1
= _
(2. B.) + -
(2. B. Bj )
n 2
i = l I n 2 i:;t: j 1
1
n
2
-:T
1
_
1
n
2
1
2
a
= _ 2.
B· +
2. ,B. B
na
1
j = _
2. a
n 2 i=l
2 l:;t:J
1
2 i=i
n
n O n
Soit
a
a =--
Bfi
S
S(x,y)
S
Le nouveau rapport signal sur bruit est:
=
= ~ (-)
~..
B
i
B
a
fi
s
s
=
~ (-)
~..
B
i
B
On peut dire que le bruit est divisé par la racine de n ou que le rapport
signal sur bruit est amélioré par le facteur racine de n .
II.2.3 Amélioration par filtrage
L'amélioration du rapport signal sur bruit, bien qu'étant une méthode
intéressante, ne suffit pas. Pour obtenir de bonnes images, il faut améliorer leur
qualité par ce que l'on appelle le filtrage.
Il existe un grand nombre de filtres possibles, mais à quelques exceptions
près, on peut les classer en trois catégories:
-fil tres linéaires,
-filtres adaptatifs ou non- linéaires,
-filtres morphologiques.
1 9

II.2. 3.1 Filtres linéaires
Il y a deux manières d'approcher les techniques de filtrage; la première est
d'opérer dans le domaine des fréquences; le moyen d'accès est la transformée de
Fourier (TF) qui fait passer des variables x,y du plan réel de l'image aux variables
dites de fréquences u et v du domaine complexe de l'image.
La deuxième façon de filtrer l'image est de s'attacher aux agrégats de pixels
qui composent l'image. On considère d'abord leurs attributs et parmi ceux-ci
l'intensité lumineuse au point (x,y) où ils se trouvent; les techniques qui traitent
le niveau de gris procédent du domaine spatial, c'est à dire du plan (x,y) de
l'image.
A- Le filtrage en fréquence" Optique":
Ce type de filtrage concerne les atténuations apportées à la gamme de
fréquence d'une image[28/37/49/52].
Ces filtres sont caractérisés par leur réponses impulsionnelles h(x,y) dans le
plan réel, qu'on appelle fonction de transfert H(u,v) dans le plan de fréquence.
Ainsi la transformation de Fourier (TF) du signal de sortie G(u,v) étant
égale au produit de la TF du signal d'entrée Hu,v) par la fonction H(u,v).
h(x,y)
f(x,y)
t
g(x,y) = f(x,y) @ h(x,y)
TF
F(u,V)
G(u,V) = F(u,v) . H(u,v)
H(u,v)
G(u,v) est le produit complexe équivalent au résultat g(x,y) de la
convolution du plan réel qui peut s'écrire:
g(x,y) = f(x,y) @ h(x,y)
G(u,v) = Hu,v) . H(u,v)
Remarque
Les fonctions sont équivalentes, pour atténuer la gamme de fréquences
indésirables ( basse ou haute fréquence), il suffit alors de construire une fonction
de transfert adéquate.
20

a-Filtre passe bas idéal
Il est construit pour atténuer les hautes fréquences
du signal de l'image
F(u,v) sans que l'information contenue dans les basses fréquences soit amputée.
Un filtre de ce type à symétrie circulaire et fréquence de coupure UQ à la fonction
de transfert H(u,v) de la figure II.1.a dont la méridienne est par exemple H(u,O)
(fig .II.1.b)
Ce filtre satisafait la relation suivante:
H(u,v) = 1 si D(u,v) ~ uo
= 0 si D(u,v) > uO
Le filtre est à symétrie radiale autour de l'origine; on définit alors:
D(u,v) = distance du point (u,v) à l'origine du plan u,v.
= ( u 2 + v2) 1 /2
et uo = seuil positif de coupure.
On le matérialise à l'aide d'une simpIe ouverture circulaire.
H(u,o)
b)
a)
o'-------l.-----1~ U
v
ua
FigureII.l: a: Fonction de transfert d'un filtre fréquentiel passe-bas idéal de fréquence de
coupure UQ, réalisé par une simple ouverture circulaire .b: section méridienne correspondante.
Ce filtre est dit idéal, car seules les fréquences à l'intérieur d'un cercle de
rayon uO passent sans atténuation. Le point de transition entre les valeur 0 et 1 de
la fonction de transfert H, correspond à la fréquence dite de coupure Uo qui sert de
référence pour spécifier les caractéristiques d'un filtre quelconque comparé au
filtre idéal. la fréquence uo,
physiquement irréalisable dans
un
circuit
électronique, est la valeur que prend D(u,v) pour u=uo. Dans un plan méridien
qui correspond par exemple à v=O, la distance D devient Do = D(uo, 0) et
représente le seuil de coupure.
b- Filtre passe-bas de Butterworth
La fonction de transfert est de la forme:
1
1
H(u,v) =
2
ou encore H(u,v)= - - - - - - - - - -
1 + [D(u,v)/DoJ n
1 + [ /2 -1 J [D(u, v) /Do]2n
2 1

Les choix portent sur les paramètres n et Do : n vaut couramment 1 ou 2.
Prenant par exemple n=l et Do = C--J2 - 1) on obtient le filtre suivant:
H(u,O)
H(u,v)
u
v
Fi&ure II.2: Filtre passe-bas de Butterworth, de section méridienne H<u,O) = V<u2 + 1)
Ce filtre est un passe-bas sans discontinuité brutale entre les fréquences
atténuées et les autres; il engendre moins d'effet de flou que le filtre idéal [37].
Son étendue étant infinie, il n'est réalisable que de façon approchée.
c-Filtre passe-bas Exponentiel
La fonction de transfert est de la forme:
D(u, v) n
H(u,v) =exp [.
D
]
o
n est un paramètre au choix qui donne l'ordre du filtre.
Si n=2 et 00= 1 on obtient le filtre de la figure II.3 suivante de méridienne
2
G(u,D) = e -u qui peut être réalisable de façon approchée.
H(u,v
112
' - - - t - - - t - - - t - - - - O(u,v)
v
----00
u
2
Fi&ure II.3: Filtre passe-bas exponentiel, de section méridienne H<u,O) = e -u
Ce filtre passe-bas a un taux de décroissance exponentiel et il
engendre un léger flou qui le distingue d'un filtre de Butterworth [27].
d-Filtre passe-haut
La fonction de transfert H(u,v) du filtre passe-haut, atténue les fréquences
basses sans toucher à l'information contenue dans les hautes fréquences. Comme
22

résultat, on doit s'attendre à une exaltation des contours d'objets initialement
confondus dans une image qui manque d'arêtes vives ou des contours nets.
Renforcer les contours et les extraire s'obtient dans le domaine fréquentiel par
l'application de ce filtre qui ne convient pas au filtrage d'un bruit composé
d'impulsions raides et aléatoires; il apparaît comme un complément du filtre
passe-bas.
Il satisfait la relation suivante:
H(u,v) = 0 si D(u,v) :::; Do
H(u,v) = 1 si D(u,v) > Do )
Cette fonction de transfert est schématiser par:
H(u,a)
o
u
ua
Figure lIA: Filtre passe-haut idéal de fréquence de coupure uQ
Ce filtre atténue toutes les fréquences à l'intérieur d'un cercle de rayon Do
sans toucher aux fréquences à l'extérieur; il n'est pas physiquement réalisable et
reste idéal.
e-Filtre passe-haut Exponentiel
La fonction de transfert est de la forme:
- (DO,[Xu, v))n
H(u,v)=e
n est un paramètre au choix qui donne l'ordre du filtre.
Si n=2 et DO = 1 on obtient le filtre de la figure suivante de méridienne
H(u,O) = e -1/u2
23

H(u,O)
1f2
u
1
2
Figure IL5 : Filtre passe-haut exponentiel, de section méridienne H(u,O) = e -1/u
n est un paramètre au choix qui donne l'ordre du filtre.
Si n=2 et DO = 1 on obtient le filtre de la figure suivante de méridienne
f- Filtre passe-haut de Butterworth
La fonction de transfert est de la forme:
1
1
H(u, v) =
2
ou encore =- - - - - - - - - -
1 + [Do/D(u,v)] n
1 + [/2 -1] [Do/D(u,v)]2n
Les choix portent sur les paramètres n et Do : n vaut couramment 1 ou 2.
Prenant par exemple n=l et Do = (-'J2 - 1) -1/2 on obtient le filtre suivant:
de méridienne :
1
H(u,O)
1/2
u
Figure II.6: Filtre passe-haut de Butterworth, de section méridienne H(u,O) = 1I(u2 /(u 2 + 1»
Conclusion
L'étude des filtres passe-bas et passe-haut, a montré que l'atténuation des
fréquences était ramené au produit F(u,v).H(u,v) équivalent au produit de
convolution de f(x,y) et h(x,y) du plan réel. L'opération est "chère" car il faut, par
(T F), passer de f, h, à F, H.
24

Le produit de convolution mono-dimensionnel s'écrit:
r+ 00
g(x) = f(x) ® h(x) =J f(a) h(x-a) da
-
00
Dans le cas d'un signal digitalisé, suivant un pas T ou un multiple k.T,
l'expression ci-dessus s'écrit:
n=-oc
Si les signaux sont symétriques par rapport à x= a et en nombre fini 2m+1,
si la réponse impulsionnelle du filtre a 2k+ 1 éléments et si k<m, le produit de
convolution prend la forme:
Il\\'F(m,l+k)
gl
= l
fn hl_n
SUP(-m,l-k)
Dans le cas où k«m, c'est à dire quand la fonction h du filtre est petite
devant le signal d'entrée, on peut simplifier la forme précédente sachant que les
extrémités du signal seront mal traitées; d'où la nouvelle expression:
l+k
gl
= l
f h
n
l _n
n=l-k
On reconnaît sous le signe L le produit des matrices fn = f1-k .. ··.fl ...... fl+ k et
hl-l = hk ....ho.. ·.h_k ;
On considère le signal f(x,y) correspondant à une image. Cette image est
supposée carrée et digitalisée; elle a pour caractéristique 2m+1 lignes et 2m+1
colonnes dont les indices sont 1 et l'; la fonction h(x,y) est une fenêtre carrée de
dimensions 2k+ 1. le produit g11' sera une image carrée de 2(m+k)+ 1 ligne et
colonnes et s'écrira:
l+k
l'+k
gll'
= l
l fnn, h1_n I-n'
n=l-k l'-k
Si k«m, cette formule est vrai partout sauf sur les bords; g est le produit
de deux matrices qui est d'autant moins "cher" à calculer que le nombre k est plus
petit.
On reconnaît l'analogie qui existe entre le filtrage et la convolution
effectuée par un balayage d'une image par une fenêtre ou ouverture au sens
classique.
25

B-Le filtrage spatial
Ce type de filtre envisage toutes les opérations directes sur les agrégats et
leur attribut principal: le niveau de gris; le but recherché est d'atténuer le bruit et
de faire disparaître les défauts et perturbation dans l'image initiale; on arrive
ainsi aux opérations d'adoucissement analogue au filtre passe-bas ou au
rehaussement qui est l'accentuation des bords qui s'apparente au filtrage passe-
haut[33].
Ce type de filtre fait appel au principe de la convolution de l'image avec
un masque. La définition de ce masque permet de caractériser le type de filtrage
mis en oeuvre.
Dans la pratique, les masques de convolution sont des matrices carrées de
dimension impaire. On centre ce masque sur chaque point de l'image l, puis on
effectue le produit des points de recouvrement entre l et le masque.
Le résultat (somme moyennée des produits) est affecté au point central de
la fenêtre considérée sur l'image.
a- Filtre linéaire passe bas
Le filtre le plus souvent cité et le plus étudié est le filtre passe bas
communément appelé filtre moyenne ur spatial [51] qui consiste à remplacer
chaque point de l'image par la moyenne de ses plus proches voisins.
Soit une fenêtre de convolution de taille mxn (m et n impaires), le niveau
de gris du point se trouvant au centre de cette fenêtre est remplacé par la
moyenne des niveaux de gris de tous les points de la fenêtre.
Soit une image d'entrée E, le niveau de gris d'un point (x,y) de l'image
moyennée S (figure 11.7) est donné par la relation de convolution suivante:
S(x,y) = L E(i,j) / (m.n) , avec: iE [l,m] et JE [l,n]
26

1
x
m
i'.... ~
y
~/(m.n)
J
..,..,
-
n
Figure JI.7 : Filtre moyenneur spatial 3x3
Cette opération est aussi réalisée par la convolution de l'image avec un
noyau de convolution du type Hl ou H2 décrits ci-dessous:
0 1 0
1
1
H1 = 1/5
1
1
H2 = 1/9
1 1 1
0 1 0
1
1
1
Dans le noyau Hl on limite les voisins du point de coordonnées i,j à 4
(4-connectivité) alors que pour le noyau H2 la connectivité est étendue à 8 .
Cette technique de moyennage réduit notablement le bruit, mais présente
un inconvénient important. L'amélioration par moyennage d'une image revient
à filtrer les hautes fréquences spatiales de cette image qu'on rencontre dans les
régions bruitées. Malheureusement, les hautes fréquences spatiales ne définissent
pas que le bruit. Elles traduisent aussi les brusques transitions de niveaux que
l'on trouve au bords des contours et auxquelles on doit la qualité de définition
d'un objet. La suppression de ces hautes fréquences introduit un flou aux limites
de l'objet.
27

Figure 11.8: Image originale de 512 x 512 pixels
Figure 11.9: Masque passe-bas atténuateur des contours
28

b-Filtre linéaire passe haut
Les filtres passe-haut[34/52] permettent de mettre en évidence les contours
entre les zones de niveaux de gris différents, mais n'éliminent pas le bruit de
fond.
Les masques ci-dessous mettent en évidence les gradients positifs suivant
l'axe des y et l'axe des x.
-1
-1
-1
1
o -1
o
0
0
~
o
=
1
-1
1
1
1
1
o -1
II .2.3.2 Filtre adaptatif ou non linéaire "médian"
Le principe de ce filtre consiste à centrer sur chaque point de la matrice une
fenêtre dont le nombre de points est impair.
La valeur du point central de cette fenêtre est alors remplacée par la valeur
médiane des points de la fenêtre.
La valeur médiane U m d'une variable aléatoire Un prise dans un ensemble
de n valeurs, satisfait les deux conditions suivantes:
p ( Un $ U m ) ;::: 1/2 et p ( Un ;::: U m ) ~ 1/2
En pratique on choisit une fenêtre 3x3 ou 5x5 pixels, centrée sur le point à
filtrer et par une méthode de tri sur 8 nombres, on attribue la valeur médiane des
gris environnants au pixel central.
Le filtre médian, à l'inverse du filtre moyenneur, a l'avantage de préserver
les contours comme l'indique la figure II.12 qui compare le traitement de
différentes transitions mono-dimensionnelles de niveau de gris par chacun des
deux filtres dont la taille est fixée à 5 pixels.
29

Figure 11.10: Masque passe haut extracteur de contour suivant Px
Figure 11.11 : Masque passe haut extracteur de contour suivant Py
30

ORIGINAL
FILTFE M:JYENNEUR
FIL TRE MEDIAN
wJlJJ
a) Escalier
L11l1llJ uJll
L1l1llJJ L1l1lllJ L1l1llJJ
b)RaITpO
~IIIIIII
C)lfTlllAsion simplo
""'"
J1L 11111111 J1L
d~"llUlsion trlplo
ul1lli l1lllli
o)trlo09lo
Figure n.12: Comparaison entre filtre médian et filtre moyenneur sur quelques signaux
monodimensionnels
Cette figure montre que dans tous les cas où la transition du niveau de gris
est discontinue (escalier, impulsion), le moyenneur est moins efficace que le filtre
médian. Le bruit au lieu d'être éliminé, est intégré dans la moyenne.
Figure n.B : Application du filtre Médian
3 1

II.2.3.3 Filtres morphologiques
L'utilisation de ces filtres est définie sur des images binaires, et est
généralisable sur des images en niveaux de gris car ils utilisent les propriétés de la
morphologie mathématique[39], Ces transformations peuvent s'effectuer en tout
ou rien, on obtient alors des filtres non linéaires.
II.2.3.3.1 Morphologies Mathématiques
L'ensemble des transformations morphologiques repose sur la théorie des
ensemblesD7]. L'idée principale de la morphologie mathématique est de
comparer l'objet que l'on veut analyser à une autre de forme connue appelé
élément structurant. Cet élément est un masque de forme quelconque dont les
éléments forment un motif.
II.2.3.3.2 transformation en "tout ou rien"
Si on considère une image comme étant un ensemble de points. Sa
structure est donnée par l'ensemble des relations que l'on peut établir entre tous
les points de l'image.
La transformation en tout ou rien donne un nouvel ensemble sur lequel
on peut effectuer des mesures pour quantifier l'information.
Pour ce faire, le choix d'un élément structurant est nécessaire. il peut être
un ensemble S de géométrie bien déterminée (Ex: cercle, segment ).Cet ensemble
S est translaté de manière à ce que son point origine décrive toutes les positions
de l'ensemble des points de l'image.
Selon sa position un test est réalisé au moyen d'une combinaison de
transformations
[union, intersection complémentation ... ].
Le nouvel ensemble est appelé image transformée. La figure II.14 donne
un exemple courant d'opérateur morphologique imaginaire.
En (a) se trouve le masque, en (b) une portion de l'image initiale, (c) et (d)
représentent respectivement le résultat obtenu par union et intersection de
l'image originale avec le masque. Pour des raisons pratiques les éléments
structurants doivent être simples.
32

a
a
a
1
1
a
a
b
a
a
"a1 a

a
1
1
a
a
a
ct
c
a
1
"a1
Figure II.14 : Exemple d'élément structurant a: élément structurant
b: image originale, c: union, d: intersection
a-Erosion
La transformation par érosion a été définie par HADWIGER en 1957 de la
manière suivante:
Soient
- un ensemble A avec: A c N2
- un ensemble F avec: F c N2 et A c F
- St est un élément structurant où t représente les coordonnées du point de
référence St .
Définissons St comme un cercle, où l'indice t correspond aux coordonnées
de son centre. L'érosion consiste à déplacer St de façon à ce que la référence t
occupe successivement l'emplacement de tous les points de F. Donc pour chaque
position de St dans F il faut faire le test suivant:
(1)
Soit Y l'ensemble des points Pt respectant le test (1), Y est appelé l'ensemble
érodé de A par St, on note:
y = { Pt: St
cA}
La transformation érosion est définie sur des images à niveaux de gris
multiples, on peut considérer qu'une érosion sur une image binaire n'est qu'un
cas particulier, où il n'existe que deux niveaux de gris.
Nous avons défini précédemment les ensembles A et F sur N2, on peut
considérer que pour les images numériques la définition de l'érosion reste
valable sur N2.
33

Soit
- lb une image binaire.
- Ibe une image érodée
- E {St} l'ensemble des points constituant l'élément structurant St
Yn-l
Xn-l
Ibe (x,y) = L L (lb (x,y) *" E {SJ )
y=O x=o
( l'opérateur *" représente un ET logique)
b- Dilatation
La dilatation produit un effet symétrique à celui de l'érosion et a pour
conséquence d'augmenter la taille des particules sur laquelle cette transformation
est appliquée.
La dilatation consiste à déplacer St de façon à ce que la référence t occupe
successivement l'emplacement de tous les points de F. Donc pour chaque
position de St dans F il faut faire le test suivant:
Soit Y l'ensemble des points Pt respectant le test (2), Y est appelé l'ensemble
dilaté de A par St. On note:
y = {Pt: St n A "# 0 }
Nous reprenons les mêmes hypothèses que celles retenues pour l'érosion.
Soit
- lb une image binaire.
- Ibd une image dilatée
- E {Sil l'ensemble des points constituant l'élément structurant St
Yn-l
Xn-l
Ibd (x,y) = L
L
(lb (x,y) *" E {SJ)
y=O x=o
( l'opérateur * représente un ET logique et lb (x,y) désigne le complémentaire de
l'image lb (x,y»
Remarque:
Ces deux transformations (érosion/dilatation) peuvent être combinées
pour jouer un rôle de filtrage (ouverture) ou éliminer les défauts (fermeture).
34

Figure JI.1S: Image Erodée
Figure Il.16: Image Dilatée
35

II 3. Les outils pratiques en traitement d'image
Il est souvent utile de représenter l'image sous d'autres formes que son
simple affichage afin de mettre en évidence certaines de ses propriétés. Nous
entendons donc par outils non pas des procédures de traitements mais des outils
d'aides à l'analyse du contenu de l'image.
Ces techniques modifient la répartition des niveaux de gris d'une image
tout en préservant les contours des formes. Ce sont des transformations
ponctuelles sur chaque pixels et par conséquent elles relèvent du filtrage spatial.
Ce paragraphe pourrait s'étendre à l'infini, chaque type d'application
pouvant nécessiter un outil adapté. C'est pourquoi nous détaillerons ici
seulement deux aides à l'analyse dont l'usage est très général.
-Transformation de la dynamique des niveaux de gris: essentiel dans tous
les domaines, il est à la base de nombreux traitements, comme nous le verrons.
-Le profil d'une image, qui permet de pallier certaines carences des
méthodes d'affichage.
11.3.1 Transformation de la dynamique des niveaux de gris
Cette transformation augmente le contraste de l'image et permet, donc, de
mieux repérer les contours.
On peut classer les transformations en deux catégories:
-fonction de transfert linéaire, ou non linéaire, des échelles de niveaux de gris,
-fonction de transformation de l'histogramme de niveaux de gris.
II.3.1.1 Transformation de l'échelle des niveaux de gris
Dans cette transformation, les N niveaux de gris de l'image d'entrée E sont
transformés d'après une loi mathématique plus ou moins complexe, pour
donner les N niveaux de gris de l'image résultat S; par exemple une courbe
polynomiale peut augmenter les contrastes de faibles niveaux de gris.
s -
s
s
E
E
a)
b)
Figure 11-17 : Courbes de changement d'échelle
36

Dans la figure II.17 nous avons
a) courbe permettant d'augmenter le contraste des faibles niveaux de gris,
a) courbe permettant d'augmenter le contraste des forts niveaux de gris,
a) courbe permettant d'augmenter les niveaux de gris moyens.
II.3.1.2 Histogramme d'images et ses traitements
L'histogramme de niveaux des gris d'une image est une fonction qui
donne la fréquence d'apparition de chaque niveau de gris dans l'image[S].
On considère une image digitalisée sur 2m niveau de gris, qui comporte n
pixels (n == N2); chacun d'eux peut prendre une valeur aléatoire continue x dans
l'ensemble 2m .
Prenons par exemple une image idéale continue où l'intensité x prend
toutes les valeurs dans un intervalle (a,b) et introduisons quelques définitions:
La fonction de répartition de x, soit F(x), est la probabilité pour que x
prenne une valeur inférieur à a
P[x<a] == F(a)
La probabilité de l'intervalle (a,b) est la différence des valeurs prises par la
fonction de répartition, à savoir:
P(a,b) = P[ x E (a,b)]
= F(b) - F(a)
dans l'intervalle ~x = (a,b) la probabilité P(~x) peut s'écrire:
P(~x) = F(x + ~x) - F(x)
Divisant l'expression précédente par ~x et passant à la limite, on trouve:
F( x + ~x) - F(x)
lim
0
=F'(x)
6x~
~x
F'(x) est la fonction de densité de probabilité de x.
Ces notions de
probabilité permettent de définir l'histogramme d'une image continue en faisant
les analogies suivantes:
37

La fonction de répartition F(x) est assimilée à la somme S des aires, dont les
valeurs locales de gris peuvent être plus petites ou égales à x. La dérivée F' est
celle de la somme des aires considérées plus haut.
L'histogramme au premier ordre d'une image continue, est la fonction
densité de probabilité F' = dS/dx. L'histogramme cumulé de la même image est
l'intégrale:
xmax
f F'(x)dx (1)
o
xmax représente la borne supérieure des valeurs de gris permises.
L'intégrale
est la somme S de toutes les aires partielles; c'est la surface S de l'image complète.
La manipulation d'histogramme
La manipulation d'histogramme consiste à définir une loi de correction de
la valeur de niveaux de gris de chaque point de l'image en fonction de la
dynamique de l'échelle des niveaux de gris de l'image. La modification de
l'histogramme modifie le contraste en diminuant ou en augmentant la valeur
des transitions en niveaux de gris entre les points image.
La manipulation d'histogramme revient à définir une fonction FNG qui
va faire correspondre à chaque niveau de gris initial (NG) une valeur (NG').
Souvent on désigne par FNG une table de correspondance appelé "Look Up
Table" et appelée par ses initiales: LUT. Dans les systèmes de traitements, on
prédéfinit un ensemble de LUT standard: binaire, en escalier, exponentielle,
linéaire....
38

LUT Linéaire
LUT Logarithmique
FNG
FNGl
F(d)
F(e)
F(b)
F(d)
F(e)
F(b)
F(a)
F(a)
a
b
e
NG
a
b
e
d
e
NG
la normalisation:
La manipulation la plus employée est la normalisation. Elle consiste à
multiplier chaque point de l'image par une quantité Q de façon à ce que la
dynamique des niveaux de gris occupe toute l'échelle.
Soit:
f(x,y) le signal de l'image non normalisée.
fo(x,y) le signal de l'image normalisée.
PE : pleine échelle en niveaux de gris (PE = 255 pour nos images).
Eo : Dynamique des niveaux de gris dans l'image origine.
fo(x,y) = [ f(x,y) . PEl / Eo
Recadrage de dynamique:
Le racadrage de la dynamique est l'une des applications les plus courantes
de la LUT. Certaines images sont initialement trop claires, trop foncées, ou bien
trop contrastées.
Cela est dû respectivement au fait que les niveaux de gris de
l'image sont tassés vers le haut de l'échelle, vers le bas, ou bien sont regroupés
dans un intervalle étroit. Ce défaut est très visible sur l'histogramme comme le
montre le figure Il.18. Le but de la LUT est alors de redistribuer les niveaux de gris
de l'image afin de leur faire occuper la bande de nuances possibles. C'est ce que
réalise le recadrage de dynamique dont le principe est donnée figure II.16.
Le choix des valeurs Min et Max de recadrage peut être effectué soit
manuellement ou automatiquement en décidant d'un certain pourcentage de
pixel recadré. Par exemple, 5% des pixels entre 0 et Min, 5% entre Max et 255. On
recadre ainsi 90% de l'histogramme, les 10% restant étant forcés pour moitié à 0
et pour moitié à 255.
Il est à noter que ces plages de valeurs extrêmes seront
perdues après recadrage.
39

Mise en évidence de zones de l'histogramme:
Une autre application consiste en la mise en évidence d'une certaine
bande de niveaux de gris de l'image. Ceci peut être fait de deux manières, comme
le montre la figure II.19 . En a, les nuances comprises dans la bande [Min, Max]
sont recadrées sur toutes la plage d'intensités, tous les autres points de l'image
dont la valeur est extérieure à cet intervalle étant forcés à O. Cette méthode est
très pratique pour examiner certaines faibles variations lorsque les possibilités
d'affichage sont limitées. En b, on effectue une binarisation de l'image: dans
l'intervalle [Min, Max] les pixels sont forcés à 255, et à 0 à l'extérieur de
l'in tervalle.
Niveaux de gris
Histogramme de
l'image originale
Max
Histogramme recadré
LUT de recadrage
Niveaux de gris
Figure TI.18 : Principe du recadrage de la dynamique
J
J
a
b
Min
Max
i
Mm
Max
recadrage de dynamique
Binarisation
Figure TI.19 : Mise en évidence d'une zone d'intérêt de l'histogramme
40

Figure 11.20 : Image d'origine et son histogramme
Figure 11.21 : Mise en évidence d'une zone d'intérêt de l'histogramme
41

Figure Il.22 : Recadrage de la dynamique de l'histogramme
Les modifications d'histogramme
Il existe des transformations qui rehaussent l'image en donnant à
l'histogramme P2 des variations exponentielles ou hyperboliques[S/18]; la
transformation s'opère sur l'équation
de conservation des probabilités sous la
forme:
En fixant à P2(X) une loi de variation choisie, l'équation intégrale permet
de calculer la transformée T(Xf) = Xg; nous donnons quelques résultats:
Modèles de p 2
Fonction de transfert
l
T(x
FI (x
f) = xmax
f)
Constant:
P2(x) = -
xmax
-2/3
l Xg
3
Hyperbolique: piX
FI (x
g)="3m
T(x f) = Xmax
f)
Xmax
1
Exponentiel:
pix) = ex exp (-ex x
) ]
g )
T(x f) = - - Ln [1 - FI (xf
ex
42

L'histogramme permet de donner un grand nombre d'informations sur la
distribution des niveaux de gris de l'image, ce qui est appelé la dynamique de
l'image. Il permet notamment d'analyser entre quelles bornes est répartie la
majorité des niveaux de gris dans le cas d'une image trop claire ou trop foncée,
comme le montre la figure II.23: en a l'image trop claire est concentrée entre 0 et
Sa (image trop foncée), en b elle l'est entre les valeurs Sb et Nmax (image trop
clair).
Nombre
Nombre
de ixels
de pixels
-
-
-
l
l
1
1
1
1
1
Niveau
1
Niveau
-+'~--~----~
I------""----~--
de gris
Sb
o
o
Nmax de gris
Sa
Fi~ure 11.23: Histogramme d'images
a: trop foncée, b: trop claire
Fj~ure 11.24 : Transformation exponentielle
43

II.3.3 Profil d'une image
Une image est une entité a trois dimensions: x, y, niveaux de gris. Il est
possible de la représenter en perspective (figureII.25 b).
Il est aussi possible d'en faire une coupe comme le montre la figure II.24 c.
L'intérêt de la coupe est de faire une analyse fine des variations d'intensité de
l'image, en particulier lorsque celles-ci sont faibles.
y
Niveau
...
Ym
de gris
0
b)
X

Ym
Xl
)'
Xm
Niveau
de gris
L
1-
-
- L - 1
1
1
1
1
1
c)
1
1
1
1
1
Ym
1
o
Figure 11.25 : Représentation tridimensionnelle d'une image. a: image originale, b: représentation en
perspective, c: coupe suivant l'axe x
44

Fj~urc Il.2G: Image initiale 512 x 512
Œ!.!!L!llZ: Profil de l'image initiale
45

lIA Segmentation
La segmentation se révèle être l'une des étapes la pl us délicate du
traitement d'image.
Plusieurs approches ont été faites au cours de ces dernières années:
La première approche type région procède par
séparation des divers
éléments de l'image en régions connexes dont les pixels partagent une ou
pl usieurs propriétés (niveaux de gris, texture .... ) permettant de distinguer
d'autres régions et en particulier des régions adjacentes.
La méthode la plus simple et sûrement la plus utilisée est le seuillage. Il en
existe d'autres basées sur la division et le regroupement des régions. Elles sont
classées en deux catégories suivant qu'elles font appelle à une "classification"
ou à croissance de régions [42/63].
L'approche contours s'appuie sur les transitions plus au moins prononcées
(de type marche, rampe, ligne ou trait), ou encore sur les frontières entre zones
homogènes distinctes ou non (présence d'une ligne). Les méthodes de détection
de contours ont donc pour objectif de les localiser (soit l'ensemble des points de la
transition pour des contours epais, soit par le point milieu) en leur attachant des
informations comme l'amplitude et la direction [16/43/48/58]. La recherche de
ces variations s'appuie sur les opérateurs de dérivations, le gradient ou le
Laplacien, à partir desquels on recherche respectivement les extrêmas ou le
passage par zéro.
Il est évident que ces deux approches de la segmentation sont duales dans
le sens qu'une région définit un contour par ses bords, et qu'un contour fermé
définit une région.
11.4.1 Seuillage de l'image
Le seuillage est un cas particulier de la segmentation où l'on cherche
généralement à partager en deux (ou plusieurs) classes.
11.4.1.1 Seuillage global
Cette méthode est assez simple à mettre en oeuvre et donne des résultats
satisfaisants si l'image est à la fois simple et de bonne qualité.
46

L'image seuillée est une image binaire obtenue par l'application de la règle
suivante.
Si Hx,y) ~ S
alors
S (x,y) = 1
sinon S (x,y) = 0
où Hx,y) représente l'intensité du point (x,y) de l'image d'entrée et S(x,y)
représente l'intensité du point (x,y) de l'image de sortie.
On peut appliquer un demi-seuillage
qui revient à mettre à zéro les
niveaux de gris inférieur au seuil et à conserver le niveau de gris supérieur.
Si Hx,y) ~ S
alors
S (x,y) = Hi,j)
sinon S (x,y) = 0
Le choix d'un
seuil S permet d'avoir la meilleur segmentation au sens
d'un critère.
II.4.1.2 Seuillage adaptatif
Dans un grand nombre de cas, le seuillage global est inefficace (par exemple
lorsque l'eclairage d'une scène n'est pas homogène).
On peut envisager d'effectuer un seuillage adaptatif par des méthodes non
paramétriques[48/52] qui consiste à effectuer un moyennage des niveaux de gris.
Ceci est possible en prenant une fenêtre de grande taille ou en itérant la
convolution à l'aide d'un filtre moyenneur carré 3x3. On obtient alors une image
moyenne m(i,j) et l'image seuillée sera obtenue
par application de la règle
suivante:
1 (i , j) < m ( i , j ) ==> S (i , j) = 0
1 ( i , j ) >= m ( i , j ) ==> S ( i , j ) = 1
11.4.1.3 Choix du seuil
L'une des méthodes de choix [5] repose sur l'histogramme r =Hx,y) de
niveau de gris. Supposons que l'image composée d'objets
gris-clairs
sur fond
sombre, ait un histogramme p = p(r) formé de 2 groupes de niveaux de gris
dominants; pour
extraire les contours d'objets, il faut sélectionner une valeur-
seuil S qui sépare les deux parties dominantes en 2 zones Z1 et Z2.
47

P(r)
N-l- y
IMAGE
niveau de
f(x,y)
gris
N- JJ--------'
r
~
Ainsi tout point de l'objet où la condition I(x,y) ~ S est remplie, est appelé
point de l'objet; ailleurs le point fait partie du fond gris-noir.
Le cas le plus général est celui où l'histogramme est caractérisé par trois
groupes de gris dominants qui introduisent deux seuil 51 et 52; ce serait le cas de
deux classes
d'objets gris-clair sur fond sombre. Le seuillage est
à plusieurs
niveaux et un point de l'image appartient à l'une des classes d'objets si:
51 < I(x,y) ~ 52 et à l'autre si I(x,y) > 52. Ce mode de seuillage est difficile à
mettre en oeuvre à cause du choix de 51 et 52 pour séparer les primitives de
surface sans ambiguïté.
Remarque
Dans certains cas, ces techniques simples de détermination du "bon seuil"
peuvent s'avérer efficaces. Pour cela il faut avoir des images de bonne qualité.
50uvent, avant de seuiller
l'image, il est nécessaire de procéder à une
amélioration de celle-ci, afin de diminuer le bruit et d'augmenter le contraste [11].
Pour des images fortement bruitées et ayant un faible contraste l'utilisation
de ces techniques donne des résultats très médiocres. Il est alors nécessaire
d'utiliser des procédures complexes pour déterminer le "bon seuil".
48

1104.104 Recherche d'un seuil T optimisé
Si on considère un histogramme p(s) à deux groupes de niveaux de gris; la
fonction p(r) peut être considérée comme la somme de 2 densités de probabilité
selon l'expression [5]:
P(r) = Pl Pl (r) + P2 P2 (r)
Pl (r) et P2(r) sont les densités de probabilités courantes; Pl et P2 sont les
probabilités à priori; c'est-à-dire les probabilités d'existence de deux types de
niveaux de gris dans l'image.
P(r)
P(r)
p, (r)
Les probabilités Pl et P2 ont une somme qui vaut l si les pixels sombres
sont en
dessous d'un seuil S et les pixels clairs ailleurs ; la probabilité de
classement par erreur d'un point dans la zone sombre s'exprime par:
s
E,.(T) =f l'2(r) dr
et dans la zone claire on trouve:
La probabilité totale d'erreur s'exprime ainsi
La valeur seuil 5 cherchée correspond à l'erreur minimale, en annulant la
dérivée de E par rapport à S, on trouve:
La solution générale montre que S est à l'abscisse du minimum de
l'histogramme à deux groupes dominants; en effet en ce point, les fonctions de
49

répartition F (r) des niveaux de gris présente une variation lente et reste peu
sensible au choix de r. Si le probabilité Pl (r) et P2 (r) sont caractérisées chacune
par des valeurs de luminance moyenne III et 112 et des écart- type (JI et (J2' on
montre dans le cas où (JI =(J2 = (J, que S est unique et prend la valeur:
2
1
(J
Pl
S =2(11 + 11
1
2 ) + - - Ln (p)
11 -11
1
2
2
II.4.l.S Seuillage par la variation du gradient directionnel
Cette technique de segmentation est basée sur la variation de la direction
du gradient dans une image. L'idée principale est que la
direction du gradient de
la liminance varie très faiblement dans les zones homogènes. Mais cela entraîne
une variation importante dans les zones hétérogènes.
Cette méthode de segmentation est relativement bien adaptée aux images
échocardiographiques (mode B) [1] où l'on distingue une première région
homogène correspondant à la cavité cardiaque et une deuxième région
hétérogène représentant le myocarde.
II.4.2 Détection des contours
Les variations d'intensité de la lumière et de la couleur sont très bien
perçues par le système visuel humain. Les régions plus ou moins homogènes
sont séparées par des frontières, ce qui nous permet d'interpréter les images que
nous percevons. On peut donc définir un contour comme étant une frontière
entre 2 régions différentes de niveaux de gris relativement homogènes.
Si une section de la fonction image au niveau d'un contour idéal, peut être
représentée par un échelon (figure 11.28), un contour réel présente généralement
une transition de niveaux de gris moins abrupte et souvent entachée de bruit
(figure 11.29).
J
-
~--
x
x
Figure II.28 : Section d'un contour
idéal
Figure 11.29 : Section d'un contour réel non bruité
50

Les contours peuvent être détectés par un examen systématique des
variations de niveaux de gris au voisinage de chaque point image. Il existe en
effet de nombreux opérateurs locaux capables de calculer les points de transitions
entre zones.
Les techniques les plus classiques consistent à appliquer un opérateur
différentiel comme le gradient [8/12/19/40/4:1], le Laplacien ou la dérivée seconde
[9/38] dans le sens du gradient [49] afin de calculer l'orientation ou le module du
changement.
II.4.2.1 Opérateurs différentiels
La détermination d'attributs locaux permet de
définir
les points
susceptibles d'appartenir à des contours de l'image analysée [49].
Elle repose sur la possibilité d'estimer la direction dans laquelle intervient
la plus forte variation V(x,y) de {(x,y) autour de A(x,y) ainsi que l'amplitude de
cette variation.
Dans le cas d'une fonction image numérique; les dérivées directionnelles
peuvent être approchées par les différences suivantes:
~ x [f(x,y)] =f(x,y) - f(x-l,y)
~ y [ f(x,y) ] = f(x,y) - f(x,y-l)
L'amplitude et la direction du gradient en A(x , y) prennent la forme
suivante.
* Direction du gradient en A(x , y)
~y [f(x, y)]
8(x,y) = a r c t g - - - -
~ x [f(x, y)]
*Amplitude du gradient en A(x, y)
P(x,y) = j {~[f(x,y)]} 4{ ~y[f(x,y)}2
Il faut toutefois remarquer que les différences ~x et ~y ne sont pas calculées
sur des points symétriques par rapport au point A(x,y) où l'on désire estimer le
5 1

gradient. Cette objection est facilement levée en utilisant, pour estimer les
dérivées directionnelles, les opérateurs:
~ f(x,y)=f(x+),y) - f( x -1, y)
o
~ [ f(xy)]= f(x,y+1) - f{x,y-1)
[1
T
ou les opérateurs de Roberts:
~ [f(x ,y) ] = f(x,y+1) - f(x+1,y)
n
""""4
~
[f(x,y)] = f(x+1,y+1)-f(x,y)
3[1
""4
Les opérateurs ~o (0 et ~rr/2 (Oindiquent la variation de f de part et d'autre
du point A(x,y) dans les directions horizontales et verticales, alors que les
opérateurs de Roberts
~3rr/4( 0 et ~rr/4 (f) indiquent la variation de f de part et
d'autre du point A(x+1/2,y+1/2) dans les directions diagonales (figure II.30).
Si l'on désire connaître les variations de f par unité de distance, il convient de
diviser ~o(O et ~rr/2(O par 2 alors que ~3rr/4( 0 et ~rr/4 (0 par .,,)2. Pour des raisons
de rapidité de calcul, on estime parfois la valeur de l'amplitude du gradient par la
valeur maximale des modules ~ü( 0 et ~rr/2 (0 ou ~3rr/4( 0 et ~rr/4 (f)
A ( x + 1/2, y + 1/2)
(x-l, y-l)
(x-l, y)
(x-l, y +1)
(x , y)
(x, y-l)
(x, y)
(x,y+l)
(x, y+l)
(x+l,y+l)
(x+l, y-l) (x+l, y)
(x+l, y+l)
(b)
( a)
Figure II.3ü : Représentation des opérateurs: a) t.oW et t.rr/2(f) ; b) t.3rr/4( f) et t.rr/4 (f)
L'utilisation de ces opérateurs différentiels nécessite un lissage car ils sont
sensibles aux bruits.
Ces techniques de prétraitement atténuent les petites variations locales de
niveau de gris dues aux bruits tout en conservant les variations significatives.
52

Il existe une technique rapide et efficace qui combine des opérateurs de
lissage et celles des opérateurs différentiels [49] .
Les opérateurs différentiels ~Of(x/y) et ~1t/2f(x/y) sont sous la forme:
~o f(x,y)= F(x,y, 1) 1\\ Wo (1)
~1J(X,y)= F(x,y, 1) 1\\ w (1)
1t
~
'2
W(i) représentant une matrice de pondération avec:
o
0 0 0
-1
0
0 0 0
-1
0
WJL (1)
2
o
0
0
o
o
Il existe de nombreuses solutions qui permettent de combiner des
opérations de lissage avec des opérateurs différentiels.
a) Le gradient lissé, pour lequel les matrices de pondération sont de la
forme:
-1
0
-1
-1
-1
,
W~
0
0
0
Wo
-1
0
2
-1
0
Il consiste à calculer les différences entre les valeurs moyennes du niveau
de gris déterminées sur des segments de lignes et de colonnes encadrant le point
A(x, y).
b) Pour le gradient isotropique, les coefficients de pondération sont
inversement proportionnels aux distances séparant les voisins pris en compte du
point A(x , y) où le gradient est estimé. On obtient ainsi
;, -'12 0
J
1
0
1
\\{2
[ -1
0
1
53

c) L'opérateur Laplacien réalise une dérivée seconde de l'image
Dans le cas continue le Laplacien (figure II.31). est défini comme étant la
dérivée second de la fonction I(x,y) et s'écrit alors de la manière suivante.
a2 Hx,y)
a2 Hx,y)
L(x,y) =
+
a2 x
a2 y
Dans le cas discret et dans un voisinage 4-connexités par exemple, nous
pouvons approximer l'opérateur Laplacien par [ 55/56]:
L(i,j) =I(i+I,j) + Hi-I,j) + Hi,j+1) + Hi,j-I) - 4*I(i,j).
Les
masques de convolution du Laplacien
sont ainsi définis suivant le
voisinage considéré.
[' -1-1
4
8
-1
-1
-1'J
-1
[: -1-1 -:J
8- Connexités
4- Connexités
On note (figure II. 31) que les dérivées premières et seconde sont nulles en
dehors de la même zone de contour. En se déplaçant dans le sens des valeurs
croissantes de X, on constate que le Laplacien de ce contour idéal est constitué
d'un pic positif puis d'un autre négatif. Ces pics se présenteraient dans un ordre
inverse si la transition se faisait d'un niveau de gris haut vers un niveau de gris
faible.
On utilise souvent la valeur absolue du Laplacien, ce qui permet de
dédoubler les contours. L'idéal est en fait de détecter le passage par zéro du
Laplacien, qui correspond au maximum du gradient, donc à la zone de transition
la plus importante.
On peut aussi se servir sélectivement d'un des pics, en sachant que le pic
positif définit un contour extérieur à l'objet, alors que le pic négatif représente le
bord intérieur de cet objet.
54

La méthode de Marr-Hildreth [38] permet de limiter l'influence de bruit et
de positionner de façon plus précise le contour. Un opérateur Laplacien est
déplacé sur l'image dans une direction horizontale, puis verticale. Un point de
contour est défini par le passage par zéro du Laplaci~n.
'0'
Niveau
de gris
a.
:~
1
..
,
1
----I---I---+------'-+-,--1Ic----+---....
l> x
1
1
Amplitude
1
1
A
1
1
1
1
b.
1
Amplitude
r
I r
c.
1
1
1)
...
x
Figure \\\\.31: Dérivation en présence d'un contour, a: contour, b: gradient, c: Laplacien
S5

II.4.2.2 Opérateurs dérivés filtrés
a-Filtre Séparable
Soient I(x,y) la répartition de luminance dans l'image et h(x,y) un filtre
bidimensionnel,
h(x,y)
est
un
filtre
séparable
s'il
existe
deux
filtres
monodimensionnels hl(x) et h2(y) tel que:
h(x,y) = hl(x) .. h2(y)
Il est aisé de montrer [1] que la convolution de l'image I(x,y) par le filtre
hl(x) .. h2(y) revient à faire une double convolution. Autrement dit on pourra
écrire:
h(x,y) ® ® Ux,y) = (hl(x) .. h2(y» ® ® I(x,y) = hl(x) ® (h2(y) ® I(x,y) )
D'une manière informelle, on dira en traitement d'images qu'un filtre est
séparable si le produit de convolution de celui-ci avec l'image est équivalent à
un traitement par lignes suivi d'un traitement par colonnes.
- Gradient de l'image filtrée
En tenant compte des formules précédentes le gradient de l'image filtrée
s'écrira:
d
d
Gx(x,y) = -
( h(y,x) ® ®
I(x,y»
= -
[( hl (x) .. h2(y» ® ® I(x,y)]
dX
dX
d
Gx(x,y) = [ - hl (x) .. h2(y)] ® ® I(x,y)]
dX
d
d
Gy(x,y) = -
( h(y,x) ® ®
I(x,y) ) = -
[( hl (x) .. h2(y» ® ® I(x,y)]
dY
dY
d
Gy(x,y) = [ hl (x) .. -
h2(y)] ® ® I(x,y)
dX
Gx(x,y) et Gy(x,y) sont les gradients en x et y de l'image filtrée.
56

- Opérateurs classiques.
* Opérateur de Prewitt
Prewi tt [30] a choisi le filtre passe-bas moyenneur de taille
3x3
suivant:
1 1 1
1 1 1
1 1 1
Ce filtre peut être séparé en deux filtres monodimensionnels.
- Le premier ( 1
1
1) est un moyenneur suivant l'axe des X
dont la dérivée est (l
o
-1).
[~J
- Le sencond
est un moyenneur suivant l'axe des Y
[~]
dont la dérivée est
A partir des définitions de filtre séparable, nous pouvons déterminer les
masques de convolution du filtre de prewitt Px et Py pour chacune de directions
1
0-1
1
1
0-1
Px= 1 * (1 0 -1 ) =
1
1
0-1
1 1 1
1
\\,
0
*(111)=
o 0 0
-1
1
-1
-1
La détection de contour par ce filtre revient à effectuer les opérations
suivantes:
- ConvoI uer l'image originale à l'aide de Px. Le résultat est noté Gx et
représente un gradient filtré suivant l'axe des X.
- Convoluer l'image originale à l'aide de Py. Le résultat est noté Gy et
57

représente un gradient filtré suivant l'axe des y.
- A partir de ces deux résultats, il faut calculer alors la norme du gradient
fil tré.
- Déterminer l'image de crête à partir de la direction du gradient filtré
* Opérateur de Sobel
Sobel [30] a choisi un filtre de type:
2
2
2
2
Ce filtre peut être séparé en deux filtres monodimensionnels.
- Le premier ( 1
2
1) est un moyenneur suivant l'axe des X
dont la dérivée est (l
0
-1).
[~J
- Le sencond
est un moyenneur suivant l'axe des Y
[~J
dont la dérivée est
A partir des définitions de filtre séparable, nous pouvons déterminer les
masques de convolution du filtre de Sobel Sx et Sy pour chacune de directions
1
1
1 0 -1
sx=
2
*(10-1)=
2 0 -2
1
1 0 -1
J
1
1 2 1
~
0
*(121)=
000
-1
-1 -2-1
Pour faire une détection de contour à l'aide du filtre Sobel, nous
utiliserons les mêmes procédés que ceux décrits dans le cas du filtre de Prewitt.
58

II.4.2.3 Opérateurs Optimaux
Les
huit masques du gradient circulaire présentés ci-après, sont des
opérateurs optimaux. Ils permettent le codage direct des contours, selon la
méthodes de FREEMAN.
1 -1 1
Hl[~-~ ~ ] H2G -~ JH3[-~-~ ~
Il
H4 -1 -2 1
]
[ 1 1 1
-1-1-1
G - l l
- I l l
]
1 1
H4 [: ~~
H6[~ ~~~~
-Il
]
] H7 [~ _~ ~~
Ha
1-2-1
1 1 1
1 1 1
1 1-1
]
[ 1 -1 -1
]
Hl H2
Ha
H7----'7'k---- H3
H4
HG
H5
Remarques
La méthode de balayage par masque est couramment utilisée puisque
finalement on peut considérer qu'elle englobe les opérateurs de différenciation
comme les gradients et le Laplacien.
II.4.3.3 Le filtre de Canny
Nous avons vu que les effets de bruits pouvaient être atténués par
convolution de l'image avec un filtre passe bas. Il est possible d'effectuer ce
filtrage puis de dériver l'image pour diminuer l'influence de bruits.
Mais il est aussi possible de dériver directement le produit de convolution
de l'image et du filtre. Par exemple Canny J.F [12] a développé un algorithme qui
consiste à dériver la convolution d'une image avec une gaussienne.
Pour
alléger les écritures, nous ne tiendrons pas compte des termes
(1/(2n)1I2 dans la courbe de gauss·
La méthode est la suivante:
Soi t la gaussienne:
(-x2 - y2)
G ( x , y) = exp
2cr 2
la dérivé de l'image l filtrée est:
59

,M = tl (G ® I) = Fx + Fy
tlf = (G ® Ih + (G ® I)y
= (Gx ® I) + (Gy® I)
Les dérivées partielles de la courbe de Gauss sont:
-x
(-x2 - y2)
G x ( X f y) = _ exp
cr 2
2cr 2
-y
(-x2 - y2)
G y( x f y) = _ exp
cr 2
2cr 2
Les filtres étant séparables, nous pouvons réaliser séparément les
convolutions suivant x et y
Gx( x f Y ) =Gx (x) ® G(y)
Gy( x f Y ) =Gy (y) ® G(x)
d'où
Fx =G x (x) ® G(y) ® I
Fy =Gy (y) ® G(x) ® I
la direction et l'amplitude sont alors données par les relations
A = ( Fi + Fy 2 ) 1/2
D ir = Arctg (Fx / Fy )
l'algorithme de dérivation est résumé par la figure suivante
Gx(x)
60

11.4.4 Amincissement des lignes de contour
Lorsque l'on a effectué le gradient d'une image, il est nécessaire d'isoler les
maximums locaux de l'image dérivée pour déterminer les points exacts de
contour afin de réduire ceux-ci à une courbe d'un seul pixel d'épaisseur [37/42].
Une des méthodes est appelée "méthode de suppression des points non
maximum". Le principe de cette méthode est le suivant:
Soit A(x,y) l'image composée des amplitudes du gradients et Dir(x,y)
direction du gradient.
Pour chaque point A(x,y), on détermine les points adjacents qui se trouve
dans la direction du gradient comme le montre la figure 11.32 . Soit A(xt,Yt) et
A(X2,Y2) ces points.
contour
"- •

A(x2,y2)
"-

a_-------G...-.".., fx

A(X1 ,y1)
fy
FigurelI.32: Points utilisés dans l'algorithme de suppression
Si A(x,y) est supérieur à la fois à A(xl,y1) et à A(x2,y2) alors A(x,y) est conservé,
sinon A(x,y) est mis à zéro.
Dans le cas où les contours sont binaires, il est possible d'utiliser la
procédure de squelettisation qui consiste à transformer l'image afin de mettre en
évidence seulement l'information essentielle qui décrit complètement l'image.
II.4.4 Image binaire : Contour, squelette
La binarisation d'une image présente plusieurs avantages dont l'un des
plus importants est certainement le faible espace mémoire nécessaire pour
représenter une image binaire et la simplicité des opérateurs qui lui sont associés.
6 1

En effet, l'image ne possédant que deux niveaux, noir ou blanc, il suffit
d'un bit pour coder un pixel, d'où une taille mémoire huit fois moins élevée
qu'une image codée sur 256 niveaux.
Comme l'image binaire est constituée uniquement de pixel noir et blanc;
les silhouettes ou formes d'objet apparaissent comme des amas de points noirs
sur blanc. La détection des contours d'amas peut être obtenue par la méthode du
gradient, mais c'est une technique trop compliquée pour une image binaire;
Une fois que les points de contours sont détectés, Ils sont regroupés dans
les régions connexes appelées régions de contours. La segmentation n'est pas
pour autant terminée et elle est suivie d'opérations d'ouverture et de fermeture
d'image binaire ( cf. érosion! dilatation).
L'ouverture a pour résultat de lisser
les contours et de supprimer les
petites irrégularités comme les points noirs isolés dans les continuum blanc, les
petits pics et petits ponts. Ouverture et fermeture sont elles-mêmes des
opérations duales par complémentarité.
La squelettisation est l'ultime opération exécutée pour affiner les régions
de contours; en première approximation, elle peut être considérée comme une
érosion
des contours, jusqu'à ce que les fronts d'érosion se rejoignent en une
ligne appelée squelette.
II.4.5 Squelettisation
La squelettisation d'une image binaire est une technique qui extrait le
squelette d'image . Le squelette représente en fait la quantité d'information
minimale qui décrit complètement l'image. Ce qui
veut dire qu'il est
théoriquement possible de restituer une image originale à partir de son squelette.
Conclusion
Dans ce chapitre, nous avons présenté les méthodes fondamentales du
traitement d'images. Nous allons dans ce qui suit présenter des procédures
relatives à certaines de ces méthodes.
62

Figure Il.33: Laplacien 8-connexité seuillé
Figure 11.34: Laplacien 4 connexité seuillé
63

Figure 11.35: Sobel
Figure II.36 : Prewitt
64

Figyre II.37 : Opération d'ouverture
Figure 11.38 : Opération de fermeture
65
J .

Figure 11.39 : Image Originale
Figure II.40: Squelette de l'imge oroginale
66

1 CHAPITRE III 1
DEVELOPPEMENTS LOGICIELS
LOGICIEL SAPIN
67

DEVELOPPEMENTS LOGICIELS
LOGIOEL SAPIN
INTRODUCTION
La commercialisation de petites stations de traitements d'image vendues
"clefs en main" et la multiplication des logiciels d'applications spécialisés ainsi
que des logiciels des traitements "standards", offrent l'avantage d'une
architecture optimisée pour l'imagerie, et dotées d'une grande rapidité de
traitement, mais dont le principal inconvénient reste les prix prohibitifs pour les
pays en devellopement. De plus ces systèmes ne sont pas toujours en adéquation
avec les besoins exprimés par les utilisateurs.
Nous allons dans ce chapitre présenter une architecture minimale. Elle
s'appuie sur la structure d'un micro-ordinateur compatible et une carte de
traitement d'image associés à un logiciel SAPIN ergonomique d'aide à l'analyse
des images dont les composantes principales seront présentées.
I1Lt Système de traitement de l'image
Suivant le domaine d'utilisation, sa complexité peut être très variable. On
peut séparer ses applications en deux domaines: le traitement en temps réel où la
contrainte temps doit être satisfaite, et le traitement en différé où le temps n'est
pas un facteur essentiel.
Généralement dans les applications de recherche, la souplesse est préférée
à la rapidité et les contraintes sont alors moins strictes que dans une application
de reconnaissance de formes où la rapidité est un élément primordial.
L'exemple de la figure I1Ll détaille les différents éléments d'un système
professionnel minimal destiné aux développements d'une application [60].
68

ECRAN
GRAPHIOUE
- - - - - - - - - - - - ,
Camerat--'----,
1
1
1
1
1
r-m-a-gn-é-to-sc-o-pe-:-'_~_rJi'D~œm~.
1
==="'i~=
1
r-----jrr-:=~===I
Capteur
n
_ _ _ _ 1
1
-
MEMOIRE
ORDINATEUR
1--...-..1. . IMPRIMANTE
DEMASSE~~~
ROTE
ECRAN
CLAVIER
TEXTE
Figure IIU : Architecture matérielle d'un système complet d'analyse
111.1.1 Le capteur
Il constitue l'œil du système, il en existe principalement deux types [5/6]:
* Caméras de type CCD (charge coupled Deviee)
Ces caméras sont constituées par un ensemble de photodiodes délivrant
une intensité proportionnelle à un pixel.
* Caméras à tube
Ces caméras sont composées d'une cible photoconductrice qu'explore un
faisceau électronique. L'exploration se fait ligne par ligne. A chaque ligne
correspond en sortie un signal analogique proportionnel à l'intensité du faisceau.
69

111.1.2 Le processeur analogique
Cet élément peut être considéré comme le gestionnaire des E/S
(entrée/sortie) vidéo du système. Ses fonctions sont multiples:
- Sélection de la caméra active lorsque le système supporte plusieurs
entrées et étalonnage du signal,
- sélection de l'écran d'affichage si le système comporte plusieurs sorties,
- acquisition du signal vidéo effectué par le digitaliseur qui permet
l'échantillonnage spatial et le codage d'image,
- prétraitement de l'image lors de l'acquisition.
Il s'agit
généralement d'opérations ponctuelles qui visent à modifier le
contraste de l'image.
111.1.3 Le processeur d'images
Il existe une grande variété de processeurs de ce type. Leur fonctionnalité et
leur puissance sont liées à la nature de l'application à développer. L'architecture
de ces processeurs est déterminée par la tâche à exécuter: processeur de filtrage,
d'extraction de contours, opérations morphologiques
.
111.1.4 L'ordinateur hôte
Son rôle est de contrôler les éléments décrits précédemment.
111.2 Description du matériel utilisé
Nous avons utilisé un matériel minimal (figure 111.2), qui se compose
- d'un micro-ordinateur:
- Processeur IAPX 386 à 25 MHZ.
- Disque dur de 300 Moctets.
- RAM 4 Moctets.
- d'une carte de traitement d'image MATROX PIP 1024 :
Les caractéristiques de la carte MATROX sont données en annexe.
- d'un magnétoscope:
Pour restituer les images échocardiographiques, racinaires ,...
- d'une imprimante vidéo permettant de garder la trace des images traitées afin
de comparer les résultats de divers opérateurs,
-d'un moniteur RVB,
70

-d'une souris.
CARTE MATROX l'II' 1024
Imprimante
vidéo
Figure III.2 : Système de traitement
Cette configuration a été mise en oeuvre dans un cadre d'acquisition d'images
provenant de différentes sources (télédétection, échocardiographie ....). Le but
poursuivi est la mise en oeuvre d'un système automatisé d'analyse et
d'extraction des caractéristiques de ces images.
111.3 LOGICIEL SAPIN (Système d'Analyse Pour Image Numérisée)
Nous allons décrire les principales tâches utilisées dans notre système
d'analyse d'images suivant leur ordre d'exécution. Cependant cet ordre est tout à
fait global et ne peut avoir un caractère unique. Certaines applications peuvent
inverser deux tâches ou bien sauter une étape, comme l'illustre la figure 111.3 qui
donne l'illustration des différents chemins possibles pour procéder à une analyse.
Amélioration~--~~
Extraction
Image
de
brute
aracteristiques
Binarisation t---~
regions
Figure III. 3 : Les différents chemins possibles dans un processus de traitement d'image
7 1

Sans vouloir entrer dans les détails de la technologie des machines, nous
allons décrire les principaux constituants de celles-ci. Ceci nous permettra, par la
même occasion, d'introduire quelques concepts de base relatifs à notre système
d'analyse d'images, et de parcourir les différents algorithmes de prétraitements,
de traitement et d'extraction de l'information dans notre système.
III.3.1-Choix du langage
A priori, le langage assembleur est bien adapté au traitement. En effet,
lorsqu'il est bien maîtrisé, il offre une rapidité maximale. Seulement, son
utilisation suppose une bonne connaissance du
processeur cible (jeu
d'instructions, modes d'adressage) et devient rapidement délicate lorsque les
traitements sont complexes. En outre, le dialogue homme-machine présente une
convivialité limitée.
Aussi, de nombreux langages structurés de haut niveau (tels le Pascal,
Fortran...) peuvent être utilisés, mais ne sont pas flexibles, c'est à dire
indépendants du système d'exploitation.
Le langage C a suscité notre intérêt car il présente des caractéristiques de
portabilité répondant à nos contraintes.
Ses propriétés sont d'autre part intéressantes pour la maintenabilité et
l'évolutivité du logiciel. Cet aspect, longtemps négligé par les développeurs,
devient un critère de qualité logicielle auquel on accorde de plus en plus
d'attention [54]. Il offre des compilateurs performants générant des codes rapides
optimisés rélogeables "romables".
Ces dernières propriétés sont d'un intérêt tout particulier pour les
développements des applications volumineuses.
111.3.2 Description du logiciel "SAPIN"
L'ensemble du progiciel SAPIN (figure 111.4) a principalement été développé
pour le traitement d'images numériques.
Une importance prépondérante a été donnée aux routines de traitement de
l'imagerie échocardiographique (Mode B et TM) pour déterminer la fonction
cardiaque. Cela en raison de l'implication du groupe dans de nombreux projets
basés sur cette imagerie.
72

Une récente coopération avec l'ISRA concernant les applications racinaires, a
entraîné un effort plus important sur les routines d'analyse des racines.
L'intention de développement de SAPIN [24] est d'en faire un logiciel de
traitement d'images largement ouvert, destiné à la recherche, à l'enseignement
et aux centre opérationnels , avec une structure minimale d'un système de
vision par ordinateur.
Dans la version d'évaluation de laboratoire, l'ergonomie revêt une
importance primordiale. Dans ce domaine le langage C permet d'utiliser les
techniques apportant un haut degré de convivialité et s'interface bien à
l'environnement graphique WINDOWS. Il nous a été possible de mettre en
oeuvre:
- du multifenêtrage pour l'affichage des paramètres caractéristiques de l'image,
-
des menus déroulants pour l'appel des fonctions,
- des appels à
d'autres applications de l'environnement à partir du
programme principal ainsi qu'à des u tili taires du système d' exploi ta tion.
Le logiciel réalisé assure les tâches principales (figure IlIA) suivantes:
- l'acquisition,
- les effets spéciaux sur image
- le traitement,
- l'extraction de l'information utile,
- les utilitaires et outils pour la manipulation d'images.
Il effectue en outre la mémorisation des traitements dans un fichier
historique qui permet d'automatiser les procédures au gré de l'opérateur.
Ce logiciel est bâti autour d'un programme principal (Menu) qui appelle
des sous-programmes utilitaires ou de traitement.
111.3.2.1 Menu principal
Les menus déroulants sont introduits à l'origine sur le Macintosh, le
concept de menus déroulant a été ensuite repris
par de nombreux logiciels
tournant sous différents systèmes d'exploitation.
Le principe d'un menu déroulant consiste à faire apparaître à l'écran une
fenêtre de sélection suite à la frappe d'une touche particulière, la frappe d'autre
touches devant permettre de se déplacer à l'intérieur du menu.
73

L'avantage de ce système est de permettre de fournir un grand nombre
d'informations suffisamment explicites, ce qui ne pourrait être réaliser par un
programme affichant en permanence l'ensemble de sélection disponible.
Le logiciel SAPIN est organisé ainsi. Le menu principal est surmonté
d'une barre de menus. Pour sélectionner une option de menu, en clinquant sur
celle-ci au moyen de la souris, ou en appuyant sur la touche d'accès "hockey"
correspondante. Une touche d'accès
est une combinaison de Alt+la première
lettre dans l'option (F dans fichier).
Les options inscrites dans la barre de menus ne provoquent généralement
pas une action directe, mais l'affichage d'un menu déroulant. Dans la figure IlIA,
les options de la barre de menu sont les suivantes:
fichier
~gmentation
Utilitaire
Figure IIIA : Organisation générale du logiciel SAPIN
4-
U~ vue détaillée pour l'utilisation de sapin est donné en annexe.
IlIA Mise en oeuvre des procédures
111.4.1 Procédures D'affichages
111.4.1.1 La représentation des images
La représentation en monochrome d'une image consiste à diviser l'échelle
en deux parties c'est à dire: Tous les niveaux inférieurs à 127 (la moitié de
l'échelle 0-255) seront affichés en noir, et tous les autres en blanc. Dans ce cas
nous aurons un affichage binaire divisant l'échelle de niveaux de gris en deux
régions:
niveaux de gris
o
128
255
1
1
1
noir
blanc
couleurs
74

Pour améliorer ce type d'affichage, l'échelle des niveaux de gris a été
divisée en quatre régions.
niveaux de gris
0
128
255
1
1
1
0
1
2
3
noir
rouge
vert
jaune
couleurs
Nous obtenons alors un affichage quatre couleurs. Tous les pixels de
valeurs comprise entre 0 et 63 seront affichés en noir, ceux entre 64 et 128 en
rouge etc...
Ces procédures d'affichages ont été améliorées par une méthode basée sur
une règle probabiliste jouant sur la densité des points allumés et éteints sur
l'image [10]. Le principe de cette technique dans le cas d'une représentation bi-
niveau est le suivant: :
soit une image 1 de n lignes et p colonnes. Nous avons
0<= I(x,y) <= Nmax=255
avec:
0<= X < n=128
0<= y < p=128
soit X une variable aléatoire discrète équiprobable sur le domaine [0,
Nmax-ll et F la fonction d'affichage telle que:
F(x,y) = 0 si I(x,y) <= X allumé
F(x,y) = l si I(x,y) > X éteint
si Pl est la probabilité d'allumage d'un pixel:
Pl = P(F(x,y) = 1) = P(I(x,y) > X)
75

et cette probabilité est strictement croissante en fonction des niveaux de gris et
vaut pour les extrêma
osi I(x,y) =0 car 0 > X impossible
1 si I(x,y) = Nmax car Nmax > X toujours vrai
Nous constatons que la probabilité d'avoir un pixel allumé est importante
quand le niveau de gris est élevé.
La représentation sur quatre niveaux est similaire: on divise cette fois ci
l'espace des niveaux de gris en quatre nuances disponibles numérotées 0,1,2,3.
L'algorithme fonctionne à l'aide des couples (éteint, allumé) ce qui permet
de définir trois domaines où les couples correspondent aux couleurs (0,1), (1,2) et
(2,3).
La méthode consiste à déterminer à quelle zone appartient le pixel de
l'image considéré et à appliquer le principe d'affichage bi-niveau à cette zone.
Les tables de couleurs de la carte vidéo MAT R 0 X, définissent la
correspondances entre les niveaux de gris dans les quatre plans, et l'intensité
(0-255) des couleurs respectives.
Les tables de couleurs peuvent affecter une intensité prédestinée à chaque
niveau de gris et peuvent être stockées et réutilisées ce qui permet d'effectuer de
multiple variations locales de contrastes d'une image.
Les fonctions principales réalisées de la modulation du contrastes sont:
*Définir la taille de l'intervalle de niveaux de gris [bas ..... haut] à visualiser
à l'écran pour chaque plan image.
*Déplacer cet intervalle vers le haut ou les niveaux bas de gris.
76

Intensité de Couleur
255
1 -
+-
+-
,.. Valeur de
a
Bas
Haut
255
pixel
La combinaison de ces deux fonctions permet de définir une table de
couleur, qui doit avoir par exemple l'allure suivante.
Valeur des niveax
lntesité de la couleur
de gris de l'image
Rouge
Vert
Bleue
a
255
255
255
1
100
a
200
2
70
130
20
100
10
200
.::D
200
200
220
2500
255
a
a
0
Le format par défaut d'un fichier de table de couleur est de 3x256xl octet. Binaire.
Les 256 premiers bits pour le rouge, les 256 suivants pour le vert, et les 256
derniers bits pour le bleue. La taille du fichier est donc de 768 octets.
Remarque
Pour pouvoir mettre en évidence certaines propriétés d'une image,
d'autres représentations existent tel que l'histogramme, qui est essentiel dans
tous les domaines, il est à base de nombreux traitements.
77

111.4.1.2 Histogramme
L'histogramme
donne
un
grand
nombre
d'informations
sur
la
distribution des niveaux de gris de l'image ( dynamique).
Il permet notamment d'analyser entre quelles bornes est répartie la
majorité des niveaux de gris, dans le cas par exemple d'une image trop claire ou
trop foncée, ou d'isoler des objets du fond dans le cas d'une image à fort
contraste.
L'algorithme de calcul d'histogramme se présente comme suit
Mettre à 0 des éléments de Histo
Pour chaque point I(x,y) de l'image
F
A
1
Histo(I(x,y» = Histo(l(x,y» + 1
R
E
Chercher le Max des éléments de Histo afin de
recadrer les valeurs de Histo entre 0 et Ymax pour
affichage;
Afficher Histo recadré
* Histo est un tableau de N entier si l'image est codée sur N niveau de gris. Il
contient les éléments de l'histogramme.
Le calcul de l'histogramme peut ne concerner qu'une partie de l'image.
La même procédure permet aussi de calculer les valeurs min, max,
moyenne et écart type de l'image.
111.4.2 Procédures de prétraitements et d'amélioration d'images
Comme mentionné au chapitre Il, les sources de dégradations d'une image
sont nombreuses.
Le prétraitement regroupe un ensemble de méthodes qui vise à atténuer
ces effets indésirables au travers différentes approches d'amélioration qui sont:
-les opérations permettant l'examen de l'histogramme afin de minimiser
les défauts de prise de vue en jouant sur la dynamique,
-le filtrage dans le but de minimiser l'influence du bruit dans l'image.
78

111.4.2.1 Modification de l'histogramme
Dans une image, les détails dans les reglOns sombres sont difficilement
perceptibles car
certains pixels ont une valeur inférieure à la luminance
moyenne.
La technique utilisée pour pallier à cet inconvénient est appelée
modification d'histogramme. Son principe est donné par la figure 111.5. Si l'image
est de taille p*p et que l'image résultat est codée sur Nf niveaux, alors le nombre
de pixels pour chaque niveau de l'histogramme égalisé idéal est constant et égal à
p2/Nf (car on a p2 pixels dans l'image). Il est évident que le nombre de niveaux
final Nf doit être inférieur à celui de niveaux initial Ni. En effet, l'égalisation
n'est autre qu'une intégration de l'histogramme initial. Dans l'exemple de la
figure 111.5, la largeur d'une bande est égale à 10/5=2.
-On part du niveau a et on calcule la valeur cumulée des niveaux suivants
dans l'histogramme original jusqu'au moment où la somme est le plus près
possible de la valeur moyenne idéale p2/Nf.
-Tous les niveaux de l'histogramme initial qui ont participé à cette somme
sont alors recadrés sur un niveau final unique qui se trouve au centre de la
première bande de l'histogramme final.
L'exemple de la figure 111.5 montre que la somme des niveaux 0, 1, 2 de
l'histogramme original est proche de la moyenne de l'histogramme final idéal.
Or celui-ci comprend cinq bandes de niveaux. La première étant celle des niveaux
a à 2, le centre de cette bande est 1. Cela signifie qu'après transformation, les
valeurs 0, 1, 2 seront remplacées par le niveau 1.
-D'une manière itérative, l'opération est recommencée pour les bandes
suivantes. En général on utilise Nf=Ni/2 qui est l'intégration minimale. Pour
une image 256*256 codée sur 512 niveaux, si l'on veut un histogramme égalisé
sur 64 bandes, la valeur moyenne idéale dont il faut se rapprocher est
256/128=512.
79

Histogramme original
J
~
- - - - - - - - - - - - - - - - - - - -
• It



It
It
i r _
0
3
5
9
10
,
1
.!
~. ,
- - f - - - - - - - - - - - - - - - - - 1 - -

4

o
2
3
4
5
6
7
8
9
10
Histogramme égalisé
Figure TTT.s : Principe de l'égalisation d'histogramme
80

L'algorithme de cette transformation est le suivant:
moyenne < -- p·p/Nf
Bande
< -- Ni/Nf
centre bande < -- bande/2
i debut
< -- 0
iFin
< -- 0
Tant que iFin < Ni
Cumul < -- 0
F
A
Tant que cumul n'est pas proche de moyenne et
iFin < Ni
F
1
A
Cumul < -- Cumul + Histo[iFin]
1
R
R
Incrémenté iFin
E
Pour i = iDebut à iFin - 1
E
F
A
1
Transfo[i] <---Centrebande + bande
R
E
i debut < -- ifin
Centre < -- centre bande + bande
Pour tous points de Ima
F
A
pel < -- Ima [i,il
1
R
E
Ima[i,]] <-- transfo[pel]
rma
image à égaliser
Histo
Histogramme de l'image
Transfo
Table d'égalisation entre image originale et finale
iDebut
pointe le debut de la zone d'intégration sur Histo
iFin
pointe la fin de cette zone
Bande
Largeur de bande finale Ni/Nf
Centre bande: Pointe sur le centre de la bande courante, initialisé à bande/2
8 1

111.4.2.2 Procédures de filtrages
Nous avons vu que l'image possède une certaine redondance spatiale: des
pixels voisins ont généralement les mêmes caractéristiques.
Le bruit dans une image étant définie comme étant un phénomène de
brusque variation d'un pixel isolé par rapport à ses voisins, une des techniques
pour lutter contre ses effets consiste à opérer des transformations qui pour chaque
pixel tiennent compte de son voisin.
Dans de nombreux domaines scientifiques, le bruit joue un rôle
fondamental. Il est à l'origine d'un grand nombre de difficultés lorsque l'on
désire analyser un quelconque signal. Le bruit et non seulement lié au matériel
utilisé (cf chapitre II), mais aussi à l'image elle même: zone de fort contraste,
parties plus au moins sombre, etc.
-Le bruit impulsionnel
Une première approximation permet de caractériser le bruit par un bruit
impulsionnel. C'est à dire un bruit affectant de brusques variations à des pixels
isolés. Ce modèle très rudimentaire[37] permet de générer de manière simple du
bruit dans une image et a l'avantage d'être aisé à programmer en utilisant une
fonction aléatoire paramétrée en amplitude et en densité. La densité va
déterminer la proportion moyenne de pixels atteints par le bruit, l'amplitude va
en déterminer le niveau. Cette procédure
nous permet d'évaluer les
performances des algorithmes de filtrage que nous étudierons.
Introduire - niveau de bruit
- densité de bruit
Pour i = a à maxlin
F
A
Pour j = a à maxcol
1
F
A
Détermination
R
1
de
R
l'affectation
E
E
de bruit sur un
pixel
-filtre moyenneur
La méthode consiste à considérer chaque point de l'image et d'en faire la
moyenne avec ses plus proches voisins. Nous rappelons que ce type de filtre
permet d'adoucir l'image en réduisant les fluctuations des niveaux de gris.
82

La procédure du moyenneur eéalise un filtrage passe-bas par moyennage
des points dans un voisinage.
La taille de ce voisinage doit être impair et peut être comprise entre 3 et 15.
La procédure est la suivante:
Demitaille = (taille - 1) div 2
Scale = taille· taille
Initialisation
Calcul du filtre moyenneur
Procédure d'initialisation des tableaux:
Pour i = 0 à maxlin
F
A
Pour j = 0 à maxcol
1
F
A
R
Imaout[i,j] = 0
1
R
E
E
Charger image
Remarque
Le filtre n'est pas applicable aux coordonnées (0,0) car le filtre fait appel à
des points de coordonnées négatives qui n'appartiennent pas à l'image.
D'une manière générale pour un filtre de taille (n+l)*(n+l), il y a autour de
l'image un cadre d'épaisseur n/2 où le filtre n'est a priori pas applicable. L'une
des méthodes pour pallier cet inconvénient consiste à filtrer uniquement la
partie intérieure de l'image de n/2 à (p-n/2). L'image résultat est alors de taille (p-
n/2) * (p-n/2).
n/2
p-n/2
1
n/2
----1--
1
p
1
1
1
1
1
1
f - T - - - - , -
p-n/2
p
Figure ITT.6: Résolution des effets de bord
83

-Procédure de calcul de filtre:
Pour i = Demitaille à maxlin - Demitaille
F
Pour j = Demitaille à maxcol - Demitaille
A
F
Somme = 0
A
Pour k = i-Demitaille à Demitaille+i
1
F
1
Pour 1= i-Demitaille à Demitaille+j
A
R
R
1
F
E
A
Somme = somme+ Imain[k,l]
E
R
1
R
Imaout = somme div scale
E
E
Imain et Imaout sont respectivement les images initiale et finale
-Filtre non linéaire "médian"
L'exemple classique de filtre non linéaire est le filtre médian de Tuckey
[61]. Son principe est celui de la figure IlL?, il peut être décomposé selon les étapes
suivantes:
Soit une fenêtre de balayage de taille nxm ( m et n impaires), on range dans
l'ordre croissant dans un tableau T(k) (K E [l,nxm] ) les niveaux de gris E [i,j]
Ci E [l,m] et j E [l,n] ) de l'image d'entrée E appartenant à la fenêtre.
On remplace le niveaux de gris du point central de la fenêtre par le
niveaux de gris pris sur la médiane du tableau T
84

m
n
E
s
x
1
m
1
5
~
8
3
3
J -
Y
7
Il
12
20
n
E
S
t
~,
20
T= 1 3
3
~
1 5
1 5
8
III 112 1
Figure ITl.7: Principe de fonctionnement d'un filtre médian
Remarque
Plus la taille de filtre est grande, plus le filtrage peut paraître efficace, mais
plus il déforme l'image sans pour autant adoucir son contraste. En fait le filtre
médian est efficace lorsque l'image est dégradé par une source de bruit de type
im pulsionel.
Dans certaines applications, on préfère le masque en forme de croix à un
masque classique (voir figure III .8) qui engendre moins de déformations tout en
étant aussi efficace vis-à-vis des perturbations agissant sur des pixels isolés,
lorsque l'on assiste à des variations brusques des pixels, donc si l'image est
dégradée par une
source de bruit impulsionnel.
a

b
c
Figure ITl.8 : Masques utilisés pour le filtre médian
a: masque carré, b: masque en croix, c masque en X.
85

La procédure suivante réalise un filtre médian en utilisant un filtre en
croix de taille 5*5, Cette procédure peut se décomposer en trois parties comme
suit:
Charger l'image
Mise à zéro du cadre
Filtrage
Tri et choix de la valeur médiane
* mise à zéro du cadre:
F
Pour i ; 0 à max lin
A
Pour j; 0 à'
F
1
A
Imaout[i,j] = 0
1
R
R
Imaout[i,maxcol-j]; 0
E
E
F
Pour i =0 à ,
A
Pour j; 0 à maxcol
F
1
A
Imaout[i,J1 =0
1
R
R
Imaout[maxcol-i,J1 =0
E
E
*filtrage
Pour i = 2 à maxlin -2
F
A
Pour j = 2 à maxcol -2
F
1
A
Remplissage de la table de tri à l'aide
1
R
R
des pels voisins du pel courant compris
E
dans la croix de taille S*S
E
86

""Tri et recherche de la valeur médiane
ENDtri = False
Tant que non (ENDtri)
F
ENDtri = True
Pour 1 = 1 à 8
A
F
A
1
~[~
Alors
inon
1
intre = Tri[l]
R
R
Tri[l] = Tri[I-1)
Tri[I-1]
= inter
i=
ENDtri = False
E
Imaout [i,il = Trie[4]
(choix de la valeur médiane)
L'algorithme de tri des pixels de la table par ordre croissant utilise la méthode de
la bulle.
Tri: est un tableau de huit éléments
111.4.3 La segmentation des images
Le but de l'analyse de l'image est d'obtenir une discipline synthétique des
divers éléments qui la constituent à partir de la masse énorme d'informations
qu'elle contient à l'état brut.
Les opérateurs d'extractions de contours sont nombreux (cf. chap.III ).
Nous allons dans ce paragraphe détailler les procédures relatives aux opérateurs
les plus utilisés.
111.4.3.1 Procédure du filtre SOHEL
Cette procédure calcule le gradient d'une image en utilisant l'opérateur de
SOHEL. Le résultat est un tableau contenant les amplitudes du gradient. Celles-ci
sont calculées par le maximum des valeurs absolues en X et Y
Charger l'image
Mise à zéro des bords
Dérivation
Affichage
87

- Mise à zéro des bords
F
Pour i = 0 à maxlin
A
Pour j= 0 à 1
F
1
A
Imaout[i,j] = 0
1
R
R
Imaout[i,maxcol-j] = 0
E
E
F
Pour i = 0 à 1
A
Pour j= 0 à maxcol
F
1
A
Imaout[i,j] = 0
1
R
R
Imaout[maxcol-i,j] = 0
E
E
*Dérivation
Pour i = 1 à maxlin - 1
Pour j= 1 à maxcol - 1
F
F
A
Grad X = SOB 1
A
Grad Y = SOB 2
1
1
R
R
~~
Alors
Sinon
E
Imaout[i,j] =
Imaout[i,j] =
E
abs(GradY) div 4
abs(GradX) div 4
50Bl = Imain[i-l/j+ 1] + 2*Imain[i/j+l] +Imain[i+ l/j+ 1]
-Imain[i-l/j-l] - 2*Imain[i/j-1] - Imain[i+l/j-l]
50B2 = Iamin[i+ l/j-l] + 2*Imain[i+ l/j+] +Imain[i+ l/j+ 1]
-Imain[i-l/j-l] - 2*Imain[i-l/j] - Imain[i-l/j+l]
88

111.4.3.2 Procèdure LAPLACIEN
Cette procédure calcule le laplacien d'une image. L'image résultat est une
carte de passage par zéro.
Chaque passage par zéro est proportionnel à la pente de la fonction lors du
passage par zéro. Les valeurs sont recadrées entre a et 255.
L'algorithme relatif à cette procédure est le suivant:
Charger l'image
Mise à zéro des bords
Dérivation
Détéction des passages
par zéro
Recadrages
Affichage
*Mise à zéro des bords
F
Pour i = 0 à maxlin
A
Pour j= 0 à 1
F
1
A
ImaAux[i,j] = 0
1
R
R
ImaAux[i,maxcol-j] = 0
E
E
F
Pour i = 0 à 1
A
Pour j= 0 à maxcol
F
1
A
ImaAux[i,j] = 0
1
R
R
ImaAux[maxlin-i,j] = 0
E
E
*Dérivation
On utilise une image auxiliaire "imaAux" dans laquelle sont mises les
valeurs négatives entre a et 126 et les valeurs positives entre 128 et 255.
Scale = Nivmax/Max
F
Pour i = 1 à Maxlin - 1
A
Pour j= 1 à Maxcol - 1
F
1
A
ImaAux[i,j] = (L*div16) + 127
R
1
R
E
E
89

LI = 8*Ima[i,j] - Ima[i-l,j] - Ima[i +l,j] -Ima[i,j-l] - Imai[i,j+ 1]
- Ima[i-l,j-l] -Imai[i+l,j+l] -Ima[i-l,j+l] - Ima[i+l,j-l]
*Détection des passages par zéro
Pour i = 0 à maxlin
-1
Pour j= 0 à maxcol-1
Pix = ImaAux[i,j]
F
F
PixX = ImaAux[i.j+ 1]
PixY = ImaAux[i+ 1,j]
A
PixXY = ImaAux[i+ 1,j+ 1]
A
Alors
Sinon
1
~~
Max =abs(Pix - pixX)
1
R
~X
Alors
Inon
Max =abs(Pix - pixY)
R
E
~Y)~
Alors
Sinon
Max =abs(Pix - pixXY)
E
Ima[i.j] = Max
Ima[i,j] = 0
* Calcul de. l'amplitude maximale du Laplacien pour recadrer le résultat entre 0 et
255
Max = 0
Pour i = 1 à Maxlin - 1
F
A
Pour j = 1 à Maxcol - 1
F
1
A
R
1
~~
Alors
Sinon
R
E
E
Max = Ima[i,j]
90

*Recadrage
Scale = Nivmax/Max
F
Pour i = 1 à Maxlin - 1
A
Pour j= 1 à Maxcol - 1
1
F
A
Ima[i,j] = trunc(lma[i,j]*Scale)
R
1
R
E
E
111.4.4 Routines de filtres standards
La méthode du balayage par masque est couramment utilisée puisque
finalement on peut considérer qu'elle englobe les opérateurs de différenciation
comme les gradients et le Laplacien. Elle a fait l'objet de développement intensif
dans la littérature et chez les industriels du traitement d'images.
Le logiciel SAPIN offre les différents masques que nous avons passés en
revue dans le chapitre précèdent.
Nous proposons à la demande de l'utilisateur un extracteur de contour de
type passe haut, caractérisé par une matrice normalisée:
1
-b
1
1
-b
HH (i, j)
2
(b+2 )
1
-b
1
et un atténuateur du contour du type passe bas définie par:
1
b
1
1
b
HB (i, j)
2
(b+2 )
1
b
1
Le paramètre b peut varier de 0 à 9 et le menu propose le choix du nombre
N d'itération sur l'image originale f(i,j) pour obtenir l'image finale g(i,j) définie
par:
g(i,j) = Hi,j) ® H(i,j) ® H(i,j)
® H(i,j)
9 1

Il faut noter que des itérations trop nombreuses augmente l'effet de "flou"
et dégradent les bords de l'image.
Nous avons intégré une procédure plus générale permettant de lire un
fichier contenant des masques de fenêtres 3x3 , SxS ou 7x7 pixels représentant la
plupart des opérateurs PREWITT, saBEL, LAPLACIEN ...etc et aussi les masques
optimaux tels que le masque de FREEMAN .
111.4.5 Image binaire
111.4. 5. 1 Binarisation d'une image
La binarisation permet d'isoler les objets
blanc sur fond noir
en
choisissant les seuils adéquats.
La procédure suivante réalise une binarisation
de l'image en entrée
suivant un mode interactif.
L'utilisateur est invité à entrer les seuils bas et haut de binarisation.
Pour i = 1 à Maxlin - 1
Pour j = 1 à Maxcol - 1
F
F
Si Imaln [i,j] >= Seuilbas
A
A
ET
i Imaln [i,j]<= Seuil haut
l
Alors
R
R
E
Imaout[i,j] = Nivmax
Imaout[i,j] = 0
E
111.4. 5. 2 Opérateurs morphologiques
Du fait de leur codage sur deux niveaux, chaque pixel d'une image binaire
peut être codé comme un élément logique, donc à valeur Vrai ou Faux.
Or, comme nous l'avons signalé au chapitre II, la dilatation et l'érosion
visent à améliorer ces images binaires.
Les procédures relatives à ces deux opérateurs sont les suivantes:
92

-Dilatation
Le principe est réalisé en prenant sur l'image une fenêtre carrée de taille
(N+1) * (N+1) et en effectuant pour chaque pixel de l'image le OU logique des
(N +1)2 -1 voisins, c'est-à-dire tous les pixels de la fenêtre sauf le pixel central. Le
résultat de cette fonction logique est alors: si le OU des voisins vaut 1, alors le
pixel courant est forcé à 1 dans l'image résultat, si le OU vaut 0, alors le pixel
courant est recopié de l'image initiale vers l'image résultat.
Pour tous les points Imaln(x,y)
F . - - - - - - - - - - - - - - - - - - - - - - 1
Calculer FOU (x ,y)
A
Si FOU (x,y)
R ImaOut(x,y) <--1
ImaOut(x,y) < -- Imaln(x,y)
E
Imaln(x,y) : image initiale
Imaout(x,y): image de sortie
F : fenêtre carée de taille 3x3
FOU (x,y) : OU logique des points des 8 voisins sanf le pixel central
-Erosion
Le procédé est dual à la dilatation. On effectue cette fois le ET des (N +1)2 -1. De
ce fait l'image se trouve érodée et tout pixel blanc isolé disparaît.
Pour tous les points Imaln(x,y)
F r - - - - - - - - - - - - - - - - - - - - I
Calculer F ET (x,y)
A
R ImaOut(x,y) < -- Imaln(x,y)
ImaOut(x,y) <--0
E
ImaIn(x,y) : image initiale
Imaout(x,y): image de sortie
F : fenêtre carée de taille 3x3
F ET (x,y): ET logique des points des 8 voisins sanf le pixel central.
93

111.4.6 Squelettisation
La squelettisation s'effectue par une succession d'opérations appelées
amincissement [2],(16), jusqu'à l'obtention d'une structure stable ne pouvant plus
être amincie et dont les éléments sont des lignes d'une épaisseur d'un pixel.
Ceci peut être obtenu en balayant l'image avec une série de masques dont
les dessins sont donnés figure III.10. Ces masques décrivent les différentes formes
possibles qu'une ligne peut prendre sur trois pixels (points 2,3,4 des masques).
La fonction logique Fs associée à chacun de ces masques est:
Fs = ( 1. 2. 3 ) . (5 . 6 . 7)
d'où
Fs =(1. 2. 3 ) . ( 5 + 6 + 7)
avec '.' signifiant le ET et '+' le OU
2
3
2
4
3
4
3
4
3
3
2
2
3
4
Figure HLla : Masques utilisés pour l'amincissement
94

L'algorithme d'amincissement correspond alors à :
Pour chacun des 8 masques
F
Pour chaque point de l'image
F
A
Calcul de Fs
A
R
R
E
Imaout(x,y) <--0
1maout(x,y) <--Imain(x,y)
E
Les points 5,6,7 des masques servent à tester si le pixel 1 n'appartient pas
déjà à une ligne ce qui permet ,si c'est le cas, de garder celle-ci intacte.
La présence des huit masques s'explique par le fait que l'opérateur ne doit
pas privilégier une direction particulière, mais amincir suivant toutes les
directions.
Pour
effectuer
la
squelettisa tion,
il
suffit
d'i térer
l'opération
d'amincissement jusqu'à obtention du squelette final.
Tant que image Non Stable
F
A
1
R
AMINCISSEMENT
E
La stabilité est détectée par l'absence de changement entre l'image amincie
et l'image originale.
Stable est une variable logique destinée à détecter si l'on a effectué au
moins une mise à zéro de pixels lors de la transformation.
On effectuera une série de 8 amincissements suivant les 8 directions
possible représenter ci-dessous suivant un masque de taille 3 .
95

H1
H2
H8
H7-------.:~----- H3
H4
H5
Par exemple pour le masque EST nous pouvons écrire:
Pour i=l à Maxlin-l
F
Pour i=l àMaxIin-l
A
F
1
A
Alors
1
R
R
E ImaAmin[i,j] <--Imabin[i,j]
ImaAmin[i,j] <-- Faux
Stable <-- Faux
E
Stable est une variable logique destinée à détecter si l'on effectué au moins
une mise à 0 de pixels lors de la transformation.
ImaAmin est l'image finale après l'opération d'amincissement.
Imabin est une image binaire.
Fs = Imabin[i-l,j-l]
OR Imabin[i,j-l]
OR Imabin[i+l,j-1.]
OR (NOT (
Imabin[i,j]
AND
Imabin[i-l,j+ 1]
AND
Imabin[i,j+ 1]
AND
Imabin[i+ l,j+l]
))
96

111.4.7 Opérateurs géométriques
Cette partie est une très brève introduction aux corrections géométrique
d'image satellitaires, et un simple aperçu des fonctions disponibles.
Les utilisateurs d'images satellitaires sont souvent intéressés par la
superposition d'images de différentes périodes, ou de plan d'information
digitalisés à partir des cartes, telle que les frontières, routes .....etc.
Les images satellitaires ont souvent une géométrie irrégulière, variation
d'altitude et de vitesse minimale du satellite, la rotation de la terre, et les effets de
la courbure terrestre. Pour cela nous avons réalisé des modules permettant de
faire subir à l'image une inversion, une rotation, ou une translation.
111.4.8 Opérateurs algébriques entre images
Il s'agit d'opérateurs simples (additions, multiplication..... ) que l'on effectue
couramment entre deux ou plusieurs images. C'est encore des opérations de type
ponctuel puisque la valeur attribuée à chaque pixel de l'image de sortie ne
dépend que du point de mêmes coordonnées de chacune des images concernées,
sans interventions des points voisins.
Procédure de soustraction des deux images:
Raisonnant sur des images continues et supposons qu'on fasse la
différence de deux images A(x,y) et B(x,y) . On obtient ainsi la nouvelle image.
C(x,y) =A(x,y) - B(x,y)
Remarquant deux cas particuliers.
-Si B(x,y) = K <Constante) on a C(x,y) = A(x,y) - K . cette opération n'est
qu'un simple recalage du niveau de l'image.
-Si B(x,y) # A (x,y) on a : C(x,y) = A (x,y)- B(x,y) et en suppose que:
B(x,y) < A(x,y) pour éviter les valeurs négatives: si nécessaire on décale le niveau
moyen de A ou de B avant la soustraction ou prévoir un test dans la procédure
qui si la valeur est négative alors le compte est nul.
Remarque
pour une addition nous devons tester si la somme est supérieure à 255, le
pixel est forcé à 255.
97

Procédure de Multiplication et division d'images:
Ces opérations peuvent être utilisées pour corriger une variation de
sensibilité d'un capteur d'un point à l'autre de l'image: la table contenant les
valeurs servant à corriger la caractéristique inhomogène de ce capteur est
considérée comme une image par laquelle on multiplie (ou divise) l'image à
traiter.
La multiplication d'une image par une image purement binaire ou certaines
zones sont à a et d'autres sont à 1 permet de faire un masquage.
La division d'images est également utilisée dans le traitement des images
multispectrales en télédétection, où on est amené à faire des rapports entre les
diverses bandes spectrales afin de normaliser ou compenser le facteur
d'éclairement.
Autres opérations:
De nombreuses autres opérations sont également employées.
-Comparaison entre 2 images, pixel par pixel
-Opération logiques: OU, ET, OU exclusif, complémentation.
Conclusion
Dans ce chapitre nous avons présenté une structure minimale d'un système
de vision par ordinateur spécialisé dans le traitement des images numérisées.
Cette structure s'appuie sur l'architecture d'un matériel minima, associés au
logiciel SAPIN ergonomique d'aide à l'analyse de images.
Nous avons exposé certaines procédures que nous avons jugé parmi les plus
classiques. Dans ce qui suit nous allons appliquer SAPIN sur trois types d'image
satellitaires, échocardiographiques et racinaires.
98

1
CHAPITRE IV 1
APPLICATIONS
99

APPLICATIONS
IV. 1 Généralités
L'objectif de ce chapitre est de présenter certaines procédures mises à la
disposition
de
météorologues,
médecins,
géologues",
des
procédures
automatiques ou semi-automatiques d'analyse des formes naturelles, afin de se
départir de la subjectivité de l'interprétation, par la mise en oeuvre de
traitements nécessaires sur les données d'origines.
Le logiciel SAPIN permet d'effectuer ces opérations en prenant en compte non
seulement la spécificité des traitements nécessaires à l'objet de l'étude mais aussi
des ressources limitées des utilisateurs dans les pays en voie de développement.
L'aptitude de notre logiciel a été testé sur trois types d'images.
-Les images satellitaires avec pour objectif la détection de paramètres
météorologiques,
-les images échocardiographiques dans le but d'extraire les paramètres
significatifs de la fonction cardiaque.
- les images racinaires pour détecter les caractéristiques de la racine.
IV.2 Les images Satellitaires
IV.2. 1 Le satellite METEOSAT
Le satellite METEOSAT [3/26/32] est un satellite européen faisant partie
d'un réseau international comprenant 5 satellites géostationnaires répartis
autour de l'équateur à des intervalles d'environ 70° de longitude. Sa fonction
est essentiellement de fournir des images montrant la répartition des nuages, des
températures et de la vapeur d'eau au dessus d'un tiers du globe terrestre.
La position du satellite géostationnaire METEOSAT est à l'intersection de
l'équateur et du méridien de Greenwich( 0°, 0°) et à une altitude d'environ
36000 km. Il couvre la totalité du continent africain, une grande partie de
l'Europe et de l'Atlantique, une partie de l'Océan Indien et du continent Sud
Américain. La figure IV.I montre le champ de visualisation du satellite
METEOSAT .
100

La résolution spatiale du satellite qui est de 5 km au point subsatellitaire
passe à 10km au voisinage des bords de champ de vision.
IV.2.2 Bandes spectrales utilisées par METEOSAT
METEOSAT est équipé d'un radiomètre fonctionnant sur trois canaux
le visible, l'infrarouge et vapeur d'eau.
- le canal visible VIS (0,4 gm - 1,1 um)
Sur les images "visibles", les élements les plus brillants sont ceux qui
réfléchissent le plus fortement la lumière du soleil vers le satellite (figure IV.2).
La luminance d'une zone ( ou brillance visible) dépend de 3 facteurs:
- l'intensité du rayonnement solaire,
- la hauteur du soleil qui définit l'éclairement,
- la réflectivité ou réflectance de l'objet (l'albédo).
Du fait que le radiométre mesure la lumière du soleil réfléchie par les
objets, il n'est pas possible d'avoir des images "visible" de nuit.
- le canal infrarouge IR (lO,Sgm-12,Sum)
En régIe générale, plus l'objet est chaud, plus son émittance est grande
(figure IV.3). Une image IR est donc essentiellement une carte thermique de la
surface de la terre et des sommets des nuages sur laquelle les faibles radiances
correspondent aux basses températures.
- le canal vapeur d'eau VE (S,7um-7,lum)
La propriété de cette bande spectrale est l'absoption du rayonnement
solaire par la vapeur d'eau.
Les images
"VE" donnent la teneur en eau de
l'atmosphère (figure IVA). Les régions en gris-clair correspondent à des zones de
forte humidité.
101

1
1
'lOI
SIA ;)lq!S!A Jt!uv ;)1 Slœp 1.VS03.13W ;)2eWI : Z1A <}J~H
1
1
1
1
1
1
1
1
1
o
oo~
0002
OOSl
0001
OU~1
o!........-..--...J..............~~2;5;;~ ...........
l
...o.-L-...&.......L.................
1
1
DOS
1
0001
1
1
1
oooz
1
OOSZ
1
Il
1

Figure VI.3: Image METEOSAT dans le canal Infrarouge IR
Figure VIA: Image METEOSAT dans le canal vapeur d'eau WV
103

IV. 2.3 Le programme ISCCP
L'acquisition des images METEOSAT se faisant à une cadence élevée
[2/62], c'est à dire une image toute les demi-heures, et à une résolution spatialle
élevée (5kmx5km), le volume d'images à stocker et à traiter est très lourd. Aussi,
un effort international pour réduire ces données a été fait dans le cadre du projet
ISCCP (Intenational Satellite Cloud Climatology Project) .
Des données inter calibrées sur tous les satellites en service ont été
construi tes depuis Juillet 1983.
IV.2.4 Les images du fonnat B2
Les caractéristiques des images B2 sont les suivantes:
-Elles couvrent tout le disque balayé par METEOSAT
-La résolution spatiale a été dégradée et passe à 30 km au point subsatellite.
Cette résolution a été obtenue à l'aide d'un reéchantillonnage des données
brutes où un pixel sur 36 environ a été choisi.
-La résolution temporelle a été dégradée de manière à obtenir 1 image
dans les 3 canaux toutes les trois heures, soit 8 images par jour.
-Les données ISCCP-B2 existent donc sous forme de 416 lignes sur 416
points pour tout le disque vu par le satellite.
Ces images, réaménagées pour faciliter les études globales, sont égaleme'nt
satisfaisantes pour des études climatologiques de grandes échelles couvrant des
domaines vastes [21/37].
IV.2.S Le système de visualisation d'images
La visualisation des signaux reçus du satellite sur un écran vidéo donne
un aperçu intéressant des diverses situations atmosphérique et nous permet de
les localiser. Pour évaluer un phénomène dans l'atmosphère par satellite, il faut
d'abord l'avoir détecté dans le volume d'informations que nous envoie le
satellite.
Nous avons utilisé pour visualiser les images le mode indirecte dans
lequel les images préalablement stockées sur disque sont faciles à visualiser. Pour
ce faire notre système dispose de 4 quadrants que l'on peut choisir et dont
l'alternance rapide permet par exemple de voir le déplacement des masses
nuageuses entre deux images consécutives.
104

En plus, grâce au déplacement d'un curseur sur l'image visualisée, le
pointeur permet d'obtenir la position de chaque pixel par ses coordonnées
images en ligne x et colonne y.
L'intégration d'une procédure de navigation du L.M.D (Laboratoire de
Météorologie Dynamique) dans SAPIN nous permet d'établir la correspondance
entre les coordonnnées images et les coordonnées terrestres.
Pour chaque pixel, le rayonnement arrivant au radiomètre du satellite est
transformé en un signal numérique appelé "compte" radiométrique.
Pour l'infrarouge, le compte est en 8 bits alors que pour le visible, il est de
6 bits transfomé en 8 bits en additionnant de façon aléatoire 2 bits à droite des 6
bits ce qui revient à multiplier par 4 et à lui ajouter 0,1,2, ou 3. La valeur d'un
compte est comprise entre 0 et 255 (28 -1). On restitue les images sur un écran en
attribuant aux valeurs de comptes radiométriques une palette de "fausses
couleurs" que nous décrirons plus tard.
- la navigation
La navigation permet de déterminer d'une part les coordonnées
géographique ( À, la longitude et <\\>, la latitude) d'un point d'image connaissant
ces coordonnées cartésiennes (x ligne et y la colonne) ou d'autre part efféctuer
l'opération inverse. Les formules permettant d'effectuer ce passage dépendent de
la position du satellite ainsi que son orientation par rapport à la terre. Le cas le
plus simple consiste à prendre l'axe du satellites parallèles à l'axe des pôles et
situé à la verticale du point de coordonnées 0° de longitude et 0° de latitude
(figure VIA). On alors les relations suivantes:
p e
p ex
X = - - - -
(1)
et
y= - - - -
arc sin RIO
arc sin RIO
p : valeur du rayon terreste sur l'image exprimée (dans la même unité que x et y)
R: valeur réelle du rayon terreste
0: distance du satellite au centre de la terre (D IR = 6,625)
e et ex: angles de visée du radiomètre pour voir les points de coordonnées ( X
,Y) ou ( À, <\\».
105

Les relations liant ( a , 8 ) et ( À , <1> ) s'écrivent:
sin e
sin ( À + <1> )
sin À
=
=
(3)
R cos <1>
D
d
R
sin <1>
tg a =
(4)
d
d: distance d'un point de la surface terrestre M au satellite S (figure IV.5).
Ce qui donne après transformation des équations (3) et (4):
2 D cos 8
- - - - sin <1>
+
-
1
= 0
(5)
sin2 a
R tga
Nord
Equaleur
Terreslre
Sud
Figure VI.5 : Passage des coordonnées images (X,Y) aux coordonnées géographiquE À et <l> et
inversment.
Pour obtenir À et <1> en fonction de a et 8, on prend la racine positive de
l'équation (5):
D
D2
sin <1> =
cos 8 cos a sin a - sin a [- ( cos 2 a
cos 2 8 - 1) + 1 ] 1/2
(6)
R
R2
sin e
sin À=
tg <1>
(7)
tg a
106

La combinaison des équations (1), (2),(6) et (7) permet ainsi d'obtenir À et <l>
connaissant X et Y.
Pour <l> = 0 (c'est à dire à l'équateur), on a:
D
D2
sin À = sin <l> - - cos e - ( 1 - - - sin 2 e )1/2
(8)
R
R2
Des formules identiques ont été établies pour passer de À et <l> à X et Y [2] .
Elles s'écrivent sous la forme:
sin e
tg a =
(9)
D2
D
[----- - 2
cos <l> cos À+ cos 2 <l> ] 112
R2
R
et
sinÀ cos <l>
sin e =
(10)
D2
D
[----- - 2
cos <l> cos À+ cos 2 <l> ] 112
R2
R
X et Y sont alors obtenus par les équations (1) et (2)
La connaissance du rayon p sur l'image passe par la détermination
de
points amers servant de points de repère sur l'image, facilement mesurables et
dont la longitude et la latitude sont connues. Le satellite est supposé immobile,
c'est à dire reste à la verticale du point de coordonnées (0°,0°)
L'évaluation de tous ces paramètres définie donc l'orbitographie qui
servira à déterminer les coordonnées géographiques des différents éléments
contenus dans l'image.
107

Remarque:
la navigation peut à la longue s'avérer fausse si l'on tient pas compte des
modifications dues:
- au déplacement du centre du gravité du satellite,
- au roulis de l'axe du satellite qui peut entrainer une rotation de l'image,
ceci est due au mouvement de l'axe du radiomètre.
- la calibration
La calibration de METEOSAT permet d'établir la correspondance linéaire
entre les comptes radiométriques et les luminances mesurées. L'ESOC (European
Space Operation Center) publie régulièrement les rapports de calibration.
Les images ISCCP B2 sont recalées géométriquement mais non corrigées
radiométriquement. Pour faire la correction radiométrique on utilise les rapports
de calibration publiés pour la période étudiée.
On détermine d'abord la luminance R par la formule
R = FAG * MIEC *( C - C 0)
(en W.m- 2 .5t-1 )
Puis on détermine la température de l'élément observé par des tableaux
publiés dans les mêmes rapports de calibration.
Dans la formule ci-dessus citée,
FAG (Fin Adjustment of Gain) est un facteur provenant de la mesure
d'un corps noir embarqué dans le satellite et maintenu à une constante de 290K
passant dans le champ de visée du radiomètre à intervalles de temps réguliers.
MIEC (Meteorological Information Extraction Center) est un facteur
d'étalonnage déterminé avec des températures mesurées par bateaux, un modèle
de transfert radiatif et les données d'un radiomètre maintenu à 90K
C est le compte radiométrique;
et C 0 est une constante d'étalonnage. C'est la valeur de C quand on fait
une visé dans l'espace.
FAG, MIEC, C et C 0 sont publiés régulièrement dans les rapports de
calibration.
108

IV. 2.6 Affichage des Images B2 sur écran vidéo
Une image B2 étant constitué de 416 lignes de 416 points, nous pouvons
les placer dans un tableau d'entiers naturels à deux dimensions de même
définition que l'image.
Nous constatons sur l'image de la figure IV.6 que sa dynamique est
inversée. C'est à dire, les teintes de gris vont du noir (255) pour les régions les
plus chaudes, au blanc (0) pour les zones les plus froides. Il est nécessaire
d'inverser la dynamique.
L'image obtenue (dynamique inversée) figure IV.7 nécessite une rotation
car nous constatons que le premier pixel est au sud - est or il devrait être au
nord - ouest.
Sur l'image obtenue on cherche à faire mieux apparaître certains détails,
certaines zones de la végétation par exemple en les visualisant avec une couleur
différente de celle habituelle où en utilisant les propriétés physiologiques de
l'oeil: par exemple l'oeil est très sensible à la luminance dans le vert, aux faibles
contrastes dans le bleu, etc...
Dans le cas de ces images, certaines formes doivent être respectées. Les
points chauds en rouge ou nuances de rouges, les nuages d'eau qui sont très
froids en blanc ou nuance de gris, les poussières ou brumes sèches en marron,
etc..
La recherche du mélange adéquat des couleurs se fait manuellement. Elle
est très laborieuse, et il faut un choix de mélange différent par type de signal
(IR,VIS,VE), puis par type d'image. De même, il faut changer de mélange
suivant les périodes d'étude, car les divers signaux reçus par le satellite varient
suivant les saisons et le réchauffement de la terre ou de l'atmosphère n'est pas le
même durant le jour ou la nuit ni durant les diverses saisons.
Pour ce faire, nous avons attribué à chaque plage de l'image une teinte de
gris ou une couleur désirée mettant en évidence un contraste plus au moins net
entre les différents constituants de l'image pour un canal donné.
Les codes de couleurs sont disposés sous forme d'un tableau et les valeurs
des comptes augmentent de 0 à 255 de gauche à droite sur une ligne et de haut en
bas sur une colonne (figure IV.8).
109

La visualisation uniquement d'une partie de l'image se fait par un zoom
(de 2 à 8) ou de réduction en faisant varier les cordonnées cartésiennes de l'image
(figure IV.9) pour mettre en évidence les zones d'intérêt.
110

Figure IV.6: Image B2 originale
"-
Figure IV.7 : Inversion de la dynamique de l'image B2 originale et une rotation
111

Figure IV.8 : Palette de couleur utilisée pour les images infra-rouge
J
Figure IV.9: définition d'une zone d'intérêt
1
1
112
1

1
( 1 1
1
1
1
1
1
1
1
1
1
1
Il
Il
1
1
1
1
1
1
1
1

IV.3 Images échocardiographiques
Une image échocardiographique est un ensemble des
techniques
permettant de visualiser les structures cardiaques en mouvement en utilisant les
ondes ultrasonores comme vecteur de détection.
L'échographie est une méthode d'imagerie qui possède de nombreux
avantages [51/53]:
- relative simplicité et faible coût de l'équipement par rapport à d'autres
techniques d'inves tiga tion,
- examen atraumatique et non invasif à la différence d'autres techniques
d'imagerie cardiaque telle que l'angiographie ou la scintigraphie.
Cependant, cette technique d'imagerie est mal exploitée quantitativement
puisqu'aucun paramètre physiologique n'est accessible
sans intervention de
l'opérateur. Ce qui entraîne une certaine subjectivité dans ces mesures et surtout
leur non reproductibilité.
Depuis l'introduction du traitement informatique des images dans le
domaine biomédical, de nombreuses équipes de recherche travaillent à la mise
au point de logiciels d'aide aux diagnostics sur des images d'échocardiographies
pour permettre le traitement automatique des images afin de guider le spécialiste
dans son choix de diagnostic.
L'intérêt des méthodes informatiques de traitement de ces images est
multiple: rapidité, répétabilité et possibilité d'obtenir des données quantitatives
sur un grand nombre d'images. En effet le traitement manuel est lent et subjectif.
Dans ce qui suit, nous allons présenter une solution permettant d'évaluer la
fraction de raccourcissement et d'épaississement sur les indexs, entre la diastole
et la systole, dans la cadre d'un projet de recherche liant le laboratoire avec le
C.H.U. Aristide le Dantec.
IV.3.1 Principes de l'échographie
L'échographie est une technique utilisant les
ondes ultrasonores et est
basée sur le principe de la réflexion des ultrasons par une interface entre deux
milieux d'impédances acoustiques différentes [13/27].
L'ultrason est émis à travers un transducteur (cristal piézo-électrique
1 1 4

excité: générateur des ultrasons) qui sert également à la réception de la quantité
ultrasonore réfléchie (écho) par les structures rencontrées. Cet écho est
directement transmis sur l'écran de l'oscilloscope de contrôle qui permet sa
vis ualisa tion.
Les ultrasons se propagent dans un milieu parfaitement homogène avec
des faibles vitesses,
mais les variations d'impédance acoustique entre deux
milieux
homogènes provoquent des modifications importantes de l'énergie
transmise ou réfléchie [31].
IV.3.1.1 Les différents modes de représentation des échos.
Les échos réfléchis sur le transducteur sont généralement présentés
suivant trois modes de représentation sur l'oscilloscope de contrôle, on distingue
[1/11/22]:
- le mode A (amplitude)
- le mode B (brillance)
- le mode M (mouvement) encore appelé mode T.M (temps mouvement).
* Le mode A (amplitude)
C'est la représentation temporelle de l'énergie acoustique réfléchie par les
discontinuités que rencontre le faisceau ultrasonore. L'écho réfléchi apparaît sur
l'oscilloscope de contrôle sous la forme d'un pic lumineux vertical le long d'un
axe horizontal correspondant physiquement à la direction d'où provient l'écho;
et dont l'amplitude est proportionnelle à l'intensité du flux réfléchi.
Connaissant la vitesse moyenne de propagation des ondes ultrasonores
(supposée constante) dans le milieu examiné, il est donc possible de définir une
correspondance temps-distance et de visualiser l'intensité des échos en fonction
de la profondeur (aller et retour du signal ultrasonore).
Ce mode
est utilisé pour mesurer des distances séparant les interfaces
acoustiques présentes dans le milieu.
1 1 5

MODE A
Figure IV.11 : échographie mode A
* Le mode B (brillance)
Dans ce mode l'écho réfléchi par l'interface est représenté par un point
lumineux dont l'intensité est proportionnelle à l'amplitude du signal reçu en
mode A.
MODE B ._~'---_e__• __.....
....[
Figure IV.12 : échographie mode B
L'échographie bidimensionnelle est l'échographie en mode B, dans
laquelle le transducteur se déplace de manière à ce que le faisceau ultrasonore
explore un plan. Cette représentation bidimensionnelle permet d'obtenir une
image en coupe de la zone anatomique balayée par le capteur ( transducteur ).
* Le mode C
Cette technique , peu répandue, utilise le déplacement de la sonde
parallèlement à elle-même pour obtenir l'image de la zone étudiée.
* Le mode T.M <temps mouvement)
C'est un mode dérivé du mode B, dans lequel le signal reçu
représente les variations des interfaces acoustiques le long d'une ligne
d'exploration en fonction du temps.
Cette
image
est
obtenue
facilement
à
partir
d'un
échographe
bidimensionnel en arrêtant le mouvement de balyage de la sonde.
Les déplacements des interfaces sur la direction AB sont visualisés en
fonction du temps (figure IV.13).
1 1 6

Cette technique permet d'étudier les mouvements de diverses structures
valvulaires des parois du coeur et des vaisseaux en fonction du temps.
Nous rappelons que l'examen échographique en mode M s'effectue sur un
patient placé en décubitus latéral gauche, la main gauche derrière la nuque.
A
M
Figure IV.13: échographie mode T.M
* L'échographie Doppler
Cette technique est utilisée pour visualiser la vitesse des surfaces
échogènes par rapport à la direction de la sonde ( transducteur). Elle utilise l'effet
Doppler.
L'effet Doppler apparaît sous la forme d'une altération de la fréquence de
l'onde ultrasonore lorsque l'interface acoustique est en mouvement par rapport
au transducteur.
Elle permet de faire une étude non invasive de l'écoulement dans les
vaisseaux, les cavités cardiaques et le flux sanguin dans les valvules.
-v..
Figure IV.14: Principe de l'échographie Doppler
1 1 7

IV.3.3 Techniques échographiques dans le domaine médical
Parmi les trois modes cités ci-dessus, seuls les modes B et T.M sont très
souvent utilisés en cardiologie. Leurs applications offrent des possibilités dans le
diagnostic des différentes maladies cardio-vasculaires telles que:
- la sténose mitrale,
- l'insuffisance mitrale,
- la cardiomyopathie etc...
Le mode A quand à lui sert au repérage et au réglage des gains et à
l'atténuation des signaux réfléchis.
A ces différentes techniques
échographiques s'ajoutent l'échographie
Doppler et la représentation bidimensionnelle. Ces deux dernières techniques
sont couramment utilisées de nos jours dans les milieux hospitaliers. Elles
possèdent de nombreux avantages, notamment le faible coût de l'équipement et,
l'examen non invasif et atraumatique pour le patient.
IV.3,4 Problématique
Ces images sont à considérer en prenant en compte les contraintes suivantes:
- Mauvaise représentation des structures parallèles au faisceau ultrasonore
incident car l'intensité du rayon refechi est lié à l'angle sous lequel le rayon
ultrasonore incident recontre la surface.
- Une mauvaise représentation des structures proche du capteur car l'image
présente une granularité importante causé par le phénomène de diffusion lié à la
multiplicité des reflexions ultrasonores dans le tissu biologique.
- Un rapport signal sur bruit (S/B) variable en fonction de la profondeur
d'exploration, car lorsque la profondeur augmente, l'atténutation du signal
ultrasonore entraîne un diminution sensible du S/B.
En particulier, le deuxième inconvénient introduit des incertitudes sur la
position des parois myocardiques en coupe apicale (grand axe du coeur).
Dans ce paragraphe, nous allons plus particulièrement nous intéresser à trois
aspects majeurs du traitement des images.
l 1 8

-L'amélioration de ce type d'images pour avoir une forme plus adaptée à
l'analyse ou à l'interprétation.
-la segmentation pour diminuer dans l'image les différentes entités,
-l'extraction des paramètres qui consiste à faire des mesures sur l'image.
IV.3.5 Amélioration des images échocardiographiques
A l'acquisition, la dynamique des niveaux de gris de l'image est de l'ordre
de 20 dB [11/53].
En effet, la dynamique a subi une compression pour être compatible avec
les écrans de visualisation. Cette compression étant logarithmique, il est donc
nécessaire d'opérer une transformation exponentielle pour retrouver la
dynamique de l'image d'origine (cf chap II).
En plus ces images sont obtenues à partir d'un enregistrement vidéo. La
numérisation
s'effectue alors sur le signal prevenant d'un magnétoscope, ceci
entraîne une distorsion importante au niveau des informations. L'utilisation
d'un filtre est obligatoire.
Des études menées dans ce domaine dans de nombreux laboratoires [15/18]
sur les méthodes existantes d'amélioration ont montré [52/55/56] celles qui
apparaîssent les mieux adaptées aux caractéristiques de ces images.
Les différents traitements d'amélioration que nous effectuons sur ces
images:
- un filtrage pour enlever les différents bruits.
- une transformation de l'echelle de gris par une transformation
exponentielle.
IV.3.6 Mesures des structures cardiaques à partir des images TM
Depuis le début des années soixante-dix, le mode M est une des techniques
échocardiographiques les plus couramment employées car il est relativement
moins sensible au bruit par rapport au mode B et il a une bonne résolution
temporelle et axiale [22].
L'échocardiographie mode M est considérée comme une méthode
standard pour mesurer les épaisseurs des parois et le diamètre des cavités du
ventricule gauche. Ces paramètres sont importants pour le diagnostic des
maladies cardio - vasculaires.
119

Les mesures, les calculs et les paramètres obtenus sur l'échocardiographie
mode M peuvent être classés dans 3 catégories suivantes:
* les mesures sur la dimension de la cavité et l'épaisseur de la paroi,
* les calculs des rapports de changement de dimension des épaisseurs, etc...,
* des paramètres dérivés à partir de certains modèles: la figure IV.15 ,nous
montre une image typique du ventricule gauche en échocardiographie mode M,
obtenue en fixant la ligne d'émission ultrasonore au ras du voile de la valve
mitrale.
Sur l'image, un axe sert à repérer l'évolution temporelle et un autre
indique la profondeur des structures.
Les fractions d'épaississement et de raccourcissement sur les index
respectifs, entre la diastole et la systole, de l'épaississement de la paroi postérieure
du ventricule gauche et du taux de contraction du ventricule gauche ont pour
expressions :
Dtd-Dts
Frac =
Dtd
fraction de raccourcissement.
(4)
Ets - Etd
Fep =
fraction d'épaississement
(5)
Etd
Etd: épaisseur du SIV en télé diastole ( 2)
Dts: diamètre du ventricule gauche en télé systole ( 3 )
Dtd: diamètre du ventricule gauche en diastole (4 )
Ets: épaisseur de la paroi postérieure ( 5)
VD ( Ventricule Droit)
SIV (Septum inter ventriculaire)
VG (Ventricule Gauche)
PIL (pilier)
_ - - - _ ........:::=:::-........1....::!-_""",,===::::--'
Figure IV.15: Tracé en mode T.M des ventricules et des parois.
120

La relation (6) permet de modéliser la fonction ventriculaire gauche en
systole. Cette expression illustre la dépendance de la valeur de la pente a, aux
conditions de remplissage du ventricule gauche.
Fep
Dtd
Etd-Ets
Frac = a Etd
Taux de contraction
a= Dtd-Dts
IV .3.7 Méthode de mesure
a-méthode semi-automatique
Dans cette méthode, l'une des premières étapes du traitement nécessite la
présence d'un opérateur. Il charge l'image originale à étudier et l'affiche sur
l'écran vidéo de contrôle. En faisant appel à un fichier historique comprenant les
procédures qui permettent d'améliorer l'image. Cette phase est automatisée au
gré de l'opérateur.
L'opérateur
à l'aide de la souris marque un premier point (1) sur la face
gauche du septum intra ventriculaire qui correspond au maximum pendant la
télé diastole (figure IV.16), et un second (2) point diamétralement opposé au
premier sur l'endocarde, puis trace un vecteur joignant les deux points et la
distance séparant les deux points est automatiquement affichée sur l'écran et est
mémorisée; on obtient ainsi le diamètre télé diastolique Dtd, de la même façon
cette opération est recommencé pour mesurer le diamètre télé systolique Dts,
l'épaisseur du septum intra ventriculaire
Etd et l'épaisseur de l'endocarde Ets.
Endocarde
profonduer
Figure IV.16: Principes des mesures
121

Ainsi, nous obtenons les paramètres physiologiques demandés à savoir:
la fraction de raccourcissement Frac, la fraction d'épaississement F ep et le taux de
fu
contraction
Frac
Nous avons testé la méthode semi-automatique en Laboratoire en
effectuant quelques mesures (figure IV.17) . Nous avons rencontré quelques
difficultés de lecture de points sur la face gauche du septum et sur l'endocarde du
fait de la discontinuité des régions au voisinage des contours, de la perception
visuelle de l'opérateur et le diamètre du contour (figure IV.18).
Pour contourner cette difficulté, nous avons binarisé les contours pour
squelettiser l'image avec huit masques. Ceci dans le but de réduire le contour à
une courbe d'un seul pixel d'épaisseur.
Sur la nouvelle image obtenue après ce deuxième traitement, nous avons
fait apparaître les différents contours
à savoir les faces droite et gauche du
septum (SIV), l'endocarde et le péricarde (voir figure IV.20). Nous avons ensuite
repris les opérations manuelles permettant de déterminer les paramètres
physiologiques demandés plus haut.
Nous avons ensuite, pour tester la validité de nos mesures, traités
certaines images dont nous connaissons préalablement les caractéristiques.
C'est ainsi que pour les quatre séries de cinq images nous avions obtenu
des résultats satisfaisants que nous présentons dans ce tableau IV-l
122

~
~A
. ~.
<
-- .~.. .- '~Â-:
.
....
• ....... : . .
...-
-4"~ ~,....
..' l
: . ~~
#-::,
. ,
j
Figure IV.17: image échocardiographique mode T.M
Figure IV.18: image T.M Uère procédure de mesure)
123

figure IV.19: image T.M (2ème procédure de mesure)
Nombre de
SP ( 5 )
lA ( 5 )
NA ( 5 )
CMN(5)
patient
Dtd
(mm)
53,4
69,6
52,4
72,2
Ecart-type
1,02
1,02
1,02
1,7
Erreur Souris
0,254
0,254
0,254
0,254
Précision (%)
2,4
1,8
2,4
2,7
Dts
(mm)
33
54,8
33
62,6
Ecart-type
1,26
1,72
0,63
1,35
Erreur Souris
0,254
0,254
0,254
0,254
Précision
(% )
4,6
3,6
2,7
2,6
Fraee
0,382
0,212
0,369
0,132
Ecart-type
0,018
0,034
0,010
0,032
Etd
(mm)
8,9
10,8
8,4
9,4
Ecart-type
1,16
1,35
1,02
0,489
Erreur Souris
0,254
0,254
0,254
0,254
Précision
(% )
15,9
14,8
15,2
7,9
Ets
(mm)
16,2
17
14,2
13,4
Ecart-type
1,326
0,894
0,745
1,02
Erreur Souris
0,254
0,254
0,254
0,254
Précision
(% )
9,7
6,7
7
9,5
Fep
0,820
0,626
0,715
0,427
Ecart-type
0,291
0,198
0,138
0,120
a
0,313
0,450
0,299
0,423
Ecart-type
0,106
0,138
0,039
0,094
Tableau IV-1: Résultats des mesures et calcul des paramètres physiologiques
124

Moyenne et
Valeurs
déviation standard
extêmes
Epaisseur SIV: Etd
7 à 11 mm
Epaisseur PIL: Ets
8à26 mm
Diametre VG(td): Dtd
38 à 56 mm
Diamètre VG(ts): Dts
22à40 mm
Tableau IV . 2: Valeurs normalisées selon EDITIONS MSD MEDICALE
CMN
: Cardiomyopathies non obstructives
Na
: Normal adulte
Sp
: Sportif
lA
: Insuffisance Aortique
En comparant nos résultats avec les valeurs normalisées (tableau IV.2b
nous constatons qu'elles sont proches.
Mais pour plus de précision, nous avons essayé d'intégrer dans nos
mesures les erreurs suivantes:
- l'erreur due au déplacement de la souris est de l'ordre de 0,254 mm, ce
qui correspond à une précision de 1/100° de pouce.
- l'erreur relative due à la perception visuelle est donnée par l'écart type
après chaque mesure.
- la binarisation du contour nous a permis de réduire celui-ci à un pixel
d'épaisseur afin de déterminer le point exact du contour.
2- Méthode automatique
Pour automatiser complètement cette méthode
de mesure, nous
proposons la démarche suivante:
a - détection et reconstruction du contour
-détection des points de contour
la détection du contour s'appuie sur l'idée présentée par GARCIA [27].
C'est à dire à partir d'un point défini manuellement, on fait une exploration
radiale.
125

c
Un
Pour chaque vecteur Vn , on repére le pas angulaire de l'exploration et on
calcule la différence des moyennes sur une fenêtre de taille 2N+l centrée autour
du point j traité.
l=j-l
k=j+N
DM(j) = liN l V n (l) - liN l V n (k)
l=j-N
k=j+l
Le calcul de la différence des moyennes pour détecter une variation rapide
des niveaux de gris le long du vecteur Vn permet de lisser les faibles variations
dues au bruit.
Un point jO du vecteur d'observation sera considéré comme un point de
contour si Dm(JO) est max.
Par cette méthode on obtient un ensemble de point définissant le contour.
Un lissage par le barycentre permet de supprimer les points abérrants. Ainsi les
points de coordonnées (Xi , Yi) sont remplacé par le barycentre calculé sur cinq
points. On obtient alors les points du contour final dont les coordonnées sont:
xi-2 + xi-l + xi+l + xi+2 + b xi
xf =
4+b
Yi-2 + Yi-l + Yi+l + Yi+2 + b Yi
yf =
4+b
où b représente le poids relatif du point traité par rapport à ses voisins.
-reconstruction des points du contour
Les points détectés du contour doivent être reliés. Nous avons
choisi d'utiliser une fonction polynômiale pour relier les points détectés du
contour. La forme du polynôme d'ordre n est la suivante:
Pn (x) = aO + al xl + a2 x2 + a3 x3 +
+ an xn
126

La courbe C est un ensemble de N points. Pour définir cette courbes nous
allons chercher à approcher les points (x,y) par une courbe de degré m .
Pm (x) = a'O + a'l xl + a'Z xZ + a'3 x3 +.... + a'm xm
qui minimise la distance Euclidienne D :
n
Dn = L [Yi - Pm (xi) ]Z
i=l
L'approximation s'effectue ainsi par régression linéaire et par optimisation
de cette distance.
La figure 19 montre le contour extrait de l'image originale.
b- Centre de l'image
La détermination du centre de l'image permet de tracer
les axes (figure
IV.20). L'axe des abscisses correspond à 7,5cm, sachant que le cadre fait 15 cm.
Nous pouvons alors effectuer la conversion des mesures des distances et
des epaisseurs.
Pour le
détermination automatique des points max et min pendant la
télédiastole «Dtd/2) = A) et la télésystole (Dts/2), nous avons procédé à
l'échantillonnage de l'image par un pas faible.
La détermination automatique de l'epaisseur du SIV et celle de
l'endocarde se fait de la même manière.
figure IV .20 : Représentation des axes sur le contour de l'image TM
127

Ainsi, pour chaque cas d'image nous avions obtenu les résultats que nous
présen tons dans ce tableau .
Nombre de
SP
lA
NA
CMN
patient
1
1
1
1
Dtd (mm)
53
69
51
72
Dts (mm)
34
55
33
62
Fracc
0,358
0,203
0,353
0,139
Etd (mm)
9
10
8
9
Ets (mm)
15
16
14
12
Fep
0,666
0,6
0,75
0,333
a
0,316
0,428
0,333
0,299
Tableau IV-3: Résultats des mesures et calcul des paramètres physiologiques
(Méthode automatique)
IV .3.5. Interprétation des résultats obtenus
Nous constatons que l'utilisation de la méthode automatique, nous
permet de supprimer les erreurs dues à la perception visuelle et celles engendrées
par la souris.
En comparant nos résultats avec les valeurs normalisées, nous constatons
que:
- pour un sujet sportif et un sujet normal, les valeurs de l'épaisseur du
SIV Etd, de l'épaisseur de la paroi postérieure Ets, du diamètre télédiastolique Dtd
et du diamètre systolique Dts sont du même ordre de grandeur que les valeurs
normalisées.
- pour des sujets malades: insuffisance aortique(reflux anormal du sang de
l'aorte dans le ventricule gauche lors de la diastole [14], nos valeurs diffèrent des
valeurs normalisées, ce qui atteste que le sujet est bien malade.
Dans la littérature [6], nous avons pu constater que les sujets qui ont pour
diamètres Dtd de valeurs voisines de 70 mm et de diamètres Dts voisines de 55
mm souffrent d'une insuffisance aortique. Pour ces mêmes sujets notre système
d'aide a donné les résultats (voir tableau 3) suivants: Dtd # 69 mm et Dts # 55
128

mm.
Nous constatons que nos valeurs sont également du même ordre de
grandeur que celles citées dans la littérature. Notre système d'aide confirme
normalement le diagnostic positif d'insuffisance aortique.
Nous pouvons affirmer après cette étude comparative que notre système
d'aide fournit des valeurs cohérentes qui concordent avec les valeurs
normalisées.
Conclusion
Le système d'aide réalisé permet la mise en oeuvre des procédures semi-
automatiques et automatiques afin de réduire la tâche du médecin.
Les avantages de ce système sont les suivants:
* Diminution du temps d'analyse des documents mis à la disposition du
médecin;
* Limitation des erreurs d'interprétation de l'échographe
* Fourniture des informations supplémentaires difficilement accessible
manuellement lors de l'évolution du cycle cardiaque.
Ce système d'aide est écrit autour du logiciel SAPIN [24/25] développé au
sein du LER de l'ENSUT. De plus, il autorise par son ergonomie une simplicité
d'exploitation par l'utilisateur final.
129

IV.4. Images racinaires
La mesure des longueurs, des diamètres des racines ainsi que leurs densités
permet d'indiquer les racines les mieux adaptées aux différentes structures du sol.
Les méthodes traditionnelles utilisées à l'Institut Sénégalais de Recherche
en Agronomie (ISRA) pour évaluer les caractéristiques des racines sont
manuelles. En effet, les mesures des
longueurs des
racines
se font à l'aide
d'une règle.
Le travail que nous présentons s'inscrit dans un projet liant notre équipe
avec l'ISRA.
Les étapes principales de ce projet sont les suivantes:
1- Acquisition des images racinaires.
2- Amélioration de ces images par des traitements temporels et spatiaux.
3- Suivi et détection automatique des racines
4- Détermination des mesures des longueurs et épaisseurs des racines.
5- Développement d'un système d'aide à la décision permettant de définir
les racines les mieux adaptées aux différentes structures du sol.
Le travail effectué dans ce chapitre concerne en particulier les points 1 à 3.
IV.4.1 Acquisition des images.
Pour observer l'évolution des racines, celles-ci sont mises dans un tube en
verre ou plastique transparent (Plexiglas). L'acquisition des images se fait à l'aide
d'un caméscope.
Cette méthode est facile, et non destructive de l'information contenue
dans l'image. Mais la qualité de l'image est importante et le non respect de cette
règle conduit à des résultats plus difficiles et plus longs à analyser [46].
Les images dont nous disposons sont, après acquisition, enregistrées sur
cassettes vidéo et leur numérisation par notre système se fait à partir du signal
vidéo issu d'un magnétoscope. Ceci introduit beaucoup de distorsion.
IV.4.2 Amélioration des images
L'amélioration facilitant le traitement numérique pourra paraître à
l'utilisateur comme une perte d'information. Il faut donc veiller à ce que
l'amélioration, vis à vis du traitement numérique, n'introduise pas une
difficulté d'interprétation visuelle du résultat.
130

Lors des traitements, si l'on veut conserver l'information du contour, il
est nécessaire de préserver les hautes fréquences. Ceci ne peut se faire qu'au
détriment de l'amélioration du signal sur bruit (S/B). Ces deux aspects de
traitement étant antagonistes, il est nécessaire de trouver un compromis. Ainsi
les opérateurs qui devront être utiliser doivent respecter deux critères
incompatibles, amélioration du S/B et Conservation des contours.
Nous avons utilisé un filtre médian pour conserver les contours en
supprimant le bruit impulsionnel et un filtre moyenneur pour adoucir les
contours.
La combinaison de ces deux filtres nous a permis d'homogénéiser le fond
de l'image et de préserver les contours comme le montre la figure IV.22.
En plus, la transformation de l'échelle des niveaux de gris permet
d'augmenter sélectivement le contraste dans une plage de l'échelle (Cf chap II).
Sur ce type d'images (figure IV.22), les
racines ont une forte luminosité
par rapport au fond de l'image, le contraste de ces images est rehaussé par une
augmentation de la dynamique des forts niveaux de gris.
131

Figure IV.2I : Image origine
Figure IV.22: Image améliorée
132

Figure IV.23: Transformation des niveaux de gris
133

IV.4.3 Segmentation
a- Segmentation par seuillage
Cette technique de segmentation est rapide, mais l'histogramme ne
présente pas les caractéristiques idéales. Il se présente sous l'aspect d'un pic large
étalé( figure IV.24) et le choix d'un seuil est alors très délicat.
La variation de l'éclairement des racines et du fond de l'image rendent
difficile la segmentation des racines par seuillage d'histogramme. L'histogramme
de ces images ne permet pas de distinguer les niveaux de gris des racines car de
nombreuses caractéristiques ( les pores et les fissures du sol) de l'image partagent
la même distribution lumineuse que la racine.
Nous avons procédé par un seuillage par zones (cf Chap II) sur une bande
permettant de minimiser les connexités parasites avec l'environnement. La
figure IV.25 représente l'image seuillée sur deux niveaux Sbas et Shaut.
Ces deux seuils ne sont pas arbitraires car ils sont ajustés manuellement
(action sur curseur) de manière à :
-casser les connexités parasites puis la solidité de certaines formes
résiduelles est obtenu par une érosion.
-englober la racine principale ainsi que les branches. Nous désirons en effet
garder la continuité de la racine principale sur laquelle une branche sera restauré
par une dilatation (figure IV.25).
134

5000
4500
4000
3500
3000
2500
2000
1500
1000
500
o ....1IIIl1IIII....."""
14 27 40 53 66 79 92 10511813114415717018319~Oœ2223S248
Figure IV.24: histogramme
Figure IV .25 : Détection par seuillage
135

Conclusion
Les informations contenues dans ce type d'images sont de deux types:
-Les informations non significatives qui sont les contours des pores, les
fissures de sol et l'éclairage qui ont le même changement d'intensité que les
racines.
-Les informations significatives qui sont les racines et les radicules qui
permettent d'indiquer les plantes les mieux adaptées aux différentes structures
du sol.
Le seuillage a permis d'éliminer une partie de
l'information non
significative c'est à dire les petites fissures et les petits pores comme le montre la
figures IV.25.
b- détection du contour par les opérateurs classiques
Il existe actuellement deux grandes classes de détecteurs de contours (cf
chap II):
- Les algorithmes utilisant les opérateurs dérivatifs, sont très simple
d'implantation, mais leur efficacité varie avec le contraste de l'image.
- Les algorithmes, les plus complexes adaptable à des images moins
contrastées, par exemple les filtres récursifs de DERICHE et CANNY. Ces
algorithmes sont d'implantation plus difficiles.
Nous nous sommes intéressés aux méthodes de détection de contours
basée sur les opérateurs dérivatifs (figureIV.26, IV.27).
L'application des filtres récursifs à ce type d'image est en cours
d'implantation au sein de notre équipe afin de finaliser le projet avec l'I5RA.
Conclusion
L'application des filtres dérivatifs sur ce type d'image (figureIV.26, IV.27)
permettent une bonne détection des racines. Mais beaucoup de faux contours
sont détectés et la détection des racines ne facilite pas leur reconstruction. Il est
nécessaire de prendre en compte la morphologie des racines.
136

Figure IV.26: Laplacien
Figure IV .27 : Sobel
137

IV.4.4. Extraction automatique de la racine
La détection des contours par les méthode classique ne donne pas des
résultats satisfaisants. Les méthodes de détection de contours les plus séduisantes
ont ét~ proposées par les équipes de l'INRIA [4/20/40/]. Les différents algorithmes
relatifs à ces méthodes sont en cours d'implantation au sein de notre équipe.
Une autre approche très simple développé par Koné [34/35] à suscité notre
intérêt.
Cette méthode repose sur un critère d'éclairement et sur un critère de
forme de l'objet à détecter. Le principe utilisé repose sur un seuillage basé sur
l'intensité lumineuse des pixels. Le seuil est déterminé en fonction de n+ 1
fenêtres concentriques (CO, Cl,
Cn). Un point l de l'image coïncide avec le
centre des fenêtres concentriques, est seuillé en comparant son niveaux de gris à
la moyenne des niveaux de gris des points de chaque fenêtre.
La fenêtre CO possède une taille correspondant approximativement à
l'épaisseur de l'objet à détecter. Cette fenêtre joue sur la qualité de détection de
contours des objets.
Le choix de plusieurs fenêtres concentriques permet d'isoler au mieux les
contours et le nombre maximum des fenêtres est fonction de CO et Cn.
Plusieurs tests de cette méthode ont été effectué en fonction des valeurs de
CO. La figure IV.28 donne une application de cette méthode sur une image
racinaire avec un seuil adéquat.
Une opération de sélection des points appartenant au contour de la racine
se fait par un balayage vertical et horizontal de l'image seuillée pour déterminer
la plus 'grande des deux longueurs verticales et horizontales de chaque groupe de
points connexes. Et cette longueur est retenu comme étant celle du groupe de
points qui appartient aux contours.
Conclusion
La méthode d'extraction automatique permet de mettre en évidence les
caractéristiques de la racine, cependant la présence des fissures rend difficile
l'extraction des racines seules.
Les mesures des dimensions des racines présente un travail moins difficile
[43]. Et plusieurs méthodes ont été développé pour calculer les longueurs et le
diamètres des racines [7].
138

Figure lV.28 :Extraction automatique de la racine principale
Figure lV.29 :Extraction automatique de la racine principale
(avec une fenêtre plus grande)
139

1 CONCLUSION 1
140

CONCLUSION
L'objectif de SAPIN est d'en faire un logiciel de traitement d'images
largement ouvert, destiné à la recherche, à l'enseignement et aux centres
opérationnels , avec une structure minimale d'un système de vision par
ordinateur.
En particulier, nous espérons que SAPIN trouvera son utilisation dans la
recherche, et dans les applications pratiques dans les pays en voie de
développement de part son coût relativement faible.
Cette station de travail dédiée au traitement d'images permet déjà la mise en
oeuvre de procédures semi-automatiques de caractérisation d'images de sources
diverses et représente pour le laboratoire un outil d'analyse et de développement
simple et fiable. De plus, elle permet par son ergonomie, une exploitation simple
et conviviale.
Les outils développés possèdent l'avantage de fonctionner sur différents
ordinateurs PC et XT.
Cette diversité de supports de fonctionnement permet l'utilisation de SAPIN
sur d'autres sites et une extension de son application sur n'importe quel type
d'image.
L'introduction, par la
suite, de méthodes liées à l'intelligence artificielle et
aux systèmes experts, devrait permettre d'atteindre un seuil d'automatisation
présentant un intérêt évident dans ce domaine.
Cependant les traitements de l'information continuent de connaître un·
formidable élan de mutation rapide et profonde. Désormais, ce sont les langages à
objets qui seront de plus en plus utilisés dans les domaines de la recherche de
pointe, ou de l'industrialisation.
En effet, le concept d'héritage, permet d'obtenir des logiciels modulaires,
pouvant atteindre des tailles importantes, stabilisés et particulièrement fiables.
Cela est dû, principalement, à l'emploi d'objets héritant des caractéristiques
d'autres objets déjà créés, qui ont été mis au point et parfaitement testés.
141

Les langages à objets
suscitent naturellement notre intention car la
réutilisabilité des objets qui, grâce à l'héritage, permettent d'en créer rapidement
de nouveaux. En plus la programmation classique aboutit à une accumulation de
routines identiques au niveau de fond, mais dont la forme diffère toujours
légèremen t.
Nous sommes en train de faire une étude préalable des composantes de
SAPIN, afin de pouvoir déterminer quels objets pourront être réutilisés, en tout
ou partie. Ce qui permet d'aboutir finalement à un gain de place et de lignes
remarquables, car le fai t de ne devoir réécrire que ce qui différencie deux objets,
demeure le plus souvent très rapide.
142

IBIBLIOGRAPHIEI
143

[1] Abdellaoui A. M.
Segmentation d'images par détection de régions ou de contours.
Application aux images échocardiographiques et introduction d'un modèle de
contour de l'endocarde.
Thèse de doctorat d'Université en Génie Biologique et Médicale, Université Paris
Val de Marne, 1991.
[2] D'Almida B.G.P.
Etude des lignes de grains africaines par Imagerie satellitaire.
Thèse de doctorat d'Université Pris IIV ,1990.
[3] Bayoko A.
Etude des transports de poussières en Afrique Sahélienne entre 1984 et 1990 et
leur incidence sur le rayonnement solaire.
Thèse de docteur Ingénieur ENSUT Université C.Anta Diop Dakar,1990.
[4] Benayoun.S, Monga O.
Géométrie différentielle appliquée au traitement d'images médicales.
CARI 92, pp 379-410 Yaoundé, octobre 1992.
[5] Besançon J.E.
Vision par ordinateur en deux et trois dimensions.
Edi tion Eyrolles 1988.
[6] Bijaoui A.
Image et information.
Edition MASSON 1982.
[7] Bolo P.
Mesure de la longueur racinaire sur images numérisées.
Rapport interne, Centre d'Etude Régionale pour l'Amélioration de l'Adaptation
à la Sechresse , SENEGAL, Mai 1993.
[8] Bouazi A., Taconet R, Tonfack N., Faure A.
Construction d'un opérateur pour la détection de contours dans dès images
couleurs.
CARI 92, pp 411-419 Yaoundé, octobre 1992.
144

[9] Boissonnat J.O.
Shape reconstruction from pattern cross-sections,
Computer Graphies and Image, Vol.44,pp 1-29, 1988.
[10] Bret M.
Image de synthèse: Méthode et alogorithmes pour la réalisation d'images
numériques.
DUNOD Informatique 1988.
[11] Bunel P.
Système d'aide à la quantification des paramètres physiologiques par analyse de
séquences d'images échocardiogarphiques.
Thèse de doctorat d'Université en Génie Biologique et Médicale, Université Paris
Val de Marne, 1990.
[12] Canny J.F.
Finding edges lines images
MIT, Artificiel Intelligence Laboratory, TR-720, 1983.
[13] Chapman J.V. ,5aglambro A.
Basic concept in Doppler Echocardiography. Martinus Nijhoff Publichers, 1987.
[14] Chanda B., Chaudhuri B. B., Majurnder 0.0.
Sorne algorithms for
image enhancement incorporating
humain
visual
response.
Pattern recongnition , Vol 17 , nO 4, pp 423-428, 1984.
[15] Claude J.M.
Améliorations et validations des techniques de traitement des images
échocardiographiques.
Réalisation et implantation d'un logiciel de filtrage médian-moyenneur.
Mémoire de D.E.A. en Génie Biologique et Médicale, Université Paris Val de
Marne, 1987.
[16] Cocquerez J.P, Devars J.
Détection de contours dans les images aériennes: nouveaux opérateurs.
Traitement du signal, Vol 2, pp 45-65, 1985.
145

[17] Coster M., CHERMANT J.L.
Précis d'analyse d'images.
Presses de CNRS 1989.
[18] Corenthin A.
Amélioration et segmentation des images échocardiographiques.
Aide à la détection des frontières myocardiques par analyse de texture.
Thèse de doctorat de troisième cycle en Génie Biologique et Médicale, Université
Paris Val de Marne, 1989.
[19] Deriche R.
Using Canny's criteria to Derive a Reconsively Implemented Optimal Edge
Detector.
Int. J. Comput. Vision, Vol1, pp 167-187, 1987.
[20] Deriche R., Cocquerez J.P.
Extraction de composantes connexes basées sur une détection optimale des
contours.
Int .Actes, Machines et Réseaux intelligents, Cognitiva 87, Image Electronique,
Vol 2, Paris, Mai 987.
[21] Desbois M., Kayiranga T., D'Alimida G.B., Guessous S., & Picon L.
Characterization of Sorne Elements of the Sahelian Climate and Their Internnual
Variations for July 1983, 1984 and 1985 from the Analysis of METEOSAT ISCCP
Data.
American Meteorological Society, 1988.
[22] Dong L.
Extraction
au toma tiques
des
con tours
cardiaques
sur
images
échocardiographiques.
Thèse de doctorat d'Université, Université Paris Val de Marne, 1991.
[23] Farcot J.e.
Comprendre l'échocardiographie.
Editions MSD Médicales, Paris 1986.
146

[24] Farssi S.M., Lishou c., Corenthin A., Sow G.
Application à la réalisation d'un outil d'aide à l'anlyse d'images numérisées.
CARI 92, Yaoundé, octobre 1992.
[25] Farssi S.M., Diop O., Corenthin A., Sow G., Ka M.
Réalisation
d'un
système
d'aide
au
diagnostic
par
analyse
d'images
échocardiographiques en mode TM.
CARI 94, Ouagadougou, Octobre 1994, pp 82-97.
[26] Garba A.
Approche des modifications des lignes de grains en zone coutière Ouest Africaine
Thèse de docteur Ingénieur ENSUT Université C.Anta Diop Dakar,1992.
[27] Garcia E., Gueret P., Bennet M., Corday E., Zwehl W., Meerbaum S., Corday S.,
Swah H.J.C and Bertrand D.
Real time computerization of two-dimensional Echocardiography.
American Heart Journal, June 1981, pp 783-792.
[28] Gonzalez RC., Wintz P.
Digital Image Processing.
Addison-Wesley Publishing Company, Secon Edition, 1987
[29] Haralick RM.
Statical Image Texture Analysis
in Handbook of pattern recongnition and image processing.
Academic Press, pp 247-279, 1986.
[30] Jacquot J.L. , Court T. , David D. , Pirson A.
Une classe d'extracteurs de contours performants adaptée à une implantaion
matérielle fonctionnant à cadence vidéo.
Actes du 2 eme Atelier Scientifique, Tipi, Aussois, Savoie, 19-22 Avril 1988 , pp
XLI-1 XLI-24
[31] Jones P.J., Sidney L.
La caractéristique des tissus par ultrasons.
Acta Electronica, Vol. 26, 1-2, pp 3-31,1984.
[32] Konate S.
147

Etude climatologique des inversions de températures à dakar entre 1988 et 1989
par sondage acoustique.
Thèse de docteur Ingénieur ENSUT Université C.Anta Diop Dakar) 990.
[33] KIJNER J.
La vision assistée par ordinateur.
Micro-Système, pp 125-142, Decembre 1983.
[34] Koné T.
Recalage automatique d'images Angiographiques Rétiniennes par analyse
numérique d'images.
Thèse de doctorat d'université en Génie Biologique et Médicale, Université Paris
Val de Marne, 1993.
[35] Koné T., Bunel P., Mimoun G., Coscas G.
Automatisation complète du recalage des 'images Angiographiques Rétiniennes
par analyse numérique d'images.
CARI 92, pp 435-444, Yaoundé, octobre 1992.
[36] Legrand M., Desbois M, & Vovor K.
Satellite detection of Saharan dust: Optimized imaging during Nighttime.
Journal of climate, Vol 1, n03, pp 256-264, 1988.
[37] Marion A.
Introduction aux techniques de traitement d'images.
Edition EYROLLES 1987.
[38] Marr D., Hidreth E.e.
Theory of edge detection.
Proc. Roy.soc. London B, Vol 207, PP 187-217, 1980.
[39] Matheron G.
Filtres and lattices.
Rapport du centre géostatique et de morphologie
mathématiques.
"
Ecole des Mines, Fontainebleau, N_851, 1983.
148

[40] Monga O., Deriche R., Maladon Gand Cocquerez J.P.
Recursive Filtring and Edge Tracking: two pramary touls for 3 D edge detection.
Image and vision computing, vo1.9(4), pp 203-214, August 1991a.
[41] Monga O., Deriche R., Rochisian J.M.
3 D Edge Detection Using Recursive Filtring : Application to scanner Image.
CVGIP: Image Understandingand vo1.53(l), pp 76-87, Junary 1991b.
[42] Monga O., Horaud R.
Vision par ordinateur: Outils fondamenteaux.
Edition HERMES 1992.
[43] Nater A.E, Nater K.D, Beker J.M.
Application of artificiel neural system algorithms to image analysis of roots in
soil.
Elsevier Science Publishers B.V, Amsterdam Geoderma 53 pp 237-253, 1992
[44] Nevatia R.
Image Segmentation.
in Handbook of pattern recongnition and image processing.
Academie Press, pp 215-231, 1986.
[45] Ohkawai H. , Nitta S. , Tanaka M., Dunn F.
In vivo measurment of thickness or of speed of sond in biological Tissue
structures.
I.E.E.E. Transactions on sonics and ultrasonics, Vol. 3D, N°4, pp231-237,1983.
[46] Paget P.
Etude de classification de bouchons en liège par traitement d'image.
Mémoire d'Ingénieure CNAM, centre régional associé de Brest, 1988
[47] Petit E.
Etude et réalisation d'un système d'analyses de séquence d'images.
Application à la détection automatique des contours mobiles des cavités
cardiaques sur des images échocardiogarphiques.
Thèse de doctorat de troisième cycle en Génie Biologique et Médicale, Université
Paris Val de Marne, 1985.
149

[48] Petit E.
Introduction à la restauration et à l'amélioration d'images.
Cours de D.E.A de Génie Biologique et Médicale.
Université Paris Val de Marne, 198 S
[49] Postaire J.G.
De l'mage à la décision.
Analyse des images numériques et théorie de la décision.
DUNOD Informatique 1987.
[SO] Pemod J.
L'échographie par ultrasons en cardiologie.
Ann. Cardiol. Angeiol, Vol 21, nOS, pp449-4S6, 1972.
[51] Prasquier R.
Echocardiologie bidimensionnelle.
RBM, Vol 1, nOS, PP340-34S, 1979.
[52] Pratt W.K.
Digi tal Image Processing
Wiley-Intersience, New-York, 1978.
[53] Provent P.
Segmentation d'images par analyse statistiques de textures:
Application aux images échocardiographiques.
Thèse de doctorat d'université en Génie biologique et médicale, Université Paris
Val de Marne, 1991.
[54] Raharijoana J.
Etude du fonctionnement et de commande numérique en langage C d'un groupe
de pompage photovoltaîque sans balais.
Thèse
de
doctorat
d'université en
Génie
Electrique,
Institut
National
Polytechnique de Toulouse, 1991.
[55] Rosenfeld A., Kak A.C
Digital Pieture Processing.
Academie Press, New-York, 1982.
150

[56] Rosenfeld A., Kak A.C.
Digital Pattern Recongnition.
Academie Press, New-York, 1976.
[57] Rullière R.
Abrégés de cardiologie 4 ème Edition Masson 1987
[58] Sinclair R.B, Oldershaw, et al.
Computing in Echocardiography.
Progess in Cardiovascular Diseases, Vol. 25, n06, May 1983, pp 469-486.
[59] Souchard C.
La détection de contours dans les images.
Langages & systémes.Info PC nO 75 ,pp 62-71.
[60] Toumazet J.J.
Traitement de l'image par ordinateur.
Edition SYBEX 1987.
[61] Tuckey J.W.
Expolratry Data Analysis.
Reading, MA : ADDISON-WESLEY, 1977.
[62] Vovor K.
Etude des masses de poussières sahariennes et leur transport à l'aide du satellite
METEOSAT d uran t les années 84-85.
These de doctorat de l'Université d'Abidjan, 1991.
[63] Wrobel B., Monga O.
Segmentation d'images naturelles:
Coopération entre un détecteur contours et un détecteur régions.
Onzième colloque GRESTI, pp539-542, Nice, 1-5 Juin 1987.
[64] Zhel W. , LEYE R. , Garcia E. , & al.
Validation of a coinputerized edge detection algorithm for qualitative two
dimensional echocardography
Circulation, Vol 68 , n° 5 , pp 1127-1135, 1983.
151

ANNEXES
152

CARTE MATROX ET LES FONCTIONS DE LA LIBRAIRIE PIP-EZ
1.Système l!i'e traitement d'images
Un système d'imagerie doit pouvoir efficacement acquenr, analyser et
archiver les images. Notre système est construit d'un ordinateur couplé à une
carte d'imagerie permettant la numérisation d'un signal vidéo, le stockage
temporaire de quatre images au format 512x512 pixels avec une résolution de 256
niveaux de gris, et la visualisation de ces images sur un moniteur vidéo.
II . Carte de traitement MATROX
Les caractéristiques de la carte MATROX sont les suivantes:
Buffe!' Image:
512
512x512x8bits
1 plan image
640
640x512x8bits
2 plans images
1024 512x512x8bits
4 plans images
00
512
1024
Plan
Plan
0
1
1
Configuration 0.
512
P1P-512, P1P-I 024 et
Plan
Plan
P1P-640
2
3
1024
o 0.----
....;1:..,;0:;.::2:...4=__.
Plan
o
Configuration 1 -
512
P1P-640 seulement
Plan
1
1024
00
1024
Plan
Configuration 2
o
P1P-I024 ct
P1P-640
1024
] 5 3

o:l
C
r.n
......
o:l
~
"1- - - - ~- - - ~- -"T
r - - - - - - - - - - - - - - - - - i
1
1
1
R
1
1
~
1
n
>-
;J
v
.....
VI
~
B
t ~
t ~
BUS
IBM
CAIRTlE MATlRO~ p~p ~~2~ EL

Accès mémoire:
- Registre d'adresse pixel,
- transfert DMA
Fonctions spécifiques:
- Acquisition continue ou instantanée.
- 4 sources Vidéo.
- 3 entrées vidéo CCIR.
- Digitalisation en temps réel sur 8 bits (256 niveaux de gris).
- 8 tables de transformation des niveaux de gris (LUT).
- Synchronisation sur la vidéo composite.
- Sortie vidéo.
- Tables de transformation couleur RVB (sorties).
III. Fonctions de la librairie PIP-EZ
PIP-EZ est une librairie qui permet à l'utilisateur de contrôler la carte
MATROX PIP 1024 à partir d'un programme compilé, éliminant ainsi la nécessité
d'écrire les routines de base en assembleur. En plus cette librairie contient les
commandes d'initialisation de la carte, l'accès aux registres pour contrôler
les
entrées et sorties vidéo et quelques opérations de base de traitement d'images.
IV. Les commandes de PIP-EZ
- Les commandes d'initialisation
INIFMT
Initialise une carte B à un format spécifié
INISYS
Initialise les variables du système seulement
FORMAT
Sélectionne le format vidéo à utiliser
DFMT
Définie le format vidéo
INILUTS
Initialise LUT
MODE
Initialise le mode et la vitesse de la carte
QUADM
Sélection du mode d'affichage sur une PIP 1024
SBOARD
Sélection carte PIP-EZ
STEXY
Sélection du mode Auto-inc
SETR
Lecture du statues registres
SETW
Ecriture du statues registres
VERSION
Version de la PIP-EZ
VIDEO
Sélection du standard vidéo (Américain ou Européen)
WINMODE
Sélection du mode des plans ( quatre modes)
155

-Le mode d'affichage
La PIP 1024 a plus de mémoires de buffer d'affichage (l024x1024) que les
moniteurs vidéo, ce qui permet
de voir les
différentes parties d'affichage en
différent moment.
La PIP-EZ fournit deux modes d'affichage pour la PIP-1024:
-Le mode 1024x1024
-Le mode 512x512
Si le mode 512x512 est sélectionné (commande WINMODE), le buffer
d'affichage est configuré en 4 zones 512x512.
La commande DQUAD permet de sélectionner l'un des ces quadrants
comme quadrant d'affichage.
-Contrôle du matériel
La librairie PIP-EZ fournit un support de logiciels pour l'acquisition des
Images.
AUTOSET
Réglage du Gain et de l'Offset
CGRAB
Acquisition continue
CHAN
Sélection du canal d'entré actif
EXIT
Fin d'acquisition
GAIN
Réglage du Gain
KEY
Autorisation d'overlay (mise en marche)
OFFSET
Réglage de l'Offset
SBOARD
Sélection carte PIP-EZ
SBUF
Sélection source de sortie
SNAP
Acquisition au vol (l image)
SNAPALL
Acquisition au vol synchronisé
SYNC
Sélection de la synchronisation
VWAIT
Attente de la synchro Verticale
-Entrées et sortie du buffer de l'image
Les commandes Entrée/Sortie permettent de lire ou écrire une partie ou
l'ensemble du buffer de l'image, le transfert des données entre buffer ou buffer
fichier. Ces commandes sont résumées ci-dessous.
156

"TRANSFERTS
BTRANSFERT
Transfert des données entre PIP et le Système
CPWS
Copie des fenêtres
DECODE
Copie fichier IBM
ENCODE
Copie sur fichier IBM
FRDISK
Lecture image sur disque
FRMEM
Lecture d'une image mémoire
TODISK
Ecriture d'une image sur disque
TOMEM
Ecriture d'une image mémoire
WINFRDISK
Copie fenêtre du disque
WINTODISK
Copie fenêtre sur disque
WINR
Copie fenêtre en mémoire
WINW
Copie fenêtre de la mémoire
VWAIT
Attente de la synchro Verticale
..ACCES IMAGES
COLOR
Lecture colonne pixels
COLW
Ecriture colonne pixels
DQUAD
Visualise plan
OUTV
Autorise sortie vidéo
PANREL
Panoramique relatif
PAN
Panoramique absolue
PIXR
Lecture d'un pixel
PIXW
Ecriture d'un pixel
ROWR
Ecriture d'une ligne
ROWW
Lecture d'une ligne
SCROLL
Scrolling absolue
SCOREL
. Scrolling relatif
-Routines Graphiques
Ces routines permettent de générer un graphique sur le buffer de l'image.
Un
'
resume des command es

grap, lques est ,etabl"1 au tableau SUIvant
BORDER
Trace les bords d'un carré
CIRC
Trace un circle
CIRCF
Trace un disque
EUPF
Trace une ellipse
ELIPS
Trace une ellipse pleine
157

GRill
Trace une grille
LINEREL
Trace ligne en relatif
LINETO
Trace ligne en absolue
MOVREL
Déplacement du point courant à un point relatif
MOVETO
Déplacement du point courant à un point spécifié
RECT
Trace un rectangle
RECTF
Trace un rectangle plein
TCHAR
Ecriture d'un caractère
TEXT
Ecri ture chaîne de caractères
-Routines de Look Up Table ( 8luts)
LUTD
Initialisation LUT
LUTM
Sélection Lut Courante
MAP
Transformation de niveaux de gris
-Routines de traitements
la librairie de PIP-EZ présente les outils élémentaires de traitement
d'images. Ces routines utilisent des masques de fenêtres 3x3, qui sont insuffisant
pour 1e traitement d
e t
cer '
ames Images.
AVERGE
Moyenneur 3x3
CON3
Convolution par masque 3x3
DHISTO
Trace histogramme
DILATE
Dilatation 3x3
ERODE
Erosion 3x3
FIL3
Filtres convolution 3x3
HISTO
calcul histogramme
HORFILTER
détection contour horizontal par masque 3x3
LAPI
Laplacien 4-connexité
LAP2
Laplacien 8-connexité
MEDIAN
Filtre médian 3x3
PREWITT
Filtre de Prewitt 3x3
SHI
Filtre rehaussement contour par masque 3x3
SH2
Filtre rehaussement contour par masque 3x3
SOBEL
Filtre de Sobel 3x3
VERFILTER
détection contour vertical par masque 3x3
158

-Divers
CLEAR
Efface plan image
MASK
Sélection masque écri ture
SCALING
Calcul d'une échelle de nvg
SETIND
Sélection du nvg de tracé
SETWINDOW
Définition de la fenêtre courante
ZOOM
Sélection du Zoom
159

S.Nf FARSSI
VISION PAR ORD1NATEUH.: APPLICATION A LA R;~ALISATION
D'UN OUTIL D'AIDE A L'ANALYSE D'IMAGES NUrvfERISEES
Th2se de Docteur-Ingénieur - 1994
F.~~sur~lE
1.0 présent 111érrlOire propose un systènlE' rL1inül1<.~l 1 ;', fédble coùt, de
vision pàr ord ,natenr basé d'une part sur i'acquisition nurnérique df'
}'ilnagc ct d'autre pl1rt, sur l'utillsation d'un logiciel spécifiguede
traiten1cnt développé en langl1ge C .
1.:1 prenuere partie de ce trav,lil L'st 1.1n(\\ intrl)duction ~ux
techniques de traiternent nU111('I'iq ue des images elnpluyées dans des
dornaines diverses (Tél~détection, bicHl1édical , agronomie, .. ). Dans
laqudle on expose, tout d'abDrd , la configura lion d'un sp;tèrne lninirnal
de vision par ordinateur et la représentation d'une irnagE', puis k's (Hltils
utilisés dans leur tTaiten1ent aLlsi que les prètrilikrnenls destinés ft lc~,
r
arnéliorE'r, et lï:s opÉ'ratenrs sur les images bin.1ires.
La secon, 'e parlte pr~sentè lIne architecture rninilXlalt: pcrrnettant
d'effectuer ces opfrations en prenant en compte nor1 SeUle111fl1t de5
spécifir:ités des traiten1ents nécc'~saircs à l'olTjet de l'étude n:.~:is llussi dfS
n~ssources linüh~ll~s (les utilü;;lteurs dans les Vll\\lS en VOle de
L
.'
dévcloppcrnf'nt. Des app1iultiolls pratiqllE~s du logiciel ,-l{>;/t~'l(lppé sont
Drès('p.I'~~es.
j,
l\\1{)ts-cl~f$ :
Traitcrnent d'imélge - 11Tl~lgCS écll\\x:.)rdiographiqlH:~S - Ir)la~;e8
'~~ll'e'llil"';rc>~
, ) (
.. (1,.1 ..
\\",L.
- l'~'l'",on:'
~ 1. 0b\\..-::> l"lrl'nairL":'s
,~
(