Tomodensitométrie (scanner) |
Chapitre I: Généralités sur le scanner |
I.B. Principe de base de la CT.
1) Objectif
Contrairement à la radiologie conventionnelle qui fournit une image en projection d'un volume entier, le scanner a pour objectif d'obtenir l'image digitale d'une coupe du corps humain. Pour cela elle a la prétention d'extraire l'information en provenance de petits éléments de la coupe situés à l'intérieur du volume. Chaque petit élément de volume constitue ce qu'on appelle un voxel. A priori, mais seulement a priori, la coupe est prise dans un plan transverse (x,y) et l'épaisseur de coupe s'aligne sur z.
L'image finale est constituée d'un ensemble de pixels qui sont en fait les voxels projetés en z. On conserve donc un petit côté "superposition d'informations" mais il est ici très réduit puisque limité à l'épaisseur de coupe.
Pour construire l'image visuelle, chaque pixel devra se voir associer un niveau de gris qui ne peut provenir que du seul paramètre physique disponible ici, à savoir le taux d'absorption des rayons X à l'intérieur du voxel. La tomodensitométrie est clairement monoparamétrique, ce qui est en fait le cas de toutes les techniques d'imagerie à l'exception notable de l'IRM qui propose pas moins de trois paramètres.
2) Ce qu'on mesure.
La reconstruction de l'image doit se faire au départ des données brutes fournies par les détecteurs. Ce qu'on mesure ainsi ce sont des intensités de rayons X atténuées exponentiellement sur une ligne de détection, à savoir la ligne qui relie le foyer émetteur à un élément de détection. Le seul paramètre responsable du contraste final est le coefficient d'absorption µ des rayons X dans la matière traversée. On peut montrer que l'information recueillie en définitive est la somme des coefficients d'absorption des tissus associés aux pixels se trouvant sur la ligne de détection. Pour comprendre ce point on peut raisonner en trois temps:
1°) Si la ligne de détection est faite d'un tissu unique très homogène, on peut obtenir le coefficient µ de ce tissu en fonction de l'atténuation I0/I du faisceau et de la longueur L du parcours.
2°) Si plusieurs tissus de nature différente se présentent sur le trajet, l'information calculée doit à priori faire intervenir les différents parcours Li dans les différents matériaux, ce qui pourrait poser problème puisque ces valeurs ne sont ni connues ni mesurées.
3°) …mais par nature une image numérique est faite de pixels, à savoir de petites régions dont la taille ΔL est connue puisqu'elle dépend de la taille de l'image et du nombre de pixels. Comme ΔL est commun à tous les éléments il se factorise dans le calcul et on voit alors que la mesure de l'atténuation fournit la somme des µ moyens sur tous les éléments traversés.
3) Comment mesure-t-on?
On utilise un faisceau correctement collimaté à la source comme à la détection. En fait ce point n'est pas vraiment lié au fonctionnement de base du scanner (il relève plutôt de la qualité de l'image et de la dosimétrie) mais il permet de se représenter le faisceau comme un fin pinceau qui relierait le foyer au détecteur. En principe ce faisceau devrait être utilisé une première fois pour explorer une ligne de la coupe, puis décalé d'un cran en translation pour explorer la ligne suivante, et ainsi de suite jusqu'à couvrir la totalité de la coupe. Ensuite il s'agirait de faire pivoter l'ensemble source-détecteur pour obtenir un autre angle de vue sur la région à mesurer. Sous ce nouvel angle une nouvelle exploration de la coupe serait obtenue par translation progressive du système tube-détecteur. La séquence rotation- translation devrait être ainsi poursuivie jusqu'à couvrir une fourchette angulaire suffisante, 180° au minimum.
En pratique la séquence qui vient d'être évoquée n'a été mise en œuvre que dans les tous premiers scanners. Comme nous le verrons dans le paragraphe "générations de scanners" (Ch.II.D), les fabricants se sont très tôt libérés de cette procédure lourde et lente pour en arriver à des modes de fonctionnement continus et beaucoup plus rapides. Il n'empêche que, aussi sophistiquées que soient les machines récentes, la construction des images supposera toujours qu'on se ramène, au niveau du calcul en tout cas, au schéma de base décrit ci-dessus. Ainsi qu'on peut s'en apercevoir dans bien des technologies, c'est dans les modèles pionniers qu'on retrouve le plus simplement mises en œuvre les idées originales qui ont permis leur conception. Les progrès ultérieurs s'attachent bien sûr à améliorer la qualité, la rapidité ou le côté pratique du système, mais jamais ils ne remettent en cause le principe de base… sauf à parler de nouvelle technologie!
4) Calcul de l'image CT.
a) Méthode algébrique..
Comme indiqué au paragraphe I.B.2 la mesure d'une ligne donne la somme des coefficients µ sur cette ligne. Une première exploration de la coupe donne donc un premier ensemble d'équations reliant tous les µ de l'image. Un second parcours sous un nouvel angle donne un résultat analogue mais l'important est que dans ce nouvel ensemble les combinaisons de µ sont différentes: Les nouvelles équations sont indépendantes des premières.
La méthode algébrique de résolution repose sur le principe mathématique simple selon lequel un ensemble de m équations indépendantes peut donner les valeurs de n inconnues pour peu que m soit supérieur ou égal à n. Pour résoudre ce système de m équations à n inconnues on peut songer aux méthodes simples basées sur les déterminants ou l'inversion de matrices mais on se trouve ici bien au delà des possibilités de ces modes de calcul: En inversion matricielle par exemple il ne faut pas dépasser de beaucoup le rang 10 pour connaître des problèmes d'arrondis… or nous sommes ici très au-delà du rang 10. Beaucoup plus efficaces sont les méthodes itératives: On part d'une solution approximative qu'on injecte dans les équations pour voir si on est plus ou moins éloigné de la réalité; on corrige ensuite progressivement la proposition initiale pour converger peu à peu vers la bonne solution.
Les méthodes algébriques sont aujourd'hui abandonnées mais il n'est pas impossible qu'on y revienne un jour: Différentes sources suggèrent que les progrès constants de l'informatique, les puissances de calcul toujours plus grandes des ordinateurs pourraient leur rendre prochainement toute leur efficacité.
b)Rétroprojection.
Le principe de la rétroprojection trouve son origine dans les travaux du mathématicien Johann Radon qui a suggéré très tôt (1917) qu'une image pouvait être reconstruite au départ de projections multiples selon des lignes concourantes, ce qui s'applique bien à la tomographie. Imaginons par exemple dans la coupe à explorer un petit objet très dense, donc très aborbant pour les rayons X. Lorsque le faisceau se heurte à l'objet, l'intensité mesurée chute brutalement. On en conclut que quelque chose se trouve sur la ligne de mesure mais la position de l'objet sur la ligne n'est pas connue. La rétroprojection consiste à répartir l'information sur toute la ligne de mesure: Par exemple si l'atténuation est de 100 et qu'il y a 100 pixels sur la ligne, on attribuera à chacun d'eux une contribution à l'atténuation égale à un.
La multiplication des rétroprojections sous tous les angles fait peu à peu apparaître l'objet, en taille et en localisation.
Cette méthode de reconstruction a un côté artificiel qui présente deux défauts: D'abord les bords de l'objet sont flous là où ils devraient être nets; ensuite l'image entière se voit attribuer de l'information et apparaît légèrement grisée. La solution consiste à modifier le profil de rétroprojection: Normalement de type rectangulaire, c'est-à-dire en tout ou rien, on convient de lui donner une forme plus complexe, la principale caractéristique étant qu'il présente des flancs négatifs de part et d'autre de la bande de projection. Ces valeurs négatives agissent comme une gomme qui efface peu à peu les informations parasites mais n'agit jamais sur l'objet lui-même. Le résultat est beaucoup plus satisfaisant sur le plan de la reconstruction.
La description développée ci-dessus est sans doute un peu naïve mais le langage familier qu'elle adopte est de nature à faire comprendre intuitivement en quoi consiste la méthode. La réalité passe par les mathématiques et des méthodes d'intégration qui seront prochainement (?) exposées ci-dessous, mais ce qui restera vrai dans tous les cas est le côté partiellement ad hoc du choix de la forme du profil de rétroprojection. Il y a là dans ce choix du profil un degré de liberté qui peut-être exploité pour modifier l'aspect visuel de l'image, favorisant tantôt la résolution en contraste, tantôt la résolution spatiale selon les caractéristiques anatomiques analysées. Pour en rester au langage familier adopté ici, on dira que si le profil de projection n'est que partiellement corrigé dans le sens évoqué, les objets garderont des contours plus ou moins flous mais on aura une bonne appréciation des principales composantes de l'image. On parle de "smoothing" de l'image et de l'utilisation d'un filtre mou. Un filtre dur consiste à sur-corriger le profil de projection, auquel cas les bords des objets apparaîtront plus marqués que normal ("edge enhancing")
c) Méthode de Fourier.
La méthode mathématique de Fourier met en œuvre de façon rigoureuse les principes généraux exposés au paragraphe précédent. Elle sera prochainement (?) développée ici.