Physique pour la médecine

...la théorie!

Médecine Nucléaire

Chapitre III: SPECT.


III.B. Construction de l'image.

 

1)Correction d'atténuation et de diffusion

 

En tomodensitométrie les pixels de l'image finale représentent chacun le coefficient d'absorption moyen des rayons X à l'intérieur du voxel correspondant. En tomographie par scintigraphie gamma, chaque pixel de l'image finale se veut une restitution de l'activité gamma dans le voxel, donc de la concentration en radio-traceur à cet endroit de l'organisme. Dans ces deux techniques les images sont reconstruites au départ de matrices de données brutes obtenues lors de la rotation du détecteur autour du patient, matrices de projection obtenues dans le premier cas par transmission des rayons X au travers du corps et dans le second cas par réception des rayons gammas émis au sein-même des tissus. Ce qui distingue les deux modes d'acquisition, c'est qu'en tomodensitométrie le contenu d'une cellule de la matrice de données brutes est une mesure directe de la somme des inconnues recherchées, les coefficients d'absorption, tout au long du trajet des photons, au travers de l'exponentielle d'atténuation I0e-(Σµi)dx, alors qu'en scintigraphie, une cellule de données ne reçoit qu'une information indirecte sur l'ensemble des activités situées sur la ligne de vue , puisque chacune de ces activités subit une atténuation différente selon la distance que doivent franchir les gammas sur leur trajet de sortie. Dans I0e-(Σµi)dx il est facile d'extraire Σµi, alors que dans Σ[Aie-Σi(µidx)] il n'est pas immédiat d'extraire ΣAi.

 

MedNuc IIIB 1 

 

Les atténuations ne sont pas anodines. Par exemple, le gamma de 140keV du Tc99m a un µ de 0,155cm-1 dans l'eau, milieu proche des tissus mous, ce qui représente un facteur 2 d'absorption sur 5cm et un facteur 5 sur 10cm. Un logiciel qui constaterait une variation de cet ordre aurait du mal à distinguer s'il s'agit d'une activité faible située en surface ou d'une activité importante fortement atténuée. L'exemple type provient de la scintigraphie du myocarde où, en données brutes, la paroi inférieure, la plus interne, apparaît toujours nettement moins active que la paroi supérieure alors qu'il n'y a là le plus souvent qu'un artéfact d'absorption. Or la scintigraphie se veut quantitative! Le côté fonctionnel des organes et leurs éventuelles pathologies se marquent ici par une fixation normale ou anormale, homogène ou non homogène, du radio-traceur dans les tissus ciblés. D'où l'importance d'une bonne correction en atténuation.

La diffusion Compton des photons joue également un rôle ici. Comme en scanographie ce phénomène génère sur l'image un voile de fond et diminue le contraste, mais il influence également la quantification de l'activité. Au départ d'un point source situé dans la ligne de vue d'un pixel, les photons qui subissent une diffusion sont soustraits du comptage, ce qui réduit l'activité observée. Inversement, des photons provenant de sources situées en dehors de la ligne de vue peuvent se voir ajoutés au contenu d'un pixel parce qu'ils l'ont atteint en changeant de direction. On a vu précédemment que le Compton est en grande partie éliminé en plaçant une fenêtre en énergie sur le pic photoélectrique du gamma utilisé, mais comme on l'a souligné également la résolution en énergie n'est jamais suffisante que pour empêcher un mélange entre le pic photoélectrique et la partie haute du spectre de diffusion, avec des conséquences sur l'évaluation de l'activité.

 

a.Correction d'atténuation.

 

+) La plus ancienne (1978) et la plus simple des méthodes de correction est connue sous le nom d'algorithme de Chang. Il s'agit d'attribuer à l'ensemble du volume imagé une valeur unique et homogène de coefficient d'absorption, par exemple un µ proche de celui de l'eau pour un champ de vue comportant essentiellement des tissus mous. Pour être simple, le principe apparaît toujours grossier et souvent incorrect. Il peut se révéler acceptable en scintigraphie du cerveau ou de l'abdomen inférieur mais pose question pour ce qui est de l'imagerie cardiaque et du thorax, où voisinent des tissus mous, des tissus osseux et le milieu "air" à l'intérieur des poumons.

+) Une source gamma vue en transmission et qui accompagne le détecteur dans son mouvement de rotation permet de reconstruire une image auxiliaire du genre tomographie numérisée. Par définition cette image constitue une cartographie des coefficients d'atténuation dans le volume, ce qui convient à l'objectif visé. Le logiciel de correction peut retrouver ainsi pour n'importe quel segment de ligne le pourcentage d'absorption du gamma émis quelque part à l'intérieur du corps.

Quand les mesures en transmission et en émission doivent se faire simultanément, les énergies des gammas transmis et émis doivent être choisies très différentes, suffisamment en tout cas que pour présenter des pics photoélectriques proprement séparés. Des fenêtres placées sur ces deux pics permettent alors de classer correctement les deux types d'événement. Il reste que le pic photoélectrique du photon d'énergie basse se verra inévitablement mélangé au spectre Compton du photon d'énergie haute, problème qui relève du prochain paragraphe. Par ailleurs, dans tous les cas, que l'acquisition soit simultanée ou séquentielle, les coefficients d'absorption calculés pour l'énergie en transmission doivent être ajustés à l'énergie en émission, ce qui peut se faire en supposant par exemple une même proportion entre les coefficients obtenus dans le milieu i et les coefficients connus et tabulés pour le milieu eau:

 

 MedNuc IIIB 6

 

Pour ce qui est de la configuration de la source, de nombreuses variantes ont été proposées par les fabricants, variantes qui ont en commun le souci de couvrir au mieux l'ensemble de la surface de détection. Ainsi par exemple de sources planes liquides d'extension comparable à la tête de caméra et où l'isotope radioactif est en solution dans un milieu aqueux. Ou encore des ensembles de sources linéaires parallèles les unes aux autres, couvrant une portion de plan de la bonne taille. Ou enfin une source linéaire unique mais dotée d'un mouvement mécanique de translation qui lui fait balayer cette portion de plan. On trouve aussi des sources linéaires fixes, où l'acquisition en transmission se fait au travers d'un collimateur en fan-beam focalisé sur la ligne d'émission.

En scintigraphie cardiaque, où les corrections d'atténuation sont particulièrement importantes, la configuration double-tête à angle droit, déjà bien adaptée à un scan sur 180°, l'est également à un dispositif de mesure en transmission permanente où chaque tête voit une source disposée en vis-à-vis. Il existe aussi des systèmes à trois têtes où une source ponctuelle est logée à l'intersection de deux têtes et observée par la troisième située en vis-à-vis.

 

MedNuc IIIB 2 

 

+) Les systèmes SPECT/CT sont des dispositifs qui couplent deux machines complètes de principes différents, l'une de scintigraphie gamma et l'autre de tomodensitométrie. Ils sont conçus pour superposer à des images scanner de haute résolution spatiale les images SPECT très performantes sur le plan fonctionnel de l'organisme, ce qui est de nature à améliorer le diagnostic grâce à une localisation précise des foyers d'activité gamma. Comme évoqué ci-dessus, les images CT sont par essence des cartographies de coefficients d'absorption des photons dans le corps. Elles sont ici directement disponibles et constituent un bon instrument de base pour les algorithmes de correction d'atténuation.

 

b.Correction de diffusion.

 

Il s'agit ici d'évaluer la proportion d'événements de diffusion qui se superpose au pic photoélectrique à l'intérieur de la fenêtre de mesure. Le problème est bien sûr présent quand plusieurs énergies gammas entrent en jeu, avec mélange inévitable du Compton des énergies hautes avec les pics des énergies basses, mais il n'est pas négligeable non plus avec une seule énergie de photon, car étant donnée la faible résolution en énergie de l'ensemble du système de détection SPECT les composantes spectrales Compton et photoélectrique tendent à s'étaler de manière prononcée et s'interpénètrent inévitablement dans la partie haute du spectre.

Comme tout ce qui concerne le présent chapitre, les solutions proposées ont été nombreuses et variées; on n'en trouvera ici qu'un aperçu. En gros elles se partagent en deux catégories: Les méthodes qui se basent sur les données elles-mêmes et celles qui se basent sur des modélisations de la diffusion. Il est important par ailleurs de souligner que ces corrections doivent se faire sur chaque pixel pris séparément, et cela en tenant compte de la distribution de l'activité sur l'ensemble des pixels… et même de l'activité située hors du champ de vue, ce qui donne une idée de la complexité du problème!

+) Les méthodes basées sur les données utilisent une ou plusieurs fenêtres en énergie en plus de celle qui se voit placée sur le pic. Dans la méthode à deux fenêtres on mesure le nombre d'événements dans une fourchette d'énergie basse située dans la    partie purement Compton du spectre et on multiplie ce nombre par un facteur k censé fournir une bonne évaluation du Compton superposé au pic photoélectrique. Le problème se pose quant à la valeur de k et par ailleurs il y a une différence de nature entre les événements Compton de haute énergie, qui correspondent à des diffusions aux petits angles, et les photons d'énergie plus basse qui ont quant à eux été déviés aux grands angles ou ont subi plusieurs diffusions.

 

 MedNuc IIIB 3

 

La méthode à trois fenêtres (TEW, "triple energy windows") revient à modéliser le socle du photo-pic par un trapèze, dont la surface est donc donnée par la demi-somme des bases multipliée par la hauteur, qui n'est rien d'autre ici que la largeur ΔE de la fenêtre principale. Deux autres fenêtres sont ouvertes, juste à gauche et juste à droite du pic, qui permettent chacune de calculer une base en divisant le nombre d'événements comptés par la largeur en énergie.

 

 MedNuc IIIB 5

 

MedNuc IIIB 4 

 

Pour une énergie de photon unique, le côté droit devrait en principe être de hauteur nulle et le trapèze se réduire à un triangle.

+) Les méthodes par modélisation partent de la connaissance mathématique que nous avons du phénomène de diffusion. Cela passe soit par des formules mathématiques soit par des méthodes statistiques de type ML ("maximum likelihood") qui se servent de distributions de probabilité pour les différents paramètres impliqués dans le processus. Le calcul Monte-Carlo joue ici un rôle important. Dans un logiciel de type Monte-Carlo on génère des événements les uns après les autres en décidant pour chacun d'eux de manière aléatoire ce qui lui advient: Le type d'interaction qu'il subit, à quel endroit cela se produit et éventuellement sous quel angle il se voit diffusé. Le résultat est affecté d'une incertitude liée au nombre d'événements générés (comme dans la réalité), mais le tout est beaucoup plus souple qu'une approche analytique qui se voudrait exacte mais qui serait lourde et gourmande en temps de calcul. Ce genre d'approche s'insère particulièrement bien dans les méthodes de construction d'image de type itératif, ce qui fait l'objet du prochain paragraphe.

 

2)Construction de l'image.

 

Les corrections d'atténuation et de diffusion sont appliquées avant ou pendant la construction des images, à savoir l'étape qui partant des données brutes retrouve et dessine pixel par pixel la distribution de l'activité du radio-traceur au travers de la coupe. Une méthode très classique pour obtenir ces images est la rétroprojection, technique évoquée dans le sujet "tomographie numérisée" (§I.B.4.b) et dont les différentes étapes mathématiques seront prochainement développées, soit dans ce même sujet de tomographie numérisée où elle reste un passage quasi obligé, soit dans le présent chapitre de scintigraphie. En ce qui concerne la tomographie SPECT toutefois on a vu se développer des méthodes de calcul algébrique par itération qui se sont révélées efficaces et bien adaptées aux problèmes de correction évoqués ci-dessus. Le développement de ce type d'approche a certainement été favorisé par les progrès constants des ordinateurs en termes de puissance de calcul, et aussi par le fait que les images scintigraphiques restent modestes en termes de nombre de pixels, compte tenu de la faible résolution spatiale qui les caractérise.

Une approche itérative typique consisterait à se donner au départ une première estimation, fut-elle grossière ou même irréaliste, de la distribution de l'activité. On calcule une projection de cette image initiale sous un certain angle et on compare le résultat avec les véritables données obtenues en projection sous ce même angle. Le rapport des valeurs vraies aux valeurs estimées fournit pour chaque ligne de projection un premier facteur de correction qui est appliqué à la matrice de travail. Celle-ci est à nouveau projetée mais sous une autre valeur d'angle, puis comparée aux données acquises correspondantes, ce qui mène à une nouvelle correction. La répétition du processus pour tous les angles fait converger peu à peu l'image de travail vers l'image réelle.

L'approche itérative convient bien à des corrections en diffusion de type Monte-Carlo ou analytique. En effet, à chaque étape de projection le rayonnement provenant de l'activité estimée en un point de l'image peut-être suivi sur son chemin vers la sortie, chemin le long duquel on peut simuler des absorptions photoélectrique ou Compton, ce qui permet d'obtenir des valeurs projetées plus réalistes et une image finale de qualité.