Physique pour la médecine

...la théorie!

 

Imagerie par résonance magnétique (IRM)

Chapitre II: Préalables en mathématiques.

 

 

II.C. Echantillonnage

 

1) Taux d'échantillonnage.

En imagerie médicale comme ailleurs, la plupart des mesures commencent par l'émission de signaux analogiques, qu'il s'agisse de la sortie d'un détecteur ou de manière générale de quelque capteur que ce soit. Un signal analogique se caractérise par une hauteur qui varie continûment dans le temps pendant un intervalle Δt non nul. Or, il est clair que l'enregistrement d'un signal de ce type comme de toute autre information ne se conçoit qu'au travers d'une série de nombres stockés dans des mémoires d'ordinateur, ce qui s'obtient ici en le sondant à intervalles réguliers, et en transformant en nombres les tensions ainsi mesurées (La transformation en nombre d'une tension en volts s'obtient par un CAD, convertisseur analogue-digital, ou ADC en anglais). La fréquence fE avec laquelle on sonde ainsi un signal électronique est dite "taux d'échantillonnage" ("sampling rate").

Echantillonnage d'un signal

La période d'échantillonnage TE=1/fE est le temps qui sépare deux mesures. Si pendant ce temps la variation du signal est lente, alors l'information stockée représente assez bien la réalité. Par contre si pendant ce temps les variations sont rapides, le système ne peut les voir et de l'information est perdue[1]. Pour un signal simple de type sinus de fréquence f, on possède ainsi le critère de Nyquist, ou théorème de Shannon[2], selon lequel la fréquence d'échantillonnage doit être au moins égale au double de f (fE ≥ 2f), ce qui revient à dire que chaque oscillation (ou demi-période) doit être sondée au moins une fois. Si fE est inférieur à cette limite, le système sous-estimera la fréquence de l'onde, comme cela apparaît par simple effet visuel dans le schéma ci-dessous.

Théorème de Shannon-Nyquist

Le chapitre précédent (ch.II.B) rappelait que tout signal peut-être décomposé en une série de fréquences (analyse spectrale, ou de Fourier), série discrète pour un signal périodique mais continue pour un signal quelconque. Il apparaît désormais que, pour un signal donné, un échantillonnage correct suppose que fE soit plus élevé que deux fois la limite supérieure du spectre de fréquence. Si fE est inférieur à cette limite, la reconstitution du signal au départ du spectre ne sera pas fidèle. Cette reconstitution souffrira en fait d'un effet de repliement ("aliasing") du spectre sur lui-même: Toute fréquence égale à ((fE/2)+a) sera enregistrée comme égale à ((fE/2)-a). Pour fE égal à 10kHz par exemple, des fréquences de 3, 4, 5, 6, 7kHz seront vues comme des fréquences de 3, 4, 5, 4, 3kHz.

[

Mathématiquement, un échantillonnage est le produit du signal par la fonction "peigne", notée comb et dite peigne de Dirac parce qu'elle est une suite de fonctions de Dirac régulièrement espacées de TE.

 

IRM IIC 3

 

Sachant que la transformée de Fourier d'une fonction peigne est elle-même une fonction peigne où les valeurs non nulles se situent aux multiples entiers de fE, et se rappelant que la transformée de Fourier d'un produit de fonctions est la convolution des transformées de ces fonctions, on obtient graphiquement:

 

Transformée d'un signal échantillonné

 

Quand la limite fmax du spectre de base est supérieure à fE/2, que donc le critère de Nyquist n'est plus rencontré, les différentes composantes se recouvrent, ce qui sera vu en réalité comme un repliement du spectre sur lui-même (aliasing).

 

Aliasing

 

]

 

2) Porte d'échantillonnage.

L'échantillonnage est contrôlé par l'électronique, qui lui ouvre une porte d'autorisation pendant un temps donné ("sampling gate"). La porte d'échantillonnage peut englober la totalité du signal ou n'en couvrir qu'une partie. La largeur de la porte joue un rôle important dans la résolution en fréquence du signal, comme le suggère le schéma ci-dessous: Une porte étroite est incapable de faire la différence entre deux fréquences voisines, alors qu'une porte plus large sera mieux à même de les résoudre. Sachant qu'en IRM le signal est fait de fréquences protons qui augmentent progressivement le long de l'axe x (voir plus loin, les gradients de champ et le codage spatial: Ch IV.B), la largeur de la porte d'échantillonnage aura une influence directe sur la résolution spatiale (selon x) de l'image finale.

IRM IIB 11 

 

 

[

Mathématiquement, l'échantillonnage apparaît à présent comme le produit de trois fonctions: Le signal à sonder, un peigne de Dirac et une fonction créneau représentant la porte (le paragraphe précédent supposait un peigne de Dirac infini, alors qu'ici le créneau limite sa durée). La transformée de Fourier sera cette fois la convolution de trois fonctions: la transformée du signal non échantillonné, le peigne de Dirac en fréquence, et la fonction sinc dont on a vu qu'elle était la transformée d'un créneau (Ch II.B). Par rapport au paragraphe précédent, la présence du sinc revient à étaler un peu plus les différentes parties du spectre final, ce qui peut amener plus facilement à des chevauchements, donc de l'aliasing.

]

3) Dualité.

Le paragraphe 1 ci-dessus montrait que la valeur du taux d'échantillonnage impose une limite supérieure à la fréquence mesurable. Le paragraphe 2 suggérait que la largeur de la porte d'échantillonnage définit la résolution spectrale. En IRM, il y a une relation univoque entre la fréquence de rotation des protons et leur coordonnée x, de sorte qu'en d'autres termes on peut dire que le taux d'échantillonnage définit l'intervalle observable sur l'axe des x, alors que la largeur de porte définit la résolution spatiale selon x. Et en définitive on en arrive à ce constat de dualité entre échantillonnage et image: Le découpage temporel est lié à la largeur spatiale, donc au champ de vue (FOV) tandis que, inversement, la largeur temporelle est liée au découpage spatial, donc à la résolution de l'image.

A la base de cela se trouve une propriété de la transformée de Fourier, qui se voit ici traduite en paramètres de base de l'IRM.

Dualité image / échantillonnage 



 

[1] Il est un principe général, et qui rencontre après tout le bon sens, selon lequel si on utilise un outil pour sonder un objet, l'outil se doit d'être plus fin que l'objet. On peut donner ici en exemple la limite d'observation au microscope optique qui, s'il utilise de la lumière blanche, ne peut espérer voir des objets inférieurs au demi-micron, longueur d'onde moyenne de la lumière visible. Pour faire mieux il faut utiliser de plus courtes longueurs d'onde: lumière ultraviolette ou, beaucoup plus fins par la longueur d'onde qui leur est associée, les électrons (microscope électronique)

 

[2] Nyquist a énoncé le principe en 1927 (Shannon n'était encore qu'un gamin!) mais c'est Shannon qui, plus tard, l'a démontré rigoureusement. Il serait juste de les associer en parlant de théorème de Shannon-Nyquist.