« Neurosciences/Les méthodes pour étudier le cerveau » : différence entre les versions

Un livre de Wikilivres.
Contenu supprimé Contenu ajouté
Ligne 11 : Ligne 11 :
Deuxièmement, il faut pouvoir localiser la lésion responsable, ce qui demande d'étudier le cerveau du ou des patients. Historiquement, cette méthode demandait de faire une autopsie du patient pour localiser la lésion, mais ce n'est plus le cas de nos jours, grâce à l'évolution des méthodes de neuroimagerie. En théorie, si le cerveau ne présente qu'une lésion unique bien marquée, on peut raisonnablement supposer que c'est cette lésion qui est responsable des déficits observés, même si certains cas peuvent être trompeurs. Mais il arrive qu'un patient aie des lésions particulièrement étendues, ou alors des lésions aux bords flous, voire des lésions multiples. Dans le cas de lésions multiples, on a du mal à savoir laquelle est responsable de tel déficit, on ne sait pas comment attribuer chaque déficit à la lésion qui correspond. On peut parfois se débrouiller si l'on sait que telle lésion est ancienne et que telle autre est récente, si on dispose de l'historique du patient, mais rien de bien folichon dans les cas pratiques. Les lésions étendues sont aussi tout problématiques, pour les mêmes raisons. Et c'est clairement un défaut de cette approche, vu que les lésions localisées sont relativement rares, la majorité des AVC ou traumatismes ayant des conséquences assez dispersées dans le cerveau ou touchant de très nombreuses aires cérébrales.
Deuxièmement, il faut pouvoir localiser la lésion responsable, ce qui demande d'étudier le cerveau du ou des patients. Historiquement, cette méthode demandait de faire une autopsie du patient pour localiser la lésion, mais ce n'est plus le cas de nos jours, grâce à l'évolution des méthodes de neuroimagerie. En théorie, si le cerveau ne présente qu'une lésion unique bien marquée, on peut raisonnablement supposer que c'est cette lésion qui est responsable des déficits observés, même si certains cas peuvent être trompeurs. Mais il arrive qu'un patient aie des lésions particulièrement étendues, ou alors des lésions aux bords flous, voire des lésions multiples. Dans le cas de lésions multiples, on a du mal à savoir laquelle est responsable de tel déficit, on ne sait pas comment attribuer chaque déficit à la lésion qui correspond. On peut parfois se débrouiller si l'on sait que telle lésion est ancienne et que telle autre est récente, si on dispose de l'historique du patient, mais rien de bien folichon dans les cas pratiques. Les lésions étendues sont aussi tout problématiques, pour les mêmes raisons. Et c'est clairement un défaut de cette approche, vu que les lésions localisées sont relativement rares, la majorité des AVC ou traumatismes ayant des conséquences assez dispersées dans le cerveau ou touchant de très nombreuses aires cérébrales.


Enfin, les variabilités inter-individuelles peuvent aussi poser problèmes : si un patient lésé au lobe temporal a des troubles du langage, il se peut que d'autres ne soient pas dans le même cas. Pour éliminer ce genre de biais, les scientifiques doivent disposer d'un grand nombre de cas similaires. Si la quasi-totalité des patients atteint d'une lésion localisée présente le même trouble, la corrélation aire<->fonction est alors assez certaine. Mais dans le cas où le déficit est inconstant à lésions identiques, la corrélation est alors plus frustre et l'influence de l'aire lésée sur la fonction testée est sans doute indirecte.
Enfin, les variabilités inter-individuelles peuvent aussi poser problèmes : si un patient lésé au lobe temporal a des troubles du langage, il se peut que d'autres ne soient pas dans le même cas. Pour éliminer ce genre de biais, les scientifiques doivent disposer d'un grand nombre de cas similaires. Si la quasi-totalité des patients atteint d'une lésion localisée présente le même trouble, la corrélation aire<->fonction est alors assez certaine. Mais dans le cas où le déficit est inconstant à lésions identiques, la corrélation est alors plus frustre et l'influence de l'aire lésée sur la fonction testée est sans doute indirecte. Historiquement, les premières applications de la méthode des lésions étaient de simples études de cas, dans lesquelles un seul patient était étudié. Ce genre d'étude existe toujours, mais sons très rares par rapport aux études avec plus de patients. De nos jours, les études de lésions impliquent plusieurs dizaines ou centaines de patients aux lésions similaires, ce qui réduit quelque peu l'influence des variations interindividuelles.


==Les méthodes directes==
==Les méthodes directes==

Version du 8 juillet 2019 à 22:37

Durant longtemps, les savants d'autrefois étaient peu armés pour étudier le cerveau et son fonctionnement. Leurs connaissances étaient limitées par les technologies qu'ils avaient à leur disposition, qui se limitaient le plus souvent aux études anatomiques. Ce savoir anatomique n'est clairement pas à négliger et on doit reconnaitre qu'il a permit de très grands progrès dans notre compréhension du cerveau. Mais l'arrivée de l'électronique et de technologies plus évoluée a été une petite révolution. De nos jours, on peut analyser le cerveau en plein fonctionnement, grâce à des technologies de haute volée, qui vont de la mesure de l'activité électrique du cerveau à l'imagerie médicale. Les méthodes d'étude sont assez nombreuses : imagerie par émission de positron, électroencéphalographie, et autres. Dans ce chapitre, nous allons voir ces techniques l'une après l'autre et expliquer comment elles fonctionnent.

La méthode des lésions : l'usage de l'anatomie

La première méthode est la méthode des lésions, une méthode anatomique ancienne qui a longtemps eu son heure de gloire et qui reste encore une méthode très utilisée. Elle consiste à étudier les conséquences de lésions cérébrales en fonction de leur localisation. Le principe caché derrière cette méthode est la théorie localisationiste, qui postule que chaque portion du cerveau a une fonction bien précise. Par exemple, telle portion du cerveau serait impliquée dans la mémoire, telle autre dans le langage, et ainsi de suite. En conséquence, toute lésion d'une aire cérébrale devrait retenir sur la ou les facultés associées. Ainsi, si la lésion d'une aire entraine un déficit mnésique, on peut clairement dire que celle-ci est impliquée dans la mémoire. Cette théorie localisationiste "une aire = une fonction" peut être critiquée, dans une certaine mesure, ce qui brouille les interprétations des observations lésionnelles ! N'oublions pas que la corrélation aire lésée <-> trouble fonctionnel est une corrélation, pas une causalité ! Mais dans les faits, la méthode des lésions a permis de grandes avancées dans le domaine des neurosciences et elle complète parfaitement les autres méthodes plus récentes.

Historiquement, cette méthode a été l'une des première à être utilisée. Dès 1860, le savant Paul Broca a étudié le cas d'un patient surnommé "Tan", qu'une lésion dans l'hémisphère gauche avait privé de langage. Ce patient ne pouvait plus parler correctement et son discours se résumait à quelques mots isolés, sans phrase, ni grammaire, ni syntaxe. A son autopsie, Broca détermina que la lésion responsable était localisée dans une petite portion de l'hémisphère gauche, dans son lobe frontal. Et c'est ainsi que la première corrélation entre aire et fonction fût découverte. Par la suite, d'autres cas similaires, comme ceux du patient H.M ou de Phinéas Gage, sont devenus iconiques et sont mentionnés dans tout cours de neurosciences ou de neurologie qui se respecte.

Pour fonctionner cette méthode demande plusieurs conditions. Premièrement, il faut identifier fidèlement les déficits causés par la ou les lésions. Les neurologues disposent de toute une batterie de test neuropsychologiques qui permettent d'étudier l'attention, la mémoire, le langage et d'autres fonctions intellectuelles élaborées. Les neurologues disposent de batteries de tests neurologiques pour tester la sensibilité et la motricité de leurs patients. Sans de tels tests, difficile d'associer un déficit à une lésion. Notons que ces tests ne sont apparus de nulle part, mais proviennent d'années de recherches et sont raffinés au fur et à mesure des observations et de l'évolution des connaissances en neurologie. Plus rarement, les tests neuropsychologiques doivent être inventés ou fabriqués par les chercheurs, afin de tester leurs théories.

Deuxièmement, il faut pouvoir localiser la lésion responsable, ce qui demande d'étudier le cerveau du ou des patients. Historiquement, cette méthode demandait de faire une autopsie du patient pour localiser la lésion, mais ce n'est plus le cas de nos jours, grâce à l'évolution des méthodes de neuroimagerie. En théorie, si le cerveau ne présente qu'une lésion unique bien marquée, on peut raisonnablement supposer que c'est cette lésion qui est responsable des déficits observés, même si certains cas peuvent être trompeurs. Mais il arrive qu'un patient aie des lésions particulièrement étendues, ou alors des lésions aux bords flous, voire des lésions multiples. Dans le cas de lésions multiples, on a du mal à savoir laquelle est responsable de tel déficit, on ne sait pas comment attribuer chaque déficit à la lésion qui correspond. On peut parfois se débrouiller si l'on sait que telle lésion est ancienne et que telle autre est récente, si on dispose de l'historique du patient, mais rien de bien folichon dans les cas pratiques. Les lésions étendues sont aussi tout problématiques, pour les mêmes raisons. Et c'est clairement un défaut de cette approche, vu que les lésions localisées sont relativement rares, la majorité des AVC ou traumatismes ayant des conséquences assez dispersées dans le cerveau ou touchant de très nombreuses aires cérébrales.

Enfin, les variabilités inter-individuelles peuvent aussi poser problèmes : si un patient lésé au lobe temporal a des troubles du langage, il se peut que d'autres ne soient pas dans le même cas. Pour éliminer ce genre de biais, les scientifiques doivent disposer d'un grand nombre de cas similaires. Si la quasi-totalité des patients atteint d'une lésion localisée présente le même trouble, la corrélation aire<->fonction est alors assez certaine. Mais dans le cas où le déficit est inconstant à lésions identiques, la corrélation est alors plus frustre et l'influence de l'aire lésée sur la fonction testée est sans doute indirecte. Historiquement, les premières applications de la méthode des lésions étaient de simples études de cas, dans lesquelles un seul patient était étudié. Ce genre d'étude existe toujours, mais sons très rares par rapport aux études avec plus de patients. De nos jours, les études de lésions impliquent plusieurs dizaines ou centaines de patients aux lésions similaires, ce qui réduit quelque peu l'influence des variations interindividuelles.

Les méthodes directes

Les technologies que nous allons voir dans ce qui suit sont des techniques dites directes : elles mesurent l'activité électrique ou physiologique des neurones directement, sans passer par une mesure indirecte. Elles sont à opposer aux méthodes indirectes, que nous verrons dans la section suivante. Les méthodes directes sont au nombre incroyable de 2 : l'électroencéphalographie et la magnéto-encéphalographie. Elles mesurent toutes les deux l'activité électrique du cerveau, mais elles ne font par des méthodes légèrement différentes.

L’électroencéphalographie

Position standardisée des 21 électrodes d'un EEG.

L'activité électrique cérébrale peut se mesurer avec un instrument composé de plusieurs électrodes placées à la surface du crâne : l'électroencéphalographe, ou EEG. L'EEG est utilisé pour étudier le fonctionnement du cerveau, diagnostiquer certaines maladies qui modifient l'activité électrique cérébrale (épilepsie), et observer le déroulement du sommeil. Celui-ci est composé d’électrodes, placées à la surface du crâne, chaque électrode captant les variations de potentiel produites par le cerveau. Évidemment, cette activité n'est pas la même partout : si une aire cérébrale s'active plus qu'une autre, les variations de potentiel seront plus importantes près de cette aire cérébrale que sur une surface éloignée. Pour localiser la source de l'activité cérébrale, la position de ces électrodes est très importante, ce qui fait qu'elle est standardisée afin de rendre les résultats de l'EEG plus facile à interpréter et à reproduire. Ce qui est important, notamment quand on utilise l'EEG pour un diagnostic médical. Le schéma ci-dessous illustre la position standardisée des électrodes sur le crane. Il va de soi que l'EEG est utile pour analyser ce qui se passe à la surface du crâne, mais est assez peu précis pour capter l'activité électrique des portions centrales du cerveau : celles-ci sont recouvertes par le cortex, qui atténue les signaux sous-corticaux. L'EEG est très utile pour diagnostiquer l'épilepsie, laquelle se traduit par une activité électrique anormale sur l'EEG.

La magnéto-encéphalographie

La magnéto-encéphalographie fonctionne sur le même principe que l'EEG, à la différence qu'elle capte les champs magnétiques crées par l'activité électrique des neurones.

Magnetoencephalography

Les méthodes indirectes

Les méthodes directes, vues dans la section précédente, sont à opposer aux méthodes indirectes, comme l'imagerie médicale. Ces dernières ne mesurent pas directement l'activité des neurones, mais mesurent un paramètre qui y est indirectement relié. Par exemple, mesurer le flux sanguin cérébral ou sa consommation en oxygène nous donne des indications sur les aires cérébrales les plus actives ou les moins utilisées. Les deux méthodes indirectes principales sont l'imagerie par résonance magnétique et la tomographie par émission de positrons.

La radioactivité médicale

D'autres méthodes se basent sur la radioactivité médicale, à savoir l'utilisation de la radioactivité a but diagnostique et/ou curatif (le dernier cas est utilisé pour soigner certaines tumeurs). Ces examens injectent une substance faiblement radioactive dans le sang et mesurent la radioactivité produite par celle-ci. La substance rendue radioactive est appelée le traceur. Dans le cerveau, la répartition du traceur sera surtout modulée par le débit sanguin et l'innervation sanguine. Là où il y a le plus de sang, donc là où le débit sanguin est important, il y a plus de traceur et plus il y a de radioactivité. Ces zones de radioactivité supérieure induisent une intensité locale supérieure sur les images obtenues par les capteurs de radioactivité. Il existe grossièrement deux techniques de ce type, la première s'appelant la « scintigraphie » et la seconde portant le nom de « tomographie par émission de positons ».

La tomographie par émission de positons (TEP) permet de mesurer des paramètres différents selon le traceur utilisé.

  • Le plus couramment utilisé est un atome de Fluor-18 placé dans une molécule de glucose. La molécule de glucose marquée par l'atome radioactif se comporte comme toute autre molécule de glucose et migre dans les tissus pour y être utilisé. Plus un tissu sera actif, plus il consommera de glucose et plus les molécules radioactives y seront concentrées. En somme, il s'agit d'un indicateur du métabolisme cérébral.
  • En recherche, on utilise aussi de l'oxygène-15, dont les concentrations semblent refléter fidèlement le débit sanguin cérébral, qui lui-même dépend fortement de l'activité des neurones (comme on l'a vu il y a quelques chapitres).
  • On peut aussi utiliser des molécules qui se fixent sur de récepteurs synaptiques ou sur des neurotransmetteurs. Par exemple, certains examens en TEP utilisent du Raclopride, un antagoniste des récepteurs dopaminergiques D2 qui se fixe sur ces récepteurs. D'autres molécules sont utilisé dans le même but : mesurer le nombre et la densité de récepteurs synaptiques, essentiellement dopaminergiques. Ce genre d'examens est utilisé pour le diagnostic de la maladie de Parkinson ou de syndromes similaires à celle-ci (démence à corps de Lewy, dégénérescence cortico-basale, paralysie supra-nucléaire progressive, ...). Elle est aussi utilisé par les chercheurs pour étudier certaines maladies psychiatriques, comme la dépression, les troubles bipolaires, la schizophrénie ou les addictions.
Tomographie par émission de positons.

Quelque soit le traceur utilisé, sa désintégration radioactive produit un positron (pour simplifier, les positrons sont des anti-électrons chargés positivement) - ce qui donne son nom à la TEP. Celui-ci réagit alors avec la matière alentour et donne naissance à une paire de photons gamma qui partent chacun dans des directions opposées. Ces photons sont captés par des caméras spécialisées, placées en cercle autour du patient, comme le montre l'image ci-contre. Celles-ci mesurent en continu les flux de photons gamma et transmettent leurs données à un ordinateur, qui analyse la différence de temps d'arrivée des positrons d'une paire (l'un est capté avant l'autre par les caméras) et en déduit la localisation du traceur désintégré. Diverses analyses statistiques, réalisées par logiciel, permettent alors de savoir quelles sont les régions les plus riches en traceurs et celles qui sont appauvries ou neutres. Le résultat est affiché sous la forme d'une série d'images médicales que le médecin ou le chercheur peut analyser comme bon lui semble.

Exemple d'une image d'un cerveau sain obtenue par la TEP.
Image TEP d'un cerveau atteint par Alzheimer.

Cette technique permet de mesurer convenablement l'activité cérébrale pour les structures sous-corticales, bien plus que l'EEG du moins. Au niveau diagnostique, elle est utilisée pour diagnostiquer certaines tumeurs cérébrales, qui ont un métabolisme augmenté et sont fortement vascularisées afin d'assouvir leurs besoins en nutriments. Elles peuvent en conséquence se voir sur les images d'une TEP, sous la forme de zones au débit sanguin/métabolisme augmenté. Mais outre son utilité médicale, elle permet aussi d'étudier l'activité cérébrale quand on soumet un sujet à une tâche quelconque. Elle permet de savoir si telle ou telle aire cérébrale s'active quand le sujet parle, quand il bouge son bras, quand il pense, quand il voit quelque chose, etc. Si la finesse des images est grosso-modo assez bonne, le temps de réaction de la TEP est problématique. La durée entre l'acquisition de deux images est suffisamment long pour lisser les variations rapides du métabolisme cérébral. En clair, cela ne permet pas de savoir quelle aire cérébrale s'est activée avant l'autre, chose très importante pour l'étude des fonctions cognitives.

La scintigraphie cérébrale permet d'étudier la perfusion sanguine du cerveau et est surtout utilisée dans un but purement diagnostique. Il s'agit d'un examen médical assez long (d'une demi-heure, à une heure), qui est utilisé pour diagnostiquer certaines maladies neurologiques chroniques : Alzheimer, démence fronto-temporale, Parkinson, etc. Elle est aussi utilisée pour préparer certaines chirurgies cérébrales, notamment pour les opérations visant à réduire certaines épilepsies résistantes aux médicaments.

L'imagerie par résonance magnétique

L'imagerie par résonance magnétique (IRM) se base des principes physiques assez compliqués à expliquer. Celle-ci applique un champ magnétique sur le cerveau et mesure les champs magnétiques produits en réaction par les protons des noyaux atomiques (à cause de leur spin). Celle-ci donne les images iconiques, que vous avez certainement déjà vu par ailleurs.

FMRI Brain Scan