Mémoire/Version imprimable

Un livre de Wikilivres.
Sauter à la navigation Sauter à la recherche
Nuvola-inspired File Icons for MediaWiki-fileicon-ps.png

Ceci est la version imprimable de Mémoire.

  • Si vous imprimez cette page, choisissez « Aperçu avant impression » dans votre navigateur, ou cliquez sur le lien Version imprimable dans la boîte à outils, vous verrez cette page sans ce message, ni éléments de navigation sur la gauche ou en haut.
  • Cliquez sur Rafraîchir cette page pour obtenir la dernière version du wikilivre.
  • Pour plus d'informations sur les version imprimables, y compris la manière d'obtenir une version PDF, vous pouvez lire l'article Versions imprimables.


Mémoire

Une version à jour et éditable de ce livre est disponible sur Wikilivres,
une bibliothèque de livres pédagogiques, à l'URL :
https://fr.wikibooks.org/wiki/M%C3%A9moire

Vous avez la permission de copier, distribuer et/ou modifier ce document selon les termes de la Licence de documentation libre GNU, version 1.2 ou plus récente publiée par la Free Software Foundation ; sans sections inaltérables, sans texte de première page de couverture et sans Texte de dernière page de couverture. Une copie de cette licence est incluse dans l'annexe nommée « Licence de documentation libre GNU ».

Sections

L'apprentissage

Les premières études sur la mémoire humaine ont été réalisées par un certain Hermann Ebbinghaus, un philosophe/psychologue allemand des années 1885. Celui-ci a été le premier à créer une méthode expérimentale fiable pour étudier la mémoire. Son protocole expérimental consistait à mémoriser une liste de mots appris par cœur. Pour éviter tout biais ayant trait à la complexité des mots ou aux associations qu'ils peuvent entretenir, il décida de n'utiliser que des syllabes sans aucun sens, organisées en consonne-voyelle-consonne, dont la consonne ne se répète pas. Cela donnait des mots comme YAT, DUS, MIK, etc. Il créa ainsi 2300 de ces mots, écrits sur des morceaux de papier, et commença les expériences. Les expériences se passaient comme suit : il choisissait un morceau de papier au hasard, lisait le mot à haute voix, avec la même intonation à chaque fois, et rangeait le papier avant de passer au mot suivant. A chaque fois, le nombre de mots tirés du box était choisi au hasard. A la fin de la procédure, il prenait un morceau de papier et notait dessus tous les mots dont il se rappelait. Ses investigations lui prirent un grand nombre de répétition, mais elles ne furent pas vaines. Ebbinghaus remarqua quelques régularités dans les mots dont il se rappelait. Dans ses expériences, Ebbinghaus fut le premier à découvrir l'effet de position sérielle, le sur-apprentissage, et les effets de la répétition sur la mémoire.

De nos jours, les scientifiques utilisent des protocoles similaires à celui d'Ebbinghaus, mais utilisent des items différents. Les scientifiques ne s'interdisent plus d'utiliser des items qui ont un sens, comme des mots, des phrases, des textes complets, des images, etc. De plus, les protocoles utilisés sont un peu plus nombreux que la simple tâche d'Ebbinghaus, chaque protocole étudiant une forme particulière de mémorisation. Lorsque le sujet doit apprendre une liste d'items et qu'il est interrogé immédiatement après l'apprentissage, on parle de rappel immédiat. Ce rappel immédiat est à opposer aux tâches de rappel différé, où le sujet est testé après quelques minutes après l'apprentissage de la liste. De plus, le rappel peut se faire dans un ordre différent de celui de la liste : on parle de rappel libre, à opposer au rappel sériel où le sujet doit rappeler les items dans l'ordre de présentation. Ces protocoles sont différents et les sujets n'ont naturellement pas les mêmes performances selon le protocole utilisé. Par exemple, le rappel immédiat est largement plus facile que le rappel différé : le sujet a le temps d'oublier la liste apprise avec le rappel différé, mais pas en rappel immédiat. De même, le rappel libre est nettement plus facile que le rappel sériel, pour diverses raisons : l'ordre des items n'est pas à mémoriser, l'oubli d'un item ne nuit par au rappel des suivants, etc. Dans ce qui va suivre, nous allons voir quelques faits quand à l'apprentissage, qui ont été découverts par Ebbinghaus, puis confirmés par de nombreux expériences ultérieures.

L'effet de la répétition[modifier | modifier le wikicode]

Il semble évident que la répétition, l'apprentissage par cœur, est importante pour la mémorisation. On se souvient tous de notre scolarité, des heures passées à réviser nos cours, à revoir sans cesse les notions et exercices déjà vus ou faits. Beaucoup d'élèves ont souvent pesté sur la difficulté qu'il y a à apprendre un cours parfaitement. Il faut dire qu'apprendre par cœur un grand nombre d'informations prend du temps, demande beaucoup de répétitions et d'efforts. Beaucoup aimeraient que ce ne soit pas le cas et il n'est pas rare que les élèves recherchent des méthodes plus efficaces pour mémoriser, afin d'y passer moins de temps. Mais force est de constater que la répétition est malgré tout un bon moyen pour mémoriser des informations, surtout si celles-ci n'ont pas vraiment de sens. Il va de soit que plus de temps passé à réviser quelque chose a un effet positif : mieux vaut passer quatre heures à revoir quelque chose que d'y passer seulement une heure. Et si les intuitions sont souvent trompeuses, ce n'est pas le cas ici. Plus on répète quelque chose, plus on s'en souvient : la répétition consolide les connaissances et souvenirs acquis.

Cela n'étonnera sans doute pas grand monde, mais les sciences demandent que toute hypothèse soit vérifiée, confirmée. Ebbinghaus a été le premier a confirmer l'effet de la répétition sur l'apprentissage, avec ses expériences. D'autres vérifications sont venues d'expériences plus récentes, et notamment par l'étude de Bahrick et al. Pour cette étude, les chercheurs ont regroupé plusieurs élèves de leur ancienne université et leur ont fait passer des tests pour vérifier ce qu'ils avaient retenus de leurs anciens cours d'espagnol. Certains élèves avaient eu peu de cours d'espagnol, alors que d'autres en avaient eu beaucoup plus (une histoire d'années d'études et d'options, assez spécifique aux universités américaines). Les tests étaient assez simples et se limitaient à des questions de vocabulaire du style : "Comment dit-on le mot chien en espagnol ?" ou inversement. En plus des résultats aux tests, les chercheurs ont amassés des données sur le nombre d'heures de cours suivis par les sujets, ainsi que d'autres variables. Les chercheurs ont alors analysés les résultats et ont remarqué une bonne corrélation entre les résultats des tests et le nombre de cours passés par les participants. Ceux qui avaient vu une seule fois les mots dans leur scolarité avait un taux de rappel de presque zéro, ceux qui les avaient vu trois fois atteignaient 30 %, et deux qui avaient vu cinq fois ces mots durant leur scolarité atteignaient 60 % de réussite.

Nombre de répétitions[modifier | modifier le wikicode]

Cependant, on peut se demander si la répétition a un rendement stable, croissant ou décroissant. Prenons l'exemple d'un élève qui étudie une langue étrangère et doit mémoriser une liste de 500 mots étrangers (cela doit vous rappeler des souvenirs des cours d'anglais/allemand/espagnol au collège). Mettons qu'il ait réussi à mémoriser 50 mots suite à une heure d'apprentissage. A votre avis, quel est l'effet d'une heure de révision supplémentaire sur la mémorisation ? Il y a alors trois possibilités, selon qu'on envisage un rendement stable, croissant ou décroissant. Avec un rendement stable, chaque heure supplémentaire permettra de mémoriser 50 mots. L'élève aura donc mémoriser 50 mots à l'issue de la première heure d'apprentissage, 100 après la seconde, 150 après la troisième, etc. Dit autrement, l'effet du temps d'apprentissage est linéaire, chaque répétition ayant le même effet que les précédentes. Si on double le temps d'apprentissage, on peut alors apprendre deux fois plus de choses. La qualité de mémorisation dépend alors du temps passé à revoir, à répéter le matériel à apprendre. Derrière cette constatation, se cache une hypothèse assez intéressante : la mémorisation dépend essentiellement du nombre de répétitions, du temps passé à revoir ce qu'on a appris.

Une telle hypothèse est appelée l'hypothèse du temps total. Une autre possibilité est que le rendement est décroissant. Pour reprendre l'exemple précédent, l'élève aura appris 50 mots après la première heure, mais moins de 100 mots après la seconde heure, bien moins de 150 mots après la troisième heure, etc. Chaque heure d'apprentissage a alors moins d'effet que les précédentes. Au bout d'un certain temps, il ne sert plus à grand chose de continuer à revoir ce qu'on a appris. A l'inverse, on peut supposer un effet croissant avec le temps : l'élève aura appris 50 mots après une heure, 110 après 2 heures, 190 après trois heures, etc. Dans ce cas, plus on sait de choses, plus on peut en apprendre de nouvelles facilement. L'apprentissage a alors un effet cumulatif et chaque heure d'apprentissage supplémentaire a un rendement supérieur aux précédentes.

Départager ces possibilités demande naturellement des expériences scientifiques contrôlées comme il se doit. Ebbinghaus chercha à savoir quel était l'influence du nombre de répétitions. Pour le savoir, il compara le taux de rappel obtenu un jour après l'apprentissage de plusieurs listes de 16 syllabes. Ces listes étaient revues respectivement 8, 16, 24, 32, 42, 53, et 64 fois. Le bilan était clair : le taux de rappel d'une liste était directement proportionnel au nombre de répétitions de celle-ci. Cela semble donc confirmer l'hypothèse du temps total. Mais on pourrait rétorquer que les items à apprendre pourraient biaiser quelque peu les résultats. Peut-être que l'hypothèse du temps total marche bien pour l'apprentissage de listes de syllabes sans aucun sens, mais échouerait pour d'autres formes d'apprentissage. Aussi, d'autres formes d'expériences sont nécessaires pour conclure. Et force est de constater que l'hypothèse du temps total, bien qu'assez réaliste, ne fonctionne pas dans de nombreux cas. Le reste du chapitre sera d'ailleurs consacré à mettre en défaut cette hypothèse.

Sur-apprentissage[modifier | modifier le wikicode]

Dans les premières expériences utilisant les courbes de l'oubli, Ebbinghaus a remarqué que le sur-apprentissage, à savoir continuer à revoir le matériel à apprendre une fois que celui-ci est totalement su, permettait de mémoriser plus longtemps et de diminuer l'oubli avec le temps. Expérimentalement, cette technique marche, mais les effets semblent s'estomper après quelques semaines, voire quelques mois. L'étude ("The Effect of Overlearning on Long-Term Retention") a demandé à des étudiants de retenir des faits géographiques et des définitions de mots. Les étudiants qui avaient sur-appris retenaient mieux, mais les effets s'estompaient assez rapidement, quelques semaines plus tard. Une autre de ces études (The Effects of Overlearning and Distributed Practise on the Retention of Mathematics Knowledge) a testé la même chose, mais pour des exercices de mathématique. Le bilan est le même : pas d'effets à long terme.

Ré-apprentissage[modifier | modifier le wikicode]

Dans ses expériences, Ebbinghaus remarqua aussi que le ré-apprentissage était plus facile suivant le nombre de répétitions. Dans ses expériences, il apprenait des listes de syllabes, en contrôlant le nombre de répétitions, et regardait combien de temps il lui fallait pour réapprendre l'intégralité de la liste, une fois celle-ci totalement oubliée. Les résultats montre le réapprentissage est plus rapide que le premier apprentissage. Tout que tout se passe comme si les informations oubliées n'étaient pas totalement perdues et effacées de la mémoire : il en subsisterait une trace dans le cerveau qui peut faciliter les ré-apprentissages ultérieurs. On verra que cette interprétation a un sens particulièrement profond dans les théories récentes de la mémoire.

Expériences d'ebbinghaus : Nombre de répétitions et temps de réapprentissage

Distribution de l'apprentissage[modifier | modifier le wikicode]

Ebbinghaus a aussi regardé s'il y avait une différence entre l'apprentissage massé, et l'apprentissage distribué. L'apprentissage massé consiste à apprendre le matériel sur une durée continue, tandis que l'apprentissage distribué consiste à faire de nombreuses pauses et à voir le matériel morceaux par morceaux. Expérimentalement, il a constaté que l'apprentissage distribué devançait de loin l'apprentissage massé : le seul fait de distribuer l'apprentissage peut permettre d'améliorer la mémorisation de plusieurs ordres de grandeurs. Cette supériorité de la distribution sur l'apprentissage massé s'appelle l'effet de distribution de l'apprentissage. Les origines de cet effet ne sont pas claires : il semblerait que cet effet aurait plusieurs explications. Ceci dit, ce phénomène est particulièrement robuste, et apparait dans de nombreuses formes d'apprentissage.

Effet de la distribution de l'apprentissage.

Testing effect[modifier | modifier le wikicode]

D'autres observations de la même trempe, bien que non-découvertes par Ebbinghaus, sont cependant intéressantes à étudier. Celle qui va suivre en fait partie. Expérimentalement, on constate que le fait de se rappeler de quelque chose le consolide en mémoire, le rendant plus résistant à l'oubli : c'est ce qu'on appelle le Testing effect. En somme, les informations qu'on retient le mieux sont celles dont on s'est rappelées souvent, pas celles que l'on a revues ou relues souvent.

Pour donner un exemple, prenons une expérience effectuée par des chercheurs de l'université de St Louis, aux USA. Ils ont demandé à trois groupes d'élèves de mémoriser une liste de 50 mots. Le premier devait bachoter durant 8 séances, le second devait bachoter durant 6 séances et se faire tester dans deux autres, et le troisième groupe devait bachoter durant 4 séances et se faire tester durant 4 séances. Une semaine plus tard, plus un groupe s'était fait tester, meilleurs étaient ses résultats. Autre expérience, réalisée par Roediger & Karpicke. On demande à des étudiants de lire des textes scientifiques relativement courts. Le premier groupe devait lire le texte 4 fois, le second groupe lisait le texte trois fois et se faisait tester une fois, tandis que le troisième groupe avait droit à une seule lecture et trois interrogations. Une semaine plus tard, les trois groupes étaient testés : plus un groupe avait été testé, mieux c'était : le troisième groupe réussissait même à rappeler 50 de mots en plus que le premier groupe. Les raisons de cet effet ne sont pas très claires à l'heure actuelle.

Effet de génération[modifier | modifier le wikicode]

Les recherches sur la mémoire ont aussi mis en évidence un effet appelé effet de génération : on retient mieux quelque chose que l'on a crée soit même que du matériel simplement lu ou écouté. Cet effet fût découvert par Slamecka & Graf, dans une étude de cinq expériences, en 1978. Celle-ci était basée sur un protocole simple : quatre groupes de cobayes devaient étudier une liste de mots, chacun d'une manière différente. Les premiers groupes devaient simplement lire une liste de paires de mots donnée par l'expérimentateur. Les autres groupes recevaient la même liste de mots, mais qui était partiellement remplie : ils devaient générer le second mot de chaque paire en suivant certaines règles (trouver un mot qui rime, qui est de la même catégorie, ou qui était opposé, etc). Quelques lettres étant donnée en indice : unhappy - s _ _, not slow - f _ _ t, etc. Si l'on compare les groupes "lecture" et "génération", on s’aperçoit que le groupe qui a créé les seconds mots d'une paire a un taux de rappel supérieur aux autres groupes. Dans une seconde expérience, les chercheurs ont montré que cet effet demeurait quand les sujets n'étaient pas prévenus qu'ils seraient interrogés sur leur mémorisation du matériel (dans une tâche de rappel incident). Une troisième expérience fondée sur un protocole similaire a permis de réfuter le fait que l'effet de génération pourrait avoir des causes attentionnelles.

D'autres expériences ont cherché à évaluer cet effet de génération sur d'autres formes de matériel : images, résolution de problèmes arithmétiques, génération des mots-clés d'un paragraphe, etc. Le bilan est clair : quel que soit le type de matériel utilisé, on trouve un effet de génération dans certaines circonstances. Rien d'étonnant pour certains professeurs : les professeurs de langues étrangères savent que faire parler les élèves fonctionne nettement mieux que leur faire apprendre du vocabulaire et des règles grammaticales par cœur. En somme, générer soi-même le matériel à apprendre permettrait de mieux retenir et mémoriser.

Première critique : dans toutes les expériences mentionnées plus haut, des indices étaient fournis pour permettre de générer le matériel adéquat. Le processus de génération se fonde donc sur un traitement fait sur ces indices, capable de générer un mot complet. En clair : l'indice est associé avec des connaissances antérieures, ce qui permet de générer le matériel voulu. L'effet de génération provient donc du fait que l'on crée des liens, des associations avec des choses déjà connues : il vient du fait qu’implicitement, le matériel généré l'est par un processus de recherche de sens. Si l'on fait en sorte que le traitement effectué sur le matériel à apprendre soit aussi élaboré lors de la génération que lors de la lecture, l'effet de génération disparait. Ainsi, si on compare un groupe qui mémorise une liste de mots avec des moyens mnémotechniques, et un groupe qui généré lui-même les mots, on ne trouve pas de différences. Les expériences d'imagerie cérébrales ont d'ailleurs montré que l'activité du cortex pré-frontal, impliqué dans la création d'associations avec les connaissances antérieures, était un peu plus intense dans les tâches de génération que dans les tâches de réception passive. En clair : plus d'attention est portée sur le matériel à apprendre, et le cerveau a tendance à traiter mentalement le matériel de manière active, favorisant une mémorisation élaborée.

Seconde critique : le matériel généré était du matériel qui était déjà relativement bien connu du cobaye. Or, si jamais le matériel à généré était peu familier, on ne trouve pas d'effet de génération. Par exemple, les mots peuvent donner lieu à un effet de génération, mais pas les suites de syllabes sans signification, comme les pseudo-mots (bragab, chmorglub, etc). Générer soit-même du matériel peu familier, qui comporte donc peu de signification ne permet pas de mieux mémoriser. En clair : générer soit-même le matériel à apprendre n'est utile que pour du matériel familier, dans des situations où le cobaye dispose de suffisamment de connaissances antérieures. Sweller et ses collègues ont aussi découvert ce que l'on appelle l'imagination effect : des élèves qui ont beaucoup de connaissances antérieures gagnent à résoudre des problèmes par eux-même et à réfléchir de manière autonome, tandis que cet effet ne se manifeste pas pour des élèves qui en ont peu.

Les effets de position sérielle[modifier | modifier le wikicode]

Ebbinghaus fût aussi le premier à découvrir les effets de position sérielle, qui apparaissent dans les tâches de rappel libre. On observe alors que les items au début et à la fin de la liste sont nettement plus rappelés que ceux du milieu.

Effet de position sérielle.

Effet de primauté[modifier | modifier le wikicode]

Le fait que les mots au début de la liste soient mieux mémorisés s'appelle le l'effet de primauté. Il apparait aussi bien dans les tâches de rappel immédiat que différé. Il provient du fait que les éléments du début de la liste ont pu être répétés mentalement par le cobaye plus souvent que les autres, durant toute la durée de l'expérience, facilitant leur mémorisation. Pour obtenir une véritable preuve expérimentale, les psychologues ont demandés à des groupes de cobayes de prononcer à haute voix les mots qu'ils répétaient lors de la présentation de la liste. Le bilan est clair : les premiers éléments de la liste sont répétés plus souvent que les autres. Qui plus est la corrélation entre nombre de répétition et taux de rappel est presque parfaite.

Effet de récence[modifier | modifier le wikicode]

Les mots présentés en dernier sont aussi rappelés plus souvent que les autres : c'est l'effet de récence. La probabilité de rappel est même supérieure à celle observée avec l'effet de primauté. Cet effet de récence est sensible à plusieurs paramètres. Par exemple, augmenter la longueur de la liste ou diminuer la vitesse de lecture n'a aucune incidence sur l'effet de récence. Le nombre d'éléments rappelés dans ces conditions est relativement stable chez une même personne. Il ne dépasse jamais les 10 mots, la moyenne tournant autour de 7 items, + ou - 2.

Effet de contiguité[modifier | modifier le wikicode]

Enfin, un troisième effet apparait souvent dans les tâches de rappel libre. On rappelle que dans ces tâches, le sujet n'est pas censé rappeler les items dans l'ordre de la liste. On pourrait croire que celui-ci les rappellera dans le désordre total, ou tout du moins sans les rappeler dans l'ordre. Ce n'est pas vraiment le cas, dans une certaine mesure : le sujet a tendance à rappeler des items consécutifs les uns après les autres, que ce soit par paires ou par blocs d'items consécutifs dans la liste apprises. Rien d'étonnant, mais cela reste une régularité à expliquer. Les scientifiques ont donné un nom à cette régularité : l'effet de contiguïté.


Le modèle modal d'Attinson et Schiffrin

Bien que connu depuis Ebbinghaus, l'explication des effets de récence et de primauté est longtemps resté un mystère. Murdock, dans son étude de 1962, a suggéré une hypothèse intéressante : l'existence d'une mémoire à court terme de capacité limitée, qui ne dure que quelques secondes. Cette mémoire à court-terme serait à opposer à la mémoire plus durable, celle du langage commun, appelée mémoire à long-terme. Les derniers éléments rappelés seraient accessibles depuis la mémoire à court terme, tandis que les autres doivent être repêchés depuis la mémoire à plus long terme. L'effet de récence donne une indication sur la taille de la mémoire à court-terme. L'effet de récence étant de 7 items, on en déduit facilement que la taille de la mémoire à court-terme serait de cet ordre : 7 items, plus ou moins deux. Cette interprétation est aujourd'hui nuancée, pour des raisons que nous aborderons plus tard.

Reste que l'existence d'une telle mémoire restait à confirmer. Ce fut fait par l'étude de Glanzer et Cunitz, datée de 1966. Dans cette expérience, deux groupes de sujets devaient apprendre une liste de mots. Cependant, le premier groupe était testé dans une tâche de rappel immédiat, alors que l'autre était testé via un rappel différé. Plus précisément, le second groupe recevait une tâche entre l'apprentissage de la liste de mots et son rappel. Les sujets devaient compter à l'envers de trois en trois, à voix haute, durant un certain temps. Une telle tache, intercalée entre rappel et apprentissage, porte le nom de tâche de Brown-Petterson. Le fait est que l'effet de récence apparaît bien en rappel immédiat, mais disparaît presque totalement en rappel différé avec tâche de Brown-Petterson. L'interprétation de ce résultat est que la tâche de Brown-Petterson a vidé la mémoire à court-terme, supprimant ainsi l'origine de l'effet de récence. Ceci dit, la tâche de Brown-Petterson ne supprime pas totalement l'effet de récence. Il est un effet de récence résiduel, extrêmement faible mais existant. Celui-ci aurait une origine indépendante de l'existence de la mémoire à court-terme, mais celle-ci est encore mal connue.

Par la suite, d'autres expériences ont amené à la conceptualisation d'un autre type de mémoire temporaire, encore plus bref que la MCT : la mémoire sensorielle. De cette constatation, le modèle modal d'Attkinson et Schiffrin est apparu. Dans ce modèle, on retrouve aussi bien les mémoires sensorielles, que la mémoire à long terme et la mémoire à court terme. Dans ce modèle, divers processus permettent le maintien et le transfert des items entre mémoires. Ceux-ci regroupent aussi bien l'attention que la répétition mentale, que le rappel et la mémorisation.

Modèle modal d'Atkinson et Schiffrin.

Registre sensoriel[modifier | modifier le wikicode]

Mémoires sensorielles

La mémoire sensorielle a été mise en évidence par diverses expériences, au début du siècle dernier. Dans les grandes ligne, elle peut retenir une quantité d'informations sensorielles impressionnante, mais la durée de rétention est très brève, inférieure à la seconde. Le contenu de cette mémoire n'est pas perçu consciemment. Un certain traitement automatique est effectué sur le contenu de ces mémoires, avant leur transfert en mémoire à court-terme. Ce peut être des processus de détection des contours d'objets pour la mémoire visuelle, des processus de détection de la tonalité ou de l’intensité sonore pour la mémoire auditive, etc. Le transfert en MCT des informations sensorielles se fonde essentiellement sur l'attention, notre capacité à nous concentrer. Celle-ci va faire un tri des items sensoriels pour n'en retirer que les informations essentielles, celle-ci passant en MCT. Le reste n'atteint pas la conscience et est oubliée. Dans la théorie originale d'Atkinson et Schiffrin, le registre sensoriel est vu comme un système unitaire, capable de mémoriser aussi bien des informations visuelles qu'auditives. Cependant, de nos jours, les savants pensent que ce registre sensoriel serait subdivisé en registres indépendants, un par modalité. Un registre visuel complémenterait ainsi un registre tactile et un registre auditif. Dans ce qui va suivre, nous allons détailler ces différents registres.

Mémoire iconique[modifier | modifier le wikicode]

La mémoire sensorielle visuelle est aussi appelée mémoire iconique (son nom vient d’icône, qui veut dire petite image). Les observations qui ont mené à concevoir ce concept de mémoire iconique sont fondées sur des tâches de mémorisation partielle. La toute première date de 1960, et a été effectuée par George Sperling. Son expérience a nécessité deux groupes de cobayes, qu'il a placé devant un écran d'ordinateur. Les volontaires du premier groupe devaient d'abord fixer une croix sur l'écran afin de fixer la position de leur regard. Ensuite, un tableau de 12 lettres s'affichait à l'écran durant 50 millisecondes, et était suivi par un écran totalement blanc. Une sonnerie retentissait alors quelques instants plus tard, et les cobayes devaient alors se remémorer les lettres qu'ils avaient vu. Durant cette expérience, les cobayes étaient capables de citer seulement trois à cinq lettres, pas plus. Les volontaires du second groupe subissaient la même expérience, à un détail prêt : la sonnerie leur indiquait une des trois lignes. Suivant le ton de la sonnerie, les cobayes devaient se rappeler les lettres situées sur la première, deuxième ou troisième ligne. Le taux de réussite montait à 75 %, et ce quelle que soit la ligne.

Tâche de rappel partiel d'Averbach.
Tâche de rappel partiel de Sperling.

Les expériences citées ci-dessus ont permis, avec quelques modifications, de mieux connaitre les caractéristiques de la mémoire iconique. Comme toutes les autres mémoires sensorielles, elle possède deux caractéristiques : sa durée de mémorisation et sa capacité. Pour la capacité, les expériences ne permettent pas de conclure, si ce n'est que celle-ci est énorme. En revanche, sa durée de rétention est mesurée avec précision. Pour cela, les chercheurs ont fait varier l'intervalle entre la présentation du tableau de lettre et la sonnerie. Visiblement, plus le temps augmente, plus le taux de réussite des cobaye s'écroule. Une petite analyse semble montrer que la mémoire visuelle devient inefficace au-delà de 100 à 500 millisecondes. C'est approximativement la durée de rétention en mémoire iconique. Bien sûr, cette durée varie selon les personnes.

Cette mémoire iconique provient (au moins en grande partie) de la fameuse persistance rétinienne de la rétine, qui permet de maintenir temporairement une image sur la rétine durant un temps limité. Celle-ci vient du fait que les cellules de la rétine mettent un certain temps avant de réagir à un changement de luminosité. Ce temps de réaction des cellules de la rétine fait que l'image perçue sur la rétine va rester durant quelque temps imprimée, et accessible au cerveau. Typiquement, les cellules de la rétine mettent un certain temps avant de détecter des tons plus sombres, alors qu'une augmentation soudaine de la luminosité est prise en compte plus vite.

Mémoire échoïque[modifier | modifier le wikicode]

À coté de la mémoire iconique, on trouve la mémoire échoïque, dédiée aux sons (son nom vient de "écho", qui a un rapport avec le "son"). Sa mise en évidence provient des expériences d'écoute dichotiques, qui se basent sur l'écoute simultanée de deux bandes sonores, une dans chaque oreille. Dans ces conditions, les cobayes doivent se concentrer sur une seule bande sonore. Toutefois, si jamais un mot familier (notre prénom, par exemple) est prononcé sur la bande sonore à ne pas écouter, le cobaye s'en rendra compte et son attention se focalisera dessus. C'est la preuve que même si l'attention du sujet n'est pas portée sur la seconde bande sonore, il a quand-même mémorisé les informations de celle-ci, celles-ci pouvant ressurgir suivant la situation. D'où l'existence d'une mémoire échoïque.

Sa durée de rétention est estimée avec les expériences d'écoute dichotique. Pour cela, il suffit de faire varier l'intervalle entre deux présentations d'un mot/chiffre/lettre sur chaque bande. On peut aussi demander à deux cobayes si deux voyelles prononcées consécutivement sont identiques ou différentes. Plus le temps entre la prononciation des deux voyelles est long, plus les cobayes ont du mal à faire la différence. Dans ces conditions, on remarque que la capacité de discrimination diminue pour se stabiliser après quatre secondes de séparation. On voit que la durée est nettement plus importante que pour la mémoire iconique. Cette durée de rétention varie suivant l'âge : elle augmente lors de l'enfance, et finit par se stabiliser assez rapidement vers six ans.

La mémoire à court-terme[modifier | modifier le wikicode]

La mémoire à court-terme, abréviée MCT, est une mémoire qui mémorise un nombre limité d'informations pour une durée de quelques secondes. La différence principale avec la mémoire sensorielle est que sa capacité est limitée, là où la mémoire sensorielle peut mémoriser beaucoup d'informations. De plus, sa durée de rétention est légèrement supérieure à celle de la mémoire sensorielle : des millisecondes, on passe à la dizaine de secondes. Pour donner un exemple, c'est la MCT qui est utilisée pour mémoriser un numéro de téléphone juste avant de le composer.

Durée de rétention[modifier | modifier le wikicode]

Il est évident que le contenu de la MCT semble s'effacer avec le temps. Pour mesurer cette vitesse d'effacement, les chercheurs doivent tenir compte du fait que le cobaye peut répéter mentalement les informations à mémoriser, augmentant la durée de rétention en MCT. Pour supprimer ce biais, ils utilisent une tâche de Brown-Petterson, dont ils contrôlent la durée. Dans cette situation, plus la durée de la tâche de Brown-Perterson est longue, plus l'empan diminue. Le rappel est d'environ 90 % quand le délai entre les deux est inférieur à 1/2 seconde. il tombe à 50 % après 3 secondes, 40 % après 6 secondes, 20 % après 9 secondes, et il tombe à 10/8 % après. la durée de conservation semble donc proche de la dizaine de secondes, un peu plus ou un peu moins suivant les personnes. L'origine de cet oubli n'est pas encore bien élucidée et deux théories s'affrontent : une qui dit que les informations s'effacent progressivement, et une autre qui dit que les informations interférent entre elles. Nous reviendrons sur ce débat dans le chapitre sur l'oubli en mémoire déclarative.

Capacité[modifier | modifier le wikicode]

La mémoire à court terme ne peut pas retenir un nombre illimité d'informations du fait de sa capacité finie. On peut tenter d'estimer la capacité de la MCT en se basant sur l'effet de récence. Puisque la mémoire à court terme est à l'origine du rappel des derniers éléments, on peut en estimer sa capacité en regardant le nombre d’éléments concernés par l'effet de récence. Celui-ci tombe rapidement au-delà d'un certain seuil : ce seuil est appelé l'empan mnésique. Dans les expériences faites sur des adultes, ce nombre ne dépasse pas 10, et a une moyenne de 7 +/- 2.

Pour obtenir une estimation de votre empan mnésique, vous pouvez passer le test suivant, connu sous le nom de digit span task. Lisez chaque séquence de chiffres comme s'il s'agissait d'un numéro de téléphone, fermez les yeux et essayez de répéter celle-ci. Si vous avez réussi à répéter celle-ci sans faute, passez à la séquence suivante. Arrêtez-vous à la première séquence où vous faites une erreur. La capacité de votre empan mnésique est égal à la longueur de la chaine de chiffre, moins un item.

  • 0215 ;
  • 4657 ;
  • 1857 ;
  • 12457 ;
  • 07458 ;
  • 16895 ;
  • 057698 ;
  • 014562 ;
  • 076931 ;
  • 0457289 ;
  • 0168345 ;
  • 0487965 ;
  • 04612785 ;
  • 01369874 ;
  • 97854631 ;
  • 014785236 ;
  • 987512346 ;
  • 123658749.

La majorité des personnes arrive à atteindre 7 items. Certaines peuvent faire plus et atteindre les 9 à 10 chiffres, tandis que d'autres sont limitées à 4 ou 5 chiffres. Néanmoins, l'empan varie selon l'âge. Dans les 20 premières années de la vie, l'empan augmente progressivement avec l'âge, avant de se stabiliser et de diminuer avec le temps.

Résultat à un test d'empan mnésique en fonction de l'âge.

Ce test mesure deux choses différentes : la capacité à mémoriser les items et leur ordre. Ce test n'est pas très compliqué pour ce qui est de mémoriser les items eux-même : les chiffres sont des choses bien connues qui ne demandent pas vraiment d'efforts pour être mémorisés. Seule la capacité à mémoriser l'ordre sera donc réellement mesurée dans le test précédent. Cependant, les choses peuvent changer si l'on remplace les chiffres par des items non-familiers.

Chunking[modifier | modifier le wikicode]

Il faut signaler que les limites de la mémoire à court terme semblent s’évanouir (ou tout du moins fortement augmenter) quand on est face à une situation familière. Ainsi, les experts dans un domaine peuvent retenir de grande quantités d’informations, bien au-delà de la capacité de la MCT. Par exemple, quand on présente une configuration de jeu à un joueur d'échec expert, il a tendance à mémoriser 4 à 5 fois plus de pièces qu'un novice. Cela vient du fait qu'il mémorise non pas des pièces individuelles, mais des groupes de plusieurs pièces : il perçoit des motifs qui permettent de classer/regrouper les informations perçues. Ces regroupements forment un seul item dans la mémoire de travail. De tels regroupements sont appelés des chunks.

Historiquement, le premier scientifique a avoir découvert cela était Miller, celui qui a découvert que la mémoire à court terme pouvait retenir 7 +- 2 items. Son expérience était simple : il devait retenir un maximum de chiffres binaires, présentés les uns après les autres. Pour information, le binaire est un système d'écriture des nombres qui n'utilise que deux chiffres : 0 et 1. Dans son expérience, il devait retenir une suite de 0 et de 1, dans ce genre : 1011110011010101100000. En travaillant sur des chiffres isolés, il arrivait à retenir 7 chiffres. Néanmoins, il eut l'idée d'utiliser des groupements de deux, trois, ou quatre chiffres binaires. Il pensa alors à interpréter chacun de ces groupe comme un nombre écrit en décimal. Il lui suffisait d'apprendre la correspondance entre groupes de chiffres et nombres, et de l'utiliser pour mémoriser les chiffres.

   0 = 0000
   1 = 0001
   2 = 0010
   3 = 0011
   4 = 0100
   5 = 0101
   6 = 0110
   ...

Pour vous rendre compte par vous-même de ce phénomène de chunking, essayez de mémoriser le numéro de téléphone suivant, sans regrouper les chiffres :

  • 0 3 2 4 5 3 4 6 7 8

Et maintenant essayez en regroupant les chiffres deux à deux :

  • 03 24 53 46 78

La seconde suite était plus facile : le fait de regrouper les chiffres fait que le nombre de chunks à mémoriser était plus faible.

Mais cette capacité à faire des regroupements est dépendante des connaissances antérieures. Par exemple, les expériences de Yntema et Mueser montrent clairement que des contrôleurs aériens experts ne peuvent pas faire de regroupements dans des tâches de laboratoires déconnectées de leur expertise : leur mémoire de travail reste limitée à 7 informations en moyenne. Mais les études de Bisseret montrent que pour des tâches liées à leur domaine d'expertise, les contrôleurs aériens peuvent mémoriser jusqu’à 20 voire 30 informations dans leur mémoire de travail. Cette constatation a été vérifiée dans une grande quantité de domaines différents, comme l'expertise médicale, la programmation, la conception de circuits électronique, ou l'expertise mathématique. Pour reprendre l'exemple des joueurs d'échec experts, leur avantage mnésique ne vaut que pour des configurations de jeu rencontrées fréquemment, ceux-ci ayant des performances similaires à celles des novices pour des configurations de jeu aléatoires.

Cela vient du fait que ces chunks sont des connaissances mémorisées en mémoire à long terme : les regroupements doivent être mémorisés avant d'être utilisables. Les différences de performances entre experts et novices proviennent en partie de la mémorisation d’un grand nombre de regroupements spécifiques à ce domaine : on observe ce phénomène dans des domaines très divers, comme la programmation, la conception de circuits électroniques, les échecs, etc. Comme le dit Mislevy : « […] comparés aux novices, les experts dominent plus de faits et établissent plus d’interconnexions ou de relations entre eux. Ces interconnexions permettent de surmonter les limitations de la mémoire à court terme. Alors que le novice ne peut travailler qu’avec au maximum sept éléments simples, l’expert travaille avec sept constellations incarnant une multitude de relations entre de nombreux éléments ». C'est ainsi : un novice ne dispose pas de motifs ou de catégories familières qu'il peut utiliser pour regrouper de grandes quantités d'informations, et doit se débrouiller avec des informations élémentaires qu'il doit traiter individuellement.

Ce phénomène de regroupement a souvent lieu directement lors de la perception : plusieurs stimuli simples sont regroupés en un seul stimulus complexe. Ces regroupements perceptifs sont aussi appelés des chunks. On peut par exemple citer l'exemple des joueurs d'échec auxquels on demande de mémoriser une configuration de jeu : les novices doivent mémoriser des pièces indépendantes, tandis que les experts les regroupent en blocs de 3 à 5 pièces. Mieux : ces regroupements permettent de catégoriser des ensembles de pièces suivant leur sens stratégique, chaque regroupement étant associé au meilleur coup à jouer associée à cette configuration. Ce phénomène de regroupement est aussi utile en géométrie (Koedinger et Anderson, 1990) : les élèves qui ont de bonnes performances en géométrie ont acquis des regroupement visuels qui leur permettent de reconnaître des figures géométriques particulières (triangles, carrés, angles alternes-internes, etc), et d’accéder aux informations associées à ces figures. Ainsi, la capacité à résoudre certains exercices de géométrie dépend en partie de cette capacité à reconnaitre des figures, comme des angles alternes-internes, des figures géométriques, et ainsi de suite.

Mais certains regroupements sont des regroupements non pas perceptifs, mais conceptuels. Ces concepts relationnels, formés par interconnexion de concepts plus élémentaires, sont appelés des schémas. Ces schémas, de part leur caractère conceptuel, vont mémoriser des informations abstraites, commune à une classe d'objets ou de situations. Il s'agit là d'un point commun avec les catégories, à savoir la mémorisation des informations communes à une classe d'instances. Cependant, ces schémas sont plus flexibles, dans le sens où ceux-ci ne stockent pas que les points communs, les constantes, mais peuvent aussi mémoriser à la volée des informations variables. On peut se représenter ces schémas par des ensembles de cases, chaque case représentant un élément de l'objet ou du système. Certaines cases ont un contenu constant et invariable, alors que les autres stockent des détails qui peuvent varier suivant la situation.

De plus, ces schémas sont des regroupements de concepts. Pour donner un exemple, on peut prendre les recherches d'Egan and Schwartz, datées de 1979. Ces expériences comparaient les performances entre des spécialistes en électroniques et des novices : les cobayes devaient mémoriser un circuit électronique qui leur était présenté durant quelques secondes. Tandis que les novices se rappelaient de chaque pièce indépendamment, les experts se rappelaient d'ensembles de pièces assez conséquents, chacun de ces ensembles ayant un sens. Par exemple, les experts regroupaient un ensembles de résistances électriques, condensateurs, et bobines dans un sous-circuit qui correspond à un amplificateur de tension ou un amplificateur de courant. Dans cette situation, le chunk était une catégorie d'objet, à savoir un amplificateur de tension, ou autre. Comme le montre cet exemple, un schéma a une organisation hiérarchique : chaque schéma peut contenir des schémas plus élémentaires, qui sont eux-mêmes potentiellement constitués de sous-schémas, et ainsi de suite. De plus, ces schémas vont aussi encapsuler les liens logiques et associations d'idées entre les informations regroupées.

Méthode d'accès[modifier | modifier le wikicode]

La mémoire à court terme est une mémoire rapide. Ceci dit, on peut se demander si le temps d'accès à la mémoire dépend de son occupation. Fonctionne-elle séquentiellement ou en parallèle ? Pour vérifier cela, Sternberg a créé une expérience assez simple. Il a demandé à quelques cobayes de mémoriser de petites suite de chiffres, tenant en MCT. Ensuite quelques secondes plus tard, un signal lumineux demandait aux cobayes de répéter à haute voix un des chiffres, la tonalité indiquant la position du chiffre dans la liste. Bilan : tant qu'on reste dans les limites de la MCT, plus la liste est longue, plus le rappel est long. Ainsi, plus la MCT est encombrée, plus le rappel prend de temps. Cela peut laisser penser que la MCT est fondamentalement séquentielle : on peut scanner celle-ci pour se rappeler de son contenu, mais pas y accéder en parallèle.

Codage des informations[modifier | modifier le wikicode]

On peut se demander ce que peut bien contenir la mémoire à court-terme : s'agit-il d'une mémoire acoustique, sémantique, lexicale , ... ? Divers résultats semblent indiquer que la MCT mémorise des informations auditives. Par exemple, on peut citer l'étude de Conrad (1960). Dans cette étude, des sujets devaient lire des suites de lettres et les rappeler immédiatement après (rappel libre). L'étude des erreurs des sujets a alors montré quelque chose d’intéressant. Les suites de lettres sont plus difficiles à mémoriser quand les lettres se prononcent de manière similaire. Par exemple, la suite P D C T G B sera plus difficile à mémoriser que A W Z E T L D. La tâche étant une tache de rappel libre faisant appel à la MCT, on peut en déduire que la MCT mémorise des informations acoustiques, qui peuvent interférer entre elles lors du rappel.

La mémoire à long-terme[modifier | modifier le wikicode]

La mémoire à long-terme, abréviée MLT, est la mémoire au sens commun, celle qui nous permet de mémoriser des faits, connaissances et souvenirs. Celle-ci est sous-spécifiée dans la théorie d'Atkinson et Schiffrin, si ce n'est qu'il s'agit d'une mémoire de longue durée, dont la capacité est très importante. Il faut dire que la théorie s'intéresse seulement au transfert des informations de la MCT vers la MLT, à savoir la mémorisation, aussi appelée encodage. L'idée est notamment que l'encodage dépend essentiellement du temps que l'item à mémoriser passe dans la MCT. Plus ce temps est long, plus l'encodage a de chances d'avoir lieu. La répétition mentale, en permettant de rafraichir les items en MCT, favoriserait l'encodage. Pour résumer, l'utilisation de la mémoire déclarative se fonde sur trois capacités :

  • premièrement, le matériel à apprendre est encodé : il est traduit en une trace mnésique stockée dans le cerveau ;
  • ensuite, cette trace doit être consolidée dans le cerveau : durant une période de quelques minutes à quelques heures, l'information est fragile et peut s'effacer relativement facilement en cas de dommage au cerveau ;
  • et enfin, on peut se rappeler l'information stockée : c'est la capacité de rappel.

Quelques critiques du modèle[modifier | modifier le wikicode]

Ce modèle modal a été une des meilleures synthèses qui soient des connaissances sur la mémoire du siècle dernier. Ses hypothèses sont diverses, mais peuvent se résumer simplement : existence de trois mémoires ayant chacune ses caractéristiques, et présence de processus de transfert entre mémoires. Néanmoins, divers pans du modèle ont depuis étés remis en cause. L'existence du registre sensoriel, et sa subdivision en mémoire iconique et échoïque a remarquablement bien résisté, et fait depuis partie des acquis de la science. Mais les autres hypothèses sont aujourd'hui remises en cause. L'hypothèse de l'existence d'une MCT séparée, ou du moins indépendante de la MLT est aujourd'hui quelque peu réductrice, de même que l'unité de la mémoire à court-terme.

Indépendance de la MCT et de la MLT[modifier | modifier le wikicode]

L'existence d'une MCT séparée de la MLT est remise en cause par Cowan et Lewandoski, leurs modèles se basant sur une MLT unique dont la MCT ne serait que la portion activée par divers processus attentionnels.

Modèles de mémoire unifiée

De plus, les processus de transfert entre MCT et MLT ont aujourd'hui été remis en cause, la répétition mentale seule considérée comme étant un mauvais mécanisme d'apprentissage. Nous verrons cela dans les chapitres suivants.

Le processus d'encodage[modifier | modifier le wikicode]

Le modèle modal d'Atkinson et Schiffrin est fondé sur diverses hypothèses concernant l'encodage des informations, leur passage de la MCT à la MLT. Ce modèle ne postule qu'un seul mécanisme de mémorisation : la répétition. Plus précisémment, le modèle suppose que la qualité de l'encodage dépend uniquement du temps passé par l'item en MCT. La répétition mentale, en augmentant le temps passé en MCT par l'item, favorise donc l'encodage. Mais les expériences faites sur le sujet ont montrées que la répétition avait non seulement un effet relativement faible, mais aussi que d'autres mécanismes favorisent un encodage de qualité. Dans les grandes lignes, donner du sens aux items, les relier à des connaissances antérieures, ou organiser/classer les items favorise leur encodage. Chose que le modèle modal ne peut pas permettre de rendre compte.

Unité de la mémoire à court-terme[modifier | modifier le wikicode]

De nos jours, diverses expériences et observations sur des patients cérébrolésés ont montré que la mémoire à court-terme n'est pas une mémoire unique, mais est elle-même subdivisée en plusieurs sous-mémoires indépendantes. Cette hypothèse permet de rendre compte des expériences où les sujets doivent mémoriser à la fois des informations verbales et visuelles. Dans sa première expérience de ce type, Baddeley utilisa plusieurs groupes de cobayes. Ceux-ci devaient mémoriser les informations présentées sur un écran et les rappeler quelques secondes plus tard. Le premier groupe de cobaye ne voyait que des mots sur l'écran, le second des icônes carrées dont il devait prononcer la couleur, et le troisième voyait à la fois icônes et mots et devait prononcer soit les couleurs, soit les mots affichés. Les différents groupes n'avaient pas exactement la même performance à ce test : le groupe 1 est capable de mémoriser environ 4 icônes, le groupe 2 peut mémoriser 7 mots, et le groupe 3 peut rappeler environ 7 mots et 4 icônes. Cette observation ne va pas dans le sens d'une mémoire à court terme unitaire, à capacité limitée fixe.

Ces constatations sont de plus renforcées par les observations sur certains patients cérébrolésés. Certains patients ont une mémoire de travail verbale déficitaire, alors que leur mémoire de travail visuelle est intacte. D'autres ont le déficit inverse. Cette double dissociation montre donc que mémoires de travail verbale et visuelle sont séparées. Les patients dont la mémoire de travail verbale est lésée ont des déficits de l'apprentissage du vocabulaire, ainsi que des déficits d'apprentissage phonologique. On peut citer le cas d'une patiente, étudiée par Baddeley, dont la mémoire de travail phonologique/articulatoire est atteinte à la suite d'un accident vasculaire cérébral. La patiente n'avait aucun problème pour lire des mots familiers ou qui ressemblaient à des mots connus, mais l'apprentissage de nouveaux mots d'une autre langue était laborieux, quand il était seulement possible. On voit donc que l'apprentissage de nouveaux mots dépend de la mémoire de travail auditive, du moins dans les premières étapes de l'apprentissage de la lecture. Par la suite, cette influence diminue, l'élève apprenant de nouveaux mots en les reliant à des mots déjà présents en mémoire à long terme, par analogie.

Passivité du stockage en MCT[modifier | modifier le wikicode]

La vision de la MCT comme simple lieu de stockage passif est aussi remise en cause. Les premières expériences pouvaient laisser croire à une telle chose, vu qu’elles n'impliquaient que la mémorisation passive d'items. Mais cette hypothèse ne permet pas de rendre compte des résultats d'expériences de double tâche, où un sujet doit traiter simultanément des informations et les mémoriser. Il est alors apparu que traitement et mémorisation entraient en conflit, une forte charge de traitement diminuant les performances de mémorisation, et réciproquement. De nos jours, la mémoire à court-terme est vue non seulement comme une forme de mémorisation, mais aussi comme une capacité cognitive plus générale, indispensable pour des tâches comme le raisonnement, la résolution de problème, ou l'apprentissage. Cette nouvelle forme de mémoire est appelée la mémoire de travail. Nous détaillerons celle-ci dans le chapitre suivant.

Conclusion[modifier | modifier le wikicode]

Comme on le voit le modèle modal, bien qu’excellent, n'est pas parfait. Les hypothèses d'unicité de la MCT et de passivité du stockage sont aujourd'hui abandonnées, ce qui implique une légère modification du modèle. De nos jours, la MCT est modélisée autrement, par le modèle dit de Baddeley, que nous verrons dans le chapitre précédent. Celui-ci prend en compte aussi bien le fait que la MCT ne soit pas purement passive, et que celle-ci est composée de plusieurs MCT distinctes.


Le modèle de Baddeley

Dans le chapitre précédent, nous avons constaté que le modèle modal de la mémoire a quelques défauts. Nous avons évoqué le fait que la vision de la MCT a largement été amendée depuis, et ce chapitre propose de vous montrer en quoi. De nos jours, la MCT est plutôt vue comme une mémoire de travail, dans le sens où celle-ci n'est pas seulement un lieu de stockage passif, mais un mécanisme mêlant mémorisation et capacités de traitement, les deux interagissant fortement. Pour expliquer son fonctionnement et sa structure, Alan Baddeley et Graham Hitch ont proposé un modèle contenant plusieurs MCT distinctes, qui interagissent et échangent des informations. Dans ce modèle, la mémoire à court terme est scindée en plusieurs sous-systèmes :

  • un sous-système verbal : la boucle phonologique ;
  • un sous-système visuel : le calepin visuo-spatial ;
  • et un dernier un sous-système généraliste : le superviseur attentionnel, chargé de gérer ces deux sous-mémoires.
Mémoires de travail

L'existence de mémoires séparées se fonde autant sur des arguments expérimentaux que de l'étude de cas cliniques. Nous verrons bientôt les arguments expérimentaux, mais nous allons d'abord évoquer les cas cliniques de dissociations. De nombreux patients, la plupart ayant subi un AVC ou une lésion cérébrale, ont une MCT verbale parfaitement conservée couplée avec de lourds déficits de la MCT visuo-spatiale. L'exemple typique est celui du patient KF, étudié par Elisabeth Warrington. Celui-ci a un empan mnésique de 2, avec une absence totale d'effet de récence en MCT. Cependant, ce déficit n’apparaît qu'avec une présentation orale des items et disparaît lorsque les items sont présentés visuellement. Le déficit inverse, à savoir une MCT verbale altérée avec préservation de la MCT visuo-spatiale, existe aussi. Le cas classique est celui du patient LE, un ancien sculpteur aujourd'hui incapable de mémoriser temporairement des informations visuelles. Cependant, il faut signaler que sa capacité à mémoriser des informations spatiales est conservée : il sait se repérer dans son environnement, se déplacer dans des lieux connus, etc. D'autres cas montrent une dégradation de leur mémoire spatiale, alors que leur mémoire visuelle est conservée.

Boucle phonologique[modifier | modifier le wikicode]

La boucle phonologique est une mémoire temporaire verbale, spécialisée dans le stockage et le traitement des informations auditives et la parole. Elle est impliquée dans la lecture, l'écriture, la compréhension orale, le calcul mental, l'apprentissage de la langue maternelle, et des autres langues. Des études ont montré une corrélation entre le développement de la boucle phonologique et développement du langage. De plus, des études faites sur des patients ayant une boucle phonologique atteinte par des lésions cérébrales montrent que ceux-ci ont de fortes difficultés à acquérir la vocabulaire d'un nouveau langage, alors que leur mémoire verbale à long terme n'est pas touchée. La boucle phonologique serait composée de deux sous-systèmes :

  • un entrepôt phonologique, une mémoire temporaire verbale de quelques secondes,
  • et un système de répétition, chargé de répéter mentalement le contenu de l’entrepôt phonologique.

L'existence de ce système a été postulée pour rendre compte d'expériences sur les listes de mots, chiffres, lettres. À vrai dire, c'est cette mémoire à court terme qui était étudiée dans les expériences mentionnées jusqu'à présent.

Effet de similarité phonologique[modifier | modifier le wikicode]

Les expériences d'interférences semblent montrer que cet entrepôt phonologique stocke bel et bien des informations verbales. Des mots phonétiquement proches interférent fortement, tandis que des listes de mots proches sémantiquement proches n’interfèrent pas. Pour vous en rendre compte, testez votre empan sur les listes de mots suivantes :

  • chat, tas, mât, cas, rat ;
  • vidoc, moche, stupide, vieux, long ;
  • mot, pro, seau, beau, lin ;
  • vide, rance, large, mieux, centre.

Vous remarquerez que les listes 1 et 3 sont plus difficiles que les autres. Il faut dire que les mots qu'elles contiennent se prononcent de la même façon. Du fait de leur prononciations similaires, les mots de la liste interférent entre eux, diminuant l'empan. En revanche, ce n'est pas le cas dans les autres listes, dont les mots se prononcent différemment. Cet effet est supposé provenir lors du rappel des informations depuis la mémoire à court-terme. Les informations n’interfèrent pas dans la boucle phonologique, lors de leur stockage. Cependant, le mécanisme de rappel des informations depuis la boucle phonologique n'est pas parfait et a tendance à confondre les informations similaires.

Cependant, cet effet disparaît sous certaines conditions. Premièrement, il disparaît avec des listes de mots très longues, qui dépassent de loin la taille de l'empan mnésique usuel. Ensuite, il disparaît dans les tâches de répétition articulatoire, où les sujets doivent mémoriser une liste de mots, tout en prononçant à voix haute un mot en boucle. Dans de telles conditions, la boucle articulatoire n'est plus utilisée, la mémoire à long-terme prenant la relève.

Effet de longueur du mot[modifier | modifier le wikicode]

Les séries de mots qui se mémorisent le plus facilement sont celles dont les mots sont courts à prononcer. Dit autrement, l'empan est supérieur pour des mots courts, comparé à des mots plus longs : c'est l'effet de longueur des mots (word length effect). Pour vous en rendre compte, essayez de mémoriser les deux listes suivantes :

  • cas, mot, don, mort, stop ;
  • éléphant, misérable, médiocrité, anticonformiste, dépravation.

La première est nettement plus facile que la seconde, ses mots étant sont plus courts et contenant moins de syllabes.

Effet de la suppression de la répétition subvocale[modifier | modifier le wikicode]

Pour vérifier que la boucle phonologique est bien impliquée dans l'effet précédent, il suffit d’empêcher le cobaye de répéter mentalement les mots qui lui sont donnés. Pour cela, on ajoute une tâche de Brown-Petterson entre chaque mot. L'effet de la longueur du mot disparaît : les mots longs sont alors aussi bien rappelés que les mots courts. Pour estimer la durée de ce processus de répétition subvocale, on peut essayer de se fonder sur la longueur à partir de laquelle un mot commence à être difficilement mémorisable. Cette longueur dépend des personnes, qui peuvent lire ou parler plus ou moins vite. Mais dans tous les cas, le taux de mémorisation chute brutalement pour les mots qui mettent plus de deux secondes à prononcer.

Ensuite, d'autres expériences ont testé la suppression de la répétition à haute voix. Il apparaît que l'on mémorise mieux les listes de mots quand elles sont prononcées à haute voix que silencieusement. De même, on observe un phénomène d'interférence avec la parole. Si, juste après chaque présentation d'un mot, on demande aux cobayes de prononcer un autre mot que celui à mémoriser à haute voix, la mémorisation dans la boucle phonologique est alors fortement affectée, et devient inférieure à celle obtenue avec une tâche de Brown-Petterson.

Effet subvocalisation mémoire, d’après Slowiaczek et Clifton, 1980

Effet des sons distracteurs[modifier | modifier le wikicode]

Enfin, on peut mentionner les expériences faisant appel à des sons distracteurs. Dans ces expériences, les sujets doivent mémoriser une liste écrite de mots/chiffres. Ceux-ci sont présentés en même temps qu'un son (un bruit blanc ou un mot d'une langue étrangère), que les sujets doivent ignorer. Un exemple de ce type d'étude est celle de Colle & Welsh (1976), dont les résultats ne s'expliquent correctement qu'avec un système de répétition articulatoire. Dans cette étude, les mots présentés en même temps qu'un bruit blanc sont mémorisés avec des performances identiques à celle d'un groupe contrôle. En revanche, les mots présentés en même temps que de la parole sont nettement moins bien mémorisés. L'explication est que le système de répétition articulatoire est utilisé pour traduire l'écrit en oral, transduction perturbée par les distracteurs verbaux.

Calepin Visuo-spatial[modifier | modifier le wikicode]

Outre nos capacités verbales, le cerveau gère aussi des images mentales, ses capacités d'imagerie étant impressionnantes. Autant dire que l'existence d'une mémoire de travail visuelle, où les informations sont encodées par des images mentales, n'est pas étonnante. Elle se nomme calepin visuo-spatial.

Codage visuel[modifier | modifier le wikicode]

Pour prouver l'existence d'un tel codage visuel, les chercheurs ont utilisé des expériences de parcours mental. On fait mémoriser aux cobayes la carte d'une île contenant un lac, une hutte et un rocher. On leur demande de parcourir mentalement le chemin qui mène de la hutte au rocher, ou tout autre endroit de l’île. Le temps mis par les cobayes pour faire cette traversée est proportionnel à la distance du trajet : le trajet s'effectue toujours à la même vitesse. D'autres expériences utilisées sont les expériences de rotation mentale. Dans ces expériences, on montre deux formes géométriques à des cobayes, et on leur demande de vérifier si ces deux formes sont différentes, ou s'il s'agit de la même forme présentée sous un angle différent. Pour faire cette vérification, le cobaye va devoir faire tourner mentalement l'objet, et appuyer sur un bouton poussoir quand il a fini. Statistiquement, le temps mis pour faire la rotation est presque proportionnel à l'angle de rotation.

Expérience de rotation mentale.

Une autre expérience, réalisée par Shepard et Feng, a montré une autre forme de traitement visuo-spatial dans la mémoire de travail. Dans leur étude, les chercheurs présentaient des figures qui ressemblaient à des patrons de cube à leurs sujets. Certaines faces avaient des flèches dessinées dessus et les sujets devaient dire si les deux flèches se rencontraient tête contre tête quand on pliait le patron. Certaines figures demandaient un simple pliage, tandis que d'autres en demandaient plusieurs pour réussir la tâche. Il s'est avéré que le temps de réponse des sujets était proportionnel au nombre de plis à effectuer, preuve que les sujets utilisaient une représentation visuelle pour résoudre le problème.

Capacité[modifier | modifier le wikicode]

L'étude de la capacité de la MDT visuelle se fonde sur des expériences dites de détection de changement. On présente une image au sujet durant un certain temps, suivie par une seconde image après quelques secondes de noir entre les deux. Le sujet doit dire si les deux images présentées sont identiques ou non. Le sujet doit catégoriser ainsi une succession de paires d'images, certaines paires ayant des images identiques, d'autres des images différentes. Pour donner un exemple, on peut prendre l'étude de Phillips, datée de 1974. Les sujets de cette étude se voyaient présenter des plateaux d'échec de complexité variable : de 4 * 4 cases pour les plus simples à 8 * 8 cases pour les plus complexes. Les délais de présentation entre les deux plateaux variaient entre 0 à 9 secondes. Il se trouve que dans cette expériences (et dans toutes les autres du même type), les performances diminuaient avec le délai inter-image. D'une détection quasi-parfaite avec un délai inférieur à la seconde, les performances chutaient au-delà. Cela suggère que la MDT visuelle a une capacité limitée.

L'ensemble des expériences de ce type semble indiquer une capacité proche de 3 à 4 items. Pour donner un exemple de ces expériences, qui visent à mesurer précisément la capacité de la MDT visuelle, on peut citer l'étude de Luck et Vogel (1997). Dans celle-ci, on présentait des images contenant des carrés colorés aux sujets. Là encore, les sujets devaient détecter un changement dans la couleur des carrés, ou dans leur position. En augmentant le nombres de carrés, la performance suivait un motif assez simple : la performance décline doucement à moins de 4 carrés, mais devient abrupte pour de courtes durées au-delà.

Structure et fonction[modifier | modifier le wikicode]

Certains psychologues pensent que ce calepin est lui aussi composé de plusieurs sous-systèmes. Un pour mémoriser les couleurs et caractéristiques visuelles d'un objet, et un autre pour mémoriser la position de l'objet sur le champ de vision. D'un coté, le cache visuel spécialisé dans les formes et les couleurs, et de l'autre, l'inner scribe pour la localisation et la vitesse des objets. Ce découpage est cohérent avec le fait que ces deux informations sont gérées par des zones du cerveau séparées : une voie ventrale pour la reconnaissance des formes, et une voie dorsale pour la position des objets. Cela se voit sur les IRM : les zones du cerveau activées ne sont pas les mêmes. De plus, certaines lésions cérébrales empêchent la reconnaissance des formes, mais pas leur localisation dans le champ de vision, et réciproquement. Là encore, certains patients ayant une lésion cérébrale particulière sont capables de retenir des informations spatiales en MCT, mais pas des informations visuelles, et réciproquement.

Tampon épisodique[modifier | modifier le wikicode]

Si l'on soumet des cobayes à des tâches demandant de retenir des listes de mots, l'ajout d'une tâche de Brown-Petterson ou l'utilisation d'une tâche de suppression articulatoire va supprimer les phénomènes d'interférences phonétiques. Cependant, on voit apparaître des interférences sémantiques : plus les mots appartiennent à la même catégorie ou sont proches sémantiquement, plus le taux de rappel est mauvais. Cette observation peut être attribuée à l'existence d'une mémoire à long-terme dans une certaine mesure, mais sans être vraiment compatible avec le modèle précédent. D'autres observations ne peuvent s'expliquer simplement avec le modèle précédent. De plus, dans les tâches de répétition articulatoire, les cobayes arrivent tout de même à retenir quelques mots en mémoire à court terme. De même, la taille de cet empan est différente de la taille de la boucle phonologique : les cobayes retiennent environ 4 items, au lieu des 7 que la boucle phonologique peut permettre. Enfin, les expériences d'apprentissage de listes de mots et de phrases donnent des empans totalement différents : de 5 à 6 mots dans une liste de mots à 15 à 20 mots pour l'apprentissage d'une phrase. Une telle capacité dépasse de loin celle de la boucle phonologique verbale et du calepin visuo-spatial.

FInalement, quand on lit un texte, qu'on réfléchit, ou qu'on cherche à résoudre un problème, il est évident que notre mémoire de travail est mise à contribution. Néanmoins, les données sur lesquelles on travaille ne sont ni des images, ni des données verbales : ce sont des concepts, des informations qui ont une signification. Dans ces conditions, le calepin visuo-spatial et la boucle phonologique ne peuvent pas servir à stocker ces concepts. Pour gérer les éléments porteurs de signification, la mémoire de travail doit fatalement contenir un sous-composant, en plus de la boucle phonologique et du calepin visuo-spatial.

Rendre compte de ces observations demande de postuler une nouvelle forme de mémoire. Pour cela, le modèle de la mémoire de travail a été adapté dans les années 2000, par ses auteurs, pour rajouter une autre MCT contenant des informations épisodiques ou sémantiques. Cette MCT s'appelle le tampon épisodique, ou encore l'executive buffer. Il est supposé que cette mémoire serait en lien direct avec la mémoire à long terme. Ce tampon épisodique aurait une capacité de quatre items maximum, capacité qui serait cependant influencée par le phénomène de chunking, qui aurait lieu dans cette mémoire. Il est aussi supposé que les informations dans ce tampon seraient autant visuelles que verbales ou conceptuelles. Le tampon permettrait de lier entre elles ces représentations afin de former des chunks cohérents.

Superviseur attentionnel[modifier | modifier le wikicode]

Les composants précédents sont des "sous-mémoires" distinctes, dédiées à des formes d'informations spécialisées. Ces mémoires suffiraient pour rendre compte des expériences qui considèrent la mémoire comme un processus purement passif. Mais la vision actuelle de la mémoire de travail est que celle-ci est un dispositif de traitement de l'information plus que de stockage passif. Cette vision implique fatalement un système de contrôle, non-mnésique, dans la mémoire de travail. Ce système de contrôle est un système attentionnel, qui se charge de l'allocation de l'attention dans les différentes sous-mémoires vues précédemment. De par sa nature attentionnelle et son rôle de contrôle, celui-ci est appelé le superviseur attentionnel.

Tâches d’empan complexe[modifier | modifier le wikicode]

L'existence de ce superviseur attentionnel est utile pour rendre compte des résultats dans les expériences d'empan complexe. Les expériences du chapitre précédent étaient relativement simples : il s'agit d'expériences d'empans basiques, qui n'impliquent que la mémorisation d'items. Pour mieux évaluer la capacité et le fonctionnement de la mémoire à court terme, les psychologues ont créé des tâches d'empan complexes, où l'on introduit une tâche de traitement entre chaque item à retenir. Par exemple, on peut demander à un cobaye d'effectuer un calcul mental entre chaque mot d'une liste.

La mesure la plus simple de l'empan complexe consiste à intercaler des calculs entre paires de mots.

  • Château | 4 * 70 | Martien
  • Combat | 25 * 15 | Nul
  • Fin | 12 * 41 | Discriminatoire
  • ...

D'autres épreuves demandent de mémoriser des résultats de traitements mentaux. Par exemple, faites les calculs suivants, et essayez de les mémoriser :

  • 4 * 70
  • 25 * 15
  • 12 * 46
  • 49 * 73
  • 13 * 40
  • 76 * 16
  • 44 * 22
  • 79 * 46

Ces expériences montrent clairement que la mémorisation est bien plus difficile quand elle est effectuée avec des traitements intercalés. Ces tâches font intervenir le superviseur attentionnel, et montrent clairement que celui-ci a une forte importance dans la gestion des sous-systèmes de la mémoire à court terme.

Fonctionnement du superviseur attentionnel[modifier | modifier le wikicode]

Le fonctionnement de ce superviseur est basé sur l'attention, la capacité de concentration. Ce superviseur contiendrait une certaine quantité finie d'attention, qu'il pourrait utiliser pour diverses choses. Tout le travail du superviseur attentionnel demande de répartir l'attention dans les diverses tâches qui lui sont confiées. Si cette répartition est mal faite, les performances s'en ressentent. Une modélisation complète du superviseur attentionnel a été réalisée par Norman et Shallice, modèle considéré comme cardinal par Baddeley. Ce modèle part des acquis de la psychologie cognitive, qui distingue des comportements contrôlés des comportements automatiques.

Les comportements automatiques sont des comportements habituels, appris et acquis avec l'entrainement, la répétition ou l'habitude. Ces comportements sont mémorisés en mémoire à long-terme, sous la forme de ce que les psychologues appellent des schémas. Ces derniers sont des ensembles unifiés d'actions et de pensées reliés entre eux qui permettent d'appliquer une procédure, une méthode ou une routine. Ceux-ci sont activés automatiquement par la perception ou la pensée, cette activation permettant à ceux-ci de s'"exécuter". Lorsque plusieurs schémas s'activent en même temps, un dispositif de contention sélectionne le bon schéma à appliquer. Lors de cette étape de contention, chaque schéma va tenter d'inhiber les schémas concurrents, seul le plus activé restant activé suite à cette étape.

Cependant, quand les schémas activés ne permettent pas de répondre aux exigences de la situation, le superviseur attentionnel prend la relève. Le processus de pensée quitte alors le domaine de la pensée automatique et tombe dans le registre de la pensée contrôlée : le superviseur utilise les ressources cognitives comme la mémoire de travail pour trouver une solution. Ces processus contrôlés sont assez stratégiques, basés sur des algorithmes, des méthodes générales de résolution de problèmes. Ce superviseur a un rôle de contrôle des schémas, que ce soit pour désactiver les schémas inadaptés (rôle d'inhibition) ou pour en créer de nouveaux (rôle dans l'apprentissage).

Illustration du modèle de Norman et Shallice.

Théories de la mémoire de travail[modifier | modifier le wikicode]

De nos jours, il existe plusieurs théories en compétition sur le fonctionnement de la mémoire de travail. Celles-ci détaillent essentiellement le fonctionnement du superviseur attentionnel, et de ses relations avec les autres sous-composants. Le modèle le plus connu est clairement le modèle des processus emboîtés de Cowan, concurrencé par le modèle de l'inhibition de Engel et le modèle Time-Based Ressource Sharing. Dans cette partie, nous allons voir ces modèles séparément, sans trop aller dans le détail cependant.

Processus emboités de Cowan[modifier | modifier le wikicode]

Le modèle des processus emboîtés de Cowan postule que la MCT ne serait que la portion activée de la MLT, l'activation étant dirigée par le superviseur attentionnel.

Modèles de mémoire unifiée

Modèle TBRS[modifier | modifier le wikicode]

Quelques théories sur l'oubli en MCT disent, pour rappel, que les items à retenir s'effacent avec le temps. Une façon de contrer cet effacement progressif est de rafraichir les items. Une des capacités du superviseur attentionnel est de rafraichir le contenu des différentes MCT. Attention : le terme « rafraichir » est différent de « répéter ». La raison est simple : répéter sera réservé au mécanisme de répétition utilisé par la boucle phonologique, la répétition articulatoire. Le superviseur attentionnel dispose d'un autre processus de répétition séparé, capable d'intervenir dans toutes les mémoires à court terme : on l’appellera le rafraichissement.

Pour expliquer les observations obtenues avec ce genre d'épreuves, divers modèles ont été créés. Le plus abouti à l'heure actuelle est le modèle TBRS (Time Based Resource Sharing), créé par des chercheurs français (Barrouillet, Bernardin et Camos, 2004). Ce modèle se fonde sur quatre axiomes de base. Premièrement, les tâches d'empan complexes utilisent l'attention pour maintenir et traiter les informations en mémoire de travail. Cette attention sert à traiter, mais aussi maintenir les informations en mémoire de travail : ce mécanisme de rafraîchissement attentionnel permet d'éviter l'oubli des informations en mémoire de travail.

Deuxièmement, les traitements et le rafraîchissement des informations s'effectuent les uns après les autres : l'attention est focalisée sur un objet à la fois. La mémoire de travail utilise traitements et rafraîchissement de manière séquentielle. L'administrateur central va ainsi constamment switcher entre traitements et rafraîchissement, rafraîchissant et traitant les chunks les uns après les autres en mémoire de travail.

Troisièmement, l'attention est disponible en quantité limitée, et ne peut traiter ou rafraîchir qu'un seul chunk à la fois. Cette capacité à ne pouvoir maintenir qu'une quantité limitée de chunks sous le feu de l'attention fait que l'on parle de focus attentionnel : on peut focaliser son attention sur un chunk en particulier.

Et enfin, quand l'attention n'est pas portée sur un objet, que ce soit pour rafraîchissement ou pour traitement, celui-ci se désactive progressivement et finit par être oublié s'ils n'est pas rafraîchi par le focus attentionnel.

Sur une tâche qui dure un temps limité, une partie de la durée de la tâche sera dédiée aux traitements, et une autre partie servira pour le rafraîchissement. La difficulté de mémorisation ne dépend alors pas tellement du nombre d'informations qu'il faut mémoriser, mais surtout du pourcentage de temps passé à faire les traitements. Plus les traitements prennent de temps, plus le temps disponible pour rafraîchir les autres chunks en mémoire de travail sera faible : cela peut empêcher de rafraîchir à temps les chunks en-dehors du focus attentionnel.


Différentes mémoires

Dans les chapitres précédents, nous avons vu que la mémoire est subdivisée en une MCT et une MLT. Cette constatation vient de l'observation de patients cérébrolésés. La plupart de ces patients gardent une MCT intacte (ou presque), mais leur MLT est endommagée. Le cas le plus spectaculaire est celui des amnésiques qui ont perdu toute possibilité de former des souvenirs ou d’apprendre des faits. Le cas le plus connu est celui du patient H.M, un patient dont l'observation a révolutionné les neurosciences et les conceptions sur le fonctionnement de la mémoire. Après une opération censée soigner ses graves crises d'épilepsies, ce patient avait perdu toute possibilité de former de nouveaux souvenirs ou d'apprendre des connaissances : il oubliait tout après quelques secondes. Sa mémoire antérieure était pourtant intacte : il se souvenait de tout ce qui se passait avant son opération. L'interprétation de ces observations dans le modèle d'Atkinson et Schiffrin est relativement simple : l'encodage en MLT est impossible chez ces patients, la MCT et la MLT étant alors déconnectée, le transfert des informations ne pouvant aller que de la MLT vers la MCT.

Les subdivisions de la mémoire à long-terme[modifier | modifier le wikicode]

Si la MCT est certainement subdivisée en plusieurs sous-systèmes, le fait est que la même chose semble être valable avec la MLT. Encore une fois, les observations sur les patients amnésiques en donnent une bonne illustration. Par exemple, des observations relativement anciennes montrèrent que H.M gardait cependant une capacité de mémorisation à long-terme très différente de celle étudiée dans les expériences antérieures. Entre autres, sa performance de résolution d'un problème relativement connu, les tours de Hanoï, augmentait suite à un entrainement. Et cela sans que H.M garde le moindre souvenir des séances d'apprentissage. À chaque nouvelle séance, il disait n’avoir jamais eu affaire à ce problème des tours de Hanoï, alors que sa performance augmentait à chaque essai. Dans le même genre, H.M a appris à lire un texte en miroir, suite à plusieurs séances d'entrainement. Des apprentissage moteurs simples étaient aussi possibles.

Ces apprentissages avaient cependant une nature différente des apprentissages verbaux ou conceptuels usuels. H.M ne pouvait pas former de souvenirs ou de connaissances, mais certains apprentissages moteurs ou sensoriels étaient possibles. Ces apprentissage avaient lieu sans conscience d'avoir appris quelque chose, contrairement aux faits et souvenirs, et s'exprimaient dans une performance quelconque. Ces apprentissages étaient de plus des apprentissages longs, qui se traduisaient par une augmentation régulière des performances suite à des entraînements à base de nombreuses répétitions régulières. La seule manière d'expliquer ces observations est de postuler l'existence de deux systèmes de mémoire : un système déclaratif pour les souvenirs et connaissances, et un autre pour les automatismes moteurs, cognitifs et sensoriels. La première est appelée mémoire déclarative/explicite, tandis que la seconde est appelée mémoire implicite. Il est apparu que ces deux mémoires impliquent des zones du cerveau totalement différentes. Ces deux mémoires sont elles-mêmes subdivisées, comme on le verra par la suite.

Ces deux mémoires sont elles-mêmes décomposées en mémoires séparées. La mémoire implicite est décomposée en mémoire perceptive (vision, audition, et autres), procédurale (automatismes moteurs et cognitifs), ainsi que des mémoires séparées pour les conditionnements et les apprentissages non-associatifs. La mémoire déclarative est séparée en trois : un lexique mental pour les connaissances liées au langage, une mémoire sémantique pour les connaissances conceptuelles ou sémantiques, et une mémoire épisodiques pour les souvenirs.

Modèle des différentes formes de mémoire.
Zones cérébrales associées à chaque type de mémoire.

La mémoire déclarative[modifier | modifier le wikicode]

La mémoire explicite/ déclarative, correspond aux mémoires dont on peut verbaliser le contenu, le mettre en mots. Cette mémoire est souvent découpée en plusieurs mémoires séparées. La mémoire sémantique est celle des connaissances et savoirs, la mémoire épisodique est celle des souvenirs, la mémoire lexicale est celle des mots, et la mémoire spatiale est celle des lieux.

Mémoires explicites

La mémoire sémantique[modifier | modifier le wikicode]

La première forme de mémoire déclarative est la mémoire sémantique, qui mémorise des connaissances qu'il s'agisse du sens des mots, de la date de la mort de Napoléon, de la formule chimique de l'eau, de ce qu'est un arbre, ce à quoi ressemble une chauve-souris, ou comment faire du café. De manière générale, la mémoire sémantique est celle chargée de mémoriser les connaissances abstraites, essentiellement sous la forme de catégories (des ensembles d'objets similaires qui partagent des propriétés communes, comme "animal", "plante", "nombre premier", "molécules", et ainsi de suite). C'est la mémoire du langage, celle qui mémorise les informations sur les mots, leur signification, leur orthographe, et ainsi de suite.

La preuve de l'existence de cette mémoire proviennent de cas d'agnosies et d'anomies, des déficits de catégorisation ou de nommage d'objets, ainsi que des aphasies, des troubles du langage d'origine cérébrale. Les patients atteints d'anomies n'arrivent pas à nommer des objets, personnes ou concepts quand on leur présente. L'agnosie est similaire, dans le sens où il s'agit d'un déficit de catégorisation des objets et visages. Les patients agnosiques ou anomiques ont des difficultés pour nommer certaines catégories d'objets et ne peuvent donner des informations pertinentes à son propos. Par contre, elles peuvent dessiner cet objet sans problème : il n'y a pas de déficit perceptif. Certaines agnosies dégradent la capacité de reconnaitre les visages : on parle de prosopagnosie. Les patients atteint de ce trouble ne peuvent pas reconnaitre les visages de leurs proches, amis, ou connaissances. Ils peuvent voir les visages, les décrire, et n'ont pas de déficits de perception. Ils peuvent parfois identifier le sexe ou l'âge de la personne quand on leur présente un visage (sur photographie, ou en personne). Cette identification des visages, ainsi que de certains objets, est généralement causé par des lésions dans le cortex temporal, et notamment dans une de ses subdivision : le gyrus fusiforme.

Fait étonnant, ces déficits sont souvent limités à certaines catégories bien précises. Par exemple, certains patients sont incapables de reconnaître les outils, mais gardent la capacité de catégoriser les êtres vivants. D'autres patients montrent des déficits inversés, avec une conservation parfaite des connaissances sur les outils et objets, mais des connaissances dégradées pour ce qui est des catégories naturelles, comme les animaux et autres êtres vivants. Shallice et Warrington ont notamment étudié un patient, surnommé JPB, qui a de fortes difficultés à nommer les objets animés, alors que les objets inanimés ne lui posent pas le moindre problème. Ces déficits peuvent aussi se propager à des catégories assez différentes : les patients qui perdent la capacité à nommer des êtres vivants perdent la capacité de reconnaître de la nourriture et des instruments de musique. De tels déficits spécifiques à des catégories sont très intéressants pour comprendre le fonctionnement de la mémoire sémantique.

Les patients anomiques et agnosiques peuvent parfois nommer des objets dans les catégories atteintes, mais ils donnent alors un nom de catégorie plus général. Par exemple, ils diront "mammifère" ou "animal" pour nommer un chien ou un chat. On observe la même chose chez certains patients atteint d'Alzheimer, dans les premiers stades de la maladie : les catégories les plus concrètes disparaissent alors que les catégories plus générales sont conservées. Plus les dégâts ou la maladie progressent, plus l'atteinte progresse et remonte vers les catégories les plus générales. On remarque aussi que ces erreurs donnent naissance à des temps de réaction et de catégorisation plus faible que celui de sujets contrôle. On remarque donc que les concepts généraux sont plus solides que les concepts concrets.

De tels déficits s'observent surtout dans des maladies cérébrales, comme la maladie d'Alzheimer ou la démence sémantique. Fait étrange, certaines de ces maladies, les aphasies primaires progressives, se traduisent par une dégradation de la mémoire sémantique, alors que la mémoire des souvenirs (épisodique) n'est pas dégradée. De telles atteintes spécifiques à la mémoire sémantique montrent que celle-ci est une mémoire indépendante, séparée de la mémoire des souvenirs.

La mémoire épisodique[modifier | modifier le wikicode]

La mémoire dédiée aux souvenirs est appelée la mémoire épisodique. Cette mémoire permet de localiser les événements dans le temps où l'espace : tout souvenir indique donc au minimum, un "quoi", un "où", et un "quand". Ce qui distingue la mémoire épisodique de toutes les autres formes de mémoire, c'est la capacité de voyager dans le temps mentalement : un sujet peut s'imaginer dans le passé, et revivre le souvenir. Il ne faut pas confondre cette mémoire avec la mémoire autobiographique, qui contient aussi des informations sémantiques et factuelles. Par exemple, le fait de savoir la date de notre mariage ou de naissance est un fait lié à la mémoire sémantique, pas un souvenir que l'on peut revivre.

Mémoire implicite[modifier | modifier le wikicode]

Mémoire implicite

La mémoire implicite correspond aux apprentissages que l'on ne peut pas mettre en parole. Généralement, ces mémoires implicites stockent des automatismes, des conditionnements, qui s'utilisent sans avoir besoin d'attention. Ce sont des mémoires qui mémorisent des informations sans qu'on en prenne conscience, et dont la récupération se fait aussi sans intervention de la conscience. Il existe diverses sortes de mémoires implicites :

  • l'habituation et la sensibilisation.
  • La mémoire procédurale est celle des mouvements, des habitudes automatiques.
  • Le conditionnement classique, découvert par Ivan Pavlov et ses collègues.
  • L'amorçage perceptif correspond à une forme d'apprentissage perceptif.

Nous étudierons plus en détail le conditionnement classique, ainsi que les processus d'habituation et de sensibilisation dans les chapitres ultérieurs. Un chapitre sera consacré au conditionnement, et un autre à l'habituation/sensibilisation. Dans ce qui va suivre, nous allons surtout parler de l’amorçage et de la mémoire procédurale.

Amorçage perceptif[modifier | modifier le wikicode]

L'amorçage apparait une fois qu'on a présenté un stimulus (que ce soit la première fois ou non) : le stimulus est alors perçu plus rapidement ou avec plus de détails lors des prochaines présentations. Cette forme de mémoire peut être vue comme une mémoire perceptive, qui mémorise les stimulus et permet de reconnaitre plus facilement les stimulus déjà connus. Cette forme de mémoire touche toutes les modalités sensorielles : la vision, l'audition, le toucher, etc. Il s'agit d'une mémoire implicite, comme le montre les exemples de patients atteints de déficits lourds de la mémoire déclarative, qui gardent un amorçage parfaitement normal.

La reconnaissance des mots est un bon exemple d'amorçage. Le meilleur moyen de montrer que la reconnaissance des mots est un processus automatique provient des tâches d'effet Stroop. Cet effet nous dit que dans certains cas, les automatismes vont interférer avec les processus mentaux conscients. Prenons un exemple : essayez de donner la couleur dans laquelle sont écrits les mots de la liste ci-dessous. Logiquement, la seconde liste devait être plus dure. Cela vient du fait que les mots de la seconde liste sont plus souvent coloriés dans des couleurs qui ne correspondent pas au mot écrit (vert colorié en rouge, par exemple), tandis que la majorité des mots de la première liste ont une couleur qui leur correspond (rouge écrit en rouge, par exemple). Pour les mots écrits dans une couleur qui ne leur correspond pas, la reconnaissance automatique du mot va venir perturber le processus d'identification de la couleur : le cerveau devra alors faire un effort pour réprimer la lecture automatique du mot pour se concentrer sur sa couleur (chose qui est assez difficile, vu que les lecteurs normaux ne sont pas trop habitués à ce genre d'exercice).

Vert Rouge Bleu Jaune Bleu Jaune

Bleu Jaune Rouge Vert Jaune Vert

Mémoire procédurale[modifier | modifier le wikicode]

Les automatismes moteurs, perceptifs ou cognitifs que l'on appelle habilités, disposent de leur propre mémoire : la mémoire procédurale. Cette mémoire est celle qui stocke les mouvements habituels que l'on a à faire dans notre vie quotidienne, comme faire du vélo, marcher, appuyer sur une pédale de frein, etc. Faire passer des mouvements dans cette mémoire s'effectue d'une manière les plus simples qui soit : il suffit de répéter le mouvement jusqu'à ce qu'il rentre. On peut prendre l'apprentissage du vélo, par exemple : c'est à force de répéter qu'on finit par savoir faire du vélo. Bien sur, c'est pas forcément facile, et ça fait toujours mal au début, mais on finit par y arriver. Cependant, la mémoire procédurale prend aussi en charge divers automatismes cognitifs, son implication étant notamment supposée dans l’exécution de tâches liées à la grammaire ou à certains automatismes mentaux. Si on sépare cette mémoire implicite des autres, c'est tout simplement sur la base d'observations cérébrales, qui montrent que les zones du cerveau activée par l'apprentissage ou la récupération en mémoire procédurale sont spécifiques. Celles-ci incluent le cervelet, le striatum et les autres structures des ganglions de la base.

Résumé des chapitres précédents[modifier | modifier le wikicode]

Avec ce chapitre, nous savons qu'il existe plusieurs formes de mémoire (mémoire sensorielle, à court-terme, à long-terme), elle-mêmes subdivisées en sous-formes de mémoires séparées. Le schéma ci-dessous résume l'ensemble des chapitres précédents, et récapitule toutes les formes de mémoire connues à ce jour. Dans les chapitres suivants, nous allons détailler comment ces différentes formes de mémoire fonctionnent. Nous allons d'abord étudier la mémoire déclarative, et notamment les processus de rappel, de mémorisation et de stockage de l'information. En bref, nous allons voir comment on fait pour se rappeler de quelque chose, comment le cerveau fait pour mémoriser une information quelconque, etc. Par la suite, nous étudierons les différentes formes de mémoire non-déclaratives, comme le conditionnement ou l'habituation.

Schéma du fonctionnement de la mémoire.


Représentations des connaissances en mémoire sémantique

La mémoire sémantique peut contenir une grande quantité d'informations, qu'elles soient visuelles, verbales, sémantique, ou autre. De nombreuses théories existent concernant le stockage des informations en mémoire sémantique. La plupart tombent d’accord sur un point : le cerveau humain classe les informations en concepts abstraits, qu'il s'agisse de catégories ou de concepts plus élaborés. Lorsque notre cerveau perçoit des choses via la vision ou l’ouïe, il organise sa perception en fonction de ces concepts et les utilise pour faire des prédictions, effectuer des inférences, des raisonnements, ou de résoudre des problèmes.

Catégories[modifier | modifier le wikicode]

Au niveau psychologique, les représentations les plus étudiées sont les catégories, des ensembles d'objets ou d'évènements qui ont des points communs. Chaque catégorie peut se définir de deux façons : soit on liste tous les éléments de la catégorie, soit on précise quels sont les points communs de ses membres. On peut remarquer que la seconde consiste à donner la définition de la catégorie. La première méthode est appelée la méthode par extension et l'autre par compréhension. Comme on va le voir, ces deux méthodes ressemblent fortement aux représentations mentales possibles.

Définitions et règles verbales[modifier | modifier le wikicode]

Certaines théories stipulent que chaque concept est stocké dans le cerveau par une définition. Celle-ci serait mémorisée sous la forme d'une liste de propriétés et/ou d'informations élémentaires appelées des traits sémantiques. Chacun d'entre eux stocke une information spécifique. Par exemple, l'information "le chat a des poils" est un morceau irréductibles d'information comme un autre. De même, le concept canari contiendra des traits sémantiques du genre : "couleur jaune", "peut voler", "oiseau", et ainsi de suite. Une concept est donc une liste des propriétés communes que tous ses exemples respectent. Chaque concept serait donc mémorisé comme étant une unité, qui serait reliée aux traits sémantiques qui le compose. Cependant, diverses observations semblent remettre en cause cette possibilité, quoique certains concepts pourraient utiliser ce genre de modèle mental.

Prototypes[modifier | modifier le wikicode]

Une observation importante dans la réfutation des seules règles mentales provient des deux psychologues Eleanor Rosch et George Lakoff, ont effectué diverses observations et ont sorti un article nommé "Cognitive Representation of Semantic Categories" (1975). Ces deux psychologues ont demandé à 200 étudiants de noter un ensemble d'objets sur une échelle de 1 à 5. La question déterminant la note était : est-ce que cet objet est un bon exemple de meuble. Et la liste était presque intégralement remplie de meubles. On pourrait croire que la notation des meubles variait suivant l'étudiant, suivant sa culture (les étudiants étaient de diverses nationalités), son environnement socioprofessionnel, etc. Mais en fait, on trouvait très peu de différences : les réponses étaient presque identiques, et étaient peu corrélées avec les diverses variables mentionnées plus haut. Quel que soit l'étudiant, certains objets étaient plus mis en avant et était considérés par tous comme étant plus des meubles que les autres. Cette expérience illustre l'effet de typicalité : certains objets sont considérés comme de meilleurs représentants d'une catégorie.

Exemple de la généralisation du prototype du concept d'arbre.

Cela a fait naître l'idée suivante. Une nouvelle théorie de la catégorisation était née : la théorie cognitive du prototype. D'apèrs cette théorie, les catégories sont représentées par un objet idéal, le prototype, qui définit à quoi doit ressembler un objet de la catégorie. Ce prototype est une sorte de représentant idéal de la catégorie, l'objet parfait. Lorsqu'on veut savoir si un autre objet appartient à cette catégorie, celui-ci est comparé au prototype : plus celui-ci est proche, plus on considérera que l'objet appartient à la catégorie. Cette comparaison peut privilégier certains attributs sur d'autres, ou ne pas mêler d'attributs du tout. Ainsi, une chaise sera un meilleur exemple de meuble qu'un rideau, vu qu'il est plus proche de ce prototype idéal. Une armoire sera assez proche du prototype et sera considérée comme un meuble, mais moins qu'une chaise.

Lors de l'abstraction d'un prototype à partir d'exemples, le cerveau va se baser sur la fréquence des propriétés dans les exemples présentés. Le problème est que le cerveau ne peut pas vraiment faire la différence entre les propriétés qui permettent de classer avec quasi-certitude un objet dans la catégorie, et celles qui viennent d'une simple ressemblance. En effet, deux objets peuvent être très similaires sont pour autant appartenir à la même catégorie. Par exemple, un dauphin ou une baleine ont beau ressembler fortement aux autres poissons, ce sont des mammifères. Le cerveau n'apprend pas à faire la différence entre les propriétés essentielles, partagées par tous les membres de la catégorie et partie prenante de la définition, et les propriétés facultatives qui sont fréquentes chez certains membres de la catégorie, mais pas tous.

Pour donner un exemple, on peut citer l’expérience de Lupyan (2012). Dans celle-ci, il a demandé à un premier groupe de cobaye de dessiner un triangle, tandis qu'un second groupe devait dessiner une figure à trois cotés. Dans le groupe triangle, le dessin du triangle été dessiné avec une base horizontale dans 82% des cas, et était isocèle dans 91% des cas. Mais dans le groupe "trois cotés", ces deux proportions sont de 50% seulement ! De même, les participants ont tendance à surévaluer l'inclinaison d'un triangle quand on leur dit qu'il s'agit d'un triangle, comparé à un groupe test dans lequel on dit aux participants que la figure est un polygone à trois cotés.

Exemplaires[modifier | modifier le wikicode]

Cependant, la représentation mentale des prototypes est assez peu connue. Pour éviter les écueils de la théorie du prototype, certains psychologues ont émis l'idée qu'une catégorie est stockée par extension, c'est à dire sous la forme d'un rassemblement d'exemples. Prenons l'exemple d'un chien. La première fois qu'un enfant voit un chien, le cerveau stocke toutes les informations sur ce chien en mémoire. A chaque fois que cet enfant voit d'autres chiens, il enregistrera encore toutes les informations de ces chiens dans des compartiments séparés en mémoire à long terme. Ces chiens seront associés au mot chien, mais seront stockés indépendamment : ils forment des exemplaires de la catégorie "chien". A chaque fois qu'on veut savoir si un objet appartient à une catégorie, le cerveau va "ouvrir" la catégorie, et vérifier tous les exemplaires. Si il trouve un exemplaire identique à ce qu'il perçoit, alors il reconnait l'objet. Sinon, l'objet n'est pas dans la catégorie.

Dans les faits, cette théorie pose quelques problèmes, mais à quelques confirmations expérimentales. Il semblerait que l'humain utilise à la fois exemplaires et prototypes. Les catégories ayant beaucoup d’éléments utilisent des prototypes, tandis que les catégories utilisant peu d’éléments se contentent d'une liste d’exemplaires. Il semblerait que l'exemplaire soit le mécanisme de catégorisation principal chez les enfants en bas-age, avant d'être supplanté par la catégorisation par prototypes au cours de la croissance.

Représentations multiples[modifier | modifier le wikicode]

Depuis les années 2000, de nombreuses observations semblent indiquer que ces catégories peuvent s'apprendre par plusieurs mécanismes, localisés dans des régions distinctes du cerveau. Mais cela ne veut pas dire que tous les systèmes d'apprentissage des catégories sont utiles en contexte scolaire. Pour les concepts et catégories, il existerait deux grands mécanismes de catégorisation et d’apprentissage des catégories :

  • un système qui gère des règles verbalisables, des définitions ;
  • un système qui se base sur la similarité avec des exemples connus.

Le premier système, va simplement induire et appliquer des définitions. Apprendre de nouvelles catégories avec ce système demande soit d'induire une règle à partir d'exemples, soit de recevoir une définition claire et précise via un apprentissage déductif. Le second système va mémoriser des exemples et potentiellement utiliser leur similarité pour abstraire une catégorie. Ce calcul de similarité entre deux entités est souvent très rapide et inconscient, contrairement à l'utilisation de définitions et de règles. L'apprentissage de catégories avec ce système se fait par induction à partir d'exemples.

Réseaux et traits sémantiques[modifier | modifier le wikicode]

La mémoire sémantique n'est pas qu'une simple armoire de concepts accolés les uns sur les autres. Si c'était le cas, se rappeler quelque chose nécessiterait de rechercher le matériel à rappeler dans toute la mémoire sémantique : cette recherche serait vraiment longue et inefficace. Or, se rappeler de quelque chose n'est pas si difficile. Les modèles actuels de la mémoire sémantique résolvent ce problème en supposant que la mémoire est structurée de manière à faciliter le rappel. Les concepts sont non seulement reliés à leurs propriétés, mais aussi aux autres concepts. La mémoire à long-terme est (au moins en partie) intégralement constituée d'un réseau de connaissances, reliées entre elles par des relations. Par exemple, un mot est associé au concept qui porte ce nom, plusieurs idées sont reliées entre elles par un lien logique, etc. L'ensemble de nos connaissances est mémorisé dans un gigantesque réseau de concepts, réseau qui mémorise le sens des choses, les liens entre concepts.

Relations taxonomiques[modifier | modifier le wikicode]

La recherche sur la mémoire dite sémantique a longtemps mis l'accent sur une forme d'organisation bien précise : les classifications. Les concepts seraient ainsi classés dans des hiérarchies de catégories, spécifiques à un domaine ou une discipline. On peut voir le tout comme un système de poupées russes : les catégories plus spécifiques sont incluses, emboîtées dans les catégories plus générales du niveau supérieur de la hiérarchie. Les concepts les plus concrets sont situés près de la base de la hiérarchie et les plus abstraits en haut. On peut préciser que les exemples sont intégrés dans ces hiérarchies : ils sont situés tout en bas et sont vus comme des catégories très spécialisées. Une telle hiérarchie est appelée une structure cognitive. Elle relie des concepts en faisant appel à trois types différents de relations taxonomiques :

  • les hyperonymies vont relier les catégories à des catégories plus générales, qui englobent la catégorie de base : le concept « Cocker » sera relié au concept « Chien », le concept « Chat » sera relié au concept « Animal », etc ;
  • les hyponymies vont relier chaque catégorie à ses catégories dérivées, les catégories plus concrètes qu'on obtient en spécialisant la catégorie avec l'ajout de propriétés : la catégorie « félins » sera reliée aux concepts de « chat », « tigre », « lion », « panthère », etc ;
  • les relations structurales, qui relient les catégories et exemples à leurs propriétés : c'est grâce à ces relations qu'on sait qu'un oiseau peut voler, qu'un canari est jaune, et ainsi de suite.

Un des premiers modèles de la mémoire sémantique, le modèle de Collins et Quillian se basait exclusivement sur de telles structures cognitives. Celui-ci dit que les propriétés peuvent être communes. Par exemple, les concepts « oiseau » et « canari » partagent les propriétés suivantes : les deux peuvent voler, ont des plumes, des ailes, etc. Cela vient du fait qu'un canari est un oiseau, et qu'il hérite donc des propriétés communes à tous les oiseaux : toute sous-catégorie hérite des propriétés des catégories plus générales auxquelles elle est reliée. Le modèle gère ces propriétés héritées en ajoutant une hypothèse : l'économie cognitive. Cette hypothèse dit que seules les propriétés spécifiques à un concept sont reliées à celui-ci : les propriétés héritées d'un concept plus générales sont reliées uniquement au concept le plus général, mais pas aux autres concepts. Par exemple, les propriétés « peut voler », « a des ailes », « a des plumes » seront reliées au concept « oiseau », mais pas au concept « canari ». Ce mécanisme évite les duplications inutiles de propriétés.

Organisation des classifications en mémoire.

Cette théorie explique certaines observations dans le cadre des expériences de décision lexicale. Le principe de ces expériences est simple : on donne une phrase à un cobaye, et il doit dire si celle-ci est vraie ou fausse. L'expérimentateur mesure le temps mis par le cobaye pour répondre : plus le temps mis à répondre est long, plus le cerveau a dû parcourir de nœuds dans la mémoire sémantique pour tomber sur le bon. Ce expériences avaient étés utilisées pour confirmer le modèle taxonomique de Collins et Quillians. Ces expériences avaient montré que les concepts superordonnés avaient un temps de réponse plus long que les concept sous-ordonnés. Même chose pour l'accès aux propriétés d'un concept : celles stockées dans les concepts superordonnés ont un temps d'accès plus long que celles stockées plus bas dans l'arbre taxonomique.

Mais il ressort aussi que plus un concept est familier, plus on peut vérifier les phrases qui y rapportent rapidement, sans que la position dans la hiérarchie taxonomique n'y change quoique ce soit. Il semblerait que certains exemples soient plus faciles à traiter que les autres, alors que ces concepts sont au même niveau dans la hiérarchie. De plus, lorsqu'on demande à un sujet de donner un exemple d'un concept, c'est ces concepts familiers qui ressortent le plus. Certains exemples seraient ainsi plus représentatifs d'un concept que les autres.

L'effet de typicalité semble aussi difficile à marier avec la théorie de Collins et Quillians. Il est possible de rendre compte de l'effet de typicalité assez facilement dans le modèle de Collins et QUillians. Il suffit d'associer une certaine force aux associations entre concepts. Plus la force d'un lien est importante, plus la traversée du lien sera rapide. Les concepts typiques sont reliés à leur super-ordonnés avec des liens très forts, très rapides. Les concepts moins typiques seraient quant à eux reliés avec des liens moins forts, moins rapides. Cela expliquerait les différence en terme de temps de réaction ou de production.

Relations thématiques[modifier | modifier le wikicode]

De plus, la hiérarchie taxonomique est violée dans certains cas spécifiques. Par exemple, il est plus lent de vérifier la véracité de la phrase "un chien est un mammifère", que pour la phrase "un chien est un animal", alors que les théories hiérarchiques prédisent l'inverse. De nombreux phénomènes similaires ont étés documentés et seraient assez fréquents. Par exemple, le mot "canari" a tendance à évoquer le mot "cage" plus rapidement que le mot "être vivant". Ce qui est difficile à expliquer avec le modèle de collins et quillians. Pour rendre compte de ce genre d'observations, on doit postuler que d’autres formes de relations existent. Par exemple, le modèle de Collins et Loftus ajoute des connexions entre catégories du même niveau (qui appartiennent au même concept superordonné), ainsi que des relations entre arbres taxonomiques. De nos jours, ces dernières relations portent le nom de sont regroupées, par convention, dans un ensemble extrêmement hétérogène appelé relations thématiques. Ces relations, avec les relations taxonomiques (catégorielles), permettent de former une représentation de situations ou d'évènements. Il peut s'agir de relations de causalité entre évènements, de relations qui permettent de localiser des objets, et bien d'autres encore.

Schémas et scripts[modifier | modifier le wikicode]

Dans les années 1932, le psychologue Bartellet travaillait sur l'apprentissage de matériel relativement complexe : cartes, schémas, textes, histoires, etc. Ses expériences furent les premières à montrer l'influence de la signification et des connaissances antérieures sur la mémorisation. Son expérience la plus connue porte sur la mémorisation des histoires. Dans celle-ci, il a demandé à des cobayes de lire un texte, qui narrait une légende indienne. Dans cette légende, une bonne partie des détails de l'histoire sont relativement étranges pour un occidental, et sont assez exotiques, pas vraiment familiers. Or, Bartellet a constaté divers phénomènes dans diverses épreuves de rappel et de compréhension du texte. Premièrement, les détails étranges du texte étaient souvent oubliés, alors que les détails cohérents ou culturellement congruents étaient bien mémorisés. Quand ils n'étaient pas oubliés, ces détails étaient rationalisés, et les cobayes étaient certains que leur version, plus « cohérente » culturellement parlant, était celle lue dans le texte. Dans cette expérience, on voit que quelque chose a favorisé la mémorisation des détails familiers, et inhibé les détails bizarres, non-familiers. Tout se passe comme si le cerveau avait tenté d'intégrer les nouvelles informations avec les connaissances antérieures, et avait filtré les informations incohérentes. Des résultats de cette expérience, Bartellet supposa l'existence de structures mnésiques, qu'il appela schémas.

Ces schémas font que l'on retient mieux ce qui est familier, ce qui colle avec nos connaissances antérieures, nos prédictions, notre culture. La morale, c'est que plus de nouvelles informations sont cohérentes avec ce que l'on sait déjà, mieux on les retient, tandis qu'on retient mal ce qui est incohérent avec nos connaissances antérieures (bizarre, étrange, pas naturel, non-intuitif, etc). Mais ces schémas, si utiles pour raisonner et réutiliser les connaissances apprises, peuvent aussi nuire à la mémorisation ou la compréhension. Si les nouvelles informations ne s'encastrent pas bien dans un schéma, on aura tendance à les tordre pour les faire rentrer, en oubliant certains détails, en en modifiant d'autres, etc. Par exemple, confiez une liste de symptômes à apprendre à un médecin. Débrouillez-vous pour que cette liste de symptômes ne corresponde à aucune maladie connue. En même temps, faites en sorte qu'en enlevant deux symptômes, la liste corresponde à une maladie connue du médecin. Quelques semaines plus tard, le médecin se rappellera uniquement des symptômes de la maladie courante, pas des deux autres.

Les théories actuelles sur les schémas sont multiples, et diverses représentations de ces schémas sont possibles en mémoire sémantique. Dans tous les cas, ces schémas sont constitués d’éléments, reliés entre eux par des relations plus ou moins logiques. Mais leur organisation varie suivant que ces schémas représentent des objets, des systèmes, ou des événements.

Frames[modifier | modifier le wikicode]

Les schémas qui représentent des objets ou des systèmes sont ce qu'on appelle des frames. Il s'agit d'ensembles de cases, chaque case représentant un élément de l'objet ou du système. Fait intéressant, ces cases peuvent contenir des schémas. Par exemple, pour un objet ou système peut être composé de sous-objets assemblés ensemble. Dans la plupart des schémas, chaque part de l'objet modélisé dans le schéma correspondra à une case du schéma : chaque case contiendra un schéma du sous-objet associé. En somme, un schéma a une organisation plus ou moins hiérarchique, qui correspond plus ou moins à la structure du concept mémorisé.

Ensuite, les relations entre les cases font partie du schéma : celui-ci encapsule les relations entre les différentes cases, ce qui permet de concevoir celui-ci comme un tout logique. Ces relations, encapsulées dans le schéma, peuvent permettre de faire des inférences et des déductions. Il arrive que de tels schémas soient utilisés dans les tâches de raisonnement : ces schémas ont alors la capacité de simuler le fonctionnement de l'objet ou du système considéré. Ces simulateurs mentaux sont appelés des modèles mentaux.

Certaines de ces cases sont obligatoires, et servent à stocker les invariants communs à toute une classe de phénomènes, d'objets, ou de concepts. Les autres cases sont des détails, des informations facultatives et contextuelles, qui peuvent varier suivant la situation.

Fait intéressant, les cases vides peuvent être remplies avec des informations par défaut, si jamais aucune information contextuelle ne peut les remplir. Ce mécanisme permet d'inférer, de faire des déductions qui vont permettre de remplir les vides, de délier les non-dits de certaines situations. La meilleure des preuves, c'est que l'on peut se rappeler de choses qui n'étaient pas dans le matériel appris à l'origine : si on rattache une situation à un schéma, ces cases remplies par défaut peuvent ressortir lors d'un rappel ultérieur du matériel original.

Scripts[modifier | modifier le wikicode]

Il existe une autre forme de schéma mental, dédiée aux événements : les schémas d'action, ou scripts. Ces scripts sont des schémas composés d'une séquence d'étapes organisées dans un certain ordre. Ils permettent de mémoriser comment effectuer quelque chose. Par exemple, un étudiant en mathématique aura un script qui mémorise la suite d'opérations à effectuer pour résoudre une équation du second degré : d'abord calculer le déterminant, regarder son signe, récupérer la formule adéquate en mémoire, puis l'appliquer. Dans cet exemple, on remarque qu'il s'agit d'étapes relativement abstraites : cela se généralise à beaucoup de scripts.

Autres formes de connaissances[modifier | modifier le wikicode]

Auparavant, nous avons surtout étudié la représentation des concepts et connaissances. Mais la mémoire déclarative peut mémoriser d'autres formes d'informations. Ainsi, certains chercheurs considèrent que ce réseau conceptuel doit être complété par d'autres réseaux complémentaires, qui mémorisent non pas des connaissances, mais des informations sensorielles, visuelles, auditives, etc.

Les mots et informations lexicales[modifier | modifier le wikicode]

diférence entre signifié et signifiant.

On pourrait penser que les mots et les concepts sont identiques en mémoire sémantique. Cependant, les linguistes ont depuis longtemps établit la différence entre signifiés et signifiants : la signification d'un mot d'un côté et son écriture ou sa prononciation de l'autre. Dit autrement les mots ne sont que des étiquettes qui permettent de référencer un concept, une idée. Ainsi, les scientifiques ont postulé d'existence d'une mémoire spécialisée dans les signifiants : le lexique mental, ou mémoire lexicale. Elle permet de savoir comment prononcer un mot, comment l'écrire, etc. Elle contient aussi les symboles comme les lettres, les syllabes, les sons d'une langue (maternelle ou non), et les chiffres, voire certains nombres. Ce lexique mental serait composé de plusieurs lexiques mentaux spécialisés. On trouverait ainsi :

  • un lexique pour la compréhension orale, qui stocke la prononciation des mots.
  • un lexique pour la lecture, qui stocke la représentation visuelle et/ou orthographique des mots ;
  • un lexique de sortie, qui stocke comment articuler pour prononcer un mot, et éventuellement comment l'écrire ;
  • et la mémoire sémantique, qui stocke le sens des mots, les concepts qui y sont associés.

Diverses observations permettent d'établir une distinction entre une mémoire spécialisée pour les signifiés et les signifiants. Premièrement, les zones du cerveau activées lors de la lecture d'un mot sont différentes de celles activées lors de la lecture de pseudo-mots, des suites de syllabes prononçables mais sans aucun sens. Certaines zones du cerveau sont activées aussi bien avec des mots qu'avec des pseudo-mots, tandis que d'autres ne sont activées que par des mots. Par exemple, la méta-analyse de Binder, Desai, Graves et Connant (2009) montrent que les signifiés seraient localisés et traités dans des zones spécifiques des lobes temporaux, pariétaux et frontaux. De plus, certains troubles du langage impliquent une dégradation de la prononciation ou de la lecture/écoute de mots, sans pour autant que la compréhension soit altérée. On observe ainsi une dissociation entre l'écoute (lexique phonologique), la lecture (lexique orthographique), la prononciation (lexique articulatoire) et la signification (mémoire sémantique).

Les images mentales[modifier | modifier le wikicode]

La théorie du double-codage stipule que la mémoire contiendrait un réseau verbal, qui mémorise des concepts et des faits, et un réseau visuel, qui mémoriserait des images mentales ou des représentations visuelles. Cette théorie a été inventée pour expliquer les différences de mémorisation entre concepts concrets et abstraits. Expérimentalement, il est observé que les concepts concrets sont plus faciles à retenir que les concepts abstraits. Cela viendrait du fait que les concepts concrets sont généralement visualisables, contrairement aux concepts abstraits. On peut s'imaginer mentalement à quoi ressemble un chat, alors qu'il est plus difficile de donner une representation des concepts de liberté ou de justice (sauf par métaphore ou analogie). Ainsi, les concepts concrets seraient représentés dans les deux sous-réseaux, tandis que les concepts abstraits le seraient uniquement dans le réseau verbal. La redondance des concepts concrets/imaginables les rendrait plus mémorables.

Les lieux[modifier | modifier le wikicode]

Les lieux, auraient aussi une représentation spéciale, dédiées. Ceux-ci sont parfois regroupés dans ce qu'on appelle la mémoire topographique. Cette mémoire nous permet de reconnaitre les lieux déjà visités, et de savoir où nous sommes. De nombreuses expériences ont étudié cette forme de mémoire, essentiellement chez les animaux. Elles ont commencé dans les années 1930, grâce aux travaux de Tolman. Ceux-ci portaient sur des rats, qui devaient s'orienter dans des labyrinthes et en trouver la sortie. A l'époque, on croyait que les rats s'orientaient dans les labyrinthes grâce à des séries de conditionnements. Mais cette théorie avait quelques problèmes : les rats apprenaient tout de même relativement vite, plus vite que ce que l'on pouvait attendre de conditionnements. De plus, certaines observations posaient problèmes.

Si on apprend à un rat à trouver la sortie d'un labyrinthe, celui-ci peut prendre jusqu'à une bonne dizaine ou centaine d'essais avant de trouver la sortie à coup sur. Maintenant, si on entraine un rat dans un labyrinthe, et que l'on bloque un passage stratégique dans le labyrinthe, le rat est censé devoir réapprendre de zéro, et retrouver son chemin à partir de rien. Or, une fois mis dans cette situation, les rats mettent très peu de temps pour retrouver la sortie, et certains la trouvent directement du premier coup. Tout se passe comme s'ils savaient s'orienter dans le labyrinthe, et qu'ils cherchaient simplement une voie alternative à partir de leur position et de ce qu'ils ont mémorisé du labyrinthe. Tolman supposa que les rats avaient une forme de mémoire topographique, et qu'ils pouvaient utiliser des cartes mentales.

Par la suite, d'autres expériences virent le jour, non pas sur des rats, mais sur des singes. La première de ces expériences utilisa un protocole assez simple. L'expérimentateur promenait un singe sur son dos, dans un enclos assez grand, très grand (quelques kilomètres carrés). L'expérimentateur faisait beaucoup de détours, tournait en rond, et faisait en sorte d'avoir un trajet le plus bordélique possible. Lors du trajet, l'expérimentateur cachait de la nourriture à un endroit bien précis, et faisait en sorte que le singe le voit cacher la nourriture. Ensuite, l'expérimentateur continuait sa promenade avec le singe sur les épaules. Par la suite, il relâchait le singe à un endroit très éloigné de la cachette de la nourriture. Là, d'autres expérimentateurs regardaient, avec des systèmes de caméras, quel était le trajet du singe. Évidemment, celui-ci se précipitait sur la nourriture, comme un gros goinfre. Mais chose surprenante, le singe ne refaisait pas le trajet de expérimentateur à l'envers : il prenait directement le chemin le plus court ! En clair : il avait mémorisé l'organisation de l'enclos lors de sa promenade et avait fabriqué un représentation suffisante pour lui permettre de s'orienter et de déterminer le chemin le plus court. Conclusion : les singes aussi ont une mémoire topographique.

Ces expériences ont mené les psychologues à créer le concepts de carte cognitive : il s'agit d'une représentation mentale d'un ou de plusieurs lieux, qui permet de s'orienter et de se localiser dans l'espace. Pour résumer, ces cartes cognitives sont des schémas de lieux, dans le sens : schémas en mémoire à long terme comme on l'a vu il y a quelques chapitres). D'après les théories sur le sujet[1], ces cartes cognitives sont composées d’éléments, les régions, reliées ensemble par des relations. Les éléments en question sont des régions, tandis que les relations sont les routes qui relient les régions entre elles. Ces régions sont définies par des frontières, qui peuvent prendre différentes formes : ce peut être des frontières physiques, voire des frontières sans signification.

Références[modifier | modifier le wikicode]

  1. McNamara, Hardy and Hirtle (1989)


La récupération en mémoire déclarative

Dans ce chapitre, nous allons aborder le processus de récupération, celui qui nous permet de nous rappeler de ce que l'on sait déjà. Ce processus n'est cependant pas parfait : il arrive parfois que l'on ne se rappelle pas d'informations que l'on a pourtant mémorisées et qui sont encore présentes dans notre mémoire. Toute personne qui a déjà eu un mot sur le bout de la langue en a déjà fait l'expérience. Le chapitre qui suit va aborder ce processus de récupération.

Rappel et reconnaissance[modifier | modifier le wikicode]

Les expériences en laboratoire ont permis d'observer une différence entre plusieurs tâches de récupération différentes. Dans le premier cas, les sujets apprennent une liste de mots et doivent rappeler son contenu dans le désordre. Il s'agit d'une tâche de rappel tout ce qu'il y a de plus classique. Le second cas correspond au tâches de reconnaissance, similaires aux QCMs, où le sujet doit reconnaitre les mots de la liste parmi un grand nombre de pièges.

Double dissociation entre rappel et reconnaissance[modifier | modifier le wikicode]

Il apparait que le taux de réussite est nettement supérieur dans la tâche de reconnaissance, parfois de plus du double. On observe aussi une dichotomie entre rappel et reconnaissance.

L'effet de la répétition[modifier | modifier le wikicode]

Par exemple, la répétition favorise clairement la reconnaissance, mais pas le rappel. L'étude de Glenberg, Smith, et Green (1977) le montre très clairement. Dans leur étude, des sujets devaient apprendre une liste de nombres par cœur, avant d'apprendre une liste de mots. Il se trouve que les expérimentateurs avaient séparés les sujets en deux groupes : un premier groupe devait relire plusieurs fois la liste de mots, tandis que le second devait relire la liste une seule fois. Les sujets croyaient que la liste de mots servaient à les empêcher de répéter mentalement la liste de nombres à apprendre. Mais après avoir rappelé les nombres de la première liste, les sujets étaient testés par surprise sur la liste de mots apprise. Le bilan est que les sujets qui avaient relu 9 fois la liste de mots n'avait pas vraiment de performances supérieures à l'autre groupe : seulement 1,5% de réussite en plus. Par contre, la reconnaissance était en faveur du groupe qui avait répété 9 fois la liste de mots : 74% de réussite, contre 65% pour l'autre groupe.

Apprentissage incident et intentionnel[modifier | modifier le wikicode]

Cette étude utilisait une tâche d'apprentissage incident : les sujets ne sont pas prévenus qu'ils seront interrogés sur ce qu'ils vont apprendre. Dans ce genre de tâche, la répétition n'améliore pas le rappel, contrairement à la reconnaissance. Cependant, on peut se demander ce qu'il se passerait si les sujets étaient prévenus qu'ils seraient interrogés ultérieurement, dans des tâches d'apprentissage intentionnel. Dans ce cas, ils porteraient plus attention au matériel à apprendre, essaieraient de donner du sens au matériel appris, essaieraient de le relier à des connaissances antérieures, et ainsi de suite. En clair, ils utiliseraient des stratégies cognitives plus efficaces, dans le but de mieux mémoriser le matériel, sans compter l'effet de l'attention induite. Il se trouve que prévenir les sujets qu'ils seront interrogés augmente le taux de rappel mais pas le taux de reconnaissance. De même, la fréquence et la familiarité du matériel appris améliore le rappel, pas la reconnaissance.

Erreurs et faux positifs[modifier | modifier le wikicode]

Enfin, les faux positifs sont rares en situation de rappel, mais fréquentes en reconnaissance. Par exemple, lisez cette suite de mots :

   bonbon
   aigre
   caramel
   amer
   bon
   goût
   dent
   joli
   miel
   soda
   chocolat
   cœur
   gâteau
   manger
   tarte

Maintenant, je prend des mots de cette liste, que je mélange avec des nouveaux mots. J'obtiens ceci :

   goût
   point
   sucré
   chocolat
   caramel
   gentil

Hé oui : vous avez certainement, comme 90% des cobayes de cette expérience, cru que sucré était dans la liste initiale !

Théorie des double processus de rappel et reconnaissance[modifier | modifier le wikicode]

A l'heure actuelle, on ne sait pas du tout d'où proviennent ces différences. Certains scientifiques supposent que le processus de rappel et de reconnaissances sont différents. Les tests de reconnaissances présentent directement l'information à rappeler. En conséquence, la reconnaissance d'un item va automatiquement activer celui-ci en mémoire. Il s'agit donc d'un accès direct à l'information mémorisée. Elle se base purement sur un processus de familiarité, qui permet de reconnaître des choses connues. Il s'agit d'un processus relativement primitif, qui rate rarement. La reconnaissance serait un processus automatique unitaire, basé sur l'activation directe des informations reconnues. L'activation d'une information en mémoire détermine sa facilité à être récupérée : plus elle est forte, plus la probabilité de récupération est grande. De plus, le concept possède une certaine force, qui définit s'il est plus ou moins facile à rappeler, à activation égale. La simple perception d'une information en permettrait l'activation immédiate : le sujet aurait alors juste à se souvenir si le mot perçu appartient à la liste, ce qui correspond à la mémoire de la source (supposée de type épisodique). Par contre, le rappel libre ou indicé ne présentent pas l'information à rappeler et n'activent pas directement l'information. Le rappel demanderait de rechercher l'information en mémoire, celle-ci n'étant pas activée directement. Ce processus de recherche serait sépcifique au rappel, mais n'interviendrait pas en reconnaissance.

Les mécanismes du rappel libre et indicé : l'amorçage[modifier | modifier le wikicode]

Il est intuitif que donner des indices à quelqu'un l'aide à se souvenir d'une information oubliée. Pour vérifier cette intuition, les scientifiques ont comparé des groupes soumis soit une tâche de rappel libre, soit une tâche de rappel indicé, où chaque item à rappeler était précédé d'un indice. Certaines tâches de rappel indicé demandent aux sujets d'apprendre des paires d'items, le premier servant d'indice au second. De ces expériences, il ressort que donner des indices proches améliore le rappel. Dit simplement, le rappel indicé est largement plus facile que le rappel libre, parce que le nombre d'indices de récupération est plus important. Les scientifiques ont depuis longtemps étudié comment fonctionne le processus de rappel indicé. De ces études, il ressort que la présentation d'un indice permet de faciliter le rappel ultérieur d'une cible. Ce phénomène est appelé l’amorçage sémantique/conceptuel. On l'étudie le plus souvent avec divers paradigmes. Le plus connu consiste à présenter, durant un temps très faible, d'abord le mot-indice, puis le mot-cible. On demande au sujet de dire si le mot cible est un mot ou un pseudo-mot, s'il appartient à une catégorie précise, ou toute autre demande qui demande un traitement sémantique/conceptuel par le sujet. On observe alors quelques différences en terme d’amorçage, selon le temps entre la présentation de la cible et de l'indice.

Théories de l’amorçage[modifier | modifier le wikicode]

Pour en rendre compte, diverses théories ont été inventées, toutes ayant supposément une validité certaine, mais limitée. On peut classer ces théories selon deux axes. Le premier axe distingue le moment où l’amorçage prend place, et distingue les modèles prospectifs et rétrospectifs. Dans les modèles prospectifs, la présentation du mot-indice pré-active le mot-cible, avant même que le mot-cible soit présenté, accélérant son activation. Dans les modèles rétrospectifs, la cible et l'indice sont traités en même temps, comme un tout, après la présentation de la cible. Le second axe distingue les modèles automatiques et stratégiques. Les premiers supposent que le sujet n'utilise pas de stratégie de rappel et que l’amorçage est un phénomène totalement automatique, qui ne fait pas intervenir la conscience. Les seconds modèles supposent que le sujet peut utiliser des stratégies de rappel et que le rappel fait intervenir la conscience. Voici les différentes théories en vigueur, résumée dans le tableau suivant :

Automatique Stratégique
Prospectif Activation diffusante, théorie de l'ACT-R d'Anderson Ensembles de prédiction (expenctancy sets)
Rétrospectif - Semantic Matching, Compound Cue, Episodic Retrieval

Modèles automatiques : l'activation diffusante[modifier | modifier le wikicode]

Illustration du processus d'activation diffusante.

Lorsqu'un indice est présenté, le processus de reconnaissance active sa représentation, son nœud dans le réseau mnésique. L'activation se propage aux informations qui lui sont reliées/associées, à travers le réseau mnésique. Ces associations/relations peuvent propager plus ou moins bien l'activation suivant leur force : on parle d'activation diffusante. Le mécanisme de rappel se base sur une progression de l'activation de proche en proche, qui part des indice. Au fur et à mesure de sa progression, l'activation finit par arriver à l'information à rappeler, ce qui l'active : l'information est rappelée. Un bon usage de ces indices est primordial pour que le rappel des information aie lieu.

L'activation diffusante ne permet d'expliquer qu'une faible portion des phénomènes d’amorçage et d'autres modèles existent (modèle compond-cue, episodic retrieval, expectency sets, etc). La plupart de ces modèles sont des modèles stratégiques, mais l'un d'entre eux est un modèle automatique. Il s'agit de la théorie des expectency sets, que nous traduirons par ensembles de prédiction. Selon cette théorie, la présentation de l'indice force le sujet à faire des prédictions sur les possibles cibles. Quand la cible est présentée, on observe un effet d'amorçage si la cible présentée faisait partie des cibles potentielles prédites. Le fait que la cible aie été anticipée améliore son rappel, le rendant plus rapide et plus probable.

Modèles stratégiques[modifier | modifier le wikicode]

Il faut noter que ce mécanisme d'activation diffusante explique parfaitement bien le rappel spontané, mais a besoin d'être complété pur rendre compte du rappel d'une information suite à un effort mental. Ce dernier cas est aussi appelé rappel intentionnel. Dans le rappel intentionnel, le sujet recherche une information particulière dans sa mémoire, ce qui lui demande de vérifier si l'information rappelée est la bonne. Cela demande au sujet d'avoir suffisamment d'informations pour identifier l'information à rappeler. Le sujet va créer une stratégie pour récupérer l'information voulue, cette stratégie indiquant les indices à partir desquels démarrer la recherche, mais aussi comment la poursuivre à partir des indices intermédiaires : comment gérer l'activation et son parcours. Il faut aussi maintenir les indices dans la mémoire de travail, lors du parcours de la mémoire à long-terme.

Indices de récupérations et activation diffusante[modifier | modifier le wikicode]

Il est rapidement apparu que tout rappel fonctionne sur les mêmes principes que le rappel indicé. Lors d'un rappel quelconque, indicé ou non, le sujet cherche à localiser une information précise dans sa mémoire. Mais le sujet ne va pas parcourir l'ensemble de sa mémoire pour trouver l'information qu'il recherche. Si c'était le cas, le sujet mettrait des années avant de se rappeler des faits les plus triviaux. Le sujet ne part pas de nulle part : le sujet a naturellement une petite idée de ce qu'il doit se rappeler, il a quelques indices qui lui permettent de guider sa recherche.

La recherche en mémoire part ainsi d'informations perçues ou maintenues à l'esprit, qui sont appelés des indices de récupération. Ces indices de récupération sont des informations présentes en mémoire qui sont activées, que ce soit par la perception ou par l'attention (le maintien en mémoire de travail). Ceux-ci ont le même effet que les indices dans les tâches d'amorcgae sémantique : ils vont activer les informations reliées ou associées. On peut faire une analogie avec un moteur de recherche : quand vous cherchez quelque chose sur le net, vous tapez des mots-clés dans le moteur de recherche, et celui-ci récupère les informations sur le web en fonction de ces mots-clés. Ces mots-clés sont au web ce que les indices de récupération sont à notre mémoire. Mais l'analogie s’arrête là : les moteurs de recherche actuels ne fonctionnent absolument pas comme notre mémoire.

La réussite du rappel est influencée par de nombreux facteurs, qui dépendent autant de l'indice que de la cible ou de l'encodage des liens entre informations. Ces facteurs sont les suivants :

  • l’attention dévolue aux indices ;
  • la présence d'une association entre indice et cible ;
  • la force de l'association ;
  • le nombre d'indices utilisés ;
  • la stratégie de rappel utilisée ;
  • la congruence entre contexte d'encodage et contexte de rappel.

Influence de l'attention[modifier | modifier le wikicode]

Il va de soi que plus les indices sont activés, plus le rappel sera efficace et/ou rapide. Il est supposé dans de nombreuses théories que plus on porte attention à un indice, plus celui-ci sera activé. On peut facilement en déduire que l'attention portée aux indices influence fortement le rappel. Une manière de vérifier cette prédiction est de réduire l'attention portée aux indices lors d'une tâche de rappel. Un bon moyen pour faire cela est de demander aux sujets de faire plusieurs choses à la fois. En plus de la tâche de rappel, on donne une autre tâche cognitive aux sujets, qui leur coute de l'attention. L’attention des sujets sera alors partagée en les deux tâches, limitant ainsi l'attention allouée à la tâche de rappel, aux indices. On observe alors une nette baisse de performance dans la tâche de rappel. Par contre, il ressort que l'effet est supérieur sur le rappel et moindre dans les tâches de reconnaissance.

Influence de l'attention portée sur les indices sur l'amorçage.

Pour donner un exemple, on peut citer les études de Myra Fernandes et Morris Moscovitch, datées des années 2000 et 2003. Dans cette étude, les sujets devaient rappeler à voix haute une liste de mots appris par cœur. Le premier groupe n'avait pas de tâche concurrente à la tâche de rappel. Un second groupe devaient répondre à quelques questions sur des items présentés sur un écran d'ordinateur. Il se trouve que le rappel des sujets subissant une tâche concurrente avaient des performances diminuées de moitié comparé au groupe contrôle.

Influence de la pertinence des indices[modifier | modifier le wikicode]

Il va de soit qu'un indice doit être relié à la cible, pour déclencher un effet d’amorçage. Si on présente un indice qui n'a aucun lien avec la cible, on n'observe pas le moindre gain en terme de rappel de la cible. Mais pour qu'un lien se forme entre deux informations, il faut qu'elles soient toutes deux présentes en même temps lors de l'encodage. Un indice n'est associé à une cible que si l'association entre ces deux informations a été encodée, mémorisée. Indice et cible ont donc du être présents dans la mémoire de travail en même temps, pour une raison X ou Y. C'est ce que l'on appelle le principe d'encodage spécifique.

Influence de l'encodage spécifique sur l'amorçage.

Influence de la force associative[modifier | modifier le wikicode]

Si la présence d'une association entre cible et indice est nécessaire pour que l'effet d'amorçage se manifeste, toutes les associations ne sont pas égales. Certaines associations sont relativement faibles, à savoir qu'elles laissent peu passer l'activation diffusante. Ces associations faibles sont naturellement à opposer aux associations fortes, qui laissent mieux passer l'activation. L'activation de l'indice a donc peu de chance de déclencher le rappel de la cible si l'association est faible, alors que le rappel sera quasi-systématique avec une association forte. Évidement, cette distinction être associations faibles et fortes est assez schématique, la force d'une association étant une grandeur continue.

Influence de la force associative sur le rappel.

Pour se rendre compte de ce concept de force associative, le mieux est de prendre un exemple qui devrait vous parler. Lors de votre scolarité, vous avez certainement eu du mal à apprendre le vocabulaire d'une langue étrangère. Vous connaissiez certainement les mots étrangers, mais vous aviez du mal à vous rappeler de leur signification (la cible). Pourtant, signification et mot étranger étaient présent dans votre mémoire, et certainement l'association entre ces deux informations. Mais l'association étant relativement faible sans une bonne dose d'apprentissage par cœur, vous avez certainement eu du mal à obtenir de bonnes performances au début de votre apprentissage. Ce n'est qu'après d’âpres répétitions que l'association est devenue suffisamment forte pour que vous puissez vous rappeler de la signification de mots étrangers par cœur.

Influence du nombre d'indices[modifier | modifier le wikicode]

Dans certaines expériences, les scientifiques ont cherché à vérifier si augmenter le nombre d'indices de récupération permettait de faciliter le rappel. Et c'est bien le cas : plus d'indice implique souvent une meilleure récupération. Cela s'explique facilement : la somme des activation provenant de plusieurs indices s'additionne, donnant un effet synergique. Plus un concept est accessible, à savoir relié à un grand nombre d'indices de récupération, plus il sera facile à rappeler. Dans cette optique, la structure du réseau sémantique a une influence sur la propagation de l'activation diffusante : elle détermine la disponibilité d'un concept. Cette théorie permet d'expliquer la différence entre rappel libre et indicé : les indices de récupération sont plus nombreux en tâche de rappel indicé.

Influence du nombre d'indices sur l'amorçage.

Certains chercheurs expliquent la différence entre reconnaissance et rappel sur la base de ce mécanisme d'activation diffusante, sans faire appel à une séparation en deux processus de reconnaissance et de rappel séparés. Les tâches de reconnaissances fourniraient plus d'indices de récupération que les tâches de rappel, favorisant la récupération. A l'heure actuelle, ce débat est loin d'être clos. L'activation diffusante a cependant une influence non-nulle en reconnaissance. Par exemple, les phénomènes de fausses reconnaissance proviendraient d'ailleurs d'une activation indirecte d'informations reliés aux items à apprendre. Pour reprendre l'exemple des listes citées au-dessus, le mot sucré serait activé parce qu'il est fortement relié aux élèments de la liste.

Indices contextuels[modifier | modifier le wikicode]

Il est à noter que plus les indices de récupération sont proches de ceux utilisés lors de l'encodage, plus le rappel est facile. En clair, plus le contexte de rappel est similaire au contexte d'encodage, plus le rappel est facilité. Il est intéressant de remarquer que cet effet ne donne pas vraiment de meilleurs résultats dans les tâches de reconnaissance : seules les tâches de rappel indicé et libre permettent de montrer un effet significatif de l'encodage spécifique.

Environmental context-dependent memory[modifier | modifier le wikicode]

Dans cette optique, l'environnement d'apprentissage, les objets présents dans le contexte d'encodage, l’expérimentateur, et le reste, sont encodés avec le contexte et servent d'indices de récupération. Quelques expériences ont ainsi comparé deux groupes de sujet, ceux du premier groupe passant le test dans la salle dans laquelle ils avaient appris, alors que le second passait le test dans une autre salle : le premier groupe avait des résultats 15 à 20 % supérieurs. L'effet a aussi été observé en faisant varier non pas la salle de classe mais l'expérimentateur. Certains psychologues ont même été jusqu'à garder la même salle, mais en changeant l'ordre des tables: l'effet restait ! Même chose si une odeur particulière est diffusée dans la pièce lors de l'apprentissage : sa présentation lors du rappel améliore le taux de rappel des items appris. Comme quoi, le coup de la madeleine de Proust n'était pas du chiqué !

L'étude la plus iconique de de champ de recherche est l'étude de Baddeley et Godden, datée de 1975. Dans cette étude, plusieurs groupes de plongeurs écoutaient une liste de 40 mots, deux groupes recevant ces mots sous l'eau, les autres sur la terre ferme. Deux des groupes recevaient un test de rappel sous l'eau, ou sur terre. Il se trouve que ceux qui avaient appris les mots sous l'eau avaient de meilleures performances quand on les testait sous l'eau que sur terre. Et réciproquement pour ceux qui avaient appris les mots sur terre.

State-dependent memory[modifier | modifier le wikicode]

Aussi bizarre que cela puisse paraitre, l'état physiologique lors de l'encodage joue aussi le rôle d'indice de récupération. Par exemple, Goodwin et ses collègues (1969) ont saoûlé un groupe de 48 cobayes et leur ont fait apprendre des listes de mots lors de leur ivresse. Quelques temps plus tard, ils les ont séparés en deux groupes : l'un qui avait décuvé et l'autre saoul. Le groupe ivre rappelait nettement plus de mots que le groupe sobre. En 1970, Bustamante a réitéré l'expérience en utilisant deux groupes de cobayes : l'un qui avait reçu de amphétamines et l'autre de simples barbituriques. Ces deux groupes se rappelaient plus de mots lorsqu'ils étaient sous l'emprise de la même drogue que celle consommée avant l'apprentissage de la liste de mots. Pire : Overton (1974) a montré que des rats qui avaient appris à trouver la sortie d'un labyrinthe sous l'emprise d'une drogue ne trouvaient pas la sortie une fois les effets de la drogues passés. Par contre, réinjecter la drogue dans les rats leur faisait trouver la sortie du premier coup !

Mood-congruent et mood dependent memory[modifier | modifier le wikicode]

L'humeur lors de l'encodage a aussi son influence. Par exemple, demandez à des groupes de cobayes de mémoriser des listes de mots : certaines contiennent uniquement des mots positifs (gentil, agréable, douceur, frère, amitié) et d'autres des mots déprimants. Réunissez deux groupes de cobayes, un de ces groupes contenant des extravertis baignant dans la joie de vivre et l'autre un ramassis de méchants dépressifs. Le groupe dépressif retiendra nettement mieux la liste déprimante, alors que le groupe de bonne humeur retiendra mieux la liste agréable.

Cognitive context-dependent memory[modifier | modifier le wikicode]

D'autres biais du même genre peuvent survenir avec la langue d'apprentissage. Par exemple, se rappeler quelque chose lors d'un test dépend de la langue d'apprentissage. Si on vous fait apprendre quelque chose en allemand, vous aurez plus de facilité à donner la réponse si la question est posée en allemand qu'en français. Cet effet a été mis en évidence chez des étudiant anglais-espagnols bilingues (Marian and Fausey, 2006) mais il peut certainement se généraliser à tout le monde.


L'oubli en mémoire déclarative

L'oubli est une réalité. Fréquent dans les maladies neurodégénératives et à la suite d'AVC, il représente alors un dysfonctionnement du substrat cérébral qui retentit sur le fonctionnement des processus mnésiques. L'oubli normal semble relever d'un principe différent : si l'on oublie, la mémoire nous fait défaut d'une manière ou d'une autre, sans pour autant que le cerveau soit endommagé. Mais loin d'être un défaut du fonctionnement de la mémoire, l'oubli nécessite parfois une implication active. Les chercheurs font notamment la différence entre oubli incident et oubli motivé, la différence étant l'intention (ou la non-intention) d'oublier un souvenir. Quand on souhaite oublier un souvenir, nous allons utiliser diverses stratégies pour éviter de nous en rappeler, comme éviter tout ce qui pourrait nous remémorer ce souvenir. L'oubli qui en résultera sera nommé l'oubli motivé. En revanche, les autres formes d'oubli ne présupposent pas une volonté active d'oublier. L'étudiant qui a oublié son cours lors d'un examen ne souhaitait certainement pas oublier ce sur quoi on l'interroge, mais il n’empêche qu'il peut ne pas s'en rappeler lors du test. C'est alors un oubli dit incident. Ce chapitre se propose de voir comment se produit l'oubli, quelles sont ses causes.

Observations sur le phénomène d'oubli[modifier | modifier le wikicode]

Il va de soi que plus le temps passe, plus on oublie. Cette évidence est relativement vraie : les souvenirs anciens sont les plus difficiles à rappeler, ceux qu'on oublie plus facilement. Cependant, les savants ne peuvent pas se contenter d'une telle intuition : ils souhaitent d'abord la vérifier, mais aussi l'étudier en profondeur. On peut notamment se demander à quelle vitesse les sujets peuvent oublier : est-ce que l'oubli se fait à taux constant, où bien l'oubli se fait-il de plus en plus rare avec le temps ?

Les courbes de l'oubli[modifier | modifier le wikicode]

Les premières études sur le sujet sont, encore une fois, l’œuvre d'Ebbinghaus. Dans ses expériences, Ebbinghaus apprenait des listes de syllabes et mesurerait à intervalles réguliers ce qu'il en avait retenu. Il représentait ensuite les résultats sur un graphique appelé courbe de l'oubli. Cette courbe de l’oubli avait une forme sensiblement identique à la suivante. Celle-ci montre un oubli très rapide suivi d'une stabilisation, la forme de la courbe étant approximativement l'inverse du logarithme. Tout se passe comme si les souvenirs finissaient par geler, par se consolider si fortement en mémoire qu'ils ne peuvent plus être oubliés. Les informations qui survivent à l'oubli sont alors très résistantes, et forment ce que l'on appelle le permastore. Ce mot fait référence au permafrost, à savoir l'état totalement gelé de certains sols dans les régions froides (en Sibérie, notamment).

Courbe de l'oubli.

De nombreuses expériences plus récentes ont confirmé les observations d'Ebbinghaus, avec du matériel similaire : listes de mots, liste de faits, et autres. Mais ces observations peuvent parfaitement se généraliser à du matériel plus complexe. Tel est le cas des souvenirs personnels. Un bon exemple est l'étude de Meeter et de ses collègues, datée de 2005. Dans celle-ci, comme dans bien d'autres, les scientifiques ont interrogé les sujets sur des évènements "historiques", suffisamment saillants pour attirer l'attention et dont les sujets ont eu vent par les actualités. Les scientifiques ont commencé par faire une liste de tels évènements en étudiant d'anciens journaux ou émissions d'actualité. Puis, ils ont interrogé leurs sujets sur ce qu'ils ont retenu de ces évènements. Le bilan est qu'une année est suffisante pour que les sujets oublient la moitié des évènements choisis : si 60% des évènements très récents sont retenus, seuls 30% sont récupérables une année plus tard. Cependant, cet oubli ralentit assez vite, des durées plus longues montrant un écart nettement plus faible. Le tout peut se résumer par une courbe de l'oubli similaire à celle d'Ebbinghaus.

La même chose s'observe pour des informations apprises délibérément, comme le montrent les études de Bahrick sur les connaissances apprises durant la scolarité d'élèves américains. L'étude portait surtout, mais pas que, sur les connaissances en espagnol. Cette étude a montré que la phase de déclin peut prendre 3 ans, avant que l'oubli ne se stabilise. Une autre étude (cf. Ellis, J.A.; Semb, G.B. & Cole, B. (1998). Very long-term memory for information taught in school), a montré que les élèves retiennent entre 30 à 20 % de ce qu'ils ont appris en classe plusieurs dizaines d'années après avoir quitté l'école.

Facteurs qui influencent la forme de la courbe d'oubli[modifier | modifier le wikicode]

L'étude précédente a montré que les connaissances scolaires s'oublient assez rapidement, avant que l'oubli se stabilise. Il se trouve que la quantité de connaissances oubliées dépend fortement de leur niveau de maîtrise initial : les élèves qui avaient les meilleurs résultats dans la matière sont ceux qui ont le moins oublié à très long-terme. En clair, ceux qui retiennent le mieux sont ceux qui ont appris en profondeur le matériel et qui ont réussit à le maîtriser suffisamment.

Dans un autre genre, on peut citer une étude de Bahrick et Wittlinger (1975) sur la capacité à reconnaître ses anciens camarades de classe sur des photographies. Celle-ci a montré que l'oubli peut être encore plus lent, avec des courbes de l'oubli quasiment horizontales. L'astuce de ces dernières études est que le test de mémoire est une vulgaire tâche de reconnaissance sur du matériel extrêmement familier, ce qui facilite énormément les performances. L'étude montre notamment que l'oubli est plus important en situation de rappel que de reconnaissance.

La nature de l'oubli[modifier | modifier le wikicode]

On pourrait croire que les informations s'effacent progressivement de la mémoire, avec le passage du temps, sauf si elles sont utilisées, revues ou rappelées fréquemment. Cette intuition voudrait que l'information oubliée n'est plus disponible : elle n'existe plus. Mais dans ce cas, comment expliquer que l'oubli est plus fort pour le rappel que la reconnaissance . Cette dernière observation pose de nombreuses questions sur la nature de l'oubli. Si une information est reconnue mais non-rappelée, peut-on dire qu'elle est oubliée ? Visiblement non, vu qu'un test de mémoire (la reconnaissance) montre que le sujet a gardé une trace de l'apprentissage initial. On doit donc avouer nous avons mémorisé plus d'informations que nous ne pouvons en rappeler. Une partie de l'oubli en tâche de rappel est donc une forme d'oubli diffère ce que nous suggère l'intuition : les informations ne sont pas effacées, mas simplement inaccessibles. L'oubli provient alors d'un raté du processus de rappel, comme quand on a un mot sur le bout de la langue. Le problème n'est pas la présence de l'information en mémoire, mais son accessibilité : l'activation n'arrive pas jusqu'au concept à rappeler, ou n'est pas suffisante pour générer un rappel. L'oubli peut donc venir d'une mémorisation mal faite, qui n'a pas suffisamment associé l'information dans le réseau mnésique : les indices de récupération ne sont pas suffisants pour activer le concept à rappeler. Il est donc nécessaire de faire la différence entre l’accessibilité et l'existence d'un souvenir/d'une connaissance. Mais cette distinction est très difficile à faire empiriquement : comment savoir si un souvenir s'est effacé ou s'il n'est tout simplement pas possible de le rappeler ? En l'état actuel de nos connaissances, cela est impossible. Si le sujet n'arrive pas à se rappeler de quelque chose, il se peut qu'il ne l'ait pas oublié, mais que les indices de récupération ne soient tout simplement pas suffisants pour entraîner son rappel.

Mais dans ce cas, comment expliquer que le passage du temps favorise l'oubli ? On peut naturellement rendre compte de ce fait par une dégradation des souvenirs avec le temps ou l'âge, mais alors comment expliquer que ce phénomène touche aussi des souvenir disponibles mais inaccessibles ? Pour résoudre ce paradoxe, les psychologues ont découvert/inventé divers mécanismes complémentaires à l'effacement temporel des souvenirs. Ces mécanismes sont relativement bien corrélés au passage du temps, ce qui permet de rendre compte de l'effet du temps sur la mémoire. Ces mécanismes sont peu nombreux, et on peut en distinguer trois principaux : la fluctuation du contexte, les interférences, et l'oubli induit par le rappel.

Interférences[modifier | modifier le wikicode]

Les phénomènes d'interférence surviennent quand l'apprentissage d'une information empêche le rappel d'une autre. Celles-ci apparaissent quand plusieurs informations sont reliées à un même indice de récupération : ces items entrent en compétition pour le rappel, diminuant leurs chances de rappel respectives. Mais d'autres protocoles expérimentaux sont allés plus loin, et ont cherché à savoir si l'ordre de présentation des informations jouait sur l'interférence. Selon l'ordre d’apprentissage des informations interférentes, on distingue deux types d'interférences : pro-active, et rétroactive.

Dans l'interférence pro-active, d'anciennes connaissances empêchent la mémorisation de nouvelles idées. C'est ce qui explique que quelqu'un qui a appris l'anglais aura plus de mal à apprendre l'italien, par exemple. Premier indice en faveur de ce phénomène d'interférence, on peut remarquer que plus une liste de mots est longue, plus le taux de rappel diminue. Une liste de 50 mots sera rappelée à 50 %, tandis qu'une liste de 100 mots ne sera rappelée qu'à 25 %. Autre expérience : on prend deux groupes de cobayes, auxquels on fait apprendre des listes de mots. Le premier groupe doit apprendre deux listes : une liste A, et une liste B. Le second groupe doit se contenter d'apprendre la liste B. Pour limiter les biais, on fait en sorte que les cobayes aient un temps de repos entre l'apprentissage de chaque liste, et on décale le rappel. Dans ces conditions, on remarque que le groupe qui a du apprendre deux listes a des résultats nettement moins bons : on passe de 70 à 40 % ! De plus, rajouter des listes à apprendre augmente encore l'effet : rajouter un troisième jour diminue l'efficacité à 25 %. Et ainsi de suite. Et cette conclusion se généralise dans d'autres expériences, qui ont montré que cet effet ne marche pas que pour des listes de mots.

On trouve aussi l'interférence rétroactive, où de nouvelles connaissances forcent l'oubli des anciennes. Pour mettre cet effet en évidence, on peut utiliser une expérience toute simple : on prend deux groupes de cobayes, auxquels on fait apprendre des listes de mots. Le premier groupe doit apprendre deux listes : une liste A, et une liste B. Le second groupe doit se contenter d'apprendre la liste B. Pour limiter les biais, on fait en sorte que les cobayes aient un temps de repos entre l'apprentissage de chaque liste, et on décale le rappel. Dans ces conditions, le second groupe a un taux de rappel nettement moins bon. L'apprentissage de la seconde liste a interféré avec la première. Et cette conclusion se généralise dans d'autres expériences, qui ont montré que cet effet ne marche pas que pour des listes de mots. Toutefois, l'effet voit son intensité varier suivant la situation. L'effet est très faible quand les listes de mots à apprendre sont très différentes. De plus, l'effet est beaucoup plus fort si les mots des différentes listes sont conceptuellement proches. A l'inverse, rassembler des mots de la même catégorie dans la même liste diminue fortement l'interférence. Bilan : la similarité, et la proximité sémantique des concepts joue sur leur interférence.


L'encodage des informations

Les premiers modèles de mémoire prédisaient que la probabilité de mémorisation d'une information dépendait de son temps de passage en mémoire à court terme. Le fait de la répéter mentalement devait donc augmenter ce temps de maintien et permettre une mémorisation durable. Cette forme de répétition consistant à répéter une information à l'identique s'appelle la répétition de maintien. Il s'agit d'une forme de répétition utilisée dans le par cœur, la répétition d'exercices, etc. Mais les expériences faites sur le sujet ont montré qu'elle n'avait qu'un effet relativement faible. Pour en donner un exemple flagrant, des chercheurs ont demandé à des volontaires de reconnaître un détail du quotidien, en l’occurrence une pièce d'un penny, parmi plusieurs photographies très semblables : les volontaires ne se souvenaient pas des détails de la pièce (par exemple, ils ne savaient pas si le visage était tourné vers la droite ou la gauche). Dans le même genre, on peut demander à des cobayes quelle est la disposition des chiffres (les touches) sur leur téléphone : le taux de fausses réponses est particulièrement élevé. Et ces observations sont confirmées par les expériences de laboratoire qui comparent des sujets qui ont simplement appris un matériel quelconque sans répétition de maintien, avec un second groupe qui a utilisé la répétition de maintien : la répétition de maintien a certes un effet, mais celui-ci est relativement faible. Mais alors, quels sont les paramètres qui influencent la mémorisation, l'encodage ? Voyons cela plus en détail.

L'organisation du matériel encodé[modifier | modifier le wikicode]

L'esprit humain n'est pas une table rase sur laquelle les informations viennent s'inscrire verbatim. Une telle mémorisation par cœur est certes possible, comme en atteste notre expérience d'étudiant ou d'élève, mais elle met de côté un principe cardinal de notre mémoire : son organisation. Les informations que nous avons apprise ne sont pas des unités isolées, tels des faits ou concepts indépendants. Toutes sont reliées entre elles, via des principes logiques ou des relations qui donnent du sens à l'ensemble de nos connaissances. La signification des informations structure notre mémoire, ce qui a un impact très fort pour l'encodage. L'encodage est nettement meilleur quand le sujet organise les informations qu'ils reçoit, quand il les classifie, les structure, leur donne une signification. Ce processus d'organisation subjective peut être aidé par les connaissances antérieures (quand on trouve des liens avec ce qui est déjà connu), mais aussi par d'autres paramètres relativement importants.

Profondeur de traitement[modifier | modifier le wikicode]

Les psychologues ont découvert que la mémorisation dépendait de la profondeur de traitement. Grosso-modo, plus le matériel à mémoriser est soumis à un traitement profond, sémantique, mieux il est mémorisé. Ce concept de profondeur de traitement a été "découvert" par Craik et Lockhart en 1972, avant d'être répliqué par Craik et Tulving en 1975. Ces deux psychologues ont cherché à savoir si le fait de traiter profondément l'information avait un effet sur la mémorisation. Leur première expérience était une tâche d'apprentissage non-intentionnel : les cobayes n'étaient pas prévenus qu'il subissait une tâche de mémorisation, et ne savaient pas qu'on allait les interroger ultérieurement. Le test demandait aux cobayes de faire un traitement sur un mot particulier, traitement qui portait sur l'écriture du mot, sa prononciation, ou sa signification. Par exemple, si l'on projette le mot LAPIN sur un écran, on peut demander au cobaye de nous dire si le mot est écrit en minuscules ou en majuscules : le traitement est structural. On peut aussi lui demander si le mot rime avec montagne : le traitement est phonétique. Et enfin, on peut demander si le mot est un animal : le traitement est sémantique. Chaque cobaye devait traiter 60 mots différents. À la fin, les cobayes recevaient une interrogation surprise dans laquelle on leur demandait de rappeler les mots qu'ils venaient de traiter. Bilan :

  • 15 % de mots rappelés pour la tâche structurale ;
  • 48 % de mots rappelés pour la tâche orthographique/phonétique ;
  • 81 % pour le traitement sémantique.

Les cobayes se rappelaient nettement mieux des mots lorsqu'ils effectuaient un traitement sémantique dessus. Autre détail : en reconnaissance, les temps de réponse étaient fortement inférieurs pour les mots traités sémantiquement. De même, les cobayes répondent plus rapidement aux questions sémantiques qu'aux questions structurales, lors de la phase d'apprentissage. Et ce résultat est assez solide. Augmenter le nombre de questions, présenter plus longtemps les mots à traiter superficiellement, prévenir les cobayes à l'avance du test, voire payer plus les cobayes pour qu'ils se rappellent des mots traités superficiellement, ... rien à faire : le traitement sémantique surpasse les autres.

Ces expériences ont été reproduites non pas avec des mots, mais avec des dessins, ou des photographies de visages. Les questions étaient alors légèrement modifiées. Comme tâches légères, on demandait aux cobayes de dire s'il s'agissait d'une photo d'homme ou de femme (ce genre de reconnaissance s'effectue automatiquement, dans une zone spécialisée du cerveau). Comme traitement léger, on demandait si le visage était colérique, joyeux, etc. ; ce qui demande d'extraire la signification de certains traits particuliers du visage. Pour les expériences sur des dessins, on présentait des dessins sans signification aux cobayes. Un premier groupe se faisait poser des questions sur les couleurs du dessin, et l'autre devait inventer une signification pour ce dessin. Le second groupe passait devant, avec un taux de rappel double.

Traitement adapté au transfert[modifier | modifier le wikicode]

Cependant, le concept de profondeur de traitement n'est pas sans défaut. Premièrement, il faut noter que la théorie de base postule un sens de traitement des informations : les informations orthographiques et phonologiques sont traitées avant la signification du matériel. Mais certaines expériences nous permettent d'en douter. Mais la critique principale provient des tâches de rappel utilisées dans les expériences sur la profondeur de traitement : en changeant les conditions de rappel, on peut faire disparaitre l'effet de profondeur de traitement.

Un exemple est l'étude de Morris, Bransford et Franks (1977). Dans cette étude, les sujets devaient effectuer soit un traitement sémantique des mots d'une liste, soit un traitement phonologique. Lors du rappel, les sujets étaient interrogés soit via des questions liées à la phonologie, soit à la signification des mots. Dans le premier cas, l’expérimentateur demandait si un des mots de la liste rimait avec "moche", ou tout autre mot. Dans le second cas, les conditions étaient similaires à celles utilisées dans les expériences sur la profondeur de traitement. Il se trouve que les sujets qui avaient subi une tâche de traitement phonologique étaient nettement meilleurs dans le test de rime. Et de la même manière, les sujets qui avaient la liste en conditions normales étaient meilleurs dans la tâche de rappel sémantique. Cette étude illustre le principe du traitement approprié au transfert, à savoir le fait que le rapel est meilleur si les conditions du rappel sont proches/semblables à celles de l'encodage.

Élaboration[modifier | modifier le wikicode]

Ces expériences montrent clairement un effet, reste à l'expliquer. Pour cela, Tulving et Craik ont émis l'hypothèse suivante : plus le traitement est profond, plus le matériel à apprendre sera relié à des connaissances antérieures. Pour eux, la profondeur de traitement provenait de différences d'élaboration, c'est-à-dire de nombre de relations formées avec des connaissances antérieures. Le fait est qu'un matériel élaboré entretient un grand nombre d'associations avec des indices de récupération potentiels. Il s’avère que plus le matériel est élaboré, meilleure est sa mémorisation.

Cette explication fonctionne très bien pour expliquer les résultats dans les tâches de rappel libre, où les sujets doivent apprendre des listes de mots. La plupart des mots sont déjà connus des sujets, dans le sens où ils font déjà partie de leur vocabulaire. Les sujets doivent donc se rappeler de l'appartenance des mots à la liste, et non apprendre les mots eux-mêmes. Cela demande d'organiser les mots de la liste, histoire de les unifier dans un tout cohérent qui représente la liste. Cette organisation peut se fonder sur l'ordre des mots dans la liste, mais aussi sur d'autres formes d'organisations. Les expériences de Tulving et leurs réplications (celle de 1962 étant la principale) le montrent clairement. Dans ces expériences, les sujets doivent apprendre une liste de mots, qui leur est présentée plusieurs fois et qu'ils doivent rappeler après chaque présentation. À chaque présentation, l'ordre des mots est changé, histoire que les sujets ne puissent pas se fonder sur l'ordre des mots pour organiser la liste. Cela n’empêche pas les sujets d'organiser la liste suivant des critères sémantiques. Au fur et à mesure des rappels, les sujets finissent par rappeler les mots dans un ordre de plus en plus stable, les mêmes suites de mots ressortant à chaque répétition. Ces regroupements semblent être réalisés sur des critères conceptuels. Par exemple, les mots d'une même catégorie sont rappelés les uns à la suite des autres. De plus, les groupes finissaient par être regroupés eux-mêmes en des groupes de plus en plus larges. On peut y voir une application du phénomène de chunking, vu dans le chapitre sur la mémoire à court-terme, mais Tulving préféra appeler ce phénomène l'organisation subjective.

De cette expérience, on voit que les processus de regroupement sont impliqués dans l'organisation du matériel à apprendre, processus qui semble important pour l'encodage. On peut raisonnablement en déduire qu'organiser le matériel à apprendre en hiérarchie peut donner de bons résultats, ces hiérarchie utilisant au mieux le processus de regroupement. Cette hiérarchie qui sert à organiser le matériel appris est ce que l'on appelle une structure de récupération, aussi appelés plan de récupération. Par exemple, essayez de deviner laquelle de ces deux listes fonctionne le mieux :

Liste 1 :

  • vache
  • cheval
  • poney
  • poulain
  • cochon
  • rat
  • souris
  • lézard

Liste 2 :

  • vache
  • cochon
  • poulain
  • souris
  • cheval
  • lézard
  • poney
  • rat

C'est évidemment la première, vu que les mots sont regroupés par catégorie. Le fait d'indiquer explicitement les catégories permet d'améliorer encore la mémorisation. De plus, si l'on montre un petit dessin montrant la hiérarchie des catégories, le rappel de la liste de mots est clairement meilleur comparé à une liste de mot convenablement triée.

Expérimentalement, cette organisation hiérarchique permet d'obtenir un meilleur rappel que d'autres formes d'organisation.

  • Prenons un exemple : l'expérience de Bousfield (1953). Dans cet expérience, il était demandé à des élèves de mémoriser une liste de 60 mots. Ces 60 mots appartenaient à 4 catégories différentes : animaux, profession, légumes, et vêtement. Les mots sont présentés aléatoirement aux cobayes. Seulement, au fil des essais, on s’aperçoit que les cobayes ont tendance à regrouper les mots dans leurs réponses. Au final, après un grand nombre d'essais, ils rappellent les mots catégorie par catégorie. Et ce regroupement est fortement corrélé à un taux de rappel de plus en plus élevé.
  • Prenons un autre exemple : Clark, Lesgold et Winzenz (1969) ont fait apprendre des listes de mots à deux groupes de cobayes. Le premier avait une liste de mots organisée hiérarchiquement, classée par catégories, et l'autre une liste complètement désorganisée. Le bilan est très clair : les participant du groupe hiérarchique ont rappelés 3 fois plus de mots que les autres.
  • Wittrock and Carter (1975) ont montré que des élèves du secondaire qui organisaient eux-même une table de minéraux en hiérarchie catégorielle avaient de meilleures performances que des élèves qui ne faisaient que recopier et relire la liste de minéraux. Par contre, relier une hiérarchie créé par le professeur donnait de meilleurs résultats que générer soit-même la hiérarchie.
  • D'autres expériences sur des listes de mots sont arrivées aux même résultats : classer les informations dans une hiérarchie permet de faciliter fortement le rappel et l'apprentissage, d'un facteur pouvant aller de 3 à 5.

Une autre forme d'organisation est de regrouper les mots à apprendre pour former une petite histoire. Cette technique va non seulement former des regroupements, mais va aussi relier ceux-ci entre eux, donnant un encodage encore plus élaboré. Il est aussi possible de ne prendre que la première lettre d'un mot pour former des acronymes, ou former de nouvelle phrases. Cette méthode est d'ailleurs utilisée comme procédé mnémotechnique : diverses mnémoniques de ce genre existent, notamment pour mémoriser les formules de la thermodynamique, les décimales du nombre Pi, la liste des planètes ou encore le code couleur des résistances.

Cette efficacité de l'organisation subjective provient en partie du processus de chunking et en partie des processus d'organisation/élaboration qui attribuent un sens au matériel appris. Dans toutes les expériences faites sur le sujet, les expérimentateurs ont remarqué que lors du rappel d'une hiérarchie, le rappel d'un concept était suivi du rappel des sous-concepts situés juste en-dessous dans l'arbre dans 90% des cas. En clair, chaque information sert d'indice de récupération pour les sous-informations placées immédiatement en dessous de lui. La recherche de l'information à rappeler se fait en parcourant la hiérarchie, en partant du sommet, jusqu’à trouver l'information à rappeler. Lors de ce parcours, les indices parcourus lors de la recherche de l’information sont aussi conservés en mémoire de travail, et servent à se repérer dans la hiérarchie. La somme d'indices parcourus + taille du groupe en cours de visite ne doit donc pas dépasser la capacité de la mémoire de travail.

Distinctivité[modifier | modifier le wikicode]

Par la suite, d'autres mécanismes d'encodage se sont fait jour. Eysenck a notamment proposé que la distinctivité des informations influençait leur récupération. Une information très distinctive, qui se démarque du reste du contenu de la mémoire, a plus de chances d'être récupérée qu'une information similaire à d'autres.

Attention[modifier | modifier le wikicode]

L'attention présente aussi une influence sur l'encodage : plus on est attentif à quelque chose, mieux on mémorise. Mais bizarrement, cet effet ne provient que de la profondeur de traitement.

Apprentissage intentionnel[modifier | modifier le wikicode]

Une première preuve de l'effet de l'attention vient des expériences ont comparé apprentissage incident, où les sujets ne sont pas prévenus qu'ils allaient être interrogés, et apprentissage intentionnel, où les sujets étaient prévenus. En apprentissage intentionnel, les sujets vont plus porter attention au matériel à apprendre et vont alors tenter de l'organiser au mieux. Globalement, le taux de rappel était supérieur dans les tâches d'apprentissage intentionnel, mais pas toujours. Les psychologues ont établi des protocoles expérimentaux dans lesquels ils pouvaient contrôler la profondeur de traitement et/ou les processus d'organisation. Par exemple, une présentation rapide des mots à apprendre empêche le sujet d'utiliser des stratégies d'organisation coûteuses, limitant l'organisation subjective. Bilan : pas de différence à profondeur de traitement égale. La motivation et l'attention ne permettent de mobiliser plus d'attention sur le matériel à retenir, ce qui permet d'augmenter la profondeur de traitement, mais c'est le seul effet psychologique sur la mémorisation. Dans tous les cas, être attentif et concentré aide à mieux mémoriser dans pas mal de situations.

Stress et émotions[modifier | modifier le wikicode]

Le stress et l'activation physiologique ont aussi des effets délétères sur la concentration, ce qui réduit les performances.

Références[modifier | modifier le wikicode]



Habituation et sensibilisation

Les apprentissages les plus simples en mémoire implicite sont ce qu'on appelle des apprentissages non-associatifs, et sont des cibles de choix pour commencer à étudier la mémoire. Il en existe deux :

  • l'habituation ;
  • et la sensibilisation.

Habituation[modifier | modifier le wikicode]

Une aplysie

La majorité des expériences s'est faite surtout sur un petit mollusque nommé l'aplysie. Ces expériences peuvent aussi utiliser n'importe quelle espèce animale, mais l'aplysie a été choisie pour diverses raisons. Par exemple, il dispose d'un faible nombre de neurones, 939 neurones exactement, ce qui simplifie fortement les expériences. Cette aplysie possède un petit siphon, qui permet d'aspirer l'eau sous le mantelet qui recouvre son ventre. Quand on appuie sur le siphon, ce mantelet se contracte.

Si on répète l'appui sur le siphon à intervalles réguliers, le mantelet se contracte de moins en moins. Dit autrement, l'animal s’habitue progressivement aux stimulus répétés sur le siphon et finit par réagir de moins en moins fort à des stimulus répétés. C'est une première forme de mémoire à long terme, qui porte le nom d'habituation. Cette forme de mémoire n'est pas spécifique à l'aplysie, et est au contraire un phénomène général, qui s'applique à toutes les espèces. Par exemple, on peut prendre les chiens de chasse ou des bébés humains, qui apprennent progressivement à ne pas paniquer à des bruits forts. Cette habituation dépend fortement de l'intensité du stimulus : plus le stimulus est faible, plus l'animal s'habitue rapidement. De même, la distribution dans le temps des stimulus influe beaucoup sur la rapidité d'habituation et sur son intensité : l'animal s'habituera d'autant plus rapidement que les stimulus sont éloignés. Il faut toutefois noter qu'il existe deux formes d'habituation : une habituation à court terme, qui disparait en quelques minutes, voire quelques heures, et une habituation à long terme, qui reste beaucoup plus longtemps. Ces deux formes d'habituation n'ont pas les mêmes causes.

Physiologie de l'habituation à court terme[modifier | modifier le wikicode]

Voie réflexe du siphon l'aplysie

Pour comprendre comment l'habituation peut émerger des circuits neuronaux de l'aplysie, les chercheurs ont commencé par voir quels sont les neurones dédiés à ce comportement dans l'aplysie. Pour faire simple, ce circuit neuronal peut être décomposé en trois parties :

  • un ensemble de neurones détecteurs, qui s'activeront lorsqu'on appuie sur le siphon ;
  • des neurones effecteurs qui vont servir à rétracter la branchie ;
  • et entre le deux, on trouve une petite couche d’inter-neurones.

Dans ce circuits, les chercheurs ont effectué quelques mesures, en même temps qu'ils habituaient l'animal à un appui répété sur le siphon. Le bilan est que les synapses voient leur efficacité diminuer avec l'habituation. Cette baisse d'efficacité est ce qu'on appelle la dépression synaptique. Pour vérifier l'origine de cette dépression, Gingrich et Byrne ont fait quelques observations au microscope électronique sur des synapses déprimées : le nombre de synapses ne variait pas avec l'habituation, pas plus que le nombre de vésicules synaptiques. Par contre, le nombre de vésicules vides avait augmenté. Cette dépression vient donc du fait que les neurones situés avant la synapse usent leur stock de neurotransmetteurs assez vite : la quantité de neurotransmetteur libéré dans la synapse diminue avec les stimulations. On pense que ce mécanisme serait à l'origine des phénomènes d'habituation sur les autres espèces. Cela explique pourquoi l'habituation ne dure pas : les stocks de neurotransmetteurs se reconstituent avec le temps.

Physiologie de l'habituation à long terme[modifier | modifier le wikicode]

L'habituation à court terme n'est toutefois pas la seule forme d'habituation chez l'aplysie. Si l'on répète les stimulations de manière répétée et espacées dans le temps, on constate que l’habituation perdure sur de très longues durées : on parle alors d'habituation à long terme. Celle-ci a une cause différente de l'habituation à court terme. Les expériences d'observations au microscope électronique sont claires : les neurones ayant subis une habituation à long terme contiennent moins de synapses fonctionnelles : les connexions entre neurones ont tendance à s'affaiblir avec l'habituation à long terme;

Sensibilisation[modifier | modifier le wikicode]

Dans certains cas, répéter une stimulation de manière répétée ne va pas diminuer le réflexe avec le temps, mais va l'augmenter. On est alors face à un phénomène de sensibilisation : l'animal devient de plus en plus sensible avec le temps. Prenons encore une fois un exemple avec l'aplysie. Prenons un animal dont le réflexe de contraction du siphon s'est habitué. En même temps qu'on appuie sur le siphon, envoyez un choc électrique sur la queue de l'animal. La conséquence est d'avoir totalement supprimé l'habituation. Pire : il arrive que le réflexe de contraction de la branchie soit encore plus vigoureux qu'avant. Et cette sensibilisation ne disparaît pas si vite que cela : elle peut perdurer jusqu'à quelques heures, voire plus encore si on répète la séance d'expérimentation

On remarque que la sensibilisation n’apparaît pas au même endroit que l'habituation : ces deux comportements demandent des conditions de mise en place différentes. Cela vient du fait que ces deux processus n'agissent pas sur les mêmes réseaux de neurones. Cette fois-ci, ce n'est pas la plasticité synaptique qui est à l'origine de la sensibilisation. Le mécanisme de sensibilisation est dû à la participation de nouveaux neurones dans le circuit décrit plus haut. En réalité, le circuit de l'aplysie ressemble à celui illustré ci-dessous. Comme vous le voyez, les neurones de la queue font contact un peu avant la synapse entre neurones de la queue et les interneurones/neurones du siphon. La synapse relie donc le bouton synaptique du neurone sensoriel (en réalité, il y a un inter-neurone entre les deux, mais peu importe...), et la fin de l'axone du neurone sensoriel du siphon et des interneurones.

Voie réflexe du siphon - aplysie

Lorsque le neurone de la queue émet des influx nerveux, ceux-ci seront transformés dans la synapse en sérotonine. Cette sérotonine sera alors captée par l'axone des interneurones et des neurones sensoriels du siphon, et entrainera des modifications durables de la transmission synaptiques : celle-ci libérera un plus grand nombre de neurotransmetteurs de façon durable, et transmettra donc plus facilement les influx nerveux entre siphon et neurones moteurs. D'où la sensibilisation.

Théories de l'habituation et de la sensibilisation[modifier | modifier le wikicode]

Diverses théories ont étés inventées pour modéliser le phénomène de l'habituation et de la sensibilisation. Certaines de ces théories font intervenir la plasticité synaptique, et permettent d'expliquer l'habituation à court terme dans un arc réflexe. D'autres sont des théories plus générales. Dans tous les cas, il existe des théories qui tentent d'expliquer habituation et sensibilisation dans un grand nombre de cas, et chez un grand nombre d'espèce. De nos jours, deux théories de ce genre ont survécus aux divers tests expérimentaux auxquels elles ont été soumises :

  • la théorie du comparateur de modèle de stimulus ;
  • et la théorie du double processus de Groves and Thompson.

Théorie du comparateur de modèle de stimulus[modifier | modifier le wikicode]

La théorie du comparateur de modèle de stimulus suppose que le stimulus sensoriel est relié indirectement à la réponse : entre les deux, on trouve un système amplificateur, qui se chargera d'amplifier le stimulus jusqu'à un certain seuil. Cette amplification peut cependant être inhibée par un second système lié à la mémoire, qui permet de mémoriser le stimulus : il s'agit ni plus ni moins d'un réseau de neurone qui peut reconnaître le stimulus. Quand un stimulus inconnu est présenté, le système mémoire ne reconnaît pas le stimulus et laisse l'amplificateur amplifier à son niveau maximal. Le stimulus perçu est comparé aux stimulus mémorisés dans le système mémoire, histoire de reconnaitre des stimulus semblables à ceux déjà connus. Plus le stimulus perçu est familier, plus l'inhibition sera forte. Plus le nombre de présentations antérieures a été élevé, plus le système mémoire va reconnaître efficacement le stimulus et inhiber fortement la réponse : il y a alors habituation. Il est supposé que le système mémoire mémorise progressivement le stimulus, sa représentation étant raffinée à force de répétition : cela explique l'augmentation de l'habituation avec le nombre de répétitions.

Illustration de la théorie du comparateur de stimulus, une théorie qui explique le phénomène d'habituation et de sensibilisation.

Cette théorie n'est malheureusement utilisable que pour des espèces évoluées, dans lesquelles le système nerveux peut effectivement implémenter un système de mémorisation des stimulus, et un amplificateur. Pour des animaux comme l'aplysie, cette théorie est presque inapplicable.

Théorie du double processus[modifier | modifier le wikicode]

La théorie du double processus suppose qu'habituation et sensibilisation sont des processus séparés dans des groupes de neurones différents. L'habituation a lieu dans un arc réflexe, composé de neurones sensoriels, de neurones moteurs, et éventuellement d'interneurones. Cette habituation à court terme est telle que décrite au-dessus : plus efficace avec des stimulus forts, ou avec des délais raccourcis entre deux stimulus. La sensibilisation dépendrait d'autres neurones, qui viendraient projeter leurs synapses sur les interneurones de l'arc réflexe (ou directement sur les neurones moteurs dans certains cas précis). Ces neurones ne sont pas soumis à l'habituation et sont commandés par des influx nerveux qui proviennent d'un système d'activation, qui se charge d'activer ou de désactiver la sensibilisation. Ainsi, pour de faibles stimulations, le système d'activation de la sensibilisation ne s'active pas, laissant l'habituation faire son travail. Mais avec de fortes stimulations ou une convergence de stimulations simultanées, l'activation du système de sensibilisation prend le dessus. Selon cette théorie, la déshabituation et la récupération spontanée sont juste des conséquences d'une sensibilisation plus ou moins cachée, ou alors d'une diminution de l'habituation avec le temps.

Cette théorie, bien que très utile pour décrire ce qui se passe au niveau d'un arc réflexe, ne permet pas vraiment de comprendre ce qui se passe pour une habituation au niveau du cerveau ou dans des circuits très complexes. Et elles ne permet pas de savoir pourquoi l'habituation a lieu à long terme. Aussi, des théories plus spécifiques, dédiées à une espèce en particulier, ont ajouté un système nerveux central pour expliquer habituation et sensibilisation, ainsi que des processus qui permettent d'expliquer l'habituation à long terme. Dans ces théories, les modèles précédents sont adaptés de manière à rajouter un grand nombre d'  « arcs réflexes » (en réalité, des connexions synaptiques entre différentes aires cérébrales), et des systèmes de sensibilisation multiples.


Conditionnements

L'habituation et la sensibilisation sont des apprentissages dits non-associatifs, qui se contentent d'augmenter ou de diminuer l'intensité d'un réflexe ou d'un comportement acquis. Mais ces deux mécanismes agissent sur des comportements déjà existants, comme des réflexes. Ils ne permettent pas d'apprendre de nouveaux comportements. Mais il existe évidemment des mécanismes qui nous permettent d'apprendre des comportements un peu plus évolués. Parmi ceux-ci, le conditionnement classique, ou conditionnement pavlovien, fut le premier à être découvert.

Expériences sur le conditionnement classique[modifier | modifier le wikicode]

Terminologie du conditionnement classique dans l'exemple des chiens de Pavlov.

Tout commença dans les années 1890 : un scientifique du nom de Pavlov s'était mis en tête d'étudier la sécrétion de sucs gastriques par les chiens. Voilà qui est bien éloigné de la mémoire, me direz-vous. Dans ses expériences, Pavlov faisait ses études avec l'aide d'un appareil qui recueillait la salive des chiens. Logiquement, les chiens commencent à saliver lorsqu'ils ont leur repas sous les yeux : il s'agit d'un réflexe programmé chez les chiens qu'utilisait Pavlov dans ses expériences. La simple vision de la nourriture suffit à les faire saliver, ce qui est détectable par les appareils dont disposait Pavlov.

Mais, chose étonnante, plus l'expérience durait, plus les chiens commençaient à saliver avant leur repas. On pourrait penser que ceux-ci étaient capables d'anticiper leur repas, et que ce n'était pas quelque chose d'important. Mais Pavlov voulu en avoir le cœur net, et il commença à faire quelques expériences. Le résultat s'est révélé étonnant : les chiens étaient prévenus de leur repas en faisant sonner une petite cloche. Pavlov s’aperçut que c'était le fait d'entendre le son de cette cloche qui faisait saliver les chiens. Si on leur donnait leur repas sans faire sonner cette cloche les chiens ne salivaient pas. Le réflexe de salivation, autrefois spécifique à la vue de la nourriture, s'était généralisé au son de la cloche. Pavlov fit d'autres expériences sur ses chiens et en déduisit un mécanisme d'apprentissage qui permet de généraliser certains réflexes ou comportements.

Définition du conditionnement classique[modifier | modifier le wikicode]

Généralement, un réflexe est déclenché par ce qu'on appelle un stimulus, à savoir toute modification de l'environnement que l'organisme peut percevoir d'une manière ou d'une autre. Un flash lumineux, un choc électrique soudain, un jet d'eau dans les paupières, un petit marteau de médecin qui tombe sur votre genou : ce sont tous des stimuli. Le conditionnement classique se base sur des réflexes ou des comportements pré-existants, qui sont déclenchés automatiquement par la perception d'un stimulus. Ces stimulus, qui déclenchent ces réflexes ou ces comportements, sont ce qu'on appelle des stimuli inconditionnels. À coté, certains stimuli ne déclenchent pas de réflexes de manière naturellement, sans apprentissage : ce sont des stimulus neutres.

Le conditionnement de Pavlov apparaît lorsqu'un stimulus neutre est présenté à peu près en même temps qu'un stimulus inconditionnel. A force de répéter cette présentation, le stimulus neutre finira par déclencher le comportement tout seul, sans la présence du stimulus inconditionnel : c'est le conditionnement de premier ordre. Le stimulus neutre devient un stimulus conditionné. Le conditionnement peut aussi impliquer un stimulus neutre, que l'on associe progressivement à un autre stimulus conditionné : c'est un conditionnement de second ordre.

Phénomènes liés au conditionnement[modifier | modifier le wikicode]

Le conditionnement classique est souvent associé à divers phénomènes d'oubli, de généralisation, ou d'apprentissage bloqué.

Effet de fréquence[modifier | modifier le wikicode]

Évidemment, plus on présente le stimulus neutre avant le stimulus inconditionnel, plus le conditionnement a de chances de se mettre en place. Cet effet de fréquence est toutefois décroissant : si les premières présentations ont un effet assez fort, l'efficacité des présentations ultérieures finit par atteindre un plateau. Cependant, si le stimulus neutre est familier pour l'animal, le conditionnement sera d'autant plus lent. Ce phénomène est appelé l'inhibition latente.

Biais associatifs[modifier | modifier le wikicode]

De plus, certains stimuli sont aussi plus faciles à associer à un réflexe inconditionnel que d'autres. Par exemple, il est plus facile d'associer un aliment particulier avec la nausée qu'avec un flash lumineux. C'est ce que l'on appelle un biais associatif.

Généralisation[modifier | modifier le wikicode]

Un conditionnement implique un stimulus neutre, qui devient un stimulus conditionné. Mais la mémoire des conditionnements n'est pas aussi sélective qu'on pourrait le penser. Il arrive souvent que l’association ne se fasse pas qu'avec le stimulus, mais que tout stimulus semblable soit aussi conditionné. Par exemple, reprenons le cas d'Albert. Celui-ci avait été conditionné à avoir peur des rats à fourrure blanche. Dans les faits, Albert avait été conditionné à avoir peur de tout ce qui ressemble à de la fourrure blanche. Finalement, Albert avait aussi peur de choses aussi diverses que la barbe d'un père noël (testé et approuvé), ou du manteau blanc de sa mère. Un conditionnement a ainsi tendance à se généraliser à tout stimulus semblable au stimulus conditionnel.

Blocage[modifier | modifier le wikicode]

Conditionner un animal est parfois difficile en raison de phénomène de blocage. Celui-ci arrive quand on présente trois stimulus à l'animal :

  • un stimulus inconditionnel ;
  • un stimulus conditionnel ;
  • et un stimulus neutre.

Dans ces conditions, le conditionnement entre le stimulus inconditionnel et le stimulus neutre est bloqué : l'animal ne répond pas au stimulus neutre. Si je dis qu'il est bloqué, c'est parce que contrairement à ce qu'on croit, le conditionnement pourrait avoir eu lieu quand même. Si on fait en sorte d'éteindre le stimulus conditionnel concurrent, l'animal se met alors à répondre au stimulus neutre.

Répartition temporelle[modifier | modifier le wikicode]

La répartition temporelle des stimuli influence la rapidité d'apprentissage. Plus haut, j'ai dit que le stimulus neutre et le stimulus inconditionnel sont présentés à peu-prêt en même temps. Toute la subtilité est dans le " à peu-prêt en même temps " : est-ce un peu avant, un peu après, ou autre chose ? On peut avoir diverses situations :

Types de conditionnements
Type Image Description Rapidité d'apprentissage
Simultané Conditionnement simultané Les deux stimulus sont présentés en même temps. Très longue : l'animal met beaucoup de temps à apprendre.
Différé Conditionnement normal Le stimulus neutre est présenté un peu avant le stimulus inconditionnel, mais est maintenu jusqu'à ce que le stimulus inconditionnel aie lieu. C'est la méthode de conditionnement la plus rapide : l'animal est conditionné très vite.
De trace Conditionnement de trace Le stimulus neutre est présenté un peu avant le stimulus inconditionnel, mais n'est pas maintenu jusqu'à ce que le stimulus inconditionnel aie lieu. Relativement efficace.
Rétroactif Conditionnement forward Le stimulus neutre est présenté un peu après le stimulus inconditionnel. Très longue : l'animal met beaucoup de temps à apprendre, et il faut un grand nombre de répétitions du conditionnement.

Ensuite, le passé de l'animal va jouer un rôle, suivant qu'il aie déjà été conditionné ou non.

Extinction[modifier | modifier le wikicode]

Si le conditionnement classique est une forme de mémoire, il peut être soumis à l'oubli, appelé dans ce cas : l'extinction. Cette extinction apparaît lorsque le stimulus neutre est présenté seul, sans le stimulus inconditionnel. Si on répète cette présentation un grand nombre de fois, l'animal oublie progressivement l'association entre les deux stimulus et le conditionnement semble disparaître. Ce phénomène d'extinction peut permettre à un conditionnement avec un stimulus inconditionnel d'être remplacé par un nouveau conditionnement avec le même stimulus. On appelle ce remplacement un phénomène de discrimination.

Mais cette extinction est souvent temporaire et il suffit de représenter le stimulus conditionné avec le stimulus inconditionnel pour faire réapparaître le conditionnement : c'est le phénomène de récupération spontanée. Ce phénomène de réapparition est d'autant plus probable quand le stimulus conditionnel est plus fort que la normale. Cependant, la réponse réapparue a tendance à s’éteindre encore plus rapidement que la réponse conditionnée originale, et finit par totalement disparaître en cas de récupération spontanées consécutives. Dans certains cas, la récupération spontanée n’apparaît pas, et le sujet doit donc être reconditionné. Dans ce cas, le réapprentissage est plus rapide que lors des conditionnements précédents, ce qui est le signe que l'association est encore présente, même si elle est trop faible pour déclencher une réponse. Ce réapprentissage est aussi beaucoup plus facile si l'extinction et le conditionnement n'ont pas lieu dans le même contexte. Par exemple, si on conditionne un animal dans une chambre, et qu'on le déconditionne dans un milieu ouvert, alors on observe un phénomène étrange : l'animal peut répondre au stimulus conditionnel dans la chambre, et répondra moins voire pas du tout dans le milieu ouvert. Même chose si les conditionnement et déconditionnement ont lieu dans deux endroits similaires mais légèrement différents. Il arrive aussi que le contexte d'apprentissage joue d'autres tours du même genre. Par exemple, en présentant uniquement le stimulus inconditionnel dans le même contexte d'apprentissage, ou dans un contexte similaire, on observe une récupération spontanée du stimulus conditionnel, censé s'être éteint. De même, reconditionner un animal est plus rapide si le contexte d'apprentissage et de ré-apprentissage sont similaires ou identiques. On fait donc face à un effet important : le contexte joue fortement sur les apprentissages et sur le rappel (ici, l'apparition de la réponse conditionnée).

Cela montre que les conditionnements formés sont encore présents en mémoire, mais que quelque chose empêche leur rappel, ce quelque chose étant sensible aux similarités entre contexte d'apprentissage et contexte de récupération. On peut faire une analogie avec le principe d'encodage spécifique vu dans les chapitres précédents. Les origines de l'extinction sont encore sujet à débat, mais les théories sur le sujet proposent plusieurs mécanismes : l'affaiblissement et la disparition de l'association, l'inhibition de l'association, l'interférence entre associations différentes, la compétition entre associations différentes. Les premières théories supposaient que l'extinction provient d'une dégradation des associations au cours du temps. D'autres théories ont ajouté un phénomène d'inhibition : les associations sont simplement tues, un mécanisme d'inhibition empêchant celles-ci de s'exprimer. Les deux autres mécanismes servent à expliquer la discrimination et l'extinction. Selon ces mécanismes, des stimulus liés à une même réponse entrent en compétition pour l'accès à la réponse, et cette compétition fait que seul un des stimulus gagnera la partie. A ce petit jeu, des stimulus peuvent ainsi empêcher d'autres stimulus de s'exprimer librement : le stimulus inconditionnel peut reprendre le dessus sur le stimulus conditionnel dans un certain contexte, et réciproquement dans un autre.

Modèles psychologiques du conditionnement classique[modifier | modifier le wikicode]

Il existe diverses théories pour expliquer le conditionnement classique. Certains de ces modèles sont purement descriptifs, alors que d'autres sont fortement mathématisés. Des modèles plus explicatifs et moins descriptifs ont aussi vu le jour.

Théories à conditionnement automatique[modifier | modifier le wikicode]

Les premières théories supposent que le conditionnement classique est un processus totalement automatique, qui ne fait pas intervenir la conscience. En clair : il s'agit d'une mémoire non-déclarative. On peut classer ces théories en deux catégories : celles qui expliquent le conditionnement avec un processus d'association indirecte entre stimulus conditionnel et réponse et celles qui l'expliquent par une association directe entre stimulus neutre et réponse.

Dans le premier cas, on considère que les stimulus neutre sont associés avec le stimulus inconditionnel. Le déclenchement de la réponse en réaction au stimulus conditionnel est alors indirecte : le stimulus conditionnel va activer les groupes de neurones chargés de la détection du stimulus inconditionnel, et ensuite la réponse est déclenchée en fonction. Cette théorie de la substitution du stimulus stipule que le conditionnement apparaît parce que le stimulus neutre s'associe avec le stimulus inconditionnel : Les groupes de neurones attribués à chaque stimulus deviennent liés à force de répétition, et la simple activation d'un des groupes mène automatiquement à l'activation de l'autre, et au déclenchement de la réponse. Le déroulement de la réponse est alors le suivant : Stimulus conditionnel → Stimulus inconditionnel → Réponse.

Le modèle de ce genre le plus connu est un modèle mathématique assez complexe : le modèle de Rescola-Wagner. Celui-ci permet de décrire bon nombre de phénomènes liés au conditionnement classique, et est assez intéressant. Ce modèle ajoute un mécanisme pour rendre compte du phénomène de blocage et d'autres constatations expérimentales. Ce mécanisme est tout simplement l'information apporté par le stimulus neutre ou conditionnel : un stimulus réellement informatif permet de prédire avec un bon degré l'arrivée future du stimulus inconditionnel. Ce modèle explique le blocage par une compétition entre stimulus neutres et conditionnés pour s'associer avec le stimulus inconditionnel : quand plusieurs stimulus ont lieu en même temps, seule l'association avec le stimulus qui apporte le plus d'information, à savoir le stimulus le moins surprenant, est consolidée.

Avant, ou après l'apparition du modèle de Rescola-Wagner, d'autres modèles mathématiques du même genre sont apparus dans la littérature scientifique. Ces théories ont toutefois un problème : il arrive souvent que les réponses conditionnées et la réponse réflexe soient différentes. Par exemple, la réponse conditionnée est souvent beaucoup plus faible ou plus lente que la réponse réflexe. Dans certains cas, les réponses peuvent être opposées : par exemple, le conditionnement d'un flash lumineux avec un choc électrique peut donner une baisse du rythme cardiaque, alors que le choc électrique seul augmente le rythme cardiaque. Pour résoudre ces problème, une autre classe de théorie suppose qu'une nouvelle association va se former entre le stimulus neutre et la réponse. Dans les théories stimulus-réponse, le stimulus neutre est associé avec la réponse directement : il n'y a pas d'intermédiaires.

Théories cognitives[modifier | modifier le wikicode]

D'autres théories pensent que le conditionnement classique est un processus cognitif conscient, et non automatique. Selon ces modèles, l'animal apprend à prédire ce qu'il va se passer après la présentation du stimulus neutre, et s’aperçoit que celui-ci est souvent prédit par le stimulus inconditionnel et la réponse qui suit. Ce mécanisme mettrait en jeu la mémoire déclarative, et notamment la mémoire sémantique, voire la mémoire épisodique. Ces théories mettent l'accent sur l'attention : les processus attentionnels permettraient au sujet de focaliser son attention sur un stimulus plutôt qu'un autre. Ces processus permettent d'expliquer l'inhibition latente : un stimulus familier est souvent un stimulus auquel on fait peu attention. Cet influence de l'attention sur le conditionnement permettent d'expliquer le phénomène d'inhibition latente : quand un stimulus est familier on n'y fait pas attention, et cela ralentit la formation de l'association.

Comme théories basées sur ce principe, peut citer :

  • l'Attentional Model de Mackintosh, daté de 1975 ;
  • la Wagner's Rehearsal Theory ;
  • la théorie SOP : théories des processus opposés ;
  • et bien d'autres encore.

Ces théories permettent d'expliquer les effets de contexte,qui montrent que le conditionnement est fortement lié au contexte d'apprentissage. Il est par exemple beaucoup plus facile si l'extinction et le conditionnement n'ont pas lieu dans le même contexte. Par exemple, si on conditionne un animal dans une chambre, et qu'on le déconditionne dans un milieu ouvert, l'animal peut répondre au stimulus conditionnel dans la chambre, mais pas dans le milieu ouvert.

Il arrive aussi que le contexte d'apprentissage joue d'autres tours du même genre, mais pour la récupération spontanée. Par exemple, on observe souvent une récupération spontanée du stimulus conditionnel, si l'on présente celui-ci dans un environnement similaire à l'environnement d'apprentissage. De même, reconditionner un animal est plus rapide si le contexte d'apprentissage et de ré-apprentissage sont similaires ou identiques.

Théories à deux systèmes[modifier | modifier le wikicode]

Les deux modèles font des prédictions spécifiques, qui sont toutes confirmées dans certaines expériences, mais pas dans d'autres. De nombreuses expériences sont ainsi fortement contradictoires, suivant l'espèce utilisée ou les procédures utilisées. Les théories actuelles pensent qu'il existe deux processus séparés : un processus automatique qui forme des associations sans intervention de la conscience et un processus qui fait intervenir la mémoire déclarative. Ces deux systèmes prendraient charge des conditionnements différents. Le conditionnement pris en charge par le système non-déclaratif serait ce qu'on appelle le conditionnement au délai. Dans celui-ci le stimulus neutre est maintenu jusqu'à la fin du stimulus inconditionnel. Les animaux les plus simples n'ont que le premier système, tandis que les vertébrés sont capables d'utiliser les deux systèmes. Dans le cas de l'aplysie, par exemple, celle-ci est capable d'apprentissage par conditionnement avec le premier système : le conditionnement dépend juste de modifications des synapses dans un arc réflexe.

Des expériences chez le lapin ont montré qu'on peut enlever une grande partie des aires cérébrales spécialisées dans la mémoire déclarative sans pour autant supprimer l'apprentissage des conditionnements. On peut prendre le cas du clignement des yeux chez le lapin. Quand on cherche à conditionner le clignement des yeux avec un conditionnement au délai, ce conditionnement prend place dans le cervelet, une structure cérébrale chargée de la mémoire non-déclarative. De même, des patients humains avec des lésions au cervelet sont incapables de conditionnement au délai. Le conditionnement déclaratif prendrait en charge le conditionnement de trace, dans lequel le stimulus neutre est terminé quand le stimulus inconditionnel commence. Le conditionnement de trace demande, en plus du circuit présent dans le cervelet, une mobilisation de l'hippocampe et du lobe temporal du cortex, des zones du cerveau chargé de la mémoire déclarative.

Conditionnement et système nerveux[modifier | modifier le wikicode]

Ce conditionnement peut prendre deux formes :

  • un conditionnement moteur ;
  • et un conditionnement émotionnel.

Par conditionnement moteur, on veut dire que l'animal ou l'humain qui subit un conditionnement apprend à réagir à un stimulus conditionnel en effectuant un mouvement donné. Par conditionnement émotionnel, on veut dire que le comportement mis en œuvre dans le conditionnement sera une réaction émotionnelle : une réaction de peur, par exemple. Ces deux types de conditionnement peuvent avoir lieu en même temps. Pour l'illustrer, prenons des expériences effectuées sur des rats (ou d'autres animaux). Dans celles-ci, les rats étaient placés dans une cage, dont le sol était électrifié. Les rats recevaient des chocs électriques bénins de temps à autre. A chaque choc, les rats s'immobilisent par réflexe. Les expériences consistaient à conditionner des flashs lumineux avec la décharge électrique. A la suite de ce conditionnement, les rats s'immobilisent à chaque flash, même si celui-ci n'est pas accompagné ni suivi de décharge électrique, comme prévu. Dans cette expérience, le stimulus inconditionnel est un choc électrique, qui est conditionné aussi bien avec une sensation de peur, ainsi qu'avec une réponse d'évitement du choc électrique.

On peut se demander comment les espèces vertébrées gèrent le conditionnement, et comment le cerveau fait pour former associations et expectations. A ce petit jeu, on trouve évidemment une différence entre le conditionnement moteur, et le conditionnement émotionnel. Mais d'autres formes plus simples de conditionnement sont possible chez les espèces non-vertébrées.

Conditionnement moteur[modifier | modifier le wikicode]

Le cas le plus simple de conditionnement chez les invertébrés est un exemple qui devrait vous dire quelque chose : l'aplysie ! En effet, le réflexe de vidange du siphon, vu il y a quelques chapitres, peut être conditionné assez simplement : on peut associer le toucher de la queue avec une vidange du siphon. Les expériences faites par Squire et Kandel montrent que le mécanisme utilisé pour expliquer la sensibilisation ressemble fortement à celui qui permet d'expliquer le conditionnement classique. Le neurotransmetteur Glutamate qui est impliqué, en plus de la sérotonine. Quoiqu'il en soit, ces mécanismes vont créer de nouvelles synapses entre le neurone sensoriel et l'interneurone, ces synapses servant d'association entre neurones sensoriels et neurones moteurs/interneurones.

Chez les vertébrés, les mécanismes du conditionnement semble fortement varier suivant les stimulus à associer. Mais une observation semble mettre tout le monde d'accord : les conditionnements ont lieu dans le cerveau. Un animal décérébré ne peut pas apprendre par conditionnement, alors que certains réflexes sont toujours présents. Les expériences sur le sujet font conditionner un flash lumineux à un réflexe de clignement des paupières. Le stimulus inconditionnel utilisé est souvent un petit jet d'air non-douloureux envoyé sur l’œil. Ce conditionnement est particulièrement bien conservé chez presque toutes les espèces de vertébrés. Ces recherches disent qu'un grand nombre de circuits neuronaux sont impliqués dans ce conditionnement. De manière générale, le cervelet semble être l'endroit où se situe ce conditionnement. Par exemple, les patients chez qui le cervelet est endommagé ne peuvent ainsi pas apprendre ce conditionnement.

Conditionnement émotionnel[modifier | modifier le wikicode]

Pour le conditionnement émotionnel, il semblerait que ces théories à double processus soient vraies chez les vertébrés, et notamment les humains. La prise en charge des émotions comme la peur est en grande partie gérée par l'amygdale cérébrale, une structure neuronale située plus ou moins au centre du cerveau. Les stimulus sensoriels sont envoyés à l'amygdale par deux voies : une voie directe, qui ne fait pas intervenir la conscience, et une voie indirecte consciente, qui passe par le cortex cérébral. En somme, pour la peur, on a bien une voie chargée de la formation d'associations, et une autre chargée de former des prédictions sur la base de connaissances antérieures.

Ce conditionnement émotionnel est purement implicite, et implique une structure cérébrale nommée l'amygdale. Pour le prouver, on peut mentionner une expérience faite par le neurologue Damasio. Celui-ci a pris des patients amnésiques, qui avaient des lésions à l'hippocampe, qui étaient incapables de former des souvenirs ou de mémoriser des faits. Ils étaient notamment incapables de mémoriser les visages, et oublient les personnes qu'ils rencontrent : ils peuvent avoir vu des centaines de fois une personne et avoir longuement parlé avec eux, tout se passe comme s'ils rencontraient un inconnu. L'expérience était très simple. Le patient était ainsi traité durant quelques semaines par deux infirmiers : le premier avait reçu pour consigne d'être légèrement méchant avec le patient, tandis que l'autre devait avoir un comportement agréable. A la fin de la semaine, on montrait une photographie des deux infirmiers au cobaye. Celui-ci avait bien sûr oublié les infirmiers et prétendait le les avoir jamais vus quand on leur présentait la photographie. Mais quand on leur demandait lequel des deux infirmier semblait le plus sympathique, 90 % des cobayes prenaient l'infirmier gentil : on est bien loin des 50 % qu'auraient donné un oubli.

GFDL GFDL Vous avez la permission de copier, distribuer et/ou modifier ce document selon les termes de la licence de documentation libre GNU, version 1.2 ou plus récente publiée par la Free Software Foundation ; sans sections inaltérables, sans texte de première page de couverture et sans texte de dernière page de couverture.