Psychologie cognitive pour l'enseignant/Version imprimable

Un livre de Wikilivres.
Sauter à la navigation Sauter à la recherche
Nuvola-inspired File Icons for MediaWiki-fileicon-ps.png

Ceci est la version imprimable de Psychologie cognitive pour l'enseignant.

  • Si vous imprimez cette page, choisissez « Aperçu avant impression » dans votre navigateur, ou cliquez sur le lien Version imprimable dans la boîte à outils, vous verrez cette page sans ce message, ni éléments de navigation sur la gauche ou en haut.
  • Cliquez sur Rafraîchir cette page pour obtenir la dernière version du wikilivre.
  • Pour plus d'informations sur les version imprimables, y compris la manière d'obtenir une version PDF, vous pouvez lire l'article Versions imprimables.


Psychologie cognitive pour l'enseignant

Une version à jour et éditable de ce livre est disponible sur Wikilivres,
une bibliothèque de livres pédagogiques, à l'URL :
https://fr.wikibooks.org/wiki/Psychologie_cognitive_pour_l%27enseignant

Vous avez la permission de copier, distribuer et/ou modifier ce document selon les termes de la Licence de documentation libre GNU, version 1.2 ou plus récente publiée par la Free Software Foundation ; sans sections inaltérables, sans texte de première page de couverture et sans Texte de dernière page de couverture. Une copie de cette licence est incluse dans l'annexe nommée « Licence de documentation libre GNU ».

Sections

Introduction

Comme beaucoup d'élèves peuvent en témoigner, la mémoire a une grande place à l'école. Et la place de la mémoire dans l'apprentissage scolaire a souvent une image assez caricaturale, souvent réduite à l'apprentissage par cœur de faits décontextualisés, au bachotage intensif et au révisions qui précèdent les interrogations écrites. Mais la mémoire a une place bien plus importante que ce que l'on pourrait croire et elle est présente dans des apprentissages plus complexes. Comprendre quelque chose, maitriser des compétences complexes, raisonner, créer, penser : tout cela implique la mémoire, bien plus que ce que l'intuition nous le laisse penser. Dans ce chapitre, nous allons voir en quoi la mémoire est importante dans la scolarité et allons briser ce mythe qui la réduit à l'apprentissage par cœur. Nous allons ensuite voir comment notre mémoire fonctionne, ce qui nous permettra de mieux comprendre ce qui se passe dans la tête d'un élève quand il apprend. Cette introduction théorique servira de base pour la suite du cours et on ne peut pas aller plus loin sans comprendre au mieux les concepts de ce chapitre. Autant vous dire que ce chapitre d'introduction a une importance capitale pour la suite du cours.

L'importance de la mémoire dans notre vie intellectuelle[modifier | modifier le wikicode]

La mémoire est plus « intelligente » qu'il n'y paraît, à tel point qu'elle intervient fortement dans les processus mentaux de plus haut niveau, tels que la créativité, la résolution de problèmes ou le raisonnement. Ces compétences requièrent en effet d'appliquer des connaissances acquises dans des contextes relativement variés, d'utiliser de manière flexible ce que l'on sait. Mais comme l'a dit le renommé psychologue Sternberg, auteur de la théorie triarchique de l'intelligence : "On ne peut appliquer ce qu'on connaît de manière judicieuse si l'on n'a rien à appliquer". Si la connaissance ne suffit pas à devenir "intelligent", elle est un prérequis nécessaire à toute forme d'expertise. Beaucoup de théories qui visent à expliquer des processus mentaux élaborés tels que créativité, la compréhension de textes, le raisonnement, la résolution de problèmes, l'esprit critique et autres processus intellectuels, donnent une grande importance au stock de connaissances emmagasinées. Certains scientifiques vont même plus loin et réduisent la performance en toute tâche à une simple application de connaissances, celles-ci fondant l'intelligence. Selon Yates, "Tout ce qui est intelligence n'est qu'application et adaptation de petites unités de connaissances, qui, au total, produisent une cognition complexe.".

Cela est bien illustré par les expériences qui étudient l'expertise, à savoir la compétence supérieure qu'ont les experts dans un domaine. Ces études concernent des domaines divers qui vont du jeu d'échecs au développement informatique, en passant par le diagnostic médical, l'expertise des joueurs professionnels de sports collectifs, l'expertise des professeurs de physique, etc. Elles montrent que les connaissances acquises par les experts leur permettent d'utiliser des méthodes de raisonnement plus efficaces que les novices. Par exemple, les experts raisonnent beaucoup par analogie et utilisent leur stock de connaissances pour former et réfuter des hypothèses. Là où un novice procède par essais et erreurs, sans beaucoup utiliser ses connaissances, un expert se ramène systématiquement à des situations connues et des classes de problèmes maîtrisés. Là où un novice formule un grand nombre d'hypothèses peu pertinentes avant de les vérifier une par une, un expert réfute rapidement les hypothèses erronées en récupérant des contre-exemples dans sa mémoire. Mais ces méthodes de raisonnement d'experts, par analogie ou autres, ne fonctionnent pas à vide. Elles demandent que l'expert ait fait siens un grand nombre de connaissances, d'exemples, de problèmes résolus.

De plus, les connaissances des experts peuvent s'appliquer à un grand nombre de situations, là où celles des novices sont trop précises et pointues. Le savoir des personnes expertes est générale, abstrait et flexible. Il prennent le plus souvent la forme de catégories d'objets ou de situations, qui permettent de faire des inférences et des déductions. Par exemple, si vous savez qu'un chien a un estomac, c'est parce que vous savez qu'un chien est un mammifère et que tous les mammifères ont un estomac. La nature des connaissances acquises par les experts fait qu'ils ont des capacités de raisonnement largement supérieures à celles des novices, du moins pour ce qui est de leur domaine. Le but de l'apprentissage est donc de permettre à l'élève d'acquérir des concepts généraux, qui se rapportent à un large spectre de situations, seules connaissances réellement "rentables".

Autre chose importante : les connaissances des experts sont non seulement plus nombreuses et plus générales, mais elles sont aussi mieux organisées. Elles sont fortement reliées entre elles et sont aussi connectées à de nombreuses connaissances concrètes comme des exemples, des situations vécues d'expériences, des problèmes déjà résolus, etc. Les connaissances d'un expert ne se résument par en un simple catalogue de concepts abstraits, mais sont de véritables réseaux de connaissances, riches aussi bien en savoirs qu'en liens logiques pour les relier. Et il va de soit que plus les connaissances enseignées le sont d'une manière structurée, organisée, plus l'apprentissage par l'élève sera efficace. Comme indice qui tend à valider cette hypothèse, on peut citer l'étude de Sexton et Poling (1973) : celle-ci montre que les élèves qui ont de mauvais résultats voient ce qu'on tente de leur apprendre comme un ensemble de connaissances séparées, non-reliées, non-structurées, alors que les élèves avec de bons résultats relient celles-ci et les intègrent dans des structures, des classifications, des analogies.

On voit ainsi qu'apprendre, mémoriser, n'est pas une activité purement mécanique comme peut l'être l'apprentissage par cœur. Il s'agit d'un véritable processus intellectuel, fortement lié à la compréhension, à l'abstraction. Ce principe se retrouve non seulement dans le processus d'apprentissage, mais aussi dans le fonctionnement même de la mémoire, qui enregistre le sens des choses. Mais alors, qu'en est-il du par cœur, représentation iconique de l'acte de mémoriser ? Hé bien aussi bizarre que cela puisse paraître, il s'agit de la pire technique de mémorisation qui soit ! Non, ce n'est pas une erreur, même si l'intuition nous fait croire le contraire. La réalité est que si l'apprentissage par cœur fonctionne sur de courtes périodes de temps, ses résultats à long terme sont relativement catastrophiques. Relire ses cours, revoir les connaissances apprises a peu ou pas d'effet sur la mémoire. Mais pour comprendre pourquoi, il faut comprendre plus en détail ce que signifie mémoriser car ce terme "mémoriser" n'est pas utilisé dans la science moderne de la mémoire. Celui-ci correspond en réalité à un ensemble de processus mnésiques qui font intervenir des mémoires différentes. Car oui, la mémoire n'est pas une entité unique, c'est en réalité un ensemble relativement disparate de mémoires dont le fonctionnement est fort différent.

La mémoire : une capacité multiple[modifier | modifier le wikicode]

Diverses observations ont montré que la mémoire n'était pas une structure unique, tout humain disposant de plusieurs sous-mémoires. Les expériences proviennent surtout de l'observation de patients cérébrolésés. Le cas le plus spectaculaire est celui des amnésiques qui ont perdu toute possibilité de former de nouveaux souvenirs ou d’apprendre de nouvelles connaissances, sans que leur mémoire antérieure à la lésion soit touchée. Le cas le plus connu est celui du patient Henry Mollaison, dont l'observation a révolutionné les neurosciences et les conceptions sur le fonctionnement de la mémoire. Pour soigner ses graves crises d'épilepsie, ce patient s'est vu retirer une partie de son cerveau, nommée l'hippocampe. Suite à cette opération, Henry Mollaison avait perdu toute possibilité de former de nouveaux souvenirs ou d'apprendre de nouveaux faits : il oubliait tout après quelques secondes. Mais pour tout ce qu'il avait appris quelques années avant son opération, sa mémoire était parfaitement intacte. Si sa capacité à former de nouveaux souvenirs était déficiente, les souvenirs et connaissances acquises n'étaient pas touchés. Par la suite, diverses observations ont permis d'améliorer notre vision de la mémoire.

Les sous-types de mémoires[modifier | modifier le wikicode]

De nos jours, les scientifiques font la distinction entre trois grandes catégories de mémoires : la mémoire sensorielle, la mémoire à court terme et la mémoire à long terme. Les deux premières sont des mémoires temporaires qui mémorisent des informations pour une durée limitée, qui ne dépasse pas quelques secondes ou quelques minutes.

Ce schéma montre les trois mémoires, sensorielles, à court terme et de long terme. Il montre aussi les échanges entre ces différentes mémoires et les processus mis en jeu.

La mémoire sensorielle nous permet de percevoir les choses, dans le sens où elle conserve temporairement ce que nous venons de voir ou d'entendre durant quelques millisecondes, le temps que nous y prêtions attention. Elle est subdivisée en plusieurs mémoires : les fameuses mémoires auditives, visuelles, et kinesthésiques auxquelles il est parfois fait allusion dans divers écrits de vulgarisation. Mais ces mémoires s'éloignent grandement du portrait qui en est fait dans la vulgarisation grand public. Elle peuvent retenir une quantité d'informations sensorielles (sons, images, sensations tactiles) pour une durée de rétention inférieure à 2 ou 3 secondes. Un certain traitement automatique est effectué sur le contenu de ces mémoires, qu'il s'agisse de processus de détection des contours d'objets pour la mémoire visuelle, des processus de détection de la tonalité ou de l’intensité sonore pour la mémoire auditive, etc. L'attention, notre capacité à nous concentrer, va faire un tri parmi le contenu de ces mémoires sensorielles pour n'en retirer que les informations essentielles. Nous ne détaillerons pas plus ces mémoires sensorielles, celles-ci étant peu utiles lors de l'apprentissage.

La mémoire à court terme stocke un nombre limité d'informations durant quelques secondes ou quelques minutes. Elle permet par exemple de mémoriser un numéro de téléphone avant de le composer, mais cette information sera oubliée une fois le numéro composé. Cependant, c'est aussi cette mémoire qui nous permet de comprendre ce que raconte votre interlocuteur dans une conversation ou qui permet de faire des calculs complexes qui demandent de garder à l'esprit des résultats temporaires. Divers traitements prennent place dans cette mémoire à court terme, toute manipulation d'une idée impliquant systématiquement cette mémoire à court terme. C'est pour cela qu'on l'appelle aussi la mémoire de travail. Cette mémoire est extrêmement importante lors de l'apprentissage, sa capacité étant un facteur limitant pour de nombreux apprentissages. Diverses théories pédagogiques prennent en compte cette mémoire de travail, et donnent des conseils assez intéressants aux enseignants.

Ces deux mémoires temporaires sont à opposer à la mémoire à long terme qui correspond à la mémoire du langage courant. Il s'agit d'une mémoire de longue ou moyenne durée qui conserve des informations très longtemps après les avoir apprises. Elle stocke des souvenirs, connaissances et savoir-faire très résistants à l'oubli. Pour faire simple, cette mémoire est subdivisée en deux grands sous-ensembles : une mémoire déclarative pour les faits, concepts et souvenirs et une mémoire procédurale pour nos habitudes et automatismes acquis. Ces deux mémoires vont nous intéresser dans la suite de ce cours. La mémoire déclarative en sera LA pierre angulaire, vu qu'elle contient les connaissances conceptuelles acquises lors de la scolarité. Mais la mémoire procédurale a aussi son rôle à jouer, certains automatismes devant être acquis à l'école, notamment pour la lecture, l'écriture, le calcul et d'autres contenus.

Encodage, stockage et récupération[modifier | modifier le wikicode]

Les informations transitent d'une mémoire à l'autre, de la mémoire sensorielle à la mémoire à court terme, avant d'arriver à la mémoire à long terme. Mais ce chemin est semé d'embûches qui peuvent perturber la mémorisation. Le premier obstacle est le transfert de la mémoire sensorielle vers la mémoire à court terme. Seuls les choses auxquelles nous prêtons attention passent dans la mémoire à court terme, le reste ayant peu de chances d'être pris en compte (sauf dans quelques rares exceptions qui ne nous intéressent pas). Se concentrer, faire attention est donc une première étape pour apprendre. L'étape suivante est de faire passer les connaissances de la mémoire à court terme vers la mémoire à long terme : c'est ce qu'on appelle l'encodage. Ce terme parait barbare, mais il correspond à la mémorisation proprement dite. Ce qui est encodé est tout simplement mémorisé.

Une fois mémorisée, l'information peut être rappelée : on peut s'en souvenir et la réutiliser. La facilité de ce rappel est absolument primordiale : elle fait que nous allons oublier quelque chose, ne pas s'en souvenir au moment opportun et donc, ne pas appliquer cette connaissance de manière flexible. Évidemment, plus l'encodage est efficace, plus le rappel ultérieur est facile. Nous verrons comment faciliter un encodage efficace dans les chapitres qui suivent. Encodage et rappel sont extrêmement dépendants l'un de l'autre, aussi il est bon de les présenter plus ou moins ensemble. L'intérêt de détailler ces processus est de comprendre pourquoi les élèves oublient ou pourquoi ils ne peuvent pas réutiliser leurs connaissances dans des contextes opportuns, les deux situations ayant la même cause : une incapacité à récupérer l'information en mémoire. Autant dire que ce que nous allons aborder est de première importance pour la pratique pédagogique.

Après l'apprentissage, les connaissances apprises sont temporairement stockées dans une structure cérébrale nommée l'hippocampe et dans quelques aires cérébrales alentour, dans le lobe temporal médian. Les connaissances apprises y sont dans un état relativement labile, pas forcément bien ancrées dans la mémoire. Elles vont alors subir des modifications, qui vont les rendre nettement moins sensibles à l'oubli : c'est la phase de consolidation. Sans rentrer dans les détails techniques, une partie de la consolidation a lieu lors du sommeil, ce qui explique l'effet positif du sommeil sur la mémoire. Il faut cependant préciser que la consolidation consolide les souvenirs autant qu'elle les élaborent, les rendant plus organisés et transférables. Les preuves de ce fait sont légion mais je ne vais en citer que quelques-unes. Par exemple, on sait que le sommeil a une influence positive sur la créativité ou la résolution de problèmes. Si on présente un problème ou une situation à résoudre à un sujet, celui-ci réussit nettement mieux si on le fait dormir entre la présentation du problème et sa première tentative de résolution. Et l'on sait que cela provient d'une réorganisation des informations acquises lors de la journée. La consolidation qui a lieu lors du sommeil permet au cerveau de réorganiser les connaissances acquises et de mieux les relier entre elles. On peut citer comme exemple l'étude suivante[1].

L'organisation de la mémoire déclarative et son fonctionnement[modifier | modifier le wikicode]

Le sens commun veut que l'oubli soit la traduction d'un effacement de l'information mémorisée. L'information aurait ainsi été encodée, puis aurait disparu du cerveau par on ne sait quel mécanisme. Mais quelques expériences ne vont clairement pas dans ce sens. Ces expériences comparent deux formes de rappel distinctes à encodage équivalent. Elles demandent à des sujets d'apprendre quelque chose (une liste de mots, une carte géographique ou n'importe quelle connaissance qu'elle soit simple, complexe, abstraite ou autre), avant de les interroger sur ce qu'il en ont retenu. Ces sujets sont divisés en deux groupes. Le premier doit réciter les informations apprises : on dit qu'il doit effectuer un rappel libre. L'autre doit reconnaître les informations de la liste parmi des pièges, des informations qui n'étaient pas dans la liste à apprendre : il s'agit d'un test de reconnaissance. Parfois, on ajoute un groupe qui doit réciter les informations apprises, mais qui reçoit des indices sur le matériel appris : il s'agit d'un teste de rappel indicé.

On observe alors que la reconnaissance est nettement plus facile que le rappel indicé, qui est lui-même plus facile que le rappel libre. C'est la preuve que les sujets peuvent se rappeler davantage d'informations si on leur donne des indices ou qu'on leur présente l'information apprise sous le nez. Les sujets n'arrivent pas à récupérer certaines informations dans le cas du rappel libre, mais ils y parviennent avec des indices ou un test de reconnaissance. Les informations n'étaient pas oubliées, elles étaient juste inaccessibles. La seule explication possible est que l'oubli provient d'un raté du processus de rappel, comme quand on a un mot « sur le bout de la langue ». Reste à expliquer pourquoi, d'où viennent ces différences entre reconnaissance et rappel.

Une mémoire organisée en réseau[modifier | modifier le wikicode]

L'explication de ce phénomène repose sur l'organisation des connaissances en mémoire. La mémoire à long terme est au moins en partie constituée d'un réseau de connaissances reliées entre elles. Par exemple, un mot est associé au concept qui porte ce nom, plusieurs idées sont reliées entre elles par un lien logique, etc. L'ensemble de nos connaissances est mémorisé dans un gigantesque réseau de concepts, réseau qui mémorise le sens des choses, les liens entre concepts.

Les tâche de reconnaissance et de rappel[modifier | modifier le wikicode]

Il existe plusieurs manières d'étudier le réseau sémantique et la mémoire. Les chercheurs distinguent les tâches de reconnaissance et de rappel libre ou différé. Les tests de reconnaissance présentent une information au sujet et lui demandent s'il la reconnaissent, s'il s'agit d'une information déjà sue. En comparaison, les tâches de rappel demandent au sujet de se souvenir de quelque chose. Les deux tâches se basent sur des mécanismes très différents, mais reliés.

La reconnaissance d'un item va automatiquement activer celui-ci en mémoire. Il s'agit donc d'un accès direct à l'information mémorisée. Elle se base purement sur un processus de familiarité, qui permet de reconnaître des choses connues. Il s'agit d'un processus relativement primitif et qui échoue rarement. Pour simplifier, le processus de reconnaissance "active" les connaissances : plus l'activation est forte, plus la probabilité de rappel/reconnaissance est grande.

Activation diffusante

Dans les tâches de reconnaissance, l'activation de la connaissance suffit à la récupérer. Mais dans les tâches de rappel, les choses changent. Le rappel libre ou indicé ne présente pas l'information à rappeler et ne l'active pas directement. A la place, la tâche de rappel va fournir des informations qui permettent de retrouver l'information demandée (les mots d'un énoncé, par exemple). L'information va devoir être retrouvée dans la mémoire, grâce à un processus de recherche, qui parcourt le réseau mnésique de proche en proche, en partant des informations données par la tâche de rappel. Ce processus de recherche est plus compliqué que la simple familiarité testé en reconnaissance, fait que l'on distingue la familiarité de la récupération. On peut faire une analogie avec un moteur de recherche. Quand vous cherchez quelque chose sur le net, vous tapez des mots-clés dans le moteur de recherche et celui-ci récupère les informations sur le réseau en fonction de ces mots-clés. Ces mots-clés sont au réseau ce que les indices de la tâche de rappel sont à notre mémoire mais l'analogie s’arrête là : les moteurs de recherche actuels ne fonctionnent absolument pas comme notre mémoire. Ce mécanisme de récupération est tellement efficace que Proust a écrit un livre rien qu'à partir de la perception d'une seule odeur, c'est vous dire !

L'activation diffusante et les indices de récupération[modifier | modifier le wikicode]

Toute tâche de rappel fait intervenir des indices, aussi subtils soit-ils, qui guident la recherche en mémoire. Par exemple, si vous prenez un énoncé de mathématique, qui vous demande quel est le terme qui correspond à telle ou telle définition, les mots de l'énoncé sont autant d'indices. Ces informations, ces indices sont appelés des indices de récupération. La reconnaissance de tel indice les active, et c'est là que le processus de recherche commence. L'activation se propage alors dans le réseau sémantique à travers les relations, ce qui peut déclencher le rappel des informations voisines. L'activation diffuse alors de proche en proche et active les concepts voisins de l'indice de récupération. Ce mécanisme s'appelle l'activation diffusante. Pour résumer, les associations d'idées sont autant de routes qui permettent d’accéder à l'information, de s'en souvenir. Les indices de récupération sont les points de départ de l'activation diffusante, l'information à rappeler étant un des points d'arrivée. Si un concept reçoit de l'activation en provenance de plusieurs relations, les activations propagées s'additionnent, facilitant d'autant plus le rappel ultérieur. Ainsi, plus un concept a un grand nombre de voisins dans ce réseau, plus il peut être rappelé facilement : chacun des voisins peut servir de voie d'accès. C'est ce qui explique que donner des indices (sous-entendu des indices supplémentaires à ceux présents dans la tâche de rappel initiale) facilite le rappel d'une information que l'on croyait avoir oubliée : l'activation d'un indice supplémentaire ajoute de l'activation, favorisant le rappel.

Il faut savoir que cette organisation en réseau de la mémoire joue un grand rôle dans la compréhension de texte, la résolution de problèmes, le raisonnement et la créativité. Prenons l'exemple de la créativité[2]. Comme le disait Steve Jobs, "creativity is just connecting things" : la créativité consiste juste à connecter des choses entre elles. Il faut dire qu'engendrer une chose originale demande systématiquement de la fabriquer à partir de connaissances antérieures : les idées ne naissent pas de nulle part ! Imaginer quelque chose consiste juste à activer les bonnes informations en mémoire pour les associer, ce qui implique fatalement une recherche des informations pertinentes en mémoire, via l'activation diffusante. Mais dans le cas de la créativité, les associations formées relient des concepts lointains, éloignés dans le réseau sémantique, qui partagent peu de propriétés. Être créatif demande donc de passer outre les associations les plus évidentes, pour se concentrer sur des associations éloignées, rares, incongrues. Diverses études ont tenté de mesurer les connexions formées dans les tests de créativité simple[3]. Et le résultat conforte l'intuition : les associations formées dans les tests de créativité relient des informations ou concepts éloignés.

Les mécanismes de l'oubli[modifier | modifier le wikicode]

L'oubli n'est pas l'absence de l'information en mémoire, mais son inaccessibilité, l'activation n'arrivant pas en quantité suffisante jusqu'au concept à rappeler. L'oubli dépend donc du réseau sémantique : si celui-ci est touffu, rempli de connaissances et d'associations d'idées, le travail de l'activation sera facilité et l'oubli rare. En comparaison, un réseau sémantique contenant peu de connaissances et de relations fera moins bien son travail, certaines informations étant peu accessibles. On en déduit rapidement qu'avoir un réseau mnésique touffu permet de faciliter le transfert des connaissances dans des situations variées. Une information fortement intégrée dans un réseau riche d'associations sera facilement accessible. Des situations très diverses réussiront à activer les indices qui mènent à cette information, quand cela est pertinent. Une bonne intégration facilite donc un rappel flexible des connaissances, base de tout transfert de connaissance, de toute analogie, de toute réflexion fine. C'est aussi pour cela que les connaissances abstraites sont facilement transférables dans de nombreuses situations. C'est parce qu'il s'agit de connaissances fortement intégrées dans le réseau mnésique, les rendant facilement accessibles, et donc adaptables/transférables, dans de nombreuses situations.

Cette inaccessibilité peut provenir de deux mécanismes : ou l'information n'a pas été reliée à beaucoup de voisins, ou elle interfère avec des informations voisines. Le premier mécanisme fait appel à un encodage peu élaboré, léger, mal fait. Il sera évoqué plus loin, dans le paragraphe sur l'encodage. Avec le phénomène d'interférence, une information parasite le souvenir d'une autre. Ces interférences ont lieu quand deux informations sont accessibles à partir des mêmes indices de récupération. Elles entrent alors en compétition pour le rappel et le cerveau va devoir choisir l’information à rappeler. Selon l'ordre d’apprentissage des informations interférentes, on distingue deux types d'interférences. L'interférence rétro-active remplace des connaissances anciennes par des connaissances plus récentes, alors que l'interférence pro-active fait que des connaissances anciennes gênent d'acquisition de nouvelles connaissances. La première permet de remplacer des connaissances erronées. Présenter les informations comme un ensemble de faits isolés favorise ce phénomène d'interférence, alors que les relier dans un cadre conceptuel général le diminue fortement.

Références[modifier | modifier le wikicode]

  1. REM, not incubation, improves creativity by priming associative networks. Caia, Mednickb, Harrisona, et Kanadyc, publié dans le journal PNAS.
  2. Pour ceux qui veulent en savoir plus sur les recherches sur la créativité, je vous conseille de lire cet article, publié par l'auteur du présent livre (Mewtow) sur un site externe : La créativité : l'innovation vue par la science
  3. Assessing Associative Distance Among Ideas Elicited by Tests of Divergent Thinking. Par Selcuk Alkar et Mark Runco, publié dans le "Creativity Research Journal" numéro 26, daté de 2014.



Faire des liens

Dans le chapitre précédent, nous avons vu que, pour être mémorisées ou comprises, les informations à apprendre doivent se connecter à des connaissances déjà présentes en mémoire. Ce processus d'association à ce qui est déjà supportée le petit nom d'élaboration. Dit autrement : apprendre, c'est faire des liens. Et plus un concept a de liens avec d'autres, plus celui-ci est compris, mémorisé efficacement, intégré dans une structure conceptuelle riche. Si un concept n’est pas relié à d’autres, il sera totalement isolé dans la mémoire sémantique et ne sera pas accessible : l’élève l’aura appris par cœur, mais il ne l'aura pas compris. Là où le "par cœur" donne naissance à un très faible nombre d'associations, la compréhension crée un grand nombre de relations lors de l'encodage. Comme le dit Develay : « Le sens vient des liens construits entre les savoirs et non pas de leur empilement. […] apprendre, ce n’est pas amasser, mais c’est relier des notions pour en construire d’autres plus abstraites ».

Mais cette élaboration n'a pas systématiquement lieu ou elle peut mal se passer, pour plusieurs raisons.

  • La première est la surcharge de la mémoire à court terme. Celle-ci est en effet l'endroit où les relations se forment, et sa capacité limitée pose alors un problème : si celle-ci est surchargée, du fait d'un nombre trop important d'items, les relations ne peuvent se former. Un chapitre complet sera dédié à cette problématique.
  • Une autre raison est que la plupart, si ce n'est tous les concepts, ne peuvent se former qu'en combinant des connaissances antérieures entre elles. Si ces connaissances ne sont pas acquises, l'apprentissage ne peut avoir lieu. Pour le dire autrement tout concept a des pré-requis, des connaissances sans lesquelles on ne peut pas le comprendre. Cela impose des contraintes assez fortes sur l'ordre d'apprentissage des notions : tel concept doit être appris avant tel autre s'il est un de ses pré-requis.
  • Enfin, on ne peut faire fi des liens logiques qui existent entre les savoirs. Force est de constater que l'on ne peut pas associer un quelconque concept avec n'importe quel autre. Pour intégrer au mieux les nouveaux concepts dans le réseau mnésique, il faut exploiter les liens avec les connaissances antérieures, ce qui demande d'organiser les informations d'une certaine manière. Présenter des connaissances comme une suite de faits isolés ne peut convenir, compte tenu de l'organisation en réseaux de la mémoire. On doit structurer ses explications d'une certaine manière, afin que l'apprentissage se fasse au mieux. L'ordre dans lequel on aborde les notions ne peut être arbitraire, mais doit refléter une certaine organisation logique, avoir une structure qui dévoile les liens entre les concepts à apprendre.

Ce chapitre va aborder chaque point dans l'ordre : il parlera rapidement de l'usage de la mémoire de travail, puis du bon usage des connaissances antérieures et enfin de l'élaboration.

La charge cognitive[modifier | modifier le wikicode]

Si la mémoire à long terme est sollicitée dans l'encodage, il ne faut pas oublier le rôle déterminant de la mémoire à court terme, aussi appelée mémoire de travail. Pour rappel, cette mémoire maintient à l'esprit une quantité limitée d'informations durant une dizaine de secondes. C'est elle qui sert à mémoriser un numéro de téléphone avant de le composer ou à comprendre ce que dit un professeur. L'idée principale est qu'elle a une capacité limitée à 4 informations maximum (autrefois, on pensait que c'était 7 ± 2). Des informations trop complexes ont donc tendance à saturer la mémoire de travail, perturbant l'apprentissage, contrairement à des informations simples.

La mémoire de travail est la porte d'entrée de la mémoire à long terme. Toute information doit passer en premier lieu par la mémoire de travail pour y être reliée à des connaissances antérieures. Il n'est donc pas étonnant que quelques études aient montré que la réussite scolaire est fortement corrélée à la capacité de la mémoire de travail. Par exemple, la capacité de la mémoire de travail à 5 ans est un bon indicateur de la réussite scolaire ultérieure [1]. De même, il existe une forte corrélation entre faible capacité de la mémoire de travail et échec scolaire[2].

Éviter de saturer la mémoire de travail lors de l'apprentissage est donc très important. Malheureusement, certaines pratiques pédagogiques ne tiennent pas compte la mémoire de travail. Les pédagogies actives, dans lesquelles l'élève doit réfléchir de manière autonome, sont une catastrophe de ce point de vue: elles demandent explicitement que l'élève soit mis face à des situations complexes dès le début de l'apprentissage. Les études expérimentales sur le sujet montrent clairement que ces pédagogies ont des résultats inférieurs aux autres [3][4]. Ce constat remet sur le devant de la scène une théorie pédagogique assez ancienne : la théorie de la charge cognitive. Créée par Sweller dans les années 1970, cette théorie a reçu de nombreuses vérifications expérimentales. Assez mal connue en France, elle commence à avoir une grande influence dans les pays anglo-saxons. Plusieurs chapitres de ce cours lui seront dédiés.

Les connaissances antérieures : de l'ordre primaire des notions[modifier | modifier le wikicode]

Pour être comprise, une nouvelle connaissance doit d'arrimer à ce qui est déjà su, elle doit être élaborée. Les connaissances antérieures sont donc la matière première de tout apprentissage : si elles ne sont pas là, l'apprentissage sera limité à du par cœur, l'élève ne pouvant rien élaborer. Plus les connaissances antérieures sont nombreuses, plus les nouveaux concepts auront de points d’amarrage sur lesquels s'associer. Là où un novice aura du mal à apprendre des définitions ou des connaissances de base, faute de pouvoir les associer à quelque chose de familier, l'expert pourra facilement retenir de nouvelles informations en les reliant à un vaste réseau de connaissances acquises de longue date.[5][6]

Une conséquence de cela est qu'apprendre beaucoup de choses permet de donner une bonne base aux apprentissages futurs[7][8]. Une grande partie des mauvais résultats des élèves provient d'ailleurs d'une sémantique trop pauvre en connaissances antérieures. Ce fait est bien illustré par le fait que les résultats scolaires sont bien corrélés aux savoirs acquis, bien plus qu'au QI ou toute autre mesure des capacités cognitives. Pour donner quelques chiffres, une étude d'Alain Lieury nous dit que la corrélation entre connaissances encyclopédiques en classe de 5e et résultats scolaire l'année suivante est d'approximativement 0,72. La corrélation est la même avec le taux de redoublement 4 ans plus tard. Notons que ces deux corrélations sont plus élevées que les corrélations avec les tests de QI ou de raisonnement (0,50)[9].

Pour résumer, l'apprentissage est un processus cumulatif dans lequel le savoir appelle le savoir. Plus on sait de choses, plus on pourra facilement relier de nouvelles informations à des connaissances antérieures. Cela a fait dire au psychologue Ausubel que le facteur le plus important dans l'apprentissage est ce que l'élève sait déjà :

« The most important single factor influencing learning is what the learner already knows. Ascertain this and teach him accordingly »

Les pré-requis : des acquis nécessaires[modifier | modifier le wikicode]

Pour commencer, insistons sur une évidence : lors de l'apprentissage, les informations à apprendre doivent avoir quelque chose auquel s'arrimer, se relier. Il arrive qu'elles ne se connectent à rien, alors qu'elles le pourraient. Diverses raisons techniques, comme une surcharge de la mémoire de travail, peuvent entrainer un tel résultat. Mais dans certains cas, il se peut que les connaissances à apprendre n'aient tout simplement rien à quoi se lier, ou tout du moins très peu de choses. Cela arrive pour les informations les plus basiques, celles qui sont à apprendre par cœur. Tel est le cas des tables de multiplications, des relations entre sons et lettres (correspondances graphèmes-phonèmes), des définitions de base en mathématiques (la définition d'un triangle), etc.

Dans d'autres cas, cela arrive à cause de mauvais choix pédagogiques, quand les concepts sont vu dans un ordre inadéquat. Rappelons que tout concept a des pré-requis, c'est à dire qu'il faut que certaines notions soient connues de l'élèves pour que le concept puisse être appris. Par exemple, vous ne pourrez pas faire comprendre la notion de multiplication à un élève qui ne sait pas ce qu'est l'addition, car l'addition est un pré-requis pour la multiplication. Dans le même genre, difficile de faire comprendre ce qu'est une dérivée à quelqu'un qui ne sait pas ce qu'est une limite, vu que la notion de limite fait partie intégrante de la définition de la dérivée. Si on peut tenter de faire comprendre un concept sans ses pré-requis, cela n’amènera qu'à un apprentissage par cœur qui donnera au mieux l'illusion de la compréhension. Pour éviter de construire sur des fondations qui ne sont pas là, le professeur doit impérativement construire ses progressions pour que les prérequis soient abordés avant la notion.

Les connaissances propédeutiques : facultatives, mais facilitatrices[modifier | modifier le wikicode]

Si les pré-requis doivent être connus de l'élève, d'autres connaissances antérieures peuvent s'associer aux nouveaux concepts. Par exemple, il est possible que le concept à apprendre s'associe à d'autres connaissances préalables, non-nécessaires pour comprendre le nouveau concept mais qui en facilitent l'acquisition. De telles connaissances sont appelées des connaissances propédeutiques. Par définition, elles ne sont pas nécessaires pour comprendre le concept : ce ne sont pas des pré-requis. Mais elles aident à comprendre le nouveau concept et en facilitent l'apprentissage. Elles permettent grossièrement de rattacher le concept à apprendre à quelque chose de connu.

Elles peuvent être utilisées pour former des analogies, par exemple. Pour illustrer ce cas, je vais prendre l'exemple des méthodes de simplifications des équations logiques, utilisées en électronique. Ces équations décrivent des circuits électroniques en utilisant une algèbre, l’algèbre de Boole, qui ressemble à l’algèbre normale sur certains points, mais pas sur d'autres. Eh bien les élèves qui ont une connaissance correcte de l’algèbre auront beaucoup plus de facilité à comprendre ces méthodes de simplifications que ceux qui sont mauvais en mathématiques. L’algèbre usuelle sert ici de connaissance propédeutique à l’algèbre de Boole. Et on pourrait citer d'autres exemples.

Quoi qu’il en soit, bien utiliser les connaissances propédeutiques demande de les introduire avant le concept dont elles facilitent l'apprentissage. Cela demande donc de bien séquencer les notions, de bien gérer leur ordre d'apprentissage, mais aussi parfois de rajouter des concepts dans le cursus, d'ajouter des connaissances qui sont réutilisées plus tard pour simplifier des explications ultérieures.

L'organisation du matériel à apprendre[modifier | modifier le wikicode]

Si la mémoire est formée d'un véritable réseau de connaissances, celles-ci ne sont pas disposées n'importe comment. L'organisation du matériel à apprendre est fondamentale : du matériel non-organisé, composé d’éléments isolés et déstructuré sera très difficile à apprendre, alors que du matériel structuré et organisé s'apprendra très facilement. Tout le défi est de trouver comment organiser le matériel à apprendre, afin de lui donner un maximum de sens. Il n'y a pas de recette miracle, mais on peut cependant parler de quelques formes particulières d'organisation. Dans ce qui va suivre, nous allons parler des classifications, qui permettent de relier des concepts proches sur la base de leurs ressemblances et de leurs différences. Nous parlerons aussi d'autres formes d'organisation, moins évidentes, mais qui peuvent s'appliquer à beaucoup de sujets.

Les classifications et catégorisations[modifier | modifier le wikicode]

La recherche sur la mémoire dite sémantique, celle des concepts et des faits, a longtemps mis l'accent sur une forme d'organisation bien précise : les classifications. Les concepts seraient ainsi organisés autour de classifications, spécifiques à un domaine ou à une discipline. La recherche a surtout étudié les classifications les plus simples, dites unidimensionnelles, que l'on peut représenter sous la forme d'une hiérarchie, d'une arborescence de catégories. On peut voir le tout comme un système de poupées russes : les catégories plus spécifiques sont incluses, emboîtées dans les catégories plus générales du niveau supérieur de la hiérarchie. Les concepts les plus concrets sont situés près de la base de la hiérarchie et les plus abstraits en haut. On peut préciser que les exemples sont intégrés dans ces hiérarchies : ils sont situés tout en bas et sont vus comme des catégories très spécialisées. Une telle hiérarchie est appelée une structure cognitive. Elle relie des concepts en faisant appel à trois types différents de relations :

  • les hyperonymies vont relier les catégories à des catégories plus générales qui englobent la catégorie de base : le concept « Cocker » sera relié au concept « Chien », le concept « Chat » sera relié au concept « Animal », etc. ;
  • les hyponymies vont relier chaque catégorie à ses catégories dérivées, les catégories plus concrètes qu'on obtient en spécialisant la catégorie avec l'ajout de propriétés : la catégorie « félins » sera reliée aux concepts de « chat », « tigre », « lion », « panthère », etc. ;
  • les relations structurales, qui relient les catégories et exemples à leurs propriétés : c'est grâce à ces relations qu'on sait qu'un oiseau peut voler, qu'un canari est jaune et ainsi de suite.

Un des premiers modèles de la mémoire sémantique, le modèle de Collins et Quillian se fondait exclusivement sur de telles structures cognitives, affirmant que les propriétés peuvent être communes. Par exemple, les concepts « oiseau » et « canari » partagent les propriétés suivantes : les deux peuvent voler, ont des plumes, des ailes, etc. Cela vient du fait qu'un canari est un oiseau, et qu'il hérite donc des propriétés communes à tous les oiseaux : toute sous-catégorie hérite des propriétés des catégories plus générales auxquelles elle est reliée. Le modèle gère ces propriétés héritées en ajoutant une hypothèse : l'économie cognitive. Cette hypothèse dit que seules les propriétés spécifiques à un concept sont reliées à celui-ci : les propriétés héritées d'un concept plus générales sont reliées uniquement au concept le plus général, mais pas aux autres concepts. Par exemple, les propriétés « peut voler », « a des ailes », « a des plumes » seront reliées au concept « oiseau », mais pas au concept « canari ». Ce mécanisme évite les duplications inutiles de propriétés.

Organisation des classifications en mémoire.

L'importance des classifications[modifier | modifier le wikicode]

Cette organisation permet de classer les concepts acquis, mais il rend aussi la mémoire "intelligente", dans le sens où certaines déductions consistent en une simple recherche en mémoire. Ces inférences sont surtout des inférences catégorielles qui entraînent un jugement avec des catégories, à savoir les questions du type "est-ce que X possède la propriété Y ?". Ces déductions sont extrêmement courantes, non seulement dans la vie quotidienne, mais aussi en milieu scolaire. On peut illustrer comment la mémoire permet de répondre à ces questions, avec l'exemple qui va suivre. Supposons qu'on demande à un sujet si un chat a des poumons. Le fait est qu'avoir des poumons n'est pas forcément une propriété intrinsèque au concept de "chat", mais est une propriété de concepts plus généraux, comme le concept de "mammifère". Or, l'activation du concept "Chat" activera automatiquement les catégories superordonnées, permettant d’accéder aux propriétés héritées des concepts plus généraux. Par exemple, un enfant saura qu'un chat a des poumons parce qu'il sait qu'un chat est un mammifère et que les mammifères ont des poumons. En clair : l'activation diffusante dans une structure cognitive permet de faire des inférences, des déductions sur les propriétés des objets et des concepts.

Ces classifications permettent d'organiser ce que l'élève doit apprendre, facilitant ainsi le rappel ultérieur. Comme le dit un peu abusivement Alain Lieury, comprendre, c'est classer. Si l'élève ne dispose pas de ces structures cognitives, l'apprentissage ultérieur sera moins efficace. Lieury, Lemoine et Le Guelte l'ont montré dans une expérience où des enfants de différents niveaux scolaires devaient mémoriser une liste de mots : un groupe témoin recevait une liste désorganisée alors que l'autre avait droit à une liste organisée en structure cognitive. Pour les élèves de 4e et 6e, cette organisation était très efficace : les élèves disposaient des structures cognitives qui permettaient un gain de mémorisation de la liste. En revanche, les élèves de CM1 ne disposaient pas vraiment des structures cognitives nécessaires, qui n'avaient pas encore été acquises par instruction : l'organisation en structure cognitive ne donnait pas de gain comparé au groupe témoin.

Apprendre demande d'arrimer les nouvelles connaissances dans une structure cognitive, si possible à des catégories ni trop générales ni trop spécifiques. Et à ce petit jeu, l'ordre d'apprentissage des concepts vient mettre son grain de sel. Par exemple, un enfant de 6/7 ans sait qu'un chat est un animal, mais ne connaît pas la notion de mammifère : la hiérarchie n'est donc pas parfaite et l'apprentissage du concept de mammifère ne supprimera pas le lien fait entre chien et animal. Choisir l'endroit où placer un nouveau concept dans cette structure est très important. Cela évite à l'élève de croire que certaines propriétés ne sont valables que pour une classe restreinte de concepts alors que ce n'est pas le cas : de telles sous-généralisations sont assez courantes. Cela évite aussi les sur-généralisations, dans lesquelles l'élève croit que certaines propriétés sont valides pour une classe de phénomènes ou d'objets alors que ce n'est pas le cas.

Généraliser ou dériver ?[modifier | modifier le wikicode]

Au passage, on peut se demander dans quel ordre parcourir les classifications et autres structures cognitives : faut-il partir du haut pour redescendre, ou au contraire partir des concepts les plus spécialisés et remonter progressivement ? Cette question peut se reformuler ainsi : faut-il partir des concepts généraux pour ensuite en déduire les concepts plus particuliers, ou au contraire faut-il partir du particulier pour abstraire progressivement des concepts plus généraux. Les deux méthodes sont à adopter selon le sujet abordé et les circonstances. La méthode qui va du particulier vers le général est appelée méthode par généralisation. Elle part des concepts particuliers et cherche à en extraire les points communs pour former un concept plus général. Elle met l'accent sur les ressemblances entre concepts, elle demande d'abstraire quelque chose de commun à plusieurs exemples. La méthode opposée, appelée méthode par dérivation, dériver les concepts particuliers en ajoutant des propriétés à un concept plus général. Avec cette méthode, des concepts proches sont abordés séquentiellement, à la suite du concept commun, de la catégorie super-ordonnée. Ce faisant, les concepts semblables sont abordés selon les différences qu'ils entretiennent, les propriétés qu'ils ne partagent pas.

Il est certain que certaines classifications sont plus faciles à comprendre en partant des concepts généraux et en les spécialisant, alors que d'autres sujets sont plus simples à comprendre avec l'autre méthode. Une des raisons à cela est la familiarité des concepts à aborder : mieux vaut commencer par aborder les concepts les plus familiers, ceux que l'élève peut comprendre plus facilement, ceux qu'il peut relier à des choses déjà connues. Dans certains cas, les catégories générales peuvent être peu intuitives pour l'élève, contrairement aux catégories particulières. Un exemple serait la classification des animaux : la différence entre un chat et un lion (tous deux des félins) est plus intuitive que la différence entre mammifères marsupiaux et placentaires. Mais ce n'est pas un reproche général : il existe de nombreux cas où les catégories générales sont au contraire plus familières que les catégories particulières. Pensez par exemple à la classification des arbres : la différence entre un feuillu et un conifère est plus simple à comprendre que la différence entre un hêtre d'un chêne. De manière générale, la familiarité ne dépend pas trop de la place dans la hiérarchie de la structure cognitive. Les chercheurs ont longtemps pensé que les concepts intermédiaires, ni trop généraux, ni trop particuliers, étaient ceux qui étaient les plus facilement appris, mais la roue a un peu tourné depuis. Ce n'est pas un cas général.

Si l'on se trouve dans un cas où ce détail ne joue pas ou peu, on peut trouver des défauts à la méthode par généralisation, que la méthode par dérivation n'a pas. Déjà, la méthode par dérivation a une charge cognitive plus faible, elle fait un meilleur usage des ressources limitées de la mémoire de travail. Elle part des concepts qui ont le plus petit nombre de propriétés et chaque dérivation d'un nouveau concept ajoute quelques propriétés. A chaque étape, le nombre de propriétés à ajouter tient facilement dans la mémoire de travail. Par contre, la méthode par généralisation demande à l'élève de mémoriser un grand nombre de propriété pour chaque concept. Elle part en effet des concepts les plus particuliers, qui ont un grand nombre de propriétés. De plus, chaque étape demande de comparer divers concepts, et d'en dégager les propriétés commune. Toutes les propriétés de tous les concepts doivent être analysées pour en dégager un motif commun. La charge de la mémoire de travail est alors extrême. Autant dire que cette méthode est assez compliquée à utiliser et qu'elle donnera de mauvais résultats chez les élèves faibles, qui ont une mauvaise mémoire de travail.

Un dernier défaut de la méthode par généralisation est qu'elle met l'accent sur les ressemblances entre concepts. Or, plus deux concepts sont semblables, plus ils ont de chances d'être reliés aux mêmes indices de récupération. Ils peuvent alors interférer entre eux lors du rappel, ce qui les rend plus faciles à confondre. Ausubel qualifie ce genre de phénomène d'assimilation oblitératrice. Ce phénomène n'a pas lieu si on met l'accent sur les différences entre deux concepts, ce que fait la méthode par dérivation. Deux concepts différents, dérivé du même concept général, seront mis en contraste l'un avec l'autre, ce qui accentuera leurs différences. Cela nous dit qu'il vaut mieux aborder les concepts en partant du général pour aller vers le particulier, pour limiter les interférences.

Les relations thématiques[modifier | modifier le wikicode]

Il est vite apparu que les classifications ne sont pas l'alpha et l'oméga de l'organisation mentale. Cette organisation rigide qu'est la structure cognitive ne suffit pas à rendre compte des résultats expérimentaux, même les plus simples. Les structures cognitives ne sont pas forcément aussi bien organisées, le principe d’économie cognitive est au mieux approximatif, et la forme exacte des classifications dépend de l'ordre d'apprentissage des concepts. Il existe aussi des classifications qui ne s'expriment pas facilement sous la forme de structures cognitives, mais passons. Attardons-nous à la place sur un fait bien plus intéressant : on sait aujourd'hui que d’autres formes de relations existent, qu'il s'agisse de relations de causalité entre évènements, de relations qui permettent de localiser des objets, et bien d'autres encore. Ces relations sont regroupées, par convention, dans un ensemble extrêmement hétérogène appelé relations thématiques.

Les relations thématiques permettent décrire des objets ou de former une représentation de situations ou d'évènements. Pour simplifier, les professeurs sont intéressés par deux types de relations thématiques : les relations de causalité, et les relations de méronymie (les relations partie-tout). Les premières sont clairement les plus intéressantes, car elles sont le fondement même des explications (ou tout du moins de la majorité d'entre elles). Elles permettent de comprendre pourquoi certains évènements ont lieu, elles permettent de se représenter des systèmes, des mécanismes, des évènements. Mais il y a malheureusement peu à dire sur le sujet. Par contre, les relations de méronymie sont plus intéressantes. On peut aussi parler de manière générale des autres relations thématiques, notamment pour parler des concepts abstraits, des détails et autres.

Les relations de méronymie : le lien entre un tout et ses parties[modifier | modifier le wikicode]

Les relations de méronymie décrivent les relations entre un objet et ses parties. Tout ce que l'on peut dire est qu'elles permettent de représenter des objets ou situations complexes, que l'on peut décomposer en éléments plus petits. Dès qu'un regroupement spatial existe, ces relations interviennent systématiquement. Par exemple, on peut citer le cas d'un sous-domaine de l'électronique : l'architecture d'un ordinateur. Ce domaine étudie comment fonctionnent les ordinateurs, comment concevoir leurs circuits, etc. Les ordinateurs sont composés de circuits (processeurs, RAM, I/O), qui sont eux-mêmes composés de sous-circuits (ALU et décodeur d'instruction pour le CPU, plan mémoire et décodeur pour la RAM, et autres), qui eux-mêmes sont composés de sous-sous-circuits (additionneurs, ...) et ainsi de suite jusqu'aux transistors. Un autre exemple est celui de l'anatomie : le corps humain est composé de systèmes (immunitaire, digestif, nerveux, ...) eux-mêmes composés d'organes, eux-mêmes composés de tissus, eux-mêmes composés de cellules, elles-mêmes composé d'organites, etc. On peut se représenter le tout sous la forme d'une hiérarchie d'objet imbriqués les uns dans les autres, comme des poupées russes.

Nous en reparlerons plus en détail dans le chapitre sur la charge cognitive, où nous verrons comment exploiter ces relations au mieux. Pour anticiper, on va montrer que dans certains cas, il vaut mieux voir les parties indépendamment les unes des autres, avant de les combiner pour former un tout. La problématique est assez similaire à celle des relations taxonomiques : doit-on partir des morceaux pour les combiner en un tout, ou doit-on partir du tout et le décomposer en parties ? Dans le premier cas, on parle d'approche ascendante, alors que le second est celui d'une approche descendante. Le fait est que cela dépend du sujet abordé, mais certains sujets sont plus faciles à aborder avec une approche ascendante, pour des raisons qui impliquent la mémoire de travail. Quand cela arrive, il faut alors mieux voir chaque partie indépendamment les unes des autres, avant de les combiner. Cela n'est pas forcément facile, et faire ainsi peut réduire l'élaboration. Le fait de séparer ainsi les parties peut forcer à retard l'introduction de certaines notions, retardant l'établissement d'associations d'idées. Mais cela réduit la charge de la mémoire de travail, pour diverses raisons.

Les relations générales (causalité et autres)[modifier | modifier le wikicode]

Du point de vue de l'élaboration, il est possible de placer les concepts sur un continuum qui va des détails (les plus précis et plus ciblés) aux grands principes et idées générales (plus abstraites). Les détails sont souvent isolés, reliés à un petit nombre de concepts, guère plus, alors que les idées générales sont souvent des concepts centraux, qui servent de hub dans les réseaux sémantiques. Si les détails se mémorisent, les idées générales et grands principes se comprennent. Alors certes, les détails et anecdotes sont importants, mais ils devraient idéalement être intégrés dans un socle de connaissances conceptuelles qui leur donnent un sens, qui permettent de les relier entre eux. Et pour cela, les idées générales sont les plus indiquées : elles servent de liant qui colle les détails entre eux. Les faits ne valent rien par eux-mêmes, du moins tant qu'ils ne sont pas interconnectés entre eux. Attention, cependant : cela ne signifie pas que le par cœur est mauvais, mais que les connaissances acquises par cœur doivent être reliées entre elles par la suite.

Une raison à cela est que les cas abstraits regroupent un grand nombre de situations, ils sont capables de s'adapter à de nombreuses situations ou problèmes. Par exemple, une méthode assez générale permet de résoudre un grand nombre de problèmes, là où les méthodes ciblées sont moins rentables. Les connexions sont alors plus nombreuses avec les méthodes générales, qui s'associent avec un grand nombre d'exemples et d'applications, contrairement aux méthodes ciblées. Attention : cela ne signifie pas que les méthodes ciblées soient inutiles : elles peuvent être plus rapides à appliquer, mais elles sont plus difficiles à retenir. Une méthode très situationnelle sera souvent moins entrainée, moins associée à des exercices ou exemples, contrairement aux méthodes générales, appliquées sur un plus grand nombre d'exercice/exemples. Le raisonnement vaut aussi pour les concepts généraux, qui s'instancient dans un plus grand nombre de cas, comparé aux concepts plus précis et ciblés.

Les recherches en compréhension de texte ont montré que l'extraction des idées générales d'un texte est un processus extrêmement important pour la compréhension. On peut le montrer avec quelques expériences assez simples. Une des expériences les plus marquantes à ce sujet fut celle sur l'effet intégrateur du titre. Dans celle-ci, l'expérimentateur constitua trois groupes de cobayes qui devaient tous lire un même texte compliqué : un des groupes de cobayes connaissait le titre après avoir lu le texte, tandis que l'autre avait accès au titre avant la lecture. Le groupe qui avait eu accès au titre avant le texte réussissait mieux que l'autre. Cela vient du fait que le titre donne l'idée générale du texte, idée sur laquelle les informations vont venir s'associer progressivement : cela permet de donner du sens au texte et de créer un maximum d'associations. Le fait que le titre doit être placé avant le texte pour avoir un effet le montre : il n'y a pas beaucoup d’associations retardées, à rebours.

Cette abstraction des connaissances acquises influence non seulement la mémorisation mais aussi l'utilisation ultérieure des connaissances, leur transfert. Pour en donner un exemple, on peut citer la fameuse étude de Chi et al. (1981). Dans celle-ci, les expérimentateurs ont observé comment des experts (des professeurs de physique) et des novices (des étudiants en début de cursus) catégorisaient des exercices de physique. Leur étude a montré que les novices ont tendance à fonder leurs analyses sur des détails présents dans l'énoncé (coefficients numériques, vocabulaire utilisé, ...), alors que les experts ont tendance à penser en fonction d'idées générales et de principes abstraits (la loi de conservation de l'énergie, la quantité de mouvement, ...). Au fur et à mesure que les étudiants progressent dans leurs études, ils classent de plus en plus ces exercices en fonction des caractéristiques générales.

Références[modifier | modifier le wikicode]

  1. "Investigating the predictive roles of working memory and IQ in academic attainment", Alloway en 2010
  2. "The cognitive and behavioral characteristics of children with low working memory", Alloway, Gathercole, Kirkwood, Elliott (2009)
  3. "Why minimal guidance during instruction does not work: an analysis of the failure of constructivist, discovery, problem-based, experiential, and inquiry-based teaching"
  4. "Putting students to the path for leaning, a case for fully guided instruction", par Clark, Sweller et Krishner.
  5. Rittle-Johnson, B., Star, J. R., & Durkin, K. (2009). The importance of prior knowledge when comparing examples: Influences on conceptual and procedural knowledge of equation solving. Journal of Educational Psychology, 101(4), 836-852.http://dx.doi.org/10.1037/a0016026
  6. Memory & Cognition, October 2007, Volume 35, Issue 7, The effects of prior knowledge and text structure on comprehension processes during reading of scientific texts.
  7. Bandalos, Finney, & Geske, 2003
  8. E. Wood, Willoughby, Bolger, & Younger, 1993
  9. Alain Lieury (1996)



Élaboration : quelques techniques

On a vu auparavant que l'encodage se fonde essentiellement sur l'élaboration, ce qui fait que l'on retient mieux les choses que l'on a comprises, celles auxquelles on peut attacher une signification quelconque. Par exemple, l’expérience de Moreau (1973) a montré que l'on retient mieux une liste de villes en reliant celles-ci avec un trajet de Tour de France imaginaire. D'autres expériences faites sur des listes de dates ont montré qu'expliciter les relations de causalité entre des événements permet de mieux mémoriser la liste des dates associées. Ensuite, il existe bien des connaissances qui n'ont pas vraiment de sens et qui doivent être apprises par cœur. Les fameuses tables de multiplication et d'addition en sont un exemple mais des connaissances plus avancées entrent aussi dans cette catégorie.

Cette élaboration dépend surtout des connaissances antérieures de l'élève mais la formulation des explications joue aussi un rôle plus léger. Il semble évident que l'élaboration sera meilleure avec un cours qui explique pourquoi les choses sont ce qu'elles sont, d'où sortent les faits appris dans le cours, quelles sont les raisons, les principes physiques derrière les choses, comment les déduire à partir de principes de base, etc. Pour donner un exemple, les démonstrations mathématiques permettent de faire émerger naturellement de nombreuses associations. Mais de telles explications peuvent être complétées par divers outils pédagogiques, les principaux étant les procédés mnémotechniques, l'usage d'exemples, l'analogie, le questionnement, les histoires et les advances organisers. Les exemples auront un chapitre dédié, tant il y a a dire de choses dessus, ce qui fait que nous n'en parlerons pas dans ce chapitre. Nous parlerons des procédés mnémotechniques dans le chapitre sur les méthodes d’élaboration liées aux révisions. Dans ce chapitre, nous étudierons plus en détail les autres techniques.

Le bon usage des supports pédagogiques[modifier | modifier le wikicode]

Cela ne vous étonnera sans doute nullement, mais utiliser les bons supports pédagogiques permet souvent de faciliter l'élaboration. Par supports pédagogiques, nous voulons parler de l'usage de certaines notations (symboles mathématiques, chimiques, autres), de schémas ou d'illustrations, etc. Ces techniques permettent de simplifier les explications et peuvent rendre plus explicites les liens entre concepts, bien plu facilement qu'un long discours ne pourrait le faire. A cela, nous allons rajouter la manière de prendre des notes, qui modifie la manière dont l'élève traite ce qui lui est raconté. Précisons qu'un chapitre complet sera dédié à la fabrication des supports pédagogiques. Ce chapitre utilisera les acquis de la théorie de la charge cognitive pour aider les professeurs à concevoir des supports pédagogiques efficaces. Pour le moment, nous allons parler de quelques outils qui favorisent l'élaboration, sans parler de la charge cognitive. Les outils en question sont utiles à la fois aux enseignants et aux élèves.

L'usage de schémas, diagrammes et illustrations[modifier | modifier le wikicode]

Une autre manière pour faciliter l'élaboration est d'utiliser au mieux le support visuel. Après tout, le proverbe le dit si bien : un bon schéma vaut mieux qu'un long discours. La raison à cela est qu'utiliser des schémas, des diagrammes et des illustrations peut rendre plus évidentes les relations entre différents concepts. Un long discours est souvent assez compliqué à comprendre, et impose une charge cognitive qui n'est pas négligeable. Il faut se concentrer sur ce que le professeur raconte, ne pas en oublier une miette, tout en réfléchissant pour traiter ce qui est entendu. Les associations entre idées ne sont alors pas toujours des plus visibles, surtout si l'explication est longue et/ou complexe. En comparaison, un bon schéma réduit la charge cognitive car il permet de rendre les associations entre concepts plus simplement. Toutes les associations entre idées sont visibles simultanément, là où le discours ne le permet pas.

Théorie du double codage. On voit que la mémoire est composée d'un réseau verbal/conceptuel, et d'un réseau pour les informations visuelles. Des relations dites référentielles permettent de connecter des concepts avec leur représentation visuelle, l'image mentale du concept. Celle-ci permettent de s'imaginer un concept.

Mais il y a aussi une autre raison à cela. Certains chercheurs considèrent que la mémoire sémantique ne mémorise pas que des concepts, mais aussi des informations visuelles, auditives, etc. Par exemple, la théorie du double-codage stipule que la mémoire contiendrait un réseau verbal, qui mémorise des concepts et un réseau visuel qui mémoriserait des images mentales et des représentations visuelles. Cette théorie a été inventée pour expliquer les différences de mémorisation entre concepts concrets et abstraits. Expérimentalement, il est observé que les concepts concrets sont plus faciles à retenir que les concepts abstraits. Cela viendrait du fait que les concepts concrets sont généralement visualisables, contrairement aux concepts abstraits. On peut s'imaginer mentalement à quoi ressemble un chat, alors qu'il est plus difficile de donner une représentation des concepts de liberté ou de justice (sauf par métaphore ou analogie). Ainsi, les concepts concrets seraient représentés dans les deux sous-réseaux, tandis que les concepts abstraits le seraient uniquement dans le réseau verbal. La redondance des concepts concrets/imaginables les rendrait plus mémorables. Nous verrons quelles sont les conséquences pédagogiques dans le chapitre sur les supports pédagogiques.

Les conseils pédagogiques que l'on peut déduire de tout cela sont assez simples. Outre le système verbal, conceptuel, il est aussi possible d'utiliser le système visuel de la mémoire postulé par la théorie du double codage. Le principe est de faire en sorte que les concepts soient mémorisés à la fois dans la mémoire verbale et dans la mémoire visuelle, autant que possible. On parle alors de double codage. La conséquence est qu'utiliser des illustrations, dessins et schémas est une bonne pratique pédagogique. Évidemment, ce n'est pas possible pour les concepts abstraits et de nombreux concepts sont rétifs aux illustrations. Difficile de donner des schémas en cours de philosophie, par exemple. Mais beaucoup de concepts peuvent recevoir une représentation visuelle, et l'usage de schémas, de notations, de graphiques, et autres est clairement un atout. Nous détaillerons davantage ce conseil dans le chapitre consacré aux supports pédagogiques.

La prise de notes[modifier | modifier le wikicode]

Aussi bizarre que cela puisse paraitre, la prise de notes influence l'élaboration du matériel reçu, que ce soit en bien ou en mal. Dit autrement, toutes les prises de notes ne se valent pas. La prise de notes usuelle, qui consiste à recopier verbatim ce que raconte le professeur, est ainsi peu utile. Il s'agit en effet d'une situation de double tâche où le sujet doit faire deux choses à la fois : écouter et recopier demande d'analyser la forme, pas le fond. Les traitements sur cette forme utilisent des ressources cognitives qui auraient pu servir pour la compréhension. L'élève devant se concentrer sur les aspects orthographiques et phonétiques du discours ne pourra pas traiter en même temps le sens de ce qui est dit.

Cela explique que la prise de notes sur ordinateur est moins efficace que la prise de notes manuscrite chez la majorité des élèves. L'ordinateur permet de noter rapidement, ce qui fait que les élèves ont tendance à noter tout ce que raconte le professeur. En comparaison, noter à la main est nettement plus lent, ce qui fait que les élèves ne peuvent noter tout le cours, mais seulement ce qui est important. Pour cela, ils doivent analyser ce que le professeur raconte pour en dégager les idées générales et les principes importants, ce qui entraine de facto une élaboration du matériel écouté. La prise de notes sur ordinateur est donc une prise de notes verbatim, contrairement à la prise de note écrite.

Pour éviter les défauts de la recopie manuscrite verbatim, divers outils de prise de notes élaboratifs ont étés inventés. Les cartes mentales et schémas conceptuels en sont de bons exemples. Il s'agit de dessins sur lesquels on représente les concepts par des bulles, qui sont reliées entre elles par des associations ou relations logiques. Expérimentalement, ces cartes mentales sont un outil de prise de notes assez efficace[1][2][3][4].

Exemple de carte mentale.

On peut poursuivre avec les synthétiseurs. Il s'agit de diagrammes ou de dessins qui permettent de résumer et d'intégrer les informations apprises dans un cours dans un tout cohérent. Dans ceux-ci, les noms des concepts sont simplement reliés entre eux par des flèches qui indiquent quelle est la relation entre chaque concept. Cependant, on ne doit pas mélanger les relations d'inclusion, de causalité et de méronymie. On trouve ainsi un synthétiseur différent pour les relations catégorielles et les relations causales. Dans le cas des relations d'inclusion et de méronymie, l'ensemble forme une hiérarchie. Dans le cas des relations causales, l'ensemble doit former un réseau, éventuellement une chaine de concepts ou d’événements reliés entre eux par des flèches.

Au passage, vous remarquerez que les cartes mentales, synthétiseurs et schémas conceptuels sont des représentations visuelles. Ce qui rejoint ce qui a été dit dans la section précédente : le suppoort visuel permet de rendre compte plus facilement des associations et relations entre concepts.

Les analogies et les méthaphores[modifier | modifier le wikicode]

Il existe un moyen très simple pour connecter un concept à quelque chose de connu : l'usage d'analogies. L'analogie est un processus mental relativement simple, qui consiste à créer des relations entre une situation cible et une relation source. Le cas le plus simple d'analogie correspond à des problèmes du style : « trouver un A qui est à B ce que C est à D ». Ces problèmes se résolvent en plusieurs étapes :

  • l'encodage sélectif, qui consiste à identifier les propriétés des concepts utiles pour résoudre le problème ;
  • l'inférence de la relation entre C et D ;
  • la mise en correspondance, la découverte de la relation entre B et D ;
  • et enfin l'application, qui consiste à relier A et B par une relation analogue à celle entre C et D.

Par exemple, prenons l'analogie suivante : « Freud est à la psychanalyse ce que Mendel est à la génétique ». La première étape consiste à relier Freud avec Mendel, et psychanalyse avec génétique. Ensuite, la deuxième étape consiste à copier la relation entre Freud et psychanalyse sur les éléments qui correspondent, à savoir Mendel et génétique.

Les analogies plus complexes sont gérée par un processus identique, mais appliqué à des situations plus complexes. Ces situations sont représentées mentalement par des ensembles d’éléments reliés entre eux par des relations (logiques ou non). L'analogie met en correspondance chaque élément ou relation de la situation cible avec son équivalent dans la situation source. Pour faire une analogie parfaite, les éléments des deux situations doivent être connectés de la même manière dans les deux situations : si deux éléments d'une situation source sont reliés entre eux, alors les deux éléments correspondant dans la situation cible doivent aussi être connectés entre eux par une relation similaire. Les deux situations ont donc la même structure, elles partagent un même motif abstrait.

Quand utiliser des analogies ?[modifier | modifier le wikicode]

Utiliser une analogie demande de respecter quelques recommandations. Premièrement, l'analogie n'est utile que pour les élèves qui n'ont pas beaucoup de connaissances antérieures. En effet, les élèves ont tendance à effectuer automatiquement les analogies qui leur paraissent évidentes. Cela arrive quand les élèves reçoivent un enseignement dans des domaines qu'ils maîtrisent bien, ou qu'ils ont étudiés depuis quelques années. En clair, les analogies doivent introduire des concepts nouveaux, jamais vus auparavant. Cet effet est bien illustré par l'expérience de Donnelly et McDaniel, datée de 1993, qui a étudié la compréhension de principe de conservation du moment cinétique par des élèves de collège.

Ensuite, les analogies sont utiles uniquement pour les concepts complexes, difficiles à comprendre. Diverses études ont ainsi échoué à montrer un quelconque avantage de l'analogie, parce que les concepts à apprendre étaient trop simples, ce qui rendait l'analogie inutile. Dans ces conditions, l’analogie était une redondance inutile.

Comment utiliser des analogies ?[modifier | modifier le wikicode]

En plus de savoir quand utiliser les analogies, il faut savoir comment bien les utiliser. Pour faire une analogie parfaite, les éléments des deux situations doivent être connectés de la même manière dans les deux situations : si deux éléments d'une situation source sont reliés entre eux, alors les deux éléments correspondant dans la situation cible doivent aussi être connectés entre eux par une relation similaire. Cependant, cette mise en correspondance n’est pas toujours parfaite. Par exemple, certains éléments ne peuvent pas être mis en correspondance. De même, la structure des deux situations n’est pas forcément identique : les deux structures sont partiellement analogues. Dans ces conditions, il est important d’expliciter les différences entre situation cible et source. Sans cela, les élèves vont croire que les deux situations ont la même structure, et vont mal transférer.

Prenons un exemple bien connu : l'analogie entre intensité d'un courant électrique et débit hydraulique. Il est courant de comparer courant électrique et écoulement d'eau : le débit de l'écoulement est à l'eau ce que le courant électrique est aux charges électriques. De nombreux aspects des courants électriques suivent des loi physiques similaires ou identiques à celles qui gouvernent les écoulements hydrauliques. Dans une étude de 1983, Gentner a étudié les effets de cette analogie sur des élèves de collège. Son étude a montré que l'analogie permettait aux élèves de mieux comprendre les phénomènes électriques à l’œuvre dans une batterie. Mais cette analogie ne fonctionnait pas pour la compréhension des montages avec des résistances en série ou en parallèle. Cela provenait du fait que les élèves qui avaient reçu l'analogie pensaient que le courant fournit par le générateur restait constant quelque soit la disposition des résistances, de la même manière que le débit fourni par un réservoir reste constant. En réalité, le courant émis par un générateur dépend de la disposition des résistances : le courant n'est pas le même si le montage utilise des résistances en série ou en parallèle

Les histoires[modifier | modifier le wikicode]

Raconter des histoires en classe peut sembler relativement incongru mais il s'agit pourtant d'une technique qui semble faire ses preuves. Il se trouve que les histoires ont des avantages pédagogiques intéressants. Elles sont plus intéressantes, plus faciles à comprendre qu'un texte explicatif, et plus faciles à mémoriser[5]. Ces trois avantages proviennent d'une raison commune : la structure narrative force l'auditeur à relier les divers évènements de l'histoire suivant des liens de cause à effet[6]. Il faut dire que les évènements d'une histoire ne surviennent pas par hasard et les auditeurs s'attendent à ce qu'ils soient causés par d'autres. Lors de l'écoute ou de la lecture, les auditeurs vont naturellement chercher les relations de cause à effet entre évènements, favorisant l'élaboration, et donc la compréhension, la mémorisation de l'histoire, mais aussi l'intérêt de l'auditeur. En comparaison, les auditeurs d'un discours explicatif ne s'attendent pas forcément à ce que les connaissances évoquées soient reliées par des relations de cause à effet, celles-ci n'étant saillantes que si les explications sont correctement formulées ou que l'élève essaie de comprendre au mieux ce qu'on lui raconte. La structure narrative elle-même favorise de telles attentes et donc un traitement élaboratif du matériel lu/énoncé.

Ce conseil peut sembler limité, les contenus n'étant pas tous adaptés à une exposition narrative. Certes, les leçons d'Histoire (la matière) pourraient suivre une telle approche. Certaines leçons de sciences peuvent aussi suivre une approche historique qui explique comment les connaissances ont étés découvertes, en illustrant les expériences réalisées par les savants qui ont fait l'histoire. Mais au-delà de ces exemples, ce conseil semble peu avisé.

Pour ceux qui veulent en savoir plus, je conseille la lecture de l’article suivant, écrit par Daniel Willingham, spécialiste en psychologie cognitive et sciences de l'éducation américain : Why people love and remember stories.

Poser des questions[modifier | modifier le wikicode]

Une autre méthode demande à l'élève de réfléchir, de générer une partie du savoir à apprendre. Le fait que l'élève réfléchisse le force à élaborer, à former des relations, à générer des associations d'idées. Évidemment, l'élève réfléchit aussi quand il écoute son professeur, vu qu'il essaye de comprendre ce qui est raconté. Cependant, la situation où l'élève réfléchit est, sous certaines conditions assez restrictives, plus efficace de ce point de vue. La conséquence est que les connaissances générées par soit-même sont mieux mémorisées que celles qui sont simplement lues ou écoutées. Cela est bien résumé par Daniel Willingham, quand il dit que la mémoire est le résidu de la pensée. Les scientifiques résume cet état de fait sous le nom d'effet de génération. Cependant, si cet effet est assez robuste, il est à utiliser avec précaution dans une salle de classe, comme nous allons le voir dans ce qui va suivre.

Faire penser les élèves demande des méthodes pédagogiques ne demande pas forcément de changer ses pratiques pour des méthodes révolutionnaires. Le simple fait de poser des questions peut suffire, sous condition que l'élève doive réfléchir pour trouver la réponse. En clair, il suffit de poser aux élèves des questions ou des exercices qui demandent de la réflexion, comme des questions de compréhension ou des questions dont la réponse se trouve par un petit raisonnement. Ces questions doivent forcer les élèves à réfléchir sur ce qu'ils viennent d'apprendre. On donne parfois le nom, assez pompeux, de questions profondes à de telles questions/énoncés. Ce terme souligne le fait qu'une réflexion superficielle ne permet pas d'en trouver la réponse. Utilisé intelligemment, et avec parcimonie, ce questionnement permet de faire penser les élèves.

Il est recommandé de poser des questions qui demandent à l'élève d'expliquer et de justifier sa pensée. L'élève ne doit pas seulement donner la réponse, mais aussi la justifier, l'expliquer, montrer le raisonnement qui lui a permis d'atteindre la réponse. Cela force l'élève à réfléchir à sa réponse et à faire de nombreuses inférences et associations d'idées. Cela permet aussi de vérifier que l'élève a bien compris - l'élève peut donner une bonne réponse pour de mauvaises raisons - et de corriger ses erreurs cas échéant. Il faut cependant bien faire attention à corriger l'élève si son raisonnement et/ou sa réponse sont fausses. Cela pour ne pas laisser des erreurs s'installer. Par exemple, il est possible de demander à un élève d'expliquer pourquoi un fait énoncé dans le cours est vrai (ou faux). Ces questions, qui demandent de répondre à une question qui commence par "pourquoi", portent le doux nom d'interrogation élaborative. Les expériences réalisées sur le sujet[7] montrent que les explications formulées par les élèves sont mieux retenues que les explications lues ou fournies par le professeur. Mais ces études ont aussi montré que quelques conditions doivent être remplies pour que cette technique marche. Comme on le verra plus tard, cette technique fonctionne aussi en tant que technique de révision pour les élèves.

Quoi qu'il en soit, cette technique peut s'appliquer facilement et à un grand nombre de contenus à enseigner. Par exemple, les questions peuvent être posées lors d'un cours magistral/frontal, ou lors d'une séance d'exercice. Dans le premier cas, le professeur interrompt son cours de temps en temps pour poser des questions aux élèves. Il peut interroger un élève en particulier (quitte à le désigner volontaire...), ou interroger toute la classe. Donner la bonne réponse et le raisonnement qui mène à celle-ci est alors assez facile. Dans le second cas, les questions de réflexion sont donnés en exercices, parfois en même temps que d'autres exercices d'entrainement. Il faut cependant faire attention à en donner la correction avant la fin du cours, sans quoi la méthode marchera moins bien. On peut aussi en donner lors d'interrogations écrites ou d'évaluations, mais cela sert plus à vérifier que l'élève à compris le cours que comme apprentissage.

Le questionnement profond a cependant un défaut : les élèves doivent disposer des connaissances antérieures nécessaires pour trouver la réponse. Appliquer l'interrogation élaborative ou l'usage du questionnement ne donnera aucun résultat si les élèves n'ont pas beaucoup de connaissances antérieures, ou si celles-ci sont peu accessibles, mal maitrisées. Si ce n'est pas le cas, l'élève ne pourra pas trouver la réponse et ses réflexions resteront vaines. Sa pensée ne pourra pas créer les associations d'idées nécessaires pour répondre aux questions et/ou les justifier et le questionner ne portera pas ses fruits. Cette conclusion ne devrait pas vous surprendre, compte tenu de ce que nous avons dit dans les chapitres précédents. Une illustration, assez frustre, de ce phénomène est disponible dans l'étude de Woloshyn, Pressley, et Schneider (1992). Dans celle-ci, des étudiants canadiens et allemands ont subit diverses interrogations élaboratives à propos de provinces allemandes et canadiennes. L'effet de ces questions était très fort pour les provinces connues, mais pas pour les provinces inconnues. Les élèves allemands ne bénéficiaient pas beaucoup de l'interrogation élaborative pour les provinces canadiennes, alors qu'ils en bénéficiaient pour les provinces allemandes, et réciproquement.

Les pédagogies par découverte[modifier | modifier le wikicode]

Le courant constructiviste est un courant pédagogique née des théories sur le développement intellectuel de l'enfant de Piaget et de Lev Vygotsky, très lié à la pensée du philosophe Dewey et aux travaux des pédagogues Montessori et Freinet. Ces pédagogues ont, sans forcément le savoir, inventé des pédagogies qui mettent l'effet de génération au premier plan.Ces pédagogues pensent que l'élève doit être actif, à savoir qu'il doit penser par lui-même, expérimenter, découvrir, apprendre en faisant. Les constructivistes pensent aussi que la démarche d'apprentissage est plus importante que ce qui est appris. Le constructiviste met l'accent sur le processus de recherche d'une solution : c'est la recherche autonome, la formulation d'hypothèses, et le tâtonnement expérimental, qui permettent d'apprendre à réfléchir et à penser. Ces pédagogues ont, sans forcément le savoir, inventé des pédagogies qui mettent l'effet de génération au premier plan.

Les méthodes utilisées par les pédagogies de ce genre sont généralement :

  • des discussions ou débats entre élèves ;
  • des expérimentations autonomes ;
  • des recherches autonomes de solutions à un problème ;
  • des découvertes de concepts à partir d'exemples ;
  • des projets pédagogiques ;
  • des travaux en groupes ;
  • etc.

Les types de pédagogies actives[modifier | modifier le wikicode]

Il existe deux types de pédagogies actives, aussi appelées pédagogies par découverte. Avec les pédagogies non-guidées, le principe « apprendre en faisant » est appliqué un peu trop à la lettre. L'élève doit tout redécouvrir par lui-même sans aide du professeur. Généralement, les élèves ne sont pas guidés par le professeur dans leurs expériences, et doivent être autonomes. Par exemple, prenons le cas d'un cours sur la perception des couleurs. Avec une pédagogie par découverte non-guidée, le professeur commence simplement par un très léger cours sur la façon dont les couleurs sont perçues en fonction de l'intensité lumineuse, et demande ensuite aux élèves de concevoir une expérience pour examiner en détail cette relation entre couleur et intensité. Les élèves devront alors conduire cette expérience par eux-même et découvrir seuls la relation demandée.

Les pédagogies par découverte guidée proviennent de la pensée de Bruner, un pédagogue des années 1960, psychologue cognitiviste de formation. Dans sa vision, l'élève ne devait pas réinventer la roue et seule une partie du savoir devait être découverte. Le professeur devait aborder en premier lieu des connaissances à fort pouvoir déductif, qui permettent à l'élève de déduire lui-même de nouvelles informations, de remplir les blancs, d'extrapoler avec efficacité. Si ces connaissances sont apprises, l'élève peut découvrir par lui-même ce qu'il faut apprendre. Ainsi, Bruner défendait une pédagogie par découverte fortement guidée par le professeur, et non des pédagogies dans lesquelles l'élève était laissé à lui-même. Lors des phases de découverte, le cours peut être vu comme une sorte de dialogue entre un professeur qui guide l'élève, et un élève qui formule des hypothèses. Il doit ainsi orienter les élèves vers les bonnes hypothèses, les suggérer, donner des indices, etc. Pour cela, le professeur peut utiliser les outils résumés dans le tableau qui suit. L'aide de la part du professeur est ce qu'on appelle en terme technique, de l'étayage.

L'efficacité des pédagogies actives[modifier | modifier le wikicode]

Les pédagogies actives, guidées ou non, ont cependant plusieurs problèmes. Premièrement, l'apprentissage par découverte est beaucoup plus long, et prend plus de temps pour enseigner la même chose qu'une exposition didactique. Ce désavantage peut être véritablement rédhibitoire. Bruner a même dit à propos des pédagogies non-guidées qu'il s'agissait « de la technique la plus inefficace qui soit pour regagner ce qui a été accumulé par l'humanité durant de longues périodes de l'histoire humaine ». Un autre pédagogue, du nom d'Ausubel, disait que le cours magistral a existé de tout temps pour une bonne raison : il s'agit tout simplement de la seule manière efficace pour enseigner une grande quantité de connaissances en un temps limité, ce dont est incapable l’apprentissage par découverte. Il disait d'ailleurs, dans un de ses livres daté de 1963 :

   Didactic exposition has always constituted the core of any pedagogic system, and, I suspect, […] it always will, because it is the only feasible and efficient method of transmitting large bodies of knowledge

Ensuite, il faut signaler que l'apprentissage par découverte ne convient pas du tout à des élèves novices, du fait de leur manque de connaissances antérieures. C'est ce qui fait qu'une grande majorité d'élève n'arrive tout simplement pas à découvrir ce qu'il faut par lui-même, et ce d'autant plus quand les tâches données aux élèves sont complexes, difficiles, inadaptées aux élèves. Ce n'est pas pour rien que la majorité des découvertes scientifiques ont mis des années ou des siècles à être découvertes par certains savants. Ce manque de connaissances entraine de plus une mauvaise utilisation de la mémoire de travail. Dans le document nommé « Why Minimal Guidance During Instruction Does Not Work: An Analysis of the Failure of Constructivist, Discovery, Problem-Based, Experiential, and Inquiry-Based Teaching », Sweller, Clark et Kirschner prétendent que l'apprentissage basé sur des problèmes serait incompatible avec la limitation de la mémoire de travail, en utilisant des arguments provenant de la théorie de la charge cognitive. A l'appui de cette affirmation, on peut citer l'expérience réalisée par Tuovinen et Sweller en 1999[8], dans laquelle quatre groupes sont comparés. L'expérience utilise deux groupes de novices et deux autres composés d'élèves dotés de connaissances antérieures. Dans ces deux groupes, le premier subit un enseignement par découverte (résolution autonome de problèmes), alors que l'autre subit un enseignement instructionniste (à base d'exemples guidés). Le résultat est que le,groupe novice qui subit un enseignement par découverte a les pires résultats de tous les groupes, les résultats étant inférieurs à la moitié de la moyenne des trois autres sous-groupes ! Par contre, les étudiants disposant de connaissances antérieures arrivaient à se débrouiller correctement dans la tâche d'enseignement par découverte. En somme, l'enseignement par découverte est utile pour des élèves doués, disposant d'une base solide de connaissances qui leur permettent de faire leurs propres déductions. Mais pour des élèves novices, qui découvrent une matière ou un concept, l'enseignement par découverte est à bannir.

Enfin, un dernier défaut est que le professeur a peu d'emprise sur la réflexion des élèves. Un élève libre de réfléchir par lui-même peut parfaitement se perdre dans sa réflexion, suivre de fausses pistes, faire des déductions fausses, et ainsi de suite. L'élève peut parfaitement déduire un grand nombre d'informations fausses ou erronées, qui s'accumulent en mémoire et perturbent les apprentissages futurs par interférence. Alors certes, le professeur peut, dans les pédagogies guidées, corriger ces erreurs, ce qui atténue le problème. Mais encore faut-il que le professeur puisse vérifier la manière dont les élèves ont réfléchit, et quels sont les résultats qu'ils ont obtenus. Ce qui n'est pas possible pour toutes les matières. Pour illustrer ce genre de cas de figure, imaginez un élève disséquer une grenouille sans instructions, de manière totalement libre...

Des comparaisons expérimentales entre ces deux types de pédagogies par découverte donnent des résultats très nettement en faveur des pédagogies par découverte guidée. Par exemple, les études de Fay et Mayer (1994) et de Lee et Thompson (1997) montrent que les pédagogies par découverte guidées donnent de meilleurs résultats que les pédagogies par découverte non-guidée pour l'apprentissage de la programmation. Un autre exemple vient de l'étude de l'apprentissage basé sur des problèmes, une forme de pédagogie active. Une revue de la littérature, effectuée par Hattie dans son ouvrage Visible Learning montre que l'apprentissage basé sur des problèmes n'est pas efficace que prévu. L'efficacité est mesurée par ce qu'on appelle une taille d'effet, qui vaut 0.15 dans le cas de l'apprentissage basé sur des problèmes. Un effet inférieur à 0.20 est tellement faible qu'on le considère comme quasiment inefficace.

Pour résumer, l'usage d'un minimum de pédagogie active guidée peut être bénéfique dans des situations bien maitrisée. Mais demander aux élèves de tout redécouvrir par eux-même est une erreur. Rendre les élèves actif demande de la parcimonie, et une certaine maitrise de sa classe et de la gestion de la séance.

Références[modifier | modifier le wikicode]

  1. Cunningham (2005) : Mindmapping: Its Effects on Student Achievement in High School Biology
  2. Brian Holland, Lynda Holland, Jenny Davies (2004). An investigation into the concept of mind mapping and the use of mind mapping software to support and improve student academic performance.
  3. Farrand, Hussain, and Hennessy (2002) : "The efficacy of the mind map study technique". Medical Education.
  4. Marzano, R et al (2001) : Classroom Instruction that Works.
  5. Graesser et al., 1994
  6. Meyers & Duffy, 1990
  7. Quelques expériences de ce type sont résumée dans le document récapitulatif "Improving Students’ Learning With Effective Learning Techniques: Promising Directions From Cognitive and Educational Psychology", rédigé par Dunlosky, Rawson, Marsh, Nathan, et Willingham.
  8. A comparison of cognitive load associated with discovery learning and worked examples, Tuovinen et Sweller, 1999.



Bien utiliser les exemples

Dans les grandes lignes, il existe essentiellement deux méthodes pour apprendre des concepts. La première est l'induction, l'abstraction d'une catégorie en extrayant les propriétés communes à différents exemples. La seconde est la déduction, qui consiste à dériver une catégorie en spécialisant une catégorie plus générale, en ajoutant des propriétés à un concept déjà connu. Les deux sont des méthodes assez opposées, mais on ne peut pas dire que l'une est meilleure que l'autre. Suivant le sujet abordé, il vaudra mieux procéder par induction ou pas déduction. Certains concepts s'abordent assez laborieusement avec l'induction alors qu'il passent facilement en procédant par déduction, alors que ce sera l'inverse pour d'autres sujets. Cela dépend aussi de la matière : les mathématiques font ainsi un fort usage de la déduction, du fait de la nature même des mathématiques (sans nier qu'elle font cependant parfois usage d'induction). On pourrait tenter de savoir quand utiliser telle ou telle méthode, mais force est de constater qu'il n'y a pas de recette miracle et qu'une telle décision tient d'un véritable travail d'artisanat pédagogique. Autant vous dire que ce n'est pas ce qui va nous intéresser dans ce chapitre. A la place, nous allons voir comment induction et déduction peuvent profiter d'un bon usage des exemples. Avec les deux méthodes, donner des exemples variés est un bon moyen pour relier un concept général à des concepts particuliers. Reste que pour bien faire, varier les exemples demande de suivre quelques règles relativement simples mais très importantes. Dans ce chapitre, nous allons parler du bon usage des exemples et contre-exemples.

De la représentation mentale des catégories et des exemples[modifier | modifier le wikicode]

Depuis les années 2000, de nombreuses observations semblent indiquer que ces catégories peuvent s'apprendre par plusieurs mécanismes, localisés dans des régions distinctes du cerveau. Mais cela ne veut pas dire que tous les systèmes d'apprentissage des catégories sont utiles en contexte scolaire. Pour les concepts et catégories, il existerait deux grands mécanismes de catégorisation et d’apprentissage des catégories :

  • un système qui gère des règles verbalisables, des définitions ;
  • un système qui se base sur la similarité avec des exemples connus.
Exemple de la généralisation du prototype du concept d'arbre.

Le premier système va simplement induire et appliquer des définitions. Apprendre de nouvelles catégories avec ce système demande d'induire une règle à partir d'exemples ou de recevoir une définition claire et précise via un apprentissage déductif. Le second système va mémoriser des exemples et potentiellement utiliser leur similarité pour abstraire une catégorie. Ce calcul de similarité entre deux entités est souvent très rapide et inconscient, contrairement à l'utilisation de définitions et de règles. L'apprentissage de catégories avec ce système se fait par l'étude d'exemples.

Exemples et prototypes[modifier | modifier le wikicode]

Pour simplifier, le second système, qui fonctionne sur la base de la similarité, peut représenter les catégories de deux manières : soit sous la forme d'un ensemble d'exemples distincts, soit sous la forme d'un "résumé" qui conserve les points communs des exemples connus.

Si l’élève a vu peu d’exemples d'un concept, le cerveau le représentera comme un simple ensemble d’exemples qui contient les exemplaires déjà rencontrés. Lors de la catégorisation, l'entité à classer est comparée aux exemples mémorisés et classée dans la catégorie liée à l'exemple le plus similaire. Il n’y a aucune abstraction, ce qui fait que la catégorisation est peu performante.

Mais à force de voir des exemples, le cerveau va progressivement dégager leurs propriétés communes et en abstraire une catégorie. A ce stade, les catégories sont représentées par un objet idéal, qui définit à quoi doit ressembler un objet de la catégorie, appelé le prototype. Ainsi, une chaise sera un meilleur exemple de meuble qu'un rideau, vu qu'il est plus proche de ce prototype idéal. Une armoire sera assez proche du prototype et sera considérée comme un meuble, mais moins qu'une chaise. Lorsqu'on veut savoir si un objet appartient à une catégorie, on le compare à son prototype : plus celui-ci est proche, plus on considérera que l'objet appartient à la catégorie.

Pour donner un exemple, on peut citer l’expérience de Lupyan (2012). Dans celle-ci, il a demandé à un premier groupe de cobayes de dessiner un triangle, tandis qu'un second groupe devait dessiner une figure à trois côtés. Dans le groupe triangle, le triangle a été dessiné avec une base horizontale dans 82% des cas et il était isocèle dans 91% des cas. Mais dans le groupe "trois côtés", ces deux proportions sont de 50% seulement ! De même, les participants ont tendance à surévaluer l'inclinaison d'un triangle quand on leur dit qu'il s'agit d'un triangle, comparé à un groupe test dans lequel on dit aux participants que la figure est un polygone à trois côtés.

Les difficultés de l'abstraction[modifier | modifier le wikicode]

Lors de l'abstraction d'un prototype, le cerveau va se baser sur la fréquence des propriétés dans les exemples présentés. Le problème est que le cerveau ne peut pas vraiment faire la différence entre les propriétés qui permettent de classer avec quasi-certitude un objet dans la catégorie et celles qui viennent d'une simple ressemblance. En effet, deux objets peuvent être très similaires sans pour autant appartenir à la même catégorie. Par exemple, un dauphin ou une baleine ont beau ressembler fortement à des poissons, ce sont des mammifères. Le cerveau n'apprend pas à faire la différence entre les propriétés essentielles, partagées par tous les membres de la catégorie, et les propriétés facultatives qui sont fréquentes chez certains membres de la catégorie mais pas chez tous. Prenons l'exemple d'un élève à qui on souhaite apprendre ce qu'est un carré. D'ordinaire, on présente des exemples de carrés à l'horizontale, les carrés des exemples étant rarement penchés. Si on présente un carré penché à un élève il ne le classera pas comme un carré, vu que les exemples rencontrés n'étaient pas penchés ; l'élève considèrera que la propriété "pas penché" est une propriété essentielle du concept de carré.

De plus, il arrive que deux élèves construisent des compréhensions différentes d'un même concept à partir d'exemples identiques. Par exemple, essayez de déduire quelle est la règle à partir des exemples suivant : 1, 3, 7, 5, 9, etc. Vous avez certainement pensé qu'il s'agissait des nombres impairs, mais cette suite est aussi cohérent avec les règles comme "nombres à un chiffre", "nombres impairs à un chiffre", ou "nombres entiers impairs", ou bien d'autres encore. C'est tout le problème de l'induction à partir d'exemples : un ensemble d'exemples est souvent compatible avec plusieurs interprétations, mais une seule de ces interprétations est compatible avec le concept à communiquer. Ces fautes de communication proviennent d'exemples mal choisis et ont peu de chances d'arriver avec des définitions. Les définitions ne sont ni plus ni moins que des ensembles de propriétés essentielles et elles n'engendrent donc pas ce problème. Mais les définitions ne permettent pas une catégorisation rapide, contrairement aux prototypes. En effet, elles ne mettent pas en œuvre le processus inconscient de catégorisation par similarité mais un système de catégorisation conscient qui utilise la mémoire de travail. Faire un bon usage de ces deux processus de catégorisation est donc une bonne chose.

Atténuer les problèmes de l'induction[modifier | modifier le wikicode]

Pour éviter ces problèmes, il existe diverses techniques qui visent à diminuer l'ambiguïté inhérente à l'induction. Le professeur peut faciliter l'abstraction des points communs et différences en choisissant des suites d'exemples qui n'ont qu'une seule interprétation possible. Il existe une méthode pédagogique à la pointe de ce genre de procédés : le Direct Instruction d'Engelmann (à ne pas confondre avec les autres formes de direct instruction, comme la pédagogie explicite, qui n'utilisent absolument pas ces techniques d'apprentissage des concepts). Cette méthode se fonde sur des scripts pédagogiques qui décrivent les exemples et contre-exemples à donner aux élèves, ainsi que leur ordre de présentation. L'existence de ces scripts tient au fait que créer soit-même une séquence d'exemples qui ne donne pas lieu à de telles confusions est très difficile et demande souvent des années de travail : les créateur du Direct Instruction ont préféré créer eux-même de telles séquences. Dans ce qui va suivre, nous en verrons surtout les grandes lignes et les recommandations les plus importantes.

Varier les exemples[modifier | modifier le wikicode]

Dans tous les cas, plus on donne d'exemples et de contre-exemples variés, plus l'élève aura une représentation fidèle de la catégorie. Une représentation fidèle est par nature une représentation abstraite, générale, qui correspond à un grand nombre d'objets, ceux qui appartiennent effectivement à la catégorie. Or, on a vu il y a quelques chapitres que cette abstraction se développait par un enseignement varié, qui exploite un même concept dans un grand nombre d'exemples et de situations. Nous avions vu que varier permettait de favoriser la création de connaissances abstraites, de relier plus facilement chaque concept à un grand nombre d'indices. C'est ainsi que l'on peut interpréter la formation d'un prototype abstrait, comme la formation d'un concept relié à de plus en plus d'exemples et de propriétés, favorisant son rappel face à des exemplaires variés. L'abstraction de catégories ne fait pas exception à la règle, et varier les exemples présentés est ainsi un très bon choix. Par varier, on veut dire que les exemples donnés doivent être le moins similaires possibles. En effet, plus deux exemples d'une même catégorie sont similaires, plus ils partagent de propriétés facultatives. La similarité minimale entre deux membres d'une même catégorie est obtenue quand les deux exemples ne partagent que des propriétés essentielles.

Dans une de ses expériences datée de 1979, John Bransford et ses collègues de la Vanderbilt University au Tennessee ont cherché à savoir si varier les exemples avait un effet sur la capacité à transférer la catégorie dans de nouvelles situations. Un premier groupe devait apprendre des concepts avec des exemples similaires, tandis que l'autre groupe recevait des exemples très différents. Dans un test ultérieur, portant sur un contexte d'utilisation jamais vu auparavant lors des exemples, les chercheurs ont vérifié quel était le pourcentage de réussite des deux groupes : 84% dans le second groupe contre 64% dans le premier.

Une autre méthode pour varier l'apprentissage est d'utiliser des contre-exemples. Ceux-ci permettent de réfuter les règles ou prototypes mal-formés, induits par erreur. Si l'élève a induit une règle ou un prototype qui prend à tort un contre-exemple comme un membre de la catégorie, il sait qu'il devra le réviser lors de la présentation d'un contre-exemple. Expérimentalement, on constate que l'apprentissage est nettement meilleur quand les exemples et contre-exemples sont mélangés.

Distribuer les exemples[modifier | modifier le wikicode]

Mais outre le fait de varier les exemples, il faut aussi les voir dans un certain ordre. Durant longtemps, les scientifiques pensaient cependant qu'amasser les exemples était une bonne solution, dans le sens où cela permettait de juxtaposer des exemples similaires, facilitant ainsi l'extraction de leurs similarités/points communs. Par exemple, supposons que je dispose de neuf exemples d’une même catégorie, qui peuvent être groupés en trois paquets A, B et C selon leurs similarités. Intuitivement, on pourrait penser qu’il vaut mieux présenter les exemples dans cet ordre : A1, A2, A3, B1, B2, B3, C1, C2, C3.

Mais dans le chapitre précédent, on a vu que l'apprentissage des concepts devait mettre l'accent sur leurs différences, ce que le séquencement vu plus haut ne permet pas de faire car il met l'accent sur les similarités entre exemples. De plus, on a vu au chapitre précédent que la distribution de l'apprentissage permettait un meilleur apprentissage. Or, dans le type de séquencement précédent, les exemples similaires sont amassés les uns après les autres et non distribués. Cela va plutôt dans le sens d'une distribution des exemples, des exemples similaires devant être le plus éloignés possibles (dit autrement, des exemples consécutifs soient les plus dissemblables possibles). Par exemple, dans l'exemple ci-dessus, il vaudrait mieux utiliser un ordre du style A1, B1, C1, A2, B2, C2, A3, B3, C3. Tout l'enjeu est de mettre l'accent sur les différences entre exemples, pour faciliter l'induction d'une catégorie.

Quelques études récents vont dans le sens de la deuxième possibilité. On peut notamment citer l'étude "Learning concepts and categories : is spacing the ennemy of induction ?" de Kornell et Bjork. Dans cette étude, des étudiants devaient apprendre à reconnaitre le style de peintures de divers artistes peu connus. Cette étude a comparé deux groupes. Le premier voyait les tableaux appartenant à un même peintre les uns à la suite des autres, tandis que l'ordre des tableaux était complètement mélangé pour le second. C'est ce dernier qui avait les meilleurs résultats à long terme. Cette étude a été reproduite depuis, notamment par Kang et Pashler dans leur étude "discriminating painting styles : Spacing is advantageous when it promotes disciminative contrast". D'autres études du même genre ont montré que l'apprentissage distribué favorisait l'apprentissage de classifications d'oiseaux.

Quand on fait intervenir des contre-exemples, les choses deviennent plus compliquées. Il est ainsi déconseillé de voir tous les exemples ensembles, suivis par les contre-exemples : les prototypes ou règles mal induits seront alors réfutés plus tôt ou n'auront pas le temps de se former. Plutôt que de présenter les exemples par blocs, suivis des contres-exemples, il vaut mieux alterner exemples et contre-exemples, intercaler chaque contre-exemple entre deux exemples : il ne faut pas que les contre-exemples soient regroupés. De plus, chaque contre-exemple doit être le plus semblable aux exemples qui l'entourent : cela permet à l'élève de nettement mieux distinguer les propriétés essentielles des propriétés facultatives.

Résumé[modifier | modifier le wikicode]

Pour résumer, une bonne utilisation des exemples et contre-exemples demande de :

  • présenter une série d'exemples les uns à la suite des autres à un rythme assez rapide ;
  • intercaler des contre-exemples entre les exemples ;
  • utiliser des contre-exemples très similaires au concept à apprendre ;
  • varier le plus possible les exemples présentés ;
  • rendre le plus dissimilaires possible des exemples consécutifs ;
  • rendre le plus similaires possible un exemple et un contre-exemple consécutifs ;
  • construire une suite d'exemples/contre-exemples qui n'a qu'une seule interprétation possible et ne peut permettre d'induire qu'une seule et unique règle ;
  • faire précéder les exemples par une définition, une règle ou une procédure quand c'est possible : celle-ci permet de donner des indications sur ce qui est pertinent dans la série d'exemples, ce qui est commun aux différents exemples, facilitant l'abstraction d'une règle .



Changement conceptuel

Les élèves ont souvent tendance à oublier ce qu'ils ont vu durant leur scolarité, et il n'est pas rare que les élèves ne se souviennent plus avoir appris telle ou telle connaissance. On a vu que cet oubli peut provenir d'un mauvais encodage, l'information apprise étant isolée dans la mémoire, reliée à peu d'indices de récupération. Mais il existe un autre raison à cette inaccessibilité : l’interférence, qui se décline en deux versions : l interférence pro-active où d'anciennes connaissances empêchent la mémorisation de nouvelles idées, et l'interférence rétro-active où des connaissances récentes ont tendance à favoriser l'oubli d'anciennes informations.

Conceptions erronées[modifier | modifier le wikicode]

L'interférence rétro-active permet de remplacer des connaissances inadaptées ou obsolètes par des connaissances plus récentes. Elle permet d'oublier nos erreurs pour les remplacer par la correction appropriée. Mais l'interférence pro-active va jouer contre cet oubli de connaissances inadaptées. Dans de nombreuses situations, des connaissances antérieures inadaptées ne s'oublient pas, elles se cristallisent, et empêchent la compréhension de nouvelles idées. Dans la littérature anglaise, ces connaissances antérieures inadaptées sont appelés des misconceptions, ce que l'on peut traduire en français par conceptions erronées ou, plus simplement, par idées fausses.

Les idées fausses peuvent être des généralisations abusives, ou des analogies boiteuses. Dans ce cas, il y a transfert d'apprentissage, mais un transfert qui empêche l'apprentissage. L'exemple le plus classique : les faux amis en anglais ! Demandez ce que veut dire actually en anglais à un élève qui ne connaît pas ce mot : il vous répondra "actuellement", alors que actually veut dire "en fait". Autre exemple, prenons un débutant en programmation qui aborde les notions de variable et de fonction : ces deux concepts sont très différents des concepts de variables et de fonction abordés en mathématique, mais l'étudiant aura tendance à faire le transfert. Comme quoi, il faut bien faire attention quand on utilise des analogies : il faut clairement montrer que les analogies sont limitées et qu'elles ne doivent pas être prises au pied de la lettre.

Mais dans d'autres cas, plus rares, ces idées fausses sont des idées reçues, des connaissances naïves tirées de l'expérience. Généralement, quand un élève arrive à l'école, il a derrière lui plusieurs années durant lesquelles il s'est construit des modèles implicites du monde, sur les quantités, le poids et la chute des corps, les nombres, etc. Cet apprentissage par découverte "naturel", dans lequel l'enfant apprend seul, entraine naturellement l'apparition d'idées fausses. Laisser un élève construire son savoir, par découverte autonome, peut ainsi lui faire générer des idées fausses qui parasiteront son apprentissage future.

Chose intéressante, certaines idées fausses sont récurrentes, présentes chez un très grand nombre d'élèves. Par exemple, n'importe quel élève assez jeune croira que les corps tombent dans le vide à une vitesse qui dépend de leur poids (alors qu'en fait, tous les corps tombent à la même vitesse dans le vide). Pour donner un exemple similaire, je vais citer une expérience faite par Laurence Viennot sur des élèves de terminale S, de DEUG (oui, l’étude date...), et de maîtrise. Elle leur a posé la question suivante : "quand on lance une balle en l'air, quelles forces s’appliquent quand celle-ci monte et descend, frottements mis à part ?". Près de 55% des élèves de terminale et 33% des étudiants de DEUG pensaient qu'il y avait deux forces, une qui faisait tomber la balle (pesanteur), et une autre qui faisait se mouvoir la balle contre la gravité. Ils utilisaient un modèle de force naïf, qui relie fortement la force à la vitesse. En réalité, il n'y a qu'une seule force : la pesanteur... Pourtant, ces étudiants connaissaient la définition technique d'une force et savaient l'utiliser dans des exercices académiques. Mais dans la situation de l'interrogation, c'était l'idée reçue qui était la plus accessible et qui prenait le dessus.

Autre exemple, un peu plus complexe : le courant électrique est souvent mal compris. Par exemple, si vous posez la question suivante aux élèves : "on branche une dizaine d'ampoules en série, et une autre dizaine en parallèle : quel est le montage qui éclaire le mieux ?", les élèves répondront souvent que ce sera le montage série : les élèves pensent que le courant ne se séparera pas en deux (ce qui arrive avec les bifurcations dans le montage parallèle), ce qui est faux. Le problème dans ce cas précis, provient de la conception erronnée du courant électrique comme un ensemble matériel produit par la pile à débit constant.

On trouve un grand nombre de conceptions erronnées du genre, dans l'enseignement de la physique : un kilo de plomb est plus lourd qu'un kilo de plume (confusion poids densité), si une fusée spatiale dans le vide qui coupe ses moteurs va freiner (mauvaise compréhension du principe d’inertie), les corps tombent dans le vide à une vitesse qui dépend de leur poids, etc. Même chose avec les mathématiques ou d'autres domaines. Par exemple, beaucoup d'élèves de primaire, qui n'ont pas encore vu les fractions et décimaux, pensent qu'une division entre deux nombres donne un résultat plus petit que le dividende, ou qu'une multiplication donne toujours un résultat plus grand que le multiplieur et multiplicande. Ne parlons pas des jeunes enfants qui croient que le jour et la nuit sont causés par la rotation de la Terre autour du Soleil (pour les moins jeunes), que les quatre saisons proviennent de l'éloignement de la terre par rapport au soleil, ou que les premiers humains ont cohabité avec les dinosaures. En conséquence, il vaut mieux connaître ces idées reçues pour les corriger, et prendre les devants. Mais se contenter de corriger ces conceptions erronées ne suffit pas à les faire disparaître.

Changement conceptuel[modifier | modifier le wikicode]

Les conceptions erronées ne disparaissent pas de l'esprit après correction et peuvent ainsi interférer avec l'information valide nouvellement acquises. Quand on cherche à accéder à l'information voulue en mémoire, la conception erronée va entrer en compétition avec l'information valide. Cela a été plus ou moins montré dans l'étude de Andrew Shtulman et Joshua, publiée dans le journal cognition. Dans leur étude, 200 cobayes devaient dire si des affirmations étaient vraies ou fausses le plus rapidement possible, les temps de réaction étant mesurés. Parmi ces affirmations, certaines étaient conçues de manière à évoquer des conceptions erronées : "la Lune produit de la lumière", "1/13 est plus grand qu'1/30", "les atomes sont principalement composés de vide", "un kilo de plomb pèse plus qu'un kilo de plumes", etc. Bilan : les temps de réaction et le taux d'erreur étaient plus élevés pour les affirmations qui évoquaient des conceptions erronées.

Cet effet d'interférence est de confirmé par des observations d'imagerie cérébrale. Dans une étude[1], les chercheurs analysaient le cerveau de deux groupes de cobayes lors de la résolution d'exercices d’électricité : un groupe était constitué de novices, et un autre d'experts en électricité. Ces deux groupes devaient résoudre deux types d'exercices : certains étaient conçus de manière à forcer l'utilisation d'une conception erronée, et les autres non. Cette étude montre que chez le novice, les informations incohérentes avec la conception erronée sont d'abord interprétées par le cerveau comme des erreurs et sont passés sous le tapis : les zones du cerveau chargés de la détection de la surprise s'activent, avant de laisser la place aux zones du cerveau activés lors du désintérêt. En somme, notre esprit n'aime pas remettre en cause ce qu'il sait déjà. Par contre, les zones du cerveau qui s'activaient chez les experts étaient celles dévolues à l' inhibition : cette inhibition est la capacité à empêcher le rappel d'une connaissance depuis la mémoire à long terme. En clair, la conception erronée était encore présente dans le cerveau des experts, mais le cerveau se chargeait d’en empêcher le rappel et l'utilisation.

Implications pédagogiques[modifier | modifier le wikicode]

Première recommandation : il faut éviter l'apparition de conceptions erronées, et faire en sorte que les connaissances des élèves soient d'emblée les plus fiables possibles. Toute connaissance apprise à un niveau donnée d'étude doit être conçue pour ne pas interférer avec des apprentissage ultérieurs. Les simplifications outrancières dans les premières années d'études sont en effet très préjudiciables pour la progression future. Les pédagogies actives sont aussi une catastrophe de ce point de vue : les élèves procèdent par séries d'essais et d'erreurs, il existe un risque que les erreurs soient mémorisées avec la connaissance correcte. La progression devient très lente si les élèves assimilent des connaissances boiteuses, des erreurs de compréhension et des erreurs procédurales.

Seconde recommandation : il ne faut pas laisser l'erreur s'installer. Les conceptions erronées que forment l'élève au cours de son apprentissage doivent être corriger au plus vite, avant d'être inscrites dans la mémoire à long terme. Pour cela, le professeur doit réserver sur chaque cours une période de feedback, qui permet aux élèves d'identifier leurs erreurs de compréhension et de les corriger. Dans cette phase, le professeur va tester les élèves avec des questions de compréhension, voire par une série d'interrogations écrites. La solution privilégiée est l'utilisation massive d'interrogation écrites fréquentes.

Références[modifier | modifier le wikicode]

  1. Étude des mécanismes cérébraux liés à l'expertise scientifique en électricité à l'aide de l'imagerie par résonance magnétique fonctionnelle



Réduire la charge cognitive

Plus une information à apprendre est composée d'un grand nombre de sous-éléments, plus elle aura tendance à saturer la mémoire de travail. Le nombre d’éléments présents en mémoire de travail s'appelle la charge cognitive : plus elle est élevée, moins la tache ou le concept abordé est facile. Il s'agit de la première limitation de la mémoire de travail sur l'apprentissage : si la mémoire de travail sature, l'apprentissage se passe mal, voire pas du tout. Pour prendre un exemple, c'est ce qui fait qu'un calcul trop compliqué est souvent un calcul qui demande de maintenir temporairement trop de résultats temporaires. Par exemple, c'est ce qui fait que vous aurez du mal à résoudre le calcul suivant de tête, vu que votre mémoire de travail ne peut pas stocker tous les résultats temporaires nécessaires pour mener à bien ce calcul :

    4565 * 891 

De plus, les informations à mémoriser ne sont pas les seules à utiliser la capacité de la mémoire à court terme : les relations que ces informations entretiennent entre elles vont aussi prendre de la place en mémoire de travail. Or, la mémoire de travail est utilisée pour comprendre ce que raconte un professeur, un texte, etc. Lors de cette compréhension, les informations à apprendre sont maintenues en mémoire de travail, afin d'être associées et reliées à des connaissances antérieures, et afin de faire des déductions : plus sa capacité est élevée, plus l'élève peut faire de connections et d'inférences. En conséquence, si une tache d'apprentissage sature la mémoire de travail, l'apprentissage se passe mal, voire n'a pas lieu.

C'est notamment le cas pour la compréhension de la transitivité par les enfants de 4 à 6 ans : les enfants ont souvent du mal à comprendre cette notion et à l'appliquer parce que leur mémoire de travail est trop faible. Il faut dire que comprendre la transitivité A -> B -> C demande de maintenir en mémoire de travail A, B, C, et les relations A->B, et B->C : cela fait beaucoup pour un enfant dont la mémoire de travail est très nettement inférieure à celle des adultes. Et à ce petit jeu, les enfants qui ont une mémoire de travail de plus grande capacité que leurs camarades ont nettement plus de facilité à comprendre la transitivité. De nombreuses expériences ont d'ailleurs relié l'évolution de la pensée chez l'enfant avec la capacité de la mémoire de travail[1].

Dans ces conditions, diminuer la charge cognitive est de première importance, reste à voir comment. Dans les grandes lignes, on peut identifier deux types de charge cognitive : une charge intrinsèque induite par la structuration des explications et des connaissances à apprendre, et une charge extrinsèque inutile qui dépend de la méthode de présentation utilisée. Dans ce chapitre, nous allons nous centrer sur la charge intrinsèque, la charge extrinsèque étant vue dans le cours sur les supports pédagogiques. Nous allons voir comment quelques modifications dans le séquencement des notions peuvent réduire la charge intrinsèque. Nous apprendrons donc comment structurer un cours ou des explications relativement complexes.

Le regroupement[modifier | modifier le wikicode]

Les limites de la mémoire à court terme semblent s’évanouir quand on est face à une situation familière. Ainsi, les experts dans un domaine peuvent retenir de grande quantités d’informations, bien au-delà de la capacité de la mémoire de travail. Par exemple, quand on présente une configuration de jeu à un joueur d'échec expert, il a tendance à mémoriser 4 à 5 fois plus de pièces qu'un novice. Cela vient du fait que les experts ont tendance à faire des regroupements : ils perçoivent des motifs qui permettent de classer les informations perçues dans des catégories d'objets, et de les regrouper. Ces regroupements forment un tout dans la mémoire de travail, et sont considérés comme un seul élément : on les appelés des chunks, ou schémas.

L'influence des connaissances antérieures[modifier | modifier le wikicode]

Mais cette capacité à faire des regroupements est assez dépendante des connaissances antérieures. Par exemple, les expériences de Yntema et Mueser montrent clairement que des contrôleurs aériens experts ne peuvent pas faire de regroupements dans des tâches de laboratoires déconnectées de leur expertise : leur mémoire de travail reste limitée à 7 informations en moyenne. Mais les études de Bisseret montrent que pour des tâches liées à leur domaine d'expertise, les contrôleurs aériens peuvent mémoriser jusqu’à 20 voire 30 informations dans leur mémoire de travail. Cette constatation a été vérifiée dans une grande quantité de domaines différents, comme l'expertise médicale, la programmation, la conception de circuits électronique, ou l'expertise mathématique. Pour reprendre l'exemple des joueurs d'échec experts, leur avantage mnésique ne vaut que pour des configurations de jeu rencontrées fréquemment, ceux-ci ayant des performances similaires à celles des novices pour des configurations de jeu aléatoires.

Cela vient du fait que ces chunks sont des connaissances mémorisées en mémoire à long terme : les regroupements doivent être mémorisés avant d'être utilisables. Les différences de performances entre experts et novices proviennent en partie de la mémorisation d’un grand nombre de regroupements spécifiques à ce domaine : on observe ce phénomène dans des domaines très divers, comme la programmation, la conception de circuits électroniques, les échecs, etc. Comme le dit Mislevy : « […] comparés aux novices, les experts dominent plus de faits et établissent plus d’interconnexions ou de relations entre eux. Ces interconnexions permettent de surmonter les limitations de la mémoire à court terme. Alors que le novice ne peut travailler qu’avec au maximum sept éléments simples, l’expert travaille avec sept constellations incarnant une multitude de relations entre de nombreux éléments ». C'est ainsi : un novice ne dispose pas de motifs ou de catégories familières qu'il peut utiliser pour regrouper de grandes quantités d'informations, et doit se débrouiller avec des informations élémentaires qu'il doit traiter individuellement.

Regroupements et schémas[modifier | modifier le wikicode]

Ce phénomène de regroupement a souvent lieu directement lors de la perception : plusieurs stimulus simples sont regroupés en un seul stimulus complexe. Ces regroupements perceptifs sont aussi appelés des chunks. On peut par exemple citer l'exemple des joueurs d'échec auxquels on demande de mémoriser une configuration de jeu : les novices doivent mémoriser des pièces indépendantes, tandis que les experts les regroupent en blocs de 3 à 5 pièces. Mieux : ces regroupements permettent de catégoriser des ensembles de pièces suivant leur sens stratégique, chaque regroupement étant associé au meilleur coup à jouer associée à cette configuration. Ce phénomène de regroupement est aussi utile en géométrie (Koedinger et Anderson, 1990) : les élèves qui ont de bonnes performances en géométrie ont acquis des regroupement visuels qui leur permettent de reconnaître des figures géométriques particulières (triangles, carrés, angles alternes-internes, etc), et d’accéder aux informations associées à ces figures. Ainsi, la capacité à résoudre certains exercices de géométrie dépend en partie de cette capacité à reconnaitre des figures, comme des angles alternes-internes, des figures géométriques, et ainsi de suite.

Mais certains regroupements sont des regroupements non pas perceptifs, mais conceptuels. Ces concepts relationnels, formés par interconnexion de concepts plus élémentaires, sont appelés des schémas. Ces schémas, de part leur caractère conceptuel, vont mémoriser des informations abstraites, commune à une classe d'objets ou de situations. Il s'agit là d'un point commun avec les catégories, à savoir la mémorisation des informations communes à une classe d'instances. Cependant, ces schémas sont plus flexibles, dans le sens où ceux-ci ne stockent pas que les points communs, les constantes, mais peuvent aussi mémoriser à la volée des informations variables. On peut se représenter ces schémas par des ensembles de cases, chaque case représentant un élément de l'objet ou du système. Certaines cases ont un contenu constant et invariable, alors que les autres stockent des détails qui peuvent varier suivant la situation.

De plus, ces schémas sont des regroupements de concepts. Pour donner un exemple, on peut prendre les recherches d'Egan and Schwartz, datées de 1979. Ces expériences comparaient les performances entre des spécialistes en électroniques et des novices : les cobayes devaient mémoriser un circuit électronique qui leur était présenté durant quelques secondes. Tandis que les novices se rappelaient de chaque pièce indépendamment, les experts se rappelaient d'ensembles de pièces assez conséquents, chacun de ces ensembles ayant un sens. Par exemple, les experts regroupaient un ensembles de résistances électriques, condensateurs, et bobines dans un sous-circuit qui correspond à un amplificateur de tension ou un amplificateur de courant. Dans cette situation, le chunk était une catégorie d'objet, à savoir un amplificateur de tension, ou autre. Comme le montre cet exemple, un schéma a une organisation hiérarchique : chaque schéma peut contenir des schémas plus élémentaires, qui sont eux-mêmes potentiellement constitués de sous-schémas, et ainsi de suite. Deplus, ces schémas vont aussi encapsuler les liens logiques et associations d'idées entre les informations regroupées.

Pour résumer :

  • un schéma est une abstraction qui mémorise ce qui est commun à plusieurs objets ou situations, comme une catégorie ;
  • un schéma peut relier plusieurs concepts simples et unifie le tout en un seul concept complexe ;
  • le schéma contient les relations logiques et les associations d'idées que ses éléments entretiennent entre eux ;
  • un schéma a une organisation plus ou moins hiérarchique où chaque schéma peut lui-même contenir des schémas plus élémentaires, qui sont eux-mêmes potentiellement constitués de sous-schémas, et ainsi de suite.

Recommandations pédagogiques[modifier | modifier le wikicode]

Voyons maintenant les recommandations pédagogiques que vous pouvons tirer de cette théorie.

Eliminer l'inutile[modifier | modifier le wikicode]

Diminuer la charge cognitive demande d'aller à l’essentiel, d'éliminer les informations superflues. Une expérience faite par Richard Mayer permet d’illustrer ce phénomène. L’expérience a comparé deux versions d’un texte scientifique, dont l’une était expurgée des informations quantitatives : cette dernière était nettement mieux retenue et comprise. Dans le même esprit, la recherche sur la compréhension de texte a montré l'existence d'un effet délétère des détails séduisants : des détails ou anecdotes intéressants peuvent perturber d'extraction de l'idée générale d'un texte et nuire à la mémorisation et à la compréhension. Cet effet est partiellement du à la capacité de la mémoire de travail, preuve en est que les sujets avec une bonne mémoire de travail sont nettement moins soumis à cet effet délétère.

Pré-training[modifier | modifier le wikicode]

Mais outre les techniques précédentes, il est aussi possible d'utiliser l'influence des connaissances antérieures sur la charge cognitive. Vu que les schémas sont pris comme un tout dans la mémoire de travail, on peut en déduire un conseil important : il faut réutiliser des concepts déjà abordés et/ou connus de l'élève pour simplifier les explications. De même, il est préférable d'introduire certains concepts précocement pour simplifier des explications ultérieures. Le plan du cours et des explications doivent idéalement être découpées en petites unités notionnelles cohérentes, qui sont progressivement assemblées en concepts plus complexes.

Pour donner un exemple, on peut citer l'étude de Mayer, Mautone, et Prothero, datée de 2002. Dans cette étude, des sujets jouaient à un jeu basé sur une leçon de géologie. Les élèves qui avaient reçu une instruction sur les termes de base (faille, arc, chaîne de montagne, etc) avant de jouer avaient une meilleure performance que les sujets qui découvraient la signification de ces termes en cours de jeu. Les élèves qui découvraient les termes en cours de jeu devaient former de nouvelles associations et de nouveaux schémas en même temps qu'ils réfléchissaient sur les problèmes. En comparaison, les sujets ayant reçu un enseignement préalable pouvaient se concentrer sur la résolution des problèmes posés lors du jeu.

Comme autre exemple, on peut citer l'étude de Clarke, Ayres, et Sweller, datée de 2005. Dans cette étude, des étudiants recevaient un cours sur les graphes mathématiques, et devaient utiliser un tableur lors de l'instruction. Un premier groupe de sujets n'avait aucune connaissance des tableurs avant d'entrer en cours et recevait des instructions sur le fonctionnement du tableur lors du cours, les explications étant intercalées entre les explications mathématiques sur les graphes. Le second groupe avait déjà reçu une instruction sur les tableurs avant le cours, et recevait uniquement une instruction sur le concept mathématique à aborder. Le second groupe voyait tout ce qui a rapport aux tableurs séparément de ce qui a rapport aux graphes : les informations liées aux tableurs étaient alors regroupées en schémas, diminuant la charge cognitive lors de l'apprentissage ultérieur sur les graphes. Et conformément à c qui était attendu, le second groupe avait des performances nettement meilleures.

Isolated/interacting element effect[modifier | modifier le wikicode]

La mémoire de travail surcharge facilement lors de l’apprentissage de concepts composés d’un grand nombre de composants/sous-concepts interagissant entre eux. Dans ce cas, la théorie de la charge cognitive recommande d’aborder chacun des composants indépendamment, avant de montrer comment ceux-ci interagissent ensemble. En faisant cela, la charge cognitive sera répartie dans le temps, améliorant l’apprentissage : on parle d’effet de l'isolation des éléments.

  • Premier exemple : les démonstrations qui utilisent des lemmes. Dans certains de mes cours d'université, les professeurs commençaient la démonstration du théorème, et l'interrompait au fil de l'eau pour démontrer les lemmes dont ils avaient besoin. Au lieu de faire cela, ils auraient du démontrer les lemmes avant de commencer la démonstration.
  • Autre exemple : si vous voulez expliquer le fonctionnement du circuit anatomique du réflexe du genou, il est préférable de décrire ce circuit, en voyant chacun de ses composant indépendamment, avant de montrer comment ce circuit fonctionne lors de l'exécution du réflexe.
  • Autre exemple : vous voulez enseigner comment fonctionne un processeur simple. Celui-ci contient plusieurs composants bien précis : une unité de calcul, un séquenceur, des registres, etc. Certains professeurs commencent directement leur cours par montrer comment une instruction s’exécute sur ce processeur : ils abordent chaque composant au fil de l’eau, quand ils en ont besoin. L'utilisation de l'isolated element effect recommanderait de voir indépendamment chaque composant du processeur un par un, avant de montrer le déroulement de l’exécution d'une instruction avec cet ensemble de composants.

Dans le même genre, chaque procédure doit être découpée en sous-procédures, qui entrainées indépendamment les unes des autres, avant d'être rassemblées pour obtenir la procédure complète. La première expérience sur le sujet portait sur l'apprentissage des procédures de sécurité électrique, qui demandent notamment d'utiliser plusieurs instruments comme des voltmètres ou des ampèremètres. Elle était réalisée par Pollock, Chandler, and Sweller en 2002. Les résultats ont clairement montré l'efficacité de ce principe d'isolation. On peut aussi citer l’expérience de Ayres de 2006 sur l'apprentissage de l'algèbre et des développements d'équations, et l'expérience de 2010 de Blayney, Kalyuga, and Sweller, sur l'apprentissage de l'utilisation d'un tableau pour des applications de comptabilité.

Séparation théorie-pratique[modifier | modifier le wikicode]

Il est aussi utile de séparer l'apprentissage des connaissances théoriques et les connaissances pratiques (procédures ou méthodes). Cela vient du fait que les connaissances qui portent sur les connaissances théoriques ont souvent une forte charge cognitive : voir ces connaissances en même temps que les connaissances liées aux procédures risque de faire saturer la mémoire de travail. Diverses expériences faites par Sweller et ses collègues, ont montré que cette séparation augmentait la compréhension et la mémorisation. En soi, cette séparation est une forme particulière des deux effets présentés plus haut.

Références[modifier | modifier le wikicode]

  1. néo-piagétiennes


Supports pédagogiques

Dans le premier chapitre, nous avons parlé de la théorie du double codage. Celle-ci stipule que les connaissances sont mémorisées dans deux sous-réseaux, un pour les connaissances et informations verbales et un autre pour les informations visuelles. Celle-ci dit que l'usage de dessins, schémas et autres informations visuelles renforce la mémorisation. En effet, cela permet de mémoriser une même information à la fois dans le système verbal et dans le système visuel, la rendant plus stable, plus solide. Et qui dit usage de représentation visuelles dit généralement supports pédagogiques.

Cependant, on peut se poser la question de l'interaction entre le double codage et la charge cognitive. On pourrait croire que dupliquer les informations sous forme verbale et visuelle serait une forme de redondance qui augmente la charge cognitive inutilement. Mais ce n'est pas le cas. Il est apparu, dans quelques expériences sur le sujet, que la présentation simultanée d'informations visuelles et orales n'entraine pas de surcharge cognitive (dans une certaine mesure). Cet effet dit de modalité, peut paraitre surprenant pour nous, mais il est en réalité cohérent avec les modèles plus récents de la mémoire de travail. Ces théories disent que la mémoire de travail est composée de plusieurs sous-mémoires indépendantes :

  • une mémoire de travail verbale, la boucle phonologique ;
  • une mémoire de travail visuelle, le calepin visuo-spatial ;
  • et une mémoire de travail qui permet d'intégrer les informations verbales et visuelles.

En somme, un humain dispose de deux canaux d'entrée : un canal visuel, et un canal auditif. Les images ne peuvent passer que par le canal visuel, ce qui n'est pas le cas des mots : ceux-ci peuvent être entendus par le canal auditif (écoute), ou lu par le canal visuel (lecture). Profiter de ces deux canaux demande donc d'utiliser à la fois des images et des mots (texte, oral, etc) : cet apprentissage, qui utilise plusieurs sources, plusieurs types de supports, s'appelle l'apprentissage multimédia. Mais pour le faire intelligemment, il faut gérer la charge de la mémoire de travail, qui peut être diminuée en suivant quelques règles de design simples. En 2009, Mayer a créé une théorie généraliste concernant la création de documents pédagogiques. Les recommandations de cette théorie, basée sur la théorie de la charge cognitive, vont vous permettre de comprendre comment diminuer la charge cognitive des documents et autres supports pédagogiques (notamment les supports numériques).

Cette image illustre l'architecture cognitive utilisée par la théorie de l'apprentissage multimédia de Mayer.

Texte écrit[modifier | modifier le wikicode]

De nombreuses expériences ont cherché à savoir si le texte était plus facile à comprendre et à mémoriser que l'oral. Ces expériences ont étés faites sur des collégiens (Lieury, Badoul, Belzic, 1996), des adolescents (Gunter, Furhnam, Gietson, 1984) et des adultes (Furhnam, Gunter, 1987; et aussi Bells Perfetti, 1994). Dans tous les cas, le texte écrit est nettement mieux mémorisé que l'oral. C'est ce que l'on appelle l'effet de supériorité de l'écrit. Cependant, l'effet n'a lieu que pour des textes relativement longs. En effet, le texte passe par le canal visuel, de faible capacité, alors que l'oral passe par la mémoire de travail verbale, plus grosse. Cela favorise l'oral pour les textes courts. Mais pour des textes longs, le texte permet de relire plusieurs fois ou de relire les portions de texte mal comprises. Vu que les textes longs surchargent la mémoire de travail verbale, cela avantage clairement l'écrit.

Il existe une exception : lorsqu'il y a présence d'images, il est plus efficace de les présenter des images avec un commentaire audio qu'avec du texte [1][2][3][4][5][6][7]. C'est parce que le texte et les images entrent en concurrence pour l’utilisation du canal visuel. C'est ce que l'on appelle l'effet de modalité ou effet de concurrence à court terme. Les premières études sur le sujet furent celles de Mousavi et al. (1995) sur du matériel géométrique. Elles ont été suivies par TindallFord et al. (1997), qui ont reproduit ces résultats lors de l'apprentissage d’ingénierie électrique.

Éliminer le superflu permet de rendre une explication plus facile à comprendre. Ainsi, il vaut mieux supprimer la redondance pour améliorer les performances d'apprentissage : on parle d'effet de redondance. Par exemple, présenter un texte à la fois sous forme écrite et orale sur un écran d'ordinateur pourrait réduire les performances d'apprentissage.

De nombreuses expériences ont clairement montré qu'un abus de liens hypertexte peut rendre la navigation relativement labyrinthique. L'usager a alors de sérieuses difficultés à se souvenir de l'endroit où il est sur le site et ne sait donc plus vraiment se repérer dans celui-ci. Cela arrive quand des liens hyper-texte sont imbriqués : un lien renvoie vers une page qui a un hyper-lien, et ainsi de suite. On appelle cela l'effet de désorientation. Mais dans le cas d'un site bien construit, l'usage de liens hypertexte permet de diminuer la quantité d'informations présentes sur la page et de déplacer les détails dans des sections annexes. Cela permet de mieux mémoriser les idées générales du texte lu, ce qui favorise l'apprentissage. En somme, les liens hyper-texte sont à utiliser avec parcimonie, dans le but de cacher/déplacer les détails et d'alléger le texte.

Illustrer[modifier | modifier le wikicode]

Les expériences ont mis en évidence un phénomène de double codage : on retient mieux une information quand celle-ci est mémorisée à la fois sous forme verbale, et sous forme imagée. Cet effet de double codage pourrait aussi expliquer pourquoi les concepts concrets sont plus faciles à mémoriser et à manipuler. Expérimentalement, diverses épreuves de mémoire montrent qu'on se souvient nettement mieux des mots concrets que des mots abstraits dans des tâches de rappel. La théorie du double codage prétend que cela vient du fait qu'on peut visualiser les concepts concrets, contrairement aux concepts abstraits.

Une idée reçue courante, surtout chez les enseignants, est que certains élèves sont « visuels », d'autres « auditifs » ou « tactiles ». Mais dans les faits, le visuel est toujours mieux mémorisé que le verbal ou l'auditif[8][9] : on parle d'effet de supériorité de l'image sur le mot. Après tout, ne dit-on pas qu'un bon schéma vaut mieux qu'un long discours ? En conséquence, l'ajout d'informations visuelles dans un cours aide les élèves. Cela peut passer par l'utilisation de schémas au tableau, de dessins, de diagrammes, ou d'autres techniques du genre. Par exemple, Kourilslcy et Wittrock ont montré, dans leur étude de 1987, qu'ajouter des graphiques pour illustrer les relations entre concepts abstraits améliorait les performances en compréhension et de rappel d'un cours d'économie.

Les expériences de Mayer ont prouvé qu'il existe des conditions pour utiliser efficacement ces images :

  • les images ne doivent pas être surchargées en informations, et doivent rester relativement sobres
  • le texte couplé avec les images doit être explicatif ;
  • les illustrations doivent aussi être explicatives ;
  • cela ne fonctionne qu'en début d'apprentissage : des élèves novices profitent de la présence d'images mais pas les élèves qui ont de bonnes connaissances antérieures sur le sujet à apprendre ;
  • les images ne permettent que d'améliorer la compréhension de quelque chose : elles ne permettent pas de faciliter la mémorisation pure et simple de faits.

Films et animations[modifier | modifier le wikicode]

La théorie de la charge cognitive donne des recommandations spécifiques pour l'utilisation d'animations : il est préférable de les éviter et de les remplacer par des suites de dessins statiques. Le Transient information effect stipule que si on va plus vite que la mémoire de travail, de nouvelles informations vont venir remplacer les anciennes alors que celles-ci n'ont pas pu être traitées convenablement. En conséquence, seule une partie des informations est mémorisée et l'apprentissage se passe mal. Or une animation est un document dans lequel les informations sont fournies à un rythme relativement rapide : le transient information effect fonctionne à plein. Pour éviter cela, il vaut mieux recourir à des suites de dessins statiques. De plus, il vaut mieux faire en sorte que l'élève puisse choisir de passer d'un dessin à un autre de son propre chef, de façon qu'il puisse aller à son rythme et bien prendre son temps pour mémoriser et analyser les images qui lui sont présentées. Mais cette dernière recommandation n'est possible qu'avec des outils numériques avancés (sites web, ou autres).

Intégration des documents[modifier | modifier le wikicode]

De nombreux documents utilisent des informations qui doivent être traités ensemble pour être comprises. L'effet d'attention divisée nous dit que traiter ensemble des informations éloignées mène à des performances inférieures. Dans ces conditions, l'élève devra maintenir chaque élément dans sa mémoire de travail avant de pouvoir les combiner. Il vaut mieux rapprocher les informations qui doivent être traitées simultanément. De même, il semble préférable d'apprendre le fonctionnement d'un ordinateur grâce à un manuel intégrant toutes les informations nécessaires, plutôt qu'au moyen d'un manuel qui oblige à un constant aller-retour avec l'ordinateur.

Comme autre exemple, de nombreux schémas ont des légendes écrites : pour comprendre le schéma, on doit relier chaque élément de l'image à la portion de la légende correspondante. En pratique, il vaut mieux éviter de placer des légendes en dessous des schémas : les élèves comprennent mieux quand le texte est intégré aux schémas, et placé immédiatement à côté du dessin correspondant[10]. Cela fonctionne aussi bien pour des cartes géographiques ou géologiques[11], que pour les schémas électriques ou électroniques[12]. Pour en donner un exemple, prenons les deux schémas de cerveau suivants. Le premier utilise une légende, et est donc déconseillé par l'effet d'attention divisée.

Références[modifier | modifier le wikicode]

  1. Kalyuga, Chandler, & Sweller, 1999, 2000
  2. Tindall-Ford, Chandler, & Sweller, 1997
  3. Jeung, Chandler, & Sweller, 1997
  4. Mousavi, Low, & Sweller, 1995
  5. Mayer & Moreno, 1998
  6. Moreno & Mayer, 1999
  7. Mayer, 2009
  8. Denis, 1979
  9. Lieury, 1997
  10. Sweller et al. (1990)
  11. Purnell, Solman, and Sweller (1991)
  12. Chandler and Sweller (1991)


Exercices et exemples : comment rendre la pratique efficace ?

Apprendre à résoudre des problèmes est un point crucial dans certaines disciplines. Qu'il s'agisse de problèmes mathématiques, de problèmes de physique, d'exercices de biologie, etc; les mécanismes mentaux de résolution de problème sont presque toujours les mêmes, et les connaitre permet de déduire des recommandations pédagogiques diverses et variées. Or, la charge cognitive va aussi jouer dans l'acquisition de stratégies ou de procédures, et pourra diminuer l'efficacité des exercices donnés aux élèves. Dans ce qui va suivre, nous allons voir quelles recommandations peut nous donner la théorie de la charge cognitive quand il s'agit de résolution de problème.

Les stratégies de résolution de problèmes[modifier | modifier le wikicode]

Résoudre un problème demande d'utiliser ses connaissances, ou de mobiliser des procédures connues pour les appliquer. Il est donc évident que connaitre les connaissances et procédures nécessaires est un pré-requis absolu pour résoudre des problèmes. Mais cela ne suffit pas, mobiliser ses connaissances demandant de pouvoir activer les connaissances et procédures quand c'est nécessaire ou pertinent. Cela demande des connaissances conditionnelles, qui indiquent quand il faut mobiliser telle ou telle connaissance/procédure/stratégie/méthode, etc.

Chez l'expert[modifier | modifier le wikicode]

Seul l'expert a pu forger, avec son expérience, de telles connaissances conditionnelles, qui lui permettent d'appliquer ses connaissances de manière efficace. Elles lui permettent d’accéder aux informations pertinentes pou résoudre un problème sans avoir à réfléchir, en se basant uniquement sur leur mémoire. Ces connaissances conditionnelles prennent la forme de schémas (le terme a plusieurs sens en psychologie cognitive), des catégories de problèmes qui sont reliées aux informations pertinentes pour leur résolution. C'est grâce à eux que l'expert peut reconnaitre si un problème correspond ou non à une situation connue.

Ces schémas sont reliés aux connaissances et aux concepts nécessaires pour résoudre le problème. Ils sont aussi reliés à des procédures de résolution, ce qui permet d'appliquer des solutions stéréotypées à une classe de problème bien précise sans avoir à formuler d'hypothèses. Pour donner un exemple, on va prendre l'exemple d'un joueur de Football professionnel, qui doit gérer à tout moment sa position sur le terrain et ses actions en fonction de divers paramètres tactiques. Ce Footballer a mémorisé lors de son entraînement une grande quantité de configurations de jeu, chacune d'entre elle étant reliée à une solution tactique stéréotypée. La même chose a lieu chez les joueurs d'échec : ils ont mémorisé un grand nombre de configurations de jeu, chaque configuration étant reliée au meilleur coup à jouer. Ce genre de chose permet aussi d’expliquer les performances en mathématique ou en physique de nombreux élèves.

Chez le novice[modifier | modifier le wikicode]

Cette mobilisation efficace n'est pas à la portée du novice, même si celui-ci dispose des connaissances et procédures nécessaires. Celui-ci a beau savoir comment faire, il ne dispose pas des schémas sus-mentionnés et ne sait donc pas quand utiliser telle procédure/connaissance. Sans connaissances conditionnelles, un novice n'a accès qu'à quelques stratégies générales, comme procéder par analogie ou par essais et erreurs. Ces stratégies générales fonctionnent quelle que soit la situation, mais on ne peut pas dire qu'elles soient efficaces. Elles demandent une certaine réflexion et utilisent donc la mémoire de travail. Dans les grandes lignes, il existe deux stratégies générales de ce type, outre l'analogie : le Hill Climbing et la Means-End Analysis. Les deux fonctionnent par essais et erreurs, le sujet formulant des hypothèses et décomposant le problème en sous-problèmes.

Avec le Hill climbing, l’élève va partir des données du problème pour progressivement se rapprocher de la solution : il va planifier la suite d’étapes en partant des données du problème. A chaque étape, l’élève vérifie s’il s’est approché de la solution : si c’est le cas, il continue à partir de l’étape obtenue, et revient en arrière sinon.

Ce Hill climbing est souvent comparé avec une de ses variante : la Means-end analysis. Avec celle-ci, le sujet peut décomposer le problème en sous-problèmes. Dans le cas le plus courant, l’élève va partir du but demandé, pour poursuivre à rebours vers les données du problème. Lors de ce parcours à rebours, chaque étape va créer un nouveau sous-problème à résoudre, sous-problème qui sera résolu avec la même méthode, et ainsi de suite : le problème est résolu quand on atteint un sous-problème peut être résolu directement à partir des données du problèmes.

Prenons l’exemple suivant :

   y = x + 6, x = z + 3, et z = 6. Trouvez la valeur de y.
  • Un novice va se focaliser sur le but : trouver la valeur de y.
  • Il va d’abord lire y = x + 6. Il va alors chercher à résoudre le sous-problème : trouver x.
  • Il va ensuite lire x = z + 3. Il va alors chercher à résoudre le sous-problème : trouver z.
  • Enfin, il va lire z = 6, et il va rembobiner le tout.

Le cas intermédiaire de l'analogie[modifier | modifier le wikicode]

L'analogie est une méthode de résolution de problème générale, au même titre que les deux précédentes. L'analogie permet de reconnaître qu'un problème est analogue à une situation déjà rencontrée. Celle-ci est utilisée à la fois par les sujets intermédiaires/novices et les experts, avec toutefois une petite différence : les novices utilisent des analogies inefficaces, contrairement aux experts. Les sujets peu performants utilisent des analogies de surface, où les situations source et cible partagent des caractéristiques de surface, des éléments qui peuvent être remplacés par d'autres sans que cela change la manière de résoudre le problème. Par exemple, les deux problèmes qui vont suivre sont analogues du point de vue de l'analogie de surface, vu que leurs énoncés partagent les mêmes mots/concepts et valeurs numériques, mais ne se résolvent pas de la même manière :

   Paul possède 50 euros, il en donne 3 à Vanessa, combien Paul a-t-il d'argent ?
   Paul possède 50 euros, Vanessa lui en donne 3, combien Paul a-t-il d'argent ?

En comparaison, les sujets performants utilisent des analogies structurales où les relations des deux situations peuvent être mises en correspondance. Le traitement des sujets performants se base donc plus sur un traitement conceptuel que sur la simple présence de points communs entre les deux situations. Ce traitement plus efficace est permit par la présence de connaissances conceptuelles et de schémas dans la mémoire de l'élève, là ou les analogies de surface ne font pas appel aux connaissances antérieures et demandent simplement de remarquer des points communs. Par exemple, les deux problèmes qui vont suivre sont analogues du point de vue de l'analogie structurale et se résolvent de la même manière, mais ne sont pas analogues du point de vue de l'analogie de surface :

   Paul possède 50 euros, il en donne 3 à Vanessa, combien Paul a-t-il d'argent ?
   Un patron possède 20 usines de fabrication de composants électroniques, il se fait racheter 5 de ses usines par un concurrent, combien lui en reste-il ?

Des méthodes de raisonnement différentes[modifier | modifier le wikicode]

Pour résumer, novices et experts n'utilisent pas les mêmes méthodes de raisonnement face à des problèmes identiques. Les débutants font appel à des méthodes faibles, qui ont un caractère général, et peuvent s'appliquer à de très nombreuses situations, si ce n'est toutes. Mais ces méthodes faibles sont peu performantes, non seulement parce qu'elles saturent la mémoire de travail, mais aussi parce qu'elle n'utilisent pas les connaissances du sujet. Ces méthodes sont les seules utilisables chez les sujets qui ne disposent pas de connaissances utiles pour résoudre la tâche demandée. Autant dire que les sujets experts, qui ont acquis une solide base de connaissances (conditionnelles, déclaratives ou procédurales), ne sont pas dans ce cas là. Ils peuvent utiliser des méthodes fortes, qui font usage des connaissances acquises, et notamment des schémas. Seules les connaissances acquises leur permettent d'utiliser ces méthodes, que ce soit par usage de l'analogie ou de schémas. Les connaissances, qu'elles soient conceptuelles ou conditionnelles, sont la base de toute réflexion intelligente, de tout esprit bien formé. Vouloir enseigner des compétences de haut niveau, comme la créativité ou l'esprit critique, est vain s'il ne se double de l'acquisition d'un savoir solide et élaboré.

Cependant, l'usage des méthodes faibles par le novice peut interférer avec l'apprentissage. En effet, les méthodes faibles utilisent fortement la mémoire de travail, pour mémoriser les buts et sous-buts à résoudre, et planifier les différentes étapes à effectuer. On peut alors se demander, compte tenu de cette occupation de la mémoire de travail, comment se forment les schémas. Quelques chercheurs ont suggéré, autrefois, que les schémas s'apprenaient à force de pratique, par l'action. Mais la formation de schémas demande une certaine forme d'abstraction, qui utilise les ressources de la mémoire de travail. Dans ces conditions, l'usage des stratégies générales nuit à l'acquisition des schémas. L'élève qui résout un problème est dans une situation de double-tâche : il doit non seulement résoudre le problème, mais aussi former les schémas nécessaires à l'apprentissage. Limiter la surcharge de la mémoire de travail lors de la résolution d'exercice facilite donc l'abstraction de schémas. Les premières expériences sur le sujet, réalisées par Sweller, montrent que ce phénomène est une réalité, ont d'ailleurs posées les bases de la théorie de la charge cognitive. Dans ce qui va suivre, nous allons voir comment diminuer la charge cognitive lors de la résolution de problème.

Méthodes faiblement guidées[modifier | modifier le wikicode]

La théorie de la charge cognitive nous dit que laisser un élève résoudre de lui-même des problèmes est peu efficace. Des méthodes actives forcent l'élève à utiliser des méthodes faibles pour résoudre le problème, ce qui sature sa mémoire de travail. On pourrait croire que cette théorie déconseille aux enseignants de faire faire des exercices aux élèves par eux-même, tout du moins en début d'apprentissage. Mais ce n'est pas tout à fait le cas : certains conseils permettent de laisser les élèves réfléchir par eux-même, sans pour autant saturer leur mémoire de travail. Ces méthodes permettent de diminuer l'usage de la mémoire de travail par ces méthodes faibles, notamment en forçant l'utilisation de certaines méthodes faibles moins gourmandes que les autres. De ce paragraphe, nous allons voir quelles sont ces méthodes, que nous qualifierons de faiblement guidées. Par la suite, le paragraphe suivant portera sur les méthodes plus fortement guidées, où l'élève n'est plus autonome.

L'explication de la démarche[modifier | modifier le wikicode]

Un des défaut des méthodes faibles est qu'elles ne sont que des recherches au hasard, par essai ou erreur, qui permettent d'arriver à la solution sans avoir réellement compris la démarche à utiliser. Un élève qui a réussit à trouver la solution ne saura pas forcément se souvenir de comment celui-ci à fait et encore moins de savoir pourquoi il a procédé ainsi. Autant dire que ce genre de démarche est peu propice à la formation de connaissances conditionnelles, schémas inclus. Pour éviter cela, il est possible de demander à l'élève de justifier sa démarche, pourquoi a-t-il procédé ainsi, de le forcer à expliquer pourquoi ce qu'il a fait permet de trouver la solution. Ces explications permettent à l'élève d'identifier quels sont les types de problèmes et pourquoi ceux-ci doivent être résolus d'une certaines manière. Cette explication de la démarche (le terme anglo-saxon, mal-nommé, est "self-explanation"), donne expérimentalement de bons résultats, du moins si l'élève arrive à donner des explications correctes et élaborées.

Problèmes "ouverts"[modifier | modifier le wikicode]

Il est possible de diminuer la charge cognitive en modifiant le format des exercices. Pour comprendre pourquoi, il faut savoir que les stratégies de résolution de problème ne sont pas égales du point de vue de la mémoire de travail. La Means-End Analysis sature rapidement la mémoire de travail, contrairement au Hill climbing : dans ces conditions, la mémorisation des exemples et la formation de schémas s’effectue mal, voire n’a pas lieu. Pour que le novice ne puisse pas utiliser la Means-End Analysis, la théorie de la charge cognitive recommande de modifier le format des exercices : c’est ce qu’on appelle le Goal-free effect. Les exercices donnés à l’élève ne doivent pas donner un but précis : à la place, les exercices doivent demander à l’élève de déduire tout ce qu’ils peuvent à partir des données contenues dans l’énoncé.

Par exemple, l’exercice suivant :

> y = x + 6, x = z + 3, et z = 6. Trouvez la valeur de z.

doit être modifié en :

> y = x + 6, x = z + 3, et z = 6. Trouvez le maximum de valeurs.

Autre exemple, l’exercice suivant :

> Une particule a une vitesse de 2 mètres par seconde à un instant t. Elle accélère de 5 mètres par secondes carrés durant 25 secondes. Calculez la distance parcourue à l’instant t + 5 minutes.

Doit être reformulé comme ceci :

> Une particule a une vitesse de 2 mètres par seconde à un instant t. Elle accélère de 5 mètres par secondes carrés durant 25 secondes. Trouvez un maximum de valeurs.

Cet effet a été validé expérimentalement. Les expériences de Owen et Sweller (1985) ont comparé deux groupes d’élèves de même niveau qui recevaient des exercices de géométrie : un groupe avait un énoncé sans but, et l’autre un exercice conventionnel. On entrainait les deux groupes d’élèves, chacun avec un type bien précis d’exercice, et on comparait les résultats avec des exercices conventionnels tout ce qu’il y a de plus normaux. Des expériences complémentaires, effectuées par Bobis, Sweller, et Cooper (1994), ont confirmé l’efficacité de cette stratégie avec des exercices de géométrie. Enfin, les études de Sweller, Mawer, et Ward (1983) ont testé l’efficacité de cette technique sur des exercices de physique. La différence était en faveur du groupe sans but dans tous les cas.

Travaux de groupe[modifier | modifier le wikicode]

De nos jours, les pédagogies basés sur des travaux de groupe deviennent de plus en plus courantes. Ces **pédagogies coopératives** demandent aux élèves de travailler en groupes de deux personnes ou plus, que ce soit en utilisant des débats de classe, des jeux de rôles, des travaux pratiques en groupe, etc. On peut se demander pourquoi faire travailler les élèves en groupe permettrait d'améliorer l'apprentissage. On peut supposer un effet sur la motivation, mais il existe aussi une raison liée à la mémoire de travail. L'effet de la mémoire de travail collective nous dit que la charge cognitive est diminuée quand on fait travailler les élèves en groupe. De plus, cet effet est valable pour tous les élèves, même ceux qui ont peu de connaissances antérieures : il ne s'agit pas d'un 'expertise reversal effect'.

Cela vient du fait qu'avec une bonne répartition des tâches entre élèves, la charge cognitive est répartie sur plusieurs personnes, diminuant la charge cognitive pour chaque élève. Cela implique que le travail de groupe ne fonctionne que pour des tâches complexes et est contre-productif pour les tâches simples. Avec des tâches simples, la charge de la mémoire de travail est suffisamment faible pour que les élèves puissent la gérer individuellement : il n'y a pas besoin de la répartir entre plusieurs élèves.

Mais à cette répartition de la charge cognitive, il faut ajouter les coûts de communication entre élèves : ceux-ci doivent échanger des informations. Et ces coûts de transaction vont augmenter légèrement la charge cognitive : pour savoir à qui demander l'information, il faut conserver des informations sur la répartition des tâches dans le groupe en mémoire de travail. Ainsi, un bon apprentissage coopératif doit explicitement concevoir les problèmes de manière à diminuer les coûts de transaction et faciliter la répartition des tâches. Cela expliquerait pourquoi les études et recherches sur l'apprentissage coopératif donnent des résultats si varié : suivant la qualité de la répartition des tâches, l'apprentissage peut être très efficace ou très laborieux. Ainsi, la majorité des études sur l’efficacité de l'apprentissage coopératif sont à jeter à la poubelle : elles ne tiennent pas en compte la qualité de la séparation des tâches.

Méthodes guidées[modifier | modifier le wikicode]

Les méthodes précédentes, faiblement guidées, laissaient l'élève trouver de lui-même la solution et la suite d'étape à utiliser pour y arriver. Elles sont à opposer aux méthodes fortement guidées, où l'enseignant va donner à la fois la solution et la suite d'étape utilisée. Cette démarche empêche totalement l'élève d'utiliser des méthodes faibles, contrairement aux méthodes précédentes. Elles sont donc nettement plus efficaces que les précédentes, vu qu'elles diminuent encore l'utilisation de la mémoire de travail. Par exemple, écouter le professeur résoudre des exemples va réduire la saturation de la mémoire de travail, comparé à une résolution d’exercices autonome.

Expliciter les catégories de problèmes[modifier | modifier le wikicode]

Un premier conseil est d'expliciter les schémas d'un domaine, de montrer que les problèmes peuvent se ranger dans quelques types bien précis. Il peut être utile de modifier les exercices de manière à ce que l'élève doive identifier ou nommer le type de problème auquel il est confronté avant de tenter de le résoudre. Le premier exemple est celui de l'apprentissage des quatre opérations fondamentales : addition/soustraction, et multiplication/division. Il existe une méthode d'apprentissage du calcul qui explicite au maximum les différentes catégories de problèmes mathématiques qui se résolvent avec une addition/soustraction ou une multiplication/divisions : on l'appelle sous le nom anglais de Schema Based Intervention.

Mais nous avons vu dans les chapitres précédents que former des catégories était un processus relativement compliqué, et que donner des définitions ne suffisait pas. Les catégories doivent être illustrées avec des exemples, et éventuellement des contre-exemples. Et les catégories/types de problèmes ne font pas exception. D'où l'utilité des méthodes qui vont suivre.

Exemples résolus[modifier | modifier le wikicode]

La seconde méthode consiste à présenter des exemples de problèmes résolus à l’élève, que l’on appelle des exemples travaillés. Ces exemples travaillés sont des exemples d’exercices que le professeur résout devant les élèves : durant ces exemples, le professeur pense à haute voix, montre explicitement comment il résout le problème, montre bien quelles sont les étapes de résolution et comment il les enchaîne, il explicite ses raisonnements, etc. Expérimentalement, ces exemples travaillés sont systématiquement plus efficace que de passer directement aux exercices : on parle d’effet des exemples travaillés. Cet effet est valable pour de nombreux domaines. Le domaine le plus étudié lors de la création de la théorie de la charge cognitive fût toutefois les mathématiques.

Exemple travaillé (en anglais) sous forme écrite, pour un problème de géométrie.

En 1985 et 1987, Sweller and Cooper ont testé l’efficacité des exemples travaillés dans l’apprentissage de manipulations algébriques : les élèves devaient apprendre à simplifier et à résoudre des équations. La première catégorie de groupes d’élèves passait directement aux exercices après le cours, tandis que l’autre avait droit à une phase de pratique guidée : la pratique guidée a augmenté de manière significative les résultats des élèves. Seul problème : pour obtenir les résultats, les élèves étaient interrogés sur des problèmes qui étaient très similaires aux problèmes vus en exemple. Cette expérience ne permettait pas de prouver que les élèves peuvent transférer les informations acquises dans les exemples dans des exercices différents. Pour vérifier si de tels phénomènes de transferts ont bien lieu, les mêmes auteurs ont effectué une autre expérience, en 1987, qui cherchait à évaluer l’apparition de possibles phénomènes de transferts. Cette étude a montré que ces effets ont bien lieu.

Par la suite, une étude faite par Carroll (1994), a reproduit des résultats similaires : l’usage d’exemples travaillés donne de bons résultats sur des étudiants faibles ou avec des difficultés lors de l’apprentissage mathématiques. Un certain Paas (1992) a ensuite validé cet effet sur des problèmes de statistique. Ce même auteur a aussi validé cet effet pour des exercices de géométrie avec une autre étude avec son collègue van Merriënboer, en 1994.

Exemples partiellement résolus[modifier | modifier le wikicode]

Certaines expériences ont évalué l’efficacité des exemples partiellement travaillés dans lesquels le professeur résout partiellement les exercices présentés et laisse les élèves finir. Expérimentalement, on peut constater que cela donne de bons résultats sur pas mal d’élèves. C’est ce qu’on appelle le problem completion effect. Cet effet a notamment été étudié par Van Merriënboer (1990), pour l’apprentissage de la programmation informatique. Dans son étude, il a comparé deux classes : une qui recevait un enseignement dans lequel les élèves devaient créer eux-mêmes des morceaux de programmes, et une autre qui devait modifier et étendre des programmes existants. Après une période de dix leçons, les deux classes étaient invitées à créer des programmes dans leur intégralité. Le groupe à base d’exemples partiellement travaillés avait les meilleurs résultats. Ces résultats ont été reproduits dans une étude faite par Van Merriënboer et de Croock (1992). Dans cette étude, les élèves étaient encore répartis en deux groupes : un dans lequel les élèves devaient créer totalement des programmes, et un autre dans lequel les élèves devaient terminer des programmes partiellement écrits et remplir les blancs.

L'effet de l'expérience[modifier | modifier le wikicode]

Ces expériences ont étés répétées de nombreuses fois, pour vérifier quelque chose : quand ces exemples travaillés deviennent inutile ? Il apparaît qu’au bout d’un certain temps, les exemples travaillés ont de moins en moins d’effets positifs. Mais il semblerait que ce ne soit pas le temps qui soit la variable pertinente, mais la quantité de connaissances antérieures de l’élève. Les premières expériences sur le sujet furent des études qui comparaient la performance de deux groupes de sujets dans la durée : celle-ci regardaient comment les élèves évoluaient durant de longues durées, suivant qu’ils aie droit ou non à des exemples travaillés.

Dans une de leur étude datée de 2001, Kalyuga, Chandler, Tuovinen, et quelques collègues, ont vérifié si la quantité de connaissances antérieures jouait sur l’efficacité des exemples travaillés. Dans leur première expérience, les élèves devaient apprendre à programmer des équipements industriels : au final, les exemples travaillés devenaient de moins en moins efficaces, et finissaient par devenir nettement moins efficaces que les élèves d’un groupe contrôle qui n’avait pas d’exemples travaillés. Dans une expérience additionnelle, citée dans la même étude, les mêmes expérimentateurs ont reproduit cet effet sur un groupe de sujets qui apprenait à créer des équations booléennes de circuits à base de relais (ça date, je sais…). La comparaison avec le groupe contrôle était claire : quand l’élève a acquis suffisamment de connaissances et mémorisé suffisamment d’exemples antérieurs, l’effet des exemples travaillés diminue.

D’autres expériences sont basées sur une simple constitution de quatre groupes : ceux-ci sont séparés en deux groupes d’élèves performants et non-performants, qui reçoivent chacun soit des exemples travaillés, soit une pratique autonome à base d’exercice. On peut citer l'expérience de Kalyuga et Sweller en 2004, sur les compétences en algèbre.

Ces expériences ont clairement montré que les exemples travaillés ne sont utiles que pour des élèves qui ont peu de connaissances antérieures dans un domaine, ceux qui ont beaucoup de connaissances antérieures bénéficiant plus d’exercices et de pratique autonome. C’est ce qu’on appelle l’expertise reversal effect. L'explication de cet expertise reversal effet est assez simple : si l’élève a acquis suffisamment de schémas, de nouveaux exemples travaillés ne font que répéter des schémas déjà connus et vont donc agir comme une sorte de redondance. Cela arrive après une dizaine d’exemples travaillés, voire un peu plus (15/20).

Expertise reversal effect, comparaison entre experts et novices (en anglais).

Guidance fading effect[modifier | modifier le wikicode]

On peut combiner les trois effets précédents pour organiser la phase d’exemples travaillés : après la présentation d’exemples totalement travaillés, le professeur poursuit par des exemples partiellement travaillés, avant de laisser les étudiants résoudre les exercice eux-mêmes. La transition doit se faire de la manière la plus douce possible : lors de l’usage d’exemples partiellement travaillés, le nombre d’étapes que les élèves doivent réaliser pour résoudre totalement l’exercice doit graduellement augmenter à chaque exercice. En utilisant cette organisation les résultats sont meilleurs : c’est le Guidance fading effect.

Cependant, cette tactique peut s’appliquer de deux manières, qui dit comment effectuer des exemples partiellement travaillés. Dans le premier cas, le professeur commence par résoudre les exemples travaillés devant les élèves, et il leur demande de les terminer à partir d’un certain point. Au fur et à mesure des exemples, le professeur s’arrête de plus en plus tôt, jusqu’à ce qu’il n’y aie plus d’étapes à enlever. Dans la seconde tactique, les élèves doivent commencer par résoudre le début de l’exercice, et le professeur termine les exercices à partir d’un certain stade. Au fil du temps, le professeur est repoussé de plus en plus vers la toute fin de l’exercice, et ne doit plus résoudre que les toutes dernières étapes de l’exemple travaillé. L’étude de Renkl, Atkinson, Maier, and Staley, datée de 2002, a montré que les deux stratégies ne sont pas égales. La tactique qui consiste à laisser les élèves résoudre la fin de l’exercice donne de meilleurs résultats. En tout cas, les deux stratégies font mieux que l’usage d’une rupture brutale entre exemples travaillés et exercices.

Quel contenu pour les exemples travaillés ?[modifier | modifier le wikicode]

La théorie de la charge cognitive donne quelques conseils sur le contenu des exemples travaillés. Par exemple, il est recommandé d'expliquer le plus possible pourquoi tel opérateur est utilisé pour passer à l'étape suivante. Ces explications favorisent la formation de catégories de problèmes ou de sous-problèmes. Une expérience, réalisée en 2006 par van Gog, Paas, et van Merriënboer, a montré que les exemples qui indiquaient juste quelle opérateur appliquer à chaque étape ne sont pas les plus efficaces, et qu'il vaut mieux expliquer pourquoi tel opérateur est appliqué pour passer à l'étape suivante. On pourrait donner à cette observation le nom d'effet de justification. Il ne s'agit ni plus ni moins que de la méthode d'explication de la démarche, mais adapté aux exemples travaillés.

De plus, il ne faut pas oublier que ces exemples doivent permettre à l'élève d'abstraire une catégorie de problèmes. Or, nous avons vu il y a quelques chapitres de cela, comment favoriser l'abstraction de catégories à partir d'exemples. La conclusion était qu'il fallait varier les exemples (et contre-exemples, si possible). Cela permettait en effet de faciliter la formation de catégories plus générales, et permettait aussi de profiter de l'effet de distribution des apprentissages. On peut appliquer ce conseil aux exemples travaillés, ce qui nous dit qu'utiliser des exemples travaillés variés est nettement plus efficace que l'utilisation d'exemples travaillés peu variés. On parle d'effet de variation.

Une autre conclusion du chapitre sur la formation des concepts était l'utilisation de contre-exemples, relativement variés et intercalés entre les exemples. Là encore, ce conseil peut s'appliquer, sous une forme assez différentes cependant. L'idée est de mixer les différents types de problèmes dans une même session d'exercices, après ou pendant l'usage d'exemples travaillés. On peut opposer cette méthode avec ce qui est fait traditionnellement dans les salles de classes à l'heure actuelle. Chaque chapitre porte sur un type de problèmes particulier, qui fait l'objet d'exemples et d'exercices, avant de passer au chapitre suivant. Ce faisant, les élèves savent que les exercices visent à appliquer le cours du chapitre, et en déduisent que les exercices portent sur le type de problèmes qu'ils viennent d'aborder en cours. L'élève n'a pas besoin de former de connaissances conditionnelles pour résoudre ces exercices, mais a juste besoin de se souvenir du sujet du chapitre en cours. Mais lors des épreuves finales, ou dans la vie réelle, les problèmes ne surviennent pas dans l'ordre des chapitres vus en cours. Pour éviter cela, il vaut mieux, pour chaque session d'exercice, mixer des problèmes liés au chapitre en cours, avec des problèmes liés aux chapitres précédents. Ainsi, l'élève devra, pour répondre correctement, déduire à quel type de problème appartient chaque exercice, et ainsi former des connaissances conditionnelles. Cette technique, l'interleaving, donne de très bons résultats et ne demande pas beaucoup d'efforts de la part de l'enseignant.

Références[modifier | modifier le wikicode]


L'importance de la pratique

Dans les chapitres précédents, nous avons surtout parlé de la manière d'enseigner des connaissances, qu'il s'agisse de notions, de concepts, de faits, d'algorithmes, de procédures. Mais l'apprentissage ne s'arrête pas une fois que l'élève a appris. Encore faut-il qu'il n'oublie pas. Pour cela la pratique est indispensable, comme nous le verrons dans les chapitres suivants. Mais la pratique n'a pas pour seul effet de lutter contre l'oubli. Elle peut aussi automatiser les connaissances ou procédures apprises. Par automatiser, on veut dire que l'utilisation de celles-ci demande de moins en moins de mémoire de travail. Par exemple, à force de pratique, l'élève devient de plus en plus rapide pour appliquer un algorithme quelconque.

L'automatisation de tâches de bas niveau est primordiale pour les performances dans les tâches de plus haut niveau, qui font intervenir en leur sein ces automatismes. Le philosophe Alfred North Whitehead a d'ailleurs résumé cet état de fait avec la maxime suivante : "C'est un truisme erroné répété par tous les manuels et par de nombreux gens éminents dans leurs discours, que de croire que nous devrions cultiver l'habitude de penser à ce que nous sommes en train de faire. Mais c'est évidemment le contraire qui est vrai. La civilisation progresse en multipliant les opérations importantes que nous pouvons effectuer sans y penser.". Mais alors comment favoriser l'acquisition de cette automaticité ? La pratique joue un rôle primordial, comme nous allons le voir.

Traitements automatiques et contrôlés[modifier | modifier le wikicode]

Les sciences cognitives ont depuis longtemps étudié cette automatisation. Loin d'être un simple concept du langage commun, il est apparu que certains traitements cognitifs ne font pas, ou très peu, appel à la conscience et à l'attention soutenue. De tels traitements automatiques sont à opposer aux traitements contrôlés, qui font appel à la conscience, à une attention soutenue, et qui utilisent la mémoire de travail. Les processus automatiques seraient rapides, économes en ressources attentionnelles, et provoqués par un stimulus quelconque.

L'existence de processus automatiques est apparue lors d’expériences dites de double tâche, où des sujets devaient effectuer deux choses à la fois. De telles tâches sont extrêmement dures pour les sujets, ceux-ci effectuant un grand nombre d'erreurs et ayant des performances nettement inférieures aux situation mono-tâche. Cela vient du fait que les sujets doivent partager leur attention et leur mémoire de travail sur plusieurs choses à la fois. Or, la quantité d'attention, ainsi que la capacité de la mémoire de travail, sont disponible en quantité limitée. Leur partage réduit donc les performances. Cependant, il est vite apparu que certains traitements pouvaient être effectués avec une tâche concurrente sans diminution de performance. De tels traitements étaient des traitements de routine, acquis de longue date par un entrainement relativement long et progressif. De plus, ces traitements étaient automatisés : ils n'utilisaient pas d'attention, demandaient peu d'efforts et n'utilisaient pas ou peu la mémoire de travail. Ainsi fût déduite la distinction entre traitements contrôlés et automatiques.

L'exemple de la lecture[modifier | modifier le wikicode]

Pour donner un exemple, la lecture des mots chez un adulte est un processus automatique. Pour le prouver, on peut utiliser l'effet Stroop, qui nous dit que réprimer des automatismes a tendance à allonger les temps de réaction. Et c'est ce qu'on observe dans le cas de la reconnaissance des mots. Par exemple, si on vous demande de donner la couleur d'un mot, vous prendrez beaucoup plus de temps si jamais le mot en question est un adjectif de couleur qui ne correspond à la couleur de l'encre. Essayez par vous-même :

Vert Rouge Bleu Jaune Bleu Jaune

Bleu Jaune Rouge Vert Jaune Vert

Par contre, la lecture chez un enfant qui n'a pas appris parfaitement à lire n'est pas automatisée. Un enfant en primaire doit déchiffrer consciemment les mots, lettre par lettre, syllabe par syllabe. L'enfant est alors dans une situation de double tâche, dans le sens où déchiffrage et compréhension doivent être effectués en même temps. Il n'est pas rare que toute leur attention soit portée sur ce processus de déchiffrage, ne laissant pas la place pour les processus de compréhension de texte. Automatiser la lecture permet alors de libérer de la mémoire de travail, au profit des processus de compréhension. D'ailleurs, les études montrent que la pratique rend le déchiffrage relativement économe en mémoire de travail, ce qui a un effet largement positif sur la vitesse de lecture et la compréhension de texte. Ainsi, les mauvais décodeurs ont des difficultés pour comprendre un texte[1][2].

Les théories de l'automaticité[modifier | modifier le wikicode]

Dans les grandes lignes, les traitements contrôlés font appel à ce que les scientifiques appellent les fonctions exécutives, là où les traitements automatiques en sont décorrélés. Ces fonctions exécutives regroupent la gestion de la mémoire de travail (mise à jour ou rafraichissement de son contenu), l'inhibition et l'attention. Elles sont prises en charge dans de zones anatomiques précises, dans le cortex frontal (pré-frontal, précisémment). Les fonctions automatiques ne font pas appel à ces fonctions exécutives, ou alors de manière minimale. Elles impliquent des traitements différents des traitements contrôlés.

Des théories permettent d'expliquer quels sont les mécanismes qui se cachent derrière l'automaticité, et pourquoi celles-ci ne font pas appel aux fonctions exécutives. Toutes se mettent d'accord sur un point : les processus automatiques font appel à la mémoire à long-terme, contrairement aux processus contrôlés qui font appel à un traitement algorithmique qui utilise la mémoire de travail. Là où les processus contrôlés demandent d'effectuer une suite d'étapes distinctes, dont les résultats temporaires sont pris en charge par la mémoire de travail, les processus automatiques se réduisent à un simple accès en mémoire. Plusieurs mécanismes permettent d'expliquer la formation de l'automaticité, qu'il s'agisse de l'accès direct en mémoire ou de la procéduralisation.

L'accès direct en mémoire[modifier | modifier le wikicode]

Une première méthode d'automatisation implique la mémoire sémantique/déclarative. Pour faire simple, ce processus permet d'automatiser des matériels comme les tables de multiplication, le calcul mental, la lecture (dans une certaine mesure), et bien d'autres. Le principe est que les processus contrôlés demandent d'effectuer une suite d'étapes pour obtenir une solution. Avec l'entrainement, le sujet va progressivement associer la réponse avec le problème posé, compte tenu des données de celui-ci. Une fois automatisés, le sujet peut directement récupérer la solution du problème en mémoire. Il n'a alors plus à réfléchir pour trouver la solution, supprimant tout besoin d'utiliser la mémoire de travail ou les fonctions exécutives. On peut dire, pour résumer, que cette automaticité de rappel provient de l'acquisition et de la consolidation de faits, qui permettent de répondre immédiatement à un problème.

Pour donner un exemple, prenons l'exemple d'un élève de primaire qui apprend à compter (à faire des additions). Au tout début de l'apprentissage, celui-ci ne connait pas ses tables d'additions et doit compter sur ses doigts ou mentalement. Alors certes, les algorithmes utilisés par l'élève changent avec le temps. Par exemple, l'élève va progressivement utiliser la commutativité (pour commencer à compter à partir de la plus grande opérande), ou commencera à compter de deux en deux/ de trois en trois/etc. Mais avec le temps, une association entre la somme à effectuer et la réponse se forme. A force de pratique, l'élève pourra récupérer directement la solution, sans efforts, au lieu de compter mentalement[3][4].

La procéduralisation[modifier | modifier le wikicode]

Mais un rappel rapide de faits n'est pas le seul mécanisme d'automatisation. Le second mécanisme, dit de procéduralisation, permet une automatisation non de faits, mais de procédures, d'algorithmes, de méthodes. Cette procéduralisation fait appel à une mémoire totalement différente de celle vue précédemment. Les chapitres précédents impliquaient la mémoire déclarative, qui mémorise les faits et connaissances dans un gigantesque réseau mnésique. Mais certaines procédures automatisées sont mémorisées dans une mémoire séparée de la mémoire déclarative : la mémoire procédurale. Dans les faits, il arrive que certaines procédures, initialement mémorisées dans la mémoire déclarative, migrent progressivement en mémoire procédurale. Ce processus de procéduralisation permet d'automatiser certains algorithmes courants. Cependant, cette procéduralisation prend du temps, de la pratique, et beaucoup de répétitions. Pour donner un exemple, l’acquisition des manipulations algébriques font partie de ce processus.

L'acquisition de l'automaticité[modifier | modifier le wikicode]

Qu'il s'agisse d'un rappel automatique de faits ou d'une consolidation de procédures, la pratique joue un rôle fondamental. Cependant, la pratique idéale diffère suivant que l'automatisme à acquérir soit une connaissance à rappeler ou une procédure à appliquer. Dans le cas des connaissances, pour les tâches où l'automaticité est une automaticité de rappel, la pratique doit se faire à données constantes. Par exemple, pour l'apprentissage du calcul, chaque calcul/fait mathématique doit être revu plusieurs fois, répété avec les mêmes nombres. Mais pour l'automatisation de procédures, il vaut mieux que les données sur lesquelles appliquer l'algorithme soient différentes à chaque fois (sauf éventuellement pour quelques cas très fréquents).

En savoir plus[modifier | modifier le wikicode]

  • "Automaticity: A Theoretical and Conceptual Analysis", par Agnes Moors et Jan De Houwer.

Références[modifier | modifier le wikicode]

  1. Perfetti, 1988
  2. Yuill et Oakhill, 1991
  3. How children's brains memorize math facts., daté de 2014
  4. "Cognitive psychology and simple arithmetic: A review and summary of new directions", publié dans le journal "Mathematical Cognition", November 1994


Les stratégies de répétition


On a vu dans les chapitres précédents que mémoriser une information consiste à la relier avec des connaissances antérieures. Ce processus ne laisse aucune place à la "répétition par cœur". D'ailleurs, les expériences faites sur le sujet ont montré que cette forme de répétition, comme la relecture ou le par cœur, n'a aucun effet à long terme. Pour être précis, elle améliore les performances de reconnaissance mais pas de rappel.

Pour vérifier sa mauvaise efficacité, des chercheurs ont demandé à des volontaires de décrire du mieux qu'ils pouvaient une pièce d'un penny, un centime américain. De plus, ils leur ont posé quelques questions simples sur cette pièce. Bilan : les volontaires ne se souvenaient pas des détails de la pièce. Par exemple, ils ne savaient pas si le visage était tourné vers la droite ou la gauche. Pourtant, ces personnes voient cette pièce tous les jours et y sont exposés en permanence. Dans le même genre, on peut demander à des cobayes quelle est la disposition des chiffres (les touches) sur leur téléphone : le taux de fausses réponses est particulièrement élevé. Pourtant, les sujets font attention à la disposition des touches quand ils utilisent le clavier, pour ne pas faire d'erreurs de frappe. Mais cela ne permet que de faire passer l'information en mémoire à court terme, la répétition ne permettant que de l'y maintenir. Cela n'a aucune influence sur l'encodage. Répéter mentalement un numéro de téléphone permet de le garder à l'esprit, dans la mémoire à court terme mais aucunement de l'encoder en mémoire à long-terme.

La relecture/révision[modifier | modifier le wikicode]

Cette constatation a naturellement des conséquences pour les apprentissages scolaires. Par exemple, relire ses cours sur un faible intervalle de temps n'a pas vraiment d'influence, les connaissances étant encodées lors de la première présentation (sauf cas de surcharge de la mémoire à court terme). Cela ne signifie pas que relire ses cours est inutile, vu que de nouvelles associations peuvent se former à chaque relecture. Mais l'efficacité de cette stratégie est alors rapidement décroissante. Ce cas est non seulement possible, mais aussi extrêmement fréquent, au point qu'il peut s'observer avec une simple liste de mots ! Cela se voit très bien dans les expériences de rappel libre répété, où des sujets doivent apprendre une liste d'items, avant de devoir les rappeler dans l'ordre de leur choix, plusieurs fois de suite, avec des intervalles de pause entre chaque rappel. On observe alors qu'au fil des rappels, les sujets réorganisent les items suivant leurs connaissances antérieures (les items sont de plus en plus classés par catégorie, par exemple). De manière générale, l'effet de la relecture se limite à l'élaboration de nouvelles inférences, à quelques exceptions près. C'est très utile si on a pas très bien compris le cours, ou si on veut l'approfondir. Mais pour qui a bien compris le cours, pas besoin de relire une dizaine de fois son cours dans la même soirée. Quelques relectures devraient suffire à un bon élève.

Les études sur l'efficacité de la relecture sont légion et on peut notamment citer un article de 2008, paru dans le journal "Comtemporary educationnal psychology", qui a étudié l'impact de la relecture sur la mémorisation/compréhension d'un texte en prose. Cet article visait à répliquer diverses études précédentes, aux résultats hétérogènes. Celles-ci montraient que la relecture était relativement inefficace, sauf dans deux cas précis.

  • Dans le premier cas, les relectures sont nombreuses et le test a lieu immédiatement après les relectures. Malheureusement, l'effet s'estompe rapidement, retarder le test de quelques heures ou jours suffisant à faire disparaître l'effet.
  • Dans le second cas, les relectures étaient espacées de plusieurs heures ou plusieurs jours. Cette fois-ci l'effet était durable.

En somme, la relecture est utile, mais seulement si on relit quelque chose que l'on a pas lu depuis longtemps. Bachoter n'a strictement aucune efficacité à long terme. Cela permet juste d'avoir de bonnes notes à un examen ayant lieu le lendemain, mais vous avez des chances de tout oublier quelques jours ou semaines après. Nous reviendrons plus loin sur le cas des relectures espacées, qui est plus intéressant qu'il n'y paraît.

Mais alors pourquoi l'intuition nous dit-elle que bachoter et relire ses cours est une méthode efficace ? Deux raisons à cela. Premièrement, il existe un effet positif à court terme, qui peut induire en erreur. Mais sur le long terme, l'effet du bachotage se réduit très rapidement et n'a pas d'effet durable, contrairement à d'autres méthodes de révision. Ensuite, il faut savoir que relire, apprendre par cœur, améliore la familiarité avec le matériel. Sa reconnaissance est donc plus facile. Cette familiarité avec le matériel à apprendre n'augmente pas ses performances de rappel, mais donne l'illusion d'avoir appris. Cette illusion de connaissance est à l'origine de notre foi dans l'apprentissage par cœur pour la mémorisation. Notre évaluation d'un apprentissage se base en effet beaucoup sur ce sentiment de familiarité, là où les performances de rappel sont plus difficiles à connaître. Le seul moyen pour avoir une bonne idée de ce que l'on sait, à savoir ce que l'on peut rappeler, est de se tester, de se faire évaluer avec un test ou une interrogation. On verra plus tard que cette technique a de nombreux autres avantages.

Comme on le devine, l'efficacité de la répétition varie suivant différents paramètres, qu'il vaut mieux optimiser le plus possible : les élèves doivent répéter efficacement. Or, leurs méthodes de travail ont leur importance dans ce processus de répétition. Il existe ainsi de nombreuses stratégies de révisions qui permettent d'optimiser les révisions au maximum.

La répétition de rappel[modifier | modifier le wikicode]

Les informations qu'on retient le mieux ne sont pas forcément celles qu'on a vues le plus souvent, mais celles dont on s'est souvenu régulièrement. À chaque fois que vous vous rappelez quelque chose, ce quelque chose en question va être consolidé un peu plus à la suite du rappel. Par exemple, si vous recevez un nouveau numéro de carte bleue, il va vous falloir un certain temps avant de le connaître par cœur. Au tout début, vous aurez du mal à vous en souvenir, et il se peut que vous utilisiez des procédés mnémotechniques pour vous faciliter la vie. Par contre, à force de vous rappeler de le code de carte bleue, vous finirez par vous en souvenir de mieux en mieux. Chaque rappel successif fait de moins en moins appel à votre concentration et demande de moins en moins d'efforts. Ainsi, des rappels répétés consolident la connaissance en mémoire à long terme, ce qui immunise la connaissance rappelée contre l'oubli.

Cela suggère d'utiliser une méthode de révision appelée la répétition de rappel. Elle consiste à forcer l'élève à se rappeler l'information plutôt que de la relire plusieurs fois de suite. Celle-ci est plus efficace que la simple relecture/révision. Pour donner un exemple, je vais prendre une expérience effectuée par Roediger & Karpicke. On demandait à des étudiants de lire des textes scientifiques relativement courts. Le premier groupe devait lire le texte 4 fois, le second groupe lisait le texte trois fois et se faisait tester une fois, tandis que le troisième groupe avait droit à une seule lecture et trois interrogations. Une semaine plus tard, les trois groupes étaient testés : plus un groupe avait été testé, mieux c'était.

Comme autre exemple, nous allons prendre une étude réalisée dans un collège américain (dans l'Illinois). Dans celle-ci, des chercheurs ont organisé un cours d'histoire-géographie de manière que les divers points du cours fassent l'objet d'interrogations régulières. Les élèves subissaient ainsi des interrogations régulières, à faible coefficient, plusieurs fois par semestre. Le rythme d'interrogation était nettement plus important comparé à la situation avant l'expérience. Lors d'une évaluation un mois après l'expérience, les élèves obtenaient la note moyenne de A- sur les notions apprises et testées lors de l'expérience, alors que les autres notions recevaient une note moyenne de C+. Autant dire qu'une telle différence est particulièrement appréciable.

Les interrogations et évaluations sont donc des techniques d'apprentissage et non un moyen de vérifier les connaissances de l'élève : elles doivent être fréquentes. De même, s'auto-tester ou se faire tester par un pair est une méthode de révision efficace. Si vous allez travailler chez un ami, essayez de vous poser des questions à tour de rôle. Si vous révisez seul, vous pouvez essayer de ré-expliquer le cours avec vos propres mots. Cela demande d'écrire des résumés de cours, sans regarder ses notes de cours, ou d'utiliser la technique du canard en plastique : prenez un objet quelconque (typiquement, un canard en plastique), et faites comme s'il s'agissait d'un humain auquel vous expliquez votre cours. Le bilan de cette technique semble être vraiment positif[1][2][3][4][5][6][7][8][9].

La répétition de rappel peut aussi s’implémenter avec des flashcards, des cartes sur lesquelles on marque une question d'un côté et la réponse à mémoriser de l'autre côté. Le but est, à chaque carte tirée, de répondre à la question posée, avant de retourner la carte pour voir si la réponse donnée est correcte. Cette technique peut s'utiliser pour beaucoup de choses, comme des listes de mots, des définitions, des formules mathématiques, des dates, etc. Pour utiliser ces flashcards, un psychologue du nom de Leitner a inventé un système assez simple. Ces cartes sont classées en groupes numérotés, qui sont visités à des intervalles de temps différents : les premiers groupes sont plus souvent visités que les derniers. Au tout début, toutes les cartes sont placées dans le premier groupe. Ensuite, si on réussit à se souvenir de ce qu'il y a sur la carte, on la met dans le groupe suivant, si on échoue, on remet celle-ci dans le premier groupe. Par la suite, on traite tous les groupes un par un. Bien sur, d'autres variantes existent : en cas d'échec, on peut simplement rétrograder la carte d'un rang.

Pour terminer, il semblerait que la répétition de rappel soit plus efficace si elle demande des efforts. Si une information met du temps à être rappelée, si elle est difficile à se remémorer, son rappel la consolidera d'autant plus. Il s'agit d'un bon exemple de ce que l'on appelle une difficulté désirable. En somme, apprendre n'est pas quelque chose de facile, qui ne demande pas d'efforts. Il est des difficultés qui, loin de nuire à l'apprentissage, le facilitent.

La distribution de l'apprentissage[modifier | modifier le wikicode]

Un exemple similaire de difficulté désirable, fortement lié à la répétition de rappel, va là aussi à l'encontre de notre intuition. Beaucoup d'entre vous ont passé des soirées à bachoter et à réviser sans relâche avant un examen important ou une interrogation quelconque. Ce faisant, vous avez certainement révisé vos cours ou refait des exercices durant une heure, peut-être plus, sans vous arrêter. Mais cette méthode, appelée apprentissage massé est en réalité assez mauvaise pour mémoriser. Ses effets sont similaires à ceux de l'apprentissage par cœur : efficace à court-terme, mais sans effet notable au bout de quelques jours ou semaines. Autant dire que les illusions de savoir vues plus haut jouent encore une fois à plein. La recherche montre qu'il est beaucoup plus efficace de distribuer ses révisions dans le temps, dans plusieurs sessions espacées dans le temps. Cet effet est connu sous le nom de distribution de l'apprentissage

On a vu auparavant que relire ses cours est une mauvaise méthode de révision. Elle fonctionne lors des premières relectures, mais son effet s'estompe rapidement après 2 à 4 relectures, une fois que toutes les élaborations possibles ont été faites. Au-delà, la relecture n'a que peu d'influence sur la mémorisation ultérieure, vu qu'elle n'implique ni élaboration, ni rappel répété. Mais il faut cependant nuancer un peu les choses. La relecture peut être efficace sous certaines conditions bien précises. Il faut dire qu'elle est le plus souvent utilisée sous la forme de révisions massées, à savoir des révisions condensées sur une période unique, généralement importante. Une étudiant va ainsi relire ses cours plusieurs fois durant une heure ou deux, sans s'arrêter. C'est moins efficace que de distribuer les révisions, à savoir étaler les révisions dans le temps, découper le travail en petits morceaux séparés par des intervalles de temps assez longs, à faire de nombreuses pauses assez longues entre chaque répétition.

Expérimentalement, on constate que l’apprentissage distribué surpasse l’apprentissage massé, quelle que soit la situation d’apprentissage ou le matériel à apprendre. Cette supériorité de la distribution de l’apprentissage a été démontrée par une quantité absolument incroyable d’études [10]. Cette supériorité de la distribution sur l'apprentissage massé s'appelle le spacing effect. Les études sur le sujet ont aussi montré que cet effet vaut pour une large gamme de matériel : les faits ne sont pas les seuls concernés. Cela marche aussi pour la révision de cours magistraux, l’acquisition de procédures cognitives et même l’apprentissage moteur. Un élève aura donc tout intérêt à répartir ses devoirs sur la semaine de façon à en faire un petit peu à chaque fois. De même, faire de longues pauses tout les deux-trois exercices aidera fortement l’élève. De même, les professeurs gagnent à étaler les devoirs dans la semaine ou le mois. De ce point de vue, les statistiques montrent clairement qu’il y a du chemin à faire : les élèves ont souvent tendance à utiliser l’apprentissage massé.

Effet de la distribution de l'apprentissage, comparé à l'apprentissage massé dans l'apprentissage d'une liste de mots.

L’intervalle de temps idéal entre deux répétitions n’est pas encore connu avec certitude. Les chercheurs recommandent toutefois des intervalles très longs, de plusieurs jours. Des intervalles de 4 à 5 jours donneraient de bonnes performances, même si les chercheurs s’autorisent à penser à des intervalles plus longs pour certains types de matériel. Il semblerait que la durée entre deux révisions dépende de la facilité d'apprentissage du matériel. Du matériel facile à retenir se marie bien avec des intervalles longs entre deux révisions, là où du matériel complexe peut gagner à avoir des temps inter-révisions de l'ordre du quart d'heure.

La distribution de l'apprentissage peut aussi s'implémenter en prenant en compte le fait que l'élève n'a pas qu'une seule matière à réviser. Par exemple, un élève peut avoir des devoirs de mathématique et de biologie à faire dans la même soirée. D'ordinaire, les élèves ont tendance à travailler par blocs : ils font tous leurs devoirs de mathématiques d'abord, puis passent à la biologie. En réalité, il est préférable de distribuer les apprentissages entre les matières. Ainsi, il vaut mieux faire quelques exercices de mathématique, avant de passer à la biologie, puis de revenir aux mathématiques, et ainsi de suite. Cette méthode, qui consiste à remplir les vides dus à la distribution avec les révisions d'une autre matière, s'appelle l'interleaving.

Lire aussi[modifier | modifier le wikicode]

Pour aller plus loin, je vous conseille deux lectures :

  • l'article nommé Improving Students’ Learning With Effective Learning Techniques: Promising Directions From Cognitive and Educational Psychology ;
  • et le livre nommé "Mets-toi ça dans la tête !", par Brown, Roediger et McDaniel.

Références[modifier | modifier le wikicode]

  1. Bielaczyk, Pirolli, & Brown, 1995
  2. Chi, Bassok, Lewis, Reimann, & Glaser, 1989
  3. Chi, de Leeuw, Chiu, & LaVancher, 1994
  4. Mwangi & Sweller, 1998
  5. Renkl, 1997
  6. Renkl, Stark, Gruber, & Mandl, 1998
  7. Roy & Chi, 2005
  8. VanLehn, Jones, & Chi, 1992
  9. Renkl, 1999
  10. Using Spacing to Enhance Diverse Forms of Learning : Review of Recent Research and Implications for Instruction


Les stratégies d'élaboration

Oitre la répétition de rappel, il est aussi possible de jouer sur l'élaboration lors des révisions, afin d'ajouter des associations d'idées à chaque révision du matériel à apprendre. À ce petit jeu, les devoirs un peu plus actifs demandent souvent à l'élève de réfléchir, voire de générer quelque chose à partir de connaissances antérieures, permettant ainsi de créer de nouvelles connections dans ce réseau. En environnement scolaire, les études de 2003 et 2007 du Conseil canadien sur l’apprentissage ont clairement montré que les devoirs basés sur du par cœur ou de la répétition de maintien ont une efficacité inférieure aux devoirs demandant d'être actif.

L'effet de génération[modifier | modifier le wikicode]

Pour élaborer, on peut utilsier ce qu'on appelle l'effet de génération : générer soit-même le matériel à apprendre demande de générer des associations entre connaissances antérieures, pour construire la connaissance voulue. Sous certaines conditions très restrictives, cela permet de créer plus d'associations qu'avec un apprentissage direct. On peut utiliser cet effet en demandant aux élèves de répondre à des questions de compréhension, de réaliser des résumés du cours, etc. On peut aussi appliquer ce conseil aux langues étrangères : une fois que les élèves ont appris suffisamment de vocabulaire, mieux vaut les faire parler que de leur faire lire des textes. Cependant, cet effet de génération ne marche pas à tous les coups. Il est essentiel que l'élève trouve la réponse demandée, ou réussie à effectivement générer quelque chose.

Stratégies de révision[modifier | modifier le wikicode]

Par exemple, visualiser mentalement le concept à apprendre donne quelques résultats. De nombreux procédés mnémotechniques de l'antiquité se basaient sur ce principe : la méthode des lieux en est un bon exemple. Cette imagerie mentale a été testée expérimentalement, par diverses études. On pourrait citer l'étude de Leutner, Leopold, and Sumfleth (2009), qui a clairement montré que cette visualisation mentale permettait de diminuer la charge cognitive lors de l'apprentissage, comparé à la création manuelle de dessins. De plus, les élèves gagnaient fortement à imaginer visuellement le matériel à apprendre. Citons aussi l'étude de Leutner et al. (2009) a aussi montré que cette imagerie mentale a des effets positifs pour la compréhension. Pour donner un dernier exemple, l'étude de Leahy and Sweller (2004) a montré que demander à des étudiants d'imaginer les contours d'une carte permettait de mieux mémoriser celle-ci, comparé à un groupe qui étudiait la carte. Malheureusement, cette imagerie demande de l’entraînement, et ne s'applique que pour une quantité limitée de matériel.

Comme autre exemple un peu plus utile, créer des résumés du cours demande de sélectionner les informations du cours et de les traiter, ce qui permet de créer des associations. De plus, cela permet d'extraire les idées générales du cours, ce qui permet une réorganisation efficace du matériel en mémoire. Cependant, l'efficacité de cette technique dépend de la capacité de l'élève à créer ce résumé. Créer efficacement des résumés demande d'utiliser quelques stratégies, qui ne sont pas forcément bien connues des élèves. Mais pour les élèves bons en création de résumé, cette technique est à utiliser dès que possible.

Autre méthode : pour chaque fait présent dans le cours, tenter d'en donner une explication. Cette technique qui consiste à poser des questions du style « pourquoi », pour chaque fait du cours, aurait une efficacité qui ne serait pas négligeable[1]. Elle permet non seulement d'élaborer, mais elle permettrait à l'élève de se rendre compte de certaines conceptions, de certaines incohérences, et de les corriger. Il est évident que cette méthode a cependant une efficacité limitée : elle ne marche que pour mémoriser des faits relativement simples, que l'on peut réussir à expliquer par soit-même.

Stratégies de prise de notes[modifier | modifier le wikicode]

Cet effet de génération a aussi des effets sur la prise de notes. Lors d'un cours magistral, au lieu d'écrire ce que raconte le professeur, il vaut mieux sélectionner ce que l'on va noter, en prenant en compte les idées générales du discours du professeur, et d'autres paramètres[2]. Faire ainsi permet d'augmenter le traitement fait sur les informations à écrire : on crée plus d'associations. Les chercheurs ont aussi pu constater que l'effet sur la mémoire et la compréhension des cartes mentales est maximal si l'élève crée lui-même la carte mentale à apprendre. En somme, les cartes mentales sont de très bon outils de prise de notes.

La création de cartes mentales à partir du cours est légèrement reliée à cette technique de génération. L'effet est d'ailleurs maximal si l'élève crée lui-même la carte mentale. La recherche est très claire là-dessus : ça fonctionne, et les professeurs ne devraient pas s'en priver [3][4][5][6].

Procédés mnémotechniques[modifier | modifier le wikicode]

Les procédés mnémotechniques sont de techniques qui permettent de mémoriser facilement une gamme limitée de matériel (une liste de mots, de dates, ou autre). Tous fonctionnent sur le même principe : organiser le matériel à apprendre de manière à lui donner une "signification", imposer du sens à du matériel qui n'en a pas. Ils permettent notamment d'associer les éléments du matériel à rappeler avec des indices, qui permettront de se remémorer le matériel appris. Ces procédés sont malheureusement trop peu utilisés et je tiens à signaler qu'il existe un wikibooks sur le sujet, accessible via ce lien : Liste de mnémoniques). Évidemment, ces procédés sont utiles pour une gamme très limitée de matériel, ce qui a tout de même son utilité.

Chunking[modifier | modifier le wikicode]

Une première mnémotechnique est la technique du chunking. Elle consiste à regrouper les éléments du matériel à apprendre en plusieurs groupes qui ont une signification bien précise. Se souvenir du regroupement est alors plus facile que de se souvenir des éléments individuels, qu'il est possible de retrouver en décomposant chaque regroupement. Ces regroupements sont généralement chargés en mémoire de travail lors du rappel. Pour gérer la mémoire de travail au mieux, on doit trouver un compromis idéal entre nombre de regroupements (de chunks), et taille des groupes. Des groupes trop gros saturent la mémoire de travail avec un trop grand nombre d’éléments, tandis qu'un trop grand nombre de groupes va saturer la mémoire de travail de groupes. Idéalement, la taille d'un groupe, doit être inférieur à la capacité de la mémoire de travail, et est donc limité à 4 ou 5.

Par exemple, essayez de mémoriser le numéro de téléphone suivant, sans regrouper les chiffres :

   0 3 2 4 5 3 4 6 7 8 

Et maintenant essayez en regroupant les chiffres deux à deux :

   03 24 53 46 78

La seconde suite était plus facile : le fait de regrouper les chiffres fait que le nombre de chunks à mémoriser était plus faible.

Historiquement, le premier scientifique a avoir découvert cela était Miller, celui qui a découvert que la mémoire à court terme pouvait retenir 7 +- 2 chunks. Son expérience était simple : il devait retenir un maximum de chiffres binaires, présentés les uns après les autres. Pour information, le binaire est un système d'écriture des nombres qui n'utilise que deux chiffres : 0 et 1. Dans son expérience, il devait retenir une suite de 0 et de 1, dans ce genre : 1011110011010101100000. En travaillant sur des chiffres isolés, il arrivait à retenir 7 chiffres. Mais il eu l'idée d'utiliser des groupements de deux, trois, ou quatre chiffres binaires. Il eu l'idée d’interpréter chacun de ces groupe comme un nombre écrit en décimal. Il lui suffisait d'apprendre la correspondance entre groupes de chiffres et nombres, et de l'utiliser pour mémoriser les chiffres.

   0 = 0000
   1 = 0001
   2 = 0010
   3 = 0011
   4 = 0100
   5 = 0101
   6 = 0110
   ...

Hiérarchies[modifier | modifier le wikicode]

On peut aller encore plus loin en regroupant les regroupements : on peut rassembler des chunks "simples" en chunks de plus haut niveau. Idéalement, on peut poursuivre ainsi de suite jusqu’à ce que l'on aie rassemblé toutes les informations dans un seul groupe, un seul chunk. On obtient ainsi une hiérarchie, qui respecte certaines contraintes.Cette hiérarchie est ce que l'on appelle une structure de récupération, aussi appelés plan de récupération. Expérimentalement, cette organisation hiérarchique permet d'obtenir un meilleur rappel que d'autres formes d'organisation.

  • Prenons un exemple : l'expérience de Bousfield (1953). Dans cet expérience, il était demandé à des élèves de mémoriser une liste de 60 mots. Ces 60 mots appartenaient à 4 catégories différentes : animaux, profession, légumes, et vêtement. Les mots sont présentés aléatoirement aux cobayes. Seulement, au fil des essais, on s’aperçoit que les cobayes ont tendance à regrouper les mots dans leurs réponses. Au final, après un grand nombre d'essais, ils rappellent les mots catégorie par catégorie. Et ce regroupement est fortement corrélé à un taux de rappel de plus en plus élevé.
  • Prenons un autre exemple : Clark, Lesgold et Winzenz (1969) ont fait apprendre des listes de mots à deux groupes de cobayes. Le premier avait une liste de mots organisée hiérarchiquement, et l'autre une liste complètement désorganisée. Le bilan est très clair : les participant du groupe hiérarchique ont rappelés 3 fois plus de mots que les autres.
  • Wittrock and Carter (1975) ont montré que des élèves du secondaire qui organisaient eux-même une table de minéraux en hiérarchie avaient de meilleures performances que des élèves qui ne faisaient que recopier et relire la liste de minéraux. Par contre, relier une hiérarchie crée par le professeur donnait de meilleurs résultats que générer soit-même la hiérarchie.
  • D'autres expériences sur des listes de mots sont arrivées aux même résultats : classer les informations dans une hiérarchie permet de faciliter fortement le rappel et l'apprentissage, d'un facteur pouvant aller de 3 à 5.

Cette efficacité des hiérarchies provient en partie du processus de chunking, de regroupement. Dans toutes les expériences faites sur le sujet, les expérimentateurs ont remarqué que lors du rappel d'une hiérarchie, le rappel d'un concept était suivi du rappel des sous-concepts situés juste en-dessous dans l'arbre dans 90% des cas. En clair, chaque information sert d'indice de rappel pour les sous-informations placées immédiatement en dessous de lui. La recherche de l'information à rappeler se fait en parcourant la hiérarchie, en partant du sommet, jusqu’à trouver l'information à rappeler. Lors de ce parcours, les indices parcourus lors de la recherche de l’information sont aussi conservés en mémoire de travail, et servent à se repérer dans la hiérarchie. La somme d'indices parcourus + taille du groupe en cours de visite ne doit donc pas dépasser la capacité de la mémoire de travail.

Il est donc conseillé de créer des hiérarchies pour mieux mémoriser. Mais comment faire ? Voici quelques exemples, qui vous permettront de mieux comprendre comment organiser le matériel à apprendre autour d'un plan de récupération. Ces exemples vont aborder le cas de matériel simple, souvent destiné à être appris par cœur.

Par exemple, essayez de deviner laquelle de ces deux listes fonctionne le mieux :

Liste 1 :

  • vache
  • cheval
  • poney
  • poulain
  • cochon
  • rat
  • souris
  • lézard

Liste 2 :

  • vache
  • cochon
  • poulain
  • souris
  • cheval
  • lézard
  • poney
  • rat

C'est évidemment la première, vu que les mots sont regroupés par catégorie.

Le fait d'indiquer explicitement les catégories permet d'améliorer encore la mémorisation.

Liste 1 :

  • vache
  • cheval
  • poney
  • poulain
  • alligator
  • crocodile
  • caïman
  • lézard

Liste 2 :

  • équidés :
    • vache
    • cheval
    • poney
    • poulain
  • reptiles :
    • alligator
    • crocodile
    • caïman
    • lézard

De plus, si on montre un petit dessin montrant la hiérarchie des catégories, le rappel de la liste de mots est clairement meilleur comparé à une liste de mot convenablement triée.

On peut donner un premier exemple, avec des groupements en catégories un peu plus subtils : l'apprentissage de cartes. Les départements sont un bon exemple : les catégories sont alors les régions.

Ainsi, au lieu d'utiliser une liste dans ce genre :

*01 = Ain ;

  • 02 = Aisne ;
  • 03 = Allier ;
  • etc ;

Vous devriez utiliser une liste dans ce genre :

Départements du nord-pas-de-calais :

  • 59 = Nord ;
  • 62 = Pas-de-calais.

Départements d'île-de-France :

  • 75 = Paris ;
  • 77 = Seine-et-Marne ;
  • etc.

On peut aussi appliquer cette technique à l'apprentissage de dates, en histoire, à condition d'utiliser les nœuds qui conviennent. Les nœuds les plus élevés dans la hiérarchie seraient du style : Moyen-age, antiquité, etc. Quand aux nœuds un peu plus bas, ils seraient du style : règne de Louis 16, règne de Louis 14, etc. Cela peut aussi s'appliquer facilement à l'apprentissage de listes de vocabulaire, comme des listes de verbes irréguliers, des listes de mots d'une langue étrangère, etc.

Former des phrases[modifier | modifier le wikicode]

L'apprentissage verbatim d'une liste de mots est clairement une tâche très difficile. Aussi, imposer du sens à un tel matériel peut sembler compliqué. Cependant, il existe une méthode tout simple pour ce faire : former une phrase avec les mots à apprendre. Il est aussi possible de ne prendre que la première lettre d'un mot pour former des acronymes, ou former de nouvelle phrases. Diverses mnémoniques de ce genre existent, notamment pour mémoriser les formules de la thermodynamique, les décimales du nombre PI, la liste des planètes, ou le code couleur des résistances.

Références[modifier | modifier le wikicode]

  1. http://www.education.com/reference/article/self-explanation/
  2. Classroom Instruction that Works. Marzano, R et al (2001)
  3. Cunningham (2005) : Mindmapping: Its Effects on Student Achievement in High School Biology
  4. Farrand, Hussain, and Hennessy (2002) : "The efficacy of the mind map study technique". Medical Education
  5. Brian Holland, Lynda Holland, Jenny Davies (2004). An investigation into the concept of mind mapping and the use of mind mapping software to support and improve student academic performance
  6. Marzano, R et al (2001) : Classroom Instruction that Works


Développer sa méta-cognition

Maintenant, nous allons quitter le domaine du fonctionnement de la mémoire. Nous allons aborder une compétence appelée la méta-cognition, qui est fortement corrélée avec la réussite scolaire. Pour résumer, la méta-cognition est la capacité à évaluer et contrôler son apprentissage ou ses processus mentaux. Pour cela, les élèves ont souvent à leur disposition diverses stratégies de mémorisation, de compréhension de texte, de résolution de problèmes, etc. Certaines de ces stratégies de mémorisation représentent la capacité à « apprendre à apprendre ». En gros, plus un élève a une bonne méta-mémorisation, plus il sait quelles sont les méthodes pour apprendre facilement. A coté, on trouve aussi des stratégies de comprehension de texte : se baser sur la structure du texte, chercher l'idée générale, relier le contenu du texte avec des connaissances antérieures, etc. Mais concentrons-nous sur les stratégies de mémorisation.

La méta-mémoire et ses mécanismes[modifier | modifier le wikicode]

Pour bien réviser un élève doit savoir ce qu'il sait et ce qu'il ne sait pas, histoire de se concentrer sur ses points faibles. Cette capacité à savoir ce qu'on sait et ce que l'on ignore s'appelle la méta-mémoire. Plus un élève a une bonne méta-mémoire, plus il sait quelles sont ses lacunes, et quelles sont ses points forts. Cette méta-mémoire est fortement corrélée à la réussite scolaire ultérieure. Cette capacité de méta-mémoire permet de savoir où nous en sommes dans notre apprentissage, de voir notre progression, de savoir si nos stratégies de mémorisation sont adaptées, d'identifier nos lacunes et nos points forts, de savoir ce que l'on doit revoir. Elle permet aussi de savoir si on va arriver à résoudre une tache bien précise. Par exemple, elle permet à un élève de savoir s'il saura résoudre tel ou tel exercice. Et je peux vous assurer que cela sert beaucoup lors des contrôles : cela permet de gérer son temps efficacement, de savoir sur quoi passer du temps si on veut gratter des points, etc.

Pour étudier la méta-mémoire, les scientifiques se contentent de poser des questions à des sujets. Ceux-ci peuvent alors soit se rappeler de la réponse, soit ne pas s'en souvenir du tout, soit avoir le sentiment qu'ils connaissent la réponse mais ne peuvent pas s'en rappeler immédiatement (ils ont la réponse sur le bout de la langue). Généralement, on donne des définitions de mots rares aux sujets, qui doivent retrouver le mot correspondant. Si le sujet a un mot sur le bout de langue, il doit donner un maximum d'informations sur ce mot, et dire s'il arrivera à s'en rappeler d'ici quelques minutes. Le dernier cas est assez intéressant. En attendant un peu, le sujet se souvient du mot recherché dans 95% des cas. De plus, il arrive à prédire s'ils se souviendra du mot ultérieurement avec une bonne efficacité : si on leur demande si "ça vient", une réponse positive est presque toujours suivie d'un rappel. Dans ce qui va suivre, nous allons parler de TOT pour le phénomène déclenché dans ce protocole expérimental.

Un protocole expérimental similaire est souvent utilisé, la différence étant ce que fait l'expérimentateur quand un sujet a un mot sur le bout de la langue. L’expérimentateur présente alors au sujet un mot, et le sujet doit dire s'il s'agit bien du mot qu'il avait sur le bout de la langue : le sujet doit reconnaitre le mot. De plus, avant la présentation du mot, les sujets doivent prédire s'ils se tromperont ou réussiront à reconnaitre le mot présenté. Ce protocole évalue ainsi le sentiment de connaissance, appelé Feeling Of Knowing en anglais, et abrévié FOK dans ce qui va suivre. Les deux types de jugement sont fortement corrélés entre eux dans la majorité des expériences. Il existe cependant des manipulations qui favorisent ou diminuent l'occurrence d'un TOT, mais n'influent pas sur l’occurrence des FOK, et réciproquement. À l'heure actuelle (2015), on ne sait pas si TOT et FOK sont des phénomènes différents ou deux faces d'une même pièce.

Ceux qui ont un mot sur le bout de la langue savent qu'ils connaissent le mot, même s'ils n'arrivent pas à s'en souvenir. En conséquence, l'effet du mot sur le bout de la langue rentre dans le cadre de la méta-mémoire, la capacité à savoir ce que l'on sait et ne sait pas. Les mécanismes de l'effet du mot sur le bout de la langue sont donc liés aux mécanismes de la méta-mémoire, ce qui fait que ce qui va suivre est plus une revue des théories sur la méta-mémoire qu'une revue des théories spécialisées sur le manque du mot proprement dit.

Accès direct[modifier | modifier le wikicode]

La théorie de l'activation incomplète dit que le cerveau utilise le niveau d'activation de l'information à rappeler pour en déduire sa présence en mémoire : on suppose qu'on ne connait pas la réponse quand son niveau d'activation est en deçà d'un seuil de détection, alors qu'on la connait dans le cas contraire. On a un mot sur le bout de la langue quand ce niveau d'activation est insuffisant pour se rappeler de l'information : au-dessous d'un certain seuil de rappel, l'information n'est pas rappelée. Mais le niveau d'activation peut malgré tout être supérieur au seuil de détection ou au seuil de reconnaissance.

La théorie du déficit de transmission améliore la théorie de l'activation incomplète en postulant que les informations sur le sens d'un mot et sa prononciation sont des informations séparées en mémoire. Quand on a un mot sur le bout de la langue, le sens d'un mot s'active, mais pas sa prononciation : le lien entre ces informations n'est pas assez fort pour propager suffisamment l'activation. Le faible force de ce lien peut être causé par une faible fréquence d'usage du mot ou le vieillissement.

La théorie du blocage expliquerait pourquoi on n'arrive pas à se rappeler du mot sur le bout de la langue. Celle-ci postule que d'autres mots similaires ou reliés s'activent, et entrent en compétition pour le rappel : ces mots similaires bloquent le rappel du mot demandé. Mais cette théorie est très difficile à tester. Le seul protocole le permettant compare un groupe contrôle, et un groupe où l’expérimentateur présente des bloqueurs potentiels avant de demander le rappel du mot. Mais ce protocole souffre d'un problème : les bloqueurs potentiels présentés peuvent servir d'indice de récupération, augmentant alors la probabilité de rappel.

Familiarité des indices[modifier | modifier le wikicode]

D'autres théories complètent les théories précédentes en postulant que la présence d'une information en mémoire est aussi déduite à partir d'un ensemble de soupçons qui indiquent la présence de l'information en mémoire. Un premier indice est la familiarité des indices de récupération. Cette familiarité des indices leur permet de s'activer facilement : ils atteignent un haut niveau d'activation lors de leur présentation. Le niveau d'activation des indices de récupération est donc utilisé, en plus du niveau d'activation du mot à rappeler. Cette familiarité dépend de deux mécanismes : la familiarité des mots utilisés dans la question et la familiarité avec le domaine de la question et sa formulation. Par exemple, à la question "qui a peint la Guernica ?", quelqu'un de peu cultivé répondra directement : "j'en sais rien, j'y connais rien en peinture !". Comme autre exemple, la question "quel est votre nom?" est très familière et vous en déduisez que vous connaissez la réponse.

Pour prouver l'influence de la familiarité des indices, on peut donner des pièges aux sujets, et plus précisément des questions sans réponses valable, mais qui sont très similaires à des questions familières. Celles-ci déclenchent un effet du mot sur le bout de la langue très facilement, pour un mot qui n'existe pas. Par exemple, c'est le cas avec la question suivante « De quel pays le Jacque est-il l'unité monétaire ? ». On peut aussi comparer un groupe où des indices sont présentés plusieurs fois, pour des mots différents, avec un groupe contrôle. C'est cette méthode qui a été utilisée par Metcalfe, Schwartz, et Joaquim dans leur étude de 1993. Le résultat est que le groupe où les indices étaient réutilisés avait plus de mots sur le bout de la langue que les autres, pour un taux de rappel similaire aux autres groupes.

Heuristique d’accessibilité[modifier | modifier le wikicode]

En plus de la familiarité des indices, le cerveau utilise une heuristique d’accessibilité. Pour simplifier, il se base sur les informations liées au mot sur le bout de la langue pour en déduire sa présence : si les indices activent un grand nombre de connaissances supposément reliées au mot sur le bout de la langue, alors le mot est présent en mémoire. Comme preuve expérimentale de l'existence de cette heuristique, on peut citer l'étude de Schwartz et Smith, datée de 1997. Dans cette étude, les sujets devaient mémoriser une liste de correspondances entre un animal et sa localisation géographique. Le groupe contrôle ne recevait aucune information supplémentaire, alors que deux autres groupes recevaient des informations en plus, comme la taille et le régime alimentaire de l'animal. Les trois groupes avaient un taux de rappel identique, mais les deux derniers groupes avaient plus de situations de mots sur le bout de la langue que le groupe contrôle.

A l'heure actuelle, on pense que la familiarité des indices, l'heuristique d’accessibilité, et le niveau d'activation du mot à rappeler sont intégrés par un système de Monitoring, pour déduire si le mot est présent en mémoire ou non. Il semblerait que le mécanisme de familiarité avec les indices de récupération soit utilisé en premier, laissant de plus en plus la place à l'heuristique d’accessibilité. En effet, la reconnaissance des indices active ceux-ci avant d'activer les informations reliées (il faut que l'activation se propage). Cela explique pourquoi la majorité des jugements subjectifs de TOT et de FOK sont très rapides, inférieurs aux temps de rappel d'une information.

Ce système de Monitoring est situé quelque part dans le cerveau, et on suppose qu'il est localisé dans le cortex frontal : des patients avec des lésions dans cette aire du cerveau ont des jugements métacognitifs altérés, avec une mémoire normale. Par contre, des patients avec des troubles de la mémoire ont des performances métacognitives normales : c'est le cas des patients avec des lésions dans le lobe temporal inférieur, ou des malades d'Alzheimer. Certains patients ont toutefois des déficits marqués à la fois pour la mémoire et la méta-mémoire : les patients atteints du syndrome de Korsakoff en sont un exemple.

Développer sa méta-mémoire[modifier | modifier le wikicode]

Reste que la méta-mémoire est faillible. Celle-ci se base en effet beaucoup sur la familiarité des indices, la facilité à les exploiter dans des tâches de reconnaissance. Or, on a vu il y a quelques chapitres que cette familiarité est influencée par les méthodes de répétition les plus inefficaces. Relire ses cours ou apprendre par cœur développe ce sentiment de familiarité avec la matériel appris, ainsi que les indices qu'il contient, mais n'a aucune influence sur les capacités de rappel ultérieures. D'où la persistance des méthodes de révision basées sur le par cœur et la relecture des cours. Mais alors comment faire pour que nos élèves puissent développer leur méta-mémoire ? Développer leur expertise, afin de profiter au maximum de l'heuristique d'accessibilité, est une première solution. Mais il y en a d'autres, comme nous allons le voir maintenant.

Des objectifs pédagogiques explicites[modifier | modifier le wikicode]

Pour que l'élève régule efficacement ses apprentissages, le mieux est de fournir explicitement des buts d'apprentissage clairs et précis : l'élève doit savoir ce qu'on attend de lui, ce qu'il est important de savoir ou de savoir faire. Par exemple, les buts peuvent être : "Utiliser la loi de la conservation de la quantité de mouvement pour résoudre des problèmes de physique", "Utiliser l'algorithme de résolution d'une équation du second degré", etc. Ces buts doivent être les plus précis possible : il faut éviter des buts généraux ou trop vagues pour l'élève, tels que "apprendre à lire un texte", "apprendre à chercher de l'information", etc.

Plus les buts sont difficiles, plus l'élève s'orientera vers des stratégies d'apprentissage efficaces. Cela a été montré dans une expérience faite par Fenouillet, en 2003. Dans son expérience, les élèves devaient apprendre des listes de mots. Un premier groupe recevait un but vague : "faites de votre mieux", le second groupe n'avait pas de but, tandis qu'un troisième groupe devait rappeler la totalité de la liste. Au final, le groupe qui recevait le but précis (rappeler toute la liste) avait des performances nettement meilleures : des études complémentaires ont montré que cela provient du fait que le but forçait les élèves à utiliser des stratégies mnémotechniques au lieu d'apprendre par cœur.

Retour sur performance[modifier | modifier le wikicode]

Reste qu'une fois les buts explicités, l'élève doit avoir un moyen de savoir s'il a atteint ces buts, ou s'il s'en approche. En clair : il doit savoir s'il a compris ou s'il a correctement mémorisé ce qu'on lui a appris. Pour développer cette méta-mémoire, il n'y a qu'un seul moyen : fournir aux élèves un feedback, un retour de performance. Il faut que le retour sur performance soit précis, et permette à l'élève de correctement identifier ses lacunes et ses points forts. Il doit de plus indiquer pourquoi les buts n'ont pas été atteints : un feedback élaboratif est plus efficace qu'un feedback simple. Dire simplement : « tu n'as pas réussis à résoudre l'équation du second degré ne suffit pas ». Il faut aussi expliquer pourquoi les buts n'ont pas été atteints : «  tu n'as pas réussit parce que tu as fait des erreurs de calculs, mais la méthode de résolution est comprise ». Contre-intuitivement, il vaut mieux que ce retour sur performance ait lieu non pas immédiatement, mais avec un délai. Il faut donc faire beaucoup d'évaluations, fréquemment.

A ce petit jeu, les notes ne sont pas assez précises. Elles ne permettent pas à elles seules de savoir ce que l'on sait et ce que l'on ne sait pas. A la place, il vaut mieux utiliser l'évaluation formative, aussi appelée évaluation diagnostic. Cette évaluation formative consiste à dire explicitement aux élèves quelles sont leurs forces et leurs faiblesses. Par exemple, on peut donner des commentaires relativement normés sur la copie, au lieu d'une note. Ce commentaire devrait expliciter clairement, pour chaque copie ce que l'élève doit revoir, afin qu'il sache quoi faire pour y remédier. Les recherches sur le sujet sont claires : l'évaluation formative est plus efficace que l'évaluation sommative. De plus, l’évaluation formative seule est plus efficace qu'une évaluation formative secondée par des notes. Quand une note est donnée, les élèves ont tendance à se focaliser sur celle-ci et à ne pas regarder les appréciation et commentaires écrits[1].

Pour résumer, la méta-cognition recommande :

  • un enseignement explicite des méthodes de travail efficaces et des techniques de mémorisation ;
  • des objectifs d'apprentissage clairs, précis, et exigeants ;
  • un retour sur performance précoce et détaillé ;
  • une évaluation formative.

En savoir plus[modifier | modifier le wikicode]

Pour ceux qui veulent en savoir plus sur les théories sur la méta-mémoire, je peux renvoyer au document suivant, crée par l'auteur du dit wikilivres (Mewtow), et dont une partie du présent chapitre provient : L'effet du mot sur le bout de la langue, et la méta-mémoire .

Références[modifier | modifier le wikicode]

  1. John Hattie et Helen Timperley, "The Power of Feedback"


Transfert d'apprentissages

Si l'on apprend, c'est avant tout pour que les connaissances apprises soient réutilisables dans des contextes variés, relativement différents de celui d'apprentissage. Cette problématique du transfert de connaissances est absolument cruciale pour l'apprentissage. Ce transfert de connaissances peut prendre diverses formes, et les classifications des différents types de transferts sont nombreuses : transfert proche/lointain, vertical/horizontal, spontané/assisté, etc. Dans ce chapitre, nous allons passer en revue ce phénomène de transfert, dans les diverses situations où celui-ci se présente, qu'il s'agisse de la résolution de problèmes, d'apprentissages verbaux ou scolaires.

Transfert proche contre transfert lointain[modifier | modifier le wikicode]

Une première distinction serait celle du transfert qui a lieu dans les limites d'un domaine de connaissance (discipline scolaire, par exemple), comparé au transfert plus large, qui transcende les bornes des domaines de connaissances usuels. La première serait essentiellement basée sur des savoirs liés à une discipline scolaire, ou tout du moins à un ensemble de disciplines fortement imbriquées (mathématiques et physique, par exemple) La seconde serait une forme de de transfert plus générale, que l'on peut rapprocher du concept de compétences introduit par certains auteurs. Cette dernière suppose l'existence d'une forme de transfert, appelé transfert lointain, dans lesquels un apprentissage dans un domaine influence des apprentissages dans un autre domaine très différent. Ce transfert lointain est à relier au concept de compétences, au sens différent suivant les auteurs. La question principale, pour certains auteurs, serait de favoriser l'acquisition de compétences générales. Leurs interrogations visent à savoir comment développer certaines compétences, de manière indirecte. Par exemple, certains de ces auteurs peuvent supposer que faire des mathématiques ou du latin forme à la logique et au raisonnement.

De manière générale, de tels capacités de transfert lointain sont douteuses. Par exemple, les études faites sur l'apprentissage de la programmation[1][2] montrent que celui qui apprend à programmer apprend juste à programmer, et n'acquiert pas de méthodes de résolution de problèmes, de capacité à raisonner ou à abstraire, ni quoique ce soit d'autre. Les études de Thorndike semblent montrer que la même chose vaut pour le latin, qui ne permet pas de favoriser la mémoire ou de structurer l’esprit, contrairement aux idées reçues. Différents programmes éducatifs ont aussi tenté d'enseigner le raisonnement en mettant fortement l'accent sur la logique mathématique, avec ses implications, modus tollens, etc. On pourrait citer les programmes "Head Start" américains, par exemple. Malheureusement, les résultats de ces programmes furent décevants : les élèves n'avaient pas vraiment appris à mieux raisonner, et les améliorations étaient au mieux marginales. Ces expériences ne furent pas les seules tentatives pour entrainer des élèves ou des adultes à mieux raisonner. Mais les résultats concernant ce genre d'entrainement sont clairs : cela ne permet pas d'acquérir des compétences de raisonnement transférables dans des situations différentes de celles abordées lors de l'apprentissage. Dans un tout autre registre, William James a effectué une étude assez simple sur l'apprentissage de poèmes, en 1890. Il commença par apprendre un premier poème, et mesura le temps et la fiabilité de son apprentissage. Par la suite, il continua à apprendre de nouveaux poèmes, et refit les mêmes mesures sur un poème totalement inédit, après avoir appris un grand nombre de poèmes en guise d’entraînement : aucune différence en terme de vitesse ou de fiabilité après entraînement. Les études sur l'expertise montrent que que les compétences générales transdisciplinaires sont de peu d'utilité, l'expertise dans un domaine étant surtout dépendante du stock de connaissances spécifiques à un domaine de l'apprenant[3].

Dans la réalité, le transfert a souvent lieu entre des tâches relativement similaires. C'est ainsi qu'un élève qui a appris à résoudre des calculs simples peut appliquer ces compétences pour résoudre des problèmes d'épicerie, ou qu'un élève qui sait appliquer ses règles de grammaire dans des exercices scolaires peut les utiliser lors de la rédaction d'un texte assez court. De manière générale, deux situations doivent avoir quelque chose en commun pour qu'il y aie transfert entre elles. Ce quelque chose en commun peuvent être aussi bien de simples aspects perceptifs (comme le stipule la théorie des éléments identiques de Thorndike), que des connaissances abstraites comme des concepts, une catégorie, de propriétés partagées, ou autre. Ces dernières permettent de capturer un grand nombre de situations de part leur structure. A ce petit jeu, les catégories sont assez importantes. Ainsi, le but de l'apprentissage est de permettre à l'élève d'acquérir des abstractions, des concepts, des catégories qui capturent un large spectre de situations.

Pour en donner un exemple, on peut citer la fameuse étude de Chi et al. (1981). Dans celle-ci, les expérimentateurs ont observés comment des experts (des professeurs de physique), et des novices (des étudiants en début de cursus), catégorisaient et se représentaient mentalement des exercices de physiques. Leur étude a montré que les novices ont tendance à baser leurs analyses sur des détails présents dans l'énoncé (coefficients numérique, vocabulaire utilisé, etc), alors que les experts ont tendance à penser en fonction d'idées générales et de principes abstraits (la loi de conservation de l'énergie, la quantité de mouvement, etc). Au fur et à mesure que les étudiants progressent dans leurs études, il classent de plus en plus ces exercices en fonction des caractéristiques générales.

Une connaissance qui ne s'applique que dans des contextes limités, identiques à celui d'apprentissage, est une connaissance très concrète. Daniel willingham qualifie ces apprentissages de connaissances inflexibles. Néanmoins, ces connaissances peuvent, suite à un apprentissage bien conçu, évoluer en connaissances flexibles, plus abstraites et générales. L'acquisition de connaissances inflexibles est vue, dans la vision de Willingham, comme une première étape de l'apprentissage, les connaissances se flexibilisant de plus en plus avec la pratique, ou des acquisitions ultérieures[4]. Cette forme de transfert, par abstraction progressive de connaissances concrètes, contextuelles, est une forme puissante de transfert, qui se base sur des processus de généralisation, comme la formation de catégories, l'analogie. Il s'agit d'une forme de transfert auquel on donne le nom de transfert proche. En somme, le transfert est un phénomène relativement peu commun. La raison principale est qu'il n'a lieu que si le sujet dispose d'un certain niveau d'expertise. Mais il peut cependant être provoqué, avec quelques indices ou analogies bien placées.

Transfert vertical contre transfert horizontal[modifier | modifier le wikicode]

Une autre distinction utile est celle entre transfert vertical et horizontal. Le premier fait référence aux transferts à l'intérieur d'une même discipline, d'un même domaine, l'acquisition d'une connaissance/compétence de haut niveau étant facilité par la maitrise de connaissances/compétences de plus bas-niveau. Le second fait référence aux transferts de connaissances d'un domaine de connaissance à un autre, et correspond au cas où une connaissance est réutilisée dans une autre discipline. Pensons notamment aux connaissances mathématiques, fortement utilisées en physique et dans d'autres sciences naturelles.

Le transfert horizontal correspond à des situations où les connaissances transférées ne sont pas nécessaires pour résoudre la nouvelle situation, mais ne sont qu'une aide facultative. Par exemple, les analogies entre deux situations sont une forme de transfert horizontal.

Le transfert vertical s'illustre quand la connaissance d'un concept facilite la compréhension d'un autre. Par exemple, maitriser les fractions facilitera la compréhension des pourcentages, de même que connaitre les symboles des différents éléments chimiques est un pré-requis pour pouvoir écrire des équations stœchiométriques. Ce transfert vertical est la conséquence du fait que les concepts d'une discipline ont de nombreux liens entre eux, quand certains ne sont pas des pré-requis nécessaires pour l'acquisition d'un autre. Il implique que l'acquisition de connaissances ou compétences complexes est plus facile si l'élève a maitrisé des habiletés et connaissances plus simples et que les pré-requis sont maitrisés. Pour illustrer ce transfert vertical, on peut citer l'étude de Uprichard (1970), qui montre que les notions d'infériorité ou de supériorité nécessitent d'avoir maitrisé le concept d’égalité avant de pouvoir être apprises. De même, la maitrise de l’algèbre a pour pré-requis de maîtriser les opérations arithmétiques de base et l’égalité (Gagné, 1962). Et ces résultats peuvent se généraliser à de nombreux autres domaines, comme la trigonométrie (Winkles, 1986), l’écologie (Griffiths et Grant, 1985), la chimie (Griffiths, Kass, et Cornish, 1983), l’économie (Hurst et al. 1978), etc.

Transfert positif ou négatif[modifier | modifier le wikicode]

D'ordinaire, le transfert d'apprentissage a un effet positif sur l'apprentissage et la performance, d'où le nom de transfert positif qui est donné à de telles situations. Mais il arrive que ce transfert nuise à l'acquisition de nouvelles connaissances. On peut imaginer que les nouvelles connaissances soient incompatibles ou contradictoires avec des connaissances acquises. Dans une telle situation, on fait face à un transfert négatif. Néanmoins, le transfert négatif est toujours transitoire, l'apprentissage final finissant par se faire. C'est ainsi que d'anciennes connaissances erronées sont remplacées progressivement par de nouveaux savoirs, plus à jour.

Lire aussi :[modifier | modifier le wikicode]

  • Le transfert des apprentissages et la réforme de l’éducation au Québec : quelques mises au point., par Normand Péladeau, Jacques Forget, et Françoys Gagné.
  • Domain-specific knowledge and why teaching generic skills does not work., par Tricot, A. & Sweller, daté de 2014.
  • Transfer of learning, par Perkins et Salomon, daté de 2010.

Références[modifier | modifier le wikicode]

  1. Pea and Kurland 1984
  2. Salomon and Perkins 1987
  3. La cécité aux connaissances spécifiques, par André Tricot et John Sweller
  4. Inflexible Knowledge: The First Step to Expertise


Le mythe des styles d'apprentissage

Certains proclament que les élèves ont des points forts et des points faibles, des méthodes d'apprentissage différentes ou des particularités autres auxquelles l'enseignement doit s'adapter. Cette hypothèse les pousse à adapter l'enseignement aux différentes manières d'apprendre, histoire de donner un enseignement plus personnalisé, individualisé. L'enseignement est alors plus varié, plus diversifié, chaque élève ayant accès à un grand nombre d'approches différentes. Cette spécialisation de l'enseignement aux différentes manières d'apprendre est ce qu'on appelle la différentiation pédagogique. Reste que les théories qui se cachent derrière les différentes tentatives de différentiation sont souvent assez bancales, scientifiquement parlant.

Styles d'apprentissage[modifier | modifier le wikicode]

Certains chercheurs et pédagogues ont supposé l'existence de préférences liées au processus d'apprentissage : certains apprendraient mieux d'une certaine manière, manière qui ne conviendrait pas à d'autres. C'est ce qu'on appelle la théorie des styles d'apprentissage : chaque personne aurait des styles d'apprentissage préférés.

Quelques théories sur les styles d'apprentissage[modifier | modifier le wikicode]

Théorie de Kolb.

La première théorie du genre a été conçue par Kolb, puis redécouverte indépendamment par Peter Honey et Alan Mumford's. Celle-ci classe les élèves sur deux paramètres. Le premier fait la différence entre les élèves qui préfèrent les choses concrètes et ceux qui aiment l'abstraction. Le second fait la différence entre ceux qui préfèrent apprendre en expérimentant et ceux qui préfèrent observer. Ces deux paramètres peuvent se combiner pour former quatre type d'élèves.

  • Assimilateurs : aiment expérimenter et préfèrent l'abstrait ;
  • Accomodateurs : aiment expérimenter et préfèrent le concret ;
  • Convergents : aiment la théorie et préfèrent l'abstrait ;
  • Divergents : aiment la théorie et préfèrent le concret.

Le modèle d'Anthony Gregorc est assez similaire. Il conserve la distinction entre abstrait et concret mais change l'autre dimension. Celle-ci classe les élèves selon qu'ils aiment apprendre les choses dans un ordre précis ou de manière plus ou moins aléatoire. Là encore, on trouve quatre combinaisons d'élèves.

Selon d'autres théories, certains élèves auraient une mémoire auditive tandis que d'autres seraient plus visuels ou tactiles. Cette théorie a été lancée en 1979 par Barbe, Swassing et Milone, dans l'article « Teaching Through Modality Strengths: Concepts and Practices », et on peut trouver des théories similaires, comme la théorie VAK/VARK de Neil Fleming. Celle-ci est déjà ancienne et reste assez populaire,elle est même souvent conseillée par certains enseignants. Mais on a vu dans le chapitre sur les supports pédagogiques que de nombreuses constatations expérimentales la contredisent formellement.

D'autres pensent qu'il faut faire une différence entre élèves sériels et holistes : certains élèves préféreraient voir les informations les unes après les autres, en appréhendant les parties individuellement avant de comprendre le tout, tandis que d'autres préfèrent se concentrer sur l'ensemble, sur le tout plutôt que la somme des parties. Évidemment, ce genre de choses est largement incompatible avec une mémoire de travail limitée, qui ne peut gérer simultanément qu'une quantité restreinte d'idées et de connaissances.

Le bilan[modifier | modifier le wikicode]

Illustration de distinctions tirées de la théorie des styles d'apprentissage et des styles cognitifs.

On pourrait rajouter d'autres théories, comme le MBTI, la théorie de Sternberg et bien d'autres encore. En tout, il doit exister plus d'une centaine de théories des styles d'apprentissage. Mais dans tous les cas, toutes les théories des styles d'intelligence ont de gros problèmes aussi bien théoriques qu’expérimentaux. Premièrement, on voit mal quel est le mécanisme qui ferait que les élèves ont des styles d'apprentissage différents. Il n'y a tout simplement aucune explication théorique derrière les théories des styles d'apprentissage, aucun mécanisme explicatif, aucune cause à ces styles d'apprentissage. Pourquoi un élève apprendrait-il mieux à partir de supports concrets qu'à partir de concepts abstraits ? Pourquoi certains profiteraient-ils de supports visuels et pas d'autres ?

En second lieu, ces théories sont souvent rarement solides du point de vue expérimental : le nombre d'expériences qui montrent une efficacité des pédagogies basées sur ces styles d'apprentissage est très faible, voire inexistant pour certaines théories. En 2009, l'Association For Psychological Science, une grande institution scientifique états-unienne, a publié un rapport sur l'efficacité des théories fondées sur les styles d'apprentissage. Ce rapport, nommé « Learning styles: concepts and evidence » a conclu à un manque de preuves évident de ces théories sur le plan expérimental. En somme, les théories des styles d'intelligence sont des théories dont l'efficacité en classe a de très fortes chances d'être totalement nulle.

Cerveau et différenciation[modifier | modifier le wikicode]

Le courant de la neuroéducation est composé de chercheurs qui utilisent les recherches sur le cerveau pour utiliser l'apprentissage. En soit, rien de mal. Certaines recherches sont d'ailleurs d’excellents indicateurs qui permettent de confirmer les recherches en psychologie. En revanche, il arrive souvent que certaines théories pseudo-scientifiques utilisent l'aura des neurosciences pour se faire accepter. C'était le cas de la méthode Brain Gym, une méthode totalement invraisemblable sur le plan scientifique, qui a tenté de se faire passer pour une méthode fondée sur les neurosciences. On pourrait aussi citer le cas de la programmation neuro-linguistique, une pseudo-science qui est la base de la pédagogie PNL. De même, d'anciennes théories totalement réfutées continuent de faire des ravages chez certains enseignants, comme c'est le cas avec la distinction cerveau gauche, cerveau droit. De tels neuro-mythes doivent donc être combattus avec vigueur. Mais ces pseudo-théories de la différenciation n'ont pas encore reçu de confirmations expérimentales et sont souvent fondées sur des théories totalement fausses.

Cerveau gauche/cerveau droit[modifier | modifier le wikicode]

Par exemple, la soi-disant différence entre cerveau gauche et cerveau droit est parfois utilisée dans le milieu éducatif. L'idée reçue qui veut que les deux côtés du cerveau ne traitent pas des mêmes tâches (le cerveau gauche serait plus rationnel et l'autre émotionnel) est encore tenace. Mine de rien, l'étude "Neuroscience and education: myths and messages" de Paul A. Howard-Jones montre que près de 90% des professeurs anglais croient à ces théories. Certains pensent que certains élèves seraient plus cerveau droit que cerveau gauche et qu'il faut adapter le style d'apprentissage en fonction. J'ai d'ailleurs personnellement lu des cours de formation sur les cartes mentales, destinés à des professeurs, qui faisaient référence à cette idée reçue. Mais dans la réalité, cette spécialisation des deux hémisphères est très limitée et n'a rien à voir avec l'apprentissage.

Théorie des intelligences multiples[modifier | modifier le wikicode]

A coté des styles d'apprentissage, on trouve d'autres théories similaires qui stipulent l'existence de différentes formes d'intelligences. La littérature grand public mentionne souvent la théorie des intelligences multiples de Gardner, qui fournit une classification des différentes formes d'intelligences : logico-mathématique, spatiale, interpersonnelle, intrapersonnelle, corporelle, linguistique, musicale et naturaliste. Cette théorie est souvent utilisée pour défendre une certaine forme de différenciation pédagogique. D'ordinaire, l'école se focaliserait surtout sur les intelligences linguistique et logico-mathématique. Mais si un élève n'arrive pas à apprendre, on peut se baser sur une autre forme d'intelligence, qui lui serait plus adaptée. Manque de chance, Gardner lui-même n'est pas d'accord avec cette forme de différenciation et se révèle plutôt contre. De plus, les confirmations expérimentales sont rares, voire inexistantes. En 2004, une revue de la littérature, effectuée par Sternberg, n'a trouvé aucune étude sur le sujet.

De plus, les connaissances actuelles nous disent clairement que la théorie de Gardner a de bonnes chances d'être fausse. Cette théorie est notamment incompatible avec les observations effectuées sur les tests de QI, qui testent plusieurs intelligences à la Gardner : linguistique, logico-mathématique, naturaliste et spatiale (sans compter qu'elles mesurent aussi d'autres paramètres comme la capacité de la mémoire de travail). Or, statistiquement, ces épreuves ne sont pas indépendantes : la réussite à une de ces épreuves est fortement reliée à la réussite de n'importe quelle autre épreuve du test. La réussite à une épreuve prise au hasard dans un teste de QI a une corrélation très élevée avec la réussite à n'importe quelle autre épreuve. Ces corrélations statistiques font que toutes les épreuves semblent reliées à un facteur général, qui est appelé le facteur g. Les suppositions vont bon train sur l'origine de ce facteur, mais il semblerait clairement que celui-ci soit relié aux fonctions exécutives, des capacités cognitives qui s'occupent de gérer la mémoire de travail : planification, inhibition, mise à jour de la mémoire de travail, etc.

Lire aussi[modifier | modifier le wikicode]

  • Stop propagating the learning styles myth, par krishner, 2016.
  • Do Learners Really Know Best? Urban Legends in Education, par Kirschner et van Merrienboer, 2013.
  • Learning Styles: Concepts and Evidence, Pashler, 2008.


Motivation

Enfin, nous arrivons au dernier passage obligé dans toute pratique pédagogique qui se respecte : la motivation. Il existe diverses théories de la motivation, les premières provenant des expériences sur le conditionnement.

Conditionnement opérant[modifier | modifier le wikicode]

Tout commença dans les années 1920, Thorndike, un chercheur en psychologie, fi quelques observations sur des chats, qui l’amenèrent à créer une théorie de l'apprentissage que l'on nomme la loi de l'effet. Cette loi dit simplement que les comportement suivis d'émotions agréables sont renforcées, tandis que les comportements suivis de réponses désagréables ont tendance à s'estomper. Rien de bien neuf : il s'agit de la loi de la carotte et du bâton, bien connue de certains parents plus ou moins déficients. La conséquence, c'est que la source de la motivation serait la recherche de gratifications matérielles ou sociales : l'estime de ses professeurs, de ses parents, des amis, etc.

Seul problème : expérimentalement, cette loi était partiellement fausse. Dans une de ses expériences, des collégiens devaient passer un QCM d'espagnol. Chacun d'entre eux était interrogé séparément. A chaque réponse, l'expérimentateur disait si la réponse donnée par l'élève était vraie ou fausse, en disant simplement Vrai OU Faux. Il nota les réponses données à chaque passage. Il observa que les réponses positives étaient bien renforcées, tandis que les réponses fausses n'étaient pas vraiment diminuées.

Les conséquences peuvent renforcer un comportement si elles sont plaisantes, tandis que les conséquences négatives vont mener à l'apparition de comportements d'évitement sans pour autant diminuer la fréquence d’occurrence du comportement.

Cette loi de l'effet a été généralisée, pour tenir compte du fait que les réponses qui augmentent la fréquence ou l’occurrence d'un comportement ne sont pas forcément des récompenses émotionnelles ou matérielles. Un animal ou un humain ne vont pas forcément juger le côté gratifiant du résultat du comportement, mais son adaptation à la situation. En somme, un comportement va être renforcé ou réprimé suivant ses conséquences : les comportements adaptés deviendront plus fréquents, alors que les comportements inadaptés disparaitront. La loi de l'effet ainsi révisée, plus générale, s'appelle le conditionnement opérant.

Retour sur performance[modifier | modifier le wikicode]

Bien sûr, cela ne fonctionne que si quelque chose vient faire prendre conscience au cobaye des conséquences du comportement : il faut bien juger si le comportement est adapté ou non. Ce quelque chose est un retour sur performance, que l'on appelle un renforçateur. Les behavioristes considèrent que les élèves sont nettement plus motivés quand ils ont un retour sur performance précis et précoce : ils peuvent ainsi associer les conséquences d'un comportement avec celui-ci, augmentant leur motivation à reproduire ce comportement. Idéalement, l'effet est maximal quand la réponse intervient juste après le comportement, dans un délai temporel très court.

Généralement, le timing du feedback a son importance : il faut qu'il aie lieu le plus tôt possible. Ainsi, les corrections des différentes évaluations doivent avoir lieu le plus tôt possible : idéalement, il vaut mieux faire la correction immédiatement après l'interrogation.

De plus, le retour sur performance idéal doit être précis, et doit permettre à l'élève d'associer une réponse à un comportement bien identifié. À ce petit jeu, les notes ne sont pas assez précises, et ne sont pas facilement associables à un comportement particulier. Et les autres formes d'évaluation sommative ont globalement le même défaut : elles donnent une note globale, qui est associée à tout un travail, et non à un comportement. Pour cela, on peut utiliser l'évaluation formative, aussi appelée évaluation diagnostic.

Impuissance acquise[modifier | modifier le wikicode]

Une petite observation vient toutefois gêner l'utilisation de renforçateurs négativement chargés en classe : le phénomène d'impuissance acquise. Dans certains cas, si un sujet n'a de cesse de recevoir des conséquences négatives à partir de ses comportements, il finit par ne plus rien faire pour éviter les conséquences négatives du renforçateur. En quelque sorte, l'animal ou l’humain concerné finit par prédire qu'un retour sur performance négatif, ou les "punitions", arriveront tout le temps, peu importe son comportement.

Cela a une conséquence sur les élèves faibles. Ces élèves, qui reçoivent des punitions et des mauvaises notes pendant de longues durées, ont tendance à perdre l’intérêt et la motivation de travailler à force de mauvaises notes : ils croient qu'ils ne réussiront jamais, quoiqu'ils fassent. Bilan : ils se désengagent de toute forme de travail scolaire dans la matière concernée et finissent par détester les matières dans lesquels ils sont mauvais.

Par exemple, en milieu scolaire, Stéphane Ehrlich et Agnès Florin ont montré que ce phénomène d'impuissance acquise se manifestait pour des enfants soumis à des dictées ou des exercices d'arithmétiques trop difficiles pour eux : ils se décourageaient, et pensaient qu'ils ne pouvaient rien faire. Alain Lieury a aussi observé le même phénomène dans une de ses expérience sur l'apprentissage de cartes et la mémoire à court terme.

Anticipation du renforcement[modifier | modifier le wikicode]

Néanmoins, les spécialistes du conditionnement avaient travaillé sur des sujets animaux pour élaborer leurs théories. Chez l'humain, un autre processus entre en jeu : du fait de leur intelligence, les humains peuvent anticiper les conséquences d'un comportement. Cela a des conséquences : la simple anticipation des conséquences d'un comportement peut suffire à servir de renforcement en soi.

Mais pour cela, il faut que le sujet puisse prédire les conséquences de son comportement. Pour cela, il doit avoir vu ou vécu des situations similaires à celle dans laquelle il est.

Imitation[modifier | modifier le wikicode]

Dans cette conception, l'imitation a une grande importance : on peut anticiper les conséquences d'un comportement, si on a déjà vu quelqu'un d'autre produire ce comportement dans une certaine situation. Dans ces conditions, l'apprentissage serait vu comme un processus social, dans lequel on apprend en regardant les autres. La motivation proviendrait donc de la reproduction du comportement de modèles : le professeur, des amis, etc. Cette théorie prédit que la motivation proviendrait donc de l'interaction avec les autres, et que celle-ci serait décuplée dans les environnements coopératifs.

Sentiment d'efficacité[modifier | modifier le wikicode]

Un autre paramètre joue fortement dans l’anticipation du renforcement : le sentiment d'estime, l'égo. Un renforcement peut être plaisant quand celui-ci nous flatte, quand nous sommes contents de notre résultat. Rien de tel qu'un renforcement qui sert de preuve de notre compétence pour progresser. Dans cette vision de la motivation, réussir les buts que nous nous sommes donnés toucherait notre égo : plus on réussit ce que l'on entreprend, plus on est motivé. La motivation serait donc la poursuite de buts précis.

En somme, un bon renforçateur doit améliorer le sentiment d’auto-efficacité personnelle, le sentiment dans notre capacité à réussir les buts qui nous sont donnés. En clair, pour motiver les élèves, il faut leur donner l'impression qu'il réussissent. On est motivé parce que l'on est bon dans la matière, pas l'inverse.

Cela passe évidemment par l'usage de pédagogies adaptées, qui font réussir les élèves. Mais on peut aussi sortir l'artillerie lourde : l'usage massif de retour sur performance est une arme de motivation massive. Ce retour sur performance permet de savoir si l'on est plus ou moins proche du but à atteindre, et permet ainsi de voir notre progression. Savoir que l'on progresse rapidement permet ainsi de développer un sentiment d'efficacité, qui permet de perdurer dans l'effort.

Selon certaines expériences, plus le but est proche, mieux c'est[1] : un but proche nous amène à nous rendre plus rapidement compte de nos progrès, favorisant ainsi l'apparition d'un sentiment d'auto-efficacité personnelle.

De même, on constate que les élèves sont plus motivés par des taches difficiles que par des taches très simples[2] : des buts plus complexes donnent le sentiment d'être plus efficace, d'avoir une compétence importante. Et je vous interdis de faire la moindre réflexion sur le nivellement vers le bas à partir de cette remarque, merci d'avance.

Motivation intrinsèque[modifier | modifier le wikicode]

Cette vision de la motivation, basée sur les conditionnements serait à remettre en cause d'après les travaux des spécialistes en psychologie sociale. Selon les théories actuelles, il existe deux grands types de motivation. La motivation extrinsèque est celle qui pousse à faire quelque chose en échange d'une récompense, d'un renforcement positif. Elle est à opposer à la motivation intrinsèque, qui est celle de nos intérêts, de nos passions, etc. Celle-ci est clairement meilleure en terme d'apprentissage, et est plus robuste sur le long terme.

Effet des renforcements[modifier | modifier le wikicode]

Les renforcements basés sur des conditionnements augmentent la motivation extrinsèque, et non la motivation intrinsèque. Or, expérimentalement, la psychologie sociale semble indiquer que la motivation extrinsèque disparaît dès que les récompenses ne sont plus données : on observe des phénomènes d'extinction lors de la suppression des récompenses. Par contre, la motivation intrinsèque perdure longtemps, sous certaines conditions. Mais, manque de chance, la motivation extrinsèque peut rapidement remplacer la motivation intrinsèque. Exemple : un élève intéressé par une matière ou un sujet finira par perdre son intérêt pour celle-ci en fonction de ses notes. Grosso-modo, tout ce qui est perçu comme une contrainte, comme une obligation, ou une récompense a tendance à diminuer la motivation intrinsèque, et à augmenter la motivation extrinsèque.

Cet effet permet aussi de prédire que les contraintes, qui sont une forme de renforcement punitif, ont tendance à diminuer la motivation intrinsèque, et à augmenter la motivation extrinsèque. Pour le prouver, on peut citer l'étude d'Alain Lieury et Fabien Fenouillet, datée de 1997. Dans cette étude, deux groupes d'élèves d'un centre de formation pour apprentis étaient comparés, concernant leurs résultats dans un module sur les sociétés. Un premier groupe était acteur de son apprentissage : le cours commençait par une sorte de jeu de rôle, certains élèves acteurs (choisis au hasard) jouant le rôle des actionnaires d'une société, tandis que l'autre groupe d'élèves spectateurs ne prenait pas part aux décisions. Bilan : les acteurs avaient des résultats nettement meilleurs comparé aux spectateurs.

Attribution[modifier | modifier le wikicode]

Si on veut motiver les élèves, il faut agir à la source de la motivation intrinsèque. L'origine de la motivation intrinsèque vient du fait que l'on puisse s'attribuer nos réussites. On est plus motivé quand on sait que notre réussite provient de nos efforts, de notre talent, etc. Diverses analyses statistiques ont montré que plus un élève croit que l'intelligence et la réussite scolaire ne sont pas innées, plus il progresse. Après tout, rien de plus évident : plus on dit à un élève qu'il peut progresser et que sa situation n'est pas une fatalité, plus il progressera... Il fallait bien des études statistiques de haute volée pour en être sûr ! En conséquence, certains se sont dit qu’ « entraîner » les élèves à croire en la non-innéité de l'intelligence, à croire qu'ils peuvent progresser et s'attribuer leurs réussites, leur permettrait de progresser. C'est le principe de l' attribution training.

Références[modifier | modifier le wikicode]

  1. Bandura et Schunck, 1981
  2. Locke, 1967


L'apprentissage de la lecture

Apprendre à lire est une chose importante, et ceux qui n'y arrivent pas sont souvent promis à un avenir sombre. De nos jours, l’analphabétisme et l’illettrisme sont relativement rares, et ne concernent que 5% de la population, selon les études réalisées lors de la Journée d'Appel de Préparation à la Défense. Selon les études PIRLS, la majorité des difficultés portent essentiellement sur la compréhension de texte. Cependant, quiconque est familier avec le domaine de l'éducation sait que d'interminables débats sont toujours en cours concernant l’efficacité des différentes méthodes de lecture. Cette querelle sur les méthodes de lecture est relativement caricaturée dans les débats grand public, ainsi que dans la majorité des productions sur le sujet, en une confrontation entre deux camps : les méthodes globales (et semi-globales), et syllabiques. Ce chapitre vise à faire une synthèse des faits avérés sur l'apprentissage de la lecture. Cet article n'est pas totalement exhaustif, même si l'auteur cherche à rendre celui-ci le plus complet possible.

Les mécanismes de la lecture[modifier | modifier le wikicode]

Lire est un processus qui fait intervenir diverses zones de notre cerveau, et qui se base sur plusieurs processus : comprendre le sens d'un texte demande l'usage de la mémoire, de nos capacités intellectuelles, d'automatismes liés à la syntaxe, etc. Dans les grandes lignes, comprendre un texte ou un discours implique deux types de processus relativement bien séparés : un processus purement perceptif de reconnaissance des mots et lettres et de nombreux processus grammaticaux, syntaxiques et sémantiques.

Reconnaissance des mots[modifier | modifier le wikicode]

L'ensemble des connaissances sur le vocabulaire forme ce qu'on appelle le lexique mental, ou mémoire lexicale. Celui-ci permet de savoir comment prononcer un mot ou comment l'écrire. Il contient aussi les symboles comme les lettres, les syllabes, les sons d'une langue (maternelle ou non), les chiffres, certains nombres, et toutes les notations possibles et imaginables (comme les notations mathématiques, par exemple). Vision et audition sont des portes d'entrée qui permettent d’accéder à ce lexique mental, afin de comprendre respectivement l'écrit et l'oral. Ce lexique mental ne serait pas unique : il serait composé de plusieurs lexiques mentaux spécialisés. On trouverait ainsi :

  • un lexique pour la compréhension orale, qui stocke la prononciation des mots.
  • un lexique pour la lecture, qui stocke la représentation visuelle et/ou orthographique des mots ;
  • un lexique de sortie, qui stocke comment articuler pour prononcer un mot, et éventuellement comment l'écrire ;
  • et la mémoire sémantique, qui stocke le sens des mots, les concepts qui y sont associés.

Le processus de reconnaissance des mots, est la première compétence travaillée par les méthodes de lecture : si l'enfant ne sait pas reconnaitre les mots d'un texte, il ne peut évidemment pas comprendre celui-ci. Donc, l'apprentissage de la lecture doit forcément travailler la reconnaissance de mots isolés en premier lieu. Chez la personne qui a appris à lire, la reconnaissance des mots connus est un processus automatique. Pour le prouver, on peut utiliser l'effet Stroop, qui nous dit que réprimer des automatismes a tendance à allonger les temps de réaction. Et c'est ce qu'on observe dans le cas de la reconnaissance des mots. Par exemple, si on vous demande de donner la couleur d'un mot, vous prendrez beaucoup plus de temps si jamais le mot en question est un adjectif de couleur qui ne correspond à la couleur de l'encre. Essayez par vous-même :

Vert Rouge Bleu Jaune Bleu Jaune

Bleu Jaune Rouge Vert Jaune Vert

Compréhension[modifier | modifier le wikicode]

Les processus sémantiques, syntaxiques et grammaticaux sont impliqués dans la compréhension d'un texte ou d'un discours oral, la mémorisation et le raisonnement. Ceux-ci impliquent fortement la mémoire sémantique, une sous-portion de la mémoire qui stocke les connaissances conceptuelles, la signification des mots. Pour faire très simple, comprendre un texte ou un discours consiste à former un modèle mental de la situation décrite dans le texte/discours. Cela demande juste de former des relations entre connaissances présentes en mémoire sémantique, et à utiliser ces connexions pour récupérer l'information adéquate.

Paramètres qui influencent l'apprentissage de la lecture[modifier | modifier le wikicode]

Il existe divers paramètres qui font que la lecture est plus ou moins facile. Nous allons commencer par voir quels sont ces paramètres, avant de voir les modèles qui permettent d'expliquer pourquoi ces paramètres ont une influence. La reconnaissance des mots est surtout influencée par les liens entre oral et écrit, là où la compréhension est influencée par l'élaboration des réseaux mnésiques. Dans les grandes lignes, nous prononçons les mots et percevons la parole en la décomposant en composants élémentaires, les phonèmes, sortes de sons élémentaires qui sont assemblés ensembles pour former des syllabes. Pour simplifier, le principe alphabétique stipule que chaque lettre est attribuée à un ou plusieurs phonèmes : chaque phonème est un son qui correspond à une lettre. Par exemple, dans la syllabe "mo", il y a un phonème qui correspond au "m", et un autre au "o" : essayez de décomposer cette syllabe, vous verrez que vous y arriverez (du moins, vous en aurez l'impression…). On peut noter qu'il existe des cas où un son correspond à un groupe de plusieurs lettres, auquel on donne le nom technique de graphème. Dans la suite de cet article, j'utiliserais le terme "lettre" pour faire référence à ces graphèmes, et le terme "son" et lieu et place de phonème, par souci de vulgarisation.

Transparence linguistique[modifier | modifier le wikicode]

Il existe des langues transparentes, où il n'existe qu'une seule lettre par phonème, et réciproquement : c'est le cas du serbe et du croate, par exemple. Mais manque de chance, ce n'est pas le cas du français ou de l'anglais. En français, il existe 44 phonèmes pour 26 lettres : cela s'explique par le fait qu'une lettre peut correspondre à plusieurs phonèmes, suivant le mot ou la syllabe, et réciproquement. Par exemple, la lettre "g" ne se prononce pas de la même manière dans "jauge" et dans "gueule" : dans le premier cas, elle se prononce plutôt à un "j", alors qu'elle se prononce comme un "g" dans le second. De même, on pourrait citer les lettres muettes, et autres situations du même genre.

Le fait qu'une lettre puisse correspondre à plusieurs phonèmes pose problème pour la lecture. Le cas inverse, à savoir la transcription d'un phonème en lettre/groupe de lettre, n'influence pas la lecture, mais joue un grand rôle pour l'écriture. En effet, le non-respect du principe alphabétique fait que l'on ne peut pas déduire facilement la prononciation d'un mot à partir de ses lettres dans une langue non-transparente, ce qui rend l'apprentissage de la lecture plus laborieux. L'apprentissage de la lecture est plus long pour les pays qui utilisent une langue inconsistante, comparé aux pays à langue transparente. De plus, il faut savoir que les locuteurs des langues transparentes sont moins concernés par la dyslexie : elle existe bien dans ces pays, et dans des proportions similaires à ce qu'on trouve en France, mais les dyslexiques de ces pays ont nettement moins de mal à lire et sont nettement moins handicapés que les petits Français ou Anglais.

Conscience phonologique[modifier | modifier le wikicode]

Les études sur le sujet sont très claires : il existe une bonne corrélation entre la capacité à reconnaitre des mots isolés, et la capacité à analyser les différentes unités du langage. Les études en question ont été relativement bien résumées dans une synthèse du National Reading Panel, publié dans les années 2000. Cette capacité à segmenter les mots prononcés en unités plus petites, que l'on peut manipuler, s'appelle la conscience phonologique.

La connaissance de chaque unité du langage a une grande importance pour la lecture. Certaines études semblent montrer que la conscience phonologique mesurée avant l'apprentissage de la lecture est positivement corrélée à l'apprentissage de la lecture, ce qui semble indiquer une relation causale de la conscience phonologique. Mais les différentes consciences n'ont pas la même utilité dans l'apprentissage de la lecture. Au début de l'apprentissage, toutes les consciences phonologique semblent corrélées à de bonnes capacités de lecture. Par contre, au-delà de la seconde année de primaire, la conscience phonémique joue un rôle plus important que les autres. Cela s'expliquerait par le fait que ces différentes consciences n'apparaissent pas au même moment chez l'enfant. Le développement de la conscience phonologique commence tout d'abord par la détection des mots, puis est suivi d'un développement de la conscience syllabique, suivi lui-même par la conscience des rimes et syllabes, puis enfin par la conscience phonémique.

Cependant, il faut savoir que les phonèmes ne sont pas l'unité de base du langage, du moins pour un sujet qui n'a pas reçu un entrainement spécifique. Des expériences faites par Savin et Becker (1970) ont montré que des élèves reconnaissent plus rapidement les syllabes que les phonèmes. Et c'est sans compter que l'on n'a pas pu observer de capacité à découper le langage en phonémes avant 6 ou 7 ans, l'âge auquel l'enfant apprend à lire. Et enfin, les illettrés n'ont généralement pas de conscience phonémique, alors que leur conscience syllabique est presque identique à celle de personnes qui ont appris à lire. Par contre, les études ont clairement montré que le développement de la conscience phonémique était particulièrement bien corrélé à la capacité à reconnaitre des mots : plus l’illettré apprendre à lire, plus sa conscience phonologique se développe. Reste à savoir si c'est le développement de la conscience phonémique qui aide à l'amélioration de la capacité à reconnaitre des mots, ou l'inverse. Le fait qu'entrainer la conscience phonémique semble améliorer les performances de reconnaissance des mots semble attester d'un rôle causal de la conscience phonémique (Ehri, 2001). Par contre, il existe de nombreux cas d'enfants qui ont une très faible conscience phonémique, mais qui savent parfaitement bien lire (Bradley & Bryant, 1985; Stuart-Hamilton, 1986), sans compter que le même phénomène est observé chez des adultes (Campbell & Butterworth, 1985).

Mémoire de travail[modifier | modifier le wikicode]

Au début de l’apprentissage de la lecture, la mémoire de travail est fortement mise à contribution. Il faut dire que la mémoire de travail verbale est utilisée pour mettre en attente les phonèmes/rimes/syllabes lus et les conserver pour les fusionner en unités plus grandes, ce qui très utile pour déchiffrer les mots. Cela explique que la capacité à répéter des pseudo-mots est fortement corrélée à l'acquisition ultérieure du vocabulaire. Plus la mémoire de travail verbale est grosse, plus l'élève pourra facilement répéter de nouveaux mots. On peut citer le cas d'une patiente, étudiée par Baddeley, dont la mémoire de travail phonologique/articulatoire est atteinte à la suite d'un accident vasculaire cérébral. La patiente n'avait aucun problème pour lire des mots familiers ou qui ressemblaient à des mots connus, mais l'apprentissage de nouveaux mots d'une autre langue était laborieux, quand il était seulement possible. On voit donc que l'apprentissage de nouveaux mots dépend de la mémoire de travail auditive, du moins dans les premières étapes de l'apprentissage de la lecture. Par la suite, cette influence diminue, l'élève apprenant de nouveaux mots en les reliant à des mots déjà présents en mémoire à long terme, par analogie.

De plus, la compréhension de texte utilise aussi la mémoire de travail. Automatiser la lecture permet évidemment de libérer de la mémoire de travail, au profit des processus de compréhension. Les expériences sur les élèves montrent que plus l'élève apprend à lire, plus la lecture devient économe en mémoire de travail. Cela a un effet assez positif sur la vitesse de lecture, mais aussi sur la compréhension de texte. Ainsi, les mauvais décodeurs ont des difficultés pour comprendre un texte. Plus un enfant sait déchiffrer vite et bien, plus il sera capable de comprendre le texte qu'il lit[1][2].

Vitesse de lecture en fonction de l'âge. L'augmentation de la vitesse de lecture est le signe que la lecture s'automatise, devenant de moins en moins consommatrice en ressources attentionnelles.

Vocabulaire[modifier | modifier le wikicode]

L'influence du vocabulaire se manifeste essentiellement sur les processus de compréhension, et plus marginalement sur le processus de reconnaissance des mots. En effet, qui dit vocabulaire développé dit mémoire sémantique développée, remplie de connaissances, de concepts, et d'idées. Les personnes avec beaucoup de vocabulaire, et donc beaucoup de connaissances antérieures, pourront former plus de relations en mémoire lors de la lecture, leur donnant un avantage en terme de compréhension de texte. C'est ce qui explique que plus le vocabulaire d'un enfant est développé, plus ses capacités de compréhension sont bonnes. Avec l'âge, le lexique mental se développe progressivement et s'enrichit de mots. Pour pouvoir parler de manière fluide, que ce soit sa langue maternelle ou une langue étrangère, un élève doit connaitre environ 4000 à 5000 mots dans la langue étrangère à apprendre. Mais évidemment, les pratiques pédagogiques et contenus d'enseignement ont aussi un rôle extrêmement important à jouer.

Acquisition du vocabulaire.

Acquisition du vocabulaire[modifier | modifier le wikicode]

La reconnaissance des mots écrits est un processus qui se met en place progressivement. Selon le docteur Linnea Ehri, l'apprentissage de la lecture s'effectue en trois grandes phases.

La toute première étape de l'apprentissage de la lecture a lieu avant même la scolarisation en primaire et l'apprentissage explicite de la lecture. Lors de cette étape, les enfants peuvent reconnaître des mots, qu'ils interprètent comme des dessins : ils peuvent ainsi reconnaître des mots vus régulièrement, comme Carrefour ou Auchan. On parle d'étape logographique. Cette reconnaissance ne se fait pas dans le détail des lettres : à la place, les enfants analysent l'image en se basant sur la forme générale du mot, sa couleur, la couleur des lettres, et divers indices visuels. Sans ces indices visuels, les enfants ne peuvent pas reconnaître le mot : il n'y a aucune intervention du langage oral dans la reconnaissance des mots.

Lors de l'étape alphabétique, les enfants prennent conscience de l'existence de lettres, et se basent sur le langage oral pour reconnaître des mots : ils font le lien entre lettres et phonèmes. Ces correspondances entre lettres et sons sont utilisées lors de la lecture : l'enfant va alors traduire les lettres en sons, et reconstruira le mot sous forme auditive : c'est là que le mot "entendu" sera reconnu. Au tout début de l'apprentissage, les enfants se basent non sur une prononciation complète des mots, mais se contentent d'une traduction partielle : ils traduisent certaines zones du mot, qui leur servent d'indices pour identifier le mot complet. Par exemple, les enfants peuvent traduire les lettres du début et de fin de mot, et en déduisent quel est le mot. Ce processus est utile, mais pas efficace : les enfants commencent à savoir lire, mais le font lentement, et ont du mal à reconnaître un grand nombre de mots. Par la suite, les enfants lisent lettre par lettre, et fusionnent les sons individuels pour former de mots complets. Cette capacité à fusionner les sons progresse et devient de plus en plus rapide avec le temps, sans pour autant devenir automatique : l'enfant doit faire les conversions lettres -> sons consciemment.

Puis, progressivement, les enfants font de moins en moins appel à un déchiffrage des lettres et commencent à reconnaître visuellement des portions de mots. Au lieu de traiter les mots lettre par lettre, ils sont capables de reconnaître des groupes de plusieurs lettres, qui correspondent à des syllabes. La lecture est alors de plus en plus rapide, et devient de plus en plus automatique. L'enfant qui a atteint ce stade a mémorisé l'orthographe des mots, qu'il peut alors reconnaître plus ou moins indirectement. L'enfant peut aussi utiliser ces connaissances orthographiques pour effectuer des analogies entre mots, et en déduire la prononciation de mots nouveaux en se basant sur des mots connus similaires. Cependant, les correspondances entre sons et suites de lettres sont encore utilisées dans certains cas particuliers, notamment pour les mots inconnus. L'enfant a alors atteint l'étape orthographique.

Le processus de lecture chez l'adulte[modifier | modifier le wikicode]

L'accès au lexique mental, à savoir le processus de reconnaissance des mots, est activement étudié de nos jours. Une chose est certaine, ce processus ne voit pas des mots entiers , mais des morceaux de mots. En effet, notre œil ne peut voir précisément que sur une portion très limitée du champ de vision, la vision étant totalement floue en dehors de cette zone.

EyeFixationsReading.gif

Pour voir une image en entier, notre œil doit bouger sans cesse, balayer une portion plus ou moins importante de l'image. De telles saccades oculaires sont fréquentes, et nous n'en avons souvent pas conscience. C'est la mémoire sensorielle qui se charge de combiner les résultats des différentes prises de vue effectuées par l’œil en une image plus ou moins complète. Ces saccades oculaires durent environ 250 millisecondes, avec des variations suivant la personne. Ce point suffit à réfuter définitivement les méthodes de lecture globale, qui cherchent à faire reconnaitre des mots dans leur totalité. Cela permet aussi de réfuter définitivement les méthodes de lecture rapide.

Reading Fixations Saccades.jpg

Le modèle à deux voies[modifier | modifier le wikicode]

Reste qu'une fois perçus, les groupes de lettres doivent être traités, et activer un mot dans le lexique mental. Le modèle psychologique le plus utilisé à ce jour est le modèle du double codage. Ce modèle dit que les mots familiers sont reconnus par un processus visuel, tandis que les mots inconnus sont décodés phonologiquement. Le lecteur expert dispose ainsi d'une voie d'adressage visuelle et d'une voie d'assemblage phonologique. D'après la version la plus récente de ce modèle, les deux voies s'activent en parallèle lors de la lecture d'un mot, et c'est la plus rapide ou la plus adaptée qui l'emporte. Les observations sur des patients ayant des lésions au cerveau a montré qu'une voie peut être touchée sans que l'autre ne le soit.

Dual route hypothesis to reading.jpg

Lorsque notre cerveau fait face à un mot peu fréquent ou inconnu, c'est la voie d'assemblage qui doit prendre le relai. Celle-ci consiste en un décodage conscient du mot à lire, basé sur une utilisation des correspondances entre graphèmes et phonèmes. Les expériences qui attestent l'existence de cette voie portent sur des mots dont la prononciation ne varie que d'un seul phonème : on parle de voisins orthographiques. Dans ces expériences, on présente un mot indice durant un temps très court (quelques millisecondes), avant de présenter un mot cible. L'indice va s'activer et pré-activer les mots avec lesquels il est relié en mémoire, facilitant leur reconnaissance. Or, le mot cible est reconnu beaucoup plus rapidement avec un indice qui est un voisin phonologique, et les mesures des temps de réaction sont assez intéressantes. Cependant, cet effet n'a lieu que pour les mots relativement rares, et pas pour les mots fréquents. C'est la preuve que la lecture des mots fréquents se base sur un processus indépendant de la phonologie. De plus, les sujets qui ont de faibles résultats aux épreuves de reconnaissance de mots écrits ont plus souvent tendance à avoir un effet d’amorçage prononcé avec des voisins phonologiques : les moins bons lecteurs déchiffrent les mots avec des processus phonologiques, ce que ne font pas les bons lecteurs.

La voie d'adressage est celle du processus de reconnaissance des mots fréquents. L'existence de cette voie est attestée par deux effets expérimentaux, nommés effet de lexicalité et effet de fréquence. Le premier tient au temps de réaction suite à la présentation d'un mot ou d'une suite de lettres inconnue (un pseudo-mot). Il est observé que le temps de lecture est supérieur pour les pseudo-mots. Par exemple, nous reconnaîtrons plus rapidement le mot "pluriel" que "prugarmif". On parle d'effet de lexicalité. Le second stipule que les mots fréquents sont reconnus plus rapidement, ce qui indique un traitement non-phonologique des mots. On peut citer l'expérience de Catherine Martinet, de l'université de Grenoble, effectuée sur une classe de première année de primaire. Elle a commencé par étudier la fréquence des mots présents dans le manuel de lecture utilisé, et a sélectionné 36 mots : 18 mots fréquents, et 18 mots rares. Le résultat est clair : les mots fréquents sont bien orthographiés dans 78% des cas, contre seulement 55% avec les mots rares.

Dans le cas des dyslexies, au moins une des deux voies serait endommagée. Si la voie d'assemblage est lésée, le patient a du mal à décoder les mots de manière phonologique : la reconnaissance des mots et des pseudo-mots (des assemblages de syllabes comme grabeurg, fama, crata, etc) réguliers est alors mauvaise. Lors d'atteinte de la voie d'adressage, le cobaye a du mal à lire les mots irréguliers, qui ne se prononcent pas comme ils s'écrivent (femme, par exemple).

Dyslexia chart.jpg

Le modèle à double voie en cascade[modifier | modifier le wikicode]

La version la plus récente du modèle à deux voies postule que les deux voies s'activent en parallèle lors de la lecture d'un mot, la plus rapide ou la plus adaptée l'emportant sur l'autre. Il est stipulé dans le modèle que la voie d'adressage va plus vite que la voie d'assemblage. Cela expliquerait pourquoi les mots fréquents sont reconnus plus rapidement ou pourquoi les vrais mots sont lus plus rapidement : les mots fréquents et vrais mots sont reconnus par la voie d'adressage, qui est plus rapide.

Cependant, on peut se demander si l'accès à la phonologie a lieu avant ou après l'identification visuelle des mots : est-ce que la voie d'adressage est vraiment plus rapide ? Et d'un point de vue expérimental, cette supposition est assez bien vérifiée : l'accès à la phonologie d'un mot a clairement lieu après l'identification visuelle pour les mots fréquents, et même après l'accès au sens des mots. Dans leur étude de 1995, Daneman, Reingold, et Davidson, ont donné à des sujets des phrases dans lesquelles certains mots étaient remplacés par des homophones. Si la lecture procédait comme ceci : mot écrit -> prononciation -> sens, alors le sens des homophones serait immédiatement disponible à partir de la traduction auditive du mot, sans influence de l'orthographe. Par contre, s'il existe bien deux voies, avec une voie visuelle plus rapide que l'auditive, les homophones seraient plus longs à lire : il faudrait attendre que la voie auditive fasse son travail avant de pouvoir accéder à la bonne signification, qui permet de comprendre la phrase.

Cette étude a montré que des sujets avaient des temps de lecture plus longs pour les homophones mal orthographiés que pour ceux correctement orthographiés : on lit plus vite quand le mot correct est utilisé que quand celui-ci est remplacé par un homophone. Cela suggère que le sens des mots est accédé avant leur prononciation. La voie d'adressage est donc bien plus rapide que la voie d'assemblage.

Les modèles connexionnistes[modifier | modifier le wikicode]

De nos jours, les modèles les plus aboutis sont des modèles basés sur des réseaux de neurones. Au début de l'apprentissage, ces réseaux de neurones lisent en passant par la phonologie : ils attribuent des groupes de lettres à des unités du langage et lisent les mots en combinant ces unités orales. Puis, au fil du temps, les liaisons directes entre groupes de lettres et unités de sens sont utilisées pour reconnaître les mots. Chez le bon lecteur, qui a des années d'expérience, les deux processus fonctionnent : reconnaissance visuelle de groupes de lettres, et traduction phonologique.

Références[modifier | modifier le wikicode]

  1. Perfetti, 1988
  2. Yuill et Oakhill, 1991
GFDL GFDL Vous avez la permission de copier, distribuer et/ou modifier ce document selon les termes de la licence de documentation libre GNU, version 1.2 ou plus récente publiée par la Free Software Foundation ; sans sections inaltérables, sans texte de première page de couverture et sans texte de dernière page de couverture.