Précis d'épistémologie/Version imprimable

Un livre de Wikilivres.
Sauter à la navigation Sauter à la recherche

Nuvola-inspired File Icons for MediaWiki-fileicon-ps.png

Ceci est la version imprimable de Précis d'épistémologie.

  • Si vous imprimez cette page, choisissez « Aperçu avant impression » dans votre navigateur, ou cliquez sur le lien Version imprimable dans la boîte à outils, vous verrez cette page sans ce message, ni éléments de navigation sur la gauche ou en haut.
  • Cliquez sur Rafraîchir cette page pour obtenir la dernière version du wikilivre.
  • Pour plus d'informations sur les version imprimables, y compris la manière d'obtenir une version PDF, vous pouvez lire l'article Versions imprimables.


Précis d'épistémologie

Une version à jour et éditable de ce livre est disponible sur Wikilivres,
une bibliothèque de livres pédagogiques, à l'URL :
https://fr.wikibooks.org/wiki/Pr%C3%A9cis_d%27%C3%A9pist%C3%A9mologie

Vous avez la permission de copier, distribuer et/ou modifier ce document selon les termes de la Licence de documentation libre GNU, version 1.2 ou plus récente publiée par la Free Software Foundation ; sans sections inaltérables, sans texte de première page de couverture et sans Texte de dernière page de couverture. Une copie de cette licence est incluse dans l'annexe nommée « Licence de documentation libre GNU ».

Les fondements de l'éthique

L'éthique est le savoir sur le bien de l'esprit. L'épistémologie est le savoir sur le savoir. Elle est un savoir éthique parce que le savoir est un bien de l'esprit.

Le bien est ce qui doit être. Est bien ce qui est tel qu'il doit être.

La matière inerte n'a pas de devoir être, ou plutôt elle est déjà ce qu'elle doit être.

Le bien de la vie est de persévérer dans son être. La santé est d'avoir pleinement les moyens de continuer à vivre. La reproduction est la perpétuation de la vie. Le bien de la vie est de continuer à être ce qu'elle est déjà. L'esprit n'a pas à lui prescrire ce qu'elle doit être.

Le bien de l'esprit est de bien vivre comme un esprit, donc de bien vouloir, bien penser, bien ressentir, bien agir, bien percevoir et bien imaginer. L'éthique est le savoir sur le bien de l'esprit donc sur le bien vivre de l'esprit.

Un esprit s'accomplit quand il vit bien, quand il vit comme il doit vivre.

La bonne volonté est centrale et fondamentale, parce que bien penser, bien agir, bien ressentir, bien percevoir et bien imaginer, c'est penser, agir, ressentir, percevoir et imaginer en accord avec la bonne volonté (Kant 1785).

Bien vouloir, c'est vouloir le bien[modifier | modifier le wikicode]

Bien vouloir, c'est nécessairement vouloir le bien, vouloir le faire autant qu'on peut.

Vouloir le bien, percevoir, imaginer, penser, ressentir et agir pour le bien, c'est vivre pour le bien.

Le bien de l'esprit est de vivre pour le bien. Pour un esprit, vivre bien, c'est vivre pour le bien.

L'amour du bien est le désir, la connaissance et l'acte. Aimer le bien, c'est le vouloir, et percevoir, imaginer, penser, ressentir et agir pour le réaliser, dans la mesure du possible. Aimer le bien, c'est vivre pour le bien.

Le bien de l'esprit est d'aimer le bien. Un esprit s’accomplit en aimant le bien, par le désir, la connaissance et l’action.

Comme la bonne volonté est un bien, on doit vouloir que la volonté du bien se perpétue quand on veut le bien. C’est le cercle de la perpétuation de la vie de l’esprit.

Pour bien vivre, il faut vouloir bien vivre. On ne peut pas bien vivre sans avoir une bonne volonté. L'esprit doit vouloir le bien de l'esprit, il doit vivre pour l'esprit.

On peut prendre des décisions sur sa façon de prendre des décisions. On peut exercer sa volonté sur sa façon d'exercer sa volonté. On peut décider d'adopter des principes qui déterminent le bien qu'on doit rechercher. On décide ainsi de toujours se décider en respectant les principes qu'on a adoptés. On peut se décider à toujours prendre ses décisions en voulant le bien.

Que l’esprit doit vivre pour l’esprit a un sens très terre à terre : on doit agir pour avoir de bonnes conditions de vie. Si on ne fait pas d’efforts, on vit forcément plutôt mal. Si un esprit veut profiter de la vie, il doit s’en donner les moyens et travailler.

La formule "l'esprit doit vivre pour l'esprit" est ambiguë. Il faut entendre que l'esprit doit vivre pour le bien de l'esprit, pas seulement pour que l'esprit vive. Le crime organisé vit pour continuer à vivre et il n'est pas un bien de l'esprit.

Une action motivée par la bonne volonté est un bien, même si elle manque son but, parce que la bonne volonté est un bien. Inversement une action qui n'est pas motivée par la bonne volonté n'est pas un bien, même si elle a des conséquences bénéfiques, parce que l'absence de bonne volonté est un mal (Kant 1785). Les intentions sont essentielles pour évaluer les actions, parce que la bonne volonté est la condition fondamentale du bien-vivre, mais il ne faut pas ignorer les conséquences pour autant : nous avons le devoir de prévoir les conséquences de nos actions, autant qu'il est possible et adapté à la situation.

Une remarque sur les définitions circulaires : des principes tels que "la matière est ce qui interagit avec la matière", "un nombre naturel est ou bien zéro ou bien le successeur d'un nombre naturel" et "le bien est que l'esprit vive pour le bien" ne sont pas fautifs. Ils déterminent la signification des concepts fondamentaux. Formellement on les traduit par des axiomes. De façon informelle, on peut dire qu'ils sont vrais par définition, ou qu'ils définissent les concepts fondamentaux. Les définitions circulaires sont interdites seulement pour les concepts dérivés, définis à partir des concepts fondamentaux. Mais elles ne sont pas interdites pour les concepts fondamentaux, parce que les axiomes peuvent être considérés comme des définitions implicites des concepts fondamentaux.

Des émotions pour bien vivre[modifier | modifier le wikicode]

On a besoin des émotions pour bien vivre. Elles nous enseignent ce qu'il faut rechercher, quand elles sont plaisantes, et ce qu'il faut éviter, quand elles ne le sont pas. Elles nous font connaître l'idéal : comment bien vivre. Elles nous font aussi connaître la réalité, et même de la façon la plus importante qui soit, parce qu'elles nous avertissent sur ce qui peut nous aider à bien vivre, ou au contraire nous empêcher de bien vivre. Elles nous font connaître la réalité en nous donnant les moyens de l'évaluer.

Une même décision peut avoir de nombreuses conséquences, les unes plaisantes, les autres non. L'exercice de la bonne volonté requiert une vue d'ensemble et une appréciation équilibrée des conséquences prévisibles (Aristote, Éthique à Nicomaque).

Le émotions nous éclairent en nous montrant comment évaluer les fins et les moyens. Mais elles peuvent aussi nous aveugler. Une émotion particulière ne montre qu'un aspect de la situation. Si elle est forte, elle peut empêcher d'avoir une vue d'ensemble équilibrée et nous conduire à une décision partiale, intolérante et injuste. Les émotions ne s'opposent pas à la raison comme des ennemis, parce qu'elles nous éclairent sur les moyens de bien vivre, mais comme des intérêts particuliers qui s'opposent parfois à l'intérêt commun.

Les plaisirs sont des indicateurs du bien vivre. Mais le bien vivre ne se réduit pas à la recherche des plaisirs. La bonne volonté ne se réduit pas à l'obéissance aux émotions parce qu'elle requiert une appréciation équilibrée de l'ensemble des conséquences prévisibles de nos décisions. Suivre le plaisir du moment ne suffit pas pour faire une bonne volonté.

Le bon savoir[modifier | modifier le wikicode]

Pour bien vouloir, on a besoin d'un bon savoir. Il faut connaître le bien qu'on veut et la réalité où on est. Et il faut les connaître bien : bien percevoir, bien imaginer les conséquences de nos décisions, bien ressentir et bien penser.

Pour bien penser, il ne faut pas se contenter de croire ce qui nous plaît, il faut connaître de bonnes raisons de croire ce qu'on croit. On doit être capable de justifier ce qu'on croit savoir avec des bons principes, des bonnes observations et des bons raisonnements.

Nous n'avons pas toujours besoin d'être experts pour bien penser mais nous avons toujours besoin d'un minimum de bon sens, pour reconnaître des bons principes et les appliquer correctement.

On connaît et on respecte la raison, quand on raisonne correctement avec de bons principes et de bonnes observations.

On reconnaît les bons principes à leurs fruits. Ils portent des fruits quand ils nous aident à bien vivre.

La raison est bonne pour tous les esprits. Ses fruits sont universels. Les bonnes observations les bons principes et les bons raisonnements sont bons pour tous les esprits.

Quand nous comprenons que la raison est universelle, nous comprenons du même coup le grand principe à partir duquel fonder tout le savoir rationnel. Tout se passe comme si la raison était une divinité généreuse, qui donne sa sagesse à tous ceux qui veulent vraiment la connaître. La première vérité sur la raison est qu'elle est généreuse. Elle n'est pas envieuse, elle ne nous prive pas du meilleur. Elle ne serait pas la meilleure si elle privait un seul d'entre nous du meilleur. « Il n'est pas possible que la divinité soit envieuse. » (Aristote, Métaphysique, livre A, 983a) En sachant que le savoir rationnel peut être partagé par tous, nous avons le savoir fondamental qui nous donne les moyens de comprendre tout le savoir rationnel.

Vivre pour le bien de tous les esprits[modifier | modifier le wikicode]

On ne peut pas faire le bien d'autrui contre son gré parce qu'on ne peut pas prendre ses décisions à sa place. Son bien est qu'il ait une bonne volonté et qu'il l'exerce librement. Comme on n'a pas le devoir de faire ce qu'on ne peut pas faire, on pourrait en conclure qu'on n'a jamais le devoir de faire le bien d'autrui, qu'on ne doit s'occuper que de son propre bien. Un esprit égoïste, qui vit seulement pour son bien, sans se soucier du bien des autres esprits, peut-il bien vivre ?

On ne peut pas faire le bien d'autrui à sa place mais on peut lui donner des moyens de le faire, ou au contraire l'empêcher de bien vivre.

Un esprit égoïste renonce à sa nature sociale. Il peut être bon pour les autres esprits mais il renonce à l'être. C'est un rabougrissement de l'esprit.

Un esprit vit bien en étant bon pour lui-même et son entourage. Mais il peut aussi être bon pour tous les esprits, parce que les fruits de la raison sont universels. Quand un esprit connaît la raison, il connaît en même temps ce qui est bon pour lui et ce qui est bon pour tous les autres. En révélant la raison, un esprit se prouve à lui-même, et à tous les autres, qu’il peut être bon pour tous les esprits, parce que nous pouvons tous bénéficier des fruits de la raison.

En refusant d'être bon pour autrui un esprit égoïste renonce du même coup à être vraiment bon pour lui-même parce qu'il se prive de la puissance de la raison. On apprend en même temps à être bon pour soi-même et à être bon pour les autres. Si on ne sait pas être bon pour les autres, on ne sait pas être bon pour soi-même.

Un esprit vit bien quand il vit pour le bien de tous les esprits, le sien et celui de tous les autres. Le bien d'un esprit n'est pas séparable du bien de tous les esprits.

« Agis de façon telle que tu traites l'humanité, aussi bien dans ta personne que dans la personne de tout autre, toujours en en même temps comme fin, jamais simplement comme moyen. » (Kant, 1785) Considérer un esprit seulement comme un moyen, c'est ignorer délibérément son bien. Pour le considérer vraiment comme une fin, il faut vouloir son bien.

Aimer un esprit, c'est vivre pour son bien. La raison prescrit de vivre pour le bien de tous les esprits, donc de les aimer.

« Tu aimeras ton prochain comme toi-même » (Lévitique 19, 18) n'est pas seulement un principe religieux, c'est aussi un principe rationaliste. Si les êtres humains ne veulent pas s'entraider la raison ne peut pas être parmi eux.

La haine rend fou parce qu'elle est contraire à la raison, qui nous prescrit de toujours vouloir le bien de tous les esprits. Si on veut garder la raison, il faut « aimer ses ennemis » (Matthieu 5, 44). Il faut pardonner parce que la haine empêche de vouloir le bien, et donc de bien vivre.

La vertu[modifier | modifier le wikicode]

La vertu est d'être toujours disposé à bien percevoir, bien imaginer, bien ressentir, bien penser, bien vouloir et bien agir, ou presque toujours. Les vertus sont des façons particulières d'être vertueux.

La vertu est nécessaire au bien vivre mais elle ne suffit pas. A elle seule, elle ne guérit pas les maladies, elle n'arrête pas la main des tortionnaires, elle ne sauve pas de la misère. Pour bien vivre un esprit a besoin de conditions favorables en plus de la vertu : santé, paix et prospérité.

La vertu n'est pas donnée d'avance. Un esprit doit apprendre à être ce qu'il doit être. Quand il apprend à être vertueux, un esprit n'est pas encore ce qu'il doit être, parce qu'il doit l'apprendre, mais d'une autre façon il est déjà ce qu'il doit être, parce qu'il doit apprendre, parce que la phase d'apprentissage doit être. Apprendre à être vertueux, c'est déjà commencer à l'être, parce que vouloir le bien est un bien. Le désir de la sagesse est le commencement de la sagesse. Quand on aime le bien, on aime ce qui est déjà là, pas seulement un bien qu'on désire sans l'avoir, parce que l'amour du bien est le bien. « Qui boira de cette eau n'aura plus jamais soif car elle est une source d'où jaillit la vie sans fin. » (Jean 4, 14)

Bien ressentir, avoir des émotions qui nous aident à nous adapter à la réalité en accord avec la bonne volonté, fait partie de la vertu ((Aristote, Éthique à Nicomaque, Hursthouse 2001). Mais les émotions ne sont pas directement sous le contrôle de la volonté. On ne décide pas d'être ému. On ne choisit pas d'aimer. Comment alors pourrait-on vouloir bien ressentir ? La raison nous demande d'aimer tous les esprits, mais l'amour ne se commande pas. La vertu requiert l'équilibre émotionnel, mais les émotions n'obéissent pas aux ordres de la volonté.

Le déclenchement des émotions n'est pas directement sous le contrôle de la volonté, mais les émotions ne sont pas pour autant toutes puissantes face à la volonté. On peut contrôler volontairement l'expression des émotions, les retenir ou les libérer. On peut aussi contrôler volontairement les conditions, extérieures et intérieures, qui les déclenchent. En particulier, les émotions dépendent des façons d'interpréter la réalité. Nous pouvons nous servir de la pensée pour modifier nos réactions émotionnelles en changeant nos interprétations. Nous pouvons donc exercer notre bonne volonté pour apprendre à bien ressentir, à aimer et à être équilibré.

Est-ce le rêve d'un illuminé ?[modifier | modifier le wikicode]

L'accomplissement de la raison ressemble au rêve d'un illuminé : que tous les esprits trouvent leur bonheur en donnant du bonheur à tous les autres, que nous soyons tous philosophes, tous dans l'amour de la raison, tous vertueux, comme si la philosophie pouvait être la musique fondamentale qui fait danser tous les esprits et qui transforme la planète en paradis.

Les rêves deviennent réalité pourvu qu'ils soient adaptés à la réalité, qu'ils soient à notre portée, que nous puissions trouver naturellement les moyens de les réaliser. En nous motivant, ces rêves nous conduisent à leur réalisation, ils nous révèlent les moyens qui nous permettent de les accomplir. Si nous avions renoncé au rêve, nous n'aurions jamais trouvé les moyens.

Nous sommes tous naturellement capables de connaître ce qui est naturellement possible et comment bien vivre. Nous sommes tous naturellement capables d'apprendre à être vertueux et nous avons tous intérêt à l'apprendre, parce que c'est ainsi qu'on vit bien. Un monde où la plupart des gens sont plutôt vertueux la plupart du temps, ou apprennent à l'être, est naturellement possible. Ainsi entendu, un monde plutôt juste mais pas parfait, l'idéal rationaliste est adapté à la réalité.

La nature de l'esprit est de rêver à l'idéal pour s'accomplir comme un esprit digne de l'idéal. C'est ainsi qu'il se révèle pleinement comme un esprit. Un esprit est naturellement porté par le désir de l'idéal et il révèle ce qu'il est réellement en réalisant ce désir. Un paradis où tous les esprits trouvent leur bonheur dans le bonheur de tous est simplement un monde où tous les esprits sont fidèles à leur nature spirituelle. C'est ce pour quoi nous sommes faits naturellement, ce vers quoi nous sommes portés quand nous voulons être de véritables esprits.


Chapitre suivant >>>


Qu'est-ce que le savoir ?

« il disait que l'opinion vraie accompagnée d'une raison (logos) est science, tandis que celle qui est dépourvue de raison est en dehors de la science; et ce dont il n'y a pas de raison n'est pas sachable - tel est le mot qu'il forgeait - tandis que ce qui en a une est sachable.» (Platon, Théétète 201d)

Le savoir rationnel doit être public et prouvé[modifier | modifier le wikicode]

Pour qu'un savoir soit rationnel il doit être justifié. Une prétention à la raison qui n'est pas justifiée est vaine et insensée. On justifie le savoir en donnant des preuves. Sans preuves, il n'y a pas de savoir rationnel.

Le savoir rationnel doit être public. Une croyance exclusivement privée, qui ne peut pas être communiquée et prouvée, n'est pas un savoir rationnel. La raison est une œuvre collective. Elle doit être partagée pour exister et on la partage en donnant des preuves.

Le savoir rationnel est nécessairement un savoir parlant. Il est développé à partir d'un savoir muet : toutes les formes de connaissance qui peuvent se passer de la parole. La perception, l'imagination, la réflexion, la mémoire et les émotions sont des sources d'un savoir fondamental qui précède celui que nous acquérons avec la parole.

La théorie du savoir exposée dans ce chapitre est une théorie du savoir rationnel. "X sait que S" veut dire "X sait que S d'une façon rationnelle".

Les justifications concluantes[modifier | modifier le wikicode]

X sait que S si et seulement si X est capable de donner une justification concluante de S.

Une justification de S est ou bien un raisonnement qui a S pour conclusion ou bien l'affirmation que S est une prémisse fondamentale. Un raisonnement est acceptable s'il respecte la logique et si ses prémisses sont acceptables. Une prémisse est acceptable si elle est une prémisse fondamentale acceptable ou si elle est déjà justifiée à partir de prémisses fondamentales acceptables. Pour définir précisément le concept de justification du savoir, il suffit de définir précisément les règles logiques et les prémisses fondamentales acceptables.

Un énoncé de la forme "X a bien observé que O", où O est le compte-rendu d'une observation, est une prémisse fondamentale acceptable, au moins pour les observations qui résultent de l'usage ordinaire de nos facultés naturelles dans de bonnes conditions. Une vérité théorique que l'on peut admettre par définition des termes employés est aussi une prémisse fondamentale acceptable. Par exemple, "Si X a bien observé que O alors O" est vrai par définition du concept de bonne observation. Une observation ne peut pas être bonne si elle est fausse.

Une justification est acceptable si elle est un raisonnement logique fondé sur des prémisses acceptables ou si elle est l'affirmation qu'une prémisse fondamentale acceptable est fondamentale.

Une justification est concluante lorsqu'elle est acceptable et lorsque toutes les prémisses fondamentales sur lesquelles elle est fondée, explicitement ou implicitement par l'intermédiaire de prémisses déjà justifiées, sont vraies. Comme les règles logiques conduisent toujours du vrai au vrai, la conclusion d'une justification concluante est nécessairement vraie. Un raisonnement établit que sa conclusion est vraie pourvu que ses prémisses soient vraies. Si une de ses prémisses est fausse, un raisonnement ne prouve rien.

Le principe rationaliste, que X sait que S si et seulement si X est capable de donner une justification concluante de S, peut être admis par définition des concepts de savoir et de justification concluante. Il en va de même pour les autres principes qui déterminent les justifications acceptables et concluantes.

On peut croire en toute légitimité qu'on a fait une bonne observation et s'être pourtant trompé, parce qu'on est victime d'un stratagème, ou d'une illusion, ou pour toute autre raison inconnue de nous qui fait que les conditions d'une bonne observation n'étaient pas réunies. Une prémisse empirique fondamentale peut être fausse même si elle est acceptable. Les justifications empiriques acceptables ne sont pas toujours concluantes.

Le savoir purement théorique, ou mathématique, est fondé seulement sur des prémisses fondamentales théoriques vraies par définition de leurs termes, parce qu'une vérité purement théorique porte sur des mondes logiquement possibles, et parce que toutes les vérités à leur sujet résultent de leur définition. Tant qu'on raisonne correctement sur des mondes logiquement possibles, il n'y a pas de place pour l'erreur ou le doute. C'est pourquoi les preuves mathématiques, c'est à dire les justifications acceptables purement théoriques, sont toujours concluantes.

Le savoir empirique est fondé à la fois sur des prémisses fondamentales empiriques et théoriques. Les prémisses théoriques définissent des modèles de la réalité. Ce sont les mondes logiquement possibles pour lesquels les principes théoriques sont vrais. Si on donne aux termes de la théorie une interprétation empirique, alors les théorèmes, c'est à dire les conséquences logiques des principes, sont des hypothèses sur la réalité empirique. Pour que les prémisses théoriques fondamentales permettent de développer un véritable savoir empirique, il ne suffit pas qu'elles soient vraies de mondes logiquement possibles, il faut qu'elles soient vraies à propos de la réalité. C'est pourquoi le savoir empirique doit justifier ses hypothèses théoriques. Les prémisses théoriques fondamentales des théories empiriques doivent être justifiées au préalable pour être acceptables. Cela pose un problème de régression à l'infini ou de circularité. Les principes des théories empiriques sont les fondements de la justification du savoir empirique. A partir de quels fondements peut-on les justifier alors qu'ils sont eux-mêmes des fondements ?

La justification des principes[modifier | modifier le wikicode]

« Vous les reconnaîtrez à leurs fruits. » (Matthieu, 7:20)

« On y verra de ces sortes de démonstrations, qui ne produisent pas une certitude aussi grande que celles de Géométrie, et qui même en diffèrent beaucoup, puisque au lieu que les Géomètres prouvent leurs Propositions par des Principes certains et incontestables, ici les Principes se vérifient par les conclusions qu'on en tire; la nature de ces choses ne souffrant pas que cela se fasse autrement. Il est possible toutefois d'y arriver à un degré de vraisemblance, qui bien souvent ne cède guère à une évidence entière. Savoir lorsque les choses, qu'on a démontrées par ces Principes supposés, se raportent parfaitement aux phénomènes que l'expérience a fait remarquer; surtout quand il y en a grand nombre, et encore principalement quand on se forme et prévoit des phénomènes nouveaux, qui doivent suivre des hypothèses qu'on employe, et qu'on trouve qu'en cela l'effet répond à notre attente. Que si toutes ces preuves de la vraisemblance se rencontrent dans ce que je me suis proposé de traiter, comme il me semble qu'elles font, ce doit être une bien grande confirmation du succès de ma recherche, et il se peut malaisément que les choses ne soient à peu près comme je les représente. » (Christian Huyghens, Traité de la lumière, p.2)

On reconnaît les bons principes à leurs fruits.

Nous ne savons pas par avance quels sont tous les bons principes théoriques qui nous permettent de développer un bon savoir. Les principes théoriques des sciences empiriques sont d'abord seulement des hypothèses. On attend d'eux qu'ils fassent leurs preuves, qu'ils portent des fruits, qu'ils permettent de prouver des vérités qui expliquent les phénomènes observés ou qui prédisent de nouveaux phénomènes.

Qu'un bon principe porte des fruits est une vérité qu'on peut admettre par définition du concept de bon principe.

On justifie les principes avec le principe de la justification des principes :

Si un principe a porté des fruits et s'il n'a pas été réfuté alors il est une prémisse fondamentale acceptable.

Une déduction consiste à justifier une conclusion avec un raisonnement logique à partir de principes ou d'hypothèses. Par contraste, on parle d'abduction lorsqu'on justifie des principes à partir de l'ensemble de leurs conséquences. La justification par l'induction, c'est à dire la justification d'une loi à partir de cas particuliers observés, est une forme d'abduction. L'abduction est aussi appelée l'inférence de la meilleure explication. Déduction et abduction sont complémentaires. La déduction donne aux principes leur puissance explicative. L'abduction sélectionne les principes qui nous aident le plus à comprendre la réalité.

Nous justifions les principes à partir de leurs conséquences. Un sceptique pourrait dénoncer un cercle vicieux : les principes sont justifiés par les conséquences qu'ils doivent justifier.

Il y a bien un cercle mais il n'est pas forcément vicieux. Les principes ne sont pas les seules sources du savoir. Les observations le sont également. Nous avons deux façons de justifier un énoncé d'observation, une façon directe, en observant ce qu'il affirme, et une façon indirecte, en montrant qu'il est une conséquence logique de principes théoriques et d'hypothèses particulières au cas observé. On attend de nos théories empiriques qu'elles expliquent et prédisent nos observations. On veut que les vérités justifiées par les observations soient également justifiées par la théorie. On veut que le réel soit intelligible, que ce qui est connu par les sens soit également connu par le raisonnement.

Le cercle de la justification du savoir est un dialogue incessant entre les théories et leurs applications. Les observations nous font sortir du cercle de la justification des principes par des principes.

La justification des principes par abduction rend l'acceptabilité d'une justification dépendante des circonstances. De nouvelles connaissances peuvent réfuter des principes auparavant acceptables en montrant qu'ils conduisent à des conséquences contraires à l'observation.

"Si A alors B, or A, donc B" est une déduction logiquement correcte. En revanche, "si A alors B, or B, donc A" est un sophisme. Quand on justifie un principe par ses conséquences, il ne s'agit pas d'une déduction logiquement correcte. Une conclusion d'un raisonnement logiquement correct est infaillible dès que les prémisses le sont, mais la justification d'un principe par l'abduction n'est pas infaillible. Elle est légitime parce qu'on attend des principes qu'ils portent des fruits. Mais elle peut toujours être remise en question.

La justification des observations[modifier | modifier le wikicode]

- Comment le savez-vous ?
- Parce que je l'ai vu.
- Êtes-vous sûr de l'avoir vu ?
- Oui. Je l'ai vu et bien vu.
- Comment savez-vous que vous l'avez bien vu ?
- Parce que je l'ai bien vu.

Un énoncé de la forme "X a bien observé que O" n'est pas toujours une prémisse fondamentale acceptable. Si quelqu'un déclare qu'il fait de bonnes observations par télépathie, il semble que sa justification n'est pas acceptable.

Une observation doit souvent être justifiée avant qu'on puisse admettre qu'elle est une bonne observation. Il faut vérifier que les conditions d'une bonne observation étaient bien réunies. On peut alors craindre un problème de régression à l'infini, puisqu'on a besoin de nouvelles bonnes observations pour vérifier qu'une observation est bonne.

Il est raisonnable de supposer que nos facultés naturelles d'observation ne nous trompent pas dans des circonstances ordinaires. Certaines observations semblent assez bonnes pour qu'on n'ait pas besoin de les justifier à partir d'autres observations. Elles suffisent pour donner des points de départ à nos raisonnements sur la réalité empirique.

Pour justifier les observations, on peut admettre le principe de l'acceptabilité prima facie des observations :

Si une observation semble bonne alors l'affirmation qu'elle est bonne est une prémisse fondamentale acceptable tant qu'elle n'a pas été réfutée.

Comme la justification des principes, la justification des observations rend l'acceptabilité d'une justification dépendante des circonstances. De nouvelles informations peuvent montrer qu'une observation qu'on croyait bonne ne l'était pas vraiment.

Pour montrer qu'une observation est bonne, ou pour le contester, on peut se servir du principe de fiabilité :

Une bonne observation est une observation vraie qui résulte d'un processus fiable (Goldman 1986) ou de facultés qui fonctionnent correctement dans des conditions appropriées (Plantinga 1993).

Une bonne théorie de l'observation permet de justifier toutes les bonnes observations, même celles qui n'ont pas besoin d'être justifiées.

Fondationalisme ou cohérentisme ?[modifier | modifier le wikicode]

Une théorie de la justification est fondationaliste lorsqu'elle affirme que toutes les justifications doivent être fondées sur des prémisses fondamentales. Elle est cohérentiste lorsqu'elle affirme que tous les énoncés sont justifiés par la totalité du savoir à laquelle ils appartiennent. Le fondationalisme s'oppose au cohérentisme s'il affirme que les prémisses fondamentales se justifient elles-mêmes, qu'elles peuvent être acceptées indépendamment de la totalité du savoir à laquelle elles appartiennent. Le cohérentisme s'oppose au fondationalisme s'il nie l'existence de prémisses fondamentales, s'il affirme qu'un énoncé n'est jamais plus fondamental qu'un autre.

La présente théorie est à la fois fondationaliste et cohérentiste. Les bonnes observations et les bons principes sont les prémisses fondamentales à partir desquelles tout doit être justifié. Mais les bonnes observations et les bons principes doivent aussi être justifiés par la totalité du savoir à laquelle ils appartiennent. Seuls les principes vrais par définition et les bonnes observations qui résultent de l'usage ordinaire de nos facultés naturelles dans de bonnes conditions, sont des prémisses fondamentales qu'il n'est pas nécessaire de justifier par d'autres Pémisses, mais ils sont quand même justifiés par la totalité du savoir à laquelle ils appartiennent.

Savoir sans savoir qu'on sait[modifier | modifier le wikicode]

Si on a donné une justification concluante et si on sait seulement qu'elle est acceptable, alors on sait sans savoir qu'on sait, parce qu'il faut savoir qu'on a donné une justification concluante pour savoir qu'on sait. Dès qu'une justification laisse une place pour le doute on ne peut pas espérer plus que savoir sans savoir qu'on sait.

On ne sait pas ou pas toujours si nos observations sont vraiment de bonnes observations. On peut aussi douter de la vérité empirique de nos principes même s'ils sont bien vérifiés. Dès qu'un savoir empirique laisse une place au doute, ce qui arrive souvent, nous ne savons pas que nous savons même si nous savons.

Savoir sans savoir qu'on sait est contraire à des intuitions courantes. Si on a donné une justification d'un énoncé p, on se sent en droit d'affirmer non seulement p mais aussi qu'on sait que p. Mais si on sait seulement que la justification est acceptable, sans savoir si elle est concluante, on devrait seulement affirmer p sans affirmer qu'on le sait.

Si on définissait le savoir seulement à partir des justifications acceptables, sans exiger qu'elles soient concluantes, alors on pourrait conserver le principe qu'on sait toujours qu'on sait quand on sait. Mais cela conduirait à une conséquence inacceptable, qu'une conclusion pourrait être un savoir même si elle est fausse.

Le caractère contre-intuitif d'une théorie est une objection légitime contre elle, mais pas décisive. Nos intuitions courantes ne sont pas toujours cohérentes. La présente théorie du savoir est souvent en accord avec le bon sens, mais pas toujours. Un désaccord avec le bon sens n'est pas forcément une faiblesse théorique, c'est parfois un atout. Savoir qu'on prétend souvent savoir alors qu'on ne sait pas vraiment qu'on sait, même si on sait, n'est pas une conséquence contraire à toutes nos intuitions. Nous ne sommes pas les maîtres dans notre propre maison, même dans la maison du savoir.

Une théorie de la justification est internaliste lorsqu'elle affirme qu'un agent peut avoir conscience de toutes les conditions qui font qu'une croyance est justifiée. Pour une théorie internaliste, un agent peut toujours savoir qu'une justification est vraiment une justification. Une théorie de la justification est externaliste lorsqu'elle n'est pas internaliste, lorsqu'un agent n'a pas toujours accès aux conditions qui font qu'une croyance est justifiée. Pour une théorie externaliste, un agent ne peut pas toujours savoir qu'une justification est vraiment une justification. La présente théorie de la justification est à la fois internaliste et externaliste. Elle est internaliste pour les justifications acceptables et externaliste pour les justifications concluantes.

Les justifications faillibles et le problème de Gettier[modifier | modifier le wikicode]

Hormis les preuves mathématiques, nos justifications sont rarement infaillibles. On ne peut pas définir le savoir simplement en disant qu'il doit être justifié, parce qu'un énoncé faux peut être la conclusion d'une justification faillible. On peut alors songer à donner une condition plus stricte : un savoir est une croyance vraie et justifiée. Mais on rencontre alors le problème de Gettier (1963): un énoncé vrai et mal justifié n'est pas un savoir alors qu'il est quand même vrai et justifié. On ne peut donc pas définir le savoir en disant qu'il est une croyance vraie et justifiée. Par exemple, Lamarck a expliqué l'évolution graduelle des espèces à partir du principe de l'hérédité des caractères acquis. En son temps ce principe pouvait être considéré comme justifié, parce que les phénomènes héréditaires sont d'observation courante et parce que la différence entre les caractères innés et acquis est difficile à observer. Nous savons maintenant que ce principe est faux. La justification par Lamarck de l'évolution graduelle des espèces était donc mauvaise. Lamarck avait une croyance vraie et justifiée mais pas un savoir.

Pour résoudre le problème de Gettier, il suffit d'exiger qu'un savoir soit justifié de façon concluante (Dretske 1971, Zagzebski 2017). S'il y une erreur dans la justification, si elle n'est pas concluante, alors elle n'est pas une garantie du savoir.

Une théorie de la justification est infaillibiliste lorsqu'elle exige que tous les énoncés justifiés soient vrais. Elle est faillibiliste sinon.

L'infaillibilisme de la justification est parfois rejeté parce qu'on croit à tort qu'il exige que nos méthodes de justification soient infaillibles. Mais il est compatible avec la faillibilité de nos méthodes. Du point de vue de l'infaillibilisme, les mauvaises justifications produites par une méthode faillible ne sont pas du tout des justifications, mais les bonnes justifications produites par une méthode faillible sont quand même de bonnes justifications.

La présente théorie de la justification est à la fois faillibiliste et infaillibiliste. Elle est faillibiliste pour les justifications acceptables et infaillibiliste pour les justifications concluantes.

La justification du savoir sur le savoir[modifier | modifier le wikicode]

Le savoir sur le savoir est justifié de la même façon que les autres savoirs. En montrant comment on doit justifier le savoir, le savoir sur le savoir montre du même coup comment il doit lui-même être justifié.

Une théorie de la justification définit un idéal de savoir rationnel. En tant que théorie d'un idéal, elle est purement théorique et vraie par définition, comme une théorie mathématique, pourvu qu'elle ne soit pas contradictoire. Mais on attend d'un idéal qu'il soit plus qu'une simple possibilité logique, on veut qu'il nous aide à penser, à travailler, à vivre.

De même qu'un idéal de vie nous montre sa vérité en nous rendant capables de bien-vivre, un idéal de savoir nous montre sa vérité en nous rendant capables d'acquérir du bon savoir. Nous savons que notre idéal de savoir nous permet de reconnaître et de justifier un bon savoir tout simplement parce qu'il marche très bien, parce qu'il produit des fruits, parce qu'avec cet idéal nous nous donnons les moyens d'acquérir beaucoup de bon savoir, tandis que sans lui nous restons dans l'impasse.


Diversity, solidarity and unity.jpg Diversity, solidarity and unity 2.jpg

Blanc a besoin de Bleu, Bleu a besoin de Vert et Vert a besoin de Blanc, pour tenir debout.


Chapitre suivant >>


La recherche de la raison

« - ... je veux bien mener cet examen avec toi, pour que nous recherchions ensemble ce que peut bien être la vertu. 

- Et de quelle façon chercheras-tu, Socrate, cette réalité dont tu ne sais absolument pas ce qu'elle est ? Laquelle des choses qu'en effet tu ignores, prendras-tu comme objet de ta recherche ? Et si même, au mieux, tu tombais dessus, comment saurais-tu qu'il s'agit de cette chose que tu ne connaissais pas ?

- Je comprends de quoi tu parles, Ménon. Tu vois comme il est éristique, cet argument que tu débites, selon lequel il n'est possible à un homme de chercher ni ce qu'il connaît ni ce qu'il ne connaît pas ! En effet, ce qu'il connaît, il ne le chercherait pas, parce qu'il le connaît, et le connaissant, n'a aucun besoin d'une recherche ; et ce qu'il ne connaît pas, il ne le chercherait pas non plus, parce qu'il ne saurait même pas ce qu'il devrait chercher. » (Platon, Ménon, 80d-e, traduit par Monique Canto-Sperber, cf. Fine 2014)


Les deux prémisses de l'argument de Ménon sont fausses.

On peut savoir ce qu'on cherche avant de l'avoir trouvé. C'est évident. C'est ce qu'on fait à chaque fois que les problèmes qu'on cherche à résoudre sont bien identifiés.

On peut chercher sans savoir ce qu'on cherche. C'est moins évident. C'est ce qu'on fait quand on cherche sans savoir très bien où on va.

Savoir ce qu'on cherche sans l'avoir trouvé[modifier | modifier le wikicode]

Dès qu'on a un système de perception, ou de détection, on est capable de chercher en sachant ce qu'on cherche, avant de l'avoir trouvé. On cherche à détecter ce que le système est capable de détecter. On sait ce qu'on cherche si on sait ce qu'on est capable de percevoir. On trouve ce qu'on cherche en le percevant.

Poser un problème consiste à se donner une fin, un but, un objectif. On a résolu le problème quand on a atteint la fin qu'on s'est fixée ou quand on sait comment l'atteindre. On connaît une fin quand on sait percevoir ou détecter si elle est réalisée.

L'argument de Ménon confond la connaissance d'un problème avec la connaissance de sa solution. On peut connaître une fin, donc on sait ce qu'on cherche, avant de l'avoir atteinte, donc on n'a pas encore trouvé.

Quand on doit imaginer ce qu'on va faire avant d'agir, on remplace un problème par un autre : imaginer l'action ou le programme d'actions qui résout le problème initial. On peut alors explorer par l'imagination l'espace des possibilités de solution. On peut ainsi résoudre de nombreux problèmes sans quitter son fauteuil. Bien sûr, on a besoin de savoir anticiper afin de déterminer par l'imagination si une séquence d'actions est faisable et si elle permet d'atteindre le but. Lorsque le savoir acquis au préalable est suffisant, l'imagination seule, sans l'action, permet de trouver des solutions. Grâce à l'imagination le savoir déjà acquis est un tremplin pour acquérir davantage de savoir.

Une méthode générale de résolution de problèmes consiste à identifier toutes les possibilités de solution (toutes les actions et les séquences d'actions possibles par exemple) et à les essayer jusqu'à ce qu'on en trouve une qui atteigne l'objectif désiré. Cette méthode est très efficace tant que le nombre de possibilités à essayer n'est pas trop grand. Mais même les supercalculateurs les plus puissants ne peuvent pas résoudre ainsi certains problèmes parce que l'espace des possibilités qu'ils doivent essayer est beaucoup trop grand.

Une heuristique est une méthode de résolution de problèmes qui explore l'espace des possibilités de solution en sélectionnant certaines qui semblent prometteuses (Newell & Simon 1972, Russell & Norvig 2010). L'apprentissage par l'exercice peut être considéré comme une résolution d'un problème fondée sur une heuristique simple. Le problème est défini par les objectifs que le savoir-faire désiré doit atteindre et par leurs conditions initiales. Les possibilités de solution sont les façons d'agir que l'on peut essayer. On commence par sélectionner une possibilité, pas trop mauvaise si possible, puis on expérimente des variations et on évalue leurs résultats. On modifie par étapes successives le savoir-faire initial en conservant les variations qui semblent nous rapprocher du savoir-faire désiré. On explore ainsi l'espace des possibles par petits pas, en passant d'une façon de faire à une autre qui semble l'améliorer. C'est une forme d'apprentissage par l'essai, l'erreur et la réussite.

La résolution de problèmes est comme une prière. On a un problème et on prie pour trouver la solution. On ne trouverait pas la solution si on n'avait pas prié. C'est la prière qui nous donne la solution.

Chercher sans savoir ce qu'on cherche[modifier | modifier le wikicode]

Pour chercher la réponse à une question, il faut comprendre la question. Comment chercher la réponse à la question "qu'est-ce que la vertu ?" si on ne sait pas ce qu'est la vertu ?

On sait ce qu'on cherche quand on est capable de détecter si on l'a trouvé. Mais nous n'avons pas par avance des détecteurs de vertu, de raison ou de sagesse. Pour être capable de reconnaître la sagesse, il faut déjà être sage. Comment chercher la sagesse si on ne sait pas la reconnaître ? Même si on tombait dessus par hasard, on ne saurait même pas qu'on l'a rencontrée.

On peut avancer sans savoir où on va, simplement en allant droit devant soi. On ne sait pas où ce chemin nous mène, on le cherche, sans savoir ce qu'on cherche. On peut donc chercher sans savoir ce qu'on cherche.

On peut être porté et guidé par des idées sans savoir où elles nous mènent.

Il faut être expert pour reconnaître un savoir d'expert. Un débutant doit devenir expert, et donc acquérir un savoir qu'il n'est pas capable de reconnaître. Comment fait-il ?

Un débutant est capable de résoudre des problèmes de débutant, de reconnaître le savoir et les erreurs d'un débutant. Cela suffit pour démarrer. La capacité à reconnaître le savoir progresse en même temps que l'acquisition du savoir. Cela permet d'apprendre à résoudre des problèmes de plus en plus difficiles. C'est ainsi qu'on devient un expert.

On peut apprendre à percevoir. On ne sait pas par avance ce qu'on sera capable de percevoir. On ne sait pas par avance ce qu'on sera capable de trouver parce qu'on n'est pas encore capable de le percevoir.

Pour apprendre par l'exercice, par l'essai, l'erreur et la réussite, il n'est pas nécessaire de savoir où on va, il suffit de vouloir progresser.

Il n'est pas nécessaire de savoir par avance ce qu'on cherche, on peut l'apprendre en cours de route.

On ne se connaît pas soi-même. On ne sait pas par avance ce qu'on peut devenir. On cherche sans savoir ce qu'on cherche parce qu'on se cherche soi-même.

Nous ne savons pas de quoi nous sommes capables. La liste des problèmes que nous pouvons résoudre n'est pas connue d'avance.

Les problèmes théoriques[modifier | modifier le wikicode]

Résoudre des problèmes théoriques consiste à se servir du raisonnement pour augmenter notre savoir. Un problème est théorique lorsqu'on recherche par le raisonnement à répondre à une question. Si nous avons besoin d'observer ou d'expérimenter pour trouver une réponse, alors la question n'est pas un problème théorique. Le savoir préalable, l'énoncé de la question et nos facultés de raisonnement doivent suffire pour trouver la solution d'un problème théorique. S'il n'existe pas de raisonnement qui permette de répondre à la question, c'est que le problème théorique est mal identifié, ou que sa (méta)solution est de ne pas avoir de solution.

Pour une question fermée, il n'y a que deux solutions possibles, oui ou non. Pour une question ouverte, la solution doit nommer ou décrire un ou plusieurs êtres qui satisfont aux conditions énoncées dans la question. Les êtres ainsi nommés ou décrits sont alors les solutions du problème. Pour qu'un problème théorique soit résolu, il faut énoncer ses solutions et les justifier, en donnant un raisonnement qui prouve qu'elles sont véritablement des solutions du problème.

Pour qu'un problème théorique soit bien identifié il faut expliciter toutes les conditions du problème, y compris les principes qui nous serviront à raisonner pour le résoudre.

Quand on connaît les principes d'une théorie, on est capable de reconnaître les preuves qui reposent sur ces principes. On a ainsi un système de détection des preuves et des théorèmes. On peut ainsi savoir ce qu'on cherche, une preuve d'un théorème, avant de l'avoir trouvée.

L'acquisition du savoir par la résolution de problèmes théoriques exige un savoir préalable, déjà acquis, à partir duquel nous raisonnons. Le savoir théorique déjà acquis est un tremplin pour acquérir davantage de savoir, parce que nous pouvons apprendre en raisonnant tout ce que les bons principes enseignent.

En général l'énoncé d'un problème n'est pas suffisamment explicite pour qu'il soit un problème théorique bien identifié. Nous devons trouver nous-mêmes les principes qui nous serviront à raisonner (Aristote, Topiques).

Comment trouver les bons principes ? - On reconnaît les bons principes à leurs fruits. - Comment reconnaît-on les fruits ? - La raison porte des fruits quand elles nous aide à bien penser et à bien vivre. Mais nous n'avons pas par avance les détecteurs du bien penser et du bien vivre. Il faut déjà être sage pour reconnaître les fruits de la raison. Il n'est pas toujours plus facile de reconnaître les fruits que de reconnaître les bons principes. Et les bons principes font eux-mêmes partie des fruits.

La raison porte des fruits quand elle nous aide à penser bien, à faire le bien, à vivre bien. Mais on se fait facilement des illusions. On peut très facilement croire qu’on pense ou qu’on agit bien pour de très mauvaises raisons. La raison n’apporte pas toujours des réponses tranchées parce que la différence entre les vrais fruits et les illusions, entre le bon grain et l'ivraie, n’est pas toujours claire et nettement marquée.

Les pierres de touche de la raison[modifier | modifier le wikicode]

Une pierre de touche est une pierre dure et rugueuse sur laquelle on frotte un échantillon de métal précieux pour éprouver sa pureté. L'essayeur identifie le métal à partir de la trace qu'il laisse sur la pierre. Nous sommes à la fois des pierres de touche et des essayeurs pour la raison. Nous éprouvons la raison sur nous-mêmes et l'évaluons à partir de ses traces sur nos esprits.

Un débutant n'est pas toujours capable de reconnaître les fruits de la raison et les bons principes, parce qu'il n'est pas encore un très bon essayeur de la raison, il doit l'apprendre, mais il est quand même un essayeur débutant, capable de reconnaître les fruits et les bons principes accessibles au débutant. Il prend conscience des bons principes quand ils le font progresser, quand ils le rendent plus compétent. Les bons principes doivent rendre compétent. S'ils ne rendent pas compétent, ils ne sont pas de bons principes. La raison doit être bonne pour tous les esprits, sinon elle ne serait pas la raison.

Je suis la source, le milieu et la fin de la raison, la source parce que la raison naît de mes pensées, le milieu parce qu'elle se développe en moi quand je la cherche, la fin parce qu'elle s'accomplit quand je m'accomplis.

Je suis pour moi-même un critère fondamental de reconnaissance du bon savoir, puisque je le reconnais en reconnaissant ma compétence.

La réalité, la vie et les pensées mettent en permanence les pensées à l'épreuve. La pensée ne peut pas se développer sans se critiquer elle-même, parce qu'elle doit s'adapter à la réalité, y compris la réalité qu'elle est elle-même. Un esprit ne connaît pas par avance ce qui est bon pour lui-même. Il l'apprend par l'expérience et la critique.

Chaque esprit est pour lui-même comme pour tous les autres un critère de reconnaissance de la raison, parce qu'elle est nécessairement ce qui est bon pour tous les esprits.

Un véritable savoir peut toujours être partagé. Il me rend compétent parce qu'il peut rendre compétent tous les esprits. Si j'acquiers un savoir sans savoir l'expliquer, et donner des preuves acceptables par tous les esprits, c'est que je ne l'ai pas bien compris. Pour maîtriser un savoir, il faut être capable de l'enseigner clairement à tous ceux qui veulent l'acquérir.

Nous justifions notre savoir en donnant des preuves fondées sur des principes. Mais les principes doivent être eux-mêmes justifiés. Il faut qu'ils fassent leurs preuves en nous aidant à développer un bon savoir. Chacun peut se servir de sa propre expérience pour mettre des principes à l'épreuve et apprendre ainsi à reconnaître leur valeur. Mais il ne faut pas se limiter à sa propre expérience. Quand on prend un principe comme base d'un raisonnement, on affirme implicitement qu'il a une valeur universelle, qu'il peut servir à tous ceux qui veulent raisonner. Un principe doit donc être mis à l'épreuve de toutes les expériences de tous les esprits. Un principe fait ses preuves en aidant tous les esprits à développer un bon savoir.

La pensée solitaire est naturellement autocritique, tant qu'elle ne nie pas la réalité. Mais le développement de la raison est surtout une œuvre collective (Leibniz 1688-1690, Goldman 1999), à laquelle chaque être humain peut participer dès qu'il le veut, qu'il sait qu'il en est capable et qu'il se soumet volontairement à sa discipline : justification et évaluation critique.

Afin d'évaluer nos preuves nous devons les soumettre volontairement à la critique de tous les esprits. Les objections et les tentatives de réfutation peuvent nous conduire à modifier nos raisonnements, et parfois même à les abandonner, si la réfutation est décisive. Nous développons le savoir en conservant les principes et les preuves qui résistent bien aux épreuves critiques et en renonçant aux autres.

Tout le développement du savoir peut être conçu comme la résolution d'un unique et vaste problème. L'objectif est un savoir qui satisfasse notre désir de bien penser et de bien vivre. Nous explorons l'espace des possibles à chaque fois que nous examinons un savoir en vue de l'évaluer. Les épreuves critiques sont destinées à sélectionner les possibilités prometteuses. La critique est donc une heuristique qui nous aide à résoudre le problème du développement de la raison (Goodman 1955, Rawls 1971, Depaul 2006). Mais nous cherchons sans savoir ce que nous cherchons, parce que nous ne savons pas toujours par avance comment reconnaître la raison.

La découverte de la raison[modifier | modifier le wikicode]

La raison pratique nous donne le savoir et les pensées pour bien agir et bien vivre. La raison théorique nous donne le savoir et les pensées pour bien penser et développer un bon savoir. La raison pratique nous prescrit de développer la raison théorique, parce que nous avons besoin de bien penser pour bien vivre.

Que l'esprit doit vivre pour le bien de l'esprit n'est pas seulement un principe de la raison pratique, c'est aussi un principe de la raison théorique. Pour bien penser il faut toujours penser pour profiter des bienfaits de toutes les pensées. Le bon savoir est toujours un savoir qui nous invite à accueillir tous les bons savoirs. Le bon savoir n'est jamais fermé sur lui-même et il est toujours un savoir qui rend capable d'acquérir davantage de savoir.

Nous ne connaissons pas d'avance la portée de nos capacités à résoudre des problèmes. Nous la découvrons par l'exercice. En résolvant des problèmes, nous prenons davantage conscience de nos capacités. Mieux nous les connaissons et plus nous pouvons étendre leur champ d'applications. Nous nous découvrons ainsi nous-mêmes en tant qu'êtres rationnels, c'est à dire capables de développer la raison. Tous les développements de la raison sont des découvertes, parce que nous ne savons pas ce que la raison nous révélera avant de nous mettre au travail. Nous découvrons que nous sommes capables d'inventer ou de dévoiler la raison.

Pour savoir que la raison existe, nous avons besoin de la faire exister, en la partageant entre nous. En ce sens, c'est nous qui la faisons. Elle ne serait pas là si nous ne travaillions pas pour la faire vivre parmi nous. Mais on aurait tort de croire qu'elle est seulement notre invention, parce que nous ne décidons pas de ce qu'elle est, nous ne pouvons pas faire qu'elle soit ce qu'elle n'est pas, ou qu'elle ne soit pas ce qu'elle est. Quand nous travaillons nous la découvrons. Tout se passe comme si elle avait toujours été là de toute éternité, et nous sommes les derniers à l'apprendre.

Pour développer la raison, nous devons apprendre à raisonner et donc à inventer des discours et des théories, mais nous devons aussi surtout apprendre à écouter. Nous ne savons pas par avance ce que la raison va nous enseigner, nous le découvrons en tendant l'oreille et en ouvrant les yeux, en étant prêts à accueillir toutes les observations, les pensées et les principes qui pourraient nous éclairer, nous aider à mieux penser et à mieux vivre.

Les conditions d'apparition de la raison sont générales : des êtres qui parlent et qui veulent trouver ensemble des vérités et des preuves, en respectant toutes les règles de l'esprit critique. Ces conditions ne dépendent pas spécifiquement de notre humanité sur la Terre. D'autres êtres vivants, sur d'autres planètes, en d'autres temps, pourraient également développer la même raison, parce que ses conditions d'apparition sont universelles.

L'unité de la raison[modifier | modifier le wikicode]

Pour qu'un savoir puisse être partagé, il faut qu'il puise seulement dans des ressources communes, accessibles à tous. On pourrait croire que c'est une limite très restrictive, qu'en se privant de ressources privées, on se prive du même coup du meilleur du savoir, mais c'est l'exact contraire qui est vrai. Nos intelligences sont les plus puissantes justement quand elles se limitent aux ressources communes. C'est en nous entraidant que nous découvrons le mieux le pouvoir de nos intelligences, que nous développons les meilleurs savoirs et que nous faisons vivre la raison.

Un esprit s'accomplit en étant bon pour tous les esprits. Mais est-ce vraiment possible ? Un esprit a-t-il vraiment les moyens d'être bon pour tous les esprits ? N'est-ce pas plutôt une illusion ?

Les principes éthiques nous montrent que nous pouvons savoir ce que nous devons faire, les principes épistémologiques, que nous pouvons faire la différence entre le savoir et l'ignorance, les principes logiques, que nous pouvons raisonner correctement, les principes métaphysiques, que nous pouvons connaître les plus grandes vérités sur tout ce qui est. Ces grands principes nous révèlent la puissance de la raison. Ils sont universels. Ils donnent à tous les esprits les moyens d'acquérir tous les savoirs, de comprendre tous les esprits et de révéler tous les bienfaits de la raison. En apprenant ce que les grands principes nous enseignent, nous apprenons du même coup que nous pouvons penser pour le bien de tous les esprits. Être bon pour tous les esprits n'est pas un idéal inaccessible. C'est la réalité de la pensée rationnelle.

Tous les savoirs manifestent l'unité de la raison. Les principes les plus fondamentaux, les principes des principes, sont les mêmes pour toutes les sciences. De ce point de vue on peut dire que toutes les sciences parlent d'une seule voix et que tous les esprits contribuent au développement d'un savoir commun.

L'autorité de la raison[modifier | modifier le wikicode]

On peut raisonner sur la raison comme si elle était la sagesse d'un esprit et lui attribuer une volonté parce qu'on peut lui attribuer des fins. L'éthique nous enseigne ce qui mérite d'être poursuivi et nous donne ainsi les moyens de nous accomplir. Que nous poursuivions les fins que la raison nous prescrit peut justement être considéré comme une fin de la raison. Tout se passe comme si la raison était une bonne autorité qui nous montre les bons chemins.

Savoir qu'un esprit doit travailler pour le bien de l'esprit ne suffit pas pour décider des fins particulières que nous nous donnons. C'est ce qu'on attend d'une bonne autorité. Si elle nous privait de notre liberté, elle ne serait pas une bonne autorité. Le savoir éthique rationnel n'est pas une entreprise totalitaire qui décide à notre place de ce que nous devons faire. Il en est l'exact contraire puisqu'il nous demande de décider librement et intelligemment. Il est une condition de la véritable liberté, parce qu'on fait un mauvais usage de sa liberté si on ne s'en sert pas pour le bien. Plus on connaît le bien, mieux on peut le faire et vivre ainsi comme un esprit vraiment libre.

Que pouvons-nous espérer ?[modifier | modifier le wikicode]

La raison nous rend capables, mais de quoi ? Que pouvons-nous réaliser avec les compétences que nous développons rationnellement ? Que pouvons-nous espérer ?

Si la liste des problèmes que nous pouvons résoudre rationnellement était connue d'avance, nous saurions quoi espérer. Mais justement elle n'est pas connue d'avance. Nous ne connaissons pas l'étendue des compétences que la raison peut nous donner.

Comme nous ne savons pas de quoi la raison nous rend capables, nous pouvons placer nos espoirs très haut, que le règne de la raison vienne, que sa volonté soit faite, sur la terre comme au ciel, que le présent éphémère soit la splendeur de la vérité éternelle, ou très bas, la raison ne sera jamais plus qu'une pauvre consolation dans une vallée de larmes.

Le développement de la raison est l'histoire d'un étonnement perpétuellement renouvelé. Les sciences ont dépassé nos espérances. La Nature nous a révélé beaucoup plus de secrets que ce que nous pouvions rêver.

Pour savoir de quoi la raison nous rend capables, la meilleure façon, et la seule, est d'essayer. Si on n'essaie pas on n'a aucune chance de se rendre compte de ce qui marche.


Chapitre suivant >>>


Pourquoi la réalité est-elle intelligible ?

La réalité est intelligible parce qu'on peut l'observer et l'expliquer.

Qu'est-ce qu'un concept ?[modifier | modifier le wikicode]

Les observations attribuent des concepts aux êtres observés.

Les concepts sont des propriétés ou des relations. Une propriété, ou une qualité ou un trait, est attribuée à un être. Une relation est entre plusieurs êtres. Lorsqu'une relation est entre deux êtres, on peut considérer qu'elle est une propriété du couple. Une relation entre trois êtres est une propriété du triplet, et ainsi de suite pour les relations entre davantage d'êtres.

La perception visuelle attribue des qualités visuelles (couleur, luminosité, texture, forme...) aux objets vus. Il en va de même pour les autres formes de perception sensorielle.

Un être est toujours perçu avec des qualités ou des relations. Les êtres observés ne viennent jamais complètement nus. Ils sont toujours habillés avec les concepts que la perception leur a attribués.

Un être est perçu lorsqu'un détecteur signale sa présence. Le détecteur détermine un concept attribué à l'objet : la qualité d'être détectable par ce détecteur. Une détection attribue automatiquement à l'être détecté la qualité de pouvoir être ainsi détecté.

Le même signal de détection peut servir en même temps de représentation de l'être détecté et de représentation du concept attribué à cet être, parce que l'être est identifié par son concept. Les êtres sont représentés par les concepts qui leur sont attribués. Par exemple « l'arbre dans la cour » est une expression qui se sert du concept d'être un arbre dans la cour pour représenter un arbre.

Un concept est déterminé par l'ensemble des systèmes de détection qui signalent la présence d'un être en lui attribuant ce concept. Cette définition ne vaut pas seulement pour la perception sensorielle et les concepts empiriques. Elle peut être généralisée parce que toute unité de traitement de l'information peut être considérée comme un système de détection. Une unité de traitement de l'information produit des signaux en sortie à partir de signaux reçus en entrée. Un signal en sortie peut être considéré comme un signal de détection des signaux en entrée qui l'on produit. En particulier, les concepts théoriques sont déterminés par leur place dans un système théorique défini par des principes. Les raisonnements à partir des principes permettent d'attribuer des concepts aux êtres de la théorie. La capacité à raisonner peut être considérée comme un système de détection des conséquences théoriques, et donc comme un système de détection des concepts théoriques.

Lorsqu'un concept est défini par une série de conditions, qui ensemble sont nécessaires et suffisantes pour le déterminer, un système de détection de la présence du concept est défini du même coup, parce qu'on détecte le concept défini en détectant les conditions qui le définissent.

Lorsqu'un concept est défini par les ressemblances avec un ou plusieurs exemples, détecter le concept consiste à détecter des ressemblances et des différences.

Même un être unique peut être identifié par un concept, dès que nous sommes capables de le percevoir ou de l'imaginer en tant qu'être unique, parce que le percevoir ou l'imaginer requiert un système de détection, et parce qu'un tel système définit un concept. Par exemple je peux avoir le concept d'une personne qui m'est familière parce que je peux la percevoir et la distinguer parmi toutes les autres personnes.

On distingue parfois les représentations iconiques, telles que les images visuelles, et les représentations conceptuelles, qui peuvent être formulées avec des mots. Mais cette distinction n'est pas fondamentale. Une image visuelle attribue des qualités visuelles à tous ses points, elle est donc déjà conceptuelle. Percevoir, c'est déjà concevoir. Inversement une description verbale telle que bleu-blanc-rouge peut être considérée comme une image du drapeau français, parce que les mots sont alignés comme les parties qu'ils représentent.

On conçoit souvent les concepts comme des produits du langage. Les concepts sont signifiés par les expressions qui servent à les nommer et ils ne sont pas connus avant d'avoir un nom. Selon l'acception retenue dans ce livre les concepts précèdent le langage. Un système de perception détecte les êtres perçus en leur attribuant des concepts. Les concepts sont très généralement utilisés par les animaux, qu'ils se servent ou non d'un langage (Gould & Gould 1994). Par exemple tous les animaux capables d'avoir peur attestent par leur comportement qu'ils sont capables de détecter le danger. Donc ils se servent du concept de danger.

Faut-il considérer les concepts comme des êtres ? Comme des parties de la réalité ?

Les concepts sont présents à chaque fois que les êtres dont ils sont vrais sont présents. L'existence du concept de cheval est simplement celle de tous les chevaux. Les concepts sont manifestés et révélés par l'existence des êtres dont ils sont vrais et ils existent en même temps qu'eux. Les concepts existent réellement, mais pas à la façon des corps, parce qu'ils existent d'une façon dispersée sur tous les êtres dont ils sont vrais.

« La Forme se retrouve une et identique en même temps en plusieurs endroits. C'est comme si tu étendais un voile sur plusieurs êtres humains et que tu disais « Le voile reste un en sa totalité, lorsqu'il est étendu sur plusieurs choses. » (Platon, Parménide, 131b, traduit par Luc Brisson)

Les individus et la liaison entre les concepts[modifier | modifier le wikicode]

Les êtres, les individus, sont identifiés à partir des concepts qui leur sont attribués. Mais pour cela il faut résoudre le problème de la liaison (Quine 1992). Par exemple on peut percevoir simultanément la chaleur et la douleur de deux façons très différentes. Dans le premier cas, ce qui est chaud est ce qui fait mal, la chaleur et la douleur sont liées. On suppose qu’il y a un être qui a deux propriétés, d’être chaud et de faire mal. Dans le second cas, ce qui est chaud n’est pas ce qui fait mal, la chaleur et la douleur ne sont pas liées. On suppose qu’il y a deux êtres, l’un qui est chaud et ne fait pas mal, l’autre qui fait mal et n’est pas chaud.

Nous résolvons le problème de la liaison lorsque nous attribuons au même individu plusieurs propriétés ou relations avec d’autres individus.

Tout l’être d’un être est son être dans le tout[modifier | modifier le wikicode]

Les propriétés et les relations sont les façons d’être des individus dont elles sont des propriétés ou des relations. L’être d’un individu, c’est à dire sa façon d’être particulière, est déterminé par toutes ses propriétés et ses relations avec les autres individus. Ses propriétés et ses relations font qu’un individu est ce qu’il est. Connaître un individu, c’est connaître ses propriétés et ses relations. Mais qu’est-ce qui détermine l’être des propriétés et des relations ? Qu’est-ce qui fait qu’elles sont ce qu’elles sont ? Comme les propriétés et les relations ont elles-même des propriétés et des relations, on pourrait supposer que leur être est déterminé de la même façon que l’être des individus, mais alors on rencontre une régression à l’infini : pour connaître un individu il faut connaître ses propriétés et ses relations, qui doivent être connues par leurs propriétés et leurs relations, qui à leur tour doivent être connues par leurs propriétés et leurs relations et ainsi de suite à l’infini. Il semble qu’en procédant ainsi on ne pourrait jamais rien connaître.

Un être est ce qu’il est en vertu de la totalité dont il fait partie. Il a sa place dans le tout. Une fois que sa place est déterminée, tout ce qu’il est est déterminé. Tout l’être d’un être est son être dans le tout.

Les propriétés et les relations déterminent la façon d’être d’un individu en déterminant sa place dans le tout. Mais elles aussi sont déterminées par leur place dans le tout.

Tous les êtres du monde, les individus simples ou complexes, les propriétés et les relations ont tous une place dans le monde. Dès que ces places sont déterminées, le monde est déterminé, et tous les êtres qu’il contient aussi, avec leurs propriétés et leurs relations.

Être, c’est être un tout ou être dans un tout. Si un être est dans un tout, son être est déterminé par sa place dans le tout. Si un être est un tout, son être est déterminé quand toutes les places des êtres qui le constituent sont déterminées. Un être peut être à la fois un tout et dans un tout plus vaste. Un tel être est déterminé à la fois par sa structure interne, c’est à dire par l’arrangement de ses constituants, et par sa place dans le tout plus vaste. Il revient au même de dire qu’il est déterminé par la place de tous ses constituants dans le tout plus vaste.

Être, c'est être une partie ou être un tout, et le plus souvent les deux. L'être d'une partie est déterminé par sa place dans le tout. L'être d'un tout est déterminé par l'être de toutes ses parties.

Le principe holiste, que tout l’être d‘un être est son être dans le tout, ou structuraliste, être un objet, c'est être une place dans une structure, est d’une application universelle (Dieterle 1994). Il explique à la fois l’être des êtres naturels et l’être des êtres mathématiques.

La nature de la matière et la vérité de la perception[modifier | modifier le wikicode]

Lorsque nous percevons un objet avec nos sens nous croyons le connaître ainsi. Par exemple, si nous voyons que le mur est jaune, nous croyons naturellement qu'il est vraiment jaune. Mais n'est-ce pas une erreur ? Tout ce que nous savons c'est que nos yeux nous donnent une sensation de jaune. Le jaune semble être sur le mur mais il est surtout sur nos yeux. Il se pourrait même que le mur n'existe pas, que nous ayons seulement l'illusion d'un mur jaune. Faut-il en conclure que nous ne connaissons jamais le monde extérieur, que nous pouvons seulement connaître nos sensations et nous-mêmes, que la perception est toujours introspective ?

La nature de la matière est d'interagir avec la matière. Les propriétés d'un morceau de matière (particule élémentaire, atome, molécule, matériau solide, liquide ou gazeux...) sont toujours déterminées par ses façons d'interagir avec les autres morceaux de matière. La matière fait toujours ça, interagir avec la matière, et rien d'autre. Il n'y a rien de plus à connaître sur la matière que ses interactions. Quand on sait comment des êtres matériels interagissent, on sait tout ce qu'il y a à savoir sur eux.

On est sensible à un être quand il agit sur nos sens. Nos organes sensoriels sont spécialisés pour subir l'action des objets extérieurs. Ils ne suffisent pas pour connaître tous les êtres matériels et toutes leurs interactions, mais ils apportent tout de même beaucoup d'informations. Les instruments d'observation et de mesure, et tous les systèmes de détection que nous pouvons construire, sont comme des prothèses sensorielles. Ils étendent le champ de la perception. Ils nous font connaître des êtres matériels auxquels les sens ne sont pas directement sensibles. Ils nous révèlent d'autres formes d'action et de sensibilité.

La matière peut toujours être détectée parce que sa nature est d'interagir. Dès qu'elle agit sur un autre morceau de matière, celui-ci est un détecteur. Nos sens, complétés par tous les systèmes de détection concevables, nous permettent donc en principe de connaître tous les êtres matériels et toutes leurs propriétés. Rien ne peut rester caché. Tout peut être perçu, parce que la nature de la matière est d'être perceptible (Dugnolle 2017).

Le mur est vraiment jaune simplement parce qu'il est capable d'exciter la sensation de jaune sur nos yeux, ou sur tout autre détecteur sensible à la lumière jaune. Plus généralement toutes les qualités et toutes les relations qui déterminent l'existence d'un être matériel sont détectables par d'autres êtres matériels. Nous n'avons donc pas à craindre que la perception nous prive malicieusement de ce qu'elle semble nous donner, des représentations vraies des êtres perçus.

Lorsqu'un être est perçu, ou détecté, il établit une relation avec l'être qui le perçoit ou qui le détecte. Comme l'être d'un être est déterminé par toutes ses relations avec les autres êtres, être perçu ou détecté fait partie de l'être d'une être. La perception révèle la vérité des êtres parce qu'elle révèle leur place dans la totalité.

Mais cet argument en faveur de la vérité des perceptions semble prouver beaucoup trop, puisqu'il suggère que toutes les perceptions devraient être vraies. Si la qualité détectée est toujours la qualité d'être détectable ainsi, il s'ensuit que toute détection est vraie, puisque ce qui est détecté est nécessairement détectable. Comment les fausses perceptions peuvent-elles alors exister ?

La possibilité de la fausseté vient de l'existence d'une norme de vérité. Si un instrument de mesure n'a pas été correctement étalonné, il fournit un résultat faux. Le résultat est faux seulement par référence à l'étalon de mesure. Il en va de même pour la perception. Elles ne peuvent être fausses que s'il y a une norme qui détermine ce qui doit être perçu. En l'absence de norme, elles sont toujours vraies, parce qu'elles révèlent toujours l'effet de l'objet sur nos sens. Même une perception fausse révèle une vérité sur l'objet, parce qu'il est vrai qu'il peut être ainsi perçu.

Les mondes logiquement possibles[modifier | modifier le wikicode]

Un monde logiquement possible est un ensemble d'énoncés atomiques (Keisler 1977). Un énoncé est atomique lorsqu’il affirme une propriété fondamentale d’un individu ou une relation fondamentale entre plusieurs individus.

Par exemple, l’ensemble des énoncés suivants définit le monde, ou la structure, des nombres naturels : 1 suit 0, 2 suit 1, 3 suit 2… Il faut entendre que cet ensemble contient toutes les vérités atomiques formées avec les noms des nombres naturels et la relation de succession. Un énoncé atomique qui n’est pas dans cet ensemble est par conséquent faux.

La structure des nombres naturels ainsi définie est un monde logiquement possible. De façon générale, n’importe quel ensemble d’énoncés atomiques définit un monde, ou un modèle, ou une structure, logiquement possible. Tous les énoncés atomiques de l’ensemble sont vrais du monde qu’ils définissent ensemble, par construction.

L’ensemble des vérités atomiques qui définit un monde détermine complètement les individus qu’il contient, leurs propriétés et leurs relations. Chaque individu, chaque propriété ou relation fondamentale est déterminé par sa place dans l’ensemble des vérités atomiques. 0 n’est rien d’autre que le nombre naturel qui ne suit aucun nombre naturel et qui est suivi par 1, 1 n’est rien d’autre que le nombre qui suit 0 et qui est suivi par 2… La relation de succession n’est rien d’autre que la relation qui relie à la fois 1 à 0, 2 à 1, 3 à 2… L’être des nombres naturels et de leur relation de succession est complètement déterminé par la totalité des vérités atomiques à leur sujet (Dedekind 1888).

Plus généralement un être mathématique est une structure ou une place dans une structure (Shapiro 1997, 2000). Une structure est un monde logiquement possible. Lorsqu’il est une place dans une structure, tout l’être d’un être mathématique est son être dans le tout, la structure. Un être mathématique peut être à la fois une structure et une place dans une structure plus vaste.

Une remarque sur la possibilité logique : David Lewis craint qu'il y ait une circularité dans la définition du concept de possibilité logique, parce qu'un monde logiquement possible est tel qu'il est impossible que sa définition implique une contradiction (Lewis 1986). En définissant un monde logiquement possible comme un ensemble d'énoncés atomiques, on évite ce problème de circularité. La définition d'un monde logiquement possible ne peut pas impliquer de contradiction parce que les énoncés atomiques ne contiennent jamais de négation. S'il n'y a pas de négation, il ne peut pas y avoir de contradiction.

L'explication[modifier | modifier le wikicode]

Les observations nous montrent ce qui est mais elles ne nous disent pas pourquoi c'est ainsi. Pour satisfaire le désir d'intelligibilité, nous ne voulons pas seulement des descriptions, nous voulons surtout des explications.

Qu'est-ce qu'une bonne explication ? Que faut-il pour qu'une explication nous éclaire ou nous illumine ?

Un événement est expliqué à partir des conditions qui l'ont produit, à partir de la suite des événements dont il est la conséquence.

En général nos observations ne révèlent que des miettes de la réalité. Nous ne faisons que soulever un tout petit coin du voile, nous n’observons jamais qu’une infime partie de ce qui est, beaucoup trop peu pour prétendre que nous le connaissons bien. Notre savoir est trop fragmentaire pour donner des explications parce que nous ne connaissons pas les causes dont nos observations sont les conséquences. C'est pourquoi les fictions montrent parfois mieux la vérité que la réalité. L'auteur d'une fiction peut nous informer de toutes les conditions qui précèdent les événements relatés et les expliquer ainsi.

Nous expliquons les événements avec des lois prédictives, mais ces lois elles aussi doivent être expliquées. Nous expliquons les lois particulières avec des lois plus générales et des principes en faisant des théories.

L'explication d'un événement le situe dans l'enchaînement des événements qui l'ont précédé. L'explication d'une loi la situe dans une théorie qui permet de la prouver. De façon générale, une explication requiert une vue d'ensemble qui situe ce qui est expliqué dans la totalité dont il fait partie.

Une explication d'un événement anticipé est en même temps une preuve de la vérité de l'anticipation, pourvu que les prémisses, c'est à dire les conditions qui précèdent l'événement et les lois qui permettent de le prédire, soient vraies. Ceci est général. Une bonne explication est une preuve de ce qu'elle explique. Inversement, une bonne preuve doit être en même temps une explication, elle doit nous montrer pourquoi sa conclusion est vraie. Dans la définition socratique du savoir, une croyance vraie accompagnée d'une raison (Théétète 201d , Ménon 98a), 'raison' (logos) peut aussi être traduit par 'explication' et par 'justification'. Mais cela revient au même. Les bons principes sont bons à la fois parce qu'ils expliquent et parce qu'ils justifient les conclusions qu'ils permettent d'obtenir.

Une loi prédictive affirme que toujours, si des conditions sont réunies alors certains effets seront obtenus. Elle montre sa vérité à chaque fois que les mêmes conditions sont réunies. Mais pourquoi les mêmes conditions devraient-elles se répéter ? Il se pourrait que chaque situation soit nouvelle et unique, qu'elle ne soit jamais la répétition d'une situation déjà rencontrée.

Pourquoi les lois sont-elles vraies ? Pourquoi la Nature obéit-elle à des lois ?

Quand nous cherchons la raison, nous cherchons des bons principes pour expliquer tout ce qui est. Mais pourquoi de tels bons principes devraient-ils exister ? La réalité pourrait être inexplicable.

Rien de nouveau sous le Soleil[modifier | modifier le wikicode]

La lumière qui nous vient des étoiles éloignées est la même que celle du Soleil, ou que celle que nous produisons sur Terre. Elle se comporte toujours de la même façon. « Il n'y a rien de nouveau sous le Soleil. » (Écclésiaste) Les lois de l'optique sont parmi les mieux connues et elles sont toujours vérifiées, souvent avec une excellente précision. Partout dans l'Univers la lumière est toujours la même et obéit toujours aux mêmes lois.

La lumière révèle les propriétés de la matière. Une substance naturelle peut toujours être identifiée par la spectroscopie, c'est à dire l'analyse de la lumière absorbée ou émise. Nous pouvons connaître la composition chimique des astres éloignés en analysant leur lumière. La lumière révèle que la matière est toujours la même partout dans l'Univers.

Une substance naturelle est pure si elle est constituée de molécules ou d'atomes tous identiques. Les substances naturelles se comportent toujours de la même façon dès qu'elles sont pures. L'eau pure a toujours les propriétés de l'eau pure. Elle obéit toujours aux mêmes lois. Pour elle aussi, rien de nouveau sous le Soleil. Plus généralement les particules élémentaires, les atomes et les molécules d'une même espèce sont tous identiques et obéissent aux mêmes lois.

Tous les points de l'espace sont identiques. Quand on en connaît un, on les connaît tous. Il en va de même pour les points de l'espace-temps.

La Nature obéit-elle vraiment à des lois ?[modifier | modifier le wikicode]

Il est dans la nature de l'esprit de raisonner et donc de postuler des lois avec lesquelles raisonner. Un esprit ne peut pas se développer sans penser à des lois. Il semble donc que l'existence des lois résulte de la nature de l'esprit. Mais la matière semble en général naturellement sans esprit, pourquoi obéirait-elle à des lois ?

Pour justifier nos savoirs, nous avons besoin de postuler que la Nature obéit à des lois, mais est-ce vraiment une croyance justifiée ? N'est-ce pas plutôt prendre son désir pour une réalité ? Il se pourrait que toutes les lois de la Nature auxquelles aujourd'hui nous croyons soient toutes réfutées par des observations à venir. Et la Nature ne pourrait-elle pas être sans loi ?

La matière ne serait pas la matière si elle n'obéissait pas à des lois. La matière est nécessairement détectable, elle doit donc obéir à des lois de détection, qui résultent des lois fondamentales d'interaction. Une matière qui n'obéirait à aucune loi ne serait pas détectable, et il n'y aurait pas de raison de l'appeler matière. Nous ne savons pas du tout ce que ce pourrait être, cela semble inconcevable.

Tout se passe comme si la matière et l'esprit avaient été faits l'un pour l'autre, parce que la nature de la matière est d'obéir à des lois et que la nature de l'esprit est de connaître les lois.

Ni la matière, ni a fortiori la vie et la conscience, ne pourraient exister et se développer si la Nature n'obéissait pas à des lois. Nous ne serions pas là pour en parler.

Nous n'avons pas à attendre de nos expériences qu'elles prouvent définitivement que la Nature obéit à des lois, ce qu'elles ne peuvent pas faire, puisque toute loi vérifiée aujourd'hui pourrait être réfutée demain, mais seulement qu'elles nous aident à trouver les lois de la Nature. Nous savons d'avance que la Nature obéit à des lois mais nous ne savons pas lesquelles. Comme la Nature ne semble pas être malicieuse, mais plutôt généreuse, il semble qu'un travail honnête et des expériences bien contrôlées suffisent pour trouver et prouver les lois auxquelles elle obéit. Si une loi est vérifiée par une expérience bien contrôlée, ou si elle est une conséquence logique de prémisses déjà bien prouvées, elle peut être considérée comme prouvée, jusqu'à preuve du contraire.

Les mondes naturellement possibles[modifier | modifier le wikicode]

Les observations ne révèlent des êtres que ce qu'ils sont ou ont été. L'imagination et la pensée permettent d'aller plus loin parce qu'elles révèlent ce qu'ils pourraient être, ce qui est naturellement possible.

Les mondes naturellement possibles sont les mondes logiquement possibles tels que les lois de la Nature y sont vraies.

Une théorie de la Nature énonce des lois fondamentales, ses axiomes, et permet de définir des propriétés ou des relations à partir des propriétés et des relations fondamentales. Si la théorie est vraie, tous les théorèmes de la théorie, c’est à dire les conséquences logiques des axiomes et des définitions, sont des lois de la Nature.

Les mondes logiquement possibles où une théorie est vraie sont en général appelé des modèles de la théorie ou de ses axiomes. Un monde naturellement possible est un modèle d’une théorie de la Nature. Il faut ici distinguer deux sens du concept de vérité. La vérité des axiomes pour un modèle est une vérité formelle ou mathématique. Elle résulte de la définition du modèle. Mais quand on dit d'une théorie de la Nature qu'elle est vraie, on veut dire plus que sa vérité formelle pour un monde logiquement possible, on veut que la théorie soit vraie à propos d'êtres qui existent réellement, on veut que le vérité de la théorie soit physique ou réaliste. Les mondes naturellement possibles sont les modèles d'une théorie de la Nature pourvu qu'elle soit vraie au sens réaliste.

Si les lois de la Nature sont formulées avec un système d'équations différentielles, les mondes naturellement possibles sont les solutions du système.

On explique ce qui est présent, réel, actuel en montrant qu'il est naturellement possible. On explique les mouvements des planètes par exemple en montrant qu'ils sont des solutions des équations différentielles de la physique newtonienne.

L'espace des mondes naturellement possibles est beaucoup plus vaste que le monde réel mais d'une certaine façon il est plus facile à connaître, parce qu'il suffit de connaître les lois. Pour connaître le monde actuel, on a besoin d'être en plus informé sur les possibilités qui se sont réalisées.

Les propriétés et les relations fondamentales d’une théorie de la Nature sont complètement déterminées par leur place dans l’ensemble des mondes naturellement possibles, qui est lui-même déterminé par le système des lois fondamentales de la Nature postulé par la théorie. Plus généralement, toutes les propriétés et les relations naturelles sont déterminées par leur place dans le système des lois de la Nature, parce que tout l’être des propriétés et des relations naturelles est leur être dans la totalité des mondes naturellement possibles.

La puissance des propriétés naturelles[modifier | modifier le wikicode]

Je dis que ce qui possède une puissance, quelle qu'elle soit, soit d'agir sur n'importe quelle chose naturellement pareille, soit de pâtir - même dans un degré minime, par l'action de l'agent le plus faible, et même si cela n'arrive qu'une seule fois - tout cela, je dis, existe réellement. Et, par conséquent, je pose par définition qui définit les êtres que ceux-ci ne sont autre chose que puissance.

(Platon, Le Sophiste ou De l'Être, 247e, traduit par Nestor L. Cordero)

Les lois fondamentales de la matière sont des lois d’interaction. Si une espèce de matière n’interagissait pas avec le reste de la matière, elle ne pourrait pas être détectée, et donc elle ne pourrait pas être reconnue comme de la matière. Tous les êtres matériels interagissent avec d’autres êtres matériels. Toute la matière que nous pouvons détecter, c’est à dire toute la matière de notre Univers, fait nécessairement partie d’un réseau interconnecté d’interactions dont nous faisons nous aussi partie.

La puissance d’un être, c’est à dire sa capacité à intervenir dans des arrangements naturels, l’effet qu’il y fait sur d’autres êtres, est déterminée par les lois d’interaction entre les êtres. Les lois d’interaction attribue la même puissance à des êtres qui ont les mêmes propriétés naturelles. La puissance d’un être ne dépend que de ses propriétés naturelles. Tout autre être qui a les mêmes propriétés a naturellement la même puissance.

Quand on sait de quoi un être est fait, on peut en déduire ses effets sur tous les autres êtres, pourvu qu'on connaisse les lois de la Nature. De quoi c'est fait dit ce que ça fait.

Une propriété naturelle peut elle-même être considérée comme une puissance. Il faut entendre par là qu’elle contribue à la puissance des êtres dont elle est la propriété. Si deux propriétés naturelles ont toujours exactement les mêmes effets naturels, si elle ne peuvent pas être distinguées en tant que puissances naturelles, alors elles sont nécessairement la même propriété, parce qu’une propriété naturelle est déterminée par sa place dans le système des lois de la Nature. On peut aussi dire qu’une propriété naturelle est déterminée par sa place dans le système des relations de causalité (Shoemaker 1980, Bird 2007), parce que celui-ci est lui-même déterminé par les lois de la Nature.

Comme les relations géométriques sont des propriétés naturelles, elles aussi sont des puissances. On retient parfois cette conséquence de la théorie comme une objection contre elle, parce que les relations géométriques semblent inertes et incapables d'agir. C'est oublier que la proximité est essentielle pour exercer une puissance. La distance est une puissance parce qu'elle fait partie des conditions d'exercice des diverses puissances. Pour se protéger d'un danger, il suffit souvent de s'éloigner. La distance a donc la puissance de nous protéger.


Chapitre suivant >>>


L'esprit, comment ça marche ?

Pour expliquer le savoir, il faut expliquer comment il est produit, il faut donc expliquer le fonctionnement de l'esprit, comment il perçoit, imagine, ressent, pense, veut et agit. Comment ça marche ?

La liaison entre les capteurs et les effecteurs[modifier | modifier le wikicode]

La cognition est la production et l'utilisation de représentations internes qui préparent ou conduisent à l'action.

Pour utiliser des représentations, il faut être capable d'agir, il faut être un agent, c'est à dire un corps animé : un être vivant ou un robot. Un agent est toujours un système qui interagit avec son environnement par l'intermédiaire de capteurs et d'effecteurs (Turing 1936, Russell & Norvig 2010).

Les capteurs (les organes sensoriels) sont reliés par un système nerveux (le cerveau, la moelle épinière...) aux effecteurs (les muscles, les glandes ...) afin de produire un comportement intelligent (Churchland & Sejnowski 1992, Gazzaniga & Ivry 2001).

La perception sensorielle consiste à produire des représentations internes à partir des signaux fournis par les capteurs. Elle prépare à l'action en rendant l'agent capable de s'adapter à son environnement présent. Mais les sens ne sont pas les seules sources des représentations internes. Toutes les formes de perception et d'imagination sont des façons de produire des représentations internes qui préparent ou conduisent à l'action.

Les modules du cerveau et les comportements routiniers[modifier | modifier le wikicode]

Un module cérébral est un réseau de neurones spécialisé dans certaines tâches de traitement de l'information. Il a des voies d'entrée, où il reçoit des informations et des ordres, et des voies de sortie, où il émet lui-même des informations et des ordres. Il peut être très localisé (un petit noyau de neurones, une micro-colonne corticale...) ou assez étendu (un vaste réseau réparti sur plusieurs régions cérébrales). Il a des compétences qui lui sont propres et un mode de fonctionnement partiellement autonome.

L'activité cérébrale dans son ensemble résulte de l'activité coordonnée de tous les modules. Ils échangent des informations et des ordres et produisent ainsi toutes les représentations internes qui préparent l'action et tous les signaux qui la déclenchent et la contrôlent.

Un module cérébral peut être conçu comme un pilote automatique. Les pilotes les plus subordonnés sont les plus périphériques, les réseaux de neurones qui commandent les muscles et le reste du corps. Ces modules subordonnés sont commandés par d'autres modules, et ainsi de suite. Un module cérébral a toujours une compétence assez limitée. Il n'a accès qu'à une petite partie des informations disponibles dans le cerveau, et le répertoire des tâches qu'il peut accomplir est également limité. Mais les modules de niveau supérieur, c'est à dire ceux qui commandent au plus haut niveau les autres modules, sont capables en principe de mobiliser toutes les ressources du corps et de son cerveau. Un tel module est une sorte de chef dans le cerveau, un pilote automatique qui pilote d'autres pilotes.

Un module peut représenter ses propres fins, donner des informations et des ordres aux autres modules, ou en recevoir, et participer ainsi au bon fonctionnement de l'organisme. L'activité spontanée des modules suffit pour expliquer les comportements routiniers qui résultent des instincts ou de l'apprentissage. Les ressources nécessaires sont recrutées automatiquement et accomplissent leurs tâches comme elles en ont l'habitude. Il peut y avoir un chef qui dirige provisoirement la marche de l'ensemble, ou plusieurs, ou aucun, parce que les modules peuvent travailler séparément et coordonner spontanément leurs activités.

La décision et la volonté[modifier | modifier le wikicode]

Les actions sont volontaires ou involontaires. Lorsqu'elles sont volontaires, elles résultent d'une décision.

Quand on a pris une décision, on aurait pu faire un autre choix. La décision est précédée d'une phase d'évaluation. Il faut prendre en compte les conséquences prévisibles, extérieures et intérieures, de la décision à prendre.

L'évaluation qui précède une décision est une sorte de perception de haut niveau, une perception de l'ensemble de la situation qui requiert une décision. La perception de haut niveau est une synthèse qui mobilise la plupart de nos capacités à percevoir.

Les actions ont pour fin de transformer la réalité, extérieure, intérieure, ou les deux.

Nous pouvons nous servir de la volonté pour nous transformer intérieurement. La plupart de nos ressources intérieures peuvent être influencées et transformées par nos décisions. C'est ainsi que la volonté peut avoir pour fin de se transformer elle-même.

L'évaluation qui précède une décision est une sorte de délibération collective, à laquelle nos ressources intérieures sont invitées à participer. Une fois que la décision est prise, ces mêmes ressources intérieures doivent la respecter. L'organisation intérieure qui permet à la volonté d'exister ressemble à une administration centralisée sans administrateur central. Une loi commune est décidée par tous et s'impose à tous.

Pour que les buts et les règles que nous avons décidés volontairement puissent mobiliser nos ressources intérieures, il faut qu'ils soient conservés en mémoire de travail. Certaines modules doivent être être spécialisés dans l'enregistrement de nos décisions et la distribution des ordres qui en résultent. La décision mémorisée est utilisée pour envoyer des ordres à tous les modules concernés par l'exécution de cette décision, tant que le but n'est pas atteint, ou qu'on n'a pas renoncé. Les modules qui mémorisent nos décisions volontaires sont des donneurs d'ordres. On peut donc les appeler des modules exécutifs. Les autres modules cérébraux sont subordonnés à ces modules exécutifs.

Les modules exécutifs ne sont pas des innovateurs. Ils se contentent d'enregistrer des décisions prises ailleurs et de distribuer automatiquement les ordres qui les appliquent. Ce ne sont pas des homoncules, ou des petits génies dans la tête, mais seulement des circuits neuronaux capables d'enregistrer les décisions reçues sur leur voies d'entrée, et de donner ensuite les ordres qui les appliquent sur leurs voies de sortie. Il s'agit seulement de traitement de l'information, pas de mettre des esprits dans la machine.

Nos projets volontaires sont proposés, élaborés et évalués par l'ensemble de nos ressources intérieures, et une fois adoptés, ils s'imposent à ces mêmes ressources intérieures, qui doivent obéir aux ordres qui leur sont donnés. Mais il n'y a pas de chef, pas d'administrateur central. Les modules exécutifs ne font qu'enregistrer des décisions prises par la collectivité. Eux aussi ne font donc qu'obéir à l'ordre commun.

Comme les systèmes émotionnels évaluent les buts sur lesquels nous nous décidons, on peut songer à un modèle de la volonté qui la réduit à un rôle de servante des émotions. La prise de décision volontaire pourrait consister simplement à soumettre un projet aux systèmes émotionnels puis à compter leurs évaluations. Si les avis favorables l'emportent nettement sur les autres alors la décision est prise. La volonté ainsi conçue serait hétéronome, elle ne ferait qu'obéir à une loi extérieure, celle des émotions.

La volonté est autonome parce qu'elle se donne sa propre loi. Elle est autonome dans ses évaluations lorsqu'elle prend ses décisions à partir de règles ou de critères d'évaluation qu'elle a elle-même décidés.

Les buts sur lesquels nous nous décidons peuvent être suggérés par les systèmes de la perception et de l'émotion indépendamment de tout contrôle volontaire. Dans de tels cas la volonté a seulement à donner son accord pour des projets qu'elle n'a pas élaborés. Tout ce qu'on lui demande est de donner sa signature. Mais nous pouvons aussi décider d'élaborer des projets sur lesquels nous nous déciderons ultérieurement. La volonté est autonome dans son exécution lorsqu'elle décide d'élaborer les projets qu'elle soumettra à ses évaluations. Un système autonome dans ses évaluations et son exécution est capable de poser et résoudre des problèmes.

Le modèle d'administration centralisée sans administrateur central explique pourquoi le moi est comme une boucle étrange (Hofstadter 2007). Je peux décider des critères d'évaluation de mes décisions, parce que la volonté est autonome dans ses évaluations. Je peux aussi décider des objets sur lesquels porteront mes prochaines décisions, parce que la volonté est autonome dans son exécution.

Lorsque leurs comportements sont routiniers, les agents n'ont pas besoin de chercher longtemps des solutions. Ils les trouvent spontanément parce que leurs modules cérébraux savent comment les produire, par instinct ou par habitude. Les agents se contentent de résoudre les problèmes qu'ils savent déjà résoudre. Mais face à une situation nouvelle, les réactions habituelles ne sont pas toujours adaptées. Il se peut que l'agent dispose des ressources intérieures nécessaires pour réagir comme il convient, mais qu'il ne sache pas les mobiliser, parce qu'il lui faudrait pour cela inventer un nouveau mode de coordination entre ses modules cérébraux. Aucun d'entre eux n'a les moyens de recruter les autres, alors qu'il suffirait qu'ils travaillent ensemble pour atteindre les fins recherchées. L'agent aurait besoin d'un compositeur-chef d'orchestre intérieur, capable de trouver des solutions vraiment nouvelles (Shallice & Cooper 2011). Le modèle d'administration centralisée sans administrateur central montre, sans postuler l'existence d'un esprit dans la machine, comment le cerveau peut fonctionner comme s'il était doté d'un tel compositeur-chef d'orchestre .

L'attention et la conscience[modifier | modifier le wikicode]

Nous faisons attention à nos décisions au moment où nous les prenons. Nous faisons également attention à toutes les informations qui pourraient nous servir pour adopter ou rejeter une décision. Nous faisons aussi attention aux informations qui servent à contrôler l'application d'une décision.

Nos modules exécutifs, responsables de l'application de nos décisions, sont nécessairement en nombre limité. Leurs ressources en mémoire sont également limitées. Nous ne pouvons pas faire volontairement trop de choses à la fois. Nos capacités d'évaluation sont également limitées. Nous ne pouvons pas prendre une multitude de décisions en même temps. Chaque proposition doit être examinée à son tour.

L'attention est la sélection des représentations pour prendre des décisions et contrôler leur exécution.

Un signal est conscient si et seulement s'il est un signal auquel on peut faire attention.

Un test empirique de conscience est un test de décision. Par exemple, on donne comme règle à un sujet qu'il doit appuyer sur un bouton lorsqu'un certain signal apparaît. Le sujet montre qu'il a conscience du signal en réussissant le test.

L'imagination et le contrôle volontaire de l'attention permettent à la volonté de fonctionner en circuit fermé, parce qu'elle peut décider elle-même des informations à partir desquelles elle prend de nouvelles décisions. On peut ainsi être concentré sur ce qu'on imagine et se sentir comme coupé du monde. Mais un tel isolement n'est jamais complet. Un événement inattendu suffit pour nous sortir de notre méditation et capturer notre attention. Les informations sur l'événement inattendu, évaluées en vue d'une décision volontaire, ont été sélectionnées par un processus involontaire (Lachaux 2011). La volonté est autonome et peut décider elle-même de ce qui retient son attention, mais pas au point de se soustraire complètement aux influences extérieures.

Le modèle d'administration centralisée sans administrateur central explique comment le cerveau rend capable d'avoir une volonté autonome, de faire attention, de former des croyances et de contrôler volontairement la perception, l'imagination et la pensée. Il s'agit bien d'une théorie qui explique le fonctionnement de nos cerveaux quand nous sommes conscients, mais elle ne suffit pas pour expliquer l'apparition de la conscience à partir de l'activité cérébrale (Chalmers 1996). L'attention consiste à sélectionner des représentations pour prendre des décisions et contrôler leur exécution, mais la sélection à elle seule n'explique pas pourquoi les représentations ainsi sélectionnées deviennent particulièrement conscientes. Un robot aussi peut sélectionner des représentations pour prendre des décisions, sans que cela implique la moindre conscience.

La conscience apparaît à partir de la vie cérébrale, mais nous ne savons pas l'expliquer. Les influx nerveux sont produits par des courants électriques dans les neurones et à travers leurs membranes. Ce sont des courants ioniques très ordinaires. Rien ne suggère qu'ils doivent être les messagers de l'esprit.

L'imagination du présent[modifier | modifier le wikicode]

La perception et l'imagination sont souvent pensées en opposition. Ce qui est perçu est présent, ce qui est imaginé ne l'est pas. Mais ceci n'est pas toujours vrai. Si par exemple je suis dans un endroit familier, je peux me représenter la disposition des lieux même dans l'obscurité. Je sais que divers objets sont présents et où ils sont alors que je ne les perçois pas directement.

Une modélisation simpliste et partiellement fausse de la perception suppose qu'elle est unidirectionnelle. Les informations sont d'abord produites par les détecteurs sensoriels puis synthétisées, par étapes successives, jusqu'aux représentations de haut niveau, qui déterminent les principaux objets perçus et les principaux concepts qui leur sont attribués. On suppose que les représentations complexes émergent à partir des perceptions élémentaires, comme dans une peinture pointilliste. Une telle dynamique de production des représentations est dite ascendante, ou bottom-up, parce que les signaux sensoriels sont considérés comme des représentations de bas niveau, tandis que les concepts attribués aux objets complexes sont de haut niveau. Cette modélisation ignore les effets d'anticipation. Elle permet d'expliquer les représentations internes d'objets réellement détectés, mais pas les représentations d'objets ou de qualités dont la présence est seulement supposée.

Au sens strict, la perception est seulement sensorielle. Les représentations perçues sont éveillées ou au moins confirmées par des informations qui viennent des sens. Mais la représentation du présent va au delà de la perception strictement sensorielle. Nous ne pourrions même pas faire un pas si nous nous limitions aux données directement perçues par les sens, parce qu'il faut anticiper que le sol va résister avant de le sentir directement.

De façon générale nos représentations du présent sont issues à la fois d'informations réellement détectées et de simples suppositions. Par exemple lorsque nous saisissons un objet familier, le geste est préparé de façon à s'adapter au poids de l'objet. Si nous anticipons mal le poids le geste n'est pas adapté. Cela montre que nous avons une représentation interne du poids avant que nous tenions l'objet dans la main. Le poids est donc représenté avant que les capteurs de tension musculaire ne fournissent cette information. On peut dire que le poids a été imaginé, mais on peut aussi dire qu'il a été perçu indirectement à partir de l'image visuelle, grâce à un savoir mémorisé sur le poids ordinaire d'un tel objet.

Ce qui est perçu n'est pas seulement déterminé par les sens mais aussi par les attentes et les désirs, par les perceptions antérieures, les souvenirs, les préjugés, la culture et le savoir. Les effets d'attente peuvent être si forts qu'il arrive que nous croyons avoir vu ce que nous n'avons pas pu voir, parce que cela n'a pas existé. Nos perceptions ont donc des sources intérieures, elles ne sont pas seulement élaborées à partir des sens. La dynamique des représentations n'est pas seulement ascendante, mais également descendante, top-down. Les système de détection qui reçoivent les informations sensorielles reçoivent aussi des informations de plus haut niveau. Il faut modéliser une sorte de dialogue permanent entre les divers étages de la perception. L'information peut circuler dans toutes les directions, du bas vers le haut, du haut vers le bas, et horizontalement (Hofstadter & FARG 1995). N'importe quelle représentation peut avoir une influence sur la production des autres, quel que soit leur niveau de complexité.

Comme la représentation d'une situation présente s'inscrit toujours dans un système de présupposés, le présent est toujours autant imaginé que réellement perçu. La perception sensorielle peut même être considérée comme une forme de l'imagination, stimulée et guidée par les sens. Il s'agit d'imaginer le présent en accord avec les données des sens.

Un système de détection est avant tout un système d'avertissement. Le signal de détection avertit de la présence de l'être détecté. La fonction d'avertissement est plus fondamentale que la fonction de détection, parce que le système peut signaler la présence d'un être qui n'a pas été détecté. Il suffit que cette présence soit supposée, ou inférée à partir de la détection d'autres êtres.

Une inférence consiste à passer d'une condition à une conséquence. La conséquence est une représentation produite, inférée, à partir des représentations qui déterminent la condition. Si ces représentations sont verbales, une inférence est une étape d'un raisonnement, mais il n'est pas nécessaire que les représentations soient verbales. La perception procède par inférence muette dès qu'elle relie des conséquences et des conditions.

Les inférences peuvent être enchaînées parce que les conséquences peuvent être elles-mêmes des conditions qui ont des conséquences, et ainsi de suite. Les enchaînements d'inférences muettes ressemblent beaucoup à un raisonnement. La suite des représentations des conditions et de leurs conséquences est semblable à celle de leurs descriptions verbales enchaînées dans un raisonnement.

Les inférences muettes font qu'il n'y a pas de frontière nette entre la perception sensorielle et l'imagination du présent. Lorsqu'une représentation a été produite par inférence, comme conséquence d'une condition déjà perçue, on peut dire qu'elle est imaginée mais on peut aussi dire qu'elle est perçue indirectement à partir de la perception de la condition.

Un schéma, ou un cadre conceptuel, est un système de présupposés, c'est à dire ce qu'on tient pour vrai avant de l'avoir vérifié. Un schéma détermine les êtres qu'on s'attend à percevoir avec les concepts qu'on croit devoir leur attribuer et les inférences qu'on croit pouvoir leur appliquer.

Les sensations sont les sources des processus ascendants de la perception, les schémas sont les sources des processus descendants. Ils font partie du fonctionnement normal de la perception. Ils sont nécessaires pour s'adapter rapidement à son environnement, parce que pour agir on n'a souvent pas le temps de tout vérifier.

La connaissance des bons schémas fait toute la différence entre l'expert et le néophyte. Un expert n'a souvent besoin que d'un coup d'œil pour analyser correctement une situation et tirer les conclusions qui s'imposent, parce qu'il connaît déjà les schémas qui permettent de la comprendre et il n'a qu'à vérifier leur adaptation. Un néophyte est submergé par le flot de nouvelles informations, ne sait pas quoi regarder, ne distingue pas l'essentiel du négligeable et se pose rarement les bonnes questions, parce qu'il ne connaît pas les schémas qui lui permettraient d'organiser sa perception de la situation.

Au sens strict, la perception est seulement l'imagination du présent lorsqu'elle est éveillée ou confirmée par les sens. Mais on peut aussi définir la perception en un sens plus général et parler de la perception du passé (la remémoration, et plus généralement toute forme d'imagination du passé), du futur (l'anticipation), de l'imaginaire (rêver à des êtres qui n'existent pas) et même des êtres abstraits (le savoir abstrait, mathématique par exemple). Ainsi entendues la perception et l'imagination sont synonymes.

L'imagination de l'absent[modifier | modifier le wikicode]

Pour agir nous devons percevoir et imaginer le présent, parce qu'il faut s'adapter à la réalité, mais nous devons aussi imaginer l'absent, les buts que nous nous fixons et que nous n'avons pas encore atteints, les moyens à mettre en œuvre et les conséquences prévisibles de nos décisions.

Les systèmes de perception peuvent fonctionner comme des avertisseurs même si les êtres dont ils signalent la présence n'ont pas été détectés. Ils peuvent signaler une présence hypothétique. Ils permettent ainsi de s'affranchir complètement des sens et de simuler la perception d'une scène qui n'est pas présente. L'imagination du passé, du futur et de mondes purement imaginaires est une perception sans détection, donc une simulation de la perception. Les ressources de la perception sont mobilisées pour représenter un environnement qui n'est pas présent, seulement imaginé.

Simuler la perception consiste à simuler l'activation de nos systèmes de détection. On peut simuler la perception sensorielle et reconstituer partiellement des images ou des impressions d'origine sensorielle, mais l'imagination n'est pas forcément associée à des images sensorielles. Pour imaginer un être dangereux il n'est pas nécessaire de s'en faire une image visuelle, ou d'imaginer sa voix, ou toute autre forme de perception sensorielle simulée, il suffit de simuler l'activation d'un détecteur de danger. On peut s'imaginer à proximité d'un être dangereux même si on ne perçoit rien de lui, sauf qu'il est dangereux.

Par l'imagination nous pouvons combiner des représentations dans des configurations nouvelles que nous n'avons jamais perçues. Les parties ont été perçues, mais leur assemblage est inventé, il est purement imaginaire, il représente un être fictif, une sorte de chimère. En assemblant des fragments d'images sensorielles, comme un patchwork, nous pouvons créer une image d'un être qui n'existe pas. De façon générale, l'assemblage des concepts permet de créer des représentations d'êtres qui n'ont jamais existé et qui n'existeront peut-être jamais. La combinatoire multiplie les possibilités à l'infini.

Avec des inférences muettes, nous pouvons prévoir l'enchaînement des conséquences de nos décisions. Nous pouvons ainsi explorer par l'imagination les chemins que nous pourrions suivre. Nous découvrons ainsi en même temps les buts que nous pourrions atteindre et les moyens de les atteindre.

L'importance des représentations du présent et du futur pour la préparation de l'action est évidente, celle des représentations du passé l'est un peu moins. La remémoration nous prépare à l'action indirectement, ne serait-ce qu'en nous aidant à percevoir le présent et le futur, par inférence à partir de la connaissance du passé. Mais l'imagination des fictions, comment peut-elle préparer à l'action ? Il semble qu'elle nous en éloigne. Pour bien agir il faut avoir les pieds sur terre, il faut s'adapter à ce qui existe réellement. A quoi bon imaginer des êtres qui n'existeront jamais ?

Le travail du romancier est semblable à celui du mathématicien. Il pose des conditions, une situation initiale et des contraintes, puis il expose leurs conséquences, souvent inéluctables, de la même façon qu'un mathématicien démontre des théorèmes à partir d'axiomes et d'hypothèses. Quand nous imaginons des fictions, nous pouvons utiliser pleinement nos capacités à inférer. Il ne s'agit pas seulement d'inventer des assemblages de représentations, il s'agit surtout d'imaginer tout ce qui en résulte, tout ce que notre dynamique intérieure de production de représentations par inférence peut fournir à partir de ces inventions. L'imagination des fictions révèle la puissance de l'inférence.

L'introspection[modifier | modifier le wikicode]

La perception de son propre corps peut être considérée comme une sorte de perception de soi-même. Par exemple les informations fournies par les capteurs de tension musculaire permettent de construire un modèle interne du corps, de la position des membres et des efforts auxquels ils sont soumis. Mais la connaissance de soi-même est plus que la perception de son corps, parce que l'esprit est en permanence un témoin de lui-même.

Si je vois que le ciel est bleu, je suis pas seulement informé sur l'état du ciel, je suis également informé sur moi-même, à savoir que je vois le ciel, je me connais moi-même en tant qu'être qui perçoit le ciel.

L'introspection est la perception de soi-même en tant qu'esprit, c'est à dire en tant qu'être qui perçoit, imagine, ressent, pense, veut ou agit.

L'introspection requiert-elle des organes sensoriels ? Y a-t-il une interface sensorielle entre le moi perçu et le moi qui perçoit ? Lorsque je sais que je vois le ciel, est-ce un œil introspectif qui me montre que je vois le ciel ?

Un organe sensoriel est toujours une interface entre un intérieur, le système nerveux, et un extérieur, l'environnement au delà de la peau ou le milieu intérieur en deçà. Les signaux extérieurs sont reçus par l'interface sensorielle et traduits en signaux intérieurs, utilisables par le système nerveux.

L'introspection ne requiert pas d'organe sensoriel parce qu'il n'y a pas de signaux extérieurs à traduire en signaux intérieurs, pas de séparation entre un moi qui perçoit et un moi perçu. Tout se passe à l'intérieur. Toutes les informations sur l'agent, en tant qu'il perçoit, qu'il imagine, qu'il ressent ou qu'il veut, sont déjà présentes à l'intérieur de l'agent. Pour développer ses facultés d'introspection il lui suffit d'exploiter ces sources intérieures d'information. Un organe sensoriel d'introspection n'est pas nécessaire parce que les informations recherchées sont déjà présentes à l'intérieur.

Pour se connaître soi-même il faut se percevoir soi-même, donc se représenter soi-même. Mais où trouve-t-on ce moi que l'on doit percevoir ? Et comment fait-il pour se représenter lui-même ?

La Joconde n'est pas seulement une représentation de Mona Lisa, elle est aussi une représentation de Léonard de Vinci, parce qu'elle porte beaucoup d'informations sur lui. Mes représentations n'apporte pas que des informations sur les êtres représentés, elles peuvent aussi en dire beaucoup sur ma façon de les représenter, et donc sur moi. Elles sont donc aussi des représentations de moi. Mes représentations du monde ne font pas que représenter le monde, elles représentent aussi le moi.

Les émotions[modifier | modifier le wikicode]

Le concept d'émotion est difficile à définir et son usage est souvent très imprécis. Faut-il distinguer les humeurs et les émotions, les humeurs parce qu'elles sont durables, les émotions parce qu'elles sont brèves ? La tranquillité est-elle une émotion ou une indépendance vis à vis des émotions ? La jalousie est-elle une émotion ou un état plus complexe qui mêle émotions et volonté ?

On peut définir les émotions à partir de quelques émotions de base (la tristesse, la peur, la colère, le dégoût, la honte, la joie, l'apaisement, la fierté, la surprise...) et inclure toutes les variations et les combinaisons, ou à partir de quelques caractères généraux :

  • Une émotion est déclenchée par la détection de conditions spécifiques, la peur par la détection du danger, la tristesse par la détection du malheur, la colère par la détection de l'inacceptable...
  • Cette détection est suivie très rapidement de réactions réflexes et de modifications physiologiques qui permettent à l'organisme de s'adapter à la nouveauté de sa situation.
  • Les émotions déterminent des motivations, c'est à dire des désirs ou des aversions. Elles nous indiquent les buts qui méritent d'être poursuivis, et ce que nous devons fuir ou éviter (Damasio 1994). Elles sont donc très importantes pour la volonté, parce qu'elles nous servent à évaluer nos projets, et pour l'apprentissage, parce qu'elles signalent ce qui mérite d'être mémorisé.

Parce qu'elle est déclenchée par des conditions spécifiques et parce qu'elle provoque des réactions spécifiques, une émotion particulière, telle que la peur, peut être caractérisée par l'activité d'un module cérébral, ou d'un système de modules qui coordonnent leurs activités. Les voies d'entrée portent les signaux qui éveillent, modifient ou suppriment l'émotion. Les voies de sortie portent les signaux qui provoquent les réactions émotionnelles typiques (LeDoux 1996). Comme une émotion peut mobiliser une grande partie des ressources de l'organisme, un tel système émotionnel peut être considéré comme une sorte de chef dans le cerveau. Une émotion, surtout si elle est forte, peut exercer une sorte d'empire sur toute l'activité corporelle, intérieure et extérieure.

Émotion et cognition sont parfois pensées en opposition, mais c'est une erreur. Les émotions produisent et utilisent des représentations internes qui préparent à l'action, elles font donc partie de la cognition. Elles sont de précieuses informatrices sur les réalités extérieure et intérieure. Ressentir des émotions fait partie de la perception de la réalité.

Les croyances[modifier | modifier le wikicode]

La perception et l'imagination attribuent continuellement des concepts aux êtres perçus et imaginés. Toutes ces attributions de concepts sont des croyances, tant qu'elles sont mémorisées.

Quand nous prenons conscience d'une croyance, nous pouvons choisir de la mettre en doute. Une croyance consciente fait l'objet d'une évaluation qui précède la décision de l'approuver. Elle est ensuite prise en charge par le système exécutif qui la conserve en mémoire de travail et l'utilise pour contrôler la perception et l'imagination.

Une croyance consciente peut faire de l'effet, par l'intermédiaire du système exécutif, sur l'ensemble du fonctionnement cérébral. On retrouve ainsi un élément de la théorie cognitive de la conscience de Baars (Baars 1988, Changeux 2002, Dehaene 2014). Tant qu'une représentation ne retient pas l'attention, elle reste attachée à son lieu de production et ne peut pas faire d'effet sur l'ensemble du système. Son effet est nécessairement limité. Mais si on en prend conscience, elle peut être utilisée pour influencer les autres parties du cerveau, elle est comme écrite sur un tableau noir qui peut être lu par d'autres modules cérébraux.

Après être restées actives un moment en mémoire de travail, les croyances sont en général enregistrées et consolidées en mémoire à long terme, où elles demeurent comme des croyances dormantes, ou latentes. Elles sont réveillées si nous nous les remémorons.

Comme une croyance consciente est évaluée avant d'être approuvée, tout le processus d'évaluation fait partie de la perception du concept attribué. Les capacités d'évaluation qui précèdent la décision sont des capacités de détection des concepts. Comme toutes les attributions de concepts peuvent faire l'objet d'une approbation consciente, le système de décision fonctionne comme un détecteur universel, capable de détecter n'importe quel concept, dès qu'il a appris le faire.

L'invention de la perception[modifier | modifier le wikicode]

Nos capacités de perception ne sont pas fixées. Nous pouvons toujours apprendre de nouvelles façons de percevoir.

La sensibilité peut être affinée par l'expérience. Nos systèmes de perception sont sensibles au contexte et à de nombreux paramètres qu'on peut faire varier pour se rendre plus sensibles à ce que nous percevons.

Nous pouvons inventer des concepts en combinant les concepts qu'on a déjà. Si on s'attend à percevoir à nouveau une combinaison de concepts, on peut se doter de la capacité à la détecter comme un nouveau concept unique. On peut faire de même pour la détection de combinaisons suffisamment semblables à d'autres combinaisons déjà perçues et considérées comme des exemples typiques.

Apprendre par expérience à faire de nouvelles inférences muettes augmente nos capacités à percevoir, parce que nous apprenons ainsi à percevoir les conséquences à partir de leurs conditions.

Nos capacités de perception dépendent de nos anticipations, et donc des schémas, des systèmes de présupposés, que nous nous avons adoptés. En modifiant nos schémas nous pouvons modifier nos façons de percevoir et d'interpréter la réalité. En nous rendant libres d'adopter des croyances et des schémas ou des les rejeter, la volonté nous rend libres de découvrir ou d'inventer de nouvelles façons de percevoir.

La détection d'un concept peut être un processus presque instantané, si le signal de détection est produit aussitôt que les informations sur l'être détecté sont fournies, ou progressif, si le système de détection prend le temps d'accumuler des informations avant de se prononcer. Le processus d'évaluation qui précède une décision est en général progressif. On a le temps de prendre en compte de nombreuses informations avant de se décider.

Comme nous sommes libres de décider de nos façons d'évaluer nos décisions, nous sommes libres d'inventer des façons de percevoir. Nous pouvons inventer tous les concepts que nous voulons en nous donnant les moyens de les détecter.

Se mettre à la place d'autrui[modifier | modifier le wikicode]

On connaît un autre esprit en imaginant qu'il perçoit, qu'il imagine, qu'il ressent, qu'il pense, qu'il veut et qu'il agit. On imagine qu'il perçoit en imaginant ce qu'il perçoit. On imagine qu'il imagine en imaginant ce qu'il imagine. La sympathie est de ressentir ce qu'il ressent. De façon générale, on le connaît comme un esprit en se mettant à sa place (Goldman 2006, Rizzolatti & Sinigaglia 2006). On peut imaginer qu'on veut ce qu'il veut et qu'on fait ce qu'il fait. Un esprit est un simulateur universel parce qu'il peut simuler tous les autres esprits, au moins s'ils sont dotés des mêmes facultés - pour un être humain il est plus facile de se mettre à la place d'un être humain que d'une chauve-souris.

Un esprit connaît l'esprit à la fois en se connaissant lui-même et en se mettant à la place des autres esprits, de tous les esprits qu'il peut imaginer.

Tout ce qui peut être perçu, imaginé, ressenti, pensé ou décidé par les uns, peut être perçu, imaginé, ressenti, pensé ou décidé par tous les autres. Se connaître soi-même comme esprit est en même temps connaître ce que tous les autres peuvent faire de leur esprit. Inversement, tout ce que les autres font de leur esprit nous montre ce que nous pouvons faire nous-mêmes. « Rien de ce qui est humain ne m'est étranger. » (Térence, Heautontimoroumenos, v. 77)

Je connais autrui en me mettant à sa place en imagination. De même il me connaît en se mettant à ma place. Quand je me demande ce qu'il pense de moi, j'essaie d'imaginer ce qu'il imagine quand il se met à ma place, j'imagine ce qu'il imagine de moi. Je peux également imaginer ce qu'il imagine quand il se met à la place d'un troisième.

Le même contenu peut être imaginé selon diverses modalités : un passé qu'on a vécu, un avenir projeté, une simple hypothèse, un contenu imaginé par autrui, et même un contenu qu'autrui croit qu'on imagine. Quand on se souvient, on se met à la place de l'autre qu'on a été. Quand on se projette dans l'avenir, on se met à la place de celui qu'on pourrait être. De ce point de vue on se connaît soi-même de la même façon qu'on connaît les autres, en se mettant à la place de soi-même par l'imagination. Quand j'imagine ce que je pourrais être, je suis dans une position semblable à celle d'un autre qui imagine ce que je pourrais être. Quand j'imagine comment un autre m'imagine, j'imagine ce que je pourrais être si j'étais tel qu'il m'imagine.

Qu'est-ce que la parole ?[modifier | modifier le wikicode]

Au commencement la parole
La parole avec Dieu
Dieu, la parole.
Elle est au commencement avec Dieu.
Par elle tout est venu
et sans elle rien n'a été de ce qui fut.
En elle, la vie
La vie, lumière des hommes
Et la lumière brille à travers la nuit
La nuit ne l'a pas saisie.

(Jean, 1, 1-5, traduit par Florence Delay et Alain Marchadour)

On peut raisonner sur le monde comme s'il était un grand livre. Raisonner sur les êtres, c'est toujours raisonner sur ce qu'on dit des êtres. Toutes les vérités sont déterminées à partir de vérités élémentaires et fondamentales, toutes les vérités atomiques sur tous les êtres. L'ensemble de toutes ces vérités est comme le grand livre du monde. Tout ce qui est peut toujours être dit, parce que les mots et les expressions peuvent nommer tous les concepts, tout ce qui peut être perçu, tout ce qui apparaît.

Si on entend le concept de parole en son sens le plus large, tout parle. L'être est une parole. Être, pour tous les corps, c'est agir sur les autres êtres. Tous les êtres matériels le font, simplement en étant matériels. Être visible, ou audible, ou être perçu de toute autre façon, c'est toujours se montrer, et c'est toujours parler.

Les êtres vivants perçoivent les autres êtres et vivent en réagissant à ce qu'ils ont perçu. Leurs réactions montrent comment ils comprennent la parole exprimée par les êtres qu'ils perçoivent.

En un sens plus restreint, les animaux parlent seulement quand ils émettent des signaux pour qu'ils soient perçus et qu'ils influencent ceux qui les perçoivent. Ils se montrent aux yeux qui les regardent, ou ils font sentir leur présence d'une autre façon. Il n'est pas nécessaire de supposer que l'animal émet ses signaux volontairement. Une guêpe signale par sa robe jaune et noire à un éventuel prédateur qu'elle est une proie dangereuse. L'évolution par sélection naturelle suffit pour expliquer une telle communication animale. Les guêpes ont un avantage à montrer leur dangerosité et les prédateurs ont un avantage à la percevoir. Il n'est pas nécessaire qu'il y ait une volonté ou une conscience. Des instincts aveugles suffisent pour établir cette communication.

En un sens encore plus restreint, les animaux parlent seulement s'ils émettent des signaux parce qu'ils veulent influencer l'imagination et la volonté de ceux qui les reçoivent. Cela suppose que les animaux qui émettent et reçoivent ces signaux sont capables d'imaginer et de vouloir, et surtout qu'ils se connaissent eux-mêmes et autrui comme des êtres qui imaginent et qui veulent.

La parole est l'émission volontaire de signaux pour influencer l'imagination et la volonté de ceux qui les reçoivent.

La signification par l'imagination[modifier | modifier le wikicode]

Pourquoi les mots ont-ils un sens ? Qu'est-ce qui fait que des suites de sons peuvent servir à communiquer ? Qu'est-ce qui donne aux mots et aux énoncés leur signification ?

Lorsqu'on comprend une description, on imagine ce qui est décrit. Les mots et les expressions verbales éveillent l'imagination dès que nous comprenons leur signification. On imagine ce qui est décrit quand on en simule la perception, quand on active, en mode simulation, les systèmes de détection qui seraient éveillés si nous percevions ce qui est décrit. Lorsque les concepts détectés par nos systèmes de perception sont associés à des expressions verbales qui les nomment, nous pouvons à la fois décrire ce que nous percevons, en nommant les concepts perçus, et imaginer ce qui est décrit, en simulant la détection des concepts nommés (Saussure 1916).

Le savoir muet est le savoir qui précède la parole et qui résulte de la perception, de l'imagination, de l'émotion et de la volonté. Il peut être traduit en paroles dès que les systèmes de détection qu'il utilise sont nommés par des expressions verbales. Les descriptions sont alors une traduction en mots du savoir muet de ce qui est décrit. Les règles d'inférence qui relient la description de conditions à la description de conséquences sont une traduction des inférences muettes. Un raisonnement qui enchaîne de telles règles est une traduction d'un enchaînement d'inférences muettes. De cette façon le savoir muet peut être traduit en savoir parlant, et donc communiqué.

Le savoir muet est fondamental pour le développement de la raison, parce que le savoir parlant commence par être une traduction du savoir muet. Il peut ensuite voler de ses propres ailes parce qu'il peut parler de la parole, mais il a besoin du savoir muet pour décoller, parce que les mots doivent éveiller l'imagination pour avoir du sens.

Une expression verbale a une signification lorsqu'elle nomme un concept ou un individu. Le concept nommé, c'est à dire la propriété ou la relation, est la signification d'une expression qui nomme un concept. L'individu nommé est la référence d'une expression qui nomme un individu. La référence d'une expression qui nomme un concept est parfois identifiée à l'extension de la propriété ou de la relation nommée.

Un concept est empirique lorsqu'il est une propriété ou une relation observable. Le savoir muet est toujours empirique.

On comprend la signification d'une expression qui nomme un concept ou un individu lorsqu'on sait comment les détecter.

Une même expression verbale peut avoir plusieurs significations. Un même nom peut servir à nommer plusieurs concepts ou plusieurs individus. Il peut être interprété de plusieurs façons.

La compréhension de la parole peut être conçue sur un mode purement passif, comme si les mots étaient les notes d'une partition et la compréhension, la musique exécutée par un piano mécanique intérieur. Mais l'imagination n'est pas seulement éveillée par les mots de cette façon passive. La compréhension de la parole est aussi et surtout active. Nous comprenons parce que nous voulons comprendre, et ce que nous comprenons , c'est à dire ce que nous imaginons, dépend souvent de nos attentes.

Pour comprendre un discours, il faut identifier les concepts nommés par les mots et les expressions. Nous devons retrouver ou inventer les façons de percevoir les concepts nommés. Lorsqu'un enfant apprend à parler, il apprend en même temps des mots ou des expressions nouvelles et des façons percevoir les concepts nommés. Lorsqu'un discours invente de nouvelles expressions, il nous invite en même temps à inventer de nouvelles façons de percevoir.

La parole nous donne les moyens d'inventer et de communiquer des façons de percevoir. Tous les concepts inventés par les uns peuvent être communiqués aux autres.

Une description peut être communiquée pour elle-même. Dans ce cas simple, le locuteur comprend ce qu'il dit s'il perçoit ou imagine ce qu'il décrit, et l'auditeur comprend ce qui est dit dès qu'il perçoit ou imagine ce qui est décrit. Savoir décrire ce qu'on perçoit ou imagine et savoir percevoir ou imaginer ce qui est décrit sont les fondements de la compréhension du langage. Tous les usages de la parole se servent de descriptions.

Comprendre des paroles, c'est savoir s'en servir[modifier | modifier le wikicode]

Wittgenstein nous a invité à ne pas séparer l'étude de la signification du langage de celle de son usage :

« Se représenter un langage veut dire se représenter une forme de vie. » (§19) « L'expression "jeu de langage" doit ici faire ressortir que parler d'un langage fait partie d'une activité, ou d'une forme de vie. » (§23) « Pour une large classe des cas où il est utilisé - mais non pour tous -, le mot "signification" peut être expliqué de la façon suivante : la signification d'un mot est son emploi dans le langage. » (§43, Recherches philosophiques, 1953, traduit par Françoise Dastur, Maurice Elie, Jean-Luc Gautero, Dominique Janicaud, Elisabeth Rigal)

Il propose par exemple de raisonner sur un exemple simplifié de communication linguistique :

« Ce langage doit servir à un constructeur A pour se faire comprendre de son aide B. A réalise une construction avec des pierres à bâtir. Il y a des blocs, des colonnes, des dalles, des poutres, que B doit faire passer à A dans l'ordre où celui-ci les utilise. A cet effet ils se servent d'un langage constitué des mots "bloc", "colonne", "dalle", "poutre". A crie leur nom. B apporte la pierre qu'il a appris à rapporter en réponse à ce cri. » (§2)

Toute façon de se servir de la parole, en tant que locuteur ou auditeur, est une façon de la comprendre. La compréhension d'un langage n'est rien d'autre que son usage. Le locuteur comprend ce qu'il dit lorsqu'il sait ce qu'il fait en le disant. L'auditeur comprend ce qui est dit lorsqu'il sait quoi en faire. Comprendre des paroles, c'est savoir s'en servir. Pour expliquer comment nous comprenons des paroles il faut expliquer comment elles nous préparent à l'action.

La vérité est vivante[modifier | modifier le wikicode]

La vérité n'est pas une liste de formules, parce que la vérité d'une formule dépend de son interprétation, de la façon dont elle est comprise. La même formule peut être vraie et fausse, cela dépend de son interprétation. La compréhension est un processus vivant. La vérité n'est pas fixée dans le marbre. Elle est vivante ou elle n'est pas.

Être intelligent, c'est s'adapter à la réalité présente, vivante, ici et maintenant. Il faut faire avec les moyens du bord. S'accrocher à des formules comme des huîtres à leur rochers, c'est renoncer à l'intelligence.

La compréhension mutuelle[modifier | modifier le wikicode]

Un locuteur agit sur ceux qui l'écoutent. Il veut toujours attirer leur attention sur ce qu'il dit. Pour savoir ce qu'il fait quand il dit ce qu'il dit, il doit donc savoir ce que les auditeurs en font, ou ce qu'ils pourraient en faire. Un locuteur doit être capable de se mettre à la place des auditeurs et comprendre ce qu'ils comprennent, sinon il ne se comprend pas vraiment lui-même. Inversement, pour savoir quoi faire avec ce qu'on leur dit, les auditeurs doivent comprendre les intentions du locuteur, pourquoi il dit ce qu'il dit. Ils doivent donc être capables de se mettre à la place du locuteur et de comprendre ce qu'il fait, sinon ils ne comprennent pas vraiment ce qu'on leur dit. La compréhension des paroles est une des formes de la compréhension mutuelle, où chacun connaît les autres et lui-même, et sait qu'il est connu par les autres de la même façon qu'il les connaît.

Un locuteur s'imagine lui-même en tant que locuteur. Il connaît ses intentions. Il connaît le rôle qu'il s'est donné. Lorsqu'il n'y a pas de malentendu, ou de fourberie, l'auditeur imagine le locuteur de la même façon que le locuteur s'imagine lui-même. Il attribue au locuteur les mêmes intentions que celles que le locuteur s'attribue à lui-même. De cette façon, il est facile pour le locuteur d'imaginer comment l'auditeur imagine le locuteur, parce que c'est déjà comment il s'imagine lui-même. Le même contenu imaginé par le locuteur est attribué en même temps au locuteur qui s'imagine lui-même et à l'auditeur qui imagine le locuteur. Il en va de même pour le contenu imaginé par l'auditeur qui est attribué en même temps à l'auditeur qui s'imagine lui-même et au locuteur qui imagine l'auditeur. Lorsqu'il n'y a pas de malentendu, le locuteur et l'auditeur imaginent la même scène et les mêmes rôles, comme s'ils étaient les spectateurs du même film. La seule différence est qu'ils s'attribuent des rôles différents.

La vérité théorique[modifier | modifier le wikicode]

Dès que les concepts nommés par des expressions sont identifiés à des concepts empiriques, donc à des façons de percevoir ou de détecter, la vérité des énoncés peut être décidée par l'observation. Les énoncés sont vrais dès que les observations qu'ils traduisent le sont (Locke 1690).

L'observation n'est pas le seul critère de vérité, parce que les théories imposent la vérité de leurs principes (Leibniz 1705, Kant 1787). Les théories, ou les cadres théoriques, sont l'équivalent parlant des cadres conceptuels muets. Une théorie est déterminée avec un système de noms, destinés à nommer des concepts, et un système d'axiomes et de définitions, qui permettent de raisonner avec les concepts nommés.

Une théorie reçoit une interprétation empirique lorsque les concepts nommés sont identifiés à des propriétés ou à des relations observables qui forment ensemble un cadre conceptuel empirique. Une même théorie peut être interprétée par plusieurs cadres conceptuels empiriques différents, mais elle impose des contraintes sur les significations empiriques acceptables. L'interprétation ne doit pas contredire les principes de la théorie. Par exemple, la vérité du principe de transitivité, 'si x est plus grand que y et y est plus grand que z alors x est plus grand que z' est admise par définition de la relation 'est plus grand que'. Celle-ci peut être interprétée de multiples façons empiriques, mais le principe de transitivité ne pourra jamais être contredit par nos observations. S'il conduit à une anticipation erronée, on dira que la relation observée a été mal nommée, qu'elle n'est pas une signification empirique que l'on peut donner à l'expression 'est plus grand que'. Le paradoxe de Condorcet (1785), en science politique, illustre cette priorité du principe de transitivité :

On peut supposer que des résultats électoraux donnent de la force aux divers candidats en présence et songer à mesurer cette force. Soit une élection où chaque électeur doit ranger trois candidats A, B et C par ordre de préférence, et supposons que les trois ordres ABC, BCA et CAB aient chacun été choisis par un tiers de l'électorat. Il semble que la force de A est plus grande que celle de B, puisque deux tiers de l'électorat préfère A à B. De même B est plus fort que C, et C est plus fort que A. Le principe de transitivité est donc contredit par l'expérience. Mais il n'est pas réfuté pour autant, il a seulement été mal appliqué, parce qu'un tel système électoral ne permet pas de mesurer ainsi la force des candidats. On ne dira pas que le cadre théorique (la mesure de la grandeur des forces) est faux, mais seulement qu'il n'est pas adapté à la réalité perçue.

Une expression peut avoir de nombreuses significations empiriques, et on peut toujours en inventer de nouvelles. Mais quand les principes sont vrais par définition ils imposent des contraintes d'interprétation, des limites aux significations empiriques que nous pouvons donner à nos expressions. Les interprétations empiriques ne sont pas indépendantes des interprétations abstraites. La vérité par définition est en général prioritaire. Si une expression est employée d'une façon qui contredit un principe, on dira que l'interprétation n'est pas correcte, ou qu'elle ne fait pas partie des interprétations permises par les principes. De cette façon, on peut être sûr que nos principes sont toujours vrais, parce qu'une interprétation qui les rendrait faux est a priori exclue.

Les principes d'une théorie sont admis par définition de leurs termes. Leur vérité est supposée connue dès que la signification des mots est comprise (Pascal 1657).

Les énoncés prouvables à partir d'un système d'axiomes et de définitions sont les théorèmes de la théorie définie par de tels principes. Une théorie donne une signification abstraite aux noms avec lesquels elle forme ses énoncés. On dit parfois des axiomes qu'ils sont des définitions déguisées, parce qu'ils servent à donner une signification à leurs termes, donc à les définir.

Une théorie peut être utilisée d'une façon qui ressemble à la perception, comme un système de détecteurs. Pour savoir si un énoncé est vrai ou faux, il suffit de le prouver ou de prouver sa négation. De cette façon les noms des concepts sont associés à des détecteurs théoriques qui déterminent si les concepts sont vrais des individus nommés. Les détecteurs théoriques détectent ce qu'ils doivent détecter en trouvant des preuves logiques, à partir de principes admis. S'ils n'en trouvent pas, leur détection a échoué. « Les yeux de l'âme, par lesquels elle voit et observe les choses, ne sont rien d'autre que les preuves. » (Spinoza, Éthique, Livre V, prop. 23, Scolie) De même que les yeux du corps nous rendent capables de voir les êtres visibles, les preuves logiques à partir de principes nous rendent capables de connaître les êtres abstraits. La perception des êtres abstraits consiste à raisonner à partir des principes qui les définissent.

Les mots et les expressions verbales peuvent être interprétés de nombreuses façons et recevoir ainsi de nombreuses significations, empiriques ou abstraites. Pour déterminer une interprétation empirique il suffit de déterminer les concepts nommés par des systèmes de perception ou de détection. Pour déterminer une interprétation abstraite il suffit définir les concepts nommés par des systèmes de principes, axiomes et définitions, qui permettent de raisonner avec eux.

Selon l'interprétation qui lui est donnée, un même énoncé peut être en même temps une vérité abstraite et une vérité empirique. Une telle ambiguïté peut être très utile, parce qu'en développant un savoir abstrait, on obtient du même coup un savoir empirique. On n'a même pas besoin de modifier la formulation. Évidemment pour qu'une telle magie se produise il faut que la théorie et son interprétation soient adaptées à la réalité observée pour la rendre intelligible. La rencontre entre la vérité abstraite et la vérité empirique de nos énoncés est le but de toutes les sciences empiriques, parce qu'on veut connaître par le raisonnement ce qu'on connaît par les sens.

Les principes logiques nous font toujours passer du vrai au vrai (Aristote, Premiers analytiques). Lorsque des affirmations sont vraies, leurs conséquences logiques ne peuvent pas être fausses. Plus précisément, quelle que soit l'interprétation que l'on donne à des affirmations, si ces affirmations sont vraies, d'après l'interprétation supposée, alors les conséquences logiques sont vraies elles aussi, d'après la même interprétation. La relation de conséquence logique ne dépend pas de l'interprétation de ce que nous affirmons, elle ne dépend que de la signification des opérateurs logiques.

Lorsque nous prouvons une conclusion par un raisonnement logique, les prémisses déterminent des conditions suffisantes de vérité. Quelle que soit l'interprétation choisie, si les prémisses sont vraies, alors la conclusion est vraie. Les raisonnements ne servent pas qu'à prouver, ils servent aussi à expliciter des conditions de vérité. Pour comprendre un théorème, il faut connaître sa preuve, parce qu'elle donne des conditions de vérité qui précisent comment il faut l'interpréter.

Lorsque nous apprenons une langue, nous apprenons en même temps de nouvelles expressions, de nouvelles façons de percevoir, qui donnent des significations empiriques à ces expressions, et de nouveaux principes avec lesquels nous pouvons raisonner. Nous développons ainsi notre savoir empirique et notre savoir abstrait en même temps. Les deux sont mêlés d'une façon inextricable parce qu'en général une même expression réunit à la fois des significations empiriques et abstraites.

Pour savoir si un énoncé est vrai il faut d'abord préciser sa signification. Le même discours peut être tantôt vrai, tantôt faux, cela dépend de son interprétation. La plupart de nos controverses viennent ou de malentendus, parce que nous donnons des significations différentes à une même expression, ou de l'absence de précision, parce que nous laissons dans le vague les conditions de vérité de ce que nous disons. Nous n'explicitons pas les principes qui décident de la vérité abstraite ou nous ne précisons pas les systèmes de détection qui décident de la vérité empirique.

La diversité des interprétations peut rendre très difficile la communication du savoir. Le locuteur doit respecter un principe de clarté : donner des éclaircissements pour que son discours puisse être interprété correctement. L'auditeur doit respecter un principe de charité : toujours interpréter un discours de la façon qui lui est la plus favorable, autant qu'il est possible. Il est toujours possible de dissiper les malentendus et d'aboutir au consensus, parce que nous pouvons tous faire les mêmes raisonnements et percevoir le même monde.

La pensée[modifier | modifier le wikicode]

« - Qu’est-ce que tu appelles penser ?

- Une discussion que l’âme elle-même poursuit tout du long avec elle-même à propos des choses qu’il lui arrive d’examiner. (…) voici ce que me semble faire l’âme quand elle pense : rien d’autre que dialoguer, s’interrogeant elle-même et répondant, affirmant et niant. Et quand, ayant tranché, que ce soit avec une certaine lenteur ou en piquant au but, elle parle d’une seule voix, sans être partagée, nous posons que c’est là son opinion. »

(Platon, Théétète, 189e-190a, traduit par Michel Narcy)


La pensée est l'imagination de la parole.

Penser, c'est explorer par l'imagination tout ce qu'on peut faire avec la parole.

De même qu'on peut former les autres et être formé par eux avec la parole, on peut se former soi-même avec la pensée.

Nous nous construisons par la parole et la pensée, mais on peut aussi dire que c'est la parole qui nous construit.


Références

Aristote, Ethique à Nicomaque, Organon, Les parties des animaux, De l'âme, Physique, Métaphysique

Baars, Bernard J., A cognitive theory of consciousness (1988)

Beck, Aaron T., La thérapie cognitive et les troubles émotionnels (1975)

Benaceraff, Paul, Mathematical Truth (1973, Journal of Philosophy 70, 661–80, reproduced in P. Benaceraff and H. Putnam (eds.), Philosophy of Mathematics: Selected Readings 1983).

Berthoz, Alain, Le sens du mouvement (1997)

Bird, Alexander, Nature's Metaphysics: Laws and Properties (2007)

Borges, Rodrigo, de Almeida, Claudio and Klein, Peter D., Explaining knowledge: new essays on the Gettier problem (2017)

Carroll, Lewis, What the Tortoise Said to Achilles (1895)

Chalmers, David J., The conscious mind (1996)

Changeux, Jean-Pierre, L'homme de vérité (2002)

Cohen, Paul J., Set theory and the continuum hypothesis (1966)

Cottraux, Jeau, La répétition des scénarios de vie (2001)

Churchland, Patricia S. & Sejnowski, Terrence J., The computational brain (1992)

Condorcet, Nicolas de, Essai sur l’application de l’analyse à la probabilité des décisions rendues à la pluralité des voix (1785)

Damasio, Antonio, Time-locked multiregional retroactivation: A systems-level proposal for the neural substrates of recall and recognition (1989, Cognition, 33, 25-62), L'erreur de Descartes (1994), Convergence and divergence in a neural architecture for recognition and memory (avec Kaspar Meyer, 2009, Trends in NeuBorges, Rodrigo, de Almeida, Claudio and Klein, Peter D., Explaining knowledge: new essays on the Gettier problem (2017) rosciences Vol.32 No.7, 376-382)

Darwin, Charles, L'origine des espèces (1859)

Dawkins, Richard, Climbing Mount Improbable (1997)

Dedekind, Richard, Was sind und was sollen die Zahlen? (1888)

Dehaene, Stanislas, Le code de la conscience (2014)

Depaul, Michael R., Intuitions in moral inquiry (2006, dans The Oxford handbook of ethical theory)

Descartes, René, Le Discours de la méthode pour bien conduire sa raison et chercher la vérité dans les sciences (1637)

Dieterle, Jill Marie, Structure and object (1994)

Dretske, Fred, Conclusive reasons (1971, The Australian Journal of Philosophy, 49, reproduced in Dretske & Bernecker 2000)

Dretske, Fred and Bernecker Sven, Knowledge, readings in contemporary epistemology (2000)

Dugnolle, Thierry, Théorie quantique de l'observation (2018)

Einstein, Albert, La théorie de la relativité restreinte et générale (1916)

Fine, Gail, The possibility of inquiry, Meno's paradox from Socrates to Sextus (2014)

Fitch, Frederic Brenton, Symbolic logic, an introduction (1952)

Fraenkel, Abraham, Abstract set theory (1953)

Freud, Sigmund, Introduction à la psychanalyse (1915), Le moi et le ça (1923)

Gazzaniga, Michael S., The mind's past (1998), Neurosciences cognitives : la biologie de l'esprit (2001, avec Richard B. Ivry)

Gentzen, Gerhard, Recherches sur la déduction logique (1934)

Gettier, Edmund L., Is justified true belief knowledge? (1963, Analysis, 23, reproduced in Dretske et Bernecker 2000)

Gödel Kurt, Sur la complétude du calcul logique (1929, Thèse de doctorat)

Goldman, Alvin, Epistemology and Cognition (1986), Knowledge in a Social World (1999), Simulating Minds, the philosophy, psychology, and neuroscience of mindreading (2006)

Goodman, Nelson, Faits, fictions et prédictions (1955)

Gould, James L. & Gould, Carol Grant, The animal mind (1994)

Greenberg, Leslie S., Angus, Lynne E., Working with narratives in emotion-focused therapy: changing stories, healing lives (2011)

Hebb, Donald, The organization of behavior (1949)

Hegel, Georg Wilhelm Friedrich, Propédeutique philosophique , La philosophie de l'esprit (1830)

Hofstadter, Douglas, Fluid concepts and creative analogies (1995, avec the Fluid Analogies Research Group), Je suis une boucle étrange (2007), L'analogie, cœur de la pensée (2013, avec Emmanuel Sander)

Hursthouse, Rosalind, On virtue ethics (2001)

Irwin, Terence, The development of ethics (I:2007, II:2008, III:2009)

James, William, The principles of psychology (1890)

Kandel, Eric R. & Squire, Larry R., La mémoire : de l'esprit aux molécules (1999)

Kant, Emmanuel, Critique de la raison pure (1781, 1787), Fondements de la métaphysique des mœurs (1785)

Kauffman, Stuart, The origins of order (1993), At home in the universe (1995)

Keisler, H. Jerome, Fundamentals of Model Theory (1977, dans Handbook of mathematical logic, édité par Jon Barwise)

Kripke, Saul, La logique des noms propres (1972, traduit de Naming and necessity)

Lachaux, Jean-Philippe, Le cerveau attentif : contrôle, maîtrise et lâcher-prise (2011)

Laing, Ronald D., Le moi divisé (1959)

Ledoux, Joseph E., Le cerveau des émotions (1996), Neurobiologie de la personnalité (2002)

Leibniz, Gottfried Wilhelm, Discours touchant la méthode de la certitude et l’art d’inventer pour finir les disputes et faire en peu de temps de grands progrès (1688-1690), Nouveaux essais sur l'entendement humain (1705)

Lewis, David, Sur la pluralité des mondes (1986)

Locke, John, Essai sur l'entendement humain (1690)

Lorenz, Konrad, Les fondements de l'éthologie (1981)

Maslow, Abraham, Devenir le meilleur de soi-même : besoins fondamentaux, motivation et personnalité (1954)

Minsky, Marvin, La société de l'esprit (1987), The emotion machine (2006)

Newell, Allen & Simon, Herbert A., Human problem solving (1972)

Pascal, Blaise, De l’esprit géométrique et de l’art de persuader (1657)

Peacocke, Christopher, Being known (1999)

Plantinga, Alvin, Warrant and proper function (1993)

Platon, Ménon, Le banquet, Théétète, Le sophiste, Parménide

Popper, Karl R., La logique de la découverte scientifique (1934)

Proust, Marcel, Le temps retrouvé (1927)

Quine, Willard Van Orman, La poursuite de la vérité (1992)

Rawls, John, Théorie de la justice (1971)

Rizzolatti, Giacomo & Sinigaglia, Corrado, Les neurones miroirs (2006)

Rogers, Carl R., Client-centered therapy (1951, traduit dans Psychothérapie et relations humaines)

Rumelhart, David E., McClelland James L. & the PDP Research Group, Parallel distributed processing, Explorations in the microstructure of cognition, 1 : Foundations, 2 : Psychological and biological models (1986)

Russell, Bertrand, Les principes des mathématiques (1903, partiellement traduit dans Écrits de logique philosophique)

Russell, Stuart & Norvig, Peter, Artificial intelligence, a modern approach (2010)

Saussure, Ferdinand de, Cours de linguistique générale (1916)

Sextus Empiricus, Contre les professeurs, Esquisses pyrrhoniennes

Shallice, Tim, From neuropsychology to mental structure (1988), The organisation of mind (2011, avec Richard P. Cooper)

Shapiro, Stewart, Philosophy of Mathematics: Structure and Ontology (1997), Thinking about Mathematics: The Philosophy of Mathematics (2000)

Shoemaker, Sidney, Causality and properties (1980, in Peter van Inwagen (ed.), Time and Cause)

Smith, John Maynard, Szathmary, Eörs, Les origines de la vie (1999)

Smullyan, Raymond M., Theory of formal systems (1961)

Spinoza, Baruch, Éthique (1677)

Tarski, Alfred, Le concept de vérité dans les langages formalisés (1933, édité dans Logique, sémantique, métamathématique)

Thorne, Kip S., Blandford, Roger D., Modern classical physics (2017)

Tinbergen, Nikolaas, L'étude de l'instinct (1951)

Turing, Alan, On computable numbers (1936), Computing machinery and intelligence (1950, Mind, vol. 59, n°236)

Voltaire, Candide (1759)

Weber, Max, Essais sur la théorie de la science (1904-1917)

White, Michael, Epston, David, Narrative means to therapeutic ends (1990)

Wigner, Eugene P., The unreasonable effectiveness of mathematics in the natural sciences (1960, Comm. Pure Appl. Math., 13).

Wittgenstein, Ludwig, Recherches philosophiques (1953)

Wolpert, Lewis, Tickle, Cheryll & Martinez Arias, Alfonso, Principles of development (2015)

Young, Jeffrey E., Klosko, Janet S., Je réinvente ma vie (1993), La thérapie des schémas (2003, avec Marjorie E. Weishaar)

Zagzebski, Linda, The lesson of Gettier (in Borges, de Almeida & Klein 2017)

Zermelo, Ernst, Investigations in the foundations of set theory (1908)


Applications

Le savoir épistémologique est appliqué à chaque fois que nous acquérons ou utilisons volontairement du savoir. Pour acquérir du savoir il faut savoir le reconnaître et l'évaluer quand on le trouve, et il faut savoir se donner les moyens de l'acquérir. Le savoir épistémologique est toujours au cœur du savoir. Il accompagne toutes les formes de savoir. Aucune ne peut s'en passer, parce que pour savoir, il faut savoir reconnaître le savoir.

Le savoir épistémologique est de toute première importance pour la recherche et l'évaluation des principes des sciences. Les mathématiciens qui discutent des [principes des mathématiques font un travail qui est en même temps mathématique et épistémologique. Il en va de même pour toutes les autres sciences. La recherche fondamentale est donc une sorte de recherche épistémologique appliquée.

Les applications de l'épistémologie peuvent être très concrètes. Dans tous les domaines pratiques où l'acquisition et l'utilisation d'un bon savoir sont d'une importance cruciale, donc à peu près toujours, un solide savoir épistémologique peut faire la preuve de son utilité. La pédagogie et la thérapie cognitive sont directement concernées, mais plus généralement la plupart des enjeux importants pour les êtres humains dépendent de nos capacités à acquérir et utiliser collectivement le savoir : la santé publique, l'écologie, l'économie et la finance, la justice et la démocratie, la vérité et le mensonge dans les médias, la fiabilité et la sécurité des équipements ...

L'intelligence artificielle est aussi une application de l'épistémologie, parce qu'on peut développer de nouvelles techniques en imitant la vie.


L'instinct, l'apprentissage et la mémoire

Qu'est-ce que l'apprentissage ?[modifier | modifier le wikicode]

Un agent a un savoir-faire lorsqu'il est capable de s'adapter à son environnement pour atteindre ses fins. Un savoir-faire est un comportement intelligent, ou une capacité à se comporter intelligemment.

Un savoir-faire est instinctif lorsqu'il est commun à tous les individus d'une même espèce et qu'il fait partie de leurs traits phylogénétiques, c'est à dire qu'il est transmis par une hérédité biologique commune (Lorenz 1981, Tinbergen 1951). Un tel savoir-faire apparaît naturellement au cours du développement normal des individus de l'espèce. C'est un savoir inné, même s'il se manifeste seulement longtemps après la naissance.

Pour qu'un savoir soit appris il faut que son acquisition passe par la mémorisation des expériences. Pour que les animaux soient capables d'apprendre il faut que leurs systèmes nerveux sont capables de conserver des traces de ce qu'ils ont vécu. Ce critère ne suffit pas pour distinguer l'appris de l'instinctif, parce qu'à peu près tous les comportements instinctifs apparaissent à la suite d'une période de maturation cérébrale, pendant laquelle l'expérience détermine la constitution des circuits neuronaux. La régulation des battements du cœur, par exemple, est instinctive, mais l'expérience des premiers battements est cruciale pour le développement ultérieur des réseaux de neurones qui les réguleront. De façon générale le développement du système nerveux est épigénétique, c'est à dire qu'il n'est pas déterminé seulement par les gènes mais aussi et surtout par l'expérience. En particulier, les synapses peuvent être modifiées par les signaux qu'elles transmettent. De cette façon une expérience de stimulation d'un réseau peut être déterminante pour son développement ultérieur. De même qu'en forgeant on devient forgeron, on devient capable de vivre en vivant.

Pour comprendre la différence entre l'inné et l'acquis, il faut considérer les différences de comportement. Celles-ci ont parfois une explication génétique, parce qu'il y a de petites différences génétiques entre les individus d'une même espèce. Mais le plus souvent les différences de comportement sont causées seulement, ou surtout, par des différences d'expérience. Nous disons alors qu'elles sont acquises ou apprises. Un comportement est appris lorsque ses particularités dépendent des particularités de l'expérience antérieure et non d'un héritage génétique. Pour nous les comportements appris sont les plus importants, parce que nos facultés naturelles et nos talents particuliers ne sont rien si nous n'apprenons pas à les développer.

L'instinct d'apprendre[modifier | modifier le wikicode]

Les facultés animales d'apprentissage sont elles-mêmes d'origine instinctive. Le savoir-apprendre est un savoir-faire et pour qu'il y ait apprentissage il faut qu'il y ait au préalable un savoir-apprendre instinctif. Nous pouvons apprendre à apprendre et donc acquérir du savoir-apprendre, mais nous ne pourrions pas apprendre si nous n'avions pas naturellement la capacité d'apprendre. Cet instinct d'apprendre repose sur la capacité des systèmes nerveux à profiter de leur expérience pour orienter leur développement.

La plasticité neuronale[modifier | modifier le wikicode]

Pour qu'il y ait mémorisation il faut un matériau plastique, c'est à dire capable de conserver des traces de son expérience (plastique s'oppose ici à élastique : un matériau élastique ne conserve pas de traces des déformations qu'il subit). Il semble que la plasticité des neurones est surtout celles de leurs synapses. L'expérience de transmission des signaux peut renforcer ou affaiblir une synapse (Kandel 1999). Elle peut également conduire à la formation d'autres synapses voisines qui connectent les mêmes neurones. De cette façon l'expérience des neurones modifie leur connectivité. De nouveaux réseaux peuvent être formés et de nouvelles fonctionnalités peuvent apparaître. Dans le même temps de nombreux neurones disparaissent, vraisemblablement parce qu'ils n'ont pas fait les preuves de leur utilité, parce que leurs synapses n'ont pas été renforcées par l'expérience.

Donald Hebb a proposé une règle simple qui explique de nombreux apprentissages neuronaux : deux neurones connectés renforcent leur connexion lorsqu'ils sont excités ensemble. C'est une sorte de renforcement par la réussite : lorsqu'un neurone A transmet un signal d'excitation à un autre neurone B, il n'est pas sûr de réussir. L'excitation de A à elle-seule n'est pas forcément suffisante pour déclencher l'excitation de B. Souvent il faut plusieurs signaux d'excitation en provenance d'autres neurones que A pour que B soit excité. La règle de Hebb énonce qu'une synapse d'un neurone excitateur est récompensée par la réussite. Elle est renforcée lorsque le neurone visé est vraiment excité.

Le développement des instincts[modifier | modifier le wikicode]

Pour qu'il y ait un savoir-faire il faut qu'il y ait un réseau de neurones fonctionnel, c'est à dire capable de se servir des signaux de la perception pour donner les signaux d'action appropriés. Le savoir-faire instinctif n'est pas appris, mais il est tout de même acquis, au sens où il apparaît au cours du développement naturel de l'individu. Comment les gènes peuvent-ils contrôler le développement d'un réseau de neurones fonctionnel ?

Le mystère du contrôle génétique du développement de l'organisme et de son système nerveux est partiellement élucidé : les gènes contrôlent le métabolisme (la synthèse et la dégradation des molécules de l'organisme) par l'intermédiaire de la synthèse des ARN et des protéines. La différenciation cellulaire dépend de l'activation de gènes particuliers qui synthétisent des protéines spécifiques au type cellulaire. Les gènes contrôlent la différenciation cellulaire en contrôlant la synthèse des ARN ou des protéines qui activent ou inhibent des gènes. Les propriétés des cellules et leurs interactions dépendent de leur type cellulaire. Les gènes peuvent ainsi contrôler la prolifération, la différenciation et la migration de toutes les cellules de l'organisme lors de son développement (Wolpert, Tickle & Martinez 2015). Pour les cellules nerveuses, ils peuvent aussi déterminer la migration des terminaisons de leurs axones et construire ainsi des réseaux de neurones. Mais ils ne contrôlent ainsi que le plan d'ensemble du système. La structure fine des connexions entre neurones est épigénétique, elle dépend de l'expérience. Là encore les gènes peuvent exercer une influence sur le développement, parce que la plasticité des synapses, la façon dont elles réagissent aux divers signaux qu'elles reçoivent, peut varier en fonction du type cellulaire.

La mémoire procédurale[modifier | modifier le wikicode]

La mémoire procédurale est la mémoire d'un savoir-faire appris. L'apprentissage d'un savoir-faire consiste à construire un réseau de neurones fonctionnel. Tant que le réseau est conservé, et qu'il reste fonctionnel, le savoir-faire est conservé. La mémoire procédurale est donc la conservation des réseaux de neurones fonctionnels construits par un apprentissage.

Un modèle neuronal pour la mémoire épisodique : les zones de convergence-divergence[modifier | modifier le wikicode]

La mémoire épisodique est la mémoire des souvenirs. Quand on se souvient on simule par l'imagination une expérience qu'on a déjà vécue. Comment un réseau de neurones peut-il accomplir une telle performance, enregistrer une expérience, la conserver et la reproduire par l'imagination ?

Une zone de convergence-divergence (ZCD) est un réseau de neurones, qui reçoit des projections convergentes en provenance des sites dont l'activité doit être mémorisée, et qui renvoie des projections divergentes vers ces mêmes sites (Damasio 1989, 2009). Lorsqu'une expérience est mémorisée, les signaux qui convergent sur la ZCD y excitent des neurones qui renforcent alors leurs connexions réciproques, en suivant la règle de Hebb, et forment ainsi un réseau auto-excitateur. Il suffit alors d'exciter à nouveau le réseau ainsi formé pour reproduire la combinaison de signaux initialement reçus. Dans un réseau auto-excitateur l'excitation d'une partie se propage à toutes les autres. De même un fragment de souvenir suffit pour réveiller l'intégralité d'une expérience mémorisée (Proust 1927). Une ZCD peut être ainsi un lieu d'enregistrement et de reproduction des souvenirs.

En plus des voies convergentes-divergentes, une ZCD peut être connectée au reste du cerveau de toutes les façons imaginables, par des signaux en entrée qui l'activent ou l'inhibent, et des signaux en sortie avec lesquels elle fait son effet sur le reste du système. En particulier les ZCD peuvent s'organiser en une arborescence. Une ZCD peut recruter en entrée des voies convergentes issues de nombreuses autres ZCD. Elle peut ainsi faire une synthèse des capacités de détection et de production de toutes les ZCD ainsi recrutées.

Pour faire un modèle du système des ZCD, on distingue dans le système nerveux une partie périphérique et une partie centrale. La périphérie réunit les régions dédiées à la perception, à l'émotion et à l'action. L'arborescence des ZCD est organisée d'une façon hiérarchique, de la périphérie vers le centre. Les ZCD les plus périphériques ont des voies convergente issues directement de la périphérie. On se rapproche du centre en remontant les arborescences de ZCD. On peut songer à des racines qui plongent dans la terre, la périphérie, et qui se rapprochent de la base du tronc, le centre. Mais dans le cerveau, il y a de très nombreux centres. Les ZCD les plus centrales ont des voies convergentes issues d'autres ZCD, et ne sont pas recrutées par des ZCD plus centrales. Le souvenir d'un épisode de notre vie pourrait être conservé par une telle ZCD centrale. Lorsque nous revivons les perceptions, les émotions et les actions d'une expérience passée, l'excitation de cette ZCD centrale activerait toutes les ZCD subordonnées, jusqu'aux aires périphériques, et simulerait ainsi l'expérience préalablement vécue.

Apprendre à percevoir[modifier | modifier le wikicode]

La perception est évidemment nécessaire pour agir sur le présent. Mais son effet ne s'arrête pas aux actions sur l'environnement perçu, parce que nous apprenons en permanence à partir de ce que nous percevons ou imaginons. Chaque expérience, réelle ou imaginaire, peut modifier nos façons de percevoir et d'imaginer.

Les réseaux de neurones dédiés à la perception de bas niveau, proche des organes sensoriels, sont vraisemblablement peu modifiables par l'expérience, dès qu'ils ont fini leur période de maturation initiale. Une fois qu'ils sont fonctionnels, ils ne doivent plus être modifiés, ou seulement un peu, parce qu'ils sont devenus nécessaires à l'accomplissement des fonctions de niveau supérieur. Si on modifie un réseau de bas niveau, on risque de perturber tous les réseaux de niveau supérieur qui se servent de lui.

Les agitations intérieures ressemblent parfois un peu aux mouvements d'un fluide, comme s'il y avait des forces de pression qui nous poussent à pervevoir, ou à imaginer. Pour expliquer comment nos expériences nous transforment on peut alors songer à la façon dont une rivière creuse son lit, au modelage des dunes par le vent, et plus généralement aux façons dont l'air, l'eau, ou tout autre fluide, peuvent modifier les solides au contact desquels ils s'écoulent. Les influx nerveux sont comme des courants fluides, les réseaux de neurones sont comme des canalisations dans lesquels ils s'écoulent et qu'ils peuvent creuser, élargir ou obstruer. Bien sûr ce n'est qu'une analogie. Les influx nerveux sont des courants électriques dans les neurones et à travers leurs membranes. Ils "creusent leur lit" dans les réseaux principalement en agissant sur leurs synapses.

Ce modèle de mémorisation fluide, où les influx nerveux peuvent modifier en permanence les voies dans lesquelles ils s'écoulent, ne peut pas suffire pour expliquer comment nous sommes transformés par nos expériences, parce qu'il donne une trop grande importance à l'oubli. Chaque nouvelle expérience pourrait effacer les traces laissées par les anciennes. Les souvenirs seraient comme des traces sur le sable d'une plage balayée par les vagues.

Notre mémoire fonctionne souvent d'une façon accumulative. Les souvenirs, les compétences et toutes les informations mémorisées sont acquis et conservés indépendamment les uns des autres. En général les nouveaux items mémorisés n'effacent pas les plus anciens. Comment les cerveaux développent de telles facultés de mémorisation est assez mystérieux. Les ZCD, qui requièrent au minimum la constitution d'un nouveau réseau, avec des neurones jusque là inutilisés, pour chaque nouvel item mémorisé, sont probablement une partie de l'explication, mais seulement une partie.

Nous apprenons à percevoir et à imaginer en apprenant à faire des inférences muettes à partir des informations fournies par les sens. Quand on mémorise une inférence muette, on retient une combinaison entre une condition et une conséquence. Pour cela il suffit en principe de conserver une liaison excitatrice entre le réseau qui représente la condition et celui qui représente la conséquence. Comme nos facultés d'inférence se développent d'une façon cumulative, il faut supposer que nos cerveaux savent construire de telles liaisons sans modifier les anciennes, qu'ils ont une mémoire qui ressemble parfois à celle des ordinateurs, où les liaisons entre les conditions, c'est à dire les adresses en mémoire, et les conséquences, les contenus conservés à ces adresses, sont apprises d'une façon cumulative.

Une expérience vécue réunit toujours de très nombreux éléments, d'une façon qui peut sembler parfois très désordonnée. Pour que l'inférence d'une condition à une conséquence soit légitime il ne suffit pas qu'elles aient été réunies lors d'une expérience, parce que leur association pourrait être fortuite. Comment reconnaissons-nous les inférences légitimes, celles qui augmentent vraiment notre savoir ? Par exemple de nombreux animaux savent identifier la cause de leur malaise s'ils ont ingéré un mauvaise nourriture. Qu'ils évitent d'en manger à nouveau montre qu'ils ont identifié correctement la source de leur souffrance. Mais comment font-ils ? De nombreuses autres perceptions ont précédé leur malaise. Pourquoi sélectionnent-ils comme cause précisément la nourriture et non les autres perceptions qui faisaient elles aussi partie de la même expérience ?

La perception ne s'arrête pas à la sensation. Elle construit des modèles de la réalité qui vont au delà du savoir fourni directement par les sens et qui guident l'identification des relations de condition à conséquence. Par exemple, nous reconnaissons les objets solides et leur attribuons spontanément des qualités de permanence. Nous savons qu'ils ne disparaissent pas et que leur forme reste inchangée, tant qu'il n'y a pas de cause capable de les faire disparaître ou de les déformer. Cette connaissance de la solidité est une source inépuisable d'inférences muettes, avec lesquelles nous connaissons le futur, le présent qui n'est pas perçu par les sens, et le passé qu'on n'a pas vécu. De façon générale nous savons naturellement percevoir des qualités de permanence, des relations de causalité, ou d'autres qualités et relations qui conduisent à des inférences légitimes. Nous savons naturellement identifier des causes et des effets, nous savons reconnaître ce qui agit et ce qui subit, nous percevons des traces et des signes annonciateurs... De telles facultés de perception alliées à la mémoire épisodique permettent de développer l'imagination déductive.

Nous savons instinctivement percevoir la causalité, ou d'autres qualités et relations qui conduisent à des inférences légitimes, seulement dans des cas simples, comme la solidité, l'action par contact ou la nourriture comme cause de malaise. De façon générale, l'identification correcte des inférences légitimes est un problème très difficile que notre savoir instinctif n'est pas capable de résoudre à lui seul. De fait nous sommes naturellement portés à percevoir des relations causales là où il n'y en a pas. Toutes les formes de superstition et de divagation montrent que nos facultés naturelles de perception de la causalité sont d'une fiabilité très limitée.


Principes logiques

Un raisonnement est logique lorsque toutes ses affirmations, sauf les hypothèses, sont des conséquences logiques évidentes des hypothèses qui les précèdent. De cette façon un raisonnement logique prouve que sa conclusion est une conséquence logique de ses prémisses. Les principes logiques sont des règles fondamentales qui déterminent toutes les relations de conséquence logique évidentes, et à partir de là toutes les relations de conséquence logique.

Conséquence nécessaire et possibilité logique[modifier | modifier le wikicode]

La relation de conséquence logique peut être définie à partir de la possibilité logique :

C est une conséquence logique de prémisses P lorsqu'il n'y a aucun monde logiquement possible tel que C soit fausse et les P soient vraies.

Une conséquence logique ne peut pas être fausse si les prémisses sont vraies. La relation de conséquence logique conduit nécessairement du vrai au vrai.

Pour définir un monde logiquement possible on se donne des propriétés et des relations fondamentales et un ensemble d’individus auxquels on peut attribuer ces propriétés et ces relations. Un énoncé est atomique lorsqu’il affirme une propriété fondamentale d’un individu ou une relation fondamentale entre plusieurs individus. Un énoncé atomique ne peut pas être décomposé en énoncés plus petits. N'importe quel ensemble d'énoncés atomiques détermine un monde logiquement possible tel qu'ils sont tous vrais et les seuls énoncés atomiques vrais (Keisler 1977). Un ensemble d'énoncés atomiques n'est jamais contradictoire parce que les énoncés atomiques ne contiennent pas de négation.

La vérité des énoncés composés[modifier | modifier le wikicode]

Les énoncés à propos d'un monde logiquement possible sont composés à partir d'énoncés atomiques avec des connecteurs logiques. Les principaux connecteurs logiques sont la négation non, la disjonction ou, la conjonction et, le conditionnel si alors, le quantificateur universel pour tout x, ou tout x est tel que, et le quantificateur existentiel il existe un x tel que.

Quand un énoncé est composé à partir d'énoncés atomiques avec des connecteurs logiques, sa vérité ne dépend que du monde logiquement possible considéré, parce que la vérité d'un énoncé composé ne dépend alors que de la vérité des énoncés à partir desquels il est composé.

La vérité des énoncés composés avec la négation, la disjonction, la conjonction et le conditionnel est déterminée avec des tables de vérité :

Négation
p non p
Vrai Faux
Faux Vrai


Disjonction
p q p ou q
Vrai Vrai Vrai
Vrai Faux Vrai
Faux Vrai Vrai
Faux Faux Faux
Conjonction
p q p et q
Vrai Vrai Vrai
Vrai Faux Faux
Faux Vrai Faux
Faux Faux Faux
Conditionnel
p q Si p alors q
Vrai Vrai Vrai
Vrai Faux Faux
Faux Vrai Vrai
Faux Faux Vrai

La vérité des énoncés composés avec les quantificateurs universel et existentiel est déterminée par les deux règles suivantes :

Pour tout x, p(x) est vrai lorsque tous les énoncés p(i) obtenus à partir de p(x) en substituant un nom d'individu i à toutes les occurrences de x dans p(x) sont vrais, et faux sinon.

Il existe un x tel que p(x) est vrai lorsqu'au moins un énoncé p(i) obtenu à partir de p(x) en substituant un nom d'individu i à toutes les occurrences de x dans p(x) est vrai, et faux sinon.

L'interdéfinissabilité des connecteurs logiques[modifier | modifier le wikicode]

Les connecteurs logiques peuvent être définis les uns à partir des autres. Par exemple le quantificateur existentiel peut être défini à partir du quantificateur universel et de la négation :

Il existe un x tel que p veut dire qu'il est faux que tout x est tel que non p, autrement formulé, non(pour tout x non p).

On peut aussi adopter la définition inverse :

Pour tout x, p veut dire qu'il est faux qu'il existe un x tel que non p, c'est à dire, non(il existe un x tel que non p).

De même on peut définir la disjonction à partir de la conjonction, ou l'inverse :

p ou q veut dire non(non p et non q)

p et q veut dire non(non p ou non q)

Le conditionnel peut être défini à partir de la conjonction ou de la disjonction :

Si p alors q veut dire non(p et non q)

Si p alors q veut dire aussi q ou non p

Le biconditionnel si et seulement si peut être défini à partir du conditionnel et de la conjonction :

p si et seulement si q veut dire (si p alors q) et (si q alors p)

Il peut aussi être défini à partir des autres connecteurs :

p si et seulement si q veut dire (p et q) ou (non p et non q)

ou encore :

p si et seulement si q veut dire non( (p et non q) ou (non p et q) )

On pourrait aussi introduire le connecteur logique ni ni et définir tous les autres connecteurs à partir de lui :

non p veut dire ni p ni p

p et q veut dire ni non p ni non q

p ou q veut dire non(ni p ni q)

Si p alors q veut dire non(ni non p ni q)

p si et seulement si q veut dire ni (p et non q) ni (non p et q)

Les règles fondamentales de déduction[modifier | modifier le wikicode]

Toutes les relations de conséquence logique peuvent être produites avec un petit nombre de règles fondamentales de déduction à partir de conséquences logiques triviales, évidemment tautologiques, qui sont données par la règle de répétition :

Toute prémisse incluse dans une liste finie P de prémisses est une conséquence logique des prémisses P.

Pour chaque connecteur logique on a deux règles fondamentales de déduction, une règle d'élimination et une règle d'introduction (Gentzen 1934, Fitch 1952). La logique ressemble à un jeu de construction. On compose et on décompose les énoncés en introduisant et en éliminant des connecteurs logiques.

Les règles fondamentales de déduction sont intuitivement évidentes, dès qu'on a compris les concepts de conséquence et de possibilité logiques et la détermination de la vérité des énoncés composés à partir des connecteurs logiques. On peut prouver rigoureusement la vérité de ces intuitions.

La règle de répétition et les règles fondamentales de déduction peuvent être considérées comme les principes des principes logiques, parce qu'elles suffisent pour justifier tous les autres principes logiques.

Comme trois (ou même deux) connecteurs logiques suffisent pour définir tous les autres, six (ou même quatre) règles fondamentales de déduction suffisent pour produire toutes les relations de conséquence logique, avec la règle de répétition et la règle de transitivité. On peut choisir par exemple la négation, la conjonction et le quantificateur universel comme connecteurs logiques fondamentaux. Toutes les règles de déduction pour les autres connecteurs logiques peuvent alors être dérivées à partir des six règles des trois connecteurs fondamentaux et du principe de transitivité des conséquences logiques :

Si C est une conséquence logique des prémisses Q et si toutes les prémisses Q sont des conséquences logiques des prémisses P alors C est une conséquence logique des prémisses P.

La règle de particularisation[modifier | modifier le wikicode]

Si i est un individu alors E(i) est une conséquence logique de pour tout x, E(x).

E(i) est l'énoncé obtenu à partir de E(x) en substituant i à toutes les occurrences de x dans E(x).

Cette règle est la plus importante de toute la logique, parce que la puissance des raisonnements vient des lois avec lesquelles on raisonne. A chaque fois qu'on applique une loi à un individu, on apprend ce qu'elle nous enseigne et on révèle la puissance de raisonner qu'elle nous donne.

La règle de généralisation[modifier | modifier le wikicode]

Si E(i) est une conséquence logique des prémisses P et si i est un individu qui n'est pas mentionné dans ces prémisses alors pour tout x, E(x) est une conséquence logique des mêmes prémisses.

Un exemple d'usage de cette règle est le Je philosophique, ou cartésien. On dit Je sans faire aucune hypothèse particulière sur l'individu ainsi nommé. Dès lors tout ce qu'on dit sur lui peut être appliqué à tous les individus. Si par exemple on a prouvé Je ne peux pas penser sans connaître que je suis on peut déduire Tout individu ne peut pas penser sans connaître qu'il est.

La règle de détachement[modifier | modifier le wikicode]

B est une conséquence logique de A et Si A alors B.

La règle d'incorporation d'une hypothèse[modifier | modifier le wikicode]

Si B est une conséquence logique des prémisses P et A, alors Si A alors B est une conséquence logique des prémisses P.

Le principe du raisonnement par l'absurde[modifier | modifier le wikicode]

Si B et non B sont des conséquences logiques des prémisses P et A, alors non A est une conséquence logique des prémisses P.

La règle de suppression de la double négation[modifier | modifier le wikicode]

A est une conséquence logique de non non A.

La règle d'analyse[modifier | modifier le wikicode]

A et B sont toutes les deux des conséquences logiques de l'unique prémisse A et B.

La règle de synthèse[modifier | modifier le wikicode]

A et B est une conséquence logique des deux prémisses A et B.

La règle d'affaiblissement d'une thèse[modifier | modifier le wikicode]

A ou B et B ou A sont toutes les deux des conséquences logiques de A.

La règle d'élimination d'une disjonction[modifier | modifier le wikicode]

Si A ou B est une conséquence logique des prémisses P, si C est à la fois une conséquence logique des prémisses P et A, et une conséquence logique des prémisses P et B, alors C est une conséquence logique des prémisses P.

La règle de la preuve directe d'existence[modifier | modifier le wikicode]

Si i est un individu, alors Il existe un x tel que E(x) est une conséquence logique de E(i).

Dans la règle de la preuve directe d'existence, E(x) est l'énoncé obtenu en substituant x à certaines, pas forcément toutes les occurrences de i dans E(i).

La règle d'élimination du quantificateur existentiel[modifier | modifier le wikicode]

Si Il existe un x tel que E(x) est une conséquence logique des prémisses P, si C est est une conséquence logique des prémisses P et E(i), si l'individu i n'est mentionné ni dans les P, ni dans C, alors C est une conséquence logique des prémisses P.

Les raisonnements sans hypothèse et les lois logiques[modifier | modifier le wikicode]

Les règles fondamentales de déduction peuvent être appliquées même si P est une liste vide de prémisses, c'est à dire qu'on n'a posé aucune hypothèse au départ. La règle d'incorporation d'une hypothèse et la règle du raisonnement par l'absurde permettent de passer d'un raisonnement sous hypothèse à un raisonnement sans hypothèse.

Les conclusions des raisonnements sans hypothèse sont des vérités logiques universelles, toujours vraies quelle que soit l'interprétation des concepts qu'elles mentionnent, sauf l'interprétation des connecteurs logiques. On les appelle des lois logiques, ou des tautologies.

Quelques exemples de lois logiques :

La tautologie pure : Si p alors p

Comme p est une conséquence logique de p d'après la règle de répétition, si p alors p est une loi logique d'après la règle d'incorporation d'une hypothèse.

Le principe de non-contradiction : non (p et non p)

p et non p sont toutes les deux des conséquences logiques de p et non p d'après la règle d'analyse, non (p et non p) est donc une loi logique d'après le principe du raisonnement par l'absurde.

La loi du tiers-exclu : p ou non p

p est nécessairement vrai ou faux. Il n'y a pas de troisième possibilité.

Supposons que la loi du tiers exclu puisse être fausse :

(1) Hypothèse : non (p ou non p)

  • (2) Hypothèse : p
  • (3) Conséquence : p ou non p d'après (2) et la règle d'affaiblissement d'une thèse.
  • (4) Conséquence : non (p ou non p) d'après (1) et la règle de répétition.

(5) Conséquence : non p d'après (3), (4) et le principe du raisonnement par l'absurde.

(6) Conséquence : p ou non p d'après (5) et la règle d'affaiblissement d'une thèse.

(7) Conséquence : non (p ou non p) d'après (1) et la règle de répétition.

(8) non non (p ou non p) d'après (6), (7) et le principe du raisonnement par l'absurde.

p ou non p d'après (8) et la règle de suppression de la double négation.

Toutes les règles de déduction, fondamentales ou dérivées, peuvent être traduites en lois logiques, parce que si C est une conséquence logique des prémisses P alors Si la conjonction des P alors C est une loi logique. Par exemple, Si A et si A alors B, alors B est une loi logique qui traduit la règle de détachement.

La dérivation des conséquences logiques[modifier | modifier le wikicode]

Les règles fondamentales de déduction suffisent pour dériver toutes les relations de conséquence logique et toutes les lois logiques. C'est le théorème de complétude de la logique du premier ordre, prouvé par Kurt Gödel, dans sa thèse de doctorat (Gödel 1929, qui raisonne sur un système formel différent mais équivalent). Les règles fondamentales de déduction sont donc une solution complète à l'ancien problème, posé mais non résolu par Aristote, de trouver une liste de tous les principes logiques.

Montrons par exemple que Si A alors C est une conséquence logique de Si A alors B et Si B alors C.

(1) Hypothèses : Si A alors B, Si B alors C

  • (2) Hypothèse : A
  • (3) Conséquence : B d'après (1), (2) et la règle de détachement.
  • (4) Conséquence : C d'après (1), (3) et la règle de détachement.

Conséquence : Si A alors C d'après (4) et la règle d'incorporation d'une hypothèse.

Autre exemple, la règle de contraposition : si non q alors non p est une conséquence logique de si p alors q.

(1) Hypothèse : si p alors q

  • (2) Hypothèse : non q
    • (3) Hypothèse : p
    • (4) Conséquence : q d'après (1), (3) et la règle de détachement.
    • (5) Conséquence : non q d'après (2) et la règle de répétition.
  • (6) Conséquence : non p d'après (4),(5) et le principe du raisonnement par l'absurde.

Conséquence : si non q alors non p d'après (6) et la règle d'incorporation d'une hypothèse.

Pourquoi les raisonnements nous permettent-ils d'acquérir du savoir ?[modifier | modifier le wikicode]

Lorsqu'un raisonnement est logique, la conclusion ne peut pas apporter plus d'informations que celles qui sont déjà données par les prémisses. Sinon le raisonnement n'est pas logique, parce que la conclusion pourrait être fausse quand les prémisses sont vraies. Les conclusions logiques ne sont jamais que des reformulations de ce qui est déjà dit dans les prémisses. De fait de nombreux raisonnements ne nous apprennent rien, parce que la conclusion ne fait que répéter les prémisses, sous une forme légèrement différente. On dit alors qu'ils sont tautologiques. Ce sont des variations sur le thème "c'est comme ça parce que c'est comme ça".

Au sens précis défini par les logiciens, les tautologies sont les lois logiques, les lois toujours vraies quelle que soit l'interprétation donnée aux termes employés (les connecteurs logiques exceptés). Lorsqu'un raisonnement est logique, l'énoncé 'si les prémisses alors la conclusion' est toujours une tautologie, au sens des logiciens.

Les conclusions ne font que répéter ce qui est déjà dit dans les prémisses. Les raisonnements doivent être tautologiques pour être logiques. Mais alors à quoi bon raisonner ? Il semble que les raisonnements n'ont rien à nous apprendre.

La puissance d'un raisonnement vient de la généralité de ses prémisses. Si on réduit la logique au calcul des propositions (il suffit de conserver tous les principes logiques sauf ceux qui portent sur les quantificateurs universel et existentiel), une logique dans laquelle les énoncés ne sont jamais généraux, parce qu'on n'a pas le quantificateur universel, alors oui, le caractère tautologique de nos raisonnements est généralement assez évident. Quand il ne l'est pas, c'est parce que nos intuitions logiques sont limitées. Le calcul des propositions nous sert surtout à reformuler nos affirmations. Cela peut être très utile, parce que la compréhension dépend de la formulation, mais cela n'explique pas pourquoi les raisonnements nous font connaître ce que nous ne savons pas déjà.

Un énoncé est une loi lorsqu'il peut être appliqué à de nombreux cas particuliers. Il peut toujours être mis sous la forme :

Pour tout x dans D, E(x)

Autrement dit :

Pour tout x, si x est dans D alors E(x)

D est le domaine d'application de la loi. E(x) est un énoncé sur x.

Tous les énoncés de la forme E(i), où i nomme un élément de D et E(i) est l'affirmation obtenue à partir de E(x) en substituant partout i à x, sont des conséquences logiques évidentes de la loi. E(i) est un cas particulier de la loi.

Quand nous apprenons une loi, nous connaissons au départ seulement un ou quelques cas particuliers. Nous ne pouvons pas songer à tous les cas particuliers, parce qu'ils sont trop nombreux. A chaque fois que nous appliquons une loi déjà connue à un cas particulier auquel nous n'avons pas songé auparavant, nous apprenons quelque chose.

Une loi est comme un condensé d'informations. En un seul énoncé elle détermine une foule d'informations sur tous les cas particuliers auxquels elle peut être appliquée. Lorsque nous raisonnons avec des lois ce que nous découvrons n'est pas déjà dit dans les prémisses, il est seulement impliqué de façon implicite. Les raisonnements nous font découvrir tout ce que les lois peuvent nous enseigner.

La justification de la logique[modifier | modifier le wikicode]

Nous reconnaissons un raisonnement logique en vérifiant qu'il respecte les principes logiques. Mais comment reconnaissons-nous les principes logiques ? Comment savons-nous qu'ils sont de bons principes ? Comment les justifions-nous ? Sommes-nous vraiment sûrs qu'ils conduisent toujours à des conclusions vraies à partir de prémisses vraies ?

Avec les principes de la définition de la vérité des énoncés composés, on peut prouver que nos principes logiques sont vrais, au sens où ils font toujours passer du vrai au vrai. Par exemple, il suffit de raisonner sur la table de vérité du conditionnel pour prouver la vérité de la règle de détachement.

Un sceptique pourrait objecter que ces justifications des principes logiques sont sans valeur parce qu'elles sont circulaires. Quand nous raisonnons sur les principes logiques pour les justifier, nous nous servons des mêmes principes que ceux que nous devons justifier. Si nos principes étaient faux, ils permettraient de prouver des faussetés et donc ils pourraient permettre de prouver leur propre vérité. Que les principes logiques permettent de prouver leur vérité ne prouve donc pas qu'ils sont vrais, puisque des principes faux pourraient faire la même chose.

Cette objection n'est pas concluante. Il suffit d'examiner les preuves suspectes de circularité pour se convaincre de leur validité, tout simplement parce qu'elles sont excellentes et irréfutables. Aucun doute n'est permis parce que tout y est clairement défini et prouvé. Un sceptique peut faire remarquer avec raison que de telles preuves ne peuvent convaincre que ceux qui sont déjà convertis. Mais dans ce cas il n'est pas difficile de faire partie des convertis, parce que les principes logiques ne font que formuler ce que nous savons déjà quand nous raisonnons correctement.

La circularité des principes logiques est particulièrement apparente pour la règle de particularisation :

Pour tout énoncé E(x) et tout individu i, E(i) est une conséquence logique de pour tout x, E(x). (1)

Par exemple, Si Socrate est un homme alors Socrate est mortel est une conséquence logique de Pour tout x, si x est un homme alors x est mortel. (2)

Pour passer de (1) à (2), on a appliqué la règle de particularisation deux fois à elle-même. L'énoncé E(x) est particularisé en Si x est un homme alors x est mortel, l'individu i est particularisé en Socrate.

Le paradoxe de Lewis Caroll[modifier | modifier le wikicode]

Grâce à la règle de détachement, on peut déduire B à partir de A et si A alors B. Une règle plus complète devrait donc être qu'on peut déduire B à partir de A, si A alors B et la règle de détachement. Mais cette règle n'est pas encore complète. Une règle plus complète, mais encore incomplète, est qu'on peut déduire B à partir de A, si A alors B, la règle de détachement et la règle qui nous dit qu'on peut déduire B à partir de A, si A alors B et la règle de détachement. Mais il faudrait encore une autre règle qui nous dit qu'on peut appliquer la règle précédente, et ainsi de suite à l'infini (Carroll 1895).

Si la règle de détachement était elle-même une hypothèse qu'on doit mentionner dans nos preuves, et à partir de laquelle on déduit nos conclusions, alors nos raisonnements ne pourraient jamais commencer, parce qu'il faudrait une seconde règle qui justifie les déductions à partir de la règle de détachement, puis une troisième qui justifie les déductions à partir de la seconde, et ainsi de suite à l'infini. Mais les lois logiques ne sont pas des hypothèses. On a toujours le droit de les adopter comme prémisses, sans autre justification sinon qu'elles sont des lois logiques, parce qu'elles ne peuvent pas être fausses, parce qu'elles ne peuvent pas nous conduire à l'erreur.

Le savoir mathématique[modifier | modifier le wikicode]

Tout le savoir mathématique peut être considéré comme un savoir sur les mondes logiquement possibles.

Une théorie est cohérente, ou non-contradictoire, ou consistante, lorsque les contradictions p et non p ne sont pas des conséquences logiques de ses axiomes. Sinon elle est incohérente, contradictoire, inconsistante, absurde.

Une théorie vraie d'un monde logiquement possible est nécessairement cohérente, puisque les contradictions sont fausses dans tous les mondes logiquement possibles.

Une théorie cohérente est vraie d'au moins un monde logiquement possible. C'est le théorème de complétude de Gödel. Si on trouvait une théorie nécessairement fausse, c'est à dire fausse dans tous les mondes logiquement possibles, sans qu'on puisse prouver que ses axiomes conduisent à une contradiction, cela montrerait que notre logique est incomplète, qu'elle ne suffirait pas pour prouver toutes les vérités logiques nécessaires.

Nous développons le savoir mathématique en réfléchissant à nos propres paroles. Les mondes logiquement possibles sont définis par la parole, avec des ensembles d'énoncés atomiques. Connaître ces mondes revient à connaître les paroles qui les définissent. Les mondes mathématiques ne sont rien de plus que ce que nous définissons. Rien n'est caché, parce qu'ils sont notre œuvre. Nous pouvons tout savoir sur eux parce que nous déterminons ce qu'ils sont.

La vérité mathématique est-elle inventée ou découverte ?

Les deux, parce qu'inventer, c'est toujours découvrir une possibilité.

Quand nous inventons, nous modifions l'actuel mais nous ne modifions pas l'espace de tous les possibles. Ce qui est possible est possible quoique nous fassions. Nous agissons souvent pour rendre accessible ce qui auparavant était moins accessible, mais il ne s'agit jamais de rendre possible l'impossible, nous modifions seulement les possibilités relatives à notre situation actuelle. Quand nous rendons impossible le possible, il s'agit là encore de possibilités relatives. L'espace des possibilités absolues, qu'elles soient logiques ou naturelles, ne dépend pas de nous.

Il suffit d'expliquer comment nous raisonnons sur nos propres paroles pour montrer comment nous acquérons un savoir mathématique sur les structures finies, parce qu'elles sont définies avec des ensembles finis d'énoncés atomiques.

Le savoir sur les structures mathématiques infinies est plus difficile à comprendre. Elles sont définies avec des ensembles infinis d'énoncés atomiques. Nous connaissons ces ensembles infinis à partir de leur définition finie. Deux procédés sont fondamentaux pour définir les ensembles infinis :

  • Les constructions par récurrence

On se donne des éléments initiaux et des règles qui permettent d'engendrer de nouveaux éléments à partir des éléments initiaux ou d'éléments déjà engendrés. Par exemple, on peut partir de l'unique élément initial 1 et se donner pour règle d'engendrer (x+y) à partir de x et y. L'ensemble infini est alors défini en disant que c'est l'unique ensemble qui contient tous les éléments initiaux et tous les éléments engendrés par un nombre fini d'applications des règles.

  • La définition de l'ensemble de tous les sous-ensembles

Dès qu'un ensemble x est défini, l'axiome de l'ensemble des parties nous autorise à définir l'unique ensemble qui contient tous les ensembles inclus dans x.

Pour expliquer le savoir mathématique il faut expliquer comment nous sommes capables de raisonner correctement sur les ensembles infinis que nous définissons.


Chapitre suivant >>>


L'incomplétude des principes mathématiques

Kurt Gödel a prouvé, en 1931, que nous ne pouvons pas donner explicitement une liste complète de tous les principes mathématiques. Plus précisément, une liste explicite de principes ne peut jamais suffire pour prouver toutes les vérités mathématiques, même si on se limite aux vérités sur les nombres naturels. C'est le premier théorème d'incomplétude de Gödel. L'incomplétude des principes est nécessaire. Elle ne vient pas de notre manque d'imagination ou de travail. Les mathématiciens sont capables de donner des listes d'axiomes très puissants, qui suffisent en général pour prouver toutes les vérités qu'on souhaite prouver. Mais ces listes sont incomplètes au sens où elles ne suffisent pas pour prouver toutes les vérités mathématiques. Elles peuvent être enrichies avec de nouveaux axiomes plus puissants mais elles ne peuvent jamais être définitivement complétées. Il y aura toujours des vérités mathématiques qu'elles ne permettent pas de prouver.

Ce théorème d'incomplétude est parfois interprété à tort comme une preuve qu'il y a des vérités que nous ne pourrons jamais connaître, qu'il y a des questions sensées auxquelles nous ne pourrons jamais répondre, qu'il y a des solutions que nous ne pourrons jamais trouver. Cette interprétation commet une faute de logique. Gödel a prouvé que pour toute théorie T cohérente et définie par une liste explicite d'axiomes il existe au moins une vérité V que T ne peut pas prouver. Mais cela ne prouve pas qu'il existe une vérité V qu'aucune théorie ne peut prouver. De fait, quand on a trouvé une vérité V improuvable dans une théorie T, il est en général très facile de définir une théorie T+, en ajoutant à T un nouvel axiome, qui permet de prouver V.

Le principe de Hilbert (1930), « Nous devons savoir, nous saurons », tient toujours, même après Gödel. Rien ne permet d'affirmer qu'il y a des vérités mathématiques que nous ne pourrons jamais connaître.

On est en général très étonné la première fois qu'on entend parler du théorème d'incomplétude de Gödel, parce qu'on est habitué à identifier vérité mathématique et prouvabilité. Nous savons qu'un théorème est vrai quand nous savons le prouver. Mais cet étonnement est facilement dissipé quand on comprend qu'une liste explicite d'axiomes ne peut pas suffire pour prouver l'existence de tous les êtres mathématiques, même si on se limite aux plus élémentaires, les nombres naturels et les ensembles de nombres naturels.

Résumé

On commence par prouver le premier théorème d'incomplétude de Gödel d'une façon qui élimine les difficultés techniques et permet de se concentrer sur le cœur de l'argument, un énoncé vrai qui dit de lui-même qu'il est improuvable. Gödel prouve que cet énoncé est vrai sous l'hypothèse où la théorie T qui permet de le formuler est vraie. Mais cette preuve de la vérité de l'énoncé "improuvable" ne peut pas être formalisée dans T. L'énoncé est improuvable à partir des axiomes de T mais il n'est pas absolument improuvable, puisque Gödel a prouvé sa vérité. Pour formaliser cette preuve, on a besoin d'une théorie qui prouve que les axiomes de T sont vrais. Or Tarski a prouvé qu'une théorie ne peut jamais définir un prédicat de vérité pour elle-même. C'est pourquoi la preuve de l'énoncé "improuvable" ne peut pas être formalisée dans T. Plus généralement, une théorie ne permet pas de prouver tous les énoncés vrais qu'elle énonce parce qu'elle ne peut jamais définir assez de prédicats ou d'ensembles pour donner ces preuves. On applique le principe du raisonnement par récurrence aux prédicats ou aux ensembles d'une théorie. Si des prédicats ou des ensembles ne sont pas définis dans la théorie, on ne peut pas s'en servir pour raisonner par récurrence. On peut en conclure que l'incomplétude mathématique est une conséquence de l'indénombrabilité, puisqu'une théorie ne peut jamais définir un nombre indénombrable d'ensembles, et donc qu'il y a toujours des ensembles qu'elle ne peut pas définir.

Le théorème de Cantor, que l'ensemble des ensembles de nombres naturels n'est pas dénombrable, les théorèmes d'incomplétude de la prouvabilité de Gödel, le théorème d'indéfinissabilité de la vérité de Tarski, le paradoxe de l'ensemble de tous les ensembles qui ne sont pas éléments d'eux-mêmes de Russell et les théorèmes d'indécidabilité de Church et Turing sont tous des manifestations de la même incomplétude mathématique.

On présentera les deux principaux systèmes d'axiomes, de Peano et Zermelo, avec lesquels on fonde habituellement les mathématiques. On expliquera pourquoi ils sont vrais, et donc cohérents, et comment le prouver.

On terminera en montrant que l'incomplétude des principes mathématiques n'est finalement pas très étonnante, parce que si on savait trouver toutes les solutions d'un problème indécidable, on aurait une sorte d'omniscience, on saurait comment trouver toutes les solutions de tous les problèmes.


Le premier théorème d'incomplétude de Gödel[modifier | modifier le wikicode]

La preuve ici proposée n'est pas conventionnelle. Gödel raisonne sur une théorie arithmétique. Il montre que les formules peuvent être représentées par des nombres et que les relations de conséquence logique entre formules peuvent alors être représentées par des relations entre des nombres. Toute la difficulté technique de sa preuve vient de là : montrer que les relations logiques entre formules peuvent être déterminées par des relations numériques entre les nombres qui représentent ces formules. On élimine cette difficulté en raisonnant non sur une théorie des nombres mais d'emblée sur une théorie des formules.

Rien n'interdit de faire une théorie qui permet de raisonner sur ses propres formules. Cette façon de faire n'est pas aussi convaincante que celle de Gödel, parce qu'elle ne prouve pas que la théorie des nombres est incomplète mais seulement qu'une bizarre théorie de ses propres formules est incomplète. On pourrait même croire que l'énoncé paradoxal qui est au cœur de la preuve vient seulement de la bizarrerie de la théorie et craindre qu'elle ne soit pas cohérente, donc pas une bonne théorie mathématique. Cette crainte n'est pas fondée. Si on s'y prend correctement, il est facile de faire une théorie mathématique vraie et donc cohérente qui énonce des vérités sur ses propres formules. C'est la façon la plus facile et la plus rapide de prouver l'incomplétude mathématique. Mais cela ne suffit pas pour prouver l'incomplétude de la théorie des nombres.

La preuve qui suit est identique à celle de Gödel, sauf sur un point, qu'on raisonne sur une théorie des formules, et donc que les formules ne sont pas représentées par des nombres.

T est une théorie qui considère ses propres formules comme des individus, ou des objets. Elle contient le prédicat binaire est une conséquence logique de et admet parmi ses axiomes les principes logiques. Toute liste finie de prémisses peut être identifiée à une unique formule, leur conjonction.

Elle a aussi d'autres prédicats et d'autres axiomes qui permettent de raisonner sur la façon dont les formules sont construites. En particulier, elle doit permettre de définir un prédicat est une formule à une variable libre. Les formules qui ont des variables libres ne sont ni vraies, ni fausses. Il faut attribuer des valeurs à leurs variables f, x, y ... avant que leur vérité puisse être décidée. Par exemple f est une formule est une formule à une variable libre f. La théorie T doit aussi permettre de définir un prédicat ternaire défini par g est obtenu à partir d'une formule f à une variable libre en substituant x à toutes les occurrences de sa variable. On suppose que tous les axiomes ont été correctement choisis, donc qu'ils sont vrais, et suffisants pour prouver les vérités formelles les plus élémentaires.

Une fois que la liste de ses axiomes est définie, T permet de définir un prédicat est prouvable dans T, parce que pour être prouvable, il suffit d'être une conséquence logique d'une conjonction finie d'axiomes.

T permet alors de définir le prédicat suivant :

Gödel(f) égale par définition à f est une formule à une variable libre et il existe g tel que g n'est pas prouvable dans T et g est obtenu à partir de f en substituant f à toutes les occurrences de sa variable libre.

Gödel(f) est une formule à une variable libre f, parce que la variable g est liée par le quantificateur existentiel.

On peut alors prouver que Gödel(Gödel(f)) est un énoncé vrai mais improuvable dans T.

Gödel(Gödel(f)) veut dire par définition Gödel(f) est une formule à une variable libre et Gödel(Gödel(f)) n'est pas prouvable dans T.

Si Gödel(Gödel(f)) était prouvable dans T alors elle serait fausse, puisqu'elle dit d'elle-même qu'elle n'est pas prouvable dans T. Or on a supposé que tous les axiomes de T sont vrais. Tous les théorèmes de T, c'est à dire les énoncés prouvables dans T, sont donc également vrais. Il en résulte que Gödel(Gödel(f)) ne peut pas être un théorème de T et donc qu'elle est vraie, puisque c'est exactement ce qu'elle affirme. On a donc trouvé un énoncé vrai et improuvable dans T.

Pour transposer cette preuve à la théorie des nombres il suffit de montrer que les prédicats est prouvable dans la théorie des nombres et g est obtenu à partir d'une formule f à une variable libre en substituant x à toutes les occurrences de sa variable peuvent être représentés par des relations arithmétiques entre les nombres qui représentent des formules.

Note technique : pour formuler correctement la théorie T il faut faire attention à l'usage des variables de formule. f est une variable de formule, mais elle n'est pas à elle toute seule une formule bien formée de T. Il en résulte que Pour toute formule f, f, par exemple, n'est pas non plus une formule bien formée de T. Une formule bien formée doit toujours contenir des prédicats constants appliqués à des constantes ou des variables. En outre, quand une formule A(f) est appliquée une autre formule B(f), c'est à dire qu'on a formé A(B(f)), la variable f est libre dans B(f) mais pas dans A(B(f)), parce que B(f) y est une constante.

L'infini indénombrable[modifier | modifier le wikicode]

Un ensemble est dénombrable lorsqu'on peut identifier tous ses éléments en les numérotant, avec des nombres naturels : 0, 1, 2, 3, 4 ... Un ensemble dénombrable peut être fini ou infini. L'ensemble de tous les nombres naturels est infini dénombrable. Cantor (1874) a prouvé qu'il y a des ensembles infinis encore plus grands. En particulier, l'ensemble des ensembles de nombres naturels n'est pas dénombrable.

On le prouve par l'absurde. Supposons que l'ensemble des ensembles de nombres naturels soit dénombrable. Cela veut dire qu'ils peuvent tous être identifiés par un numéro. Définissons alors l'ensemble C des nombres qui ne sont pas dans l'ensemble qui porte leur numéro et soit n le numéro de C. Mais si n n'est pas dans C alors il est dans C par définition de C. Donc il doit être dans C. Mais alors il n'est pas dans C, encore par définition de C. n est dans C si et seulement si il n'est pas dans C. C'est une absurdité. Donc l'ensemble C ne peut pas exister. Donc l'ensemble des ensembles de nombres naturels n'est pas dénombrable.

On peut en conclure immédiatement qu'une théorie des nombres est toujours incomplète, parce qu'elle ne permet jamais de définir tous les ensembles de nombres. L'ensemble des êtres définis et nommés par une théorie est toujours dénombrable, parce que pour définir et nommer on se sert d'un alphabet fini. On peut toujours numéroter les mots formés à partir d'un alphabet fini. Il suffit de les ranger par ordre de longueur, puis par ordre alphabétique pour les mots d'une même longueur. Le numéro d'un mot est alors son numéro d'ordre.

La preuve du théorème de Gödel ressemble à celle du théorème de Cantor, parce qu'une formule à une variable libre peut être considérée comme le nom de l'ensemble de tous les êtres pour lesquels elle est vraie. La preuve de Gödel définit l'ensemble de tous les nombres pour lesquels il n'est pas prouvable qu'ils sont dans l'ensemble nommé par la formule qu'ils numérotent.

Il n'est a priori pas évident que l'incomplétude de Gödel résulte de l'indénombrabilité de l'ensemble des ensembles de nombres. L'énoncé vrai et improuvable de Gödel porte seulement sur les nombres, pas sur les ensembles de nombres. On aurait pu espérer que l'arithmétique permette de prouver toutes les vérités qui ne portent que sur des nombres, qu'elle n'a pas besoin pour cela de prouver l'existence de tous les ensembles de nombres. Mais cet espoir est vain.

Pour prouver des vérités arithmétiques, on se sert du principe du raisonnement par récurrence, qu'on peut énoncer comme suit :

Si un ensemble de nombres contient zéro et s'il contient toujours le successeur de chacun de ses éléments alors il contient tous les nombres naturels.

Une théorie des nombres qui ne porte pas explicitement sur les ensembles de nombres applique ce principe aux formules à une variable libre. Celles-ci servent à représenter les ensembles de nombres.

Il n'est pas étonnant qu'une théorie explicite ne puisse jamais prouver toutes les vérités sur les nombres, parce qu'il y a toujours des ensembles de nombres qu'elle ne permet pas de définir et qui peuvent être nécessaires pour prouver certaines vérités sur les nombres. Un énoncé vrai sur les nombres est improuvable lorsque la théorie ne permet pas de définir l'ensemble de nombres dont on a besoin pour le prouver. La suite montrera que pour l'énoncé vrai et improuvable de Gödel, l'ensemble qui manque est l'ensemble des numéros des vérités arithmétiques.

Le théorème d'indéfinissabilité de la vérité de Tarski[modifier | modifier le wikicode]

On peut dire la vérité en disant simplement ce qu'on a à dire, mais on peut aussi la dire en insistant d'une façon redondante et en disant que ce qu'on dit est vrai. Nous nous servons d'un prédicat de vérité que nous pouvons attribuer ou non à tout ce que nous disons. Tarski (1933) a prouvé qu'un tel prédicat de vérité ne peut pas exister dans une théorie mathématique si elle est vraie.

Commençons par raisonner comme plus haut sur une théorie T qui parle de ses propres formules.

Si T contenait un prédicat de vérité Il est vrai que, alors les formules Il est vrai que f si et seulement si f seraient vraies pour toutes les formules f de T. Il est vrai que la neige est blanche si et seulement si la neige est blanche, par définition de la vérité. C'est avec ce principe que Tarski a fondé une théorie de la vérité mathématique (Tarski 1933) que l'on comprend aujourd'hui comme la théorie des modèles.

Montrons par l'absurde qu'un prédicat de vérité ne peut pas exister dans la théorie T si elle est vraie.

Supposons qu'un prédicat est vraie soit défini dans T pour toutes les formules de T.

Définissons la formule Tarski(f) à une variable libre par f est une formule à une variable libre et il existe une formule g telle que g n'est pas vraie et g est obtenue à partir de f par substitution de f à toutes les occurrences de sa variable libre.

Tarski(Tarski(f) veut dire par définition que Tarski(Tarski(f)) n'est pas vraie. Tarski(Tarski(f)) est vraie si et seulement si elle n'est pas vraie, ce qui est une absurdité. Donc le prédicat est vraie ne peut pas exister dans la théorie T si elle est vraie.

Pour transposer cette preuve à la théorie des nombres il suffit de raisonner sur le prédicat est le numéro d'une formule vraie. Une théorie des nombres ne permet jamais de définir un tel prédicat si elle est vraie.

Tarski est à la fois le théoricien qui a su définir la vérité mathématique et qui a prouvé qu'elle est indéfinissable dans toutes les théories mathématiques.

Le théorème de Tarski fournit une autre preuve, indirecte, du premier théorème d'incomplétude de Gödel : si une théorie permet de définir un prédicat de sa propre prouvabilité et si tous ses théorèmes sont vrais, alors il doit y avoir au moins un énoncé vrai et improuvable, sinon le prédicat de prouvabilité serait un prédicat de vérité.

Comment prouver l'improuvable ?[modifier | modifier le wikicode]

Revenons à la théorie T qui permet de définir un prédicat de prouvabilité est prouvable dans T et un énoncé vrai et improuvable dans T. En présentant cet énoncé "improuvable" nous avons prouvé qu'il était vrai. La preuve est facile mais elle repose sur l'hypothèse que la théorie T est elle-même vraie. Or la théorie T ne permet pas de définir un prédicat de vérité pour elle-même, si elle est vraie, seulement un prédicat de prouvabilité. On ne peut donc pas formaliser la preuve informelle de l'énoncé "improuvable" avec les moyens de la théorie T. C'est pourquoi cet énoncé prouvable est improuvable dans T. Mais la définition de la vérité mathématique par Tarski permet de définir une théorie T+ avec un prédicat de vérité limité à T : est une formule vraie de T. La preuve informelle de l'énoncé vrai et improuvable dans T peut alors être formalisée dans T+. L'énoncé improuvable dans T est donc un théorème prouvé dans T+. Mais bien sûr T+ n'est pas une théorie complète, parce qu'on peut trouver un nouvel énoncé vrai et improuvable dans T+ qui requiert un prédicat de vérité limité à T+ pour être prouvé.

Pour formaliser dans T+ la preuve informelle, on doit prouver dans T+ que tous les théorèmes de T sont vrais. On le prouve en raisonnant par récurrence. Si un ensemble de formules contient tous les axiomes de T et toutes les conséquences logiques immédiates de ses éléments alors il contient tous les théorèmes de T, par définition de l'ensemble des théorèmes de T. Il suffit donc de prouver que tous les axiomes de T sont vrais, et que les conséquences logiques immédiates de formules vraies sont également vraies, pour prouver que tous les théorèmes de T sont vrais. Mais pour formaliser cette preuve informelle on a besoin dans T+ d'un prédicat de vérité pour les formules de T.

Pour transposer cette preuve à la théorie des nombres il suffit de raisonner sur le prédicat est le numéro d'une formule vraie de la théorie. On peut toujours enrichir une théorie arithmétique avec de nouveaux axiomes pour que ce prédicat de vérité, limité à la théorie initiale, soit définissable. On peut ainsi prouver dans la théorie enrichie l'énoncé vrai et improuvable dans la théorie initiale. Il suffit de formaliser la preuve informelle.

Les preuves de cohérence[modifier | modifier le wikicode]

Une théorie est cohérente, ou non-contradictoire, ou consistante, lorsqu'elle ne permet jamais de prouver à la fois une formule et sa négation, sinon elle est incohérente, contradictoire, absurde, inconsistante.

Bien sûr on attend d'une théorie mathématique qu'elle soit cohérente. Une théorie incohérente ne permet pas de faire la différence entre le vrai et le faux.

Pour prouver qu'une théorie est cohérente, la façon la plus directe est simplement de prouver qu'elle est vraie, c'est à dire que tous ses théorèmes sont vrais. Une théorie vraie ne peut pas être incohérente, parce que si une formule est vraie, sa négation est fausse et n'est donc pas vraie.

Pour prouver que tous les théorèmes d'une théorie sont vrais, il suffit de prouver que tous ses axiomes sont vrais, parce que les conséquences logiques des formules vraies sont toujours vraies.

La vérité mathématique d'une formule est toujours définie à partir d'un modèle, un être théorique qui existe en tant qu'être pensé. Être mathématiquement vrai, c'est être vrai d'un modèle mathématique.

Pour prouver qu'une théorie est cohérente, il suffit donc de prouver que ses axiomes sont vrais pour un modèle théorique.

Avec cette méthode, on prouve facilement d'une façon informelle que les axiomes d'une théorie des nombres, les axiomes de Peano par exemple, sont cohérents. Mais on ne peut pas formaliser cette preuve à l'intérieur de la théorie dont on prouve la cohérence, parce qu'elle ne peut pas avoir de prédicat de vérité pour elle-même. De fait, Gödel a prouvé qu'une théorie cohérente ne peut jamais prouver sa propre cohérence. Ce second théorème d'incomplétude de Gödel est souvent interprété à tort. On croit que les preuves de cohérence sont très difficiles, ou inaccessibles, ou qu'elles ne pourraient jamais être rationnellement justifiées parce qu'elles seraient dans un cercle vicieux. Mais il y a une explication beaucoup plus directe. Les preuves de cohérence sont parfois très faciles à trouver, et irréfutables, sans aucune erreur de logique, et sans que le moindre doute puisse subsister, mais elles ne peuvent pas être formalisées à l'intérieur de la théorie dont la cohérence est prouvée, parce qu'elles requièrent un prédicat de vérité pour cette théorie. Le théorème de Tarski de l'indéfinissabilité d'un prédicat de vérité explique donc le second théorème d'incomplétude de Gödel.

Le second théorème d'incomplétude de Gödel[modifier | modifier le wikicode]

Une théorie vraie ne peut pas prouver sa propre cohérence.

Raisonnons sur la théorie T et son énoncé vrai et improuvable dans T, Gödel(Gödel(f)).

Montrons par l'absurde que T ne peut pas prouver sa propre cohérence. Si elle le pouvait elle pourrait prouver que Gödel(Gödel(f)) et non Gödel(Gödel(f)) n'est pas prouvable dans T.

Or elle peut prouver Si non Gödel(Gödel(f)) alors (Gödel(Gödel(f)) est prouvable dans T) par définition de Gödel(f). Elle pourrait donc prouver Si non Gödel(Gödel(f)) alors (non Gödel(Gödel(f)) n'est pas prouvable dans T). Mais non Gödel(Gödel(f)) veut dire que Gödel(Gödel(f)) est prouvable dans T par définition de Gödel(f). Donc T pourrait prouver Si non Gödel(Gödel(f)) alors ((Gödel(Gödel(f)) est prouvable dans T) n'est pas prouvable dans T.

En outre T peut prouver que Pour toute formule f, si f est prouvable dans T alors la formule qui affirme que f est prouvable dans T est prouvable dans T. C'est un point parfois considéré comme difficile dans la preuve de Gödel. Mais pour la théorie T il est presque évident, parce qu'en donnant une preuve d'un théorème on prouve en même temps qu'il est prouvable. Comme T peut prouver Si non Gödel(Gödel(f)) alors (Gödel(Gödel(f)) est prouvable dans T), elle peut aussi prouver Si non Gödel(Gödel(f)) alors ((Gödel(Gödel(f)) est prouvable dans T) est prouvable dans T).

Comme T pourrait tirer des conclusions contradictoires à partir de non Gödel(Gödel(f)), elle pourrait prouver Gödel(Gödel(f)) par l'absurde. Mais Gödel(Gödel(f)) affirme d'elle-même qu'elle n'est pas prouvable dans T. Donc T ne serait pas vraie.

Il en résulte que T ne peut pas prouver sa propre cohérence si elle est vraie.

On peut transposer ce raisonnement à la théorie des nombres en numérotant les formules.

La science de tout ce qui peut être imaginé[modifier | modifier le wikicode]

On imagine toujours en attribuant des concepts. L'imagination visuelle par exemple attribue des qualités visuelles (couleur, luminosité ...) à tout ce qui est imaginé. Les êtres qu'on se représente et les concepts qu'on leur attribue, y compris les relations, définissent une structure mathématique. De façon générale une structure, ou un système, ou un modèle, mathématique est défini par l'ensemble de ses constituants, ou des êtres qui lui appartiennent, et par des concepts et des relations qu'on leur attribue. Comme les mathématiques donnent les moyens de connaître tous les modèles mathématiques, elles permettent d'étudier n'importe quel ensemble d'êtres imaginés à partir des concepts que l'imagination leur attribue, elles sont la science de tout ce qui peut être imaginé, ou conçu.

La théorie des ensembles de Zermelo[modifier | modifier le wikicode]

Les ensembles sont omniprésents en mathématiques. Un concept peut toujours être associé à l'ensemble des êtres pour lesquels il est vrai, l'extension du concept. Le concept de nombre pair définit l'ensemble des nombres pairs. La relation est plus grand que entre nombres définit l'ensemble de tous les couples de nombres (x,y) tels que x est plus grand que y.

Les nombres ne sont en général pas considérés comme des ensembles, les constituants des modèles non plus. Une théorie mathématique devrait donc inclure à la fois des êtres de base, les nombres et les autres constituants des modèles qui ne sont pas des ensembles, et tous les ensembles qu'on peut construire à partir d'eux. Mais il est plus commode de définir une théorie pure des ensembles. Cela simplifie les axiomes.

Les nombres naturels peuvent être définis comme des ensembles. On peut par exemple identifier 0 à l'ensemble vide {}, 1 à {0}, 2 à {0,1} et plus généralement n à {0...n-1}. Tous les autres nombres peuvent être construits à partir des nombres naturels. Tous les constituants des modèles peuvent toujours être numérotés par des nombres naturels, ou identifiés à des systèmes de nombres, ou à des ensembles construits à partir des nombres. Une théorie pure des ensembles permet donc en principe d'étudier tout ce qui peut être imaginé.

Pour faire une théorie on a besoin d'axiomes qui permettent de prouver l'existence des êtres sur lesquels on raisonne. Un nombre réduit de principes (Zermelo 1908) suffit pour prouver l'existence de tous les êtres mathématiques sur lesquels on raisonne habituellement :

  • L'axiome de l'ensemble vide : Il existe un ensemble vide.
  • L'axiome de la paire : Si deux ensembles existent, l'ensemble qui les contient tous les deux, et seulement eux, existe aussi.
  • L'axiome de la somme : Si un ensemble existe, l'ensemble de tous les éléments de ses éléments existe aussi.
  • L'axiome de l'infini : Il existe un ensemble qui contient tous les nombres naturels.
  • L'axiome de séparation : Si E est un ensemble et si A(x) est une formule sensée qui porte sur les ensembles alors l'ensemble de tous les x dans E tels que A(x) est vraie existe.
  • L'axiome de l'ensemble des parties : Si un ensemble existe, l'ensemble de toutes ses parties, ou sous-ensembles, existe aussi.
  • L'axiome du choix : Il sera présenté plus loin.

Il faut leur ajouter :

  • L'axiome d'extensionnalité : Deux ensembles sont égaux lorsqu'ils ont les mêmes éléments.

et bien sûr les principes logiques, et on a des fondements suffisants pour prouver la plupart des vérités mathématiques.

Les trois premiers axiomes permettent de construire les nombres naturels. La réunion de deux ensembles est la somme de leur paire. Le successeur d'en ensemble x est la réunion x U {x}. On définit alors : 0 = {}, 1 = 0 U {0} = {0}, 2 = 1 U {1} = {0,1} ...

Le quatrième et le cinquième axiome permettent de prouver l'existence de l'ensemble N des nombres naturels. C'est l'ensemble qui contient tous les nombres naturels et qui est inclus dans tous les ensembles qui contiennent tous les nombres naturels. On retrouve ainsi le principe du raisonnement par récurrence comme une conséquence de la définition de l'ensemble des nombres naturels.

A partir de là, le sixième axiome permet de construire la hiérarchie des premiers ensembles infinis : N, l'ensemble P(N) des parties de N, P(P(N))=P2(N), P(P(P(N)))=P3(N) ...

Ces axiomes ne permettent pas de définir tous les ensembles. En particulier, l'existence de l'ensemble {N, P(N), P(P(N)) ...} qui contient tous les Pn(N) pour tous les nombres naturels n ne peut pas être prouvée à partir des axiomes de Zermelo. Elle peut être prouvée avec un nouvel axiome, l'axiome de remplacement, proposé par Fraenkel (1922), beaucoup plus puissant pour prouver l'existence des grands ensembles infinis. Mais même avec ce nouvel axiome, il reste des ensembles que la théorie ne permet pas de définir.

Pour les mathématiques ordinaires, et même pour les mathématiques d'un niveau très avancé, la théorie de Zermelo est plus que suffisante pour construire tous les ensembles qu'on veut construire et pour prouver tout ce qu'on veut prouver. En particulier, les nombres réels, les espaces construits à partir des nombres réels, les fonctions qui y sont définies, les espaces de ces fonctions, les fonctionnelles, et donc tous les objets de l'analyse, peuvent tous êtres construits en se limitant aux premiers niveaux de la hiérarchie des ensembles infinis. Les grands ensembles infinis que la théorie de Zermelo ne permet pas de construire sont beaucoup plus rarement utilisés.

L'interprétation de l'axiome de séparation pose une difficulté. Qu'est-ce qu'une formule sensée ? Selon Fraenkel et Skolem, toute formule bien formée à partir des prédicats fondamentaux est élément de et est égal à, et des connecteurs logiques, est une formule sensée. L'axiome de séparation peut donc toujours leur être appliqué. Mais Zermelo n'a pas été convaincu par cette approche, parce que ces formules dites sensées peuvent contenir des affirmations sur tous les ensembles, comme si l'univers de tous les ensembles avait une existence objective. Mais nous ne savons pas ce que pourrait être un tel univers. Nous ne savons donc pas toujours quel sens donner aux formules qui servent à construire les ensembles dans la théorie ZFC proposée par Fraenkel et Skolem.

Cette difficulté n'est pas gênante pour les mathématiques courantes, parce qu'on se limite aux "petits" ensembles infinis. On peut exiger des formules sensées auxquelles l'axiome de séparation est appliqué qu'elles ne contiennent que des quantificateurs bornés, c'est à dire qu'elles ne contiennent pas d'affirmations sur tous les ensembles, mais seulement sur tous les éléments d'ensembles déjà définis. Avec ces limitations, et sans l'axiome de remplacement, on n'a pas toute la puissance de ZFC, mais on a une puissance bien suffisante pour les mathématiques courantes, et on sait mieux de quoi on parle.

Le paradoxe de Russell[modifier | modifier le wikicode]

Au lieu de l'axiome de séparation, on aurait pu songer à un axiome plus simple :

Si A(x) est une formule sensée alors l'ensemble de tous les x tels que A(x) existe.

Cet axiome a été proposé par Frege (1879) pour fonder toutes les mathématiques, mais Russell (1901, publié en 1903) s'est rendu compte qu'il conduisait à une contradiction. x n'est pas élément de x est une formule sensée. En général les ensembles ne sont pas éléments d'eux-mêmes, mais il pourrait y avoir des exceptions, comme l'ensemble de tous les ensembles. L'ensemble de tous les x tels que x n'est pas élément de x, de tous les ensembles qui ne sont pas éléments d'eux-mêmes, existe, si on adopte l'axiome de Frege. Est-il élément de lui-même ? De sa définition il résulte qu'il est élément de lui-même si et seulement si il n'est pas élément de lui-même. C'est une absurdité, donc il ne peut pas exister, donc l'axiome de Frege est faux.

Le théorème de Cantor prouve qu'une théorie des ensembles ne peut jamais définir tous les ensembles, parce qu'elle ne peut en définir qu'un nombre dénombrable. Le théorème de Tarski prouve qu'une théorie des ensembles ne peut jamais définir l'ensemble de toutes ses vérités. Le paradoxe de Russell prouve qu'une théorie des ensembles ne peut jamais définir tous les ensembles, parce qu'elle ne peut jamais définir l'ensemble de tous les ensembles qu'elle peut définir et qui ne sont pas éléments d'eux-mêmes.

En général, une théorie des ensembles ne définit pas l'ensemble de tous les ensembles qu'elle peut définir, parce qu'on exige habituellement que les ensembles soient bien fondés, c'est à dire qu'ils ne sont ni éléments d'eux-mêmes, ni éléments de leurs éléments, ni ... ainsi de suite. Mais on peut aussi faire une théorie d'ensembles qui ne sont pas tous bien fondés et qui accueille l'ensemble de tous les ensembles qu'elle peut définir. Le paradoxe de Russell nous avertit que même une telle théorie ne peut pas définir tous les ensembles.

Le théorème de Tarski et le paradoxe de Russell sont très semblables. La formule Tarski(f) affirme que f n'est pas vraie d'elle-même. Comme Tarski(f) peut être identifiée à l'ensemble des f pour lesquelles elle est vraie, la preuve du théorème de Tarski est presque identique à la preuve que l'ensemble de tous les ensembles qui ne sont pas dans eux-mêmes ne peut pas exister.

La vérité des axiomes de Peano[modifier | modifier le wikicode]

Pour les mathématiques ordinaires on peut souvent se contenter d'une théorie beaucoup moins puissante que celle de Zermelo, simplement l'arithmétique élémentaire, la théorie des nombres naturels. Dedekind (1888) et Peano (1889) ont donné des systèmes d'axiomes suffisants pour prouver la plupart de ses théorèmes. L'arithmétique à la façon de Peano peut être considérée comme la théorie mathématique la plus fondamentale. Et elle suffit pour prouver une grande partie des plus grands théorèmes, parce que les théorèmes sur les nombres réels peuvent être traduits en théorèmes sur les nombres naturels.

Les axiomes de Peano :

  • 0 est un nombre naturel.
  • Un nombre naturel n a toujours un unique successeur sn qui est aussi un nombre naturel.
  • Deux nombres naturels différents ont des successeurs différents.
  • 0 n'est le successeur d'aucun nombre naturel.

Pour tous les nombres naturels n et p :

  • leur somme n+p existe et est unique, de même pour leur unique produit n.p
  • n+0=0+n=n
  • n+sp=sn+p=s(n+p)
  • 0.n=n.0=0
  • n.sp=n.p+n
  • sn.p=n.p+p
  • Tout ensemble de nombres naturels qui contient 0 et qui contient toujours le successeur de chacun de ses éléments contient tous les nombres naturels.

On définit un modèle d'une théorie en définissant un ensemble de vérités atomiques. Une formule est atomique lorsqu'elle ne contient pas de connecteurs logiques. Les formules atomiques de l'arithmétique de Peano sont les égalités entre expressions numériques et les formules qui affirment qu'elles sont des nombres naturels. Une expression numérique est formée à partir de 0, s, + et .

Par exemple ss0+ss0=ssss0 (2+2=4) est une formule atomique, et elle est vraie. Il en va de même pour s0+(ss0.ss00) est un nombre naturel.

L'ensemble de toutes les égalités numériques vraies peut être construit de nombreuses façons. C'est un peu laborieux, parce qu'il faut se donner suffisamment de règles pour engendrer toutes ces vérités élémentaires, sans en oublier aucune, mais ce n'est pas très difficile, parce que c'est très élémentaire. N'importe quel ordinateur sait faire très facilement la différence entre les égalités vraies et les autres. Il est donc clair que cet ensemble de vérités atomiques existe. Il est également clair que tous les axiomes de Peano sont vrais pour ce modèle, sauf peut-être le dernier, qui pose une difficulté d'interprétation.

Pour faire de l'arithmétique on a besoin de raisonner sur les ensembles de nombres naturels. On peut donc songer à compléter les axiomes de Peano par des axiomes sur l'existence des ensembles de nombres, mais cela n'est pas nécessaire. Les formules arithmétiques à une variable libre suffisent pour nommer des ensembles de nombres. Par exemple la formule A(n) définie par Il existe p tel que n=2.p nomme l'ensemble de tous les nombres pairs. En appliquant le dernier axiome à toutes ces formules arithmétiques qui définissent des ensembles, on définit l'arithmétique de Peano au premier ordre. Il est facile de montrer que toutes les formules ainsi prises comme axiomes sont nécessairement vraies pour le modèle défini ci-dessus. On peut donc conclure que tous les axiomes de Peano sont vrais pour notre modèle. Comme une théorie vraie est nécessairement cohérente, on a prouvé du même coup la cohérence des axiomes de Peano.

La vérité des axiomes de Zermelo[modifier | modifier le wikicode]

On peut définir un modèle des axiomes de Zermelo en prenant comme univers d'ensembles l'ensemble M défini comme suit :

Soit S(x) = x U P(x), la réunion de x et de l'ensemble de ses parties. M est la réunion de N avec S(N), S(S(N)) ... c'est à dire de tous les Sn(N) pour tout nombre naturel n.

Montrons que tous les axiomes sont vrais pour cet univers M d'ensembles.

De la définition de M, il résulte immédiatement que l'axiome de l'ensemble vide et l'axiome de l'infini y sont vrais.

Comme Sn(N) est inclus dans Sn+1(N), Sn(N) est inclus dans Sp(N) si n<p.

Soient x et y deux éléments de M. On doit donc avoir n et p tels que x est élément de Sn(N) et y est élément Sp(N). Si n<=p, x et y sont tous les deux dans Sp(N) et leur paire est donc dans Sp+1(N). Si n>=p, {x,y} est dans Sn+1(N). L'axiome de la paire est donc vrai dans M.

Montrons par récurrence qu'un élément d'un élément de Sp(N) est aussi élément de Sp(N). L'énoncé est vrai pour N=S0(N) parce que tout nombre naturel n={0 ... n-1}. Comme les éléments des éléments de P(x) sont dans x, l'énoncé est vrai pour Sn+1(N) s'il est vrai pour Sn(N), donc il est vrai pour tout nombre naturel n.

Il en résulte que la somme d'un élément de Sn(N) est incluse dans Sn(N) et est donc un élément de Sn+1(N). L'axiome de la somme est donc vrai dans M.

Il en résulte également que les parties d'un élément de Sn(N) sont toutes incluses dans Sn(N) et donc toutes éléments de Sn+1(N). L'ensemble des parties d'un élément de Sn(N) est donc inclus dans Sn+1(N) et est donc un élément de Sn+2(N). L'axiome de l'ensemble des parties est donc vrai dans M.

L'axiome de séparation est nécessairement vrai dans M, puisque toutes les parties des éléments de M sont des éléments de M.

La vérité dans M de l'axiome du choix sera montrée un peu plus loin.

De la vérité de ses axiomes pour l'ensemble M, on peut conclure que la théorie de Zermelo est cohérente. Il y a cependant une différence entre cette preuve de cohérence et la précédente, sur la cohérence de l'arithmétique. On n'a pas construit explicitement l'ensemble des vérités atomiques. On n'a pas nommé tous les éléments du modèle et on n'a pas dit comment engendrer l'ensemble des formules atomiques vraies pour tous ces éléments. On ne peut pas le faire, parce que l'ensemble M est indénombrable.

Faut-il en conclure que cette preuve de cohérence est sans valeur ? Non. Mais elle éveille un doute. Sommes-nous bien sûr que l'ensemble que nous construisons existe ? Parler d'ensembles dont on ne peut même pas nommer tous les éléments, n'est-ce pas prendre le risque de l'absurdité ?

Nous savons que les ensembles indénombrables existent parce que nous pouvons y penser. Rien n'interdit de penser à l'ensemble de tous les ensembles de nombres naturels. On peut même le voir en imagination :

L'arbre binaire infini est construit en partant d'une racine, qui se sépare en deux branches, l'une à gauche, l'autre à droite, qui à leur tour se séparent en deux branches, et ainsi de suite à l'infini. Un chemin qui part de la racine et ne s'arrête jamais définit un ensemble de nombres naturels. Si à l'étape n le chemin prend la branche à gauche alors n fait partie de l'ensemble, mais pas si le chemin prend la branche à droite. L'ensemble de tous les chemins de l'arbre binaire infini est donc une représentation de l'ensemble de tous les ensembles de nombres naturels. Or on peut voir en imagination l'arbre binaire infini en le regardant se déployer à l'horizon. On peut donc voir tous ses chemins d'un seul coup d'œil, et ils sont indénombrables.

Il y a un nombre indénombrable de points sur une ligne, même si elle est de longueur finie. Comme on peut voir des lignes et des surfaces, on peut voir l'indénombrable.

Pour que la preuve de cohérence des axiomes de Zermelo soit fausse, il faudrait que nous ayons tort de concevoir les ensembles indénombrables, qu'à notre insu les raisonnements sur l'indénombrable nous conduisent à l'absurdité. Mais pourquoi craindre qu'on puisse être ainsi dupé par notre propre raison ? Il semble bien qu'on ne commet aucune erreur quand on raisonne sur l'ensemble des parties d'un ensemble, même s'il est infini.

La preuve de cohérence des axiomes de Zermelo peut être formalisée dans ZFC, parce que l'axiome de remplacement permet de définir M dans ZFC. Mais on n'a pas besoin d'un axiome aussi fort pour formaliser cette preuve. Il suffit d'ajouter aux axiomes de Zermelo un élargissement de l'axiome de l'infini : Il existe un ensemble qui contient N et qui contient toujours x U P(x) quand il contient x. On obtient ainsi une théorie plus puissante qui permet de prouver la cohérence de la précédente. Si on veut prouver la cohérence de cette nouvelle théorie, il suffit de se donner un nouvel axiome de l'infini : Il existe un ensemble qui contient M et qui contient toujours x U P(x) quand il contient x. On peut définir ainsi une suite de théories toujours plus puissantes telles que la cohérence de l'une peut toujours être prouvée par la suivante.

La cohérence de ZFC peut elle aussi être prouvée en exhibant un modèle indénombrable, mais il est plus difficile à construire, parce que l'axiome de remplacement permet de construire des ensembles infinis beaucoup plus grands.

Il est en principe possible, et souhaitable, de donner une autre preuve de la cohérence des axiomes ensemblistes, en contruisant explicitement un modèle dénombrable, en définissant explicitement l'ensemble de ses vérités atomiques. On sait que c'est possible en principe parce que Löwenheim (1915) et Skolem ont prouvé que toute théorie cohérente admet un modèle dénombrable, mais jusqu'à présent, personne à ma connaissance n'a réussi à en trouver un pour la théorie de Zermelo, ni a fortiori pour ZFC.

L'axiome du choix[modifier | modifier le wikicode]

La façon la plus directe de prouver qu'un ensemble existe est de le définir, ce qui revient à le construire à partir d'ensembles déjà définis. L'ensemble vide suffit pour amorcer la construction de tous les ensembles que nous définissons. Mais on peut aussi donner des preuves indirectes d'existence. On prouve qu'un ensemble existe et a certaines propriétés sans le définir explicitement, sans le construire, sans dire précisément de quel ensemble on parle. Le raisonnement par l'absurde permet de donner ces preuves indirectes d'existence. On commence par supposer qu'aucun ensemble ne vérifie les propriétés demandées et on en déduit une contradiction. On est alors en droit de conclure qu'il existe au moins un ensemble qui a les propriétés demandées, mais on ne s'est pas donné la peine de le construire.

Ces preuves indirectes d'existence nous permettent de prouver qu'on peut toujours faire un nombre fini de choix arbitraires pour prouver l'existence d'un ensemble. Plus précisément, si on a une liste finie d'ensembles non-vides et disjoints, on peut prouver qu'il existe au moins un ensemble qui contient un élément et un seul de chacun des ensembles de la liste. On n'a pas construit ce nouvel ensemble, on n'a pas choisi ses éléments, on s'est contenté de prouver qu'il existe. Les principes logiques et les axiomes de construction d'ensembles finis suffisent pour prouver son existence. Mais si la liste d'ensembles non-vides et disjoints est infinie, ces principes et ces axiomes ne permettent pas de prouver l'existence d'un ensemble qui contient un élément et un seul de chacun des ensembles de la liste. L'axiome du choix affirme précisément qu'un tel ensemble existe (Zermelo 1904) :

L'axiome du choix : Si E est un ensemble d'ensembles non-vides et disjoints alors il existe un ensemble qui contient un élément et un seul de chacun des éléments de E.

Montrons que l'axiome du choix est vrai dans l'univers M d'ensembles. Si E est une ensemble d'ensembles non-vides et disjoints et s'il est dans Sn(N) alors l'ensemble qui choisit un élément de chacun des éléments de E est inclus dans Sn(N), puisque les éléments des éléments de E sont dans Sn(N), et il est donc un élément de Sn+1(N), donc dans M. Donc l'axiome du choix est vrai dans M.

Les preuves de cohérence sont-elles prises dans un cercle vicieux ?[modifier | modifier le wikicode]

Les preuves de cohérence qui exhibent une modèle sont formalisées dans une théorie T+ plus forte que la théorie T0 dont elles prouvent la cohérence, parce qu'elles définissent l'ensemble des vérités de T0 et que cet ensemble ne peut pas être défini dans T0. Si une théorie est absurde, toute théorie obtenue en rajoutant des axiomes est également absurde. Une théorie absurde peut tout prouver, une affirmation et son contraire, y compris que l'absurde n'est pas absurde. Notre méthode pour prouver la cohérence d'une théorie ne permet donc pas de faire la différence entre les théories cohérentes et les théories incohérentes, puisqu'une théorie "plus forte" qu'une théorie incohérente pourrait prouver qu'elle est cohérente. C'est pourquoi on croit parfois que de telles preuves ne prouvent rien, mais on se trompe.

On ne raisonne pas sur n'importe quelle théorie T0 dont on ignorerait tout. T0 est l'arithmétique de Peano ou la théorie de Zermelo, ou d'autres théories que l'on choisit pour fonder notre savoir mathématique. On sait d'avance que ces théories nous permettent de prouver des vérités, parce que sans elles nous n'aurions pas de savoir mathématique, et il semble assez clair que nous en avons. Si on est très pessimiste on peut craindre que nos théories formelles aient accueilli à notre insu des fautes de formulation qui pourraient conduire à des contradictions. Mais on ne doute pas que ces théories nous révèlent souvent la vérité, sauf si on renonce au savoir mathématique. Quand on prouve que les théories formelles sont vraies et cohérentes, on confirme ce que nous croyons déjà intuitivement. Et on se prouve à soi-même que nos facultés naturelles de raisonnement sont suffisantes pour raisonner correctement sur la raison. Ce n'est donc pas un cercle vicieux. C'est le cercle vertueux de la raison qui se comprend elle-même.

L'indépendance de l'hypothèse du continu[modifier | modifier le wikicode]

L'ensemble P(N) des parties de N, c'est à dire l'ensemble de tous les ensembles de nombres naturels, est strictement plus grand que N. Mais est-il le plus petit des ensembles strictement plus grands que N ? Cantor a conjecturé que oui, mais il n'a pas réussi à le prouver. Cette conjecture, que l'ensemble des ensembles de nombres naturels est le plus petit ensemble strictement plus grand que l'ensemble des nombres naturels, est appelée l'hypothèse du continu. Elle fait partie de la liste des grands problèmes que Hilbert a proposé en 1900 aux mathématiciens du XXe siècle.

Cohen (1963) a montré que cette hypothèse est indépendante des axiomes de ZFC, habituellement retenus pour fonder les mathématiques. Ni elle-même, ni sa négation, ne peuvent être prouvées à partir de ces axiomes.

On peut chercher de nouveaux axiomes pour prouver l'hypothèse du continu. L'axiome de constructibilité est un candidat, parce qu'il permet de prouver cette conjecture. Mais il n'est habituellement pas retenu, parce qu'il n'a pas le caractère d'évidence intuitive qu'on est en droit d'attendre d'un axiome. Il est un peu compliqué à formuler et sa signification est tout sauf claire, parce qu'il marie une approche constructiviste et une approche anticonstructiviste. Il exige que les ensembles soient construits étape par étape, comme le demandent les constructivistes, mais il autorise un nombre arbitrairement infini d'étapes, ce qui est habituellement interdit par les constructivistes.

On ne sait pas si l'hypothèse du continu peut être prouvée, ou réfutée, à partir de nouveaux axiomes dont la vérité serait évidente.

L'indépendance de l'hypothèse du continu est parfois appelée indécidabilité, mais il faut proscrire cet usage, parce qu'il incite à confondre l'indépendance d'une formule par rapport à des axiomes, qui est une indépendance relative, avec l'indécidabilité des problèmes et des ensembles, expliquée plus loin, qui est une indécidabilité absolue.

Les théories, les logiciels et les ensembles récursivement énumérables[modifier | modifier le wikicode]

Il existe une correspondance très étroite entre les théories mathématiques et les logiciels, les programmes informatiques. Quand on a défini explicitement une théorie, on peut toujours écrire un programme qui prouve tous ses théorèmes. Il suffit qu'il imprime d'une façon ordonnée tous les axiomes et toutes les conséquences logiques immédiates des formules qu'il a précédemment imprimées. Cette méthode de recherche de preuves n'a qu'un intérêt théorique. En pratique, l'ordinateur imprimerait un déluge de formules sans intérêt avant de trouver un théorème qui mérite d'être écrit. Et même avec les ordinateurs les plus puissants, il faudrait en général attendre un temps démesuré pour trouver ainsi des preuves ou des réfutations de conjectures intéressantes.

On peut donner plusieurs définitions, toutes équivalentes, des ensembles récursivement énumérables. Les conditions suivantes, choisies parmi de nombreuses autres, définissent toutes les trois l'énumérabilité récursive d'un ensemble E :

  • Toutes les vérités atomiques d'appartenance à E sont des théorèmes, des énoncés prouvables, d'une théorie explicite.
  • Il existe un logiciel qui répond toujours oui lorsqu'on lui présente le nom d'un élément de E, et qui ne répond pas, ou qui répond non, lorsqu'on lui présente le nom d'un être qui n'est pas dans E.
  • Il existe un nombre fini d'expressions de départ et un nombre fini de règles de production (Smullyan 1961) qui suffisent pour engendrer toutes les vérités atomiques d'appartenance à E.

L'ensemble des théorèmes d'une théorie explicite est toujours un ensemble récursivement énumérable. Si on présente un théorème à un logiciel chercheur de preuves, il finira toujours par reconnaître que c'est un théorème, parce qu'il examine toutes les preuves possibles, aussi longues soient-elles. Si on lui présente un non-théorème, il ne répondra pas, parce qu'il cherchera pour l'éternité une preuve qui n'existe pas.

Les ensembles et les problèmes indécidables[modifier | modifier le wikicode]

Les ensembles récursivement énumérables sont toujours dénombrables. Comme tous leurs éléments peuvent être nommés, on peut toujours définir leur complémentaire dans l'ensemble de tous les êtres nommés, dès qu'on s'est fixé un système de désignation.

Un ensemble est décidable lorsque lui-même et son complémentaire sont récursivement énumérables, sinon il est indécidable.

Un problème est indécidable lorsque l'ensemble de ses solutions est indécidable.

Un exemple d'ensemble indécidable est l'ensemble de toutes les vérités dans l'arithmétique de Peano. Le premier théorème d'incomplétude de Gödel prouve que cet ensemble de vérités n'est pas récursivement énumérable et donc pas décidable. S'il était récursivement énumérable, on pourrait trouver une liste complète d'axiomes qui suffise pour prouver toutes les vérités arithmétiques, mais Gödel a prouvé qu'une telle liste ne peut pas exister.

Dire qu'un problème est indécidable ne veut pas dire que nous sommes incapables de le résoudre, ni qu'il a des solutions que nous ne trouverons jamais, cela veut seulement dire qu'il n'existe pas de théorie explicitement définie qui apporte toutes les solutions du problème. Les théories que nous définissons ne peuvent résoudre un problème indécidable que partiellement, jamais totalement. Avec les problèmes indécidables, nous n'en aurons jamais fini, c'est la galère assurée pour l'éternité. Mais nous pouvons quand même chercher et trouver des solutions, et aucune solution n'est a priori inaccessible. Il suffit d'être suffisamment créatif pour inventer une théorie qui permette de la trouver.

L'incomplétude des principes mathématiques vient de l'existence des ensembles indécidables. Si tous les ensembles de vérités étaient récursivement énumérables, on pourrait donner des listes d'axiomes qui suffisent pour les trouver toutes. Mais l'indécidabilité montre que les ensembles de vérités ne sont pas toujours récursivement énumérables.

Machines et théories universelles[modifier | modifier le wikicode]

Un ordinateur programmable est une machine universelle, au sens où elle est capable d'exécuter tous les programmes concevables. Si le programme est écrit une fois pour toutes, en mémoire morte (ROM, Read Only Memory), l'ordinateur est seulement une machine particulière.

Une machine universelle peut faire tout ce que les autres machines, universelles ou particulières, peuvent faire. Il suffit de lui donner le programme. Toutes les machines universelles sont donc essentiellement équivalentes. Elles peuvent toutes faire exactement les mêmes choses.

En pratique, les ordinateurs sont limités par leur puissance de calcul et par leur espace de stockage. Mais la puissance de calcul n'est qu'un problème de rapidité et l'espace de stockage peut en principe être agrandi sans limites. Il suffit d'imaginer un ordinateur monté sur un robot qui se déplace dans une base de données qu'on peut toujours agrandir.

Une théorie universelle est une théorie qui permet de prouver tout ce que les autres théories permettent de prouver. Par exemple, la logique peut être formalisée comme une théorie universelle. Il suffit de se donner suffisamment d'axiomes pour que toutes les formules vraies de la forme C est une conséquence logique de P soient prouvable, pour toutes les formules bien formées C et P. Comme n'importe quel théorème de n'importe quelle théorie est toujours prouvé à partir d'une conjonction finie d'axiomes, la logique ainsi formalisée est une théorie universelle.

En prouvant que les relations logiques entre formules peuvent être représentées par des relations arithmétiques entre des nombres qui représentent les formules, Gödel a prouvé que l'arithmétique est elle aussi une théorie universelle, même si on la limite à l'arithmétique de Peano au premier ordre.

L'existence des théories universelles pose un paradoxe. Comme toute théorie explicite, une théorie U universelle ne peut pas prouver toutes les vérités. Ces vérités qu'elles ne peut pas prouver sont en principe prouvables dans une théorie plus riche U+, qui a davantage d'axiomes. Mais comme la théorie initiale U est universelle, elle peut prouver tout ce que U+ peut prouver, ce qui semble contraire à l'hypothèse que U+ est plus riche que U. En particulier, la preuve de cohérence de l'arithmétique du premier ordre peut être formalisée dans l'arithmétique du premier ordre, puisqu'elle peut être formalisée dans une théorie explicite et puisque l'arithmétique du premier ordre est une théorie universelle. Mais le second théorème d'incomplétude de Gödel semble interdire une telle possibilité.

L'explication de ce paradoxe est un peu subtile. La théorie U+ peut être formalisée dans U, mais U "ne sait pas" que U+ est un enrichissement de U, c'est à dire que U peut prouver que tous les théorèmes de U+ sont des théorèmes de U+ mais elle ne peut pas prouver que les théorèmes de U+ valent pour elle-même. U peut donc formaliser la preuve de sa propre cohérence sans le dire explicitement, sans affirmer qu'il s'agit de sa propre cohérence.

L'indécidabilité du problème de l'arrêt[modifier | modifier le wikicode]

Le problème de l'arrêt : Étant donnés une programme informatique et un état initial de la mémoire, l'ordinateur va-t-il s'arrêter et fournir une réponse, ou va-t-il tourner indéfiniment sans jamais donner de réponse ?

On a supposé que l'ordinateur n'est pas limité en espace de stockage et qu'il ne subit pas d'influence extérieure pendant qu'il calcule.

Turing a prouvé que le problème se l'arrêt est indécidable (1936).

L'ensemble des couples (programme, état initial) d'une machine qui s'arrête est récursivement énumérable, parce qu'un ordinateur peut simuler tous les autres. Si on lui présente un programme et un état initial, il n'a qu'à faire tourner le programme sur l'état initial et attendre qu'il s'arrête. S'il s'arrête, l'ordinateur répond qu'il s'arrête. S'il ne s'arrête pas, l'ordinateur ne s'arrête pas et ne répond pas.

En revanche l'ensemble des couples (programme, état initial) d'une machine qui ne s'arrête pas n'est pas récursivement énumérable. On le prouve par l'absurde. S'il était récursivement énumérable, il y aurait un programme P tel que pour tout couple (programme p, état initial i), la machine s'arrête et répond que p ne s'arrête pas à partir de i à chaque fois que c'est vrai. Un programme peut être écrit en mémoire et est donc lui aussi un état initial possible. A partir de P on pourrait alors écrire un programme P' tel que pour tout programme p, la machine s'arrête et répond que p ne s'arrête pas à partir de l'état initial p à chaque fois que c'est vrai. Et on pourrait donner P' comme état initial de la mémoire de la machine qui tourne avec P' . Cette machine va-elle s'arrêter ? Par construction, elle s'arrête si et seulement si elle ne s'arrête pas. C'est une absurdité. Donc P' ne peut pas exister, et donc P non plus. L'ensemble des couples (programme, état initial) d'une machine qui ne s'arrête pas n'est donc pas récursivement énumérable. Le problème de l'arrêt est donc indécidable.

L'indécidabilité de l'ensemble des lois logiques[modifier | modifier le wikicode]

L'ensemble des lois logiques est une théorie universelle, parce qu'une formule est une théorème d'une théorie si et seulement si l'affirmation qu'elle résulte d'une conjonction finie de ses axiomes est une loi logique. En connaissant toutes les lois logiques, on connaît donc tous les théorèmes de toutes les théories.

Lorsqu'une théorie est définie avec un nombre fini d'axiomes, une formule n'est pas un théorème si et seulement si l'affirmation qu'elle résulte de la conjonction des axiomes n'est pas une loi logique.

Les théories fondamentales (l'arithmétique de Peano, la théorie de Zermelo ...) sont en général définies avec des schémas d'axiomes. L'axiome de séparation par exemple est un schéma qui permet de formuler autant d'axiomes qu'il y a de formules sensées, en nombre infini. Il en va de même pour le principe du raisonnement par récurrence quand on le formule dans l'arithmétique du premier ordre. Mais ces théories qui ont un nombre infini d'axiomes sont toujours équivalentes à des théories qui n'en ont qu'un nombre fini. En introduisant des classes, qui sont comme des ensembles, mais trop grandes pour être vraiment considérées comme des ensembles, à la façon de Gödel et Bernays, la théorie de Zermelo n'a plus qu'un nombre fini d'axiomes.

Même quand les théories ont un nombre infini d'axiomes, on exige toujours qu'il y ait un nombre fini de principes ou de règles qui suffisent pour engendrer mécaniquement tous les axiomes, sinon la théorie n'est pas explicite. C'est pourquoi les théories explicites sont toujours équivalentes à des théories à nombre fini d'axiomes.

Si l'ensemble des lois logiques était décidable, tous les ensembles récursivement énumérables seraient décidables : Toutes les vérités d'appartenance à un ensemble E récursivement énumérable sont des théorèmes d'une théorie à nombre fini d'axiomes. Le complémentaire de E est donc l'ensemble de tous les x tels que Si les axiomes alors x est dans E n'est pas une loi logique. Si l'ensemble des lois logiques était décidable, cet ensemble serait récursivement énumérable, et donc E serait décidable.

La preuve de l'indécidabilité du problème de l'arrêt montre qu'il existe au moins un ensemble récursivement énumérable qui n'est pas décidable. L'ensemble des lois logiques n'est donc pas décidable.

La preuve du premier théorème d'incomplétude permet de prouver plus directement l'indécidabilité de l'ensemble des lois logiques. Si l'ensemble des lois logiques était décidable, la théorie T pourrait avoir assez d'axiomes pour prouver toutes les formules vraies de la forme f n'est pas une conséquence logique de g. Elle pourrait donc prouver toutes les formules vraies de la forme f n'est pas prouvable dans T. Comme Gödel(Gödel(f)) n'est pas prouvable dans T, elle pourrait le prouver. Mais Gödel(Gödel(f)) dit d'elle même qu'elle n'est pas prouvable dans T. T pourrait alors prouver que Gödel(Gödel(f)) n'est pas prouvable dans T, ce qui est absurde. Donc l'ensemble des lois logiques est indécidable.

L'indécidabilité de l'ensemble des lois logiques, ou de l'Entscheidungsproblem (Hilbert 1928) a été prouvée indépendamment et avec des méthodes différentes par Church et Turing en 1936.

L'universalité est la cause de l'indécidabilité[modifier | modifier le wikicode]

Les problèmes dont nous savons prouver l'indécidabilité sont toujours des problèmes complets, au sens où si nous avions une méthode pour trouver toutes leurs solutions, nous aurions du même coup une méthode pour résoudre tous les problèmes. De ce point de vue, l'incomplétude des principes mathématiques n'est finalement pas très étonnante. On n'est pas obligé de la voir comme un signe d'incapacité, parce qu'elle est une conséquence de l'universalité de la pensée. Nous pouvons raisonner sur tous les problèmes, sur toutes les théories. Nous pouvons énoncer des lois universelles qui valent pour tout ce qui est concevable et pensable. Mais nous n'avons pas de méthodes ou de principes qui suffisent pour résoudre tous les problèmes. Nos méthodes, même les plus puissantes, ne peuvent pas tout résoudre. Nous ne sommes que des créatures. Savoir trouver toutes les solutions d'un problème indécidable serait une sorte d'omniscience, parce qu'on saurait du même coup comment trouver toutes les solutions de tous les problèmes.

Une liste finie de principes suffit pour engendrer toutes les lois logiques. C'est le théorème de complétude de la logique de Gödel. L'ensemble des lois logiques est donc récursivement énumérable. Mais puisque l'ensemble des lois logiques est indécidable, l'ensemble des formules qui ne sont pas des lois logiques n'est pas récursivement énumérable. Les lois logiques sont vraies dans tous les mondes possibles. Les négations des lois logiques sont des absurdités, fausses dans tous les mondes possibles. Une formule qui n'est ni une loi logique, ni la négation d'une loi logique, est vraie dans certains mondes et fausse dans d'autres, elle décrit des mondes possibles, des mondes qu'on peut imaginer. Tout système fini d'axiomes qui décrit un monde possible est tel que la négation de sa conjonction n'est pas une loi logique. L'ensemble des formules qui ne sont ni des lois logiques, ni des absurdités est l'ensemble de tous les axiomes et de tous les systèmes finis d'axiomes qui portent sur au moins un monde qu'on peut imaginer. Dire qu'il n'est pas récursivement énumérable veut dire qu'on ne peut pas donner une liste finie de principes qui suffise pour engendrer toutes ces systèmes d'axiomes. L'imagination déborde tous les cadres. Quelle que soit la liste finie de principes qu'on se donne, il y a toujours des mondes possibles qu'elle ne permet pas d'étudier. L'incomplétude mathématique est donc une conséquence de l'universalité et de la puissance de l'imagination.


Chapitre suivant : La vérité des principes relativistes >>>


La vérité des principes relativistes

Le principe de relativité générale[modifier | modifier le wikicode]

Les lois de la physique ne doivent pas dépendre du système de coordonnées avec lequel elles sont formulées. (Einstein 1916)

Qu'est-ce que ça veut dire ?

Un système de coordonnées nous permet de nommer des objets physiques. Un point de l'espace par exemple peut être nommé avec trois nombres, ses trois coordonnées, dès qu'on s'est donné un système de repérage. Quand on change de système de coordonnées, on change les noms des objets physiques, mais on ne change pas les objets eux-mêmes ni leurs relations. Les vérités ne doivent pas dépendre de la façon dont les objets sont nommés. Les mêmes vérités peuvent être dites quelle que soit la façon dont nous nommons les objets, elles sont seulement formulées différemment. Le principe de relativité générale, proposé par Einstein comme une avancée théorique majeure, parce qu'il est au fondement de sa théorie de la gravitation, ressemble donc à une trivialité : la vérité demeure quand on change sa formulation.

Une formulation plus moderne du principe de relativité générale ne modifie pas cette apparence de trivialité :

Toutes les lois de la physique doivent pouvoir être formulées par des relations géométriques, indépendantes du système de coordonnées, entre objets géométriques, indépendants du système de coordonnées. (Thorne & Blandford, Modern Classical Physics, p.1154, abrégé dans la suite par MCP)

Plus simplement dit, les lois de la physique doivent énoncer des vérités sur des relations entre des objets.

Mais si le principe de relativité générale est seulement une trivialité, pourquoi est-il le plus grand principe de toute la physique classique ? Pourquoi nous permet-il de comprendre d'une façon unifiée à la fois la physique de Newton, la théorie de la relativité restreinte et la théorie de la relativité générale ? Pourquoi a-t-il conduit Einstein à la découverte de la loi fondamentale de la gravitation ?

La façon dont on applique le principe de relativité générale lui donne une signification physique, c'est à dire qu'elle nous conduit à formuler des lois qu'on peut confronter à l'observation. Plus précisément on postule que tous les objets physiques sont déterminés avec des scalaires, des vecteurs et des tenseurs et que les lois physiques sont toujours des égalités entre scalaires, ou entre vecteurs, ou entre tenseurs. Trois espace-temps sont de première importance pour définir les objets physiques avec des scalaires, des vecteurs et des tenseurs : l'espace-temps classique de Newton, l'espace-temps de Minkowski, pour la théorie de la relativité restreinte, et l'espace-temps courbe de la relativité générale. Les propriétés géométriques de l'espace-temps imposent des contraintes sur les scalaires, les vecteurs et les tenseurs qu'on peut y définir et sur les lois physiques qu'on peut leur appliquer. Le principe de relativité générale à lui tout seul n'a pas de signification physique, mais il en acquiert une dès qu'il est accompagné des principes de la géométrie de l'espace-temps.

Quand on applique le principe de relativité générale on respecte en outre en général le principe de localité :

Les lois de la physique doivent être des égalités entre scalaires, ou entre vecteurs, ou entre tenseurs, définis au même point de l'espace-temps.

La loi de la gravitation universelle de Newton ne respecte pas le principe de localité, parce qu'elle postule une action instantanée à distance, mais c'est une faiblesse de la théorie et une exception dans la physique newtonienne. En général, la physique de Newton et de ses successeurs respecte le principe de localité. La dynamique des solides et des fluides incompressibles est aussi une exception, mais ce n'est pas une objection fondamentale, parce que les solides et les fluides incompressibles ne sont que des modèles approximatifs de la réalité. Tous les solides et tous les fluides sont toujours compressibles, au moins un peu.

Le principe de relativité générale a été curieusement nommé, parce qu'il affirme que les lois de la physique ne sont pas relatives à un système de coordonnées ou à un observateur particulier. C'est donc un principe qui affirme le caractère absolu de la vérité physique. Les théories de la relativité restreinte et générale qu'il permet de fonder sont également des théories de la vérité absolue. Le principe de relativité serait donc mieux nommé si on l'appelait le principe d'absoluité, mais Einstein en a décidé autrement, et son usage s'est imposé.

Qu'est-ce qu'un tenseur ?[modifier | modifier le wikicode]

Un tenseur de rang n est par définition une application linéaire qui associe un scalaire, c'est à dire un nombre réel indépendant du système de coordonnées, à n vecteurs (MCP, p.11).

Dans un espace vectoriel euclidien le produit scalaire de deux vecteurs est un tenseur, de rang 2, de toute première importance. En particulier, il permet d'identifier un vecteur avec le tenseur de rang 1 défini par . De même, une application linéaire de dans peut être identifiée à un tenseur de rang 2 défini par

Les scalaires et les vecteurs sont des objets géométriques, indépendants du système de coordonnées. Comme les tenseurs sont des applications qui attribuent des scalaires à des vecteurs, ils sont aussi des objets géométriques, indépendants du système de coordonnées.

Un malentendu sur la relativité de la vérité[modifier | modifier le wikicode]

La théorie de la relativité d'Einstein se distingue de la physique de Newton sur un point principal, la relativité de la simultanéité. Selon Einstein, deux événements simultanés pour un observateur ne sont pas forcément simultanés pour un autre, s'il est en mouvement par rapport au premier, tandis que Newton postule implicitement que la simultanéité des événements est absolue, la même pour tous les observateurs.

Mais on aurait tort de croire que la théorie de la relativité nous force à renoncer à la vérité absolue. Les théories d'Einstein, comme toutes les théories scientifiques, affirment que la vérité est absolue, la même pour tous. Toute vérité qui peut être reconnue comme un savoir scientifique par un être rationnel peut être reconnue ainsi par tous les autres. La vérité est la même pour tous ou elle n'est pas scientifique. Une science qui ne pourrait être connue que par quelques uns est une absurdité. Nous sommes tous égaux devant la vérité scientifique.

Quand des vérités sont relatives, à un observateur, à un point de vue, à des hypothèses ou à des principes, il est toujours absolument vrai qu'elles le sont. Si un énoncé e est vrai du point de vue de A mais pas du point de vue de B, qu'il est vrai du point de vue A est vrai pour A comme pour B. e est une vérité relative, mais l'affirmation que e est vrai du point de vue de A est une vérité absolue.

On croit souvent nier le caractère absolu de la vérité scientifique quand on remarque que la science accueille de très nombreuses théories qui se contredisent parfois les unes les autres, et qu'aucune ne peut prétendre être la vérité absolue. Mais c'est une erreur. Quand nous sommes scientifiques, nous connaissons la vérité absolue tous les jours, puisque même quand nos vérités sont relatives, il suffit d'affirmer qu'elles sont relatives pour dire la vérité absolue. Qu'aucune théorie scientifique ne puisse prétendre être à elle-seule la vérité absolue, complète, ultime et définitive, ne prouve pas qu'il n'y a pas de vérité absolue, mais seulement que nous ne la connaissons pas totalement.

La physique newtonienne et le principe de relativité de Galilée[modifier | modifier le wikicode]

Newton nous a appris à faire de la physique en étudiant les solutions d'une unique équation :

est la force exercée sur une particule, sa masse et son accélération. Cette équation est la loi fondamentale de la dynamique newtonienne.

Les particules sont ou bien des points matériels, ou bien des particules de solide ou de fluide. Les points matériels sont les particules élémentaires de la physique classique. Les particules de solide ou de fluide sont de petites régions au voisinage d'un point d'un solide ou d'un fluide.

En plus des points matériels, des solides et des fluides, la physique classique accueille les champs de forces exercées et subies par la matière.

Pour la physique newtonienne, les vecteurs sont toujours des vecteurs de l'espace euclidien à trois dimensions. Un vecteur peut être identifié à une flèche qui sépare deux points de l'espace. Deux flèches qui partent de points différents représentent le même vecteur si elles sont parallèles, de même longueur et de même sens.

Avec un repère, les vecteurs servent à représenter les positions, les vitesses et les accélérations des particules. Un repère, ou un référentiel, est une sorte de rocher à partir duquel on peut faire des mesures géométriques. Si on choisit sur le rocher un point comme origine, la position de tout autre point est repérée par le vecteur qui le sépare de l'origine. Un vecteur vitesse est la dérivée temporelle d'un vecteur position. Un vecteur accélération est la dérivée temporelle d'un vecteur vitesse.

La position et la vitesse d'une particule sont toujours relatives au repère qui permet de les mesurer. En revanche, l'existence des repères inertiels donne un caractère absolu à l'accélération. Un repère inertiel est un rocher qui n'est soumis à aucune force et qui ne tourne pas sur lui-même. La Terre n'est pas exactement un repère inertiel, parce qu'elle tourne sur elle-même et parce qu'elle est attirée par le Soleil, mais en première approximation, elle peut souvent être considérée comme un repère inertiel. Si on est attaché à un repère qui n'est pas inertiel, comme un manège, ou un train qui freine, ou qui accélère, ou qui change de direction, on ressent les effets de la rotation, ou de l'accélération, tandis qu'un repère inertiel, ou presque inertiel, nous laisse nous reposer tranquillement.

Galilée a remarqué que dans un bateau sur une mer calme, on peut faire les mêmes expériences que si on reste au port. Tant que le mouvement du bateau n'est pas agité, aucune expérience sur le bateau ne permet de dire s'il est immobile ou en mouvement par rapport à la Terre. Ceci est général. Si un repère a une vitesse constante par rapport à un repère inertiel alors il est lui aussi inertiel. Tous les repères inertiels ont des vitesses constantes les uns par rapport aux autres et ils sont tous physiquement équivalents, au sens où toute expérience qui peut être faite dans l'un peut être reproduite dans l'autre. C'est le principe de relativité de Galilée :

Les résultats d'une expérience ne dépendent pas du repère inertiel dans lequel elle est faite.

Einstein l'a nommé principe de relativité, parce qu'il montre que la vitesse et l'immobilité sont toujours relatives, qu'il n'y a pas d'espace absolu. Comme aucun repère inertiel n'est privilégié, les lois de la physique interdisent d'identifier un état de repos absolu. Le mouvement et le repos d'un corps sont toujours relatifs à un autre corps. Parler de repos ou de mouvement par rapport à l'espace vide n'a pas de sens physique. Mais ce principe de relativité peut aussi être considéré comme un principe d'absoluité, puisqu'il affirme que les lois de la physique sont les mêmes pour tous les observateurs, quel que soit le repère inertiel où ils font leurs mesures.

Comme tous les repères inertiels ont des vitesses constantes les uns par rapport aux autres, l'accélération d'une particule ne dépend pas du repère inertiel dans lequel elle est mesurée. La loi fondamentale de la dynamique newtonienne est en accord avec le principe de relativité de Galilée parce qu'elle ne mentionne que des forces, qui sont des grandeurs absolues, indépendantes du choix d'un repère, et des accélérations, qui sont elles aussi des grandeurs absolues, indépendantes du choix d'un repère, pourvu qu'il soit inertiel.

Les déformations sont également des grandeurs absolues, les mêmes pour tous les observateurs. Elles sont représentées par des vecteurs qui mesurent l'écart entre la position déformée et la position initiale. Il est naturel de les mesurer dans un repère où le matériau est au repos, mais un autre repère convient également.

La physique newtonienne est en général très bien adaptée à l'étude des mouvements de la matière ordinaire, les solides et les fluides. Il suffit souvent de mesurer quelques paramètres, la densité, l'élasticité, la viscosité ... pour calculer et prédire les mouvements d'un matériau. Quelques lois simples sur l'existence des forces d'élasticité ou de viscosité suffisent pour appliquer la loi fondamentale de Newton, . Le principe de relativité générale et le principe de localité sont des outils très puissants pour trouver les lois du mouvement, parce que les scalaires, les vecteurs et les tenseurs qui permettent d'énoncer ces lois sont peu nombreux. De fait, toute la physique classique newtonienne peut être retrouvée comme une conséquence du principe de relativité générale quand on l'applique à l'espace-temps newtonien (MCP, p.10).

En revanche, la physique newtonienne n'est pas bien adaptée à l'étude des interactions fondamentales. La loi de la gravitation universelle ne respecte pas le principe de localité et les lois de l'électromagnétisme, les équations de Maxwell et de Lorentz, formulées dans un cadre newtonien, ne respectent pas le principe de relativité de Galilée. La théorie de la relativité restreinte d'Einstein résout le second problème, tandis que sa théorie de la relativité générale résout le premier.

L'espace-temps de Minkowski[modifier | modifier le wikicode]

La constance de la vitesse de la lumière[modifier | modifier le wikicode]

Les équations de Maxwell prédisent que la lumière a une vitesse constante dans le vide, et la même dans toutes les directions. Cette prédiction semble incompatible avec le principe de relativité de Galilée. Si la lumière avance à la vitesse par rapport à un repère inertiel, alors elle devrait être immobile par rapport à un autre repère inertiel qui avance à la même vitesse par rapport au premier. Si on était capable d'aller aussi vite que la lumière, elle pourrait être immobile par rapport à nous, et nous ne pourrions même plus nous voir dans un miroir.

La constance de la vitesse de la lumière dans le vide a d'abord été interprétée comme la preuve de l'existence d'une immobilité absolue. Un repère inertiel serait absolument immobile pourvu qu'il attribue toujours à la lumière la vitesse dans le vide. Dans tout repère inertiel en mouvement par rapport à lui, la lumière aurait une vitesse différente. On supposait aussi que la lumière était une sorte de vibration d'une matière transparente et inconnue qu'on appelait l'éther. L'immobilité absolue était alors conçue comme l'immobilité par rapport à cet hypothétique éther. Il fallait aussi renoncer à la portée universelle du principe de relativité de Galilée, puisqu'il était contredit par les équations de Maxwell.

C'est ce dernier point qui a interpellé Einstein, parce que les lois de l'électromagnétisme semblent souvent au contraire en très bon accord avec le principe de relativité de Galilée. C'est pourquoi Einstein a fait le choix a priori surprenant d'interpréter les équations de Maxwell en conservant le principe de relativité de Galilée. C'est un choix surprenant parce qu'il conduit au principe suivant :

La vitesse de la lumière est la même, dans toutes les directions, quel que soit le repère inertiel où elle est mesurée.

En particulier, la lumière avance à 300000 km/s par rapport à la Terre, mais si je la poursuis à la vitesse de 299000 km/s alors elle avance quand même à 300000 km/s par rapport à moi. C'est une conclusion absurde seulement en apparence. Einstein a montré que la relativité de la simultanéité par rapport au mouvement de l'observateur suffit pour faire disparaître l'apparence d'absurdité.

La relativité de la simultanéité[modifier | modifier le wikicode]

Que la simultanéité soit relative ou absolue est une question empirique dès qu'on a précisé comment on observe la simultanéité de deux événements. Pour cela il suffit de mesurer des distances sur un repère inertiel et d'y placer un émetteur d'ondes sphériques, des ondes sonores par exemple, qui se propagent dans un milieu matériel attaché au repère. Deux points situés à la même distance de l'émetteur reçoivent une impulsion sonore simultanément, par définition de la simultanéité. Einstein se servait de la lumière elle-même, et non des ondes sonores, pour définir la simultanéité des événements, mais cela affaiblissait son raisonnement, parce qu'il devait postuler que la lumière a la même vitesse dans toutes les directions. Ce postulat n'est pas nécessaire pour définir la simultanéité.

Les résultats empiriques sont clairs. Toutes les expériences jusqu'à ce jour confirment les prédictions de la théorie d'Einstein. La simultanéité des événements est donc relative au mouvement de l'observateur et la vitesse de la lumière est la même dans toutes les directions, quel que soit le repère inertiel où elle est mesurée.

Les dispositifs de mesure spatio-temporelle[modifier | modifier le wikicode]

Un règle rigide, ou un compas, permet de mesurer la distance entre ses extrémités en la comparant à d'autres distances. Une règle rigide est donc un dispositif de mesure d'une longueur, ou d'un intervalle, spatial. Le point important est que la règle soit rigide, pour que la distance mesurée soit toujours la même. On peut concevoir sur le même modèle des dispositifs de mesure des intervalles spatio-temporels. Une simple horloge est un tel dispositif. Elle permet de pointer deux événements qui sont toujours séparés par la même durée. On peut aussi se servir de deux horloges fixées à un même support rigide, chacune étant utilisée pour pointer un certain événement. Si le dispositif qui déclenche les deux horloges est régulier, l'intervalle spatio-temporel entre les deux événements pointés peut être toujours le même. De tels dispositifs permettent de mesurer l'espace-temps de la même façon que les règles rigides permettent de mesurer l'espace.

Un intervalle est du genre temps lorsqu'il est sur la trajectoire d'un point matériel massif. Il est du genre lumière lorsqu'il est sur la trajectoire d'un rayon de lumière dans le vide. Tous les autres intervalles sont du genre espace. Lorsqu'un intervalle est du genre espace, il existe toujours un repère inertiel pour lequel ses extrémités sont des événements simultanés. Les dispositifs de mesure spatio-temporels permettent de mesurer les trois genres d'intervalle. Une seule horloge suffit pour mesurer les intervalles du genre temps. Deux horloges fixées sur une règle rigide et convenablement synchronisées permettent de mesurer des intervalles du genre espace ou genre lumière.

Tous les intervalles du genre lumière sont égaux[modifier | modifier le wikicode]

La théorie permet d'attribuer un nombre réel à tous les intervalles spatio-temporels, quel que soit leur genre, ou plus précisément à leur carré. Les intervalles du genre lumière en particulier sont tous égaux à zéro et donc tous égaux entre eux. C'est a priori surprenant. Cela veut dire par exemple que l'intervalle spatio-temporel entre l'émission d'un photon et sa réception trois mètres plus loin est égal à l'intervalle entre son émission et sa réception trois années-lumière plus loin, comme si le photon en avançant ne s'éloignait jamais de son point de départ. N'est-ce pas le pays des merveilles ?

Les dispositifs de mesure spatio-temporelle et la relativité de la simultanéité permettent de comprendre ce résultat contre-intuitif. Imaginons une fusée lancée vers une étoile à trois années-lumière de la Terre. Un photon est émis à l'arrière de la fusée et il est reçu à l'avant, trois mètres plus loin, du point de vue de la fusée, donc une infime fraction de seconde plus tard. Mais à cause de la relativité de la simultanéité, ce qui dure une infime fraction de seconde du point de vue de la fusée peut durer trois années du point de vue de la Terre, pourvu que la fusée soit suffisamment rapide. Le même dispositif spatio-temporel mesure à la fois un intervalle lumière de trois années-lumière et un intervalle lumière de trois mètres. Il établit ainsi leur égalité.

La métrique de Minkowski et les tenseurs de l'espace-temps[modifier | modifier le wikicode]

Dans l'espace euclidien, la distance peut être définie à partir du produit scalaire, parce que la longueur d'un vecteur est la racine carrée de son carré scalaire :

C'est pourquoi on dit du produit scalaire qu'il définit la métrique de l'espace euclidien.

Inversement le produit scalaire peut être défini à partir de la distance, avec la formule :

Lorsqu'on introduit des coordonnées cartésiennes le carré scalaire est la formule de Pythagore :

Dans l'espace-temps de Minkowski, on peut aussi définir un produit "scalaire" à partir de la mesure des intervalles, mais on l'appelle parfois pseudo-scalaire, parce qu'il n'a pas toutes les propriétés du produit scalaire habituel.

Comme dans l'espace euclidien les vecteurs de l'espace-temps peuvent être identifiés à des intervalles, mais ce sont des intervalles entre des événements et non des intervalles entre des points de l'espace. Les vecteurs ont donc quatre composantes, une composante temporelle et trois composantes spatiales.

Les intervalles du genre temps peuvent être mesurés en secondes et les intervalles du genre espace en mètre. Le produit "scalaire" les distingue en leur attribuant aux uns un carré scalaire positif et aux autres un carré scalaire négatif. Le carré scalaire des intervalles du genre lumière est nul.

Si on choisit que les intervalles du genre temps ont un carré scalaire négatif, le carré scalaire d'un intervalle est :

Si on choisit comme unité de distance la seconde-lumière, 300000 km environ, et le carré scalaire s'écrit plus simplement :

À partir du carré scalaire et donc de la mesure des intervalles spatio-temporels on peut définir le produit "scalaire" spatio-temporel comme dans l'espace euclidien.

Les tenseurs sont définis comme dans l'espace euclidien, sauf que le tenseur fondamental est le produit "scalaire" de Minkowski.

Pourquoi la physique newtonienne est-elle quand même vraie ?[modifier | modifier le wikicode]

La physique newtonienne postule implicitement que la simultanéité des événements est absolue et elle applique le principe de relativité générale aux vecteurs tridimensionnels de l'espace euclidien et à leurs tenseurs. Or la théorie de la relativité a montré que la simultanéité des événements est relative et qu'il faut appliquer le principe de relativité générale aux vecteurs quadridimensionnels de l'espace-temps et à leurs tenseurs.

La physique newtonienne est fausse mais seulement un peu fausse, et souvent sa fausseté est négligeable, indétectable compte-tenu de l'imprécision des mesures. Les vecteurs tridimensionnels sont comme des ombres des vecteurs quadridimensionnels. Tant que les vitesses sont petites devant celle de la lumière, ces ombres sont peu déformées, et on commet une faible erreur si on raisonne sur les ombres plutôt que sur les quadrivecteurs. C'est seulement lorsque les vitesses s'approchent de celle de la lumière que la fausseté de la physique newtonienne devient détectable.

La courbure de l'espace-temps et la gravitation[modifier | modifier le wikicode]

La chute libre et les orbites des planètes[modifier | modifier le wikicode]

La théorie de Newton explique la chute libre à la surface de la Terre et la trajectoire de la Lune avec la même force d'attraction gravitationnelle :

Gravitation.gif

Tout se passe comme si la Lune n'arrêtait pas de tomber sur la Terre, mais elle tombe toujours à côté, et finalement elle ne fait que tourner autour du corps sur lequel elle tombe. De façon générale, les satellites et les projectiles obéissent tous à la même loi. Les orbites des planètes et les trajectoires de tous les satellites peuvent être considérées comme des trajectoires de chute libre, sauf que c'est une chute qui n' a pas de fin.

La théorie de Newton montre donc, contre Aristote, que les mêmes lois expliquent le mouvement des corps terrestres et célestes.

La grande idée d'Einstein[modifier | modifier le wikicode]

Einstein a été conduit à la théorie de la relativité générale en comprenant que la chute libre est identique à l'apesanteur. Si on se trouve dans un ascenseur en chute libre, tout se passe comme si on était dans un ascenseur en apesanteur, jusqu'à ce qu'il s'écrase sur le sol. Cela permet de produire expérimentalement de l'apesanteur à la surface de la Terre. Il suffit de se servir d'un avion qui simule une trajectoire de chute libre. Tant qu'il reste sur une telle trajectoire, tous les passagers sont en apesanteur :

Physicist Stephen Hawking in Zero Gravity NASA.jpg

Stephen Hawking à bord d'un Boeing 727 lors d'une expérience d'apesanteur

Pour la physique newtonienne, être en chute libre est être soumis à la force de la gravité. Pour la physique einsteinienne, être en chute libre est n'être soumis à aucune force, parce qu'un corps en chute libre se comporte de la même façon que s'il était en apesanteur. Selon Einstein, la force de gravité n'existe pas, la gravitation n'est pas une force.

Pour la physique newtonienne, un corps au repos à la surface de la Terre a une accélération nulle et n'est donc soumis à aucune force, ou plus précisément il est soumis à deux forces qui se compensent exactement, l'attraction gravitationnelle de la Terre et la force de réaction du sol. Pour la physique einsteinienne, un corps au repos à la surface de la Terre est en permanence soumis à la force de réaction du sol. Celle-ci n'est pas compensée par la force de gravité, qui n'existe pas. Si aucune force n'agissait sur le corps, il resterait sur une trajectoire de chute libre et ne serait donc pas au repos à la surface de la Terre.

Dans l'espace-temps de Newton, et dans celui de Minkowski, les corps qui ne soumis à aucune force vont toujours en ligne droite et à des vitesses constantes les uns par rapport aux autres. Ces trajectoires rectilignes sont les géodésiques, c'est à dire les lignes de plus court chemin, de ces espaces-temps. Dans un espace-temps courbe, tous les corps en chute libre et tous les satellites en orbite ne sont soumis à aucune force, et leurs trajectoires sont toutes des géodésiques.

Dans un espace plat, tel qu'une feuille de papier, les lignes de plus court chemin sont toujours des lignes droites, mais un espace courbe peut accueillir d'autres lignes géodésiques. Sur une sphère par exemple, les géodésiques sont les grands cercles. Les espaces-temps de Newton et de Minkowski sont plats, au sens où les géodésiques sont toujours des lignes droites, mais l'espace-temps de la relativité générale est un espace-temps courbe, parce que les géodésiques y sont libres d'adopter davantage de formes.

Dans la théorie de Newton, les corps massifs exercent des forces gravitationnelles les uns sur les autres. Dans la théorie d'Einstein, ces forces n'existent pas, mais les corps affectent la courbure de l'espace-temps là où ils sont présents. Le Soleil par exemple courbe l'espace-temps par sa présence et fait apparaître ainsi à son voisinage des géodésiques qui reviennent sur elles-mêmes. Les trajectoires des planètes sont justement de telles géodésiques.

L'égalité de la masse inerte et de la masse pesante[modifier | modifier le wikicode]

La masse inerte est par définition le coefficient d'inertie qui apparaît dans la loi fondamentale de la dynamique newtonienne :

C'est un coefficient d'inertie parce qu'il mesure la capacité d'un corps à résister à l'action d'une force. Plus il est élevé, plus l'effet d'une force est petit.

La masse inerte mesure la façon dont un corps subit les forces exercées par d'autres corps. La masse pesante mesure quant à elle la façon dont un corps agit sur les autres corps. Elle est le coefficient qui apparaît dans la loi de la gravitation universelle :

Deux corps de masses et séparés par une distance exercent chacun sur l'autre une force attractive égale à

est la constante de la gravitation universelle.

On observe que tous les corps soumis à la gravitation subissent tous la même accélération, quelle que soit leur masse et le matériau dont ils sont faits. On peut expliquer cette observation en postulant que la masse inerte est toujours égale à la masse pesante , parce qu'un corps de masse inerte et de masse pesante soumis à la gravitation d'un corps de masse pesante a une accélération égale à

si

La théorie de Newton n'impose pas l'égalité . En principe ces deux coefficients pourraient être différents, et l'accélération d'un corps soumis à la gravitation pourrait dépendre du matériau qui le constitue. Mais les mesures plus précises n'ont jamais permis d'observer une telle variation.

La théorie d'Einstein quant à elle impose que la trajectoire d'un corps soumis à la gravitation ne dépende pas de son matériau, parce que tous les corps, quelle que soit leur matériau, doivent suivre les mêmes géodésiques. Elle impose donc que les masses inerte et pesante soient égales, ce qui est très exactement ce qu'on observe.

Relativité restreinte et relativité générale[modifier | modifier le wikicode]

La métrique de l'espace euclidien est décrite avec le tenseur métrique euclidien, c'est à dire le produit scalaire, qu'on peut définir à partir de la longueur des vecteurs et donc à partir de la mesure des longueurs dans l'espace.

La métrique de l'espace-temps de Minkowski est décrite avec le tenseur métrique minkowskien, c'est à dire le produit "scalaire" de Minkowski, qu'on peut définir à partir de la mesure des intervalles dans l'espace-temps.

La métrique d'un espace-temps courbe est décrite avec un tenseur métrique riemannien. C'est l'analogue pour un espace-temps courbe du tenseur métrique minkowskien pour un espace-temps plat.

La géométrie différentielle est l'outil mathématique adapté pour définir les espaces-temps courbes et leurs tenseurs métriques. Elle permet ainsi de définir tous les vecteurs et les tenseurs qui peuvent exister dans ces espaces-temps. Pour autoriser toutes les formes d'espace-temps concevables, elle autorise tous les systèmes de coordonnées. Le même objet peut donc toujours être représenté même après un changement arbitraire du système de coordonnées. Plus précisément, on ne s'intéresse qu'aux changements de coordonnées qui respectent la structure différentielle de l'espace-temps, c'est à dire les difféomorphismes.

Les changements arbitraires de systèmes de coordonnées sont nécessaires pour définir les espaces-temps courbes en toute liberté. Pour les espaces-temps plats, de Newton ou de Minkowski, de tels changements de coordonnées ne sont pas interdits, mais ils ne sont pas nécessaires. On peut toujours se limiter à des coordonnées cartésiennes, définies avec des repères orthonormés. C'est pourquoi l'espace-temps de Minkowski peut être défini avec un principe de relativité restreinte :

Les lois de la physique ne doivent pas dépendre du système de coordonnées orthonormé avec lequel elles sont formulées.

L'espace-temps courbe de la relativité générale doit lui être défini avec un principe de relativité générale :

Les lois de la physique ne doivent pas dépendre du système de coordonnées avec lequel elles sont formulées.

Mais le principe de relativité générale peut aussi être appliqué à l'espace-temps de Minkowski, ou à celui de Newton, et on ne s'en prive pas, puisqu'on ne se sert pas toujours de repères cartésiens pour les étudier.

Les principes relativistes sont confirmés par leurs fruits[modifier | modifier le wikicode]

Les succès de la physique montrent qu'on peut énoncer des vérités sur les objets et les relations que l'on définit. Le principe de relativité générale, qu'on devrait appeler le principe d'absoluité, est donc confirmé à chaque fois qu'une théorie physique nous fait découvrir des vérités.

La physique newtonienne applique le principe de relativité générale à l'espace euclidien. Les vecteurs et les tenseurs de l'espace euclidien suffisent pour représenter tous les mouvements de la matière ordinaire, pourvu que leurs vitesses soient petites devant celle de la lumière. Le principe de relativité générale appliqué à l'espace euclidien est donc confirmé à chaque fois que les théories qu'il permet de formuler sont en accord avec les observations, c'est à dire toujours, ou presque toujours.

La théorie de la relativité restreinte applique le principe de relativité générale à l'espace-temps de Minkowski. Les vecteurs et les tenseurs de l'espace-temps de Minkowski suffisent pour représenter tous les mouvements de la matière, tant qu'on peut ignorer la gravitation et les effets quantiques. Le principe de relativité générale appliqué à l'espace-temps de Minkowski est donc confirmé par toutes les expériences de physique classique, sauf celles qui mettent en jeu la gravitation.

La théorie de la relativité générale applique le principe de relativité générale aux espace-temps courbes. Les vecteurs et les tenseurs qu'on peut y définir suffisent pour représenter tous les mouvements de la matière, tant qu'on peut ignorer les effets quantiques. Le principe de relativité générale appliqué aux espace-temps courbes a toujours été confirmé par toutes les expériences qui auraient pu le réfuter et il a conduit à des prédictions remarquables : le Big Bang, les trous noirs, les ondes gravitationnelles ...


Chapitre suivant : La théorie quantique des destinées multiples >>>


Pourquoi l'entropie est-elle réelle ?

La réalité de l'entropie thermodynamique[modifier | modifier le wikicode]

Pour connaître la matière dans tous ses états, l'entropie est l'un des concepts les plus fondamentaux et les plus importants. Avec lui on peut expliquer à peu près tout, sans lui à peu près rien. On peut toujours attribuer une entropie aux divers fragments de matière dès que des conditions très générales sont réunies, être en équilibre thermique ou proche d'un équilibre thermique, et on peut en général la mesurer. Du point de vue de la science empirique et de la théorie thermodynamique, l'entropie est une grandeur réelle, elle décrit des propriétés réelles de la matière. Dans les cours de thermodynamique on dit qu'elle est une fonction d'état pour dire qu'elle est déterminée par l'état réel du système. L'entropie existe réellement, pas seulement dans l'imagination des théoriciens.

Du point de vue de la physique statistique, la réalité de l'entropie est pourtant un problème.

Les trois définitions de l'entropie statistique[modifier | modifier le wikicode]

La physique statistique nous demande de distinguer deux notions d'état pour un système physique, l'état microscopique, ou microétat, et l'état macroscopique, ou macroétat.

  • Le macroétat est l'état tel qu'il est défini par la thermodynamique. Il dépend de paramètres macroscopiques : le volume, l'énergie interne, le nombre de moles, la pression, la température, la tension superficielle, le potentiel chimique, l'aimantation, le champ extérieur appliqué ou tout autre paramètre macroscopique mesurable qui sert à déterminer l'état d'équilibre du système étudié.
  • Le microétat est l'état instantané du système. Il dépend de tous les états de ses constituants microscopiques. En physique classique, il est déterminé par les positions et les vitesses de toutes les particules constituantes. En physique quantique, le microétat est l'état quantique du système qui est déterminé avec l'équation de Schrödinger.

Le macroétat n'évolue pas ou lentement et de façon en général déterministe. Le microétat change en général tout le temps, très rapidement et d'une façon aléatoire.

Il semble que l'état réel d'un système est toujours son microétat. Le macroétat n'est qu'une description grossière qui ignore tous les détails microscopiques.

Sauf cas exceptionnel, on ne connaît jamais exactement le microétat d'un système macroscopique, parce qu'il faudrait connaître les états quantiques de tous ses constituants microscopiques, qui sont beaucoup trop nombreux pour être recensés, et la façon dont ils sont intriqués.

Comme le microétat est en général inconnu, la physique statistique raisonne sur la distribution de probabilités des microétats possibles. L'entropie est toujours définie à partir de cette distribution de probabilités. Elle est calculée avec la formule de Gibbs :

où les sont les probabilités de tous les microétats possibles . est la constante de Boltzmann.

Pour un système quasi-isolé, on peut montrer qu'à l'équilibre tous les microétats possibles sont également probables (cf. complément). D'une façon un peu mystérieuse, on appelle microcanonique cette distribution de probabilités. Si est le nombre des microétats possibles. Les sont alors égales à puisqu'elles sont toutes égales. La formule de Gibbs conduit alors à la formule de Boltzmann :

Boltzmann est le premier (1872-1875) qui a défini l'entropie statistique. Gibbs est venu ensuite et a généralisé la formule de Boltzmann pour des distributions de probabilités a priori quelconques (1902).

En mécanique quantique, on compte le nombre des microétats d'une base. Ce nombre est la dimension de l'espace des microétats possibles. Lorsque l'entropie est définie avec une distribution de probabilités, on peut attribuer des probabilités aux microétats de base, mais le mieux est de raisonner sur l'opérateur densité.

L'entropie mesure le manque d'information sur le microétat d'un système, donc l'ignorance de l'observateur. Mais alors il semble qu'elle n'est pas une grandeur réelle puisqu'elle dépend de la façon dont l'observateur est informé. Faut-il en conclure que la thermodynamique a tort de postuler que l'entropie est une fonction d'état ?

Pour répondre il faut distinguer trois façons d'interpréter la définition mathématique de l'entropie à partir de l'ensemble des microétats possibles, parce qu'on peut donner trois définitions d'un microétat possible :

  • Un microétat accessible au système étudié. Tous les microétats accessibles peuvent être visités par le système lors de son cheminement aléatoire.
  • Un microétat compatible avec les contraintes macroscopiques qui définissent le macroétat.
  • Un microétat compatible avec l'information dont l'observateur dispose.

Cela conduit à trois formes d'entropie qui seront appelées sur cette page l'entropie d'accessibilité, l'entropie des contraintes et l'entropie d'information.

En général mais pas nécessairement, ces trois entropies sont égales parce que tous les microétats compatibles avec les contraintes macroscopiques sont accessibles, et parce que ces contraintes sont précisément l'information dont l'observateur dispose.

L'entropie d'accessibilité peut être plus petite que l'entropie des contraintes, parce qu'il se peut que le système soit empêché d'accéder à une partie des microétats compatibles avec les contraintes macroscopiques. En particulier, si le système est bloqué dans l'un de ses microétats de plus basse énergie, donc le nombre de microétats accessibles mais les microétats de plus basse énergie peuvent être très nombreux. Le nombre de microétats compatibles avec les contraintes macroscopiques peut donc être beaucoup plus grand que 1, . Avec , l'entropie d'un système à température nulle est toujours nulle, mais avec elle peut être très différente. Comme l'entropie de température nulle, qu'on appelle aussi l'entropie résiduelle, est une grandeur mesurable qui est parfois non-nulle, il ne faut pas ignorer la différence entre l'entropie d'accessibilité et l'entropie des contraintes.

L'entropie d'information peut être plus petite que l'entropie des contraintes ou que l'entropie d'accessibilité dès que l'observateur est informé sur des détails microscopiques. Elle peut être plus grande que l'entropie des contraintes lorsque l'observateur ne connaît pas toutes les contraintes macroscopiques que le système observé doit respecter.

Clairement l'entropie d'information dépend en général de l'observateur et n'est pas déterminée par l'état réel du système étudié. La physique statistique nous invite en revanche à considérer que l'entropie des contraintes est une grandeur réelle. Mais cela n'est pas du tout évident a priori, puisqu'elle est comme l'entropie d'information une mesure du manque d'information sur le microétat du système. L'entropie d'accessibilité semble beaucoup plus réelle, parce qu'elle dépend de l'espace des microétats qui peuvent être réellement visités.

L'entropie des contraintes est une sorte d'entropie d'information. C'est l'entropie d'information d'un observateur qui est informé des contraintes macroscopiques qui déterminent l'équilibre d'un système thermodynamique.

Pour justifier la réalité de l'entropie statistique on suppose en général que l'entropie des contraintes est égale à l'entropie d'accessibilité (Diu, Guthmann, Lederer, Roulet 1989). On suppose en outre que les grandeurs thermodynamiques mesurables peuvent être définies à partir de moyennes calculées sur l'ensemble de tous les microétats accessibles. Quand le microétat change tout le temps il est naturel de considérer une moyenne temporelle qui prend en compte ces variations. Mais ces justifications de la réalité de l'entropie statistique se heurtent à de nombreuses difficultés.

Les sections suivantes montrent que l'entropie thermodynamique n'est pas l'entropie d'accessibilité mais l'entropie des contraintes lorsqu'elles sont différentes, et qu'il faut raisonner sur l'entropie d'information pour comprendre l'impossibilité du mouvement perpétuel de seconde espèce.

La réalité de l'entropie d'accessibilité[modifier | modifier le wikicode]

Ensembles statistiques, ergodicité et moyennes temporelles[modifier | modifier le wikicode]

La physique statistique est développée d'une façon mathématiquement rigoureuse en raisonnant sur des ensembles statistiques de systèmes physiques (Gibbs 1902). La probabilité d'un microétat est interprétée comme la probabilité qu'un système choisi aléatoirement dans l'ensemble statistique soit dans ce microétat. La théorie ergodique permet en principe de relier les grandeurs définies avec un ensemble statistique aux grandeurs définies avec un unique système physique. Les moyennes sur l'ensemble sont identifiées aux moyennes temporelles du système. Mais on raisonne en général sur des moyennes de très long terme, parce qu'il faut des durées immenses par rapport à l'âge de l'Univers pour qu'un système macroscopique explore une fraction appréciable de son espace des microétats accessibles. Or les mesures thermodynamiques sont en général assez rapides. Tant que les systèmes ne sont pas trop éloignés d'un équilibre thermique, une fraction de seconde peut suffire. On peut même souvent les mesurer en continu. On n'attend jamais des milliards d'années.

Si on calcule correctement une grandeur d'équilibre, avec un ensemble statistique adapté, le résultat est confirmé par l'observation. Mais la durée de celle-ci peut être assez brève, juste le temps que le système atteigne son équilibre. Même quand on attend des heures, ou rarement des semaines, pour que l'équilibre thermodynamique soit atteint, ce n'est pas suffisant pour explorer l'espace des microétats accessibles en son entier. Pourquoi alors le résultat calculé avec une distribution de probabilités sur cet espace est-il identique au résultat observé ?

Le principe des sondages et la méthode Monte-Carlo[modifier | modifier le wikicode]

Le principe des sondages peut expliquer l'égalité entre les grandeurs thermodynamiques réellement mesurées et les grandeurs calculées avec des ensembles statistiques qui n'ont aucune réalité physique. Une moyenne calculée sur un échantillon représentatif peut être une excellente approximation de la moyenne calculée sur l'ensemble tout entier, pourvu que l'échantillon soit suffisamment nombreux et vraiment représentatif. Lors d'une mesure thermodynamique, le système n'explore qu'une petite partie de son espace de microétats accessibles, mais elle peut être suffisamment grande et représentative pour que la grandeur mesurée soit identique à celle qui a été calculée avec un ensemble statistique.

Une mesure thermodynamique ressemble à la méthode Monte-Carlo. Pour évaluer une moyenne on la calcule à partir d'un échantillon choisi au hasard. Les théoriciens se servent des générateurs pseudo-aléatoires des ordinateurs pour choisir leurs échantillons. Les expérimentateurs font confiance à la Nature. Elle est comme un générateur aléatoire qui choisit à chaque observation un échantillon représentatif qui confirme nos prédictions théoriques. La méthode Monte-Carlo est plus proche de la réalité physique que les ensembles statistiques qu'elle sert à étudier. Quand on fait une mesure thermodynamique la Nature elle-même applique la méthode Monte-Carlo avant de nous fournir le résultat.

Qu'une moyenne temporelle brève soit représentative de l'espace de tous les micro-états accessibles n'est a priori pas du tout évident, et même plutôt exclu, parce qu'on observe seulement une petite partie de la trajectoire du système et qu'elle peut être très différente des autres parties. Comment se fait-il que la Nature soit un générateur aléatoire fiable qui nous donne des échantillons vraiment représentatifs des moyennes de très long terme ?

La décohérence quantique[modifier | modifier le wikicode]

Les lois thermodynamiques doivent être justifiées à partir de la physique quantique, comme toutes les autres lois physiques, parce que la théorie quantique est la physique la plus fondamentale. On peut alors se demander si les probabilités des ensembles statistiques peuvent être interprétées comme des probabilités quantiques. La théorie de la décohérence le suggère. Si on observe un système qui interagit avec un environnement qu'on n'observe pas, on doit le décrire avec un opérateur densité qui définit une distribution de probabilités sur les états du système. Même si l'état initial est précisément déterminé, l'évolution ultérieure est décrite par une distribution de probabilités. Cet effet de décohérence peut être très rapide. Mais les distributions de probabilités obtenues par décohérence ne sont pas en général les distributions des ensembles statistiques de la thermodynamique. La décohérence à elle-seule ne suffit pas pour résoudre le problème des moyennes de court-terme, mais elle peut aider à le résoudre, parce qu'elle est un effet très rapide, très puissant et très général qui introduit beaucoup de hasard dans l'évolution des systèmes physiques.

L'entropie microscopique[modifier | modifier le wikicode]

Les distributions de probabilités calculées par la physique statistique (Maxwell-Boltzmann, Fermi-Dirac, Bose-Einstein) déterminent les probabilités des états des constituants microscopiques d'un système thermodynamique. Ces probabilités, qui déterminent les vitesses d'une molécule dans un gaz, ou des nombres d'occupation d'états quantiques, permettent de définir une entropie microscopique, c'est à dire une entropie par molécule, ou par état quantique d'une particule. L'entropie du système tout entier est la somme des entropies microscopiques de ses constituants pourvu qu'ils soient statistiquement indépendants (cf. complément). Pour tenir compte de l'indiscernabilité des particules il faut raisonner sur les nombres d'occupation des états quantiques.

La réalité de l'entropie microscopique n'est pas incompatible avec la brièveté des observations parce que l'espace des états accessibles d'un constituant microscopique est petit. Cela suffit pour justifier la réalité de l'entropie microscopique et à partir de là l'entropie macroscopique aussi. Mais pour cela on a besoin de justifier l'indépendance statistique des constituants microscopiques.

L'indépendance des constituants microscopiques[modifier | modifier le wikicode]

Les constituants microscopiques d'un système en équilibre thermodynamique ne peuvent pas être parfaitement indépendants. Pour qu'ils le soient il faudrait qu'ils n'interagissent pas du tout les uns avec les autres. Mais s'ils n'interagissent pas, ils ne peuvent pas échanger d'énergie et l'équilibre thermique est alors exclu.

Pour qu'un équilibre thermodynamique puisse s'établir, il suffit de supposer que les constituants interagissent faiblement les uns avec les autres d'une façon très diversifiée, c'est à dire que chaque constituant interagit faiblement avec un grand nombre d'autres constituants. Par exemple une molécule d'un gaz est couplée à toutes les autres, à cause des collisions, mais c'est un couplage faible parce que la probabilité d'une collision particulière est très petite.

Un constituant microscopique ne peut avoir à lui tout seul qu'un très faible effet sur son environnement, parce qu'il est tout petit par rapport à lui. Si en outre cet effet est dilué sur de nombreuses autres parties, la possibilité d'une réaction de l'environnement à l'effet de ce constituant est négligeable. Tout se passe comme si l'environnement restait statistiquement toujours presque le même, quel que soit l'état du constituant microscopique. L'état d'un constituant est donc statistiquement presque indépendant de l'état de son environnement. Comme cela est vrai pour tous les constituants microscopiques faiblement couplés, ils sont tous presque indépendants les uns des autres. On peut en conclure que l'entropie macroscopique est le somme des entropies microscopiques.

Pour justifier la réalité de l'entropie statistique, la théorie ergodique ne suffit pas, il faut surtout prouver la quasi-indépendance statistique des constituants microscopiques.

Manque d'information, laisser-faire et équilibre[modifier | modifier le wikicode]

Le manque d'information sur l'état réel d'un système thermodynamique ne vient pas de la paresse ou de l'incompétence de l'observateur mais de la nature des phénomènes observés. Les expériences thermodynamiques laissent les systèmes observés atteindre ou s'approcher d'un équilibre. On ne contrôle qu'un petit nombre de grandeurs macroscopiques et on laisse l'équilibre s'établir en ignorant les microétats. Si on essayait de les connaître plus précisément, on pourrait empêcher le système de s'approcher de l'équilibre et on ne pourrait pas observer justement ce qu'on veut observer, l'équilibre ou la proximité de l'équilibre. Laisser le système vagabonder au hasard dans son espace de microétats est une condition nécessaire pour qu'on puisse observer un équilibre thermodynamique. Paradoxalement, l'ignorance des microétats, qui est une propriété subjective de l'observateur, est une condition nécessaire pour qu'un équilibre thermodynamique, un événement réel, objectif, puisse se produire. C'est pourquoi l'entropie, qui mesure un manque d'information, est une propriété matérielle objective. Elle est le manque d'information qui rend possible l'équilibre thermodynamique réellement observé.

La différence entre l'entropie thermodynamique et l'entropie d'accessibilité[modifier | modifier le wikicode]

Un verre est un liquide figé. Plus précisément, c'est un liquide dont la viscosité est tellement élevée qu'on ne peut pas observer son écoulement, sauf sur des durées très longues, des jours, des siècles ou davantage. On peut donc le considérer comme un solide mais sa structure microscopique est aussi désordonnée que celle d'un liquide.

Lors de la transition liquide-verre, la variation de l'entropie thermodynamique est continue, donc l'entropie thermodynamique d'un verre est égale à celle du liquide à la même température. Mais l'entropie d'accessibilité est beaucoup plus petite, parce que le verre est bloqué dans une configuration particulière tandis que le liquide peut explorer toutes les configurations compatibles avec les contraintes macroscopiques.

L'existence des verres prouve donc que l'entropie thermodynamique est l'entropie des contraintes et non l'entropie d'accessibilité si elles sont différentes. L'entropie thermodynamique est donc une sorte d'entropie d'information. C'est l'entropie d'information d'un observateur qui est informé des contraintes.

L'entropie de température nulle est la différence entre l'entropie des contraintes et l'entropie d'accessibilité à . Plus exactement elle est la limite de cette différence quand tend vers zéro. Les matériaux qui ont une entropie de température nulle sont des solides désordonnés tels que les verres. L'entropie de température nulle est égale à est le nombre de microétats compatibles avec les contraintes macroscopiques.

Qu'il faille compter des microétats qui ne sont pas visités par un système thermodynamique est a priori surprenant. Le manque d'information sur la configuration microscopique d'un solide désordonné dépend de l'observateur. Si nous observons les détails microscopiques d'une configuration, nous réduisons ce manque d'information. On est donc tenté d'affirmer que l'entropie thermodynamique devrait être l'entropie d'accessibilité et non l'entropie des contraintes si elle doit être une grandeur réelle. Mais il faudrait alors renoncer à la loi de non-décroissance de l'entropie puisque l'entropie d'accessibilité est réduite spontanément lors de la transition liquide-verre.

Pourquoi faut-il tenir compte de microétats qui ne sont pas visités par un système pour calculer correctement son entropie thermodynamique ?

Comme l'entropie mesure le manque d'information sur les microétats d'un système on est tenté de conclure que l'observation des détails microscopiques d'un solide désordonné devrait réduire son entropie. Mais alors l'entropie thermodynamique ne pourrait pas être une grandeur réelle, mesurable, la même pour tous les observateurs, elle ne serait rien d'autre qu'une entropie d'information arbitraire. Pourquoi alors l'entropie thermodynamique est-elle vraiment une grandeur réelle ?

Les deux problèmes ci-dessus sont étroitement liés. Pour les résoudre il faut comprendre que l'information peut être utilisée comme un carburant et que la thermodynamique nous demande de raisonner sur l'entropie d'information.

L'information comme carburant[modifier | modifier le wikicode]

Le démon de Maxwell[modifier | modifier le wikicode]

Un démon de Maxwell montre que l'information peut être transformée en travail :

Considérons un gaz dans un récipient. On place une cloison en son milieu. Elle est munie d'une petite porte commandée par un dispositif qui détecte la vitesse des molécules incidentes. Il ouvre la porte seulement si une molécule qui vient de la gauche va plus vite que la moyenne ou si une molécule qui vient de la droite va moins vite que la moyenne. De cette façon le compartiment de droite est réchauffé tandis que celui de gauche est refroidi (Maxwell 1871). On peut se servir de cette différence de température pour faire fonctionner un moteur thermique.

Le dispositif d'ouverture de porte est un démon de Maxwell. Il acquiert de l'information qui peut être ensuite transformée en travail. L'information est donc une sorte de carburant.

Maxwell a inventé son "démon" pour montrer que la loi de non-décroissance de l'entropie est seulement une vérité statistique qui pourrait être transgressée si on était capable de modifier les équilibres statistiques des constituants microscopiques. En son temps, l'existence des atomes et des molécules était encore très hypothétique. Envisager la possibilité de les manipuler était donc hors de question. Mais dès que les constituants microscopiques de la matière furent mieux connus, la possibilité d'un dispositif mécanique qui fonctionne comme un démon de Maxwell pouvait être prise au sérieux.

À ce jour nos capacités d'observation et de manipulation des constituants microscopiques ne permettent pas de réaliser le dispositif imaginé par Maxwell, mais la microscopie à effet tunnel permet d'observer et de manipuler les atomes. On peut alors imaginer un dispositif qui permet de récupérer du travail après avoir réduit l'entropie du système observé, donc une sorte de démon de Maxwell en principe réalisable :

Considérons un cristal qui peut accueillir des atomes en surface. On suppose qu'initialement atomes sont répartis aléatoirement sur sites et que la température est suffisamment faible pour qu'ils y restent. C'est donc un désordre figé. On commence par observer la configuration exacte des atomes de surface, ce qu'on peut faire avec un microscope à effet tunnel, puis on les déplace et on les rassemble avec le même microscope sur une fraction de la surface. L'activité du microscope ressemble à un travail de compression isotherme sur un gaz, sauf que ce n'est pas un gaz mais un désordre figé en surface.

Initialement le nombre de configurations possibles est égal au nombre de façons de placer atomes sur sites. Le désordre figé des atomes en surface apporte donc une contribution à l'entropie thermodynamique du cristal :

où on s'est servi de l'approximation de Stirling :

Après avoir ordonné tous les atomes .

La loi de non-décroissance de l'entropie semble donc transgressée, comme Maxwell l'avait prédit, parce qu'on peut manipuler les atomes.

Le déplacement des atomes ne requiert en principe aucun travail parce que le travail d'arrachage d'un atome peut être récupéré lors de la redéposition. Mais comme un microscope à effet tunnel consomme de l'énergie et dissipe de la chaleur, il ne diminue pas l'entropie thermodynamique totale. Cette objection est discutée plus loin.

Quantité d'information et travail[modifier | modifier le wikicode]

Pour convertir en travail la réduction de l'entropie thermodynamique du cristal on met sa surface en contact avec un récipient vide de volume dont les autres parois ne peuvent pas accueillir les atomes. On divise ce récipient avec une paroi mobile en deux parties à gauche et à droite dont les volumes sont respectivement et . On chauffe le cristal pour vaporiser les atomes dans le volume . On laisse ensuite le gaz obtenu se détendre de façon isotherme dans la totalité du récipient, ce qui fournit un travail . On refroidit ensuite le cristal pour laisser les atomes se redéposer à la surface du cristal. Si on procède de façon réversible, avec une succession de bains thermiques, la chaleur fournie lors du chauffage par chaque bain thermique utilisé est exactement égale à la chaleur qu'il récupère lors du refroidissement, parce que la chaleur spécifique à volume constant d'un gaz ne dépend pas de son volume. Le cristal et les bains thermiques qui ont servi à la réchauffer sont donc revenus à leur état initial.

On a supposé qu'une paroi absorbante pouvait faire un vide parfait dans un volume arbitrairement grand. Une telle paroi ne peut pas exister sinon on pourrait faire un mouvement perpétuel de deuxième espèce : on place la paroi chargée d'atomes au contact d'un récipient vide, on la chauffe jusqu'à une température suffisamment chaude pour que tous les atomes soient vaporisés. On laisse alors le gaz se détendre de façon isotherme pour fournir du travail. On refroidit ensuite le gaz à une température suffisamment froide pour que tous les atomes se redéposent sur la paroi absorbante. Si on procède de façon réversible la chaleur fournie lors du chauffage par chaque bain thermique utilisé est exactement égale à la chaleur qu'il récupère lors du refroidissement. On pourrait donc revenir à l'état initial après avoir fourni du travail en n'extrayant la chaleur que d'un seul bain thermique.

Pour faire un calcul exact et compatible avec les lois de la thermodynamique il faut donc tenir compte de la densité d'équilibre d'un gaz au contact d'une paroi absorbante. Cette densité ne peut pas être nulle, mais elle peut être très petite, a priori aussi petite qu'on le veut si la paroi est suffisamment absorbante. Cela suffit pour justifier le calcul ci-dessus où elle est négligée.

Supposons que . Alors

Si en outre , on obtient

Or est égale à la réduction d'entropie d'information qu'on obtient lorsqu'on observe les positions de tous les atomes de surface. On obtient ainsi un exemple du théorème suivant :

Si l'entropie d'information est plus petite que l'entropie thermodynamique, alors la différence multipliée par la température mesure le maximum de la quantité de travail que le système peut fournir lorsqu'il ne peut recevoir de chaleur que d'un bain thermique à la température .

Ce théorème a été établi pour la première fois par Szilard en 1929. Mais son modèle est très irréaliste parce qu'il postule qu'une seule molécule peut pousser un piston comme si elle était un gaz ordinaire.

Pourquoi un démon de Maxwell ne peut-il pas réduire l'entropie totale ?[modifier | modifier le wikicode]

Pour que l'existence d'un démon de Maxwell soit compatible avec les lois de la thermodynamique il faut que l'une au moins des conditions suivantes soit satisfaite :

  1. Le fonctionnement du dispositif ne réduit pas l'entropie du système observé parce qu'il l'augmente avant de la diminuer.
  2. Le fonctionnement du dispositif augmente l'entropie de l'environnement.
  3. Le fonctionnement du dispositif augmente sa propre entropie.

Maxwell supposait que son démon devait voir les molécules. Mais pour les voir il faut éclairer le gaz et donc le réchauffer. Un tel réchauffement fait augmenter l'entropie du gaz et on peut s'attendre à ce que cette augmentation soit supérieure à la diminution provoquée par l'établissement d'une différence de température. Dans ce cas c'est la condition 1 qui empêche la réduction de l'entropie totale.

La microscopie à effet tunnel ne requiert pas d'éclairage et permet vraiment de diminuer l'entropie du système observé. Mais elle consomme de l'énergie et cède de la chaleur à l'environnement. On est tenté de conclure que l'acquisition d'information microscopique empêche un démon de Maxwell de réduire l'entropie totale parce qu'elle a un coût énergétique. Mais l'acquisition d'information n'a pas nécessairement un coût énergétique. Si le système complet constitué d'un détecteur et d'un système observé est parfaitement isolé de son environnement, cela n'empêche pas le détecteur d'acquérir de l'information. Lors d'une mesure quantique idéale par exemple, le système complet est isolé. Si le système observé est dans un état propre de la mesure, et s'il y a n tels états initiaux possibles, il y a également n états finaux possibles du détecteur, et le système observé n'est pas perturbé. Initialement, il y a n états initiaux possibles du système complet, parce que le détecteur est dans un unique microétat. Finalement il y a également n états finaux possibles du système complet parce que le système observé et le détecteur sont parfaitement corrélés. L'information est donc acquise sans augmenter l'entropie du système complet.

La physique n'interdit donc pas l'existence d'un système capable de détecter les atomes sans coût énergétique.

Faut-il conclure qu'un démon de Maxwell peut réduire l'entropie totale ?

Un dispositif qui acquiert de l'information doit la mettre en mémoire pour pouvoir l'utiliser. Si on observe un désordre figé, le dispositif d'enregistrement de l'information reproduit dans sa propre mémoire le désordre figé observé. Par exemple des atomes à la surface d'un cristal peuvent servir à enregistrer de l'information. Un atome peut enregistrer un bit d'information s'il a deux positions possibles. 0 est mémorisé par l'atome à gauche par exemple et 1 par l'atome à droite. Si initalement tous les atomes de la mémoire sont bien rangés, tous à gauche ou tous à droite, ils ne le sont plus après l'observation d'un désordre figé. L'entropie de la mémoire a donc augmenté.

Affirmer que l'entropie d'une mémoire augmente lorsqu'elle enregistre des informations est très paradoxal. Pour un observateur qui enregistre des informations, l'entropie de sa mémoire n'augmente pas, parce qu'il n'ignore pas dans quel état est sa mémoire. C'est seulement pour un observateur extérieur, qui ne sait pas quelles informations ont été enregistrées, que l'entropie d'information de la mémoire non-observée augmente.

Pour résoudre le problème il faut comprendre que la remise à zéro d'une mémoire requiert en général de l'énergie. Pour le prouver on a d'abord besoin de la loi de conservation de l'entropie d'information d'un système isolé.

La conservation de l'entropie d'information d'un système isolé[modifier | modifier le wikicode]

Si un système est isolé, son évolution spontanée conserve l'entropie d'information d'un observateur extérieur, c'est à dire que le nombre de microétats compatibles avec les informations d'un observateur extérieur ne change pas.

Cette loi est une conséquence du déterminisme hamiltonien de l'évolution d'un système isolé : des microétats distincts à un instant initial évoluent vers des microétats distincts à un instant ultérieur.

Si on calcule l'entropie d'information non avec le nombre de microétats mais avec une distribution de probabilités sur les microétats, la loi de conservation de l'entropie d'information d'un système isolé demeure parce que la distribution de probabilités sur les microétats finaux est la même que celle des états initiaux.

Lorsqu'un observateur acquiert des informations en observant un système, son entropie d'information peut diminuer mais le système observé n'est pas isolé.

Comme l'entropie thermodynamique est une sorte d'entropie d'information, la loi de conservation de l'entropie d'information d'un système isolé vaut aussi pour l'entropie thermodynamique. Comment alors se fait-il que l'entropie thermodynamique d'un système isolé puisse augmenter ?

Pourquoi l'entropie peut-elle augmenter ?[modifier | modifier le wikicode]

L'entropie thermodynamique et plus généralement l'entropie d'information d'un système parfaitement isolé ne peuvent pas augmenter parce que sa dynamique est hamiltonienne. Un système dont l'entropie augmente ne peut donc pas être parfaitement isolé. Lorsqu'on raisonne en thermodynamique sur un système isolé dont l'entropie augmente, on veut seulement dire qu'il est quasi-isolé, c'est à dire que l'énergie échangée avec son environnement peut être négligée par rapport à son énergie interne. Les perturbations de l'environnement introduisent du hasard dans l'évolution du système. Elle suffisent pour que sa dynamique ne soit pas hamiltonienne mais stochastique (Diu, Guthmann, Lederer, Roulet 1989).

Les calculs irréversibles réduisent-ils toujours l'entropie thermodynamique d'un ordinateur ?[modifier | modifier le wikicode]

Le raisonnement suivant suggère que les calculs irréversibles réduisent toujours l'entropie thermodynamique d'un ordinateur :

Lorsqu'un calcul est réversible, le nombre d'états finaux possibles est égal au nombre d'états initiaux possibles. Si le calcul est irréversible le nombre d'états finaux possibles est plus petit que le nombre d'états initiaux possibles. Un calcul irréversible permet donc de réduire le nombre d'états compatibles avec l'information disponible, et donc de réduire l'entropie d'information d'un ordinateur du point de vue d'un observateur extérieur qui n'est pas informé sur l'état de sa mémoire.

L'entropie d'information d'un système isolé ne peut pas décroître. Si l'observateur n'acquiert pas d'informations sur le système au cours de son évolution, l'entropie d'information ne peut décroître que si l'entropie thermodynamique décroît également. La thermodynamique impose qu'une telle réduction est accompagnée d'une augmentation d'entropie thermodynamique de l'environnement. Si l'entropie de l'environnement augmente parce qu'il absorbe de la chaleur, c'est qu'il a fallu fournir de l'énergie à l'ordinateur. On est ainsi conduit à une formule paradoxale : il faut travailler pour oublier. Plus précisément, il faut dépenser de l'énergie pour perdre des informations (Landauer 1961).

Mais il y a une faille dans le raisonnement précédent. On peut représenter un bit par l'état d'un gaz dans un récipient muni d'une paroi intérieure amovible. 0 est représenté par le gaz enfermé dans la partie gauche, 1 par le gaz également réparti à gauche et à droite. Retirer la paroi puis la remettre en place permet de faire un calcul irréversible :

Un calcul irréversible ne réduit donc pas forcément l'entropie thermodynamique d'un ordinateur.

Il suffit de se donner une condition supplémentaire pour prouver qu'un calcul irréversible réduit toujours l'entropie thermodynamique d'un ordinateur : les espaces de microétats qui font exister matériellement les divers états de la mémoire de l'ordinateur doivent être disjoints.

Le démon de Maxwell et l'impossibilité du mouvement perpétuel de deuxième espèce[modifier | modifier le wikicode]

Pour un observateur extérieur qui n'est pas informé des observations faites par le démon, la diminution de l'entropie thermodynamique du système sur lequel le démon agit est compensée par l'augmentation de l'entropie d'information du démon. C'est pourquoi le démon ne réduit pas l'entropie totale.

Pour qu'un démon de Maxwell fasse un mouvement perpétuel, il faut qu'il réinitialise sa mémoire au commencement de chaque cycle afin de faire de la place pour enregistrer les informations sur le système qu'il observe. Mais la remise à zéro d'une mémoire est un calcul irréversible qui réduit son entropie thermodynamique. Cette réduction doit être compensée par une augmentation d'entropie thermodynamique de l'environnement. Si le démon réduit sa propre entropie en chauffant l'environnement, il faut lui fournir de l'énergie pour compenser cette perte de chaleur. C'est donc la remise à zéro de la mémoire du démon de Maxwell qui est la source ultime de l'impossibilité du mouvement perpétuel de deuxième espèce (Bennett 1982).

La mémoire du démon peut être remise à zéro sans dissipation de chaleur par un observateur qui la manipule de l'extérieur, mais alors il faut tenir compte de la mémoire de l'observateur qui elle aussi doit être remise à zéro pour commencer un nouveau cycle.

Si la mémoire du démon peut être remise à zéro sans réduire sa propre entropie thermodynamique, parce que les espaces de microétats qui réalisent les états de mémoire ne sont pas disjoints, c'est que l'enregistrement des observations requiert une réduction d'entropie thermodynamique, qui doit être compensée par une augmentation ailleurs.

Dans tous les cas un démon de Maxwell ne peut pas faire un mouvement perpétuel de deuxième espèce.

La thermodynamique est une physique de l'observation[modifier | modifier le wikicode]

Pour comprendre la thermodynamique, il faut raisonner sur les trois formes d'entropie statistique, l'entropie d'accessibilité parce qu'elle explique pourquoi un système quasi-isolé évolue vers l'équilibre en augmentant son entropie, l'entropie des contraintes parce qu'elle est l'entropie thermodynamique mesurée par les expérimentateurs, et l'entropie d'information parce qu'elle permet d'expliquer pourquoi un démon de Maxwell ne peut pas faire un mouvement perpétuel de seconde espèce.

L'entropie thermodynamique est une sorte d'entropie d'information, parce que c'est l'observateur qui est informé des contraintes macroscopiques qui déterminent un équilibre thermodynamique, mais cela ne l'empêche pas d'être une grandeur réelle, parce que les contraintes macroscopiques imposées par un observateur existent réellement.

La thermodynamique ne nous invite pas seulement à raisonner sur les propriétés de la matière, elle nous invite également à raisonner sur le rôle des observations. Mais c'est toujours de la physique, parce que les observateurs sont réels eux aussi.

Compléments[modifier | modifier le wikicode]

Le mouvement perpétuel de seconde espèce[modifier | modifier le wikicode]

Une machine qui pourrait élever un poids ou faire avancer une voiture sans qu'on lui fournisse de l'énergie pourrait réaliser un mouvement perpétuel de première espèce. La loi de conservation de l'énergie, la première loi de la thermodynamique, interdit l'existence d'une telle machine. C'est une des lois les plus fondamentales de la physique. Tous les physiciens auraient tout faux si on pouvait inventer une semblable machine, mais personne ne l'a jamais inventée.

Le mouvement perpétuel de seconde espèce ne contredit pas la loi de de conservation de l'énergie. N'importe quel corps peut céder de l'energie s'il est refroidi, sauf s'il est à température nulle, égale à 0 Kelvin = -273.15 °Celsius = −459.67 °Fahrenheit. On peut donc imaginer une voiture, un bateau ou un avion qui pourrait avancer sans consommer de carburant. Il lui suffirait d'absorber de l'air ou de l'eau à la température ambiante et de la rejeter à une température plus froide. La différence d'énergie servirait à faire tourner le moteur.

Pour qu'un tel moteur puisse fonctionner il faudrait pouvoir séparer un corps dont la température est uniforme en deux parties, l'une plus chaude, l'autre plus froide. Mais c'est interdit par la seconde loi de la thermodynamique parce que cela réduirait l'entropie totale. L'impossibilité du mouvement perpétuel de seconde espèce résulte donc de la loi de non-décroissance de l'entropie totale, la seconde loi de la thermodynamique.

Croissance de l'entropie d'accessibilité et distribution microcanonique[modifier | modifier le wikicode]

Les sont tous les états accessibles d'un système presque isolé, c'est à dire que les perturbations par l'environnement ne modifient pas ou presque pas l'énergie du système. est la probabilités de transition par unité de temps de l'état à l'état . On suppose que toutes les évolutions microscopiques sont réversibles :

pour tout et tout .

est la probabilité de l'état à l'instant . Par définition des , on a :

parce que

Alors

Or

Donc

et sont de même signe et les sont toujours positifs, donc :

Paradoxalement l'hypothèse de réversibilité microscopique, , conduit à une loi d'irréversibilité des processus macroscopiques, puisque l'entropie d'un système quasi-isolé ne peut jamais diminuer.

La distribution microcanonique est une distribution d'équilibre :

parce que pour tout et tout .

C'est la seule distribution d'équilibre, parce que si les ne sont pas toutes égales, il y en a au moins une plus petite que les autres. Parmi tous les états tels que , il y en a au moins un pour lequel pour un tel que , sinon ils ne seraient pas accessibles. Alors

et la distribution n'est pas à l'équilibre.

La réalité de la croissance de l'entropie d'accessibilité[modifier | modifier le wikicode]

Le théorème de croissance de l'entropie d'accessibilité est prouvé d'une façon mathématiquement rigoureuse pour un ensemble statistique qui n'a pas d'existence réelle. définit la probabilité d'occupation de l'état à l'instant pour tous les systèmes d'un immense ensemble imaginé par les théoriciens. Elle décrit l'évolution de cet immense ensemble, pas l'évolution d'un système physique réel. Mais sous des conditions très générales, on peut interpréter les comme des probabilités vraiment mesurables, et comparer ainsi leur évolution aux quantités observées.

On suppose que l'évolution macroscopique du système est lente par rapport aux fluctuations microscopiques. L'environnement de chaque constituant microscopique est alors presque constant sur une durée suffisante pour qu'il explore son espace d'états et définisse ainsi des probabilités d'occupation de ces états. Pour chaque constituant microscopique on peut donc définir des probabilités d'occupation de ses états et en principe les mesurer. Si on suppose que tous les constituants microscopiques sont statistiquement indépendants, ces suffisent pour définir les probabilités de tous les états du système macroscopique.

Désordre figé et décroissance spontanée de l'entropie d'accessibilité[modifier | modifier le wikicode]

Lors de la transition liquide-verre, l'entropie d'accessibilité totale du liquide et du bain thermique qui le refroidit diminue. La diminution d'entropie d'accessibilité du verre n'est pas compensée par l'augmentation d'entropie d'accessibilité du bain thermique. Il semble donc que le théorème de croissance de l'entropie d'accessibilité est transgressé, alors qu'il est prouvé rigoureusement sous des conditions très générales. Mais lorsque le verre s'est figé dans un configuration désordonnée, les autres configurations restent théoriquement accessibles. Il y a une probabilité négligeable mais non-nulle que le bain thermique cède brièvement une partie de sa chaleur qui permettrait au verre d'être à nouveau liquide puis de redevenir verre dans une autre configuration désordonnée. Toutes les configurations sont donc en principe toujours accessibles, mais en pratique le verre reste figé dans une seule. Le théorème de croissance de l'entropie d'accessibilité considère que l'espace des états accessibles ne change pas. Il ignore la possibilité que des microétats deviennent en pratique inaccessibles.

L'entropie est une grandeur extensive lorsque les parties sont statistiquement indépendantes[modifier | modifier le wikicode]

L'entropie d'une somme est la somme des entropies des parties lorsqu'elles sont indépendantes :

Soient et deux parties indépendantes du système . Les et les sont les états accessibles de et respectivement.

Les entropies de et sont :

Les états accessibles de sont tous les états pour tous les et tous les . Si et sont indépendantes la probabilité de est et l'entropie de est :

La machine de Szilard[modifier | modifier le wikicode]

Pour mieux comprendre la transformation d'information en travail, Szilard (1929) nous a invité à raisonner sur une machine qui fonctionne avec un "gaz" à une molécule :

Une molécule est enfermée dans un récipient qui peut être séparé par une paroi amovible et mobile. Lorsque la paroi est mise en place au milieu du récipient on détecte la présence de la molécule dans l'un ou l'autre des compartiments séparés. On a donc acquis un bit d'information. On se sert alors de la paroi comme d'un piston sur lequel la molécule peut exercer un travail. Il faut savoir où est la molécule pour savoir dans quel sens de déplacement du piston un travail peut être récupéré. De cette façon on calcule que dans des conditions optimales un bit d'information permet de récupérer un travail égal à . C'est le travail effectué par une molécule sur un piston lors d'une détente isotherme à la température qui double le volume accessible.

La machine de Szilard semble en contradiction avec la thermodynamique parce qu'il suggère qu'on pourrait faire un mouvement perpétuel de seconde espèce. Si le piston ne peut se déplacer que dans un sens, il n'est pas nécessaire de connaître la position de la molécule pour récupérer du travail. Une fois sur deux le piston reste immobile parce que la molécule est du mauvais côté du piston, et on ne récupére aucun travail, mais une fois sur deux il se déplace et on récupére un travail égal à . En répétant de nombreuses fois l'expérience on pourrait ainsi obtenir une quantité arbitraire de travail sans en dépenser pour connaître la position de la molécule.

Mais un tel procédé requiert un dispositif qui retire le piston et le remet en place. Or il y a deux positions possibles du piston à la fin d'un cycle, soit au milieu s'il n'a pas bougé, soit à une extrémité, s'il a bougé. Le dispositif doit donc acquérir un bit d'information à la fin de chaque cycle. Pour revenir à son état initial, il doit effacer cette information. Le coût d'effacement d'une information est donc là aussi à l'origine de l'impossibilité du mouvement perpétuel de seconde espèce (Leff & Rex 1990).

La machine de Szilard confirme que l'entropie d'accessibilité peut être différente de l'entropie thermodynamique : lorsqu'on introduit une paroi au milieu du gaz à une molécule, on réduit l'entropie d'accessibilité de . En revanche on ne réduit pas l'entropie thermodynamique puisque le gaz ne cède pas de chaleur. Pour la machine de Szilard, l'entropie d'accessibilité peut être réduite en principe autant qu'on le veut. Il suffit de placer plusieurs parois à l'intérieur du récipient.

Pourquoi l'entropie de l'Univers augmente-t-elle ?[modifier | modifier le wikicode]

La loi de croissance de l'entropie suggère que l'entropie de l'Univers ne peut qu'augmenter, qu'il a commencé dans un macroétat de basse entropie, chaud mais très condensé, et que son expansion lui a permis de se refroidir tout en augmentant son entropie. Mais cette affirmation se heurte à deux difficultés :

  • Comme l'Univers est parfaitement isolé son entropie, si on on pouvait la définir, devrait être conservée.
  • Il n'y a pas vraiment de sens à parler du macroétat de l'Univers, parce qu'il n'y a pas de sens à parler de l'espace de ses microétats possibles. Il est dans un seul microétat, qu'on appelle parfois la fonction d'onde de l'Univers.

Mais il y a quand même du sens à dire que l'entropie de l'Univers augmente. On peut attribuer une entropie à ses diverses parties (étoiles, planètes, trous noirs, milieu interstellaire...) et constater que la somme de toutes ses entropies augmente. Mais quand on procède ainsi, on suppose que les parties sont statistiquement indépendantes, on ignore leurs corrélations. Or l'ignorance des corrélations conduit à surévaluer l'entropie totale. Si on connaissait le microétat de l'Univers, on connaîtrait aussi toutes les corrélations entre ses parties et on constaterait que l'entropie totale n'augmente pas. Elle resterait toujours égale à zéro. Mais connaître le microétat de l'Univers est évidemment impossible.

Références[modifier | modifier le wikicode]

Bennett, Charles H., The thermodynamics of computation - a review (Int. J. Theor. Phys. 21, 905-40, 1982, reproduit dans Leff & Rex 1990)

Diu, Bernard, Guthmann, Claudine, Lederer, Danielle, Roulet, Bernard, Éléments de physique statistique (1989)

Feynman, Richard P., Leçons sur l'informatique (1996)

Landauer, Rolf W., Irreversibility and heat generation in the computing process (IBM J. Res. Dev. 5, 183-91, 1961, reproduit dans Leff & Rex 1990)

Leff, Harvey S., Rex, Andrew F., Maxwell's demon, entropy, information, computing (1990)

Maxwell, James Clerk, Theory of heat (1871)

Sethna, James P., Statistical mechanics : entropy, order parameters and complexity (2018)

Szilard, Leo, On the decrease of entropy in a thermodynamic system by the intervention of intelligent beings (Zeitschrift für Physik, 1929, 53, 840-856, traduit dans Leff & Rex 1990)


Chapitre suivant : La théorie quantique des destinées multiples >>>


La théorie quantique des destinées multiples

Un des principaux bénéfices de l'épistémologie est de libérer des préjugés sur la science. Nous ne savons pas d'avance si un savoir est un bon savoir. Il faut le laisser faire ses preuves, il faut le juger sur pièces. A priori n'importe quelle théorie peut prétendre au savoir. La science ne peut pas se développer dans l'intolérance. Si on veut être scientifique, il faut être disposé à accueillir toutes les propositions, même celles qui nous surprennent ou nous déplaisent. On juge à la fin, pas au début.

Prendre l'équation de Schrödinger au sérieux[modifier | modifier le wikicode]

Everett a proposé en 1957 une nouvelle interprétation de la physique quantique, qu'il a appelée la théorie de la fonction d'onde universelle. Il l'a aussi appelée la théorie des états quantiques relatifs. Mais en général elle est connue sous le nom d'interprétation des mondes multiples. Comme cette dénomination peut induire en erreur, elle est ici appelée la théorie quantique des destinées multiples.

Les arguments d'Everett sont souvent ignorés. On croit à tort que sa théorie rajoute des hypothèses sur la nature de l'espace-temps pour lui permettre de se diviser en de nombreuses branches. Rien n'est plus éloigné de sa pensée. La théorie d'Everett ne rajoute aucune hypothèse à la théorie quantique, ni sur l'espace-temps, ni sur quoi que ce soit d'autre. Elle fait le contraire, elle renonce à un principe très douteux, le principe de la réduction de la fonction d'onde.

Si on interprète à tort et à travers une belle théorie on peut la rendre incompréhensible et absurde. C'est ce qui est arrivé à la mécanique quantique et à l'équation de Schrödinger. Si on l'interprète à la façon de Bohr, Heisenberg et presque tout le monde, on en fait une théorie absurde parce que la réduction de la fonction d'onde contredit l'équation de Schrödinger. Cette équation affirme que toute évolution d'un système physique est unitaire alors que la réduction de la fonction d'onde est une évolution qui n'est pas unitaire. Le principe de la réduction de la fonction d'onde nous empêche donc de comprendre l'équation de Schrödinger.

Plus précisément on peut démontrer, à partir de l'équation de Schrödinger, qu'un processus d'observation conduit en général non à un unique résultat mais à une superposition de résultats. Autrement dit, la théorie affirme qu'à l'issue d'une observation la destinée d'un observateur se divise en autant de destinées qu'il y a de résultats possibles. C'est le théorème d'existence des destinées multiples, et c'est une conséquence très directe de l'équation de Schrödinger, dès qu'on l'applique aux processus d'observation.

L'arborescence des destinées multiples est une solution de l'équation de Schrödinger. Everett n'a pas inventé cette arborescence, il l'a trouvée en étudiant attentivement l'équation fondamentale de la physique quantique.

Le théorème d'existence des destinées multiples est empiriquement vérifiable[modifier | modifier le wikicode]

Contrairement à ce qui est souvent cru, on peut en principe vérifier par l'observation le théorème d'existence des destinées multiples. Un observateur ne peut pas observer ses autres destinées, parce qu'elles ne peuvent jamais se rencontrer, elles sont incomposables. Mais un second observateur peut en principe observer que le premier a plusieurs destinées, avec des expériences du type "chat de Schrödinger". De telles expériences ont déjà été faites, et elles confirment pleinement les prédictions quantiques, comme toutes les expériences jusqu'à présent, mais les systèmes étudiés sont trop petits pour être considérés comme de vrais observateurs dont on aurait observé les multiples destinées.

Dans l'expérience imaginée par Schrödinger, l'état paradoxal est produit, mais l'expérience n'est pas conçue pour qu'on puisse vérifier par l'observation qu'il a été effectivement produit, parce qu'on le détruit en ouvrant la boîte. Une expérience légèrement modifiée permet cependant d'observer qu'un état semblable à est réellement produit (Les expériences du type "chat de Schrödinger"). On peut donc en principe vérifier que deux destinées d'un observateur sont simultanément réelles.

Un seul espace-temps pour tous les mondes parallèles[modifier | modifier le wikicode]

Les mondes multiples sont des mondes relatifs aux destinées des observateurs. Chaque destinée d'un observateur a son monde à elle, qu'elle ne peut pas partager avec ses autres destinées, mais qu'elle peut partager avec d'autres observateurs, pourvu qu'elle puisse composer avec leurs destinées. Mais toutes ces destinées, et leurs mondes relatifs, se produisent dans un seul univers, un seul espace-temps. La théorie d'Everett n'est rien d'autre que la théorie quantique ordinaire, qu'on peut appliquer dans n'importe quel espace-temps, R4 ou un autre.

On croit parfois à tort que la théorie d'Everett requiert une nouvelle sorte d'espace-temps, parce que les mondes parallèles, relatifs aux diverses destinées d'un même observateur, ou à des destinées incomposables d'observateurs différents, sont conçus comme des mondes séparés. Tout ce qui se passe dans l'un ne peut pas affecter ce qui se passe dans l'autre. Pourquoi alors dire qu'ils sont dans le même espace-temps ? Deux êtres peuvent être dans le même lieu en même temps sans pouvoir se rencontrer, parce que leurs destinées sont incomposables. Pourquoi alors dire qu'ils sont dans le même lieu au même instant ?

Lorsque deux observateurs ont des destinées incomposables, il est toujours en principe possible qu'un troisième observateur ait une destinée composable avec les deux précédentes. Lorsque deux êtres sont dans un même lieu au même instant sans pouvoir se rencontrer, il est toujours possible qu'un troisième être puisse rencontrer l'un ou l'autre, de façon aléatoire, s'il se présente en ce lieu. Du point de vue du troisième, les deux premiers sont donc potentiellement présents dans le même lieu au même instant, même s'il ne peut pas les rencontrer tous les deux en même temps en ce lieu (La coprésence sans rencontre possible et l'espace-temps enchevêtré, dans Théorie quantique de l'observation).

Le même espace-temps abrite toutes les destinées de tous les observateurs, mais en général ces destinées ne peuvent pas se rencontrer, parce qu'elles sont incomposables. De ce qui se passe en un lieu, nous ne connaissons qu'un infime partie, seulement les êtres qui ont des destinées composables avec la nôtre, nous ne pouvons pas percevoir le reste, toutes les destinées incomposables avec la nôtre, en nombre incalculable, qui se produisent pourtant au même lieu, au même instant.

La théorie d'Everett est la théorie quantique unifiée[modifier | modifier le wikicode]

La théorie d'Everett applique les mêmes lois quantiques à tous les corps, microscopiques et macroscopiques, et à tous les processus, y compris les processus d'observation. Puisque la réunion de deux systèmes quantiques est un système quantique, tous les corps sont quantiques, qu'ils soient microscopiques ou macroscopiques. Les observations sont des processus physiques comme les autres. Elles mettent en jeu les mêmes interactions fondamentales et les mêmes corps que tous les autres processus physiques. Il n'y a donc pas de raison qu'elles obéissent à des lois spéciales, qui justifieraient le principe de la réduction de la fonction d'onde.

La théorie d'Everett est la seule théorie qui prend l'équation de Schrödinger vraiment au sérieux, même ses conséquences les plus étonnantes. A partir de là, elle justifie dans un cadre théorique unifié tous les résultats de la physique quantique, sans introduire d'hypothèses superflues, arbitraires ou contradictoires avec l'équation de Schrödinger. C'est plus que suffisant pour affirmer qu'elle est une théorie qui porte des fruits. Elle a fait ses preuves. Elle a montré très clairement qu'elle est une excellente théorie. De fait elle est la meilleure théorie physique qui existe aujourd'hui.

A l'opposé, le principe de la réduction de la fonction d'onde est parfaitement inutile. Il n'est requis par aucun des résultats, théoriques ou empiriques, de la physique quantique. Il ne sert à rien, sauf à rendre contradictoire la théorie. Il faut vraiment croire à la parabole du figuier stérile pour s'imaginer qu'un jour ce principe méritera sa place dans la science.


Une présentation accessible de la théorie d'Everett: Théorie quantique de l'observation


Chapitre suivant : L'origine et l'évolution de la vie et de l'esprit >>>


L'origine et l'évolution de la vie et de l'esprit

Adolph Hirémy-Hirschl - The Birth of Venus.jpg

La naissance de Vénus, Adolph Hirémy-Hirschl


L'évolution par la sélection naturelle[modifier | modifier le wikicode]

La théorie de l'évolution par la sélection naturelle repose sur trois principes :

  • Les êtres vivants transmettent à leur descendants des caractères héréditaires.
  • De petites différences entre les caractères transmis aux descendants et les caractères hérités des parents apparaissent de façon aléatoire.
  • Les êtres vivants sont en compétition pour l'accès aux ressources dont ils ont besoin pour vivre.

Ces trois principes suffisent pour expliquer l'évolution de toutes les formes de vie (Darwin 1859).

Chaque génération explore de nouvelles possibilités héréditaires un peu différentes des possibilités explorées à la génération précédente. Si un être vivant est doté de caractères héréditaires qui le favorisent dans la compétition avec ses semblables, il aura nécessairement une progéniture plus nombreuse qui sera elle aussi favorisée dans la lutte pour la vie. En revanche les caractères héréditaires défavorables sont peu transmis ou pas du tout, et les lignées qui les transmettent finissent par disparaître. La sélection naturelle met donc une pression sur l'évolution des formes de vie qui va dans le sens d'une augmentation du désir de vivre. Elle retient les caractères héréditaires qui aident le plus à vivre et laisse disparaître les autres.

La théorie de l'évolution par la sélection naturelle peut être appliquée à de nombreux domaines. On peut en principe s'en servir pour résoudre n'importe quel problème. Il suffit d'étudier des générations de possibilités de solutions. Chaque génération est obtenue à partir de la précédente en introduisant aléatoirement de petites variations et en sélectionnant celles qui répondent le mieux, ou le moins mal, au problème. C'est la méthode des algorithmes génétiques. Même l'apprentissage par l'essai, l'erreur et la réussite est très semblable à l'évolution par la sélection naturelle. On explore des possibilités. On élimine celles qui nous conduisent à l'erreur et on retient celles qui nous font réussir. On progresse ainsi en modifiant petit à petit ce qu'on apprend, en faisant évoluer ce qui nous aide à vivre et en renonçant au reste.

Les molécules de l'hérédité[modifier | modifier le wikicode]

Darwin et ses successeurs n'expliquaient pas l'existence de l'hérédité, pourquoi les chiens ne font pas des chats, ils ne pouvaient que la constater. On postulait l'existence de gènes, mystérieusement transmis par les parents à leur progéniture, pour rendre compte des observations, mais on ne savait pas ce qu'ils étaient, ni comment ils pouvaient déterminer les caractères transmis.

Les gènes sont principalement des molécules d'ADN (Avery, MacLeod et McCarty 1944, Watson et Crick 1953). Les parents les transmettent à leurs descendants en les déposant dans leurs œufs. Mais comment des molécules peuvent-elles porter des caractères héréditaires ?

Une molécule d'ADN est comme un plan de construction d'autres molécules, des ARN et des protéines. Les protéines sont à la fois des constituants de tous les organes, et des outils qui permettent de construire toutes les autres molécules que les êtres vivants doivent produire pour survivre, croître et se reproduire. Une molécule d'ADN est en outre autorépliquante, c'est à dire qu'elle peut servir de plan pour construire une réplique exacte d'elle-même. Les molécules d'ADN permettent donc de construire toutes les molécules que les êtres vivants doivent produire. Pour comprendre comment elles déterminent les caractères héréditaires, il faut comprendre comment les protéines déterminent le développement des organes et les comportements.

La génération spontanée de la vie dans l'océan primitif[modifier | modifier le wikicode]

La théorie de la sélection naturelle explique comment la vie peut évoluer à partir de formes de vie primitives. Mais d'où viennent ces formes de vie ?

La réponse la plus vraisemblable est que la vie est apparue spontanément dans l'océan primitif.

Les réseaux autocatalytiques[modifier | modifier le wikicode]

Pour croître et se reproduire, il faut être capable de se nourrir, c'est à dire de puiser dans l'environnement des molécules qui servent de matériaux de construction pour construire toutes les molécules du corps, les ADN, les ARN, les protéines et les autres. Les molécules d'un être vivant sont multipliées en permanence, pour la croissance ou pour remplacer les molécules dégradées.

D'un point de vue biochimique un être vivant est un réseau autocatalytique, c'est à dire un système moléculaire capable de catalyser la production de ses propres molécules. Une molécule catalyse une réaction chimique si elle n'est pas consommée par la réaction et si sa présence est nécessaire pour que la réaction se produise, ou si elle accélère une réaction très lente en son absence. Les ADN sont des catalyseurs pour les réactions de synthèse des ADN et des ARN. Les ARN sont des catalyseurs pour la synthèse des protéines et des ADN. Certaines protéines sont des catalyseurs pour la synthèse des ADN, des ARN, des autres protéines et de toutes les molécules construites par l'organisme. En plus des ADN, des ARN et des protéines, les êtres vivants peuvent se servir de tous les catalyseurs qu'ils trouvent dans leur environnement ou qu'ils arrivent à produire.

Les réseaux autocatalytiques apparaissent spontanément dès que les réseaux de réactions chimiques sont suffisamment complexes et touffus, c'est à dire que de nombreuses molécules sont capables de catalyser de nombreuses réactions (Kauffman 1993, 1995). L’océan primitif était un mélange d’eau salée et de molécules organiques. Une molécule est organique lorsqu'elle est construite sur une structure d'atomes de carbone. La plupart des molécules des êtres vivants sont organiques. L'atome de carbone est de tous les atomes celui qui peut former le plus de liaisons chimiques avec d'autres atomes. C'est pourquoi les molécules organiques sont très nombreuses, très diversifiées et souvent très réactives. On peut tout faire ou presque avec des molécules organiques. Il y en a de toutes les formes et pour tous les usages. Dans l'océan primitif les réseaux de réactions chimiques étaient donc complexes et touffus. De très nombreuses molécules organiques pouvaient réagir les unes avec les autres et catalyser de très nombreuses réactions. Les réseaux autocatalytiques pouvaient donc apparaître spontanément.

Les molécules amphiphiles et les vésicules[modifier | modifier le wikicode]

Pour être vivant il faut avoir une peau ou une membrane, qui sépare l'intérieur de l'extérieur. La physique de l'eau savonneuse suffit pour expliquer l'apparition spontanée de membranes. Une eau savonneuse contient des molécules amphiphiles, c'est à dire des molécules allongées dont une extrémité est hydrophile et l'autre hydrophobe. Une molécule est hydrophile si elle “préfère” être dans l’eau que dans l’huile, c’est à dire si elles se concentrent spontanément davantage dans l’eau que dans l’huile. Elle est hydrophobe, ou lipophile, dans le cas inverse. Lorsque des molécules amphiphiles sont mises en solution dans l’eau, elles forment spontanément de nombreuses structures qui peuvent être très complexes. En particulier, elles peuvent former des bicouches qui se replient en vésicules. Une bicouche est une paroi, plongée dans l'eau, dont les deux faces sont composées d'extrémités hydrophiles, les extrémités hydrophobes s'étant rassemblées à l’intérieur de la paroi. Une vésicule est un petit sac plein d’eau, plongé dans l’eau, et dont la membrane est une bicouche.


Bilayer scheme.svg

Une bicouche. Les cercles sont les extrémités hydrophiles. Les lignes ondulées sont hydrophobes.


Liposome scheme-en.svg

Une vésicule


Les cellules des êtres vivants sont des vésicules très élaborées. Leur membrane est essentiellement une bicouche mais elle est beaucoup plus complexe que les membranes des vésicules dans l’eau savonneuse. L’intérieur de la cellule surtout est très différent de son extérieur, ce qui n’est pas le cas des vésicules que l’on forme en agitant une eau savonneuse.

Les premières cellules vivantes[modifier | modifier le wikicode]

De très nombreuses vésicules pouvaient se former dans l’océan primitif, aussi facilement qu’aujourd’hui l’écume de la mer. Qu’une telle vésicule puisse être le lieu de réactions autocatalytiques est tout à fait plausible. Si sa membrane est telle qu’elle laisse pénétrer les petites molécules nécessaires à la reproduction des grosses, alors on obtient, par le simple jeu des lois physiques et chimiques, un organisme capable de s’alimenter et de grandir. Bien sûr les vésicules ne sont pas toujours dotées d’une telle capacité, mais si elles sont assez nombreuses et assez diversifiées un tel événement n’est pas complètement improbable.

Pour qu’une cellule soit vivante, il ne suffit pas qu’elle soit capable de grandir, il faut encore qu’elle puisse se reproduire. On peut supposer qu'une vésicule suffisamment grosse peut se diviser en vésicules plus petites, ou laisser des protubérances se détacher.

Si une vésicule est capable de croître, en s’alimentant, et de se reproduire, en se divisant ou en formant des protubérances qui se détachent, alors elle est un être vivant primitif. Elle a la propriété essentielle des êtres vivants, la capacité à se reproduire quand elle est placée dans un environnement approprié. On peut alors supposer qu’une telle vésicule est l’ancêtre de tous les êtres vivants qui existent aujourd’hui.

L’origine de l’ADN[modifier | modifier le wikicode]

Les premiers réseaux autocatalytiques n’étaient pas aussi élaborés que ceux d’aujourd’hui, fondés sur la machinerie très complexe de l’ADN, des ribosomes, du code génétique et des protéines. Mais les êtres vivants primitifs étaient capables d’évoluer. Leurs réseaux autocatalytiques pouvaient être modifiés par l’incorporation de nouvelles molécules, absorbées de façon exceptionnelle. De telles modifications sont héritables, parce qu’une fois qu’une molécule est incorporée à un réseau autocatalytique, elle devient capable de se reproduire. Les conditions de l’évolution par la sélection naturelle sont donc réunies : variations aléatoires héritables et compétition au sein d’une population pour l’accès aux ressources. Les cellules primitives les plus performantes étaient celles qui se reproduisaient le mieux et elles tendaient à dominer la population. On peut donc supposer que ces êtres vivants primitifs ont évolué. Leurs techniques autocatalytiques rudimentaires se sont perfectionnées jusqu’à atteindre un point de quasi-perfection, à savoir les techniques de réplication de l’ADN et de fabrication des protéines qui sont possédées depuis des milliards d’années par tous les êtres vivants.

Comment savoir si cette théorie est vraie ?[modifier | modifier le wikicode]

On ne peut pas remonter le temps pour aller voir comment était l’océan primitif et comment il a évolué. Mais on peut trouver des témoignages indirects. Le passé laisse des traces dans le présent. Si on a les bons outils, théoriques et observationnels, on peut déduire le passé à partir du présent. Par exemple, les techniques autocatalytiques d’aujourd’hui (ADN et compagnie) se sont en quelque sorte fossilisées depuis des milliards d’années, puisqu’elles n’ont pas ou peu évolué. Elles nous renseignent donc sur un passé très lointain. En combinant ces informations avec d’autres, on peut espérer remonter encore plus loin dans le temps. Des expériences en laboratoire de chimie prébiotique peuvent apporter des renseignements précieux.

La vie est chez elle dans l'univers[modifier | modifier le wikicode]

Cette théorie de la génération spontanée conduit à une vision unifiée de la matière et de la vie. L’apparition et l’évolution de la vie y sont conçues comme des conséquences nécessaires de la dynamique de l’univers. Dès que des conditions adéquates sont réunies (des molécules organiques en abondance dans de l’eau liquide, ce qui suppose une température adéquate), la matière manifeste sa capacité à engendrer la vie. D’une façon métaphorique, on peut dire avec Kauffman (1995) que les êtres vivants peuvent se sentir chez eux dans l’univers, parce que la matière est comme la terre nourricière qui nous a donné la vie.

La coopération est plus fondamentale que la compétition[modifier | modifier le wikicode]

La vie repose sur la coopération entre toutes les molécules, et plus généralement, entre toutes les parties d'un organisme. Lorsque les parties cessent d'œuvrer à la conservation de leur ensemble, la vie disparaît. Les parties sont vivantes parce qu'elles font partie d'une totalité vivante. Une main cesse d'être une main si elle est séparée du corps. Si on applique le principe d'Aristote, que toutes les parties d'un être vivant vivifient et sont vivifiées par toutes les autres, à la biologie moléculaire, on définit précisément les réseaux autocatalytiques.

Les êtres vivants sont souvent en compétition les uns contre les autres, mais une telle compétition ne pourrait pas exister s'il n'y avait pas d'abord de la coopération à l'intérieur des organismes. La lutte pour la vie est une compétition entre des systèmes qui doivent coopérer intérieurement. Les vainqueurs sont ceux qui coopèrent le mieux. La sélection naturelle retient les meilleures formes de coopération. Elle découvre spontanément ce que la matière est capable d'inventer de mieux quand elle fait des systèmes autoprotecteurs.

Plutôt que la compétition, les êtres vivants ont souvent intérêt à rechercher la coopération entre eux, entre membres d'une même espèce ou entre membres d'espèces différentes. Là encore la sélection naturelle favorise ceux qui coopèrent le mieux.

L'infinie tolérance de la vie[modifier | modifier le wikicode]

On conçoit parfois la sélection naturelle comme une sorte d'élimination de tout ce qui n'est pas optimal, comme s'il fallait absolument être le meilleur pour avoir le droit d'exister. Mais c'est une erreur. La sélection naturelle laisse vivre tout ce qui arrive à vivre, optimal ou pas. L'évolution de la vie n'est pas la quête du meilleur, elle est plutôt une exploration de toutes les possibilités de vie. Elle laisse apparaître tout ce qui peut apparaître, elle n'a pas de préjugés sur ce qui doit être ou ne pas être. Toutes les formes de vie sont a priori bienvenues. La sélection naturelle laisse vivre les faiblesses et les imperfections. Et même elle requiert leur apparition, parce que les nouveautés aléatoires vont dans tous les sens, tantôt favorables, tantôt défavorables, et parce que les faiblesses sont aussi parfois des forces. Qu'un caractère héréditaire soit favorable ou défavorable dépend de très nombreuses circonstances qui peuvent varier. C'est pourquoi il n'est jamais possible de définir un unique optimum.

La Nature est beaucoup plus tolérante que nous. Quand nous affirmons que ce qui existe ne mérite pas d'exister, la Nature affirme toujours le contraire, puisqu'elle le laisse exister. De notre point de vue la Nature ne pèche pas par intolérance mais par excès de tolérance. Elle laisse vivre tout ce qui veut vivre, dès que ça arrive à vivre, même la peste et toutes les épidémies - les épidémies sont une manifestation naturelle de la vie, puisque les microbes sont vivants - et tout ce qui nous fait horreur.

Nous existons parce que la Nature nous laisse exister. Ce n'est pas très flatteur, parce qu'elle laisse exister même la peste. On aimerait bien être au moins un peu mieux que la peste. La peste ne peut pas être mieux que ce qu'elle est, parce qu'elle ne peut pas y penser, mais nous nous pouvons.

L'origine de l'esprit[modifier | modifier le wikicode]

La vie commence avec la coopération entre molécules, les réseaux autocatalytiques, et les organismes unicellulaires qu'ils permettent de construire. Elle continue avec les organismes pluricellulaires, la coopération entre cellules vivantes, et par suite entre tous les organes d'un être vivant. Elle continue encore avec la coopération entre les êtres vivants.

La conscience et la volonté sont également une forme de coopération à l'intérieur du vivant. Un organisme dépourvu de volonté est livré aux circonstances. Si son environnement le pousse vers des désirs incompatibles, ses contradictions intérieures ne peuvent que le faire souffrir et souvent périr. La volonté consciente, c'est à dire une administration centralisée dans le cerveau qui impose un minimum de cohérence intérieure, est l'apparition d'une nouvelle forme de coopération, comme si toutes les parties de l'organisme arrivaient à se mettre d'accord sur des objectifs communs. De même qu'un État intelligent peut augmenter la puissance d'une société humaine, la volonté consciente augmente la puissance de vivre, parce qu'elle rend possible davantage de coopération entre les parties d'un être vivant.

Comme la sélection naturelle favorise la coopération intérieure, la volonté consciente est apparue et a évolué dès que les êtres vivants ont eu les moyens de la faire apparaître, c'est à dire dès que leurs cerveaux ont été assez complexes pour développer une administration centralisée.


Fondements scientifiques pour la psychiatrie et le développement personnel

(en cours d'écriture)

Le problème fondamental : l’efficacité de la bonne volonté[modifier | modifier le wikicode]

Les troubles psychiques sont les troubles de l’esprit qui nous empêchent de nous adapter à la réalité pour bien vivre, ou pas trop mal, parce qu’ils privent la bonne volonté de son efficacité.

Tant qu’on est bien portant, les réactions intérieures (émotions, pensées et décisions) nous aident à bien vivre en nous aidant à nous adapter à la réalité. La bonne volonté et l’intelligence commune sont en général suffisantes pour résoudre ou surmonter les problèmes de la vie d’un esprit. Les difficultés intérieures ne sont pas des troubles psychiques tant qu’on est capable de les surmonter spontanément avec un effort de volonté. Elles deviennent des troubles psychiques quand elles dépassent les capacités autoréparatrices de la bonne volonté. Les troubles psychiques sont des troubles qu’un esprit n’arrive pas à surmonter spontanément avec sa bonne volonté et son intelligence. Ils révèlent une inefficacité de la volonté. La volonté est souvent puissante mais elle n’est jamais toute puissante, même lorsqu’il s’agit seulement de se gouverner soi-même.

Tant que les difficultés intérieures ne sont pas trop grandes, la bonne volonté suffit pour résoudre les problèmes, parce que même un débutant peut résoudre des problèmes faciles. Quand les troubles psychiques surviennent, les difficultés intérieures sont devenues trop grandes, la bonne volonté seule ne suffit plus, elle est dépassée par ce qu’elle subit, elle a besoin d’être éclairée et aidée.

Les troubles psychiques surviennent quand la bonne volonté ne marche pas, ou pas très bien.

La guérison psychique est toujours de restaurer l’efficacité de la bonne volonté.

Quand la guérison complète semble impossible, il faut rechercher une guérison partielle, restaurer une partie de l’efficacité de la bonne volonté, afin de mieux vivre avec ses troubles.

Le problème fondamental de la psychiatrie est donc de comprendre l’efficacité de la bonne volonté. Qu’est-ce qui fait qu’elle marche parfois bien ? Quelles sont les conditions de son bon fonctionnement ? Si on comprend comment elle marche, on peut comprendre du même coup pourquoi elle ne marche pas, parce qu’elle fonctionne mal quand les conditions de son bon fonctionnement ne sont pas réunies.

Le développement personnel est d’améliorer le fonctionnement de la bonne volonté. Le savoir sur le développement personnel peut enrichir la psychiatrie, puisqu’il porte sur le fonctionnement de la bonne volonté. Inversement le savoir psychiatrique peut enrichir le savoir sur le développement personnel, pour la même raison.

Les causes prochaines des dysfonctionnements de la bonne volonté[modifier | modifier le wikicode]

Pour que la bonne volonté soit efficace, trois conditions sont nécessaires : connaître la réalité suffisamment bien pour s’adapter, connaître ses capacités, apprécier à leur juste valeur les objectifs qu’on poursuit ou auxquels on renonce. L'ignorance de la réalité, de nos capacités ou de la valeur des fins rend la volonté inefficace mais ne révèle pas forcément un trouble psychique. Il peut s'agir seulement d'un manque d'apprentissage. Nous apprenons tout au long de la vie à connaître la réalité, nos capacités et la valeur des fins. Les troubles psychiques surviennent quand nos facultés naturelles d'apprentissage ne suffisent pas pour que la volonté soit efficace. Ils révèlent un échec de l'apprentissage. Nous n'arrivons pas à apprendre ce qu'il faudrait apprendre, nous restons coincés dans l'ignorance. Cet échec de l'apprentissage se manifeste sous six formes principales, deux pour chacune des trois conditions de l'efficacité de la volonté :

  • Le déni : nier que la réalité est telle qu’elle est.
  • L’illusion : affirmer que la réalité est telle qu’elle n’est pas.
  • L’autodénigrement : nier qu'on est capable alors qu'on est capable.
  • La prétention excessive : affirmer qu'on est capable alors qu'on est incapable.
  • La dévalorisation des fins : nier que des objectifs méritent d’être poursuivis alors qu’ils le méritent.
  • La survalorisation des fins : affirmer que des objectifs méritent d’être poursuivis alors qu’ils ne le méritent pas.

Le déni et l'illusion sont souvent inséparables, parce qu'on nie que la réalité est telle qu'elle est pour croire qu'elle est telle qu'elle n'est pas, et ne sont pas toujours faciles à distinguer, parce qu'une affirmation sur la réalité est aussi une négation, et inversement.

L'autodénigrement peut être considéré comme une forme de déni, parce que nos capacités font partie de la réalité. De même, la prétention excessive peut être considérée comme une forme d'illusion.

La dévalorisation et la survalorisation des fins montrent l’importance du savoir éthique pour la psychiatrie. L’éthique est fondamentale pour la médecine de l’âme. Pas d’éthique, pas de psychiatrie.

Lorsqu'on connaît la réalité, ses capacités et la valeur des fins, on prend de bonnes décisions, mais cela ne suffit pas pour que la bonne volonté soit efficace, parce qu'il faut encore que nos décisions soient suivies d'effets. L'incohérence ou la faiblesse de la volonté, l'hyperactivité, la distraction ou l'oubli sont aussi des causes du dysfonctionnement de la bonne volonté.

Toutes ces causes de dysfonctionnement sont seulement des causes prochaines. Elles ont elles-mêmes des causes plus profondes. Une analyse plus approfondie requiert davantage de compréhension du fonctionnement de la volonté.

La prise de décision dans le cerveau : une administration centralisée sans administrateur central[modifier | modifier le wikicode]

La prise de décision dans le cerveau peut être expliquée avec un modèle d'administration centralisée sans administrateur central : toutes les parties du cerveau peuvent contribuer à la prise d'une décision qui, une fois adoptée, s'impose en retour à toutes les parties du cerveau, comme dans une démocratie sans chef où les décisions prises collectivement s'imposent à tous. Tout ce que nous percevons, imaginons et ressentons influence nos décisions, qui en retour influencent tout ce que nous percevons, imaginons et ressentons.

Les pensées sont des discours imaginaires que nous nous donnons. Elles font toujours l'objet d'une prise de décision, parce que nous choisissons de les approuver, de les désapprouver ou de suspendre notre jugement.

La perception de la réalité ne dépend pas seulement des informations d'origine sensorielle, mais aussi des préconceptions ou des préjugés que nous avons retenus avant même de percevoir. Ces préconceptions définissent des cadres d'interprétation, des schémas, dans lesquels nous intégrons les informations reçues. Nous construisons ces cadres d'interprétation avec des pensées que nous approuvons. Nos pensées peuvent donc influencer nos façons de percevoir.

Les émotions sont des guides pour la décision, parce que nous sommes naturellement incités à rechercher les émotions agréables, les plaisirs, et à éviter les émotions désagréables, les peines (la tristesse, l'angoisse, la colère, la honte, le dégoût...). Un désir est l'anticipation d'un plaisir, ou un rêve accompagné de plaisir. Une aversion est l'anticipation d'une peine. Les désirs et les aversions influencent nos décisions mais ne les déterminent pas, parce qu'on peut renoncer à un désir et surmonter une aversion.

Les émotions sont déclenchées involontairement mais elles sont influencées par nos décisions, parce qu'elles dépendent de nos façons de percevoir et de penser.

Le cerveau fonctionne comme une boucle étrange (Hofstadter 2007) dans laquelle les perceptions, les émotions, les rêves et les pensées conduisent à des décisions qui influencent les perceptions, les émotions, les rêves et les pensées.

L'explosion des émotions[modifier | modifier le wikicode]

Lorsqu'un effet renforce la cause qui l'a produit, on est en présence d'une boucle de rétroaction positive : un écart même minime à la position d'équilibre d'un crayon posé sur sa pointe impose au crayon une force de pesanteur qui l'écarte davantage de sa position d'équilibre ; dans une bombe nucléaire, les neutrons libres cassent les noyaux lourds qui libèrent alors davantage de neutrons ; une étincelle dans une vapeur inflammable libère de la chaleur qui déclenche des réactions chimiques qui libèrent à leur tour davantage de chaleur...

  • La crise de panique

On ressent une angoisse qui nous oppresse et nous fait peur parce qu'on croit qu'elle va nous tuer, comme si le cœur ou la poitrine allait exploser. Croire qu'on va en mourir nous fait davantage angoisser, on est davantage oppressé et on est confirmé dans sa conviction qu'on va en mourir. Dans la crise de panique, l'angoisse elle-même est terriblement angoissante.

  • La dépression

On se sent triste et on se dit que cette tristesse nous empêche de vivre et nous empêchera toujours de vivre. Jamais on ne trouvera le bonheur ou la tranquillité parce qu'on est seulement capable d'être triste. Dès le matin on anticipe une journée de tristesse et de penser ainsi rend démesurément triste. Dans la dépression, la tristesse elle-même est attristante.

  • La joie maniaque

Pour une fois on est de bonne humeur, on se sent bien, comme si on était guéri de la dépression, comme si c'était une renaissance. Cette illusion de guérison renforce la joie que l'on ressent. Lors d'une crise maniaque, l'exaltation elle-même est exaltante.

  • La brûlure du désir

Un désir intense et inassouvi fait souffrir. Plus on souffre de la frustration, plus l'accomplissement du désir est désirable, pour se délivrer de la souffrance. Un désir intense est lui-même une cause d'augmentation du désir.

  • La haine tenace

La haine empêche de profiter de la vie. On n'est même plus capable d'apprécier un bon moment. Cette incapacité permanente est le principal tort infligé par ceux qui nous ont agressé. Même quand ils ne sont plus là pour nous provoquer, la haine est toujours là et elle nous ronge de l'intérieur. On a davantage la haine justement parce qu'on a la haine, parce qu'on a perdu sa vie d'avant. Lorsque la haine est tenace, elle est elle-même une cause d'augmentation de la haine.

  • Avoir honte d'avoir honte

Si on rougit en public, on se sent ridicule et on rougit davantage, au point qu'on songe à partir en courant. La honte elle-même peut être une cause d'augmentation de la honte.

(...)

La vanité[modifier | modifier le wikicode]

La vanité est de s'attacher au sentiment de sa grandeur ou de sa petitesse.

Les vaniteux sont des humiliés. Se sentir injustement humilié renforce la volonté de grandeur. On veut prouver au monde entier qu'on ne méritait pas d'avoir été ainsi humilié.

Un vaniteux qui prend conscience de sa vanité se sent ridicule. Il a honte de sa vanité. Il rêve d'être modeste et veut le prouver aux yeux des autres : regardez comme je suis magnifiquement modeste, admirez ma modestie, c'est moi le plus modeste.

Un vaniteux qui se sent humilié par sa propre vanité est pris dans un cercle infernal.

Le comble de la vanité est de se croire supérieur aux vaniteux.

Quand on humilie un vaniteux pour lui donner une bonne leçon, pour qu'il rabatte ses prétentions, on ne fait que renforcer sa vanité.

Le renoncement à la vanité n'est pas un complet renoncement à soi. Pour bien vivre, il faut s'efforcer de bien penser, de bien vouloir et de bien agir. Il faut bien accorder un peu d'importance à ce qu'on pense et à ce qu'on fait. Le mépris de soi n'est pas la solution. Il peut même être considéré comme une vanité : s'attacher au sentiment de sa petitesse.

Le vaniteux inverse l'ordre des fins et des moyens. La fin de l'esprit est de bien vivre comme un esprit, donc de rendre service à tous les esprits. Avoir une bonne image de soi est un moyen de renforcer sa bonne volonté, mais sûrement pas la fin ultime.

Quand un vaniteux atteint la fin qui l'obsède, devenir un champion, il se rend parfois compte de la vanité de cette fin : le monde est-il devenu meilleur ? Les tortionnaires ont-ils arrêté de torturer ? La misère a-t-elle cessé ? ...

Les effets de la pensée[modifier | modifier le wikicode]

« Il m'a insulté, il m'a battu, il m'a vaincu, il m'a volé ». S'attachent-ils à ces reproches : point d'apaisement pour leur haine !

« Il m'a insulté, il m'a battu, il m'a vaincu, il m'a volé ». Ne s'attachent-ils pas à ces reproches : apaisement pour leur haine !

Assurément, en ce monde jamais haine n'apaisa haine, mais absence de haine le fait : loi éternelle.

(L'éveillé (Le Bouddha), Dhammapada 3-5, traduit par Jean-Pierre Osier)

(...)


Les fondements de l'éthique

L'éthique est le savoir sur le bien de l'esprit. L'épistémologie est le savoir sur le savoir. Elle est un savoir éthique parce que le savoir est un bien de l'esprit.

Le bien est ce qui doit être. Est bien ce qui est tel qu'il doit être.

La matière inerte n'a pas de devoir être, ou plutôt elle est déjà ce qu'elle doit être.

Le bien de la vie est de persévérer dans son être. La santé est d'avoir pleinement les moyens de continuer à vivre. La reproduction est la perpétuation de la vie. Le bien de la vie est de continuer à être ce qu'elle est déjà. L'esprit n'a pas à lui prescrire ce qu'elle doit être.

Le bien de l'esprit est de bien vivre comme un esprit, donc de bien vouloir, bien penser, bien ressentir, bien agir, bien percevoir et bien imaginer. L'éthique est le savoir sur le bien de l'esprit donc sur le bien vivre de l'esprit.

Un esprit s'accomplit quand il vit bien, quand il vit comme il doit vivre.

La bonne volonté est centrale et fondamentale, parce que bien penser, bien agir, bien ressentir, bien percevoir et bien imaginer, c'est penser, agir, ressentir, percevoir et imaginer en accord avec la bonne volonté (Kant 1785).

Bien vouloir, c'est vouloir le bien[modifier | modifier le wikicode]

Bien vouloir, c'est nécessairement vouloir le bien, vouloir le faire autant qu'on peut.

Vouloir le bien, percevoir, imaginer, penser, ressentir et agir pour le bien, c'est vivre pour le bien.

Le bien de l'esprit est de vivre pour le bien. Pour un esprit, vivre bien, c'est vivre pour le bien.

L'amour du bien est le désir, la connaissance et l'acte. Aimer le bien, c'est le vouloir, et percevoir, imaginer, penser, ressentir et agir pour le réaliser, dans la mesure du possible. Aimer le bien, c'est vivre pour le bien.

Le bien de l'esprit est d'aimer le bien. Un esprit s’accomplit en aimant le bien, par le désir, la connaissance et l’action.

Comme la bonne volonté est un bien, on doit vouloir que la volonté du bien se perpétue quand on veut le bien. C’est le cercle de la perpétuation de la vie de l’esprit.

Pour bien vivre, il faut vouloir bien vivre. On ne peut pas bien vivre sans avoir une bonne volonté. L'esprit doit vouloir le bien de l'esprit, il doit vivre pour l'esprit.

On peut prendre des décisions sur sa façon de prendre des décisions. On peut exercer sa volonté sur sa façon d'exercer sa volonté. On peut décider d'adopter des principes qui déterminent le bien qu'on doit rechercher. On décide ainsi de toujours se décider en respectant les principes qu'on a adoptés. On peut se décider à toujours prendre ses décisions en voulant le bien.

Que l’esprit doit vivre pour l’esprit a un sens très terre à terre : on doit agir pour avoir de bonnes conditions de vie. Si on ne fait pas d’efforts, on vit forcément plutôt mal. Si un esprit veut profiter de la vie, il doit s’en donner les moyens et travailler.

La formule "l'esprit doit vivre pour l'esprit" est ambiguë. Il faut entendre que l'esprit doit vivre pour le bien de l'esprit, pas seulement pour que l'esprit vive. Le crime organisé vit pour continuer à vivre et il n'est pas un bien de l'esprit.

Une action motivée par la bonne volonté est un bien, même si elle manque son but, parce que la bonne volonté est un bien. Inversement une action qui n'est pas motivée par la bonne volonté n'est pas un bien, même si elle a des conséquences bénéfiques, parce que l'absence de bonne volonté est un mal (Kant 1785). Les intentions sont essentielles pour évaluer les actions, parce que la bonne volonté est la condition fondamentale du bien-vivre, mais il ne faut pas ignorer les conséquences pour autant : nous avons le devoir de prévoir les conséquences de nos actions, autant qu'il est possible et adapté à la situation.

Une remarque sur les définitions circulaires : des principes tels que "la matière est ce qui interagit avec la matière", "un nombre naturel est ou bien zéro ou bien le successeur d'un nombre naturel" et "le bien est que l'esprit vive pour le bien" ne sont pas fautifs. Ils déterminent la signification des concepts fondamentaux. Formellement on les traduit par des axiomes. De façon informelle, on peut dire qu'ils sont vrais par définition, ou qu'ils définissent les concepts fondamentaux. Les définitions circulaires sont interdites seulement pour les concepts dérivés, définis à partir des concepts fondamentaux. Mais elles ne sont pas interdites pour les concepts fondamentaux, parce que les axiomes peuvent être considérés comme des définitions implicites des concepts fondamentaux.

Des émotions pour bien vivre[modifier | modifier le wikicode]

On a besoin des émotions pour bien vivre. Elles nous enseignent ce qu'il faut rechercher, quand elles sont plaisantes, et ce qu'il faut éviter, quand elles ne le sont pas. Elles nous font connaître l'idéal : comment bien vivre. Elles nous font aussi connaître la réalité, et même de la façon la plus importante qui soit, parce qu'elles nous avertissent sur ce qui peut nous aider à bien vivre, ou au contraire nous empêcher de bien vivre. Elles nous font connaître la réalité en nous donnant les moyens de l'évaluer.

Une même décision peut avoir de nombreuses conséquences, les unes plaisantes, les autres non. L'exercice de la bonne volonté requiert une vue d'ensemble et une appréciation équilibrée des conséquences prévisibles (Aristote, Éthique à Nicomaque).

Le émotions nous éclairent en nous montrant comment évaluer les fins et les moyens. Mais elles peuvent aussi nous aveugler. Une émotion particulière ne montre qu'un aspect de la situation. Si elle est forte, elle peut empêcher d'avoir une vue d'ensemble équilibrée et nous conduire à une décision partiale, intolérante et injuste. Les émotions ne s'opposent pas à la raison comme des ennemis, parce qu'elles nous éclairent sur les moyens de bien vivre, mais comme des intérêts particuliers qui s'opposent parfois à l'intérêt commun.

Les plaisirs sont des indicateurs du bien vivre. Mais le bien vivre ne se réduit pas à la recherche des plaisirs. La bonne volonté ne se réduit pas à l'obéissance aux émotions parce qu'elle requiert une appréciation équilibrée de l'ensemble des conséquences prévisibles de nos décisions. Suivre le plaisir du moment ne suffit pas pour faire une bonne volonté.

Le bon savoir[modifier | modifier le wikicode]

Pour bien vouloir, on a besoin d'un bon savoir. Il faut connaître le bien qu'on veut et la réalité où on est. Et il faut les connaître bien : bien percevoir, bien imaginer les conséquences de nos décisions, bien ressentir et bien penser.

Pour bien penser, il ne faut pas se contenter de croire ce qui nous plaît, il faut connaître de bonnes raisons de croire ce qu'on croit. On doit être capable de justifier ce qu'on croit savoir avec des bons principes, des bonnes observations et des bons raisonnements.

Nous n'avons pas toujours besoin d'être experts pour bien penser mais nous avons toujours besoin d'un minimum de bon sens, pour reconnaître des bons principes et les appliquer correctement.

On connaît et on respecte la raison, quand on raisonne correctement avec de bons principes et de bonnes observations.

On reconnaît les bons principes à leurs fruits. Ils portent des fruits quand ils nous aident à bien vivre.

La raison est bonne pour tous les esprits. Ses fruits sont universels. Les bonnes observations les bons principes et les bons raisonnements sont bons pour tous les esprits.

Quand nous comprenons que la raison est universelle, nous comprenons du même coup le grand principe à partir duquel fonder tout le savoir rationnel. Tout se passe comme si la raison était une divinité généreuse, qui donne sa sagesse à tous ceux qui veulent vraiment la connaître. La première vérité sur la raison est qu'elle est généreuse. Elle n'est pas envieuse, elle ne nous prive pas du meilleur. Elle ne serait pas la meilleure si elle privait un seul d'entre nous du meilleur. « Il n'est pas possible que la divinité soit envieuse. » (Aristote, Métaphysique, livre A, 983a) En sachant que le savoir rationnel peut être partagé par tous, nous avons le savoir fondamental qui nous donne les moyens de comprendre tout le savoir rationnel.

Vivre pour le bien de tous les esprits[modifier | modifier le wikicode]

On ne peut pas faire le bien d'autrui contre son gré parce qu'on ne peut pas prendre ses décisions à sa place. Son bien est qu'il ait une bonne volonté et qu'il l'exerce librement. Comme on n'a pas le devoir de faire ce qu'on ne peut pas faire, on pourrait en conclure qu'on n'a jamais le devoir de faire le bien d'autrui, qu'on ne doit s'occuper que de son propre bien. Un esprit égoïste, qui vit seulement pour son bien, sans se soucier du bien des autres esprits, peut-il bien vivre ?

On ne peut pas faire le bien d'autrui à sa place mais on peut lui donner des moyens de le faire, ou au contraire l'empêcher de bien vivre.

Un esprit égoïste renonce à sa nature sociale. Il peut être bon pour les autres esprits mais il renonce à l'être. C'est un rabougrissement de l'esprit.

Un esprit vit bien en étant bon pour lui-même et son entourage. Mais il peut aussi être bon pour tous les esprits, parce que les fruits de la raison sont universels. Quand un esprit connaît la raison, il connaît en même temps ce qui est bon pour lui et ce qui est bon pour tous les autres. En révélant la raison, un esprit se prouve à lui-même, et à tous les autres, qu’il peut être bon pour tous les esprits, parce que nous pouvons tous bénéficier des fruits de la raison.

En refusant d'être bon pour autrui un esprit égoïste renonce du même coup à être vraiment bon pour lui-même parce qu'il se prive de la puissance de la raison. On apprend en même temps à être bon pour soi-même et à être bon pour les autres. Si on ne sait pas être bon pour les autres, on ne sait pas être bon pour soi-même.

Un esprit vit bien quand il vit pour le bien de tous les esprits, le sien et celui de tous les autres. Le bien d'un esprit n'est pas séparable du bien de tous les esprits.

« Agis de façon telle que tu traites l'humanité, aussi bien dans ta personne que dans la personne de tout autre, toujours en en même temps comme fin, jamais simplement comme moyen. » (Kant, 1785) Considérer un esprit seulement comme un moyen, c'est ignorer délibérément son bien. Pour le considérer vraiment comme une fin, il faut vouloir son bien.

Aimer un esprit, c'est vivre pour son bien. La raison prescrit de vivre pour le bien de tous les esprits, donc de les aimer.

« Tu aimeras ton prochain comme toi-même » (Lévitique 19, 18) n'est pas seulement un principe religieux, c'est aussi un principe rationaliste. Si les êtres humains ne veulent pas s'entraider la raison ne peut pas être parmi eux.

La haine rend fou parce qu'elle est contraire à la raison, qui nous prescrit de toujours vouloir le bien de tous les esprits. Si on veut garder la raison, il faut « aimer ses ennemis » (Matthieu 5, 44). Il faut pardonner parce que la haine empêche de vouloir le bien, et donc de bien vivre.

La vertu[modifier | modifier le wikicode]

La vertu est d'être toujours disposé à bien percevoir, bien imaginer, bien ressentir, bien penser, bien vouloir et bien agir, ou presque toujours. Les vertus sont des façons particulières d'être vertueux.

La vertu est nécessaire au bien vivre mais elle ne suffit pas. A elle seule, elle ne guérit pas les maladies, elle n'arrête pas la main des tortionnaires, elle ne sauve pas de la misère. Pour bien vivre un esprit a besoin de conditions favorables en plus de la vertu : santé, paix et prospérité.

La vertu n'est pas donnée d'avance. Un esprit doit apprendre à être ce qu'il doit être. Quand il apprend à être vertueux, un esprit n'est pas encore ce qu'il doit être, parce qu'il doit l'apprendre, mais d'une autre façon il est déjà ce qu'il doit être, parce qu'il doit apprendre, parce que la phase d'apprentissage doit être. Apprendre à être vertueux, c'est déjà commencer à l'être, parce que vouloir le bien est un bien. Le désir de la sagesse est le commencement de la sagesse. Quand on aime le bien, on aime ce qui est déjà là, pas seulement un bien qu'on désire sans l'avoir, parce que l'amour du bien est le bien. « Qui boira de cette eau n'aura plus jamais soif car elle est une source d'où jaillit la vie sans fin. » (Jean 4, 14)

Bien ressentir, avoir des émotions qui nous aident à nous adapter à la réalité en accord avec la bonne volonté, fait partie de la vertu ((Aristote, Éthique à Nicomaque, Hursthouse 2001). Mais les émotions ne sont pas directement sous le contrôle de la volonté. On ne décide pas d'être ému. On ne choisit pas d'aimer. Comment alors pourrait-on vouloir bien ressentir ? La raison nous demande d'aimer tous les esprits, mais l'amour ne se commande pas. La vertu requiert l'équilibre émotionnel, mais les émotions n'obéissent pas aux ordres de la volonté.

Le déclenchement des émotions n'est pas directement sous le contrôle de la volonté, mais les émotions ne sont pas pour autant toutes puissantes face à la volonté. On peut contrôler volontairement l'expression des émotions, les retenir ou les libérer. On peut aussi contrôler volontairement les conditions, extérieures et intérieures, qui les déclenchent. En particulier, les émotions dépendent des façons d'interpréter la réalité. Nous pouvons nous servir de la pensée pour modifier nos réactions émotionnelles en changeant nos interprétations. Nous pouvons donc exercer notre bonne volonté pour apprendre à bien ressentir, à aimer et à être équilibré.

Est-ce le rêve d'un illuminé ?[modifier | modifier le wikicode]

L'accomplissement de la raison ressemble au rêve d'un illuminé : que tous les esprits trouvent leur bonheur en donnant du bonheur à tous les autres, que nous soyons tous philosophes, tous dans l'amour de la raison, tous vertueux, comme si la philosophie pouvait être la musique fondamentale qui fait danser tous les esprits et qui transforme la planète en paradis.

Les rêves deviennent réalité pourvu qu'ils soient adaptés à la réalité, qu'ils soient à notre portée, que nous puissions trouver naturellement les moyens de les réaliser. En nous motivant, ces rêves nous conduisent à leur réalisation, ils nous révèlent les moyens qui nous permettent de les accomplir. Si nous avions renoncé au rêve, nous n'aurions jamais trouvé les moyens.

Nous sommes tous naturellement capables de connaître ce qui est naturellement possible et comment bien vivre. Nous sommes tous naturellement capables d'apprendre à être vertueux et nous avons tous intérêt à l'apprendre, parce que c'est ainsi qu'on vit bien. Un monde où la plupart des gens sont plutôt vertueux la plupart du temps, ou apprennent à l'être, est naturellement possible. Ainsi entendu, un monde plutôt juste mais pas parfait, l'idéal rationaliste est adapté à la réalité.

La nature de l'esprit est de rêver à l'idéal pour s'accomplir comme un esprit digne de l'idéal. C'est ainsi qu'il se révèle pleinement comme un esprit. Un esprit est naturellement porté par le désir de l'idéal et il révèle ce qu'il est réellement en réalisant ce désir. Un paradis où tous les esprits trouvent leur bonheur dans le bonheur de tous est simplement un monde où tous les esprits sont fidèles à leur nature spirituelle. C'est ce pour quoi nous sommes faits naturellement, ce vers quoi nous sommes portés quand nous voulons être de véritables esprits.


Chapitre suivant >>>


Qu'est-ce que le savoir ?

« il disait que l'opinion vraie accompagnée d'une raison (logos) est science, tandis que celle qui est dépourvue de raison est en dehors de la science; et ce dont il n'y a pas de raison n'est pas sachable - tel est le mot qu'il forgeait - tandis que ce qui en a une est sachable.» (Platon, Théétète 201d)

Le savoir rationnel doit être public et prouvé[modifier | modifier le wikicode]

Pour qu'un savoir soit rationnel il doit être justifié. Une prétention à la raison qui n'est pas justifiée est vaine et insensée. On justifie le savoir en donnant des preuves. Sans preuves, il n'y a pas de savoir rationnel.

Le savoir rationnel doit être public. Une croyance exclusivement privée, qui ne peut pas être communiquée et prouvée, n'est pas un savoir rationnel. La raison est une œuvre collective. Elle doit être partagée pour exister et on la partage en donnant des preuves.

Le savoir rationnel est nécessairement un savoir parlant. Il est développé à partir d'un savoir muet : toutes les formes de connaissance qui peuvent se passer de la parole. La perception, l'imagination, la réflexion, la mémoire et les émotions sont des sources d'un savoir fondamental qui précède celui que nous acquérons avec la parole.

La théorie du savoir exposée dans ce chapitre est une théorie du savoir rationnel. "X sait que S" veut dire "X sait que S d'une façon rationnelle".

Les justifications concluantes[modifier | modifier le wikicode]

X sait que S si et seulement si X est capable de donner une justification concluante de S.

Une justification de S est ou bien un raisonnement qui a S pour conclusion ou bien l'affirmation que S est une prémisse fondamentale. Un raisonnement est acceptable s'il respecte la logique et si ses prémisses sont acceptables. Une prémisse est acceptable si elle est une prémisse fondamentale acceptable ou si elle est déjà justifiée à partir de prémisses fondamentales acceptables. Pour définir précisément le concept de justification du savoir, il suffit de définir précisément les règles logiques et les prémisses fondamentales acceptables.

Un énoncé de la forme "X a bien observé que O", où O est le compte-rendu d'une observation, est une prémisse fondamentale acceptable, au moins pour les observations qui résultent de l'usage ordinaire de nos facultés naturelles dans de bonnes conditions. Une vérité théorique que l'on peut admettre par définition des termes employés est aussi une prémisse fondamentale acceptable. Par exemple, "Si X a bien observé que O alors O" est vrai par définition du concept de bonne observation. Une observation ne peut pas être bonne si elle est fausse.

Une justification est acceptable si elle est un raisonnement logique fondé sur des prémisses acceptables ou si elle est l'affirmation qu'une prémisse fondamentale acceptable est fondamentale.

Une justification est concluante lorsqu'elle est acceptable et lorsque toutes les prémisses fondamentales sur lesquelles elle est fondée, explicitement ou implicitement par l'intermédiaire de prémisses déjà justifiées, sont vraies. Comme les règles logiques conduisent toujours du vrai au vrai, la conclusion d'une justification concluante est nécessairement vraie. Un raisonnement établit que sa conclusion est vraie pourvu que ses prémisses soient vraies. Si une de ses prémisses est fausse, un raisonnement ne prouve rien.

Le principe rationaliste, que X sait que S si et seulement si X est capable de donner une justification concluante de S, peut être admis par définition des concepts de savoir et de justification concluante. Il en va de même pour les autres principes qui déterminent les justifications acceptables et concluantes.

On peut croire en toute légitimité qu'on a fait une bonne observation et s'être pourtant trompé, parce qu'on est victime d'un stratagème, ou d'une illusion, ou pour toute autre raison inconnue de nous qui fait que les conditions d'une bonne observation n'étaient pas réunies. Une prémisse empirique fondamentale peut être fausse même si elle est acceptable. Les justifications empiriques acceptables ne sont pas toujours concluantes.

Le savoir purement théorique, ou mathématique, est fondé seulement sur des prémisses fondamentales théoriques vraies par définition de leurs termes, parce qu'une vérité purement théorique porte sur des mondes logiquement possibles, et parce que toutes les vérités à leur sujet résultent de leur définition. Tant qu'on raisonne correctement sur des mondes logiquement possibles, il n'y a pas de place pour l'erreur ou le doute. C'est pourquoi les preuves mathématiques, c'est à dire les justifications acceptables purement théoriques, sont toujours concluantes.

Le savoir empirique est fondé à la fois sur des prémisses fondamentales empiriques et théoriques. Les prémisses théoriques définissent des modèles de la réalité. Ce sont les mondes logiquement possibles pour lesquels les principes théoriques sont vrais. Si on donne aux termes de la théorie une interprétation empirique, alors les théorèmes, c'est à dire les conséquences logiques des principes, sont des hypothèses sur la réalité empirique. Pour que les prémisses théoriques fondamentales permettent de développer un véritable savoir empirique, il ne suffit pas qu'elles soient vraies de mondes logiquement possibles, il faut qu'elles soient vraies à propos de la réalité. C'est pourquoi le savoir empirique doit justifier ses hypothèses théoriques. Les prémisses théoriques fondamentales des théories empiriques doivent être justifiées au préalable pour être acceptables. Cela pose un problème de régression à l'infini ou de circularité. Les principes des théories empiriques sont les fondements de la justification du savoir empirique. A partir de quels fondements peut-on les justifier alors qu'ils sont eux-mêmes des fondements ?

La justification des principes[modifier | modifier le wikicode]

« Vous les reconnaîtrez à leurs fruits. » (Matthieu, 7:20)

« On y verra de ces sortes de démonstrations, qui ne produisent pas une certitude aussi grande que celles de Géométrie, et qui même en diffèrent beaucoup, puisque au lieu que les Géomètres prouvent leurs Propositions par des Principes certains et incontestables, ici les Principes se vérifient par les conclusions qu'on en tire; la nature de ces choses ne souffrant pas que cela se fasse autrement. Il est possible toutefois d'y arriver à un degré de vraisemblance, qui bien souvent ne cède guère à une évidence entière. Savoir lorsque les choses, qu'on a démontrées par ces Principes supposés, se raportent parfaitement aux phénomènes que l'expérience a fait remarquer; surtout quand il y en a grand nombre, et encore principalement quand on se forme et prévoit des phénomènes nouveaux, qui doivent suivre des hypothèses qu'on employe, et qu'on trouve qu'en cela l'effet répond à notre attente. Que si toutes ces preuves de la vraisemblance se rencontrent dans ce que je me suis proposé de traiter, comme il me semble qu'elles font, ce doit être une bien grande confirmation du succès de ma recherche, et il se peut malaisément que les choses ne soient à peu près comme je les représente. » (Christian Huyghens, Traité de la lumière, p.2)

On reconnaît les bons principes à leurs fruits.

Nous ne savons pas par avance quels sont tous les bons principes théoriques qui nous permettent de développer un bon savoir. Les principes théoriques des sciences empiriques sont d'abord seulement des hypothèses. On attend d'eux qu'ils fassent leurs preuves, qu'ils portent des fruits, qu'ils permettent de prouver des vérités qui expliquent les phénomènes observés ou qui prédisent de nouveaux phénomènes.

Qu'un bon principe porte des fruits est une vérité qu'on peut admettre par définition du concept de bon principe.

On justifie les principes avec le principe de la justification des principes :

Si un principe a porté des fruits et s'il n'a pas été réfuté alors il est une prémisse fondamentale acceptable.

Une déduction consiste à justifier une conclusion avec un raisonnement logique à partir de principes ou d'hypothèses. Par contraste, on parle d'abduction lorsqu'on justifie des principes à partir de l'ensemble de leurs conséquences. La justification par l'induction, c'est à dire la justification d'une loi à partir de cas particuliers observés, est une forme d'abduction. L'abduction est aussi appelée l'inférence de la meilleure explication. Déduction et abduction sont complémentaires. La déduction donne aux principes leur puissance explicative. L'abduction sélectionne les principes qui nous aident le plus à comprendre la réalité.

Nous justifions les principes à partir de leurs conséquences. Un sceptique pourrait dénoncer un cercle vicieux : les principes sont justifiés par les conséquences qu'ils doivent justifier.

Il y a bien un cercle mais il n'est pas forcément vicieux. Les principes ne sont pas les seules sources du savoir. Les observations le sont également. Nous avons deux façons de justifier un énoncé d'observation, une façon directe, en observant ce qu'il affirme, et une façon indirecte, en montrant qu'il est une conséquence logique de principes théoriques et d'hypothèses particulières au cas observé. On attend de nos théories empiriques qu'elles expliquent et prédisent nos observations. On veut que les vérités justifiées par les observations soient également justifiées par la théorie. On veut que le réel soit intelligible, que ce qui est connu par les sens soit également connu par le raisonnement.

Le cercle de la justification du savoir est un dialogue incessant entre les théories et leurs applications. Les observations nous font sortir du cercle de la justification des principes par des principes.

La justification des principes par abduction rend l'acceptabilité d'une justification dépendante des circonstances. De nouvelles connaissances peuvent réfuter des principes auparavant acceptables en montrant qu'ils conduisent à des conséquences contraires à l'observation.

"Si A alors B, or A, donc B" est une déduction logiquement correcte. En revanche, "si A alors B, or B, donc A" est un sophisme. Quand on justifie un principe par ses conséquences, il ne s'agit pas d'une déduction logiquement correcte. Une conclusion d'un raisonnement logiquement correct est infaillible dès que les prémisses le sont, mais la justification d'un principe par l'abduction n'est pas infaillible. Elle est légitime parce qu'on attend des principes qu'ils portent des fruits. Mais elle peut toujours être remise en question.

La justification des observations[modifier | modifier le wikicode]

- Comment le savez-vous ?
- Parce que je l'ai vu.
- Êtes-vous sûr de l'avoir vu ?
- Oui. Je l'ai vu et bien vu.
- Comment savez-vous que vous l'avez bien vu ?
- Parce que je l'ai bien vu.

Un énoncé de la forme "X a bien observé que O" n'est pas toujours une prémisse fondamentale acceptable. Si quelqu'un déclare qu'il fait de bonnes observations par télépathie, il semble que sa justification n'est pas acceptable.

Une observation doit souvent être justifiée avant qu'on puisse admettre qu'elle est une bonne observation. Il faut vérifier que les conditions d'une bonne observation étaient bien réunies. On peut alors craindre un problème de régression à l'infini, puisqu'on a besoin de nouvelles bonnes observations pour vérifier qu'une observation est bonne.

Il est raisonnable de supposer que nos facultés naturelles d'observation ne nous trompent pas dans des circonstances ordinaires. Certaines observations semblent assez bonnes pour qu'on n'ait pas besoin de les justifier à partir d'autres observations. Elles suffisent pour donner des points de départ à nos raisonnements sur la réalité empirique.

Pour justifier les observations, on peut admettre le principe de l'acceptabilité prima facie des observations :

Si une observation semble bonne alors l'affirmation qu'elle est bonne est une prémisse fondamentale acceptable tant qu'elle n'a pas été réfutée.

Comme la justification des principes, la justification des observations rend l'acceptabilité d'une justification dépendante des circonstances. De nouvelles informations peuvent montrer qu'une observation qu'on croyait bonne ne l'était pas vraiment.

Pour montrer qu'une observation est bonne, ou pour le contester, on peut se servir du principe de fiabilité :

Une bonne observation est une observation vraie qui résulte d'un processus fiable (Goldman 1986) ou de facultés qui fonctionnent correctement dans des conditions appropriées (Plantinga 1993).

Une bonne théorie de l'observation permet de justifier toutes les bonnes observations, même celles qui n'ont pas besoin d'être justifiées.

Fondationalisme ou cohérentisme ?[modifier | modifier le wikicode]

Une théorie de la justification est fondationaliste lorsqu'elle affirme que toutes les justifications doivent être fondées sur des prémisses fondamentales. Elle est cohérentiste lorsqu'elle affirme que tous les énoncés sont justifiés par la totalité du savoir à laquelle ils appartiennent. Le fondationalisme s'oppose au cohérentisme s'il affirme que les prémisses fondamentales se justifient elles-mêmes, qu'elles peuvent être acceptées indépendamment de la totalité du savoir à laquelle elles appartiennent. Le cohérentisme s'oppose au fondationalisme s'il nie l'existence de prémisses fondamentales, s'il affirme qu'un énoncé n'est jamais plus fondamental qu'un autre.

La présente théorie est à la fois fondationaliste et cohérentiste. Les bonnes observations et les bons principes sont les prémisses fondamentales à partir desquelles tout doit être justifié. Mais les bonnes observations et les bons principes doivent aussi être justifiés par la totalité du savoir à laquelle ils appartiennent. Seuls les principes vrais par définition et les bonnes observations qui résultent de l'usage ordinaire de nos facultés naturelles dans de bonnes conditions, sont des prémisses fondamentales qu'il n'est pas nécessaire de justifier par d'autres Pémisses, mais ils sont quand même justifiés par la totalité du savoir à laquelle ils appartiennent.

Savoir sans savoir qu'on sait[modifier | modifier le wikicode]

Si on a donné une justification concluante et si on sait seulement qu'elle est acceptable, alors on sait sans savoir qu'on sait, parce qu'il faut savoir qu'on a donné une justification concluante pour savoir qu'on sait. Dès qu'une justification laisse une place pour le doute on ne peut pas espérer plus que savoir sans savoir qu'on sait.

On ne sait pas ou pas toujours si nos observations sont vraiment de bonnes observations. On peut aussi douter de la vérité empirique de nos principes même s'ils sont bien vérifiés. Dès qu'un savoir empirique laisse une place au doute, ce qui arrive souvent, nous ne savons pas que nous savons même si nous savons.

Savoir sans savoir qu'on sait est contraire à des intuitions courantes. Si on a donné une justification d'un énoncé p, on se sent en droit d'affirmer non seulement p mais aussi qu'on sait que p. Mais si on sait seulement que la justification est acceptable, sans savoir si elle est concluante, on devrait seulement affirmer p sans affirmer qu'on le sait.

Si on définissait le savoir seulement à partir des justifications acceptables, sans exiger qu'elles soient concluantes, alors on pourrait conserver le principe qu'on sait toujours qu'on sait quand on sait. Mais cela conduirait à une conséquence inacceptable, qu'une conclusion pourrait être un savoir même si elle est fausse.

Le caractère contre-intuitif d'une théorie est une objection légitime contre elle, mais pas décisive. Nos intuitions courantes ne sont pas toujours cohérentes. La présente théorie du savoir est souvent en accord avec le bon sens, mais pas toujours. Un désaccord avec le bon sens n'est pas forcément une faiblesse théorique, c'est parfois un atout. Savoir qu'on prétend souvent savoir alors qu'on ne sait pas vraiment qu'on sait, même si on sait, n'est pas une conséquence contraire à toutes nos intuitions. Nous ne sommes pas les maîtres dans notre propre maison, même dans la maison du savoir.

Une théorie de la justification est internaliste lorsqu'elle affirme qu'un agent peut avoir conscience de toutes les conditions qui font qu'une croyance est justifiée. Pour une théorie internaliste, un agent peut toujours savoir qu'une justification est vraiment une justification. Une théorie de la justification est externaliste lorsqu'elle n'est pas internaliste, lorsqu'un agent n'a pas toujours accès aux conditions qui font qu'une croyance est justifiée. Pour une théorie externaliste, un agent ne peut pas toujours savoir qu'une justification est vraiment une justification. La présente théorie de la justification est à la fois internaliste et externaliste. Elle est internaliste pour les justifications acceptables et externaliste pour les justifications concluantes.

Les justifications faillibles et le problème de Gettier[modifier | modifier le wikicode]

Hormis les preuves mathématiques, nos justifications sont rarement infaillibles. On ne peut pas définir le savoir simplement en disant qu'il doit être justifié, parce qu'un énoncé faux peut être la conclusion d'une justification faillible. On peut alors songer à donner une condition plus stricte : un savoir est une croyance vraie et justifiée. Mais on rencontre alors le problème de Gettier (1963): un énoncé vrai et mal justifié n'est pas un savoir alors qu'il est quand même vrai et justifié. On ne peut donc pas définir le savoir en disant qu'il est une croyance vraie et justifiée. Par exemple, Lamarck a expliqué l'évolution graduelle des espèces à partir du principe de l'hérédité des caractères acquis. En son temps ce principe pouvait être considéré comme justifié, parce que les phénomènes héréditaires sont d'observation courante et parce que la différence entre les caractères innés et acquis est difficile à observer. Nous savons maintenant que ce principe est faux. La justification par Lamarck de l'évolution graduelle des espèces était donc mauvaise. Lamarck avait une croyance vraie et justifiée mais pas un savoir.

Pour résoudre le problème de Gettier, il suffit d'exiger qu'un savoir soit justifié de façon concluante (Dretske 1971, Zagzebski 2017). S'il y une erreur dans la justification, si elle n'est pas concluante, alors elle n'est pas une garantie du savoir.

Une théorie de la justification est infaillibiliste lorsqu'elle exige que tous les énoncés justifiés soient vrais. Elle est faillibiliste sinon.

L'infaillibilisme de la justification est parfois rejeté parce qu'on croit à tort qu'il exige que nos méthodes de justification soient infaillibles. Mais il est compatible avec la faillibilité de nos méthodes. Du point de vue de l'infaillibilisme, les mauvaises justifications produites par une méthode faillible ne sont pas du tout des justifications, mais les bonnes justifications produites par une méthode faillible sont quand même de bonnes justifications.

La présente théorie de la justification est à la fois faillibiliste et infaillibiliste. Elle est faillibiliste pour les justifications acceptables et infaillibiliste pour les justifications concluantes.

La justification du savoir sur le savoir[modifier | modifier le wikicode]

Le savoir sur le savoir est justifié de la même façon que les autres savoirs. En montrant comment on doit justifier le savoir, le savoir sur le savoir montre du même coup comment il doit lui-même être justifié.

Une théorie de la justification définit un idéal de savoir rationnel. En tant que théorie d'un idéal, elle est purement théorique et vraie par définition, comme une théorie mathématique, pourvu qu'elle ne soit pas contradictoire. Mais on attend d'un idéal qu'il soit plus qu'une simple possibilité logique, on veut qu'il nous aide à penser, à travailler, à vivre.

De même qu'un idéal de vie nous montre sa vérité en nous rendant capables de bien-vivre, un idéal de savoir nous montre sa vérité en nous rendant capables d'acquérir du bon savoir. Nous savons que notre idéal de savoir nous permet de reconnaître et de justifier un bon savoir tout simplement parce qu'il marche très bien, parce qu'il produit des fruits, parce qu'avec cet idéal nous nous donnons les moyens d'acquérir beaucoup de bon savoir, tandis que sans lui nous restons dans l'impasse.


Diversity, solidarity and unity.jpg Diversity, solidarity and unity 2.jpg

Blanc a besoin de Bleu, Bleu a besoin de Vert et Vert a besoin de Blanc, pour tenir debout.


Chapitre suivant >>


La recherche de la raison

« - ... je veux bien mener cet examen avec toi, pour que nous recherchions ensemble ce que peut bien être la vertu. 

- Et de quelle façon chercheras-tu, Socrate, cette réalité dont tu ne sais absolument pas ce qu'elle est ? Laquelle des choses qu'en effet tu ignores, prendras-tu comme objet de ta recherche ? Et si même, au mieux, tu tombais dessus, comment saurais-tu qu'il s'agit de cette chose que tu ne connaissais pas ?

- Je comprends de quoi tu parles, Ménon. Tu vois comme il est éristique, cet argument que tu débites, selon lequel il n'est possible à un homme de chercher ni ce qu'il connaît ni ce qu'il ne connaît pas ! En effet, ce qu'il connaît, il ne le chercherait pas, parce qu'il le connaît, et le connaissant, n'a aucun besoin d'une recherche ; et ce qu'il ne connaît pas, il ne le chercherait pas non plus, parce qu'il ne saurait même pas ce qu'il devrait chercher. » (Platon, Ménon, 80d-e, traduit par Monique Canto-Sperber, cf. Fine 2014)


Les deux prémisses de l'argument de Ménon sont fausses.

On peut savoir ce qu'on cherche avant de l'avoir trouvé. C'est évident. C'est ce qu'on fait à chaque fois que les problèmes qu'on cherche à résoudre sont bien identifiés.

On peut chercher sans savoir ce qu'on cherche. C'est moins évident. C'est ce qu'on fait quand on cherche sans savoir très bien où on va.

Savoir ce qu'on cherche sans l'avoir trouvé[modifier | modifier le wikicode]

Dès qu'on a un système de perception, ou de détection, on est capable de chercher en sachant ce qu'on cherche, avant de l'avoir trouvé. On cherche à détecter ce que le système est capable de détecter. On sait ce qu'on cherche si on sait ce qu'on est capable de percevoir. On trouve ce qu'on cherche en le percevant.

Poser un problème consiste à se donner une fin, un but, un objectif. On a résolu le problème quand on a atteint la fin qu'on s'est fixée ou quand on sait comment l'atteindre. On connaît une fin quand on sait percevoir ou détecter si elle est réalisée.

L'argument de Ménon confond la connaissance d'un problème avec la connaissance de sa solution. On peut connaître une fin, donc on sait ce qu'on cherche, avant de l'avoir atteinte, donc on n'a pas encore trouvé.

Quand on doit imaginer ce qu'on va faire avant d'agir, on remplace un problème par un autre : imaginer l'action ou le programme d'actions qui résout le problème initial. On peut alors explorer par l'imagination l'espace des possibilités de solution. On peut ainsi résoudre de nombreux problèmes sans quitter son fauteuil. Bien sûr, on a besoin de savoir anticiper afin de déterminer par l'imagination si une séquence d'actions est faisable et si elle permet d'atteindre le but. Lorsque le savoir acquis au préalable est suffisant, l'imagination seule, sans l'action, permet de trouver des solutions. Grâce à l'imagination le savoir déjà acquis est un tremplin pour acquérir davantage de savoir.

Une méthode générale de résolution de problèmes consiste à identifier toutes les possibilités de solution (toutes les actions et les séquences d'actions possibles par exemple) et à les essayer jusqu'à ce qu'on en trouve une qui atteigne l'objectif désiré. Cette méthode est très efficace tant que le nombre de possibilités à essayer n'est pas trop grand. Mais même les supercalculateurs les plus puissants ne peuvent pas résoudre ainsi certains problèmes parce que l'espace des possibilités qu'ils doivent essayer est beaucoup trop grand.

Une heuristique est une méthode de résolution de problèmes qui explore l'espace des possibilités de solution en sélectionnant certaines qui semblent prometteuses (Newell & Simon 1972, Russell & Norvig 2010). L'apprentissage par l'exercice peut être considéré comme une résolution d'un problème fondée sur une heuristique simple. Le problème est défini par les objectifs que le savoir-faire désiré doit atteindre et par leurs conditions initiales. Les possibilités de solution sont les façons d'agir que l'on peut essayer. On commence par sélectionner une possibilité, pas trop mauvaise si possible, puis on expérimente des variations et on évalue leurs résultats. On modifie par étapes successives le savoir-faire initial en conservant les variations qui semblent nous rapprocher du savoir-faire désiré. On explore ainsi l'espace des possibles par petits pas, en passant d'une façon de faire à une autre qui semble l'améliorer. C'est une forme d'apprentissage par l'essai, l'erreur et la réussite.

La résolution de problèmes est comme une prière. On a un problème et on prie pour trouver la solution. On ne trouverait pas la solution si on n'avait pas prié. C'est la prière qui nous donne la solution.

Chercher sans savoir ce qu'on cherche[modifier | modifier le wikicode]

Pour chercher la réponse à une question, il faut comprendre la question. Comment chercher la réponse à la question "qu'est-ce que la vertu ?" si on ne sait pas ce qu'est la vertu ?

On sait ce qu'on cherche quand on est capable de détecter si on l'a trouvé. Mais nous n'avons pas par avance des détecteurs de vertu, de raison ou de sagesse. Pour être capable de reconnaître la sagesse, il faut déjà être sage. Comment chercher la sagesse si on ne sait pas la reconnaître ? Même si on tombait dessus par hasard, on ne saurait même pas qu'on l'a rencontrée.

On peut avancer sans savoir où on va, simplement en allant droit devant soi. On ne sait pas où ce chemin nous mène, on le cherche, sans savoir ce qu'on cherche. On peut donc chercher sans savoir ce qu'on cherche.

On peut être porté et guidé par des idées sans savoir où elles nous mènent.

Il faut être expert pour reconnaître un savoir d'expert. Un débutant doit devenir expert, et donc acquérir un savoir qu'il n'est pas capable de reconnaître. Comment fait-il ?

Un débutant est capable de résoudre des problèmes de débutant, de reconnaître le savoir et les erreurs d'un débutant. Cela suffit pour démarrer. La capacité à reconnaître le savoir progresse en même temps que l'acquisition du savoir. Cela permet d'apprendre à résoudre des problèmes de plus en plus difficiles. C'est ainsi qu'on devient un expert.

On peut apprendre à percevoir. On ne sait pas par avance ce qu'on sera capable de percevoir. On ne sait pas par avance ce qu'on sera capable de trouver parce qu'on n'est pas encore capable de le percevoir.

Pour apprendre par l'exercice, par l'essai, l'erreur et la réussite, il n'est pas nécessaire de savoir où on va, il suffit de vouloir progresser.

Il n'est pas nécessaire de savoir par avance ce qu'on cherche, on peut l'apprendre en cours de route.

On ne se connaît pas soi-même. On ne sait pas par avance ce qu'on peut devenir. On cherche sans savoir ce qu'on cherche parce qu'on se cherche soi-même.

Nous ne savons pas de quoi nous sommes capables. La liste des problèmes que nous pouvons résoudre n'est pas connue d'avance.

Les problèmes théoriques[modifier | modifier le wikicode]

Résoudre des problèmes théoriques consiste à se servir du raisonnement pour augmenter notre savoir. Un problème est théorique lorsqu'on recherche par le raisonnement à répondre à une question. Si nous avons besoin d'observer ou d'expérimenter pour trouver une réponse, alors la question n'est pas un problème théorique. Le savoir préalable, l'énoncé de la question et nos facultés de raisonnement doivent suffire pour trouver la solution d'un problème théorique. S'il n'existe pas de raisonnement qui permette de répondre à la question, c'est que le problème théorique est mal identifié, ou que sa (méta)solution est de ne pas avoir de solution.

Pour une question fermée, il n'y a que deux solutions possibles, oui ou non. Pour une question ouverte, la solution doit nommer ou décrire un ou plusieurs êtres qui satisfont aux conditions énoncées dans la question. Les êtres ainsi nommés ou décrits sont alors les solutions du problème. Pour qu'un problème théorique soit résolu, il faut énoncer ses solutions et les justifier, en donnant un raisonnement qui prouve qu'elles sont véritablement des solutions du problème.

Pour qu'un problème théorique soit bien identifié il faut expliciter toutes les conditions du problème, y compris les principes qui nous serviront à raisonner pour le résoudre.

Quand on connaît les principes d'une théorie, on est capable de reconnaître les preuves qui reposent sur ces principes. On a ainsi un système de détection des preuves et des théorèmes. On peut ainsi savoir ce qu'on cherche, une preuve d'un théorème, avant de l'avoir trouvée.

L'acquisition du savoir par la résolution de problèmes théoriques exige un savoir préalable, déjà acquis, à partir duquel nous raisonnons. Le savoir théorique déjà acquis est un tremplin pour acquérir davantage de savoir, parce que nous pouvons apprendre en raisonnant tout ce que les bons principes enseignent.

En général l'énoncé d'un problème n'est pas suffisamment explicite pour qu'il soit un problème théorique bien identifié. Nous devons trouver nous-mêmes les principes qui nous serviront à raisonner (Aristote, Topiques).

Comment trouver les bons principes ? - On reconnaît les bons principes à leurs fruits. - Comment reconnaît-on les fruits ? - La raison porte des fruits quand elles nous aide à bien penser et à bien vivre. Mais nous n'avons pas par avance les détecteurs du bien penser et du bien vivre. Il faut déjà être sage pour reconnaître les fruits de la raison. Il n'est pas toujours plus facile de reconnaître les fruits que de reconnaître les bons principes. Et les bons principes font eux-mêmes partie des fruits.

La raison porte des fruits quand elle nous aide à penser bien, à faire le bien, à vivre bien. Mais on se fait facilement des illusions. On peut très facilement croire qu’on pense ou qu’on agit bien pour de très mauvaises raisons. La raison n’apporte pas toujours des réponses tranchées parce que la différence entre les vrais fruits et les illusions, entre le bon grain et l'ivraie, n’est pas toujours claire et nettement marquée.

Les pierres de touche de la raison[modifier | modifier le wikicode]

Une pierre de touche est une pierre dure et rugueuse sur laquelle on frotte un échantillon de métal précieux pour éprouver sa pureté. L'essayeur identifie le métal à partir de la trace qu'il laisse sur la pierre. Nous sommes à la fois des pierres de touche et des essayeurs pour la raison. Nous éprouvons la raison sur nous-mêmes et l'évaluons à partir de ses traces sur nos esprits.

Un débutant n'est pas toujours capable de reconnaître les fruits de la raison et les bons principes, parce qu'il n'est pas encore un très bon essayeur de la raison, il doit l'apprendre, mais il est quand même un essayeur débutant, capable de reconnaître les fruits et les bons principes accessibles au débutant. Il prend conscience des bons principes quand ils le font progresser, quand ils le rendent plus compétent. Les bons principes doivent rendre compétent. S'ils ne rendent pas compétent, ils ne sont pas de bons principes. La raison doit être bonne pour tous les esprits, sinon elle ne serait pas la raison.

Je suis la source, le milieu et la fin de la raison, la source parce que la raison naît de mes pensées, le milieu parce qu'elle se développe en moi quand je la cherche, la fin parce qu'elle s'accomplit quand je m'accomplis.

Je suis pour moi-même un critère fondamental de reconnaissance du bon savoir, puisque je le reconnais en reconnaissant ma compétence.

La réalité, la vie et les pensées mettent en permanence les pensées à l'épreuve. La pensée ne peut pas se développer sans se critiquer elle-même, parce qu'elle doit s'adapter à la réalité, y compris la réalité qu'elle est elle-même. Un esprit ne connaît pas par avance ce qui est bon pour lui-même. Il l'apprend par l'expérience et la critique.

Chaque esprit est pour lui-même comme pour tous les autres un critère de reconnaissance de la raison, parce qu'elle est nécessairement ce qui est bon pour tous les esprits.

Un véritable savoir peut toujours être partagé. Il me rend compétent parce qu'il peut rendre compétent tous les esprits. Si j'acquiers un savoir sans savoir l'expliquer, et donner des preuves acceptables par tous les esprits, c'est que je ne l'ai pas bien compris. Pour maîtriser un savoir, il faut être capable de l'enseigner clairement à tous ceux qui veulent l'acquérir.

Nous justifions notre savoir en donnant des preuves fondées sur des principes. Mais les principes doivent être eux-mêmes justifiés. Il faut qu'ils fassent leurs preuves en nous aidant à développer un bon savoir. Chacun peut se servir de sa propre expérience pour mettre des principes à l'épreuve et apprendre ainsi à reconnaître leur valeur. Mais il ne faut pas se limiter à sa propre expérience. Quand on prend un principe comme base d'un raisonnement, on affirme implicitement qu'il a une valeur universelle, qu'il peut servir à tous ceux qui veulent raisonner. Un principe doit donc être mis à l'épreuve de toutes les expériences de tous les esprits. Un principe fait ses preuves en aidant tous les esprits à développer un bon savoir.

La pensée solitaire est naturellement autocritique, tant qu'elle ne nie pas la réalité. Mais le développement de la raison est surtout une œuvre collective (Leibniz 1688-1690, Goldman 1999), à laquelle chaque être humain peut participer dès qu'il le veut, qu'il sait qu'il en est capable et qu'il se soumet volontairement à sa discipline : justification et évaluation critique.

Afin d'évaluer nos preuves nous devons les soumettre volontairement à la critique de tous les esprits. Les objections et les tentatives de réfutation peuvent nous conduire à modifier nos raisonnements, et parfois même à les abandonner, si la réfutation est décisive. Nous développons le savoir en conservant les principes et les preuves qui résistent bien aux épreuves critiques et en renonçant aux autres.

Tout le développement du savoir peut être conçu comme la résolution d'un unique et vaste problème. L'objectif est un savoir qui satisfasse notre désir de bien penser et de bien vivre. Nous explorons l'espace des possibles à chaque fois que nous examinons un savoir en vue de l'évaluer. Les épreuves critiques sont destinées à sélectionner les possibilités prometteuses. La critique est donc une heuristique qui nous aide à résoudre le problème du développement de la raison (Goodman 1955, Rawls 1971, Depaul 2006). Mais nous cherchons sans savoir ce que nous cherchons, parce que nous ne savons pas toujours par avance comment reconnaître la raison.

La découverte de la raison[modifier | modifier le wikicode]

La raison pratique nous donne le savoir et les pensées pour bien agir et bien vivre. La raison théorique nous donne le savoir et les pensées pour bien penser et développer un bon savoir. La raison pratique nous prescrit de développer la raison théorique, parce que nous avons besoin de bien penser pour bien vivre.

Que l'esprit doit vivre pour le bien de l'esprit n'est pas seulement un principe de la raison pratique, c'est aussi un principe de la raison théorique. Pour bien penser il faut toujours penser pour profiter des bienfaits de toutes les pensées. Le bon savoir est toujours un savoir qui nous invite à accueillir tous les bons savoirs. Le bon savoir n'est jamais fermé sur lui-même et il est toujours un savoir qui rend capable d'acquérir davantage de savoir.

Nous ne connaissons pas d'avance la portée de nos capacités à résoudre des problèmes. Nous la découvrons par l'exercice. En résolvant des problèmes, nous prenons davantage conscience de nos capacités. Mieux nous les connaissons et plus nous pouvons étendre leur champ d'applications. Nous nous découvrons ainsi nous-mêmes en tant qu'êtres rationnels, c'est à dire capables de développer la raison. Tous les développements de la raison sont des découvertes, parce que nous ne savons pas ce que la raison nous révélera avant de nous mettre au travail. Nous découvrons que nous sommes capables d'inventer ou de dévoiler la raison.

Pour savoir que la raison existe, nous avons besoin de la faire exister, en la partageant entre nous. En ce sens, c'est nous qui la faisons. Elle ne serait pas là si nous ne travaillions pas pour la faire vivre parmi nous. Mais on aurait tort de croire qu'elle est seulement notre invention, parce que nous ne décidons pas de ce qu'elle est, nous ne pouvons pas faire qu'elle soit ce qu'elle n'est pas, ou qu'elle ne soit pas ce qu'elle est. Quand nous travaillons nous la découvrons. Tout se passe comme si elle avait toujours été là de toute éternité, et nous sommes les derniers à l'apprendre.

Pour développer la raison, nous devons apprendre à raisonner et donc à inventer des discours et des théories, mais nous devons aussi surtout apprendre à écouter. Nous ne savons pas par avance ce que la raison va nous enseigner, nous le découvrons en tendant l'oreille et en ouvrant les yeux, en étant prêts à accueillir toutes les observations, les pensées et les principes qui pourraient nous éclairer, nous aider à mieux penser et à mieux vivre.

Les conditions d'apparition de la raison sont générales : des êtres qui parlent et qui veulent trouver ensemble des vérités et des preuves, en respectant toutes les règles de l'esprit critique. Ces conditions ne dépendent pas spécifiquement de notre humanité sur la Terre. D'autres êtres vivants, sur d'autres planètes, en d'autres temps, pourraient également développer la même raison, parce que ses conditions d'apparition sont universelles.

L'unité de la raison[modifier | modifier le wikicode]

Pour qu'un savoir puisse être partagé, il faut qu'il puise seulement dans des ressources communes, accessibles à tous. On pourrait croire que c'est une limite très restrictive, qu'en se privant de ressources privées, on se prive du même coup du meilleur du savoir, mais c'est l'exact contraire qui est vrai. Nos intelligences sont les plus puissantes justement quand elles se limitent aux ressources communes. C'est en nous entraidant que nous découvrons le mieux le pouvoir de nos intelligences, que nous développons les meilleurs savoirs et que nous faisons vivre la raison.

Un esprit s'accomplit en étant bon pour tous les esprits. Mais est-ce vraiment possible ? Un esprit a-t-il vraiment les moyens d'être bon pour tous les esprits ? N'est-ce pas plutôt une illusion ?

Les principes éthiques nous montrent que nous pouvons savoir ce que nous devons faire, les principes épistémologiques, que nous pouvons faire la différence entre le savoir et l'ignorance, les principes logiques, que nous pouvons raisonner correctement, les principes métaphysiques, que nous pouvons connaître les plus grandes vérités sur tout ce qui est. Ces grands principes nous révèlent la puissance de la raison. Ils sont universels. Ils donnent à tous les esprits les moyens d'acquérir tous les savoirs, de comprendre tous les esprits et de révéler tous les bienfaits de la raison. En apprenant ce que les grands principes nous enseignent, nous apprenons du même coup que nous pouvons penser pour le bien de tous les esprits. Être bon pour tous les esprits n'est pas un idéal inaccessible. C'est la réalité de la pensée rationnelle.

Tous les savoirs manifestent l'unité de la raison. Les principes les plus fondamentaux, les principes des principes, sont les mêmes pour toutes les sciences. De ce point de vue on peut dire que toutes les sciences parlent d'une seule voix et que tous les esprits contribuent au développement d'un savoir commun.

L'autorité de la raison[modifier | modifier le wikicode]

On peut raisonner sur la raison comme si elle était la sagesse d'un esprit et lui attribuer une volonté parce qu'on peut lui attribuer des fins. L'éthique nous enseigne ce qui mérite d'être poursuivi et nous donne ainsi les moyens de nous accomplir. Que nous poursuivions les fins que la raison nous prescrit peut justement être considéré comme une fin de la raison. Tout se passe comme si la raison était une bonne autorité qui nous montre les bons chemins.

Savoir qu'un esprit doit travailler pour le bien de l'esprit ne suffit pas pour décider des fins particulières que nous nous donnons. C'est ce qu'on attend d'une bonne autorité. Si elle nous privait de notre liberté, elle ne serait pas une bonne autorité. Le savoir éthique rationnel n'est pas une entreprise totalitaire qui décide à notre place de ce que nous devons faire. Il en est l'exact contraire puisqu'il nous demande de décider librement et intelligemment. Il est une condition de la véritable liberté, parce qu'on fait un mauvais usage de sa liberté si on ne s'en sert pas pour le bien. Plus on connaît le bien, mieux on peut le faire et vivre ainsi comme un esprit vraiment libre.

Que pouvons-nous espérer ?[modifier | modifier le wikicode]

La raison nous rend capables, mais de quoi ? Que pouvons-nous réaliser avec les compétences que nous développons rationnellement ? Que pouvons-nous espérer ?

Si la liste des problèmes que nous pouvons résoudre rationnellement était connue d'avance, nous saurions quoi espérer. Mais justement elle n'est pas connue d'avance. Nous ne connaissons pas l'étendue des compétences que la raison peut nous donner.

Comme nous ne savons pas de quoi la raison nous rend capables, nous pouvons placer nos espoirs très haut, que le règne de la raison vienne, que sa volonté soit faite, sur la terre comme au ciel, que le présent éphémère soit la splendeur de la vérité éternelle, ou très bas, la raison ne sera jamais plus qu'une pauvre consolation dans une vallée de larmes.

Le développement de la raison est l'histoire d'un étonnement perpétuellement renouvelé. Les sciences ont dépassé nos espérances. La Nature nous a révélé beaucoup plus de secrets que ce que nous pouvions rêver.

Pour savoir de quoi la raison nous rend capables, la meilleure façon, et la seule, est d'essayer. Si on n'essaie pas on n'a aucune chance de se rendre compte de ce qui marche.


Chapitre suivant >>>


Pourquoi la réalité est-elle intelligible ?

La réalité est intelligible parce qu'on peut l'observer et l'expliquer.

Qu'est-ce qu'un concept ?[modifier | modifier le wikicode]

Les observations attribuent des concepts aux êtres observés.

Les concepts sont des propriétés ou des relations. Une propriété, ou une qualité ou un trait, est attribuée à un être. Une relation est entre plusieurs êtres. Lorsqu'une relation est entre deux êtres, on peut considérer qu'elle est une propriété du couple. Une relation entre trois êtres est une propriété du triplet, et ainsi de suite pour les relations entre davantage d'êtres.

La perception visuelle attribue des qualités visuelles (couleur, luminosité, texture, forme...) aux objets vus. Il en va de même pour les autres formes de perception sensorielle.

Un être est toujours perçu avec des qualités ou des relations. Les êtres observés ne viennent jamais complètement nus. Ils sont toujours habillés avec les concepts que la perception leur a attribués.

Un être est perçu lorsqu'un détecteur signale sa présence. Le détecteur détermine un concept attribué à l'objet : la qualité d'être détectable par ce détecteur. Une détection attribue automatiquement à l'être détecté la qualité de pouvoir être ainsi détecté.

Le même signal de détection peut servir en même temps de représentation de l'être détecté et de représentation du concept attribué à cet être, parce que l'être est identifié par son concept. Les êtres sont représentés par les concepts qui leur sont attribués. Par exemple « l'arbre dans la cour » est une expression qui se sert du concept d'être un arbre dans la cour pour représenter un arbre.

Un concept est déterminé par l'ensemble des systèmes de détection qui signalent la présence d'un être en lui attribuant ce concept. Cette définition ne vaut pas seulement pour la perception sensorielle et les concepts empiriques. Elle peut être généralisée parce que toute unité de traitement de l'information peut être considérée comme un système de détection. Une unité de traitement de l'information produit des signaux en sortie à partir de signaux reçus en entrée. Un signal en sortie peut être considéré comme un signal de détection des signaux en entrée qui l'on produit. En particulier, les concepts théoriques sont déterminés par leur place dans un système théorique défini par des principes. Les raisonnements à partir des principes permettent d'attribuer des concepts aux êtres de la théorie. La capacité à raisonner peut être considérée comme un système de détection des conséquences théoriques, et donc comme un système de détection des concepts théoriques.

Lorsqu'un concept est défini par une série de conditions, qui ensemble sont nécessaires et suffisantes pour le déterminer, un système de détection de la présence du concept est défini du même coup, parce qu'on détecte le concept défini en détectant les conditions qui le définissent.

Lorsqu'un concept est défini par les ressemblances avec un ou plusieurs exemples, détecter le concept consiste à détecter des ressemblances et des différences.

Même un être unique peut être identifié par un concept, dès que nous sommes capables de le percevoir ou de l'imaginer en tant qu'être unique, parce que le percevoir ou l'imaginer requiert un système de détection, et parce qu'un tel système définit un concept. Par exemple je peux avoir le concept d'une personne qui m'est familière parce que je peux la percevoir et la distinguer parmi toutes les autres personnes.

On distingue parfois les représentations iconiques, telles que les images visuelles, et les représentations conceptuelles, qui peuvent être formulées avec des mots. Mais cette distinction n'est pas fondamentale. Une image visuelle attribue des qualités visuelles à tous ses points, elle est donc déjà conceptuelle. Percevoir, c'est déjà concevoir. Inversement une description verbale telle que bleu-blanc-rouge peut être considérée comme une image du drapeau français, parce que les mots sont alignés comme les parties qu'ils représentent.

On conçoit souvent les concepts comme des produits du langage. Les concepts sont signifiés par les expressions qui servent à les nommer et ils ne sont pas connus avant d'avoir un nom. Selon l'acception retenue dans ce livre les concepts précèdent le langage. Un système de perception détecte les êtres perçus en leur attribuant des concepts. Les concepts sont très généralement utilisés par les animaux, qu'ils se servent ou non d'un langage (Gould & Gould 1994). Par exemple tous les animaux capables d'avoir peur attestent par leur comportement qu'ils sont capables de détecter le danger. Donc ils se servent du concept de danger.

Faut-il considérer les concepts comme des êtres ? Comme des parties de la réalité ?

Les concepts sont présents à chaque fois que les êtres dont ils sont vrais sont présents. L'existence du concept de cheval est simplement celle de tous les chevaux. Les concepts sont manifestés et révélés par l'existence des êtres dont ils sont vrais et ils existent en même temps qu'eux. Les concepts existent réellement, mais pas à la façon des corps, parce qu'ils existent d'une façon dispersée sur tous les êtres dont ils sont vrais.

« La Forme se retrouve une et identique en même temps en plusieurs endroits. C'est comme si tu étendais un voile sur plusieurs êtres humains et que tu disais « Le voile reste un en sa totalité, lorsqu'il est étendu sur plusieurs choses. » (Platon, Parménide, 131b, traduit par Luc Brisson)

Les individus et la liaison entre les concepts[modifier | modifier le wikicode]

Les êtres, les individus, sont identifiés à partir des concepts qui leur sont attribués. Mais pour cela il faut résoudre le problème de la liaison (Quine 1992). Par exemple on peut percevoir simultanément la chaleur et la douleur de deux façons très différentes. Dans le premier cas, ce qui est chaud est ce qui fait mal, la chaleur et la douleur sont liées. On suppose qu’il y a un être qui a deux propriétés, d’être chaud et de faire mal. Dans le second cas, ce qui est chaud n’est pas ce qui fait mal, la chaleur et la douleur ne sont pas liées. On suppose qu’il y a deux êtres, l’un qui est chaud et ne fait pas mal, l’autre qui fait mal et n’est pas chaud.

Nous résolvons le problème de la liaison lorsque nous attribuons au même individu plusieurs propriétés ou relations avec d’autres individus.

Tout l’être d’un être est son être dans le tout[modifier | modifier le wikicode]

Les propriétés et les relations sont les façons d’être des individus dont elles sont des propriétés ou des relations. L’être d’un individu, c’est à dire sa façon d’être particulière, est déterminé par toutes ses propriétés et ses relations avec les autres individus. Ses propriétés et ses relations font qu’un individu est ce qu’il est. Connaître un individu, c’est connaître ses propriétés et ses relations. Mais qu’est-ce qui détermine l’être des propriétés et des relations ? Qu’est-ce qui fait qu’elles sont ce qu’elles sont ? Comme les propriétés et les relations ont elles-même des propriétés et des relations, on pourrait supposer que leur être est déterminé de la même façon que l’être des individus, mais alors on rencontre une régression à l’infini : pour connaître un individu il faut connaître ses propriétés et ses relations, qui doivent être connues par leurs propriétés et leurs relations, qui à leur tour doivent être connues par leurs propriétés et leurs relations et ainsi de suite à l’infini. Il semble qu’en procédant ainsi on ne pourrait jamais rien connaître.

Un être est ce qu’il est en vertu de la totalité dont il fait partie. Il a sa place dans le tout. Une fois que sa place est déterminée, tout ce qu’il est est déterminé. Tout l’être d’un être est son être dans le tout.

Les propriétés et les relations déterminent la façon d’être d’un individu en déterminant sa place dans le tout. Mais elles aussi sont déterminées par leur place dans le tout.

Tous les êtres du monde, les individus simples ou complexes, les propriétés et les relations ont tous une place dans le monde. Dès que ces places sont déterminées, le monde est déterminé, et tous les êtres qu’il contient aussi, avec leurs propriétés et leurs relations.

Être, c’est être un tout ou être dans un tout. Si un être est dans un tout, son être est déterminé par sa place dans le tout. Si un être est un tout, son être est déterminé quand toutes les places des êtres qui le constituent sont déterminées. Un être peut être à la fois un tout et dans un tout plus vaste. Un tel être est déterminé à la fois par sa structure interne, c’est à dire par l’arrangement de ses constituants, et par sa place dans le tout plus vaste. Il revient au même de dire qu’il est déterminé par la place de tous ses constituants dans le tout plus vaste.

Être, c'est être une partie ou être un tout, et le plus souvent les deux. L'être d'une partie est déterminé par sa place dans le tout. L'être d'un tout est déterminé par l'être de toutes ses parties.

Le principe holiste, que tout l’être d‘un être est son être dans le tout, ou structuraliste, être un objet, c'est être une place dans une structure, est d’une application universelle (Dieterle 1994). Il explique à la fois l’être des êtres naturels et l’être des êtres mathématiques.

La nature de la matière et la vérité de la perception[modifier | modifier le wikicode]

Lorsque nous percevons un objet avec nos sens nous croyons le connaître ainsi. Par exemple, si nous voyons que le mur est jaune, nous croyons naturellement qu'il est vraiment jaune. Mais n'est-ce pas une erreur ? Tout ce que nous savons c'est que nos yeux nous donnent une sensation de jaune. Le jaune semble être sur le mur mais il est surtout sur nos yeux. Il se pourrait même que le mur n'existe pas, que nous ayons seulement l'illusion d'un mur jaune. Faut-il en conclure que nous ne connaissons jamais le monde extérieur, que nous pouvons seulement connaître nos sensations et nous-mêmes, que la perception est toujours introspective ?

La nature de la matière est d'interagir avec la matière. Les propriétés d'un morceau de matière (particule élémentaire, atome, molécule, matériau solide, liquide ou gazeux...) sont toujours déterminées par ses façons d'interagir avec les autres morceaux de matière. La matière fait toujours ça, interagir avec la matière, et rien d'autre. Il n'y a rien de plus à connaître sur la matière que ses interactions. Quand on sait comment des êtres matériels interagissent, on sait tout ce qu'il y a à savoir sur eux.

On est sensible à un être quand il agit sur nos sens. Nos organes sensoriels sont spécialisés pour subir l'action des objets extérieurs. Ils ne suffisent pas pour connaître tous les êtres matériels et toutes leurs interactions, mais ils apportent tout de même beaucoup d'informations. Les instruments d'observation et de mesure, et tous les systèmes de détection que nous pouvons construire, sont comme des prothèses sensorielles. Ils étendent le champ de la perception. Ils nous font connaître des êtres matériels auxquels les sens ne sont pas directement sensibles. Ils nous révèlent d'autres formes d'action et de sensibilité.

La matière peut toujours être détectée parce que sa nature est d'interagir. Dès qu'elle agit sur un autre morceau de matière, celui-ci est un détecteur. Nos sens, complétés par tous les systèmes de détection concevables, nous permettent donc en principe de connaître tous les êtres matériels et toutes leurs propriétés. Rien ne peut rester caché. Tout peut être perçu, parce que la nature de la matière est d'être perceptible (Dugnolle 2017).

Le mur est vraiment jaune simplement parce qu'il est capable d'exciter la sensation de jaune sur nos yeux, ou sur tout autre détecteur sensible à la lumière jaune. Plus généralement toutes les qualités et toutes les relations qui déterminent l'existence d'un être matériel sont détectables par d'autres êtres matériels. Nous n'avons donc pas à craindre que la perception nous prive malicieusement de ce qu'elle semble nous donner, des représentations vraies des êtres perçus.

Lorsqu'un être est perçu, ou détecté, il établit une relation avec l'être qui le perçoit ou qui le détecte. Comme l'être d'un être est déterminé par toutes ses relations avec les autres êtres, être perçu ou détecté fait partie de l'être d'une être. La perception révèle la vérité des êtres parce qu'elle révèle leur place dans la totalité.

Mais cet argument en faveur de la vérité des perceptions semble prouver beaucoup trop, puisqu'il suggère que toutes les perceptions devraient être vraies. Si la qualité détectée est toujours la qualité d'être détectable ainsi, il s'ensuit que toute détection est vraie, puisque ce qui est détecté est nécessairement détectable. Comment les fausses perceptions peuvent-elles alors exister ?

La possibilité de la fausseté vient de l'existence d'une norme de vérité. Si un instrument de mesure n'a pas été correctement étalonné, il fournit un résultat faux. Le résultat est faux seulement par référence à l'étalon de mesure. Il en va de même pour la perception. Elles ne peuvent être fausses que s'il y a une norme qui détermine ce qui doit être perçu. En l'absence de norme, elles sont toujours vraies, parce qu'elles révèlent toujours l'effet de l'objet sur nos sens. Même une perception fausse révèle une vérité sur l'objet, parce qu'il est vrai qu'il peut être ainsi perçu.

Les mondes logiquement possibles[modifier | modifier le wikicode]

Un monde logiquement possible est un ensemble d'énoncés atomiques (Keisler 1977). Un énoncé est atomique lorsqu’il affirme une propriété fondamentale d’un individu ou une relation fondamentale entre plusieurs individus.

Par exemple, l’ensemble des énoncés suivants définit le monde, ou la structure, des nombres naturels : 1 suit 0, 2 suit 1, 3 suit 2… Il faut entendre que cet ensemble contient toutes les vérités atomiques formées avec les noms des nombres naturels et la relation de succession. Un énoncé atomique qui n’est pas dans cet ensemble est par conséquent faux.

La structure des nombres naturels ainsi définie est un monde logiquement possible. De façon générale, n’importe quel ensemble d’énoncés atomiques définit un monde, ou un modèle, ou une structure, logiquement possible. Tous les énoncés atomiques de l’ensemble sont vrais du monde qu’ils définissent ensemble, par construction.

L’ensemble des vérités atomiques qui définit un monde détermine complètement les individus qu’il contient, leurs propriétés et leurs relations. Chaque individu, chaque propriété ou relation fondamentale est déterminé par sa place dans l’ensemble des vérités atomiques. 0 n’est rien d’autre que le nombre naturel qui ne suit aucun nombre naturel et qui est suivi par 1, 1 n’est rien d’autre que le nombre qui suit 0 et qui est suivi par 2… La relation de succession n’est rien d’autre que la relation qui relie à la fois 1 à 0, 2 à 1, 3 à 2… L’être des nombres naturels et de leur relation de succession est complètement déterminé par la totalité des vérités atomiques à leur sujet (Dedekind 1888).

Plus généralement un être mathématique est une structure ou une place dans une structure (Shapiro 1997, 2000). Une structure est un monde logiquement possible. Lorsqu’il est une place dans une structure, tout l’être d’un être mathématique est son être dans le tout, la structure. Un être mathématique peut être à la fois une structure et une place dans une structure plus vaste.

Une remarque sur la possibilité logique : David Lewis craint qu'il y ait une circularité dans la définition du concept de possibilité logique, parce qu'un monde logiquement possible est tel qu'il est impossible que sa définition implique une contradiction (Lewis 1986). En définissant un monde logiquement possible comme un ensemble d'énoncés atomiques, on évite ce problème de circularité. La définition d'un monde logiquement possible ne peut pas impliquer de contradiction parce que les énoncés atomiques ne contiennent jamais de négation. S'il n'y a pas de négation, il ne peut pas y avoir de contradiction.

L'explication[modifier | modifier le wikicode]

Les observations nous montrent ce qui est mais elles ne nous disent pas pourquoi c'est ainsi. Pour satisfaire le désir d'intelligibilité, nous ne voulons pas seulement des descriptions, nous voulons surtout des explications.

Qu'est-ce qu'une bonne explication ? Que faut-il pour qu'une explication nous éclaire ou nous illumine ?

Un événement est expliqué à partir des conditions qui l'ont produit, à partir de la suite des événements dont il est la conséquence.

En général nos observations ne révèlent que des miettes de la réalité. Nous ne faisons que soulever un tout petit coin du voile, nous n’observons jamais qu’une infime partie de ce qui est, beaucoup trop peu pour prétendre que nous le connaissons bien. Notre savoir est trop fragmentaire pour donner des explications parce que nous ne connaissons pas les causes dont nos observations sont les conséquences. C'est pourquoi les fictions montrent parfois mieux la vérité que la réalité. L'auteur d'une fiction peut nous informer de toutes les conditions qui précèdent les événements relatés et les expliquer ainsi.

Nous expliquons les événements avec des lois prédictives, mais ces lois elles aussi doivent être expliquées. Nous expliquons les lois particulières avec des lois plus générales et des principes en faisant des théories.

L'explication d'un événement le situe dans l'enchaînement des événements qui l'ont précédé. L'explication d'une loi la situe dans une théorie qui permet de la prouver. De façon générale, une explication requiert une vue d'ensemble qui situe ce qui est expliqué dans la totalité dont il fait partie.

Une explication d'un événement anticipé est en même temps une preuve de la vérité de l'anticipation, pourvu que les prémisses, c'est à dire les conditions qui précèdent l'événement et les lois qui permettent de le prédire, soient vraies. Ceci est général. Une bonne explication est une preuve de ce qu'elle explique. Inversement, une bonne preuve doit être en même temps une explication, elle doit nous montrer pourquoi sa conclusion est vraie. Dans la définition socratique du savoir, une croyance vraie accompagnée d'une raison (Théétète 201d , Ménon 98a), 'raison' (logos) peut aussi être traduit par 'explication' et par 'justification'. Mais cela revient au même. Les bons principes sont bons à la fois parce qu'ils expliquent et parce qu'ils justifient les conclusions qu'ils permettent d'obtenir.

Une loi prédictive affirme que toujours, si des conditions sont réunies alors certains effets seront obtenus. Elle montre sa vérité à chaque fois que les mêmes conditions sont réunies. Mais pourquoi les mêmes conditions devraient-elles se répéter ? Il se pourrait que chaque situation soit nouvelle et unique, qu'elle ne soit jamais la répétition d'une situation déjà rencontrée.

Pourquoi les lois sont-elles vraies ? Pourquoi la Nature obéit-elle à des lois ?

Quand nous cherchons la raison, nous cherchons des bons principes pour expliquer tout ce qui est. Mais pourquoi de tels bons principes devraient-ils exister ? La réalité pourrait être inexplicable.

Rien de nouveau sous le Soleil[modifier | modifier le wikicode]

La lumière qui nous vient des étoiles éloignées est la même que celle du Soleil, ou que celle que nous produisons sur Terre. Elle se comporte toujours de la même façon. « Il n'y a rien de nouveau sous le Soleil. » (Écclésiaste) Les lois de l'optique sont parmi les mieux connues et elles sont toujours vérifiées, souvent avec une excellente précision. Partout dans l'Univers la lumière est toujours la même et obéit toujours aux mêmes lois.

La lumière révèle les propriétés de la matière. Une substance naturelle peut toujours être identifiée par la spectroscopie, c'est à dire l'analyse de la lumière absorbée ou émise. Nous pouvons connaître la composition chimique des astres éloignés en analysant leur lumière. La lumière révèle que la matière est toujours la même partout dans l'Univers.

Une substance naturelle est pure si elle est constituée de molécules ou d'atomes tous identiques. Les substances naturelles se comportent toujours de la même façon dès qu'elles sont pures. L'eau pure a toujours les propriétés de l'eau pure. Elle obéit toujours aux mêmes lois. Pour elle aussi, rien de nouveau sous le Soleil. Plus généralement les particules élémentaires, les atomes et les molécules d'une même espèce sont tous identiques et obéissent aux mêmes lois.

Tous les points de l'espace sont identiques. Quand on en connaît un, on les connaît tous. Il en va de même pour les points de l'espace-temps.

La Nature obéit-elle vraiment à des lois ?[modifier | modifier le wikicode]

Il est dans la nature de l'esprit de raisonner et donc de postuler des lois avec lesquelles raisonner. Un esprit ne peut pas se développer sans penser à des lois. Il semble donc que l'existence des lois résulte de la nature de l'esprit. Mais la matière semble en général naturellement sans esprit, pourquoi obéirait-elle à des lois ?

Pour justifier nos savoirs, nous avons besoin de postuler que la Nature obéit à des lois, mais est-ce vraiment une croyance justifiée ? N'est-ce pas plutôt prendre son désir pour une réalité ? Il se pourrait que toutes les lois de la Nature auxquelles aujourd'hui nous croyons soient toutes réfutées par des observations à venir. Et la Nature ne pourrait-elle pas être sans loi ?

La matière ne serait pas la matière si elle n'obéissait pas à des lois. La matière est nécessairement détectable, elle doit donc obéir à des lois de détection, qui résultent des lois fondamentales d'interaction. Une matière qui n'obéirait à aucune loi ne serait pas détectable, et il n'y aurait pas de raison de l'appeler matière. Nous ne savons pas du tout ce que ce pourrait être, cela semble inconcevable.

Tout se passe comme si la matière et l'esprit avaient été faits l'un pour l'autre, parce que la nature de la matière est d'obéir à des lois et que la nature de l'esprit est de connaître les lois.

Ni la matière, ni a fortiori la vie et la conscience, ne pourraient exister et se développer si la Nature n'obéissait pas à des lois. Nous ne serions pas là pour en parler.

Nous n'avons pas à attendre de nos expériences qu'elles prouvent définitivement que la Nature obéit à des lois, ce qu'elles ne peuvent pas faire, puisque toute loi vérifiée aujourd'hui pourrait être réfutée demain, mais seulement qu'elles nous aident à trouver les lois de la Nature. Nous savons d'avance que la Nature obéit à des lois mais nous ne savons pas lesquelles. Comme la Nature ne semble pas être malicieuse, mais plutôt généreuse, il semble qu'un travail honnête et des expériences bien contrôlées suffisent pour trouver et prouver les lois auxquelles elle obéit. Si une loi est vérifiée par une expérience bien contrôlée, ou si elle est une conséquence logique de prémisses déjà bien prouvées, elle peut être considérée comme prouvée, jusqu'à preuve du contraire.

Les mondes naturellement possibles[modifier | modifier le wikicode]

Les observations ne révèlent des êtres que ce qu'ils sont ou ont été. L'imagination et la pensée permettent d'aller plus loin parce qu'elles révèlent ce qu'ils pourraient être, ce qui est naturellement possible.

Les mondes naturellement possibles sont les mondes logiquement possibles tels que les lois de la Nature y sont vraies.

Une théorie de la Nature énonce des lois fondamentales, ses axiomes, et permet de définir des propriétés ou des relations à partir des propriétés et des relations fondamentales. Si la théorie est vraie, tous les théorèmes de la théorie, c’est à dire les conséquences logiques des axiomes et des définitions, sont des lois de la Nature.

Les mondes logiquement possibles où une théorie est vraie sont en général appelé des modèles de la théorie ou de ses axiomes. Un monde naturellement possible est un modèle d’une théorie de la Nature. Il faut ici distinguer deux sens du concept de vérité. La vérité des axiomes pour un modèle est une vérité formelle ou mathématique. Elle résulte de la définition du modèle. Mais quand on dit d'une théorie de la Nature qu'elle est vraie, on veut dire plus que sa vérité formelle pour un monde logiquement possible, on veut que la théorie soit vraie à propos d'êtres qui existent réellement, on veut que le vérité de la théorie soit physique ou réaliste. Les mondes naturellement possibles sont les modèles d'une théorie de la Nature pourvu qu'elle soit vraie au sens réaliste.

Si les lois de la Nature sont formulées avec un système d'équations différentielles, les mondes naturellement possibles sont les solutions du système.

On explique ce qui est présent, réel, actuel en montrant qu'il est naturellement possible. On explique les mouvements des planètes par exemple en montrant qu'ils sont des solutions des équations différentielles de la physique newtonienne.

L'espace des mondes naturellement possibles est beaucoup plus vaste que le monde réel mais d'une certaine façon il est plus facile à connaître, parce qu'il suffit de connaître les lois. Pour connaître le monde actuel, on a besoin d'être en plus informé sur les possibilités qui se sont réalisées.

Les propriétés et les relations fondamentales d’une théorie de la Nature sont complètement déterminées par leur place dans l’ensemble des mondes naturellement possibles, qui est lui-même déterminé par le système des lois fondamentales de la Nature postulé par la théorie. Plus généralement, toutes les propriétés et les relations naturelles sont déterminées par leur place dans le système des lois de la Nature, parce que tout l’être des propriétés et des relations naturelles est leur être dans la totalité des mondes naturellement possibles.

La puissance des propriétés naturelles[modifier | modifier le wikicode]

Je dis que ce qui possède une puissance, quelle qu'elle soit, soit d'agir sur n'importe quelle chose naturellement pareille, soit de pâtir - même dans un degré minime, par l'action de l'agent le plus faible, et même si cela n'arrive qu'une seule fois - tout cela, je dis, existe réellement. Et, par conséquent, je pose par définition qui définit les êtres que ceux-ci ne sont autre chose que puissance.

(Platon, Le Sophiste ou De l'Être, 247e, traduit par Nestor L. Cordero)

Les lois fondamentales de la matière sont des lois d’interaction. Si une espèce de matière n’interagissait pas avec le reste de la matière, elle ne pourrait pas être détectée, et donc elle ne pourrait pas être reconnue comme de la matière. Tous les êtres matériels interagissent avec d’autres êtres matériels. Toute la matière que nous pouvons détecter, c’est à dire toute la matière de notre Univers, fait nécessairement partie d’un réseau interconnecté d’interactions dont nous faisons nous aussi partie.

La puissance d’un être, c’est à dire sa capacité à intervenir dans des arrangements naturels, l’effet qu’il y fait sur d’autres êtres, est déterminée par les lois d’interaction entre les êtres. Les lois d’interaction attribue la même puissance à des êtres qui ont les mêmes propriétés naturelles. La puissance d’un être ne dépend que de ses propriétés naturelles. Tout autre être qui a les mêmes propriétés a naturellement la même puissance.

Quand on sait de quoi un être est fait, on peut en déduire ses effets sur tous les autres êtres, pourvu qu'on connaisse les lois de la Nature. De quoi c'est fait dit ce que ça fait.

Une propriété naturelle peut elle-même être considérée comme une puissance. Il faut entendre par là qu’elle contribue à la puissance des êtres dont elle est la propriété. Si deux propriétés naturelles ont toujours exactement les mêmes effets naturels, si elle ne peuvent pas être distinguées en tant que puissances naturelles, alors elles sont nécessairement la même propriété, parce qu’une propriété naturelle est déterminée par sa place dans le système des lois de la Nature. On peut aussi dire qu’une propriété naturelle est déterminée par sa place dans le système des relations de causalité (Shoemaker 1980, Bird 2007), parce que celui-ci est lui-même déterminé par les lois de la Nature.

Comme les relations géométriques sont des propriétés naturelles, elles aussi sont des puissances. On retient parfois cette conséquence de la théorie comme une objection contre elle, parce que les relations géométriques semblent inertes et incapables d'agir. C'est oublier que la proximité est essentielle pour exercer une puissance. La distance est une puissance parce qu'elle fait partie des conditions d'exercice des diverses puissances. Pour se protéger d'un danger, il suffit souvent de s'éloigner. La distance a donc la puissance de nous protéger.


Chapitre suivant >>>


L'esprit, comment ça marche ?

Pour expliquer le savoir, il faut expliquer comment il est produit, il faut donc expliquer le fonctionnement de l'esprit, comment il perçoit, imagine, ressent, pense, veut et agit. Comment ça marche ?

La liaison entre les capteurs et les effecteurs[modifier | modifier le wikicode]

La cognition est la production et l'utilisation de représentations internes qui préparent ou conduisent à l'action.

Pour utiliser des représentations, il faut être capable d'agir, il faut être un agent, c'est à dire un corps animé : un être vivant ou un robot. Un agent est toujours un système qui interagit avec son environnement par l'intermédiaire de capteurs et d'effecteurs (Turing 1936, Russell & Norvig 2010).

Les capteurs (les organes sensoriels) sont reliés par un système nerveux (le cerveau, la moelle épinière...) aux effecteurs (les muscles, les glandes ...) afin de produire un comportement intelligent (Churchland & Sejnowski 1992, Gazzaniga & Ivry 2001).

La perception sensorielle consiste à produire des représentations internes à partir des signaux fournis par les capteurs. Elle prépare à l'action en rendant l'agent capable de s'adapter à son environnement présent. Mais les sens ne sont pas les seules sources des représentations internes. Toutes les formes de perception et d'imagination sont des façons de produire des représentations internes qui préparent ou conduisent à l'action.

Les modules du cerveau et les comportements routiniers[modifier | modifier le wikicode]

Un module cérébral est un réseau de neurones spécialisé dans certaines tâches de traitement de l'information. Il a des voies d'entrée, où il reçoit des informations et des ordres, et des voies de sortie, où il émet lui-même des informations et des ordres. Il peut être très localisé (un petit noyau de neurones, une micro-colonne corticale...) ou assez étendu (un vaste réseau réparti sur plusieurs régions cérébrales). Il a des compétences qui lui sont propres et un mode de fonctionnement partiellement autonome.

L'activité cérébrale dans son ensemble résulte de l'activité coordonnée de tous les modules. Ils échangent des informations et des ordres et produisent ainsi toutes les représentations internes qui préparent l'action et tous les signaux qui la déclenchent et la contrôlent.

Un module cérébral peut être conçu comme un pilote automatique. Les pilotes les plus subordonnés sont les plus périphériques, les réseaux de neurones qui commandent les muscles et le reste du corps. Ces modules subordonnés sont commandés par d'autres modules, et ainsi de suite. Un module cérébral a toujours une compétence assez limitée. Il n'a accès qu'à une petite partie des informations disponibles dans le cerveau, et le répertoire des tâches qu'il peut accomplir est également limité. Mais les modules de niveau supérieur, c'est à dire ceux qui commandent au plus haut niveau les autres modules, sont capables en principe de mobiliser toutes les ressources du corps et de son cerveau. Un tel module est une sorte de chef dans le cerveau, un pilote automatique qui pilote d'autres pilotes.

Un module peut représenter ses propres fins, donner des informations et des ordres aux autres modules, ou en recevoir, et participer ainsi au bon fonctionnement de l'organisme. L'activité spontanée des modules suffit pour expliquer les comportements routiniers qui résultent des instincts ou de l'apprentissage. Les ressources nécessaires sont recrutées automatiquement et accomplissent leurs tâches comme elles en ont l'habitude. Il peut y avoir un chef qui dirige provisoirement la marche de l'ensemble, ou plusieurs, ou aucun, parce que les modules peuvent travailler séparément et coordonner spontanément leurs activités.

La décision et la volonté[modifier | modifier le wikicode]

Les actions sont volontaires ou involontaires. Lorsqu'elles sont volontaires, elles résultent d'une décision.

Quand on a pris une décision, on aurait pu faire un autre choix. La décision est précédée d'une phase d'évaluation. Il faut prendre en compte les conséquences prévisibles, extérieures et intérieures, de la décision à prendre.

L'évaluation qui précède une décision est une sorte de perception de haut niveau, une perception de l'ensemble de la situation qui requiert une décision. La perception de haut niveau est une synthèse qui mobilise la plupart de nos capacités à percevoir.

Les actions ont pour fin de transformer la réalité, extérieure, intérieure, ou les deux.

Nous pouvons nous servir de la volonté pour nous transformer intérieurement. La plupart de nos ressources intérieures peuvent être influencées et transformées par nos décisions. C'est ainsi que la volonté peut avoir pour fin de se transformer elle-même.

L'évaluation qui précède une décision est une sorte de délibération collective, à laquelle nos ressources intérieures sont invitées à participer. Une fois que la décision est prise, ces mêmes ressources intérieures doivent la respecter. L'organisation intérieure qui permet à la volonté d'exister ressemble à une administration centralisée sans administrateur central. Une loi commune est décidée par tous et s'impose à tous.

Pour que les buts et les règles que nous avons décidés volontairement puissent mobiliser nos ressources intérieures, il faut qu'ils soient conservés en mémoire de travail. Certaines modules doivent être être spécialisés dans l'enregistrement de nos décisions et la distribution des ordres qui en résultent. La décision mémorisée est utilisée pour envoyer des ordres à tous les modules concernés par l'exécution de cette décision, tant que le but n'est pas atteint, ou qu'on n'a pas renoncé. Les modules qui mémorisent nos décisions volontaires sont des donneurs d'ordres. On peut donc les appeler des modules exécutifs. Les autres modules cérébraux sont subordonnés à ces modules exécutifs.

Les modules exécutifs ne sont pas des innovateurs. Ils se contentent d'enregistrer des décisions prises ailleurs et de distribuer automatiquement les ordres qui les appliquent. Ce ne sont pas des homoncules, ou des petits génies dans la tête, mais seulement des circuits neuronaux capables d'enregistrer les décisions reçues sur leur voies d'entrée, et de donner ensuite les ordres qui les appliquent sur leurs voies de sortie. Il s'agit seulement de traitement de l'information, pas de mettre des esprits dans la machine.

Nos projets volontaires sont proposés, élaborés et évalués par l'ensemble de nos ressources intérieures, et une fois adoptés, ils s'imposent à ces mêmes ressources intérieures, qui doivent obéir aux ordres qui leur sont donnés. Mais il n'y a pas de chef, pas d'administrateur central. Les modules exécutifs ne font qu'enregistrer des décisions prises par la collectivité. Eux aussi ne font donc qu'obéir à l'ordre commun.

Comme les systèmes émotionnels évaluent les buts sur lesquels nous nous décidons, on peut songer à un modèle de la volonté qui la réduit à un rôle de servante des émotions. La prise de décision volontaire pourrait consister simplement à soumettre un projet aux systèmes émotionnels puis à compter leurs évaluations. Si les avis favorables l'emportent nettement sur les autres alors la décision est prise. La volonté ainsi conçue serait hétéronome, elle ne ferait qu'obéir à une loi extérieure, celle des émotions.

La volonté est autonome parce qu'elle se donne sa propre loi. Elle est autonome dans ses évaluations lorsqu'elle prend ses décisions à partir de règles ou de critères d'évaluation qu'elle a elle-même décidés.

Les buts sur lesquels nous nous décidons peuvent être suggérés par les systèmes de la perception et de l'émotion indépendamment de tout contrôle volontaire. Dans de tels cas la volonté a seulement à donner son accord pour des projets qu'elle n'a pas élaborés. Tout ce qu'on lui demande est de donner sa signature. Mais nous pouvons aussi décider d'élaborer des projets sur lesquels nous nous déciderons ultérieurement. La volonté est autonome dans son exécution lorsqu'elle décide d'élaborer les projets qu'elle soumettra à ses évaluations. Un système autonome dans ses évaluations et son exécution est capable de poser et résoudre des problèmes.

Le modèle d'administration centralisée sans administrateur central explique pourquoi le moi est comme une boucle étrange (Hofstadter 2007). Je peux décider des critères d'évaluation de mes décisions, parce que la volonté est autonome dans ses évaluations. Je peux aussi décider des objets sur lesquels porteront mes prochaines décisions, parce que la volonté est autonome dans son exécution.

Lorsque leurs comportements sont routiniers, les agents n'ont pas besoin de chercher longtemps des solutions. Ils les trouvent spontanément parce que leurs modules cérébraux savent comment les produire, par instinct ou par habitude. Les agents se contentent de résoudre les problèmes qu'ils savent déjà résoudre. Mais face à une situation nouvelle, les réactions habituelles ne sont pas toujours adaptées. Il se peut que l'agent dispose des ressources intérieures nécessaires pour réagir comme il convient, mais qu'il ne sache pas les mobiliser, parce qu'il lui faudrait pour cela inventer un nouveau mode de coordination entre ses modules cérébraux. Aucun d'entre eux n'a les moyens de recruter les autres, alors qu'il suffirait qu'ils travaillent ensemble pour atteindre les fins recherchées. L'agent aurait besoin d'un compositeur-chef d'orchestre intérieur, capable de trouver des solutions vraiment nouvelles (Shallice & Cooper 2011). Le modèle d'administration centralisée sans administrateur central montre, sans postuler l'existence d'un esprit dans la machine, comment le cerveau peut fonctionner comme s'il était doté d'un tel compositeur-chef d'orchestre .

L'attention et la conscience[modifier | modifier le wikicode]

Nous faisons attention à nos décisions au moment où nous les prenons. Nous faisons également attention à toutes les informations qui pourraient nous servir pour adopter ou rejeter une décision. Nous faisons aussi attention aux informations qui servent à contrôler l'application d'une décision.

Nos modules exécutifs, responsables de l'application de nos décisions, sont nécessairement en nombre limité. Leurs ressources en mémoire sont également limitées. Nous ne pouvons pas faire volontairement trop de choses à la fois. Nos capacités d'évaluation sont également limitées. Nous ne pouvons pas prendre une multitude de décisions en même temps. Chaque proposition doit être examinée à son tour.

L'attention est la sélection des représentations pour prendre des décisions et contrôler leur exécution.

Un signal est conscient si et seulement s'il est un signal auquel on peut faire attention.

Un test empirique de conscience est un test de décision. Par exemple, on donne comme règle à un sujet qu'il doit appuyer sur un bouton lorsqu'un certain signal apparaît. Le sujet montre qu'il a conscience du signal en réussissant le test.

L'imagination et le contrôle volontaire de l'attention permettent à la volonté de fonctionner en circuit fermé, parce qu'elle peut décider elle-même des informations à partir desquelles elle prend de nouvelles décisions. On peut ainsi être concentré sur ce qu'on imagine et se sentir comme coupé du monde. Mais un tel isolement n'est jamais complet. Un événement inattendu suffit pour nous sortir de notre méditation et capturer notre attention. Les informations sur l'événement inattendu, évaluées en vue d'une décision volontaire, ont été sélectionnées par un processus involontaire (Lachaux 2011). La volonté est autonome et peut décider elle-même de ce qui retient son attention, mais pas au point de se soustraire complètement aux influences extérieures.

Le modèle d'administration centralisée sans administrateur central explique comment le cerveau rend capable d'avoir une volonté autonome, de faire attention, de former des croyances et de contrôler volontairement la perception, l'imagination et la pensée. Il s'agit bien d'une théorie qui explique le fonctionnement de nos cerveaux quand nous sommes conscients, mais elle ne suffit pas pour expliquer l'apparition de la conscience à partir de l'activité cérébrale (Chalmers 1996). L'attention consiste à sélectionner des représentations pour prendre des décisions et contrôler leur exécution, mais la sélection à elle seule n'explique pas pourquoi les représentations ainsi sélectionnées deviennent particulièrement conscientes. Un robot aussi peut sélectionner des représentations pour prendre des décisions, sans que cela implique la moindre conscience.

La conscience apparaît à partir de la vie cérébrale, mais nous ne savons pas l'expliquer. Les influx nerveux sont produits par des courants électriques dans les neurones et à travers leurs membranes. Ce sont des courants ioniques très ordinaires. Rien ne suggère qu'ils doivent être les messagers de l'esprit.

L'imagination du présent[modifier | modifier le wikicode]

La perception et l'imagination sont souvent pensées en opposition. Ce qui est perçu est présent, ce qui est imaginé ne l'est pas. Mais ceci n'est pas toujours vrai. Si par exemple je suis dans un endroit familier, je peux me représenter la disposition des lieux même dans l'obscurité. Je sais que divers objets sont présents et où ils sont alors que je ne les perçois pas directement.

Une modélisation simpliste et partiellement fausse de la perception suppose qu'elle est unidirectionnelle. Les informations sont d'abord produites par les détecteurs sensoriels puis synthétisées, par étapes successives, jusqu'aux représentations de haut niveau, qui déterminent les principaux objets perçus et les principaux concepts qui leur sont attribués. On suppose que les représentations complexes émergent à partir des perceptions élémentaires, comme dans une peinture pointilliste. Une telle dynamique de production des représentations est dite ascendante, ou bottom-up, parce que les signaux sensoriels sont considérés comme des représentations de bas niveau, tandis que les concepts attribués aux objets complexes sont de haut niveau. Cette modélisation ignore les effets d'anticipation. Elle permet d'expliquer les représentations internes d'objets réellement détectés, mais pas les représentations d'objets ou de qualités dont la présence est seulement supposée.

Au sens strict, la perception est seulement sensorielle. Les représentations perçues sont éveillées ou au moins confirmées par des informations qui viennent des sens. Mais la représentation du présent va au delà de la perception strictement sensorielle. Nous ne pourrions même pas faire un pas si nous nous limitions aux données directement perçues par les sens, parce qu'il faut anticiper que le sol va résister avant de le sentir directement.

De façon générale nos représentations du présent sont issues à la fois d'informations réellement détectées et de simples suppositions. Par exemple lorsque nous saisissons un objet familier, le geste est préparé de façon à s'adapter au poids de l'objet. Si nous anticipons mal le poids le geste n'est pas adapté. Cela montre que nous avons une représentation interne du poids avant que nous tenions l'objet dans la main. Le poids est donc représenté avant que les capteurs de tension musculaire ne fournissent cette information. On peut dire que le poids a été imaginé, mais on peut aussi dire qu'il a été perçu indirectement à partir de l'image visuelle, grâce à un savoir mémorisé sur le poids ordinaire d'un tel objet.

Ce qui est perçu n'est pas seulement déterminé par les sens mais aussi par les attentes et les désirs, par les perceptions antérieures, les souvenirs, les préjugés, la culture et le savoir. Les effets d'attente peuvent être si forts qu'il arrive que nous croyons avoir vu ce que nous n'avons pas pu voir, parce que cela n'a pas existé. Nos perceptions ont donc des sources intérieures, elles ne sont pas seulement élaborées à partir des sens. La dynamique des représentations n'est pas seulement ascendante, mais également descendante, top-down. Les système de détection qui reçoivent les informations sensorielles reçoivent aussi des informations de plus haut niveau. Il faut modéliser une sorte de dialogue permanent entre les divers étages de la perception. L'information peut circuler dans toutes les directions, du bas vers le haut, du haut vers le bas, et horizontalement (Hofstadter & FARG 1995). N'importe quelle représentation peut avoir une influence sur la production des autres, quel que soit leur niveau de complexité.

Comme la représentation d'une situation présente s'inscrit toujours dans un système de présupposés, le présent est toujours autant imaginé que réellement perçu. La perception sensorielle peut même être considérée comme une forme de l'imagination, stimulée et guidée par les sens. Il s'agit d'imaginer le présent en accord avec les données des sens.

Un système de détection est avant tout un système d'avertissement. Le signal de détection avertit de la présence de l'être détecté. La fonction d'avertissement est plus fondamentale que la fonction de détection, parce que le système peut signaler la présence d'un être qui n'a pas été détecté. Il suffit que cette présence soit supposée, ou inférée à partir de la détection d'autres êtres.

Une inférence consiste à passer d'une condition à une conséquence. La conséquence est une représentation produite, inférée, à partir des représentations qui déterminent la condition. Si ces représentations sont verbales, une inférence est une étape d'un raisonnement, mais il n'est pas nécessaire que les représentations soient verbales. La perception procède par inférence muette dès qu'elle relie des conséquences et des conditions.

Les inférences peuvent être enchaînées parce que les conséquences peuvent être elles-mêmes des conditions qui ont des conséquences, et ainsi de suite. Les enchaînements d'inférences muettes ressemblent beaucoup à un raisonnement. La suite des représentations des conditions et de leurs conséquences est semblable à celle de leurs descriptions verbales enchaînées dans un raisonnement.

Les inférences muettes font qu'il n'y a pas de frontière nette entre la perception sensorielle et l'imagination du présent. Lorsqu'une représentation a été produite par inférence, comme conséquence d'une condition déjà perçue, on peut dire qu'elle est imaginée mais on peut aussi dire qu'elle est perçue indirectement à partir de la perception de la condition.

Un schéma, ou un cadre conceptuel, est un système de présupposés, c'est à dire ce qu'on tient pour vrai avant de l'avoir vérifié. Un schéma détermine les êtres qu'on s'attend à percevoir avec les concepts qu'on croit devoir leur attribuer et les inférences qu'on croit pouvoir leur appliquer.

Les sensations sont les sources des processus ascendants de la perception, les schémas sont les sources des processus descendants. Ils font partie du fonctionnement normal de la perception. Ils sont nécessaires pour s'adapter rapidement à son environnement, parce que pour agir on n'a souvent pas le temps de tout vérifier.

La connaissance des bons schémas fait toute la différence entre l'expert et le néophyte. Un expert n'a souvent besoin que d'un coup d'œil pour analyser correctement une situation et tirer les conclusions qui s'imposent, parce qu'il connaît déjà les schémas qui permettent de la comprendre et il n'a qu'à vérifier leur adaptation. Un néophyte est submergé par le flot de nouvelles informations, ne sait pas quoi regarder, ne distingue pas l'essentiel du négligeable et se pose rarement les bonnes questions, parce qu'il ne connaît pas les schémas qui lui permettraient d'organiser sa perception de la situation.

Au sens strict, la perception est seulement l'imagination du présent lorsqu'elle est éveillée ou confirmée par les sens. Mais on peut aussi définir la perception en un sens plus général et parler de la perception du passé (la remémoration, et plus généralement toute forme d'imagination du passé), du futur (l'anticipation), de l'imaginaire (rêver à des êtres qui n'existent pas) et même des êtres abstraits (le savoir abstrait, mathématique par exemple). Ainsi entendues la perception et l'imagination sont synonymes.

L'imagination de l'absent[modifier | modifier le wikicode]

Pour agir nous devons percevoir et imaginer le présent, parce qu'il faut s'adapter à la réalité, mais nous devons aussi imaginer l'absent, les buts que nous nous fixons et que nous n'avons pas encore atteints, les moyens à mettre en œuvre et les conséquences prévisibles de nos décisions.

Les systèmes de perception peuvent fonctionner comme des avertisseurs même si les êtres dont ils signalent la présence n'ont pas été détectés. Ils peuvent signaler une présence hypothétique. Ils permettent ainsi de s'affranchir complètement des sens et de simuler la perception d'une scène qui n'est pas présente. L'imagination du passé, du futur et de mondes purement imaginaires est une perception sans détection, donc une simulation de la perception. Les ressources de la perception sont mobilisées pour représenter un environnement qui n'est pas présent, seulement imaginé.

Simuler la perception consiste à simuler l'activation de nos systèmes de détection. On peut simuler la perception sensorielle et reconstituer partiellement des images ou des impressions d'origine sensorielle, mais l'imagination n'est pas forcément associée à des images sensorielles. Pour imaginer un être dangereux il n'est pas nécessaire de s'en faire une image visuelle, ou d'imaginer sa voix, ou toute autre forme de perception sensorielle simulée, il suffit de simuler l'activation d'un détecteur de danger. On peut s'imaginer à proximité d'un être dangereux même si on ne perçoit rien de lui, sauf qu'il est dangereux.

Par l'imagination nous pouvons combiner des représentations dans des configurations nouvelles que nous n'avons jamais perçues. Les parties ont été perçues, mais leur assemblage est inventé, il est purement imaginaire, il représente un être fictif, une sorte de chimère. En assemblant des fragments d'images sensorielles, comme un patchwork, nous pouvons créer une image d'un être qui n'existe pas. De façon générale, l'assemblage des concepts permet de créer des représentations d'êtres qui n'ont jamais existé et qui n'existeront peut-être jamais. La combinatoire multiplie les possibilités à l'infini.

Avec des inférences muettes, nous pouvons prévoir l'enchaînement des conséquences de nos décisions. Nous pouvons ainsi explorer par l'imagination les chemins que nous pourrions suivre. Nous découvrons ainsi en même temps les buts que nous pourrions atteindre et les moyens de les atteindre.

L'importance des représentations du présent et du futur pour la préparation de l'action est évidente, celle des représentations du passé l'est un peu moins. La remémoration nous prépare à l'action indirectement, ne serait-ce qu'en nous aidant à percevoir le présent et le futur, par inférence à partir de la connaissance du passé. Mais l'imagination des fictions, comment peut-elle préparer à l'action ? Il semble qu'elle nous en éloigne. Pour bien agir il faut avoir les pieds sur terre, il faut s'adapter à ce qui existe réellement. A quoi bon imaginer des êtres qui n'existeront jamais ?

Le travail du romancier est semblable à celui du mathématicien. Il pose des conditions, une situation initiale et des contraintes, puis il expose leurs conséquences, souvent inéluctables, de la même façon qu'un mathématicien démontre des théorèmes à partir d'axiomes et d'hypothèses. Quand nous imaginons des fictions, nous pouvons utiliser pleinement nos capacités à inférer. Il ne s'agit pas seulement d'inventer des assemblages de représentations, il s'agit surtout d'imaginer tout ce qui en résulte, tout ce que notre dynamique intérieure de production de représentations par inférence peut fournir à partir de ces inventions. L'imagination des fictions révèle la puissance de l'inférence.

L'introspection[modifier | modifier le wikicode]

La perception de son propre corps peut être considérée comme une sorte de perception de soi-même. Par exemple les informations fournies par les capteurs de tension musculaire permettent de construire un modèle interne du corps, de la position des membres et des efforts auxquels ils sont soumis. Mais la connaissance de soi-même est plus que la perception de son corps, parce que l'esprit est en permanence un témoin de lui-même.

Si je vois que le ciel est bleu, je suis pas seulement informé sur l'état du ciel, je suis également informé sur moi-même, à savoir que je vois le ciel, je me connais moi-même en tant qu'être qui perçoit le ciel.

L'introspection est la perception de soi-même en tant qu'esprit, c'est à dire en tant qu'être qui perçoit, imagine, ressent, pense, veut ou agit.

L'introspection requiert-elle des organes sensoriels ? Y a-t-il une interface sensorielle entre le moi perçu et le moi qui perçoit ? Lorsque je sais que je vois le ciel, est-ce un œil introspectif qui me montre que je vois le ciel ?

Un organe sensoriel est toujours une interface entre un intérieur, le système nerveux, et un extérieur, l'environnement au delà de la peau ou le milieu intérieur en deçà. Les signaux extérieurs sont reçus par l'interface sensorielle et traduits en signaux intérieurs, utilisables par le système nerveux.

L'introspection ne requiert pas d'organe sensoriel parce qu'il n'y a pas de signaux extérieurs à traduire en signaux intérieurs, pas de séparation entre un moi qui perçoit et un moi perçu. Tout se passe à l'intérieur. Toutes les informations sur l'agent, en tant qu'il perçoit, qu'il imagine, qu'il ressent ou qu'il veut, sont déjà présentes à l'intérieur de l'agent. Pour développer ses facultés d'introspection il lui suffit d'exploiter ces sources intérieures d'information. Un organe sensoriel d'introspection n'est pas nécessaire parce que les informations recherchées sont déjà présentes à l'intérieur.

Pour se connaître soi-même il faut se percevoir soi-même, donc se représenter soi-même. Mais où trouve-t-on ce moi que l'on doit percevoir ? Et comment fait-il pour se représenter lui-même ?

La Joconde n'est pas seulement une représentation de Mona Lisa, elle est aussi une représentation de Léonard de Vinci, parce qu'elle porte beaucoup d'informations sur lui. Mes représentations n'apporte pas que des informations sur les êtres représentés, elles peuvent aussi en dire beaucoup sur ma façon de les représenter, et donc sur moi. Elles sont donc aussi des représentations de moi. Mes représentations du monde ne font pas que représenter le monde, elles représentent aussi le moi.

Les émotions[modifier | modifier le wikicode]

Le concept d'émotion est difficile à définir et son usage est souvent très imprécis. Faut-il distinguer les humeurs et les émotions, les humeurs parce qu'elles sont durables, les émotions parce qu'elles sont brèves ? La tranquillité est-elle une émotion ou une indépendance vis à vis des émotions ? La jalousie est-elle une émotion ou un état plus complexe qui mêle émotions et volonté ?

On peut définir les émotions à partir de quelques émotions de base (la tristesse, la peur, la colère, le dégoût, la honte, la joie, l'apaisement, la fierté, la surprise...) et inclure toutes les variations et les combinaisons, ou à partir de quelques caractères généraux :

  • Une émotion est déclenchée par la détection de conditions spécifiques, la peur par la détection du danger, la tristesse par la détection du malheur, la colère par la détection de l'inacceptable...
  • Cette détection est suivie très rapidement de réactions réflexes et de modifications physiologiques qui permettent à l'organisme de s'adapter à la nouveauté de sa situation.
  • Les émotions déterminent des motivations, c'est à dire des désirs ou des aversions. Elles nous indiquent les buts qui méritent d'être poursuivis, et ce que nous devons fuir ou éviter (Damasio 1994). Elles sont donc très importantes pour la volonté, parce qu'elles nous servent à évaluer nos projets, et pour l'apprentissage, parce qu'elles signalent ce qui mérite d'être mémorisé.

Parce qu'elle est déclenchée par des conditions spécifiques et parce qu'elle provoque des réactions spécifiques, une émotion particulière, telle que la peur, peut être caractérisée par l'activité d'un module cérébral, ou d'un système de modules qui coordonnent leurs activités. Les voies d'entrée portent les signaux qui éveillent, modifient ou suppriment l'émotion. Les voies de sortie portent les signaux qui provoquent les réactions émotionnelles typiques (LeDoux 1996). Comme une émotion peut mobiliser une grande partie des ressources de l'organisme, un tel système émotionnel peut être considéré comme une sorte de chef dans le cerveau. Une émotion, surtout si elle est forte, peut exercer une sorte d'empire sur toute l'activité corporelle, intérieure et extérieure.

Émotion et cognition sont parfois pensées en opposition, mais c'est une erreur. Les émotions produisent et utilisent des représentations internes qui préparent à l'action, elles font donc partie de la cognition. Elles sont de précieuses informatrices sur les réalités extérieure et intérieure. Ressentir des émotions fait partie de la perception de la réalité.

Les croyances[modifier | modifier le wikicode]

La perception et l'imagination attribuent continuellement des concepts aux êtres perçus et imaginés. Toutes ces attributions de concepts sont des croyances, tant qu'elles sont mémorisées.

Quand nous prenons conscience d'une croyance, nous pouvons choisir de la mettre en doute. Une croyance consciente fait l'objet d'une évaluation qui précède la décision de l'approuver. Elle est ensuite prise en charge par le système exécutif qui la conserve en mémoire de travail et l'utilise pour contrôler la perception et l'imagination.

Une croyance consciente peut faire de l'effet, par l'intermédiaire du système exécutif, sur l'ensemble du fonctionnement cérébral. On retrouve ainsi un élément de la théorie cognitive de la conscience de Baars (Baars 1988, Changeux 2002, Dehaene 2014). Tant qu'une représentation ne retient pas l'attention, elle reste attachée à son lieu de production et ne peut pas faire d'effet sur l'ensemble du système. Son effet est nécessairement limité. Mais si on en prend conscience, elle peut être utilisée pour influencer les autres parties du cerveau, elle est comme écrite sur un tableau noir qui peut être lu par d'autres modules cérébraux.

Après être restées actives un moment en mémoire de travail, les croyances sont en général enregistrées et consolidées en mémoire à long terme, où elles demeurent comme des croyances dormantes, ou latentes. Elles sont réveillées si nous nous les remémorons.

Comme une croyance consciente est évaluée avant d'être approuvée, tout le processus d'évaluation fait partie de la perception du concept attribué. Les capacités d'évaluation qui précèdent la décision sont des capacités de détection des concepts. Comme toutes les attributions de concepts peuvent faire l'objet d'une approbation consciente, le système de décision fonctionne comme un détecteur universel, capable de détecter n'importe quel concept, dès qu'il a appris le faire.

L'invention de la perception[modifier | modifier le wikicode]

Nos capacités de perception ne sont pas fixées. Nous pouvons toujours apprendre de nouvelles façons de percevoir.

La sensibilité peut être affinée par l'expérience. Nos systèmes de perception sont sensibles au contexte et à de nombreux paramètres qu'on peut faire varier pour se rendre plus sensibles à ce que nous percevons.

Nous pouvons inventer des concepts en combinant les concepts qu'on a déjà. Si on s'attend à percevoir à nouveau une combinaison de concepts, on peut se doter de la capacité à la détecter comme un nouveau concept unique. On peut faire de même pour la détection de combinaisons suffisamment semblables à d'autres combinaisons déjà perçues et considérées comme des exemples typiques.

Apprendre par expérience à faire de nouvelles inférences muettes augmente nos capacités à percevoir, parce que nous apprenons ainsi à percevoir les conséquences à partir de leurs conditions.

Nos capacités de perception dépendent de nos anticipations, et donc des schémas, des systèmes de présupposés, que nous nous avons adoptés. En modifiant nos schémas nous pouvons modifier nos façons de percevoir et d'interpréter la réalité. En nous rendant libres d'adopter des croyances et des schémas ou des les rejeter, la volonté nous rend libres de découvrir ou d'inventer de nouvelles façons de percevoir.

La détection d'un concept peut être un processus presque instantané, si le signal de détection est produit aussitôt que les informations sur l'être détecté sont fournies, ou progressif, si le système de détection prend le temps d'accumuler des informations avant de se prononcer. Le processus d'évaluation qui précède une décision est en général progressif. On a le temps de prendre en compte de nombreuses informations avant de se décider.

Comme nous sommes libres de décider de nos façons d'évaluer nos décisions, nous sommes libres d'inventer des façons de percevoir. Nous pouvons inventer tous les concepts que nous voulons en nous donnant les moyens de les détecter.

Se mettre à la place d'autrui[modifier | modifier le wikicode]

On connaît un autre esprit en imaginant qu'il perçoit, qu'il imagine, qu'il ressent, qu'il pense, qu'il veut et qu'il agit. On imagine qu'il perçoit en imaginant ce qu'il perçoit. On imagine qu'il imagine en imaginant ce qu'il imagine. La sympathie est de ressentir ce qu'il ressent. De façon générale, on le connaît comme un esprit en se mettant à sa place (Goldman 2006, Rizzolatti & Sinigaglia 2006). On peut imaginer qu'on veut ce qu'il veut et qu'on fait ce qu'il fait. Un esprit est un simulateur universel parce qu'il peut simuler tous les autres esprits, au moins s'ils sont dotés des mêmes facultés - pour un être humain il est plus facile de se mettre à la place d'un être humain que d'une chauve-souris.

Un esprit connaît l'esprit à la fois en se connaissant lui-même et en se mettant à la place des autres esprits, de tous les esprits qu'il peut imaginer.

Tout ce qui peut être perçu, imaginé, ressenti, pensé ou décidé par les uns, peut être perçu, imaginé, ressenti, pensé ou décidé par tous les autres. Se connaître soi-même comme esprit est en même temps connaître ce que tous les autres peuvent faire de leur esprit. Inversement, tout ce que les autres font de leur esprit nous montre ce que nous pouvons faire nous-mêmes. « Rien de ce qui est humain ne m'est étranger. » (Térence, Heautontimoroumenos, v. 77)

Je connais autrui en me mettant à sa place en imagination. De même il me connaît en se mettant à ma place. Quand je me demande ce qu'il pense de moi, j'essaie d'imaginer ce qu'il imagine quand il se met à ma place, j'imagine ce qu'il imagine de moi. Je peux également imaginer ce qu'il imagine quand il se met à la place d'un troisième.

Le même contenu peut être imaginé selon diverses modalités : un passé qu'on a vécu, un avenir projeté, une simple hypothèse, un contenu imaginé par autrui, et même un contenu qu'autrui croit qu'on imagine. Quand on se souvient, on se met à la place de l'autre qu'on a été. Quand on se projette dans l'avenir, on se met à la place de celui qu'on pourrait être. De ce point de vue on se connaît soi-même de la même façon qu'on connaît les autres, en se mettant à la place de soi-même par l'imagination. Quand j'imagine ce que je pourrais être, je suis dans une position semblable à celle d'un autre qui imagine ce que je pourrais être. Quand j'imagine comment un autre m'imagine, j'imagine ce que je pourrais être si j'étais tel qu'il m'imagine.

Qu'est-ce que la parole ?[modifier | modifier le wikicode]

Au commencement la parole
La parole avec Dieu
Dieu, la parole.
Elle est au commencement avec Dieu.
Par elle tout est venu
et sans elle rien n'a été de ce qui fut.
En elle, la vie
La vie, lumière des hommes
Et la lumière brille à travers la nuit
La nuit ne l'a pas saisie.

(Jean, 1, 1-5, traduit par Florence Delay et Alain Marchadour)

On peut raisonner sur le monde comme s'il était un grand livre. Raisonner sur les êtres, c'est toujours raisonner sur ce qu'on dit des êtres. Toutes les vérités sont déterminées à partir de vérités élémentaires et fondamentales, toutes les vérités atomiques sur tous les êtres. L'ensemble de toutes ces vérités est comme le grand livre du monde. Tout ce qui est peut toujours être dit, parce que les mots et les expressions peuvent nommer tous les concepts, tout ce qui peut être perçu, tout ce qui apparaît.

Si on entend le concept de parole en son sens le plus large, tout parle. L'être est une parole. Être, pour tous les corps, c'est agir sur les autres êtres. Tous les êtres matériels le font, simplement en étant matériels. Être visible, ou audible, ou être perçu de toute autre façon, c'est toujours se montrer, et c'est toujours parler.

Les êtres vivants perçoivent les autres êtres et vivent en réagissant à ce qu'ils ont perçu. Leurs réactions montrent comment ils comprennent la parole exprimée par les êtres qu'ils perçoivent.

En un sens plus restreint, les animaux parlent seulement quand ils émettent des signaux pour qu'ils soient perçus et qu'ils influencent ceux qui les perçoivent. Ils se montrent aux yeux qui les regardent, ou ils font sentir leur présence d'une autre façon. Il n'est pas nécessaire de supposer que l'animal émet ses signaux volontairement. Une guêpe signale par sa robe jaune et noire à un éventuel prédateur qu'elle est une proie dangereuse. L'évolution par sélection naturelle suffit pour expliquer une telle communication animale. Les guêpes ont un avantage à montrer leur dangerosité et les prédateurs ont un avantage à la percevoir. Il n'est pas nécessaire qu'il y ait une volonté ou une conscience. Des instincts aveugles suffisent pour établir cette communication.

En un sens encore plus restreint, les animaux parlent seulement s'ils émettent des signaux parce qu'ils veulent influencer l'imagination et la volonté de ceux qui les reçoivent. Cela suppose que les animaux qui émettent et reçoivent ces signaux sont capables d'imaginer et de vouloir, et surtout qu'ils se connaissent eux-mêmes et autrui comme des êtres qui imaginent et qui veulent.

La parole est l'émission volontaire de signaux pour influencer l'imagination et la volonté de ceux qui les reçoivent.

La signification par l'imagination[modifier | modifier le wikicode]

Pourquoi les mots ont-ils un sens ? Qu'est-ce qui fait que des suites de sons peuvent servir à communiquer ? Qu'est-ce qui donne aux mots et aux énoncés leur signification ?

Lorsqu'on comprend une description, on imagine ce qui est décrit. Les mots et les expressions verbales éveillent l'imagination dès que nous comprenons leur signification. On imagine ce qui est décrit quand on en simule la perception, quand on active, en mode simulation, les systèmes de détection qui seraient éveillés si nous percevions ce qui est décrit. Lorsque les concepts détectés par nos systèmes de perception sont associés à des expressions verbales qui les nomment, nous pouvons à la fois décrire ce que nous percevons, en nommant les concepts perçus, et imaginer ce qui est décrit, en simulant la détection des concepts nommés (Saussure 1916).

Le savoir muet est le savoir qui précède la parole et qui résulte de la perception, de l'imagination, de l'émotion et de la volonté. Il peut être traduit en paroles dès que les systèmes de détection qu'il utilise sont nommés par des expressions verbales. Les descriptions sont alors une traduction en mots du savoir muet de ce qui est décrit. Les règles d'inférence qui relient la description de conditions à la description de conséquences sont une traduction des inférences muettes. Un raisonnement qui enchaîne de telles règles est une traduction d'un enchaînement d'inférences muettes. De cette façon le savoir muet peut être traduit en savoir parlant, et donc communiqué.

Le savoir muet est fondamental pour le développement de la raison, parce que le savoir parlant commence par être une traduction du savoir muet. Il peut ensuite voler de ses propres ailes parce qu'il peut parler de la parole, mais il a besoin du savoir muet pour décoller, parce que les mots doivent éveiller l'imagination pour avoir du sens.

Une expression verbale a une signification lorsqu'elle nomme un concept ou un individu. Le concept nommé, c'est à dire la propriété ou la relation, est la signification d'une expression qui nomme un concept. L'individu nommé est la référence d'une expression qui nomme un individu. La référence d'une expression qui nomme un concept est parfois identifiée à l'extension de la propriété ou de la relation nommée.

Un concept est empirique lorsqu'il est une propriété ou une relation observable. Le savoir muet est toujours empirique.

On comprend la signification d'une expression qui nomme un concept ou un individu lorsqu'on sait comment les détecter.

Une même expression verbale peut avoir plusieurs significations. Un même nom peut servir à nommer plusieurs concepts ou plusieurs individus. Il peut être interprété de plusieurs façons.

La compréhension de la parole peut être conçue sur un mode purement passif, comme si les mots étaient les notes d'une partition et la compréhension, la musique exécutée par un piano mécanique intérieur. Mais l'imagination n'est pas seulement éveillée par les mots de cette façon passive. La compréhension de la parole est aussi et surtout active. Nous comprenons parce que nous voulons comprendre, et ce que nous comprenons , c'est à dire ce que nous imaginons, dépend souvent de nos attentes.

Pour comprendre un discours, il faut identifier les concepts nommés par les mots et les expressions. Nous devons retrouver ou inventer les façons de percevoir les concepts nommés. Lorsqu'un enfant apprend à parler, il apprend en même temps des mots ou des expressions nouvelles et des façons percevoir les concepts nommés. Lorsqu'un discours invente de nouvelles expressions, il nous invite en même temps à inventer de nouvelles façons de percevoir.

La parole nous donne les moyens d'inventer et de communiquer des façons de percevoir. Tous les concepts inventés par les uns peuvent être communiqués aux autres.

Une description peut être communiquée pour elle-même. Dans ce cas simple, le locuteur comprend ce qu'il dit s'il perçoit ou imagine ce qu'il décrit, et l'auditeur comprend ce qui est dit dès qu'il perçoit ou imagine ce qui est décrit. Savoir décrire ce qu'on perçoit ou imagine et savoir percevoir ou imaginer ce qui est décrit sont les fondements de la compréhension du langage. Tous les usages de la parole se servent de descriptions.

Comprendre des paroles, c'est savoir s'en servir[modifier | modifier le wikicode]

Wittgenstein nous a invité à ne pas séparer l'étude de la signification du langage de celle de son usage :

« Se représenter un langage veut dire se représenter une forme de vie. » (§19) « L'expression "jeu de langage" doit ici faire ressortir que parler d'un langage fait partie d'une activité, ou d'une forme de vie. » (§23) « Pour une large classe des cas où il est utilisé - mais non pour tous -, le mot "signification" peut être expliqué de la façon suivante : la signification d'un mot est son emploi dans le langage. » (§43, Recherches philosophiques, 1953, traduit par Françoise Dastur, Maurice Elie, Jean-Luc Gautero, Dominique Janicaud, Elisabeth Rigal)

Il propose par exemple de raisonner sur un exemple simplifié de communication linguistique :

« Ce langage doit servir à un constructeur A pour se faire comprendre de son aide B. A réalise une construction avec des pierres à bâtir. Il y a des blocs, des colonnes, des dalles, des poutres, que B doit faire passer à A dans l'ordre où celui-ci les utilise. A cet effet ils se servent d'un langage constitué des mots "bloc", "colonne", "dalle", "poutre". A crie leur nom. B apporte la pierre qu'il a appris à rapporter en réponse à ce cri. » (§2)

Toute façon de se servir de la parole, en tant que locuteur ou auditeur, est une façon de la comprendre. La compréhension d'un langage n'est rien d'autre que son usage. Le locuteur comprend ce qu'il dit lorsqu'il sait ce qu'il fait en le disant. L'auditeur comprend ce qui est dit lorsqu'il sait quoi en faire. Comprendre des paroles, c'est savoir s'en servir. Pour expliquer comment nous comprenons des paroles il faut expliquer comment elles nous préparent à l'action.

La vérité est vivante[modifier | modifier le wikicode]

La vérité n'est pas une liste de formules, parce que la vérité d'une formule dépend de son interprétation, de la façon dont elle est comprise. La même formule peut être vraie et fausse, cela dépend de son interprétation. La compréhension est un processus vivant. La vérité n'est pas fixée dans le marbre. Elle est vivante ou elle n'est pas.

Être intelligent, c'est s'adapter à la réalité présente, vivante, ici et maintenant. Il faut faire avec les moyens du bord. S'accrocher à des formules comme des huîtres à leur rochers, c'est renoncer à l'intelligence.

La compréhension mutuelle[modifier | modifier le wikicode]

Un locuteur agit sur ceux qui l'écoutent. Il veut toujours attirer leur attention sur ce qu'il dit. Pour savoir ce qu'il fait quand il dit ce qu'il dit, il doit donc savoir ce que les auditeurs en font, ou ce qu'ils pourraient en faire. Un locuteur doit être capable de se mettre à la place des auditeurs et comprendre ce qu'ils comprennent, sinon il ne se comprend pas vraiment lui-même. Inversement, pour savoir quoi faire avec ce qu'on leur dit, les auditeurs doivent comprendre les intentions du locuteur, pourquoi il dit ce qu'il dit. Ils doivent donc être capables de se mettre à la place du locuteur et de comprendre ce qu'il fait, sinon ils ne comprennent pas vraiment ce qu'on leur dit. La compréhension des paroles est une des formes de la compréhension mutuelle, où chacun connaît les autres et lui-même, et sait qu'il est connu par les autres de la même façon qu'il les connaît.

Un locuteur s'imagine lui-même en tant que locuteur. Il connaît ses intentions. Il connaît le rôle qu'il s'est donné. Lorsqu'il n'y a pas de malentendu, ou de fourberie, l'auditeur imagine le locuteur de la même façon que le locuteur s'imagine lui-même. Il attribue au locuteur les mêmes intentions que celles que le locuteur s'attribue à lui-même. De cette façon, il est facile pour le locuteur d'imaginer comment l'auditeur imagine le locuteur, parce que c'est déjà comment il s'imagine lui-même. Le même contenu imaginé par le locuteur est attribué en même temps au locuteur qui s'imagine lui-même et à l'auditeur qui imagine le locuteur. Il en va de même pour le contenu imaginé par l'auditeur qui est attribué en même temps à l'auditeur qui s'imagine lui-même et au locuteur qui imagine l'auditeur. Lorsqu'il n'y a pas de malentendu, le locuteur et l'auditeur imaginent la même scène et les mêmes rôles, comme s'ils étaient les spectateurs du même film. La seule différence est qu'ils s'attribuent des rôles différents.

La vérité théorique[modifier | modifier le wikicode]

Dès que les concepts nommés par des expressions sont identifiés à des concepts empiriques, donc à des façons de percevoir ou de détecter, la vérité des énoncés peut être décidée par l'observation. Les énoncés sont vrais dès que les observations qu'ils traduisent le sont (Locke 1690).

L'observation n'est pas le seul critère de vérité, parce que les théories imposent la vérité de leurs principes (Leibniz 1705, Kant 1787). Les théories, ou les cadres théoriques, sont l'équivalent parlant des cadres conceptuels muets. Une théorie est déterminée avec un système de noms, destinés à nommer des concepts, et un système d'axiomes et de définitions, qui permettent de raisonner avec les concepts nommés.

Une théorie reçoit une interprétation empirique lorsque les concepts nommés sont identifiés à des propriétés ou à des relations observables qui forment ensemble un cadre conceptuel empirique. Une même théorie peut être interprétée par plusieurs cadres conceptuels empiriques différents, mais elle impose des contraintes sur les significations empiriques acceptables. L'interprétation ne doit pas contredire les principes de la théorie. Par exemple, la vérité du principe de transitivité, 'si x est plus grand que y et y est plus grand que z alors x est plus grand que z' est admise par définition de la relation 'est plus grand que'. Celle-ci peut être interprétée de multiples façons empiriques, mais le principe de transitivité ne pourra jamais être contredit par nos observations. S'il conduit à une anticipation erronée, on dira que la relation observée a été mal nommée, qu'elle n'est pas une signification empirique que l'on peut donner à l'expression 'est plus grand que'. Le paradoxe de Condorcet (1785), en science politique, illustre cette priorité du principe de transitivité :

On peut supposer que des résultats électoraux donnent de la force aux divers candidats en présence et songer à mesurer cette force. Soit une élection où chaque électeur doit ranger trois candidats A, B et C par ordre de préférence, et supposons que les trois ordres ABC, BCA et CAB aient chacun été choisis par un tiers de l'électorat. Il semble que la force de A est plus grande que celle de B, puisque deux tiers de l'électorat préfère A à B. De même B est plus fort que C, et C est plus fort que A. Le principe de transitivité est donc contredit par l'expérience. Mais il n'est pas réfuté pour autant, il a seulement été mal appliqué, parce qu'un tel système électoral ne permet pas de mesurer ainsi la force des candidats. On ne dira pas que le cadre théorique (la mesure de la grandeur des forces) est faux, mais seulement qu'il n'est pas adapté à la réalité perçue.

Une expression peut avoir de nombreuses significations empiriques, et on peut toujours en inventer de nouvelles. Mais quand les principes sont vrais par définition ils imposent des contraintes d'interprétation, des limites aux significations empiriques que nous pouvons donner à nos expressions. Les interprétations empiriques ne sont pas indépendantes des interprétations abstraites. La vérité par définition est en général prioritaire. Si une expression est employée d'une façon qui contredit un principe, on dira que l'interprétation n'est pas correcte, ou qu'elle ne fait pas partie des interprétations permises par les principes. De cette façon, on peut être sûr que nos principes sont toujours vrais, parce qu'une interprétation qui les rendrait faux est a priori exclue.

Les principes d'une théorie sont admis par définition de leurs termes. Leur vérité est supposée connue dès que la signification des mots est comprise (Pascal 1657).

Les énoncés prouvables à partir d'un système d'axiomes et de définitions sont les théorèmes de la théorie définie par de tels principes. Une théorie donne une signification abstraite aux noms avec lesquels elle forme ses énoncés. On dit parfois des axiomes qu'ils sont des définitions déguisées, parce qu'ils servent à donner une signification à leurs termes, donc à les définir.

Une théorie peut être utilisée d'une façon qui ressemble à la perception, comme un système de détecteurs. Pour savoir si un énoncé est vrai ou faux, il suffit de le prouver ou de prouver sa négation. De cette façon les noms des concepts sont associés à des détecteurs théoriques qui déterminent si les concepts sont vrais des individus nommés. Les détecteurs théoriques détectent ce qu'ils doivent détecter en trouvant des preuves logiques, à partir de principes admis. S'ils n'en trouvent pas, leur détection a échoué. « Les yeux de l'âme, par lesquels elle voit et observe les choses, ne sont rien d'autre que les preuves. » (Spinoza, Éthique, Livre V, prop. 23, Scolie) De même que les yeux du corps nous rendent capables de voir les êtres visibles, les preuves logiques à partir de principes nous rendent capables de connaître les êtres abstraits. La perception des êtres abstraits consiste à raisonner à partir des principes qui les définissent.

Les mots et les expressions verbales peuvent être interprétés de nombreuses façons et recevoir ainsi de nombreuses significations, empiriques ou abstraites. Pour déterminer une interprétation empirique il suffit de déterminer les concepts nommés par des systèmes de perception ou de détection. Pour déterminer une interprétation abstraite il suffit définir les concepts nommés par des systèmes de principes, axiomes et définitions, qui permettent de raisonner avec eux.

Selon l'interprétation qui lui est donnée, un même énoncé peut être en même temps une vérité abstraite et une vérité empirique. Une telle ambiguïté peut être très utile, parce qu'en développant un savoir abstrait, on obtient du même coup un savoir empirique. On n'a même pas besoin de modifier la formulation. Évidemment pour qu'une telle magie se produise il faut que la théorie et son interprétation soient adaptées à la réalité observée pour la rendre intelligible. La rencontre entre la vérité abstraite et la vérité empirique de nos énoncés est le but de toutes les sciences empiriques, parce qu'on veut connaître par le raisonnement ce qu'on connaît par les sens.

Les principes logiques nous font toujours passer du vrai au vrai (Aristote, Premiers analytiques). Lorsque des affirmations sont vraies, leurs conséquences logiques ne peuvent pas être fausses. Plus précisément, quelle que soit l'interprétation que l'on donne à des affirmations, si ces affirmations sont vraies, d'après l'interprétation supposée, alors les conséquences logiques sont vraies elles aussi, d'après la même interprétation. La relation de conséquence logique ne dépend pas de l'interprétation de ce que nous affirmons, elle ne dépend que de la signification des opérateurs logiques.

Lorsque nous prouvons une conclusion par un raisonnement logique, les prémisses déterminent des conditions suffisantes de vérité. Quelle que soit l'interprétation choisie, si les prémisses sont vraies, alors la conclusion est vraie. Les raisonnements ne servent pas qu'à prouver, ils servent aussi à expliciter des conditions de vérité. Pour comprendre un théorème, il faut connaître sa preuve, parce qu'elle donne des conditions de vérité qui précisent comment il faut l'interpréter.

Lorsque nous apprenons une langue, nous apprenons en même temps de nouvelles expressions, de nouvelles façons de percevoir, qui donnent des significations empiriques à ces expressions, et de nouveaux principes avec lesquels nous pouvons raisonner. Nous développons ainsi notre savoir empirique et notre savoir abstrait en même temps. Les deux sont mêlés d'une façon inextricable parce qu'en général une même expression réunit à la fois des significations empiriques et abstraites.

Pour savoir si un énoncé est vrai il faut d'abord préciser sa signification. Le même discours peut être tantôt vrai, tantôt faux, cela dépend de son interprétation. La plupart de nos controverses viennent ou de malentendus, parce que nous donnons des significations différentes à une même expression, ou de l'absence de précision, parce que nous laissons dans le vague les conditions de vérité de ce que nous disons. Nous n'explicitons pas les principes qui décident de la vérité abstraite ou nous ne précisons pas les systèmes de détection qui décident de la vérité empirique.

La diversité des interprétations peut rendre très difficile la communication du savoir. Le locuteur doit respecter un principe de clarté : donner des éclaircissements pour que son discours puisse être interprété correctement. L'auditeur doit respecter un principe de charité : toujours interpréter un discours de la façon qui lui est la plus favorable, autant qu'il est possible. Il est toujours possible de dissiper les malentendus et d'aboutir au consensus, parce que nous pouvons tous faire les mêmes raisonnements et percevoir le même monde.

La pensée[modifier | modifier le wikicode]

« - Qu’est-ce que tu appelles penser ?

- Une discussion que l’âme elle-même poursuit tout du long avec elle-même à propos des choses qu’il lui arrive d’examiner. (…) voici ce que me semble faire l’âme quand elle pense : rien d’autre que dialoguer, s’interrogeant elle-même et répondant, affirmant et niant. Et quand, ayant tranché, que ce soit avec une certaine lenteur ou en piquant au but, elle parle d’une seule voix, sans être partagée, nous posons que c’est là son opinion. »

(Platon, Théétète, 189e-190a, traduit par Michel Narcy)


La pensée est l'imagination de la parole.

Penser, c'est explorer par l'imagination tout ce qu'on peut faire avec la parole.

De même qu'on peut former les autres et être formé par eux avec la parole, on peut se former soi-même avec la pensée.

Nous nous construisons par la parole et la pensée, mais on peut aussi dire que c'est la parole qui nous construit.


Références

Aristote, Ethique à Nicomaque, Organon, Les parties des animaux, De l'âme, Physique, Métaphysique

Baars, Bernard J., A cognitive theory of consciousness (1988)

Beck, Aaron T., La thérapie cognitive et les troubles émotionnels (1975)

Benaceraff, Paul, Mathematical Truth (1973, Journal of Philosophy 70, 661–80, reproduced in P. Benaceraff and H. Putnam (eds.), Philosophy of Mathematics: Selected Readings 1983).

Berthoz, Alain, Le sens du mouvement (1997)

Bird, Alexander, Nature's Metaphysics: Laws and Properties (2007)

Borges, Rodrigo, de Almeida, Claudio and Klein, Peter D., Explaining knowledge: new essays on the Gettier problem (2017)

Carroll, Lewis, What the Tortoise Said to Achilles (1895)

Chalmers, David J., The conscious mind (1996)

Changeux, Jean-Pierre, L'homme de vérité (2002)

Cohen, Paul J., Set theory and the continuum hypothesis (1966)

Cottraux, Jeau, La répétition des scénarios de vie (2001)

Churchland, Patricia S. & Sejnowski, Terrence J., The computational brain (1992)

Condorcet, Nicolas de, Essai sur l’application de l’analyse à la probabilité des décisions rendues à la pluralité des voix (1785)

Damasio, Antonio, Time-locked multiregional retroactivation: A systems-level proposal for the neural substrates of recall and recognition (1989, Cognition, 33, 25-62), L'erreur de Descartes (1994), Convergence and divergence in a neural architecture for recognition and memory (avec Kaspar Meyer, 2009, Trends in NeuBorges, Rodrigo, de Almeida, Claudio and Klein, Peter D., Explaining knowledge: new essays on the Gettier problem (2017) rosciences Vol.32 No.7, 376-382)

Darwin, Charles, L'origine des espèces (1859)

Dawkins, Richard, Climbing Mount Improbable (1997)

Dedekind, Richard, Was sind und was sollen die Zahlen? (1888)

Dehaene, Stanislas, Le code de la conscience (2014)

Depaul, Michael R., Intuitions in moral inquiry (2006, dans The Oxford handbook of ethical theory)

Descartes, René, Le Discours de la méthode pour bien conduire sa raison et chercher la vérité dans les sciences (1637)

Dieterle, Jill Marie, Structure and object (1994)

Dretske, Fred, Conclusive reasons (1971, The Australian Journal of Philosophy, 49, reproduced in Dretske & Bernecker 2000)

Dretske, Fred and Bernecker Sven, Knowledge, readings in contemporary epistemology (2000)

Dugnolle, Thierry, Théorie quantique de l'observation (2018)

Einstein, Albert, La théorie de la relativité restreinte et générale (1916)

Fine, Gail, The possibility of inquiry, Meno's paradox from Socrates to Sextus (2014)

Fitch, Frederic Brenton, Symbolic logic, an introduction (1952)

Fraenkel, Abraham, Abstract set theory (1953)

Freud, Sigmund, Introduction à la psychanalyse (1915), Le moi et le ça (1923)

Gazzaniga, Michael S., The mind's past (1998), Neurosciences cognitives : la biologie de l'esprit (2001, avec Richard B. Ivry)

Gentzen, Gerhard, Recherches sur la déduction logique (1934)

Gettier, Edmund L., Is justified true belief knowledge? (1963, Analysis, 23, reproduced in Dretske et Bernecker 2000)

Gödel Kurt, Sur la complétude du calcul logique (1929, Thèse de doctorat)

Goldman, Alvin, Epistemology and Cognition (1986), Knowledge in a Social World (1999), Simulating Minds, the philosophy, psychology, and neuroscience of mindreading (2006)

Goodman, Nelson, Faits, fictions et prédictions (1955)

Gould, James L. & Gould, Carol Grant, The animal mind (1994)

Greenberg, Leslie S., Angus, Lynne E., Working with narratives in emotion-focused therapy: changing stories, healing lives (2011)

Hebb, Donald, The organization of behavior (1949)

Hegel, Georg Wilhelm Friedrich, Propédeutique philosophique , La philosophie de l'esprit (1830)

Hofstadter, Douglas, Fluid concepts and creative analogies (1995, avec the Fluid Analogies Research Group), Je suis une boucle étrange (2007), L'analogie, cœur de la pensée (2013, avec Emmanuel Sander)

Hursthouse, Rosalind, On virtue ethics (2001)

Irwin, Terence, The development of ethics (I:2007, II:2008, III:2009)

James, William, The principles of psychology (1890)

Kandel, Eric R. & Squire, Larry R., La mémoire : de l'esprit aux molécules (1999)

Kant, Emmanuel, Critique de la raison pure (1781, 1787), Fondements de la métaphysique des mœurs (1785)

Kauffman, Stuart, The origins of order (1993), At home in the universe (1995)

Keisler, H. Jerome, Fundamentals of Model Theory (1977, dans Handbook of mathematical logic, édité par Jon Barwise)

Kripke, Saul, La logique des noms propres (1972, traduit de Naming and necessity)

Lachaux, Jean-Philippe, Le cerveau attentif : contrôle, maîtrise et lâcher-prise (2011)

Laing, Ronald D., Le moi divisé (1959)

Ledoux, Joseph E., Le cerveau des émotions (1996), Neurobiologie de la personnalité (2002)

Leibniz, Gottfried Wilhelm, Discours touchant la méthode de la certitude et l’art d’inventer pour finir les disputes et faire en peu de temps de grands progrès (1688-1690), Nouveaux essais sur l'entendement humain (1705)

Lewis, David, Sur la pluralité des mondes (1986)

Locke, John, Essai sur l'entendement humain (1690)

Lorenz, Konrad, Les fondements de l'éthologie (1981)

Maslow, Abraham, Devenir le meilleur de soi-même : besoins fondamentaux, motivation et personnalité (1954)

Minsky, Marvin, La société de l'esprit (1987), The emotion machine (2006)

Newell, Allen & Simon, Herbert A., Human problem solving (1972)

Pascal, Blaise, De l’esprit géométrique et de l’art de persuader (1657)

Peacocke, Christopher, Being known (1999)

Plantinga, Alvin, Warrant and proper function (1993)

Platon, Ménon, Le banquet, Théétète, Le sophiste, Parménide

Popper, Karl R., La logique de la découverte scientifique (1934)

Proust, Marcel, Le temps retrouvé (1927)

Quine, Willard Van Orman, La poursuite de la vérité (1992)

Rawls, John, Théorie de la justice (1971)

Rizzolatti, Giacomo & Sinigaglia, Corrado, Les neurones miroirs (2006)

Rogers, Carl R., Client-centered therapy (1951, traduit dans Psychothérapie et relations humaines)

Rumelhart, David E., McClelland James L. & the PDP Research Group, Parallel distributed processing, Explorations in the microstructure of cognition, 1 : Foundations, 2 : Psychological and biological models (1986)

Russell, Bertrand, Les principes des mathématiques (1903, partiellement traduit dans Écrits de logique philosophique)

Russell, Stuart & Norvig, Peter, Artificial intelligence, a modern approach (2010)

Saussure, Ferdinand de, Cours de linguistique générale (1916)

Sextus Empiricus, Contre les professeurs, Esquisses pyrrhoniennes

Shallice, Tim, From neuropsychology to mental structure (1988), The organisation of mind (2011, avec Richard P. Cooper)

Shapiro, Stewart, Philosophy of Mathematics: Structure and Ontology (1997), Thinking about Mathematics: The Philosophy of Mathematics (2000)

Shoemaker, Sidney, Causality and properties (1980, in Peter van Inwagen (ed.), Time and Cause)

Smith, John Maynard, Szathmary, Eörs, Les origines de la vie (1999)

Smullyan, Raymond M., Theory of formal systems (1961)

Spinoza, Baruch, Éthique (1677)

Tarski, Alfred, Le concept de vérité dans les langages formalisés (1933, édité dans Logique, sémantique, métamathématique)

Thorne, Kip S., Blandford, Roger D., Modern classical physics (2017)

Tinbergen, Nikolaas, L'étude de l'instinct (1951)

Turing, Alan, On computable numbers (1936), Computing machinery and intelligence (1950, Mind, vol. 59, n°236)

Voltaire, Candide (1759)

Weber, Max, Essais sur la théorie de la science (1904-1917)

White, Michael, Epston, David, Narrative means to therapeutic ends (1990)

Wigner, Eugene P., The unreasonable effectiveness of mathematics in the natural sciences (1960, Comm. Pure Appl. Math., 13).

Wittgenstein, Ludwig, Recherches philosophiques (1953)

Wolpert, Lewis, Tickle, Cheryll & Martinez Arias, Alfonso, Principles of development (2015)

Young, Jeffrey E., Klosko, Janet S., Je réinvente ma vie (1993), La thérapie des schémas (2003, avec Marjorie E. Weishaar)

Zagzebski, Linda, The lesson of Gettier (in Borges, de Almeida & Klein 2017)

Zermelo, Ernst, Investigations in the foundations of set theory (1908)


Applications

Le savoir épistémologique est appliqué à chaque fois que nous acquérons ou utilisons volontairement du savoir. Pour acquérir du savoir il faut savoir le reconnaître et l'évaluer quand on le trouve, et il faut savoir se donner les moyens de l'acquérir. Le savoir épistémologique est toujours au cœur du savoir. Il accompagne toutes les formes de savoir. Aucune ne peut s'en passer, parce que pour savoir, il faut savoir reconnaître le savoir.

Le savoir épistémologique est de toute première importance pour la recherche et l'évaluation des principes des sciences. Les mathématiciens qui discutent des [principes des mathématiques font un travail qui est en même temps mathématique et épistémologique. Il en va de même pour toutes les autres sciences. La recherche fondamentale est donc une sorte de recherche épistémologique appliquée.

Les applications de l'épistémologie peuvent être très concrètes. Dans tous les domaines pratiques où l'acquisition et l'utilisation d'un bon savoir sont d'une importance cruciale, donc à peu près toujours, un solide savoir épistémologique peut faire la preuve de son utilité. La pédagogie et la thérapie cognitive sont directement concernées, mais plus généralement la plupart des enjeux importants pour les êtres humains dépendent de nos capacités à acquérir et utiliser collectivement le savoir : la santé publique, l'écologie, l'économie et la finance, la justice et la démocratie, la vérité et le mensonge dans les médias, la fiabilité et la sécurité des équipements ...

L'intelligence artificielle est aussi une application de l'épistémologie, parce qu'on peut développer de nouvelles techniques en imitant la vie.


La pédagogie de l'autonomie

Les arguments d'autorité[modifier | modifier le wikicode]

Un argument d'autorité consiste à dire qu'il faut croire un énoncé parce que X l'a dit, où X est une personne qui fait autorité. Un argument d'autorité est un aveu d'ignorance. On sait qu'un énoncé est un savoir quand on sait le justifier, quand on sait pourquoi il est un savoir. Faire appel à l'autorité d'autrui revient à admettre qu'on ne sait pas le justifier, qu'on n'est pas capable de le reconnaître comme un savoir, donc qu'on ne sait pas.

Lorsque la parole se réduit à la communication d'un argument d'autorité - crois-moi parce que je le dis, ou parce que X l'a dit, - oui je te crois parce que tu l'as dit, ou parce que X l'a dit - il y a seulement un ignare qui parle à un ignare. Ni celui qui parle, ni celui qui écoute et approuve, ne savent de quoi ils parlent, puisque pour savoir il faut justifier rationnellement ce qu'on dit. Ils ne partagent pas le savoir mais seulement leur ignorance.

Tenir pour vrai ce qu'on croit parce qu'on l'a pensé revient à s'incliner devant un argument d'autorité, c'est donc toujours une façon d'ignorer.

Il faut distinguer les arguments d'autorité des arguments d'observation. Tenir pour vrai ce qu'on croit parce qu'on l'a observé, et parce qu'on était bien placé pour l'observer, n'est pas pareil que s'incliner devant l'arbitraire.

L'autorité de la raison[modifier | modifier le wikicode]

Lorsqu'on donne des preuves, des justifications rationnelles de ce qu'on dit, on ne fait pas appel à l'autorité arbitraire d'une personne ou d'une tradition, mais seulement à l'autorité de la raison. On ne demande pas à être cru sur parole. On demande au contraire que nos justifications soient soumises à un examen critique. Sont-elles de bonnes justifications ? Prouvent-elles vraiment ce qu'elles prétendent prouver ? Lorsqu'on impose un argument d'autorité on demande la soumission à ceux qui écoutent ou qui lisent, on ne leur accorde pas la liberté d'exercer leur raison. Lorsqu'on donne des justifications rationnelles on leur demande au contraire d'exercer leur raison et d'affirmer ainsi leur liberté.

Savoir et liberté sont inséparables. Pour que le savoir puisse se développer, il faut que la liberté de donner des preuves soit respectée, donc la liberté de contester tous les arguments d'autorité. Inversement il n'y a pas de véritable liberté dans l'ignorance, parce que pour affirmer sa liberté on a besoin d'un savoir éthique (pour savoir ce qui mérite d'être fait) et d'un savoir empirique (pour savoir comment le faire).

L'erreur fondationaliste[modifier | modifier le wikicode]

Puisqu'un savoir doit toujours être justifié pour être un savoir, on pourrait songer à imposer une discipline pédagogique très rigoureuse : demander à l'élève de récuser toutes les croyances qu'il ne sait pas justifier, puis lui enseigner de façon progressive un savoir qui est toujours justifié à partir du savoir préalablement reconnu. Le savoir premier, reconnu au départ, regrouperait toutes les formes de savoir qui se justifient d'elles-mêmes. Elles constitueraient ainsi des fondations à partir desquelles tout le reste du savoir pourrait être prouvé par le raisonnement. Le fondationnalisme consiste à croire que l'ensemble du savoir peut être prouvé et enseigné à partir d'un savoir fondamental qui se justifie de lui-même. Pour constituer ce savoir fondamental, on peut songer aux bonnes observations, aux lois confirmées par de bonnes expériences et aux principes dont la vérité peut être admise par définition des termes employés.

Le fondationnalisme est une erreur à la fois épistémologique et pédagogique. L'idéal fondationnaliste n'est pas un bon idéal de savoir tout simplement parce qu'il ne peut pas être atteint et parce qu'il est souvent vain d'essayer de s'en rapprocher. Il faudrait que nous soyons capables de reconnaître dès le départ, avant même de commencer à apprendre, un savoir qui se justifie pleinement de lui-même et qui suffise pour justifier tout le reste. Mais nous n'en sommes pas capables.

Nos facultés naturelles nous permettent parfois de reconnaître les bonnes observations et les bonnes expériences, mais leur fiabilité est limitée aux domaines qui nous sont les plus familiers, et même là elles ne sont pas infaillibles. En général pour reconnaître les bonnes observations et les bonnes expériences il faut avoir acquis beaucoup de savoir au préalable. Le savoir empirique ne peut pas progresser d'une façon linéaire et cumulative en prenant les bonnes observations et les lois empiriques bien vérifiées comme fondations, parce que les théories servent à justifier et évaluer les observations et les expériences.

Dire que les principes sont vrais par définition ne suffit pas pour les justifier pleinement. On ne veut pas qu'ils soient seulement vrais par définition, on veut surtout qu'ils soient de bons principes, qu'ils portent des fruits, qu'ils nous donnent les moyens de développer un bon savoir. Mais nous ne pouvons pas le savoir par avance, avant de nous servir des principes pour raisonner et acquérir du savoir. Même le savoir abstrait ne peut pas progresser d'une façon linéaire et cumulative en prenant les principes comme fondations, parce que les principes doivent être évalués à partir de leurs applications.

Savoir reconnaître, justifier et évaluer le savoir ne s'apprend pas en un jour. Les chemins de l'acquisition du savoir procèdent rarement de certitudes bien justifiées en certitudes bien justifiées. Le débutant est plongé dans un océan d'incertitudes, où tout est plus ou moins hypothétique, où on avance en tâtonnant, avec de fréquents retours en arrière. Au début on ne sait pas justifier grand chose, ou pas très bien. On acquiert petit à petit la capacité à reconnaître, justifier et évaluer le savoir en même temps qu'on acquiert du savoir, en se confrontant à des exemples, en étudiant des principes, des raisonnements, des théories, des observations et des expériences. C'est seulement à la fin, quand on est devenu vraiment compétent, qu'on est vraiment capable de reconnaître, de justifier et d'évaluer le savoir acquis.

Devenir un enseignant pour soi-même[modifier | modifier le wikicode]

L'élève (l'apprenant, le débutant, l'étudiant, le néophyte) est dans une position semblable à celle du chercheur, expérimentateur ou théoricien. Lorsqu'il invente un nouvel instrument d'observation, une nouvelle expérience, un nouveau modèle ou une nouvelle théorie, le chercheur doit se prouver à lui même, et aux autres, par l'expérience et le raisonnement, que c'est un bon instrument, que l'expérience est bien contrôlée, que le modèle explique le réel, ou que la théorie permet d'acquérir du bon savoir. On ne le sait pas d'avance. Au début tout est très incertain, très hypothétique. C'est seulement à la fin, quand on a obtenu de bonnes preuves, qu'on sait qu'on a acquis un bon savoir.

Évidemment un élève ne peut pas trouver tout seul en quelques années toutes les preuves que les êtres humains ont mis des siècles à découvrir. Il acquiert du savoir en étudiant les preuves qu'on lui donne. Il doit vérifier qu'elles sont de bonnes preuves en s'assurant qu'il pourrait se les donner à lui-même, qu'elles sont en accord avec ses facultés naturelles d'observation et de raisonnement. Les preuves qu'on lui donne doivent être des preuves qu'il pourrait se donner.

En même temps qu'on apprend à reconnaître la valeur des preuves qu'on nous donne, on découvre qu'on est soi-même capable de découvrir des preuves, d'abord les plus faciles, les plus courtes, les plus simples, puis des preuves de plus en plus difficiles. On devient ainsi de plus en plus capable de répondre aux questions qu'on se pose et on progresse en autonomie. Le rôle de l'enseignant est d'assister l'élève dans son apprentissage de l'autonomie, de lui donner les moyens de se donner des preuves. L'élève doit s'enseigner à lui-même le savoir qu'il acquiert, l'enseignant doit lui en donner les moyens.

On acquiert du savoir en se donnant des preuves, en se les enseignant à soi-même. Et en même temps qu'on se donne des preuves, on découvre qu'on est capable de savoir, on se prouve à soi-même qu'on est capable de se donner des preuves. Chaque bonne preuve, en plus de prouver ce qu'elle affirme, nous prouve que nous sommes capables de prouver la vérité, et donc de l'enseigner, à soi-même et aux autres.

S'approprier les principes de la science[modifier | modifier le wikicode]

Toutes les sciences s'efforcent de rassembler des principes pour expliquer et prouver tout ce qu'elles nous donnent à connaître. Quand on apprend une science on doit apprendre à se servir de ses principes. Pour le néophyte, ils sont en général très hypothétiques. On apprend petit à petit, en raisonnant à partir d'eux, tout ce qu'ils peuvent nous enseigner, et on reconnaît ainsi leur valeur. On se rend alors capable de développer soi-même la science, à partir des mêmes principes, ou en les modifiant et en les complétant. On s'est approprié le pouvoir de raisonner et de savoir qui nous est donné par les grands principes de la science.

Les sciences sont très nombreuses et diversifiées, et si on compte comme principes toutes les prémisses qui peuvent apparaître dans leurs raisonnements, les principes sont encore plus nombreux, de quoi remplir des milliers de pages dans une encyclopédie. Mais certains principes sont plus fondamentaux que d'autres. Il y a des principes des principes, c'est à dire des principes qui nous servent à trouver et à justifier les autres principes. Les principes des principes sont les grands principes qui nous ouvrent les portes de tous les savoirs. Lorsqu'il s'efforce de les comprendre pour se les approprier, le débutant se rend capable de savoir tout ce qui peut être su.

Les principes des principes de la logique, des mathématiques, de la physique et de la biologie sont présentés et expliqués dans les chapitres suivants. Comme les principes des principes de la psychologie et de l'épistémologie ont été présentés dans les deux premières parties, ce livre donne une vue d'ensemble des principes les plus fondamentaux des sciences les plus fondamentales.


Chapitre suivant : L'incomplétude des principes mathématiques >>>


L'instinct, l'apprentissage et la mémoire

Qu'est-ce que l'apprentissage ?[modifier | modifier le wikicode]

Un agent a un savoir-faire lorsqu'il est capable de s'adapter à son environnement pour atteindre ses fins. Un savoir-faire est un comportement intelligent, ou une capacité à se comporter intelligemment.

Un savoir-faire est instinctif lorsqu'il est commun à tous les individus d'une même espèce et qu'il fait partie de leurs traits phylogénétiques, c'est à dire qu'il est transmis par une hérédité biologique commune (Lorenz 1981, Tinbergen 1951). Un tel savoir-faire apparaît naturellement au cours du développement normal des individus de l'espèce. C'est un savoir inné, même s'il se manifeste seulement longtemps après la naissance.

Pour qu'un savoir soit appris il faut que son acquisition passe par la mémorisation des expériences. Pour que les animaux soient capables d'apprendre il faut que leurs systèmes nerveux sont capables de conserver des traces de ce qu'ils ont vécu. Ce critère ne suffit pas pour distinguer l'appris de l'instinctif, parce qu'à peu près tous les comportements instinctifs apparaissent à la suite d'une période de maturation cérébrale, pendant laquelle l'expérience détermine la constitution des circuits neuronaux. La régulation des battements du cœur, par exemple, est instinctive, mais l'expérience des premiers battements est cruciale pour le développement ultérieur des réseaux de neurones qui les réguleront. De façon générale le développement du système nerveux est épigénétique, c'est à dire qu'il n'est pas déterminé seulement par les gènes mais aussi et surtout par l'expérience. En particulier, les synapses peuvent être modifiées par les signaux qu'elles transmettent. De cette façon une expérience de stimulation d'un réseau peut être déterminante pour son développement ultérieur. De même qu'en forgeant on devient forgeron, on devient capable de vivre en vivant.

Pour comprendre la différence entre l'inné et l'acquis, il faut considérer les différences de comportement. Celles-ci ont parfois une explication génétique, parce qu'il y a de petites différences génétiques entre les individus d'une même espèce. Mais le plus souvent les différences de comportement sont causées seulement, ou surtout, par des différences d'expérience. Nous disons alors qu'elles sont acquises ou apprises. Un comportement est appris lorsque ses particularités dépendent des particularités de l'expérience antérieure et non d'un héritage génétique. Pour nous les comportements appris sont les plus importants, parce que nos facultés naturelles et nos talents particuliers ne sont rien si nous n'apprenons pas à les développer.

L'instinct d'apprendre[modifier | modifier le wikicode]

Les facultés animales d'apprentissage sont elles-mêmes d'origine instinctive. Le savoir-apprendre est un savoir-faire et pour qu'il y ait apprentissage il faut qu'il y ait au préalable un savoir-apprendre instinctif. Nous pouvons apprendre à apprendre et donc acquérir du savoir-apprendre, mais nous ne pourrions pas apprendre si nous n'avions pas naturellement la capacité d'apprendre. Cet instinct d'apprendre repose sur la capacité des systèmes nerveux à profiter de leur expérience pour orienter leur développement.

La plasticité neuronale[modifier | modifier le wikicode]

Pour qu'il y ait mémorisation il faut un matériau plastique, c'est à dire capable de conserver des traces de son expérience (plastique s'oppose ici à élastique : un matériau élastique ne conserve pas de traces des déformations qu'il subit). Il semble que la plasticité des neurones est surtout celles de leurs synapses. L'expérience de transmission des signaux peut renforcer ou affaiblir une synapse (Kandel 1999). Elle peut également conduire à la formation d'autres synapses voisines qui connectent les mêmes neurones. De cette façon l'expérience des neurones modifie leur connectivité. De nouveaux réseaux peuvent être formés et de nouvelles fonctionnalités peuvent apparaître. Dans le même temps de nombreux neurones disparaissent, vraisemblablement parce qu'ils n'ont pas fait les preuves de leur utilité, parce que leurs synapses n'ont pas été renforcées par l'expérience.

Donald Hebb a proposé une règle simple qui explique de nombreux apprentissages neuronaux : deux neurones connectés renforcent leur connexion lorsqu'ils sont excités ensemble. C'est une sorte de renforcement par la réussite : lorsqu'un neurone A transmet un signal d'excitation à un autre neurone B, il n'est pas sûr de réussir. L'excitation de A à elle-seule n'est pas forcément suffisante pour déclencher l'excitation de B. Souvent il faut plusieurs signaux d'excitation en provenance d'autres neurones que A pour que B soit excité. La règle de Hebb énonce qu'une synapse d'un neurone excitateur est récompensée par la réussite. Elle est renforcée lorsque le neurone visé est vraiment excité.

Le développement des instincts[modifier | modifier le wikicode]

Pour qu'il y ait un savoir-faire il faut qu'il y ait un réseau de neurones fonctionnel, c'est à dire capable de se servir des signaux de la perception pour donner les signaux d'action appropriés. Le savoir-faire instinctif n'est pas appris, mais il est tout de même acquis, au sens où il apparaît au cours du développement naturel de l'individu. Comment les gènes peuvent-ils contrôler le développement d'un réseau de neurones fonctionnel ?

Le mystère du contrôle génétique du développement de l'organisme et de son système nerveux est partiellement élucidé : les gènes contrôlent le métabolisme (la synthèse et la dégradation des molécules de l'organisme) par l'intermédiaire de la synthèse des ARN et des protéines. La différenciation cellulaire dépend de l'activation de gènes particuliers qui synthétisent des protéines spécifiques au type cellulaire. Les gènes contrôlent la différenciation cellulaire en contrôlant la synthèse des ARN ou des protéines qui activent ou inhibent des gènes. Les propriétés des cellules et leurs interactions dépendent de leur type cellulaire. Les gènes peuvent ainsi contrôler la prolifération, la différenciation et la migration de toutes les cellules de l'organisme lors de son développement (Wolpert, Tickle & Martinez 2015). Pour les cellules nerveuses, ils peuvent aussi déterminer la migration des terminaisons de leurs axones et construire ainsi des réseaux de neurones. Mais ils ne contrôlent ainsi que le plan d'ensemble du système. La structure fine des connexions entre neurones est épigénétique, elle dépend de l'expérience. Là encore les gènes peuvent exercer une influence sur le développement, parce que la plasticité des synapses, la façon dont elles réagissent aux divers signaux qu'elles reçoivent, peut varier en fonction du type cellulaire.

La mémoire procédurale[modifier | modifier le wikicode]

La mémoire procédurale est la mémoire d'un savoir-faire appris. L'apprentissage d'un savoir-faire consiste à construire un réseau de neurones fonctionnel. Tant que le réseau est conservé, et qu'il reste fonctionnel, le savoir-faire est conservé. La mémoire procédurale est donc la conservation des réseaux de neurones fonctionnels construits par un apprentissage.

Un modèle neuronal pour la mémoire épisodique : les zones de convergence-divergence[modifier | modifier le wikicode]

La mémoire épisodique est la mémoire des souvenirs. Quand on se souvient on simule par l'imagination une expérience qu'on a déjà vécue. Comment un réseau de neurones peut-il accomplir une telle performance, enregistrer une expérience, la conserver et la reproduire par l'imagination ?

Une zone de convergence-divergence (ZCD) est un réseau de neurones, qui reçoit des projections convergentes en provenance des sites dont l'activité doit être mémorisée, et qui renvoie des projections divergentes vers ces mêmes sites (Damasio 1989, 2009). Lorsqu'une expérience est mémorisée, les signaux qui convergent sur la ZCD y excitent des neurones qui renforcent alors leurs connexions réciproques, en suivant la règle de Hebb, et forment ainsi un réseau auto-excitateur. Il suffit alors d'exciter à nouveau le réseau ainsi formé pour reproduire la combinaison de signaux initialement reçus. Dans un réseau auto-excitateur l'excitation d'une partie se propage à toutes les autres. De même un fragment de souvenir suffit pour réveiller l'intégralité d'une expérience mémorisée (Proust 1927). Une ZCD peut être ainsi un lieu d'enregistrement et de reproduction des souvenirs.

En plus des voies convergentes-divergentes, une ZCD peut être connectée au reste du cerveau de toutes les façons imaginables, par des signaux en entrée qui l'activent ou l'inhibent, et des signaux en sortie avec lesquels elle fait son effet sur le reste du système. En particulier les ZCD peuvent s'organiser en une arborescence. Une ZCD peut recruter en entrée des voies convergentes issues de nombreuses autres ZCD. Elle peut ainsi faire une synthèse des capacités de détection et de production de toutes les ZCD ainsi recrutées.

Pour faire un modèle du système des ZCD, on distingue dans le système nerveux une partie périphérique et une partie centrale. La périphérie réunit les régions dédiées à la perception, à l'émotion et à l'action. L'arborescence des ZCD est organisée d'une façon hiérarchique, de la périphérie vers le centre. Les ZCD les plus périphériques ont des voies convergente issues directement de la périphérie. On se rapproche du centre en remontant les arborescences de ZCD. On peut songer à des racines qui plongent dans la terre, la périphérie, et qui se rapprochent de la base du tronc, le centre. Mais dans le cerveau, il y a de très nombreux centres. Les ZCD les plus centrales ont des voies convergentes issues d'autres ZCD, et ne sont pas recrutées par des ZCD plus centrales. Le souvenir d'un épisode de notre vie pourrait être conservé par une telle ZCD centrale. Lorsque nous revivons les perceptions, les émotions et les actions d'une expérience passée, l'excitation de cette ZCD centrale activerait toutes les ZCD subordonnées, jusqu'aux aires périphériques, et simulerait ainsi l'expérience préalablement vécue.

Apprendre à percevoir[modifier | modifier le wikicode]

La perception est évidemment nécessaire pour agir sur le présent. Mais son effet ne s'arrête pas aux actions sur l'environnement perçu, parce que nous apprenons en permanence à partir de ce que nous percevons ou imaginons. Chaque expérience, réelle ou imaginaire, peut modifier nos façons de percevoir et d'imaginer.

Les réseaux de neurones dédiés à la perception de bas niveau, proche des organes sensoriels, sont vraisemblablement peu modifiables par l'expérience, dès qu'ils ont fini leur période de maturation initiale. Une fois qu'ils sont fonctionnels, ils ne doivent plus être modifiés, ou seulement un peu, parce qu'ils sont devenus nécessaires à l'accomplissement des fonctions de niveau supérieur. Si on modifie un réseau de bas niveau, on risque de perturber tous les réseaux de niveau supérieur qui se servent de lui.

Les agitations intérieures ressemblent parfois un peu aux mouvements d'un fluide, comme s'il y avait des forces de pression qui nous poussent à pervevoir, ou à imaginer. Pour expliquer comment nos expériences nous transforment on peut alors songer à la façon dont une rivière creuse son lit, au modelage des dunes par le vent, et plus généralement aux façons dont l'air, l'eau, ou tout autre fluide, peuvent modifier les solides au contact desquels ils s'écoulent. Les influx nerveux sont comme des courants fluides, les réseaux de neurones sont comme des canalisations dans lesquels ils s'écoulent et qu'ils peuvent creuser, élargir ou obstruer. Bien sûr ce n'est qu'une analogie. Les influx nerveux sont des courants électriques dans les neurones et à travers leurs membranes. Ils "creusent leur lit" dans les réseaux principalement en agissant sur leurs synapses.

Ce modèle de mémorisation fluide, où les influx nerveux peuvent modifier en permanence les voies dans lesquelles ils s'écoulent, ne peut pas suffire pour expliquer comment nous sommes transformés par nos expériences, parce qu'il donne une trop grande importance à l'oubli. Chaque nouvelle expérience pourrait effacer les traces laissées par les anciennes. Les souvenirs seraient comme des traces sur le sable d'une plage balayée par les vagues.

Notre mémoire fonctionne souvent d'une façon accumulative. Les souvenirs, les compétences et toutes les informations mémorisées sont acquis et conservés indépendamment les uns des autres. En général les nouveaux items mémorisés n'effacent pas les plus anciens. Comment les cerveaux développent de telles facultés de mémorisation est assez mystérieux. Les ZCD, qui requièrent au minimum la constitution d'un nouveau réseau, avec des neurones jusque là inutilisés, pour chaque nouvel item mémorisé, sont probablement une partie de l'explication, mais seulement une partie.

Nous apprenons à percevoir et à imaginer en apprenant à faire des inférences muettes à partir des informations fournies par les sens. Quand on mémorise une inférence muette, on retient une combinaison entre une condition et une conséquence. Pour cela il suffit en principe de conserver une liaison excitatrice entre le réseau qui représente la condition et celui qui représente la conséquence. Comme nos facultés d'inférence se développent d'une façon cumulative, il faut supposer que nos cerveaux savent construire de telles liaisons sans modifier les anciennes, qu'ils ont une mémoire qui ressemble parfois à celle des ordinateurs, où les liaisons entre les conditions, c'est à dire les adresses en mémoire, et les conséquences, les contenus conservés à ces adresses, sont apprises d'une façon cumulative.

Une expérience vécue réunit toujours de très nombreux éléments, d'une façon qui peut sembler parfois très désordonnée. Pour que l'inférence d'une condition à une conséquence soit légitime il ne suffit pas qu'elles aient été réunies lors d'une expérience, parce que leur association pourrait être fortuite. Comment reconnaissons-nous les inférences légitimes, celles qui augmentent vraiment notre savoir ? Par exemple de nombreux animaux savent identifier la cause de leur malaise s'ils ont ingéré un mauvaise nourriture. Qu'ils évitent d'en manger à nouveau montre qu'ils ont identifié correctement la source de leur souffrance. Mais comment font-ils ? De nombreuses autres perceptions ont précédé leur malaise. Pourquoi sélectionnent-ils comme cause précisément la nourriture et non les autres perceptions qui faisaient elles aussi partie de la même expérience ?

La perception ne s'arrête pas à la sensation. Elle construit des modèles de la réalité qui vont au delà du savoir fourni directement par les sens et qui guident l'identification des relations de condition à conséquence. Par exemple, nous reconnaissons les objets solides et leur attribuons spontanément des qualités de permanence. Nous savons qu'ils ne disparaissent pas et que leur forme reste inchangée, tant qu'il n'y a pas de cause capable de les faire disparaître ou de les déformer. Cette connaissance de la solidité est une source inépuisable d'inférences muettes, avec lesquelles nous connaissons le futur, le présent qui n'est pas perçu par les sens, et le passé qu'on n'a pas vécu. De façon générale nous savons naturellement percevoir des qualités de permanence, des relations de causalité, ou d'autres qualités et relations qui conduisent à des inférences légitimes. Nous savons naturellement identifier des causes et des effets, nous savons reconnaître ce qui agit et ce qui subit, nous percevons des traces et des signes annonciateurs... De telles facultés de perception alliées à la mémoire épisodique permettent de développer l'imagination déductive.

Nous savons instinctivement percevoir la causalité, ou d'autres qualités et relations qui conduisent à des inférences légitimes, seulement dans des cas simples, comme la solidité, l'action par contact ou la nourriture comme cause de malaise. De façon générale, l'identification correcte des inférences légitimes est un problème très difficile que notre savoir instinctif n'est pas capable de résoudre à lui seul. De fait nous sommes naturellement portés à percevoir des relations causales là où il n'y en a pas. Toutes les formes de superstition et de divagation montrent que nos facultés naturelles de perception de la causalité sont d'une fiabilité très limitée.


Principes logiques

Un raisonnement est logique lorsque toutes ses affirmations, sauf les hypothèses, sont des conséquences logiques évidentes des hypothèses qui les précèdent. De cette façon un raisonnement logique prouve que sa conclusion est une conséquence logique de ses prémisses. Les principes logiques sont des règles fondamentales qui déterminent toutes les relations de conséquence logique évidentes, et à partir de là toutes les relations de conséquence logique.

Conséquence nécessaire et possibilité logique[modifier | modifier le wikicode]

La relation de conséquence logique peut être définie à partir de la possibilité logique :

C est une conséquence logique de prémisses P lorsqu'il n'y a aucun monde logiquement possible tel que C soit fausse et les P soient vraies.

Une conséquence logique ne peut pas être fausse si les prémisses sont vraies. La relation de conséquence logique conduit nécessairement du vrai au vrai.

Pour définir un monde logiquement possible on se donne des propriétés et des relations fondamentales et un ensemble d’individus auxquels on peut attribuer ces propriétés et ces relations. Un énoncé est atomique lorsqu’il affirme une propriété fondamentale d’un individu ou une relation fondamentale entre plusieurs individus. Un énoncé atomique ne peut pas être décomposé en énoncés plus petits. N'importe quel ensemble d'énoncés atomiques détermine un monde logiquement possible tel qu'ils sont tous vrais et les seuls énoncés atomiques vrais (Keisler 1977). Un ensemble d'énoncés atomiques n'est jamais contradictoire parce que les énoncés atomiques ne contiennent pas de négation.

La vérité des énoncés composés[modifier | modifier le wikicode]

Les énoncés à propos d'un monde logiquement possible sont composés à partir d'énoncés atomiques avec des connecteurs logiques. Les principaux connecteurs logiques sont la négation non, la disjonction ou, la conjonction et, le conditionnel si alors, le quantificateur universel pour tout x, ou tout x est tel que, et le quantificateur existentiel il existe un x tel que.

Quand un énoncé est composé à partir d'énoncés atomiques avec des connecteurs logiques, sa vérité ne dépend que du monde logiquement possible considéré, parce que la vérité d'un énoncé composé ne dépend alors que de la vérité des énoncés à partir desquels il est composé.

La vérité des énoncés composés avec la négation, la disjonction, la conjonction et le conditionnel est déterminée avec des tables de vérité :

Négation
p non p
Vrai Faux
Faux Vrai


Disjonction
p q p ou q
Vrai Vrai Vrai
Vrai Faux Vrai
Faux Vrai Vrai
Faux Faux Faux
Conjonction
p q p et q
Vrai Vrai Vrai
Vrai Faux Faux
Faux Vrai Faux
Faux Faux Faux
Conditionnel
p q Si p alors q
Vrai Vrai Vrai
Vrai Faux Faux
Faux Vrai Vrai
Faux Faux Vrai

La vérité des énoncés composés avec les quantificateurs universel et existentiel est déterminée par les deux règles suivantes :

Pour tout x, p(x) est vrai lorsque tous les énoncés p(i) obtenus à partir de p(x) en substituant un nom d'individu i à toutes les occurrences de x dans p(x) sont vrais, et faux sinon.

Il existe un x tel que p(x) est vrai lorsqu'au moins un énoncé p(i) obtenu à partir de p(x) en substituant un nom d'individu i à toutes les occurrences de x dans p(x) est vrai, et faux sinon.

L'interdéfinissabilité des connecteurs logiques[modifier | modifier le wikicode]

Les connecteurs logiques peuvent être définis les uns à partir des autres. Par exemple le quantificateur existentiel peut être défini à partir du quantificateur universel et de la négation :

Il existe un x tel que p veut dire qu'il est faux que tout x est tel que non p, autrement formulé, non(pour tout x non p).

On peut aussi adopter la définition inverse :

Pour tout x, p veut dire qu'il est faux qu'il existe un x tel que non p, c'est à dire, non(il existe un x tel que non p).

De même on peut définir la disjonction à partir de la conjonction, ou l'inverse :

p ou q veut dire non(non p et non q)

p et q veut dire non(non p ou non q)

Le conditionnel peut être défini à partir de la conjonction ou de la disjonction :

Si p alors q veut dire non(p et non q)

Si p alors q veut dire aussi q ou non p

Le biconditionnel si et seulement si peut être défini à partir du conditionnel et de la conjonction :

p si et seulement si q veut dire (si p alors q) et (si q alors p)

Il peut aussi être défini à partir des autres connecteurs :

p si et seulement si q veut dire (p et q) ou (non p et non q)

ou encore :

p si et seulement si q veut dire non( (p et non q) ou (non p et q) )

On pourrait aussi introduire le connecteur logique ni ni et définir tous les autres connecteurs à partir de lui :

non p veut dire ni p ni p

p et q veut dire ni non p ni non q

p ou q veut dire non(ni p ni q)

Si p alors q veut dire non(ni non p ni q)

p si et seulement si q veut dire ni (p et non q) ni (non p et q)

Les règles fondamentales de déduction[modifier | modifier le wikicode]

Toutes les relations de conséquence logique peuvent être produites avec un petit nombre de règles fondamentales de déduction à partir de conséquences logiques triviales, évidemment tautologiques, qui sont données par la règle de répétition :

Toute prémisse incluse dans une liste finie P de prémisses est une conséquence logique des prémisses P.

Pour chaque connecteur logique on a deux règles fondamentales de déduction, une règle d'élimination et une règle d'introduction (Gentzen 1934, Fitch 1952). La logique ressemble à un jeu de construction. On compose et on décompose les énoncés en introduisant et en éliminant des connecteurs logiques.

Les règles fondamentales de déduction sont intuitivement évidentes, dès qu'on a compris les concepts de conséquence et de possibilité logiques et la détermination de la vérité des énoncés composés à partir des connecteurs logiques. On peut prouver rigoureusement la vérité de ces intuitions.

La règle de répétition et les règles fondamentales de déduction peuvent être considérées comme les principes des principes logiques, parce qu'elles suffisent pour justifier tous les autres principes logiques.

Comme trois (ou même deux) connecteurs logiques suffisent pour définir tous les autres, six (ou même quatre) règles fondamentales de déduction suffisent pour produire toutes les relations de conséquence logique, avec la règle de répétition et la règle de transitivité. On peut choisir par exemple la négation, la conjonction et le quantificateur universel comme connecteurs logiques fondamentaux. Toutes les règles de déduction pour les autres connecteurs logiques peuvent alors être dérivées à partir des six règles des trois connecteurs fondamentaux et du principe de transitivité des conséquences logiques :

Si C est une conséquence logique des prémisses Q et si toutes les prémisses Q sont des conséquences logiques des prémisses P alors C est une conséquence logique des prémisses P.

La règle de particularisation[modifier | modifier le wikicode]

Si i est un individu alors E(i) est une conséquence logique de pour tout x, E(x).

E(i) est l'énoncé obtenu à partir de E(x) en substituant i à toutes les occurrences de x dans E(x).

Cette règle est la plus importante de toute la logique, parce que la puissance des raisonnements vient des lois avec lesquelles on raisonne. A chaque fois qu'on applique une loi à un individu, on apprend ce qu'elle nous enseigne et on révèle la puissance de raisonner qu'elle nous donne.

La règle de généralisation[modifier | modifier le wikicode]

Si E(i) est une conséquence logique des prémisses P et si i est un individu qui n'est pas mentionné dans ces prémisses alors pour tout x, E(x) est une conséquence logique des mêmes prémisses.

Un exemple d'usage de cette règle est le Je philosophique, ou cartésien. On dit Je sans faire aucune hypothèse particulière sur l'individu ainsi nommé. Dès lors tout ce qu'on dit sur lui peut être appliqué à tous les individus. Si par exemple on a prouvé Je ne peux pas penser sans connaître que je suis on peut déduire Tout individu ne peut pas penser sans connaître qu'il est.

La règle de détachement[modifier | modifier le wikicode]

B est une conséquence logique de A et Si A alors B.

La règle d'incorporation d'une hypothèse[modifier | modifier le wikicode]

Si B est une conséquence logique des prémisses P et A, alors Si A alors B est une conséquence logique des prémisses P.

Le principe du raisonnement par l'absurde[modifier | modifier le wikicode]

Si B et non B sont des conséq