Dictionnaire de philosophie/Épistémologie
Introduction
[modifier | modifier le wikicode]L’épistémologie comme discipline philosophique
[modifier | modifier le wikicode]1.1 Définition et champ épistémologique
[modifier | modifier le wikicode]L’épistémologie, dont le nom dérive des termes grecs epistêmê (connaissance, science) et logos (étude, discours), se présente d’abord comme la branche de la philosophie consacrée à l’examen de la connaissance. Cette définition, en apparence simple, recouvre cependant un domaine d’enquête bien plus vaste et complexe qu’il n’y paraît. L’épistémologie ne se limite pas à décrire les différentes formes de connaissance ; elle engage une réflexion approfondie sur la nature même de ce que nous prétendons connaître, sur les conditions de possibilité de cette connaissance et sur les normes qui en gouvernent l’acquisition, la conservation et la mise à l’épreuve.
Historiquement, l’épistémologie s’est constituée progressivement en discipline autonome au cours du XIXe siècle. Les questions qui la définissent remontent à l’Antiquité, mais l’apparition du terme et la formation de la discipline comme telle répondent à des besoins philosophiques nouveaux. Le mot épistémologie est attesté en français dès 1876, sous la plume d’Auguste Penjon, dans un article intitulé « Un métaphysicien anglais contemporain : M. J. F. Ferrier », publié dans la Revue philosophique de la France et de l’étranger (t. II, 1876, p. 130-167)[1]. En 1901, le terme est repris dans la traduction française de l’Essay on the Foundations of Geometry de Bertrand Russell (Essai sur les fondements de la géométrie, Paris, Gauthier-Villars), due à Albert Cadenat et revue par Russell et Louis Couturat, où epistemology devient épistémologie dans l’introduction. Le mot demeure toutefois d’un usage rare jusqu’au début du XXe siècle, où il se stabilise notamment avec son entrée dans le supplément du Larousse illustré (1906) et avec l’emploi systématique qu’en fait Émile Meyerson dans Identité et réalité (1908). Cette cristallisation tardive est significative : l’épistémologie moderne naît moins d’une simple prolongation des interrogations antiques que de la nécessité de penser les conséquences philosophiques des profondes transformations des sciences à l’époque moderne, à partir notamment de Galilée, Descartes et Newton.
On peut dire que l’épistémologie articule au moins quatre questions centrales. D’abord une question définitionnelle : qu’est-ce que la connaissance ? Ensuite une question de la justification : dans quelles conditions une croyance peut-elle être dite justifiée ? Vient ensuite la question des sources : d’où vient la connaissance, quelles en sont les origines légitimes ? Enfin, une question de domaine : que pouvons-nous connaître, et quelles sont les limites de notre savoir ? Ces quatre interrogations forment un ensemble solidaire : on ne peut répondre à l’une sans présupposer, même implicitement, une réponse aux autres. Elles fournissent encore aujourd’hui la trame de la plupart des débats épistémologiques.
1.2 Distinction entre épistémologie générale et épistémologies sectorielles
[modifier | modifier le wikicode]Il importe d’emblée de distinguer deux usages du terme épistémologie, selon que l’on s’intéresse aux principes généraux de la connaissance ou à ses modalités dans des domaines particuliers. L’épistémologie générale s’attache aux principes supposés universels qui régiraient toute forme de connaissance, indépendamment de l’objet auquel elle s’applique. Elle s’efforce de dégager les traits communs à la connaissance mathématique, à la connaissance empirique, à la connaissance morale ou religieuse, et plus largement à tout ce qui prétend au titre de savoir.
Inversement, on parle d’épistémologies sectorielles ou spécialisées : épistémologie des sciences physiques, de la biologie, de la psychologie, des sciences humaines et sociales, des mathématiques, de la morale, de la religion, de l’histoire, etc. Ces approches reconnaissent que les critères de validité et les procédures de justification varient fortement selon les domaines. Une théorie scientifique ne se justifie pas de la même manière qu’une thèse morale ; une découverte mathématique ne repose pas sur les mêmes types de preuves qu’une affirmation historique ; et le statut épistémique des « preuves » diffère profondément entre la physique expérimentale, l’économie, la psychanalyse ou la philosophie politique.
Cette distinction est particulièrement significative pour notre époque. L’ambition d’une approche générale, qui chercherait un fondement ou une norme épistémique unique pour tous les savoirs, se heurte sans cesse à la pluralité apparemment irréductible des méthodes, des normes et des formes de justification qui organisent effectivement la pratique des sciences et des autres domaines de connaissance. En sens inverse, les démarches spécialisées risquent de morceler le savoir en compartiments étanches, sans véritable dialogue entre eux. La tension, souvent féconde, entre ces deux perspectives – la recherche de principes communs et l’attention aux spécificités de chaque domaine – demeure l’un des traits marquants de l’épistémologie contemporaine.
1.3 L’épistémologie comme métacognition
[modifier | modifier le wikicode]On peut aussi caractériser l’épistémologie comme une réflexion de second degré : elle prend pour objet la connaissance elle-même. Elle « pense la pensée », s’attache à connaître la connaissance, et interroge les conditions de possibilité de l’interrogation philosophique. De ce fait, elle entretient un rapport singulier à son objet. L’épistémologue n’est pas un simple observateur extérieur placé face à un phénomène qu’il contemplerait de loin ; il participe lui-même à l’activité cognitive qu’il cherche à élucider. La réflexion épistémologique est une réflexion de l’intérieur, engagée, qui s’applique à l’une des pratiques – connaître – dont elle use déjà pour se déployer.
Ce caractère réflexif engendre une forme de circularité dont les philosophes ont souvent souligné l’inévitabilité. Lorsque nous examinons les critères de validité de la connaissance, nous mobilisons déjà certaines idées sur ce qui compte comme bon raisonnement, bonne preuve, bonne source de croyance. Lorsque nous élaborons une théorie de la justification, nous recourons à des raisonnements que cette théorie devrait, en principe, être en mesure de justifier. Cette circularité n’est pas un vice qu’il faudrait éliminer à tout prix, mais le trait constitutif de toute réflexion qui porte sur ses propres conditions de possibilité. La philosophie antique l’avait déjà perçu : la question « comment connaître ? » suppose toujours un minimum de connaissance, ne serait-ce que celle de la langue dans laquelle on formule la question ou des notions qu’elle emploie.
1.4 Relations avec les autres disciplines philosophiques
[modifier | modifier le wikicode]L’épistémologie ne forme pas un îlot isolé au sein de la philosophie. Elle entretient des rapports étroits avec plusieurs autres branches, dont elle dépend en partie tout en influençant leur évolution.
Avec la logique, elle partage le souci de la validité du raisonnement. La logique s’intéresse aux formes d’inférence, aux structures argumentatives indépendamment de tout contenu ; elle dit dans quelles circonstances une conclusion suit nécessairement de prémisses données. L’épistémologie, pour sa part, se demande dans quelles conditions un raisonnement, même formellement valide, peut fonder un véritable savoir. Un argument peut être impeccable du point de vue logique et néanmoins ne pas constituer un bon fondement de connaissance si les prémisses elles-mêmes ne sont pas justifiées.
Les relations avec la métaphysique sont plus complexes et ont varié au cours de l’histoire. Longtemps, et notamment dans la philosophie antique et médiévale, ces deux disciplines n’étaient guère séparées : on ne pouvait pas se demander « comment connaissons-nous ? » sans commencer par se demander « qu’est-ce qui existe ? ». Avec Kant, un infléchissement décisif se produit : il ne s’agit plus seulement de dériver la connaissance de la structure de l’être, mais de montrer que c’est la structure de notre faculté de connaître qui fixe ce que nous pouvons légitimement dire de la réalité. Aujourd’hui encore, métaphysique et épistémologie disposent d’une certaine autonomie, mais elles dialoguent constamment : toute position sur ce qu’il y a implique une conception, même implicite, de ce que nous pouvons en connaître, et toute théorie de la connaissance s’accompagne d’engagements métaphysiques.
Les liens avec l’éthique, et plus largement avec la philosophie pratique, se sont resserrés au cours des dernières décennies. On s’interroge de plus en plus sur les rapports entre ce que nous devons croire et la manière dont nous devons vivre. Les vertus épistémiques – honnêteté intellectuelle, souci de la vérité, ouverture d’esprit, prudence dans le jugement, courage intellectuel – sont devenues un terrain privilégié d’échanges entre épistémologie et éthique. La question de « l’éthique de la croyance » a pris une importance particulière : avons-nous le droit, moralement, de croire sur la base d’indices insuffisants ? À l’inverse, avons-nous des devoirs épistémiques en tant que citoyens, par exemple l’obligation de nous informer sérieusement avant de nous prononcer sur des enjeux politiques ou sanitaires ?
Enfin, l’épistémologie entretient des affinités évidentes avec la philosophie de l’esprit. Toutes deux s’intéressent à la croyance, à l’intention, à l’expérience consciente. Mais là où la philosophie de l’esprit décrit les phénomènes mentaux tels qu’ils se présentent effectivement chez les êtres doués de pensée, l’épistémologie évalue ces phénomènes à la lumière de normes de vérité et de justification. Une certitude subjective peut être psychologiquement très forte sans pour autant satisfaire aux exigences minimales de la justification rationnelle.
1.5 L’épistémologie entre science et philosophie
[modifier | modifier le wikicode]Une tension profonde traverse l’épistémologie contemporaine. D’un côté, on éprouve le désir de rendre l’étude de la connaissance elle-même plus « scientifique », en l’appuyant sur les résultats empiriques des sciences cognitives, de la psychologie, de la linguistique ou de l’anthropologie. De l’autre, on tient à préserver la dimension normative et réflexive proprement philosophique de l’enquête sur le savoir.
Cette tension renvoie à un tournant majeur du XXe siècle. En 1969, Willard Van Orman Quine publie l’article Epistemology Naturalized, où il propose de renoncer à l’ancienne ambition de fonder la science sur des principes premiers indubitables. L’épistémologie, selon lui, doit devenir une partie des sciences empiriques : plutôt que de chercher des fondements absolus au savoir scientifique, il s’agit de comprendre comment les processus cognitifs effectifs d’un organisme biologique, l’être humain, produisent et stabilisent la science dans ses rapports avec l’environnement. La connaissance est alors étudiée comme un phénomène naturel parmi d’autres.
Cette orientation naturaliste a profondément modifié le paysage épistémologique. La plupart des épistémologues reconnaissent aujourd’hui l’importance des données empiriques sur le fonctionnement réel de la cognition humaine. Mais beaucoup considèrent qu’une telle « naturalisation » ne doit pas conduire à abandonner toute prétention normative. Même nourrie par les sciences de la nature et les sciences humaines, l’épistémologie reste chargée de formuler des normes : elle ne se contente pas de décrire ce que les gens croient ou comment ils raisonnent, elle s’interroge sur ce qu’ils devraient croire et sur la façon dont ils devraient former leurs croyances.
La relation entre l’épistémologie et les disciplines qui prennent la science pour objet – histoire, sociologie et psychologie des sciences, anthropologie des savoirs, neurobiologie de la cognition – s’en trouve reconfigurée. L’épistémologie emprunte désormais largement à ces disciplines, qui lui fournissent une connaissance plus précise de nos capacités et de nos limites cognitives. En retour, elle offre un cadre conceptuel pour interpréter ces résultats empiriques et poser la question décisive : ce que les agents font effectivement n’est pas nécessairement ce qu’ils sont fondés à faire du point de vue de la recherche de la vérité.
Enjeux contemporains de l'épistémologie
[modifier | modifier le wikicode]2.1 Pluralité d'approches et renouvellement du champ
[modifier | modifier le wikicode]L’épistémologie contemporaine ne se caractérise plus par la domination d’une seule école de pensée, mais par une diversité méthodologique marquée : elle met en œuvre une pluralité d’approches qui non seulement ne s’excluent pas mutuellement, mais s’articulent de plus en plus étroitement les unes aux autres.
L’épistémologie analytique, héritière de la tradition anglo-américaine, conserve une place importante. Elle poursuit l’examen des concepts fondamentaux de connaissance, de justification et de croyance, en cherchant à les analyser avec rigueur, souvent à l’aide des outils de la logique formelle. Cette approche maintient un souci de précision conceptuelle qui reste décisif. Le problème dit de Gettier (1963), qui a remis en cause l’analyse classique de la connaissance comme « croyance vraie justifiée », demeure une référence théorique majeure dans une large part de la recherche en épistémologie analytique.
Depuis quelques décennies, l’épistémologie formelle s’est développée de manière considérable. Elle applique des méthodes mathématiques, en particulier probabilistes, à l’étude de la connaissance et de la croyance. Le bayésianisme épistémologique, qui modélise la justification en termes de degrés de confiance (ou crédences) ajustés à la lumière de nouvelles preuves, a profondément modifié la manière de penser le raisonnement scientifique et l’inférence.
L’épistémologie naturalisée, inspirée par Quine et développée notamment par Alvin Goldman, vise à ancrer l’étude de la connaissance dans les sciences empiriques : psychologie, neurosciences et, plus largement, sciences cognitives. Cette approche rejette la thèse selon laquelle l’épistémologie serait purement a priori et relèverait de la seule analyse conceptuelle. Elle insiste sur le fait que comprendre comment nous connaissons effectivement requiert de comprendre comment fonctionne notre cerveau et comment nos processus cognitifs interagissent avec leur environnement.
L’épistémologie des vertus, qui se développe à partir des années 1980 avec les travaux de Linda Zagzebski, Lorraine Code, Ernest Sosa et d’autres, établit un lien explicite entre épistémologie et éthique. Elle ne demande pas seulement : qu’est-ce que la connaissance ?, mais aussi : quel type de sujet connaissant convient-il d’être ? et quelles qualités intellectuelles devons-nous cultiver ? Cette approche met en rapport l’excellence épistémique et les vertus intellectuelles, et réinscrit la réflexion sur la connaissance dans une réflexion plus large sur la formation du caractère.
L’épistémologie sociale, dont l’appellation s’impose à la fin du XXe siècle notamment grâce aux travaux d’Alvin Goldman et de Steve Fuller, reconnaît que la connaissance n’est pas produite par des individus isolés. Le savoir se constitue toujours dans un contexte social, par le témoignage, la coopération, les pratiques collectives et le fonctionnement des institutions scientifiques. Cette prise en compte a ouvert un champ d’enquête étendu : comment les groupes produisent-ils de la connaissance ? Comment se structurent les hiérarchies épistémiques ? Quels rôles jouent le pouvoir et les institutions dans la formation, la circulation et la légitimation des croyances ?
L’épistémologie féministe, depuis les travaux des années 1980 sur la standpoint theory (théorie du point de vue) jusqu’aux analyses intersectionnelles récentes, a montré que le « point de vue de nulle part » de l’observateur scientifique relevait d’une fiction théorique. La situation sociale d’une personne, en particulier son expérience de domination ou de privilège, conditionne en partie ce qu’elle peut connaître et la manière dont elle peut le connaître. Les épistémologies féministes mettent ainsi en lumière la dimension située de toute entreprise de connaissance.
2.2 Les défis du XXIe siècle : technologie, information, polarisation
[modifier | modifier le wikicode]L’épistémologie n’a sans doute jamais été aussi étroitement liée aux enjeux sociaux et politiques qu’aujourd’hui. Trois défis majeurs structurent le paysage intellectuel actuel.
2.2.1 La crise de la post-vérité et des fausses informations
[modifier | modifier le wikicode]Le phénomène désigné par le terme « post-vérité », identifié comme « mot de l’année » par Oxford Dictionaries en 2016, ne se réduit pas à une augmentation quantitative du mensonge. Il désigne plutôt une situation où les faits objectifs exercent une influence moindre, dans la formation de l’opinion publique, que les appels aux émotions et aux convictions personnelles. Les recherches actuelles distinguent plusieurs phénomènes connexes : la désinformation (fausses informations diffusées intentionnellement), la mésinformation (fausses informations diffusées sans intention de tromper) et ce que l’on appelle, en anglais, les fake news (fausses nouvelles délibérément fabriquées pour tromper, le plus souvent à des fins politiques ou commerciales).
La préoccupation centrale des épistémologues ne porte pas seulement sur la présence de contenus mensongers, qui a toujours existé, mais sur la transformation du contexte épistémique dans lequel ces informations circulent. Les algorithmes de recommandation des réseaux sociaux, en cherchant à maximiser l’« engagement », produisent des bulles informationnelles dans lesquelles chacun est exposé de manière privilégiée à des contenus qui confirment ses croyances préalables. La diffusion d’un message dépend alors moins de la véracité de son contenu que de sa capacité à susciter des réactions affectives fortes.
Le phénomène de « post-vérité » soulève des questions épistémologiques fondamentales : comment distinguer le vrai du faux lorsque les critères de crédibilité se fragmentent ? Quels repères permettent d’identifier une expertise légitime ? Comment reconstituer une base commune de faits partageables ? Ces interrogations ont des conséquences directes pour la démocratie, pour la santé publique (par exemple dans les débats sur la vaccination ou le changement climatique) et pour la place de la science dans l’espace public.
2.2.2 L’intelligence artificielle et ses implications épistémiques
[modifier | modifier le wikicode]L’intelligence artificielle, en particulier les grands modèles de langage et l’apprentissage profond (deep learning), pose des questions épistémologiques inédites. Ces systèmes reposent sur des processus partiellement opaques : même leurs concepteurs ne parviennent pas toujours à rendre compte de la manière dont ils aboutissent à telle ou telle conclusion. On parle alors du « problème de la boîte noire ».
Plusieurs questions épistémiques se posent. D’abord, peut-on dire que les systèmes d’IA « savent » quelque chose ? Produisent-ils du savoir ou bien seulement des corrélations et des régularités extraites de masses de données ? Ensuite, comment évaluer la fiabilité d’un résultat fourni par une IA ? Les hallucinations des grands modèles de langage, c’est-à-dire la production de réponses fausses mais plausibles, appellent un examen attentif de la différence entre compétence réelle et simple apparence de compétence.
La collecte et le traitement des données sur lesquelles s’entraînent ces systèmes soulèvent également des questions proprement épistémiques. Les données ne sont jamais neutres : elles reflètent les structures sociales dans lesquelles elles sont produites, avec leurs biais, leurs inégalités et leurs angles morts. Un algorithme entraîné sur des données biaisées reproduira et amplifiera ces biais. De plus, le recours massif à l’IA entraîne, selon plusieurs travaux récents, une mutation de nos pratiques de connaissance : on passe d’une science centrée sur l’explication causale à des approches de plus en plus guidées par les données, qui privilégient la mise au jour de corrélations au détriment de l’identification des rapports causaux et de la compréhension fine des mécanismes sous-jacents.
2.2.3 Les injustices épistémiques et le pouvoir
[modifier | modifier le wikicode]Miranda Fricker a mis en évidence, dans ses travaux fondateurs sur l’injustice épistémique, que la connaissance n’est pas seulement une affaire individuelle, mais aussi une question de pouvoir et de justice. Elle distingue deux formes principales d’injustice épistémique.
L’injustice testimoniale se produit lorsqu’une personne reçoit un crédit épistémique diminué en raison de préjugés sociaux. Cette forme d’injustice se manifeste, par exemple, lorsque la parole d’une femme scientifique est systématiquement moins prise au sérieux que celle d’un collègue masculin, lorsqu’un patient issu d’une minorité racisée voit ses plaintes médicales relativisées, ou encore lorsque l’on refuse d’emblée toute crédibilité à une personne en raison de troubles psychiatriques.
L’injustice herméneutique se produit lorsqu’une personne ne dispose pas, au sein de sa communauté, des ressources conceptuelles nécessaires pour interpréter son expérience. Historiquement, les femmes victimes de harcèlement sexuel ne disposaient pas d’un concept stabilisé pour nommer ce qu’elles subissaient ; l’élaboration du terme et du cadre conceptuel a été nécessaire. Les migrants peuvent manquer de mots et de notions adéquates pour comprendre leur situation d’exclusion sociale. Une personne neurodivergente peut ne pas parvenir à exprimer son expérience avec les concepts disponibles dans sa langue et sa culture.
Ces formes d’injustice produisent des effets tangibles : une personne dont le témoignage n’est pas pris en compte ne recevra pas le traitement médical approprié ; un groupe dépourvu de cadre herméneutique pour analyser son oppression demeurera largement invisible aux yeux des institutions susceptibles de le soutenir. Remédier à ces injustices exige le développement de vertus épistémiques correctrices : l’humilité épistémique (reconnaître les limites de son propre savoir), l’ouverture d’esprit (admettre la possibilité de se tromper), mais aussi la justice testimoniale (être attentif aux préjugés qui affectent la crédibilité) et la sensibilité herméneutique (reconnaître les lacunes conceptuelles collectives et travailler à les combler).
2.3 Entre universalisme et pluralisme : la diversité épistémologique
[modifier | modifier le wikicode]Un enjeu majeur du XXIe siècle pour l’épistémologie réside dans la tension entre l’universalisme, c’est-à-dire l’idée qu’il existerait une seule forme de connaissance pleinement légitime – souvent identifiée à la science occidentale moderne –, et le pluralisme épistémologique, qui souligne que différentes cultures, traditions et pratiques produisent des connaissances valables selon des voies diverses.
L’épistémologie occidentale a longtemps considéré comme allant de soi que le modèle du savoir était celui des sciences physiques modernes : savoir empiriquement contrôlable, mathématiquement formalisable, objectif et impersonnel. Cette conception s’est établie au prix d’une marginalisation, voire d’un effacement, des épistémologies non occidentales, des savoirs autochtones et des pratiques traditionnelles de connaissance.
Les épistémologies du Sud (expression développée notamment par Boaventura de Sousa Santos) reposent sur la thèse selon laquelle le savoir occidental n’est qu’une épistémologie parmi d’autres. Les savoirs écologiques, médicaux ou mathématiques issus d’Afrique, d’Asie ou d’Amérique latine ne sauraient être ramenés à de simples esquisses imparfaites de la science occidentale. Ils constituent des systèmes épistémiques cohérents et des modes de connaissance du monde dotés de leurs propres critères de rigueur et de validation.
Cette reconnaissance pose des questions épistémologiques complexes : comment comparer et évaluer des épistémologies profondément différentes sans imposer les critères de l’une à toutes les autres ? Comment articuler pluralisme épistémologique et responsabilité scientifique, notamment en matière de santé publique ou d’écologie globale ? Le pluralisme conduit-il nécessairement à un relativisme excessif, ou peut-on maintenir des exigences critiques tout en reconnaissant la pluralité des formes de savoir ?
2.4 Normes épistémiques et pratiques effectives
[modifier | modifier le wikicode]Une tension fondamentale parcourt l’épistémologie contemporaine : celle qui distingue les normes épistémiques idéales des pratiques effectives de production de savoir.
L’épistémologie traditionnelle interrogeait prioritairement la question : comment doit-on connaître ? Elle élaborait des normes de justification considérées comme universellement valables. Mais une telle approche tendait à négliger les conditions concrètes de la connaissance : comment les savants et les citoyens connaissent-ils effectivement ? Quelles sont les contraintes sociales, techniques, psychologiques dans lesquelles se forme le savoir ?
Les sciences cognitives ont établi que les processus cognitifs humains s’écartent nettement des modèles rationnels des manuels de logique. Le raisonnement humain présente de nombreux biais systématiques : biais de confirmation (tendance à rechercher et privilégier les informations qui confirment nos croyances), biais de disponibilité (tendance à surévaluer ce qui vient aisément à l’esprit), aversion à la perte, pensée motivée, et bien d’autres encore. L’épistémologie dite non idéale se donne pour tâche de comprendre comment des sujets réels, avec leurs limites et leurs biais, peuvent néanmoins parvenir à une connaissance solide.
Il ne s’ensuit pas qu’il convienne de renoncer aux normes. Il s’agit plutôt de reconnaître que les normes épistémiques doivent être réalistes, c’est-à-dire compatibles avec ce que nous sommes effectivement capables de faire. Une norme qui exigerait l’omniscience logique serait dépourvue de pertinence pour des agents finis comme nous ; inversement, une norme qui admettrait tout indistinctement ne serait plus une norme.
2.5 Interdisciplinarité croissante
[modifier | modifier le wikicode]L’épistémologie ne se conçoit plus comme une discipline abstraite isolée du reste du savoir. Elle entretient désormais un dialogue constant avec d’autres domaines de recherche.
Elle s’articule d’abord aux sciences cognitives, qui permettent de comprendre comment se forment concrètement les croyances et comment notre cerveau traite l’information. Elle s’appuie également sur la sociologie et l’histoire des sciences pour analyser les contextes sociaux et institutionnels de production du savoir, en reconnaissant que la connaissance est toujours située historiquement et socialement.
Elle s’articule ensuite à la philosophie politique, lorsqu’il s’agit d’examiner les enjeux démocratiques du savoir : qui a droit à la parole ? Quels savoirs sont pris en compte dans l’espace public ? Comment promouvoir une forme de justice épistémique dans des sociétés traversées par de fortes inégalités ? Elle s’articule également à l’éthique appliquée pour traiter des questions morales posées par les nouvelles technologies de l’information et les nouvelles formes de responsabilité liées à l’usage du savoir.
Enfin, la linguistique et l’herméneutique contribuent à éclairer la manière dont le langage structure notre compréhension du monde, et dont les ressources conceptuelles partagées façonnent ce qui peut être reconnu comme objet de connaissance.
Cette configuration interdisciplinaire ne doit pas être tenue pour un signe de fragilité. Elle témoigne au contraire de ce que les questions épistémiques ne peuvent plus être abordées séparément des pratiques effectives du savoir et des enjeux sociopolitiques auxquels nos sociétés sont confrontées.
2.6 Éléments de synthèse
[modifier | modifier le wikicode]L’épistémologie contemporaine se caractérise par une diversité méthodologique féconde : rigueur analytique et attention aux données empiriques, ambition normative et souci descriptif, visée universaliste et sensibilité au pluralisme cohabitent et interagissent de façon constructive. Les défis de la post-vérité, de l’intelligence artificielle, des injustices épistémiques et de la polarisation confèrent une urgence nouvelle à l’enquête épistémologique : loin de constituer une discipline détachée des enjeux sociaux, elle se présente désormais comme l’un des outils conceptuels indispensables pour penser les questions les plus pressantes de nos sociétés.
Première partie : Problèmes fondamentaux de la connaissance
[modifier | modifier le wikicode]Chapitre 1 : Qu'est-ce que la connaissance ?
[modifier | modifier le wikicode]1.1 La définition traditionnelle : croyance vraie justifiée
[modifier | modifier le wikicode]Origines platoniciennes
[modifier | modifier le wikicode]Le Théétète de Platon, dialogue composé au IVe siècle avant notre ère, constitue la première enquête systématique sur la nature de la connaissance dans la tradition philosophique occidentale. La question centrale — « qu'est-ce que la connaissance ? » — qui structure ce dialogue ordonnera une large part de la réflexion épistémologique ultérieure, en fixant les termes mêmes dans lesquels la problématique de la connaissance sera posée jusqu'à l'époque contemporaine.[2] À travers un échange entre Socrate et le jeune mathématicien Théétète, Platon examine successivement plusieurs définitions de la connaissance, en montrant l'insuffisance constitutive de chacune d'elles, tout en accumulant progressivement les exigences que doit satisfaire une compréhension adéquate de ce phénomène.
L'insuffisance de la perception
[modifier | modifier le wikicode]Le dialogue progresse par élimination méthodique. Théétète propose d'abord que la connaissance s'identifie à la perception (aisthêsis). Cette première définition, bien qu'en apparence triviale, mérite une attention sérieuse, car elle établit un point de départ contre lequel toute théorie ultérieure de la connaissance devra se positionner.
Socrate procède à la réfutation de cette thèse selon trois axes argumentatifs distincts, chacun révélant un aspect différent de l'inadéquation de la perception comme critère de la connaissance.
La vulnérabilité de la perception aux apparences trompeuses
Le premier argument porte sur la fiabilité de la perception. Les phénomènes perceptifs sont susceptibles d'induire en erreur. Un bâton immergé dans l'eau paraît brisé, bien qu'il demeure intact. Les images réfléchies par un miroir semblent se situer dans le miroir lui-même, alors qu'elles ne sont que des reflets. Les objets éloignés paraissent plus petits que les objets proches, bien que leur grandeur réelle soit indépendante de la distance.
Cette susceptibilité à l'illusion soulève une difficulté fondamentale : si la connaissance s'identifiait à la perception, alors l'illusion perceptive constituerait une forme de connaissance, ce qui est contradictoire. Par définition, la connaissance ne peut être fausse : c'est une condition sine qua non de la connaissance que d'être conforme à la réalité. L'illusion, au contraire, nous trompe. Dès lors, si nous reconnaissons que nous pouvons être abusés par la perception, nous devons admettre que la perception seule — la simple saisie immédiate par les sens — ne constitue pas la connaissance.[3]
L'inaccessibilité perceptive des entités universelles et abstraites
Le second argument a une portée métaphysique plus profonde. Il existe une classe de réalités que nous affirmons connaître sans pour autant les percevoir directement : les propriétés universelles et abstraites. La justice, la beauté, le nombre, l'égalité — ces entités ne sont pas susceptibles d'être saisies par les sens. On peut certes percevoir des actes justes ou injustes, des objets beaux ou laids, des collections de trois pommes ou de trois pierres. Mais on ne perçoit jamais la justice en elle-même, la beauté en elle-même, ou le nombre trois pris indépendamment de toute instanciation matérielle.
Or nous affirmons communément que nous connaissons ces réalités abstraites. Un géomètre connaît les propriétés des triangles, non par perception sensorielle, mais par raisonnement et démonstration. Un législateur, ou un philosophe politique, prétend connaître ce qu'est la justice, non par simple observation d'actes particuliers, mais par compréhension de principes universels qui les régissent.
Si la connaissance était identique à la perception, ces affirmations seraient dépourvues de sens. Pourtant, elles expriment une conviction profondément ancrée dans notre pratique cognitive ordinaire. Il faut donc reconnaître que la perception ne peut être le critère exhaustif de la connaissance.
L'instabilité ontologique de l'objet perçu
Le troisième argument concerne le statut ontologique de ce qui est perçu. Les objets de la perception sont soumis au changement perpétuel (panta rhei, « tout s'écoule »). La rose que vous contemplez aujourd'hui sera fanée demain. La jeunesse cède à la vieillesse. Les cités se transforment avec le temps.
Or la connaissance semble porter sur quelque chose de stable, d'immuable. Les vérités géométriques demeurent identiques à elles-mêmes. Les propriétés mathématiques ne changent pas. Même si tous les triangles concrets venaient à disparaître, les théorèmes de géométrie resteraient vrais.
Comment la perception, qui ne nous met en rapport qu'avec l'éphémère et le mutable, pourrait-elle nous donner accès à ce qui est permanent et intelligible ? Socrate illustre cette difficulté par une remarque significative : un enfant peut très bien voir des figures géométriques sans pour autant savoir ce qu'est la géométrie. Le propre de la connaissance, contrairement à la simple perception, est de saisir l'universel dans le particulier, le stable dans le changeant, le principe à travers ses instanciations singulières.
L'insuffisance de la croyance vraie
[modifier | modifier le wikicode]Confronté aux difficultés de sa première proposition, Théétète en formule une seconde, plus élaborée : la connaissance consiste en une croyance vraie (doxa alêthês). Cette définition représente un progrès conceptuel appréciable, en ce qu'elle reconnaît que la connaissance implique un jugement — une prise de position mentale quant à l'état du monde — tout en exigeant que ce jugement soit objectivement conforme à la réalité.
Socrate identifie cependant un défaut majeur dans cette formulation, qui le conduit à soulever une question d'une acuité remarquable : « Comment comprendre la possibilité de l'erreur ? »[4]
Le problème peut être énoncé ainsi : la définition de la connaissance comme croyance vraie suppose que deux états doxastiques distincts — posséder la vérité et être dans l'erreur — relèvent tous deux du même genre, la croyance. Mais comment un même sujet peut-il, à propos d'un même domaine, croire le vrai et croire le faux ? Comment la fausseté et la vérité peuvent-elles toutes deux se présenter sous la forme de croyances ?
Socrate éclaire ce problème au moyen d'un exemple judiciaire particulièrement instructif : celui d'un jury persuadé par une argumentation mensongère mais extraordinairement convaincante. Imaginons que les jurés croient sincèrement qu'un accusé est innocent, en fondant leur conviction sur un témoignage faux mais apparemment irréfutable. Or l'accusé est en réalité innocent — de sorte que la croyance des jurés, bien qu'elle repose sur un témoignage mensonger, coïncide accidentellement avec la réalité.[5]
Nous nous trouvons ici devant une situation épistémiquement étrange : les jurés possèdent à proprement parler une croyance vraie — leur jugement correspond à l'état de fait réel. Pourtant, nous hésitons à dire qu'ils savent que l'accusé est innocent. Ils ont simplement bénéficié d'une coïncidence heureuse. Leur conviction vraie demeure dépourvue de véritable valeur épistémique, car elle repose sur des raisons inappropriées, sur une justification défectueuse ou trompeuse.
Cet exemple met en lumière l'insuffisance structurelle de la définition « croyance vraie ». Il existe des cas où une croyance possède bien le prédicat de vérité sans pour autant mériter le statut de connaissance — en particulier lorsque la vérité de la croyance est due au hasard, ou lorsqu'elle n'est pas née d'un lien correct entre la réalité et les raisons qui la soutiennent.
La condition de logos : vers la connaissance comme croyance vraie justifiée
[modifier | modifier le wikicode]Théétète, ayant reconnu l'insuffisance de la croyance vraie, propose une troisième définition, sensiblement plus sophistiquée : la connaissance est une croyance vraie accompagnée d'un logos (doxa alêthês meta logou). Cette formulation introduit un nouvel élément constitutif : l'exigence de justification ou de raison.
Le terme logos revêt, dans le contexte platonicien, une signification complexe et polyvalente. Il ne désigne pas simplement la parole (bien que ce soit une traduction possible), mais plutôt un ensemble d'exigences convergentes. Un logos, c'est d'abord une explication rationnelle, c'est-à-dire la capacité à rendre compte des raisons pour lesquelles les choses sont comme elles sont. C'est aussi une justification, l'ensemble des raisons ou des preuves qui soutiennent légitimement une affirmation. Le logos renvoie encore à un principe intelligible, la saisie du fondement ou de la cause d’une chose, et, plus largement, à une articulation conceptuelle, la capacité à distinguer, ordonner et relier les éléments d'un savoir.[6]
L'apport décisif de cette troisième définition est de reconnaître que la connaissance n'est pas une simple possession passive de vérités, mais une compréhension active, capable de se justifier et de s'exposer. Savoir, ce n'est pas seulement croire quelque chose de vrai, c'est aussi pouvoir rendre raison de ce que l'on affirme — disposer de raisons appropriées qui fondent légitimement la croyance en question.
Portée historique et fécondité théorique
[modifier | modifier le wikicode]Cette troisième définition — la connaissance comme croyance vraie justifiée — établit un cadre théorique qui exercera une influence considérable sur la réflexion épistémologique occidentale. Elle cristallise trois exigences fondamentales :
1. L’exigence de vérité : la connaissance porte nécessairement sur ce qui est réel et vrai. Une croyance fausse, si sincère et fermement tenue soit-elle, ne constitue jamais une connaissance.
2. L’exigence de conviction mentale : la connaissance implique un engagement doxastique du sujet — une prise de position cognitive qui affirme, qui assume. La simple compréhension abstraite d'une proposition, dépourvue de croyance effective, ne suffit pas pour parler de connaissance au sens fort.
3. L’exigence de justification : la connaissance requiert un fondement rationnel approprié. Une croyance vraie par accident, dont la vérité résulte d'une coïncidence fortuite ou d'une chaîne causale inadéquate, ne mérite pas le statut de connaissance. La vérité doit être gagnée par le sujet, ancrée dans des raisons pertinentes.
Bien que Platon lui-même considère que cette définition demeure insuffisante — le Théétète se conclut en effet sur une aporia, une impasse théorique — cette tripartition de la connaissance en vérité, croyance et justification s'imposera comme un schéma directeur de la réflexion épistémologique, de la philosophie moderne (Descartes, Locke) jusqu'aux épistémologues analytiques contemporains, de Russell à nos jours. Ce n'est qu'en 1963, avec l'article devenu classique d'Edmund Gettier, que l'on montrera, à partir de contre-exemples subtils, que cette définition « platonicienne » de la connaissance comme croyance vraie justifiée ne fournit pas encore des conditions à la fois nécessaires et suffisantes de la connaissance, relançant ainsi dans un contexte philosophique transformé la question platonicienne d'origine : « Qu'est-ce que la connaissance ? »[7]
La remarquable persistance de cette question — posée avec une acuité inédite dans le Théétète — témoigne de la profondeur inépuisable de l'analyse platonicienne et de la fécondité durable de la grille de lecture qu'elle propose pour penser la connaissance : articulation de la vérité, de la croyance et du logos justificatif.
La structure tripartite : croyance, vérité, justification
[modifier | modifier le wikicode]À partir du XXe siècle, l’analyse tripartite de la connaissance (souvent désignée par l’acronyme JTB, pour Justified True Belief) s’impose, dans l’épistémologie analytique, comme le schéma de base.[8] On peut la formuler, dans sa version élémentaire, de la façon suivante :
S connaît que p si et seulement si :
- p est vrai (condition de vérité)
- S croit que p (condition de croyance)
- S est justifié(e) à croire que p (condition de justification)
Ces trois conditions sont tenues pour nécessaires et conjointement suffisantes pour qu’il y ait connaissance : si l’une manque, il n’y a pas connaissance ; si les trois sont satisfaites, on considère que S sait que p.[9]
Il faut toutefois signaler une précision historique. Présenté dans cette forme canonique, le schéma JTB n’a pas été proposé explicitement comme « définition traditionnelle » par les grands épistémologues antérieurs à Gettier. Descartes, Kant, Russell et d’autres défendent plutôt l’idée que la connaissance exige une forme de certitude : non pas une justification quelconque, mais une justification censée exclure, en droit, la possibilité de l’erreur.[10] Ce n’est qu’après la publication, en 1963, du bref article d’Edmund Gettier critiquant l’analyse tripartite, que l’on a commencé à qualifier rétrospectivement ce schéma de « définition traditionnelle » de la connaissance.
La condition de vérité
[modifier | modifier le wikicode]La première condition énonce que l’on ne peut connaître que ce qui est vrai. Si je crois que Paris est la capitale de la Belgique, ma croyance est fausse ; quelle que soit par ailleurs ma sincérité, la force de ma conviction ou la cohérence de mes autres croyances, elle ne peut valoir comme connaissance.[11] On rencontre ici une asymétrie nette : une croyance peut être vraie sans être une connaissance (parce qu’elle est vraie par chance ou pour des raisons insuffisantes), mais aucune connaissance ne peut être fausse.
Cette exigence, apparemment évidente, ouvre sur des questions philosophiques importantes. Qu’est-ce qui fait qu’une proposition est vraie ? Dans quelles conditions une croyance peut-elle être dite « conforme à la réalité » ?[12] Les différentes théories de la vérité — théories de la correspondance, de la cohérence, conceptions pragmatistes ou déflationnistes — proposent des analyses divergentes du rapport entre croyance et monde.[13] Dans le cadre de l’analyse JTB, on adopte en général une position minimale : on suppose que la vérité est une propriété objective des propositions, indépendante de ce que nous en pensons ; certaines propositions sont vraies, d’autres fausses, et cette différence ne dépend ni de notre assentiment ni de notre ignorance.
La condition de croyance
[modifier | modifier le wikicode]La seconde condition affirme que la connaissance implique la croyance. On ne peut pas connaître une proposition à laquelle on ne croit pas. Dire : « Je sais que p, mais je n’y crois pas » revient à se contredire.[14] La connaissance comporte donc au moins une croyance vraie, même si cela ne suffit pas à la constituer.
Le terme de croyance demande cependant à être précisé. On entend généralement par là une attitude propositionnelle : une manière pour un sujet de se rapporter à une proposition en la tenant pour vraie.[15] La croyance se distingue ainsi de l’espoir (où je souhaite que quelque chose soit vrai), du doute (où je suspends mon jugement) ou de l’hypothèse (où je considère provisoirement une proposition sans y adhérer pleinement).
Reste à savoir si l’on croit toujours « tout ou rien ». Dans l’analyse JTB, la croyance est supposée binaire : soit je crois que le ciel est bleu, soit je ne le crois pas. Or les sciences cognitives contemporaines et l’épistémologie formelle s’accordent à décrire nos états doxastiques comme des degrés de confiance disposés sur un continuum — les crédences : je peux être plus ou moins sûr que p.[16] Dans cette perspective, croire consiste à attribuer à p une certaine probabilité subjective. L’analyse classique adopte, par simplification, un modèle binaire. Ce choix oriente la réflexion vers la seule présence ou absence de croyance, et laisse en arrière-plan les variations de confiance et les révisions progressives que les approches bayésiennes prennent pour objet.
La condition de justification
[modifier | modifier le wikicode]La troisième condition est la plus délicate : la croyance doit être justifiée. Cela signifie qu’il existe des raisons suffisantes de tenir la proposition pour vraie, des raisons qui distinguent cette croyance d’une simple supposition accidentellement correcte.[17] Ces raisons peuvent être de types variés : observations empiriques, inférences déductives ou inductives, témoignages de sources jugées fiables, démonstrations mathématiques, arguments philosophiques, etc.
On peut rendre cette exigence plus concrète par deux exemples contrastés.
Dans le premier cas, Maria sort de chez elle et voit que le ciel est bleu. Sur la base de cette expérience perceptive, elle forme la croyance que le ciel est bleu. Cette croyance est vraie, Maria l’entretient effectivement, et elle paraît étayée par une perception ordinaire, non trompeuse, de son environnement. Il semble naturel de dire qu’elle sait que le ciel est bleu.[18]
Dans le second cas, Marco croit lui aussi que le ciel est bleu, mais sans l’avoir observé. Il lance une pièce de monnaie en décidant arbitrairement que « face = le ciel est bleu » et « pile = le ciel est noir ». La pièce tombe sur face, et il en conclut que le ciel est bleu. Sa croyance est vraie (le ciel est effectivement bleu ce jour-là), mais elle n’est nullement justifiée : le résultat d’un tirage à pile ou face ne fournit aucune raison pertinente de trancher une question météorologique.[19]
La justification trace ainsi une frontière nette : elle distingue les croyances vraies qui méritent le nom de connaissances (parce qu’elles reposent sur de bonnes raisons) des croyances vraies qui n’en sont pas (parce qu’elles ne sont vraies que par coïncidence). Dans le schéma JTB, cette troisième condition a précisément pour fonction d’exclure les cas où la vérité de la croyance serait purement fortuite.[20]
Reste à préciser ce qu’est une justification adéquate. Est-elle entièrement déterminée par des éléments internes à la perspective du sujet (des raisons auxquelles il a accès par réflexion) ou dépend-elle aussi de facteurs externes (la fiabilité effective de ses processus cognitifs, les conditions objectives dans lesquelles il forme ses croyances) ?[21] Cette interrogation conduit à l’opposition classique entre internalisme et externalisme en épistémologie, qui organise une grande partie des débats contemporains sur la justification.[22]
Problèmes et tensions de cette analyse
[modifier | modifier le wikicode]En dépit de sa transparence formelle, l’analyse JTB rencontre plusieurs difficultés sérieuses.
La première concerne la notion même de justification. Que signifie, de façon précise, « être justifié » ? À partir de quel niveau de soutien rationnel estime-t-on que les raisons sont suffisantes ?[23] Une croyance peut paraître très bien justifiée au sujet et se révéler néanmoins fausse (si, par exemple, un ami habituellement digne de confiance me trompe, ou si une source réputée sûre se trompe). Il apparaît ainsi que la justification ne garantit pas la vérité : elle peut toujours être remise en cause par de nouvelles informations ; on dit qu’elle est défaisable.[24] La justification doit donc être pensée comme un état révisable, soumis à correction.
La seconde difficulté tient à la régression justificative. Pour qu’une croyance soit justifiée, elle semble devoir s’appuyer sur d’autres croyances justifiées. Mais celles-ci renvoient à d’autres encore, et ainsi de suite.[25] On se heurte alors à ce que la tradition désigne sous le nom de trilemme d’Agrippa : ou bien l’on accepte une régression infinie (chaque croyance reposant sur une autre sans jamais atteindre de fondement ultime, ce qui paraît invivable pour un sujet fini), ou bien l’on admet une circularité (A est justifié par B, qui est justifié par A), ou bien l’on pose l’existence de croyances fondamentales qui seraient justifiées sans s’appuyer sur d’autres croyances.[26]
Ces trois issues correspondent à trois grandes familles de théories : le fondationnalisme (qui admet des croyances de base), le cohérentisme (qui fait dépendre la justification de la cohérence globale du système de croyances) et l’infinitisme (qui assume la régression sans fin).[27] Chacune de ces positions rencontre des objections précises, et aucune ne fait l’unanimité.[28]
Enfin, la nature même de la croyance et de la justification reste difficile à cerner. Sommes-nous simplement justifiés ou non, ou bien la justification se déploie-t-elle par degrés ? Si l’on admet des degrés de justification, à partir de quel seuil peut-on dire qu’une croyance justifiée constitue une connaissance ?[29] La formulation classique du JTB suppose en général des découpages binaires : croire ou ne pas croire, être justifié ou ne pas l’être. Une telle manière de trancher ne rend pas justice à la complexité de nos pratiques effectives de croyance, où interviennent des niveaux de confiance différenciés, des indices de poids inégal et des révisions successives.
Pertinence et fécondité persistantes
[modifier | modifier le wikicode]Malgré ces difficultés, l’analyse tripartite demeure au cœur de la réflexion épistémologique. Elle conserve cette place parce qu’elle isole un trait important de notre usage ordinaire du mot « savoir » : nous distinguons spontanément une croyance vraie due au hasard d’un savoir proprement dit, qui suppose à la fois l’adhésion du sujet, la vérité de ce qu’il affirme et l’existence de raisons appropriées.[30]
Cette analyse met aussi en évidence la fragilité de la connaissance face au doute sceptique. Si savoir revient à satisfaire ensemble les conditions de vérité, de croyance et de justification, il reste toujours envisageable que nous nous trompions sur l’un ou l’autre de ces aspects : nous pouvons nous méprendre sur les faits, mal évaluer ce que nous croyons réellement, ou surestimer la force de nos raisons.[31] Dans le cadre du JTB, aucune procédure logique ne met définitivement nos connaissances à l’abri d’une remise en question.
Surtout, le schéma JTB a servi de point d’ancrage à une grande part de l’épistémologie récente. Une large série de discussions se déploie à partir de lui : comment préciser la notion de justification ?[32] Faut-il la comprendre comme une propriété entièrement interne à la vie mentale du sujet, ou comme un état dépendant aussi de la fiabilité objective de ses mécanismes cognitifs ?[33] Les trois conditions sont-elles suffisantes, ou doit-on ajouter une quatrième exigence (absence de hasard, fiabilité, lien causal adéquat, etc.) pour éliminer les contre-exemples de type gettierien ?[34] Et l’absence d’une seule de ces trois conditions exclut-elle toujours toute connaissance ?
Ces questions ne relèvent pas d’un simple intérêt historique. Elles continuent d’ordonner une grande partie des recherches actuelles, et tant que l’on s’interrogera sur ce que signifie véritablement « savoir », l’analyse tripartite — fût-elle destinée à être corrigée — restera l’un des schémas conceptuels de référence.[35]
1.2 Le problème de Gettier et ses conséquences
[modifier | modifier le wikicode]L’article de 1963 : un tournant conceptuel
[modifier | modifier le wikicode]En 1963, Edmund Gettier publie dans la revue Analysis un article de trois pages intitulé Is Justified True Belief Knowledge ?[36] Ce texte, très court et d’allure modeste, entraîne pourtant une remise en cause profonde, au sein de l’épistémologie analytique, du schéma tripartite qui avait servi de cadre d’analyse de la connaissance pendant plusieurs décennies. Plus de soixante ans après sa parution, il demeure l’un des articles les plus commentés de la philosophie contemporaine et a donné lieu à une littérature secondaire considérable.
La thèse de Gettier est d’une grande simplicité, mais ses effets sont déstabilisants : les trois conditions de vérité, de croyance et de justification ne suffisent pas à définir la connaissance. Il existe des situations dans lesquelles un sujet remplit pleinement ces trois conditions sans pour autant savoir. Ces situations sont devenues familières sous le nom de Gettier cases, ou « cas de type Gettier ».[37]
Deux exemples initiaux de Gettier
[modifier | modifier le wikicode]Premier cas : l’emploi et les dix pièces
Smith et Jones ont tous deux posé leur candidature au même poste. Supposons que :
- le président de l’entreprise ait assuré à Smith que Jones serait retenu ;
- Smith ait compté les pièces de monnaie dans la poche de Jones et constaté qu’il y en a exactement dix.
À partir de ces deux informations, Smith infère, par un raisonnement apparemment irréprochable, la proposition suivante : « la personne qui obtiendra l’emploi a dix pièces dans sa poche ». La conclusion découle logiquement des prémisses, et celles-ci sont, pour Smith, très bien attestées. Il semble donc disposer d’une justification robuste pour cette croyance.
Imaginons maintenant que :
- contrairement à ce qu’a affirmé le président, ce soit en réalité Smith qui obtienne le poste ;
- Smith ait lui-même exactement dix pièces dans sa poche, sans en avoir conscience.
La proposition qu’il croit est pourtant vraie : la personne qui obtiendra l’emploi a bien dix pièces dans sa poche. Smith y croit, et il dispose de raisons qui, de son point de vue, la justifient. Toutefois, il est difficile de soutenir qu’il sait que la personne qui aura le poste possède dix pièces : sa croyance rencontre la vérité pour un motif tout à fait différent de celui sur lequel reposait sa justification. La coïncidence entre vérité et justification est ici largement fortuite.
Deuxième cas : la disjonction fortuite
Smith a de bonnes raisons de penser que Jones possède une voiture. En s’appuyant sur cette croyance, il infère plusieurs propositions disjonctives, par exemple :
- « Jones possède une Ford, ou bien Brown est à Barcelone » ;
- « Jones possède une Ford, ou bien Brown est à Brest-Litovsk » ;
- « Jones possède une Ford, ou bien Brown est à Prague ».
Du point de vue logique, ces inférences disjonctives sont correctes : si « Jones possède une Ford » est vraie, chacune des disjonctions l’est aussi. Smith se trouve donc, semble-t-il, pleinement justifié à accepter chacune de ces propositions.
Supposons maintenant que :
- Jones ne possède en réalité aucune voiture et ne conduit qu’un véhicule de location ;
- par une coïncidence indépendante du raisonnement de Smith, Brown se trouve effectivement à Barcelone.
La proposition « Jones possède une Ford, ou bien Brown est à Barcelone » est alors vraie, Smith y croit, et sa croyance lui paraît appuyée sur un raisonnement correct. Pourtant, il ne sait pas que cette proposition est vraie, puisque toute sa justification repose sur la prémisse erronée selon laquelle Jones possède une voiture.[38]
Nature du problème : le rôle de la chance épistémique
[modifier | modifier le wikicode]Dans ces deux exemples, la croyance vraie du sujet n’est vraie qu’en vertu d’un hasard favorable. Plus précisément, ce qui fait que la croyance est vraie n’est pas ce qui, du point de vue du sujet, la justifie. La vérité de la proposition et la justification dont se prévaut le sujet se trouvent jointes, mais sans relation épistémique pertinente entre elles.
On met ainsi au jour une exigence supplémentaire : pour qu’il y ait connaissance, il ne suffit pas que croyance, vérité et justification soient présentes ; il faut encore que l’accès du sujet à la vérité ne dépende pas de la chance. On ne peut pas dire qu’un sujet sait que p lorsqu’il croit une proposition vraie pour des raisons qui, en réalité, n’ont rien à voir avec ce qui rend cette proposition vraie.[39]
Linda Zagzebski, l’une des principales figures de l’épistémologie contemporaine, a mis en lumière une structure commune à un vaste ensemble de cas de type Gettier : la justification de la croyance repose sur au moins une prémisse fausse, tandis que la croyance elle-même se trouve vraie par effet indirect d’un enchaînement causal distinct.[40] La tension entre ce qui soutient la croyance et ce qui la rend vraie est au cœur du malaise épistémique que produisent ces cas.
Le cas des fausses granges : une variante instructive
[modifier | modifier le wikicode]Gettier n’avait proposé que deux exemples. D’autres philosophes ont prolongé sa démarche en construisant de nouvelles variantes. L’une des plus célèbres est le cas des fausses granges (fake barn case), introduit dans la littérature par Alvin Goldman et parfois associé à une remarque de Saul Kripke.
Le scénario est le suivant. Vous traversez en voiture une région où l’on a érigé de nombreuses « fausses granges » : des façades peintes en forme de grange, qui ne sont pas de véritables bâtiments. Il n’y a qu’une seule grange authentique dans cette région, qui a été récemment repeinte en rouge. Toutes les fausses granges ont une apparence assez semblable à distance. Vous regardez par la fenêtre et, par hasard, votre regard se pose sur la seule grange réelle ; vous formez alors la croyance : « voici une grange ».
Peut-on dire que vous savez qu’il y a une grange devant vous ? L’intuition la plus répandue est négative. Votre croyance est vraie, vous disposez d’une justification perceptive tout à fait ordinaire, mais vous vous trouvez dans un environnement trompeur : si votre regard s’était porté sur l’une des nombreuses façades, vous auriez formé la même croyance, qui aurait alors été fausse. Votre accès à la vérité dépend ici de la configuration accidentelle de la situation.
Ce cas souligne une dimension que les exemples de Gettier ne faisaient qu’esquisser : il ne suffit pas de considérer les raisons internes du sujet ; la structure de l’environnement épistémique importe aussi. Vous ignorez que la région est saturée de fausses granges – ignorance qui, si elle était levée, vous conduirait à suspendre votre jugement. Une information contextuelle cruciale manque à votre justification.[41]
Conséquences théoriques : la recherche d’une condition supplémentaire
[modifier | modifier le wikicode]Le problème de Gettier a conduit les épistémologues à modifier le schéma tripartite plutôt qu’à l’abandonner purement et simplement. Si les trois conditions ne suffisent pas, quelle exigence supplémentaire faut-il introduire ?
Une première famille de réponses est regroupée sous l’étiquette No False Lemmas. L’idée, dans l’une de ses versions, est qu’une croyance vraie justifiée ne constitue une connaissance que si elle ne dépend pas, dans son argumentation essentielle, de prémisses fausses. Dans les cas de Gettier, la croyance de Smith serait ainsi disqualifiée, parce que son raisonnement s’appuie, de manière décisive, sur une croyance erronée. Reste à préciser ce qu’il faut entendre par « dépendre » : toute prémisse fausse intervenant à quelque niveau que ce soit invalide-t-elle la justification, ou seulement les prémisses fausses qui jouent un rôle central dans l’argument ?[42]
Une seconde stratégie est l’approche causale d’Alvin Goldman : une croyance vraie constitue une connaissance si, et seulement si, elle est reliée de façon causale appropriée au fait qui la rend vraie. Dans le premier cas de Gettier, la croyance de Smith n’est pas produite par le fait que lui-même possède dix pièces ; elle résulte d’un enchaînement causal qui passe par une information fausse concernant Jones. La croyance n’est donc pas reliée comme il faut à la réalité. Cependant, cette approche se heurte à des cas comme celui des fausses granges, où la croyance perceptive est bien causée par la grange réelle, mais où l’environnement rend malgré tout douteux le statut de connaissance.[43]
Une troisième ligne de réponse est le modèle du tracking proposé par Robert Nozick. Pour qu’un sujet sache que p, il ne suffit pas qu’il ait une croyance vraie justifiée ; il faut encore que sa croyance « suive » la vérité à travers des situations proches. Nozick formule cela ainsi : si p était faux, le sujet ne croirait pas que p. Dans le cas des fausses granges, cette condition n’est pas satisfaite : dans des mondes voisins où vous regardez une façade, vous croiriez tout de même qu’il y a une grange. Votre croyance ne varie pas de façon adéquate avec la vérité.[44]
Aucune de ces propositions ne fait consensus. Chacune éclaire une dimension réelle du phénomène, mais se heurte à son tour à des contre-exemples. Le problème mis en évidence par Gettier apparaît ainsi comme remarquablement résistant.[45]
L’impact épistémologique : un champ reconfiguré
[modifier | modifier le wikicode]L’effet du problème de Gettier ne se limite pas à l’ajout d’une difficulté ponctuelle. Il a contribué à redessiner l’ensemble du champ épistémologique.
D’abord, il a montré que la notion de connaissance ne peut pas être traitée comme un simple objet de définition terminologique. La question « qu’est-ce que connaître ? » exige une enquête fine sur les situations concrètes dans lesquelles nous accordons ou refusons le statut de savoir. L’ampleur de la littérature consacrée aux cas de type Gettier témoigne de ce déplacement : la réflexion se concentre sur la structure des exemples et sur la manière dont nos jugements réagissent à leurs variations.
Ensuite, ces discussions ont souligné que l’analyse conceptuelle doit être confrontée à des contre-exemples construits avec soin. Il ne suffit pas de proposer une définition a priori de la connaissance ; il faut examiner systématiquement si cette définition résiste à des cas imaginaires qui la mettent à l’épreuve.[46]
Enfin, le problème de Gettier a encouragé plusieurs réorientations majeures : certains ont renoncé à l’espoir de formuler une analyse nécessaire et suffisante de la connaissance ; d’autres ont privilégié l’épistémologie des vertus, les théories de type tracking, diverses formes d’externalisme ou des approches contextualistes. Ces courants ont en commun de prendre au sérieux les limites du modèle tripartite et de chercher à mieux intégrer la dimension du hasard épistémique.[47]
Débat actuel : portée et légitimité du problème
[modifier | modifier le wikicode]On pourrait penser que, après plusieurs décennies de travail, le problème de Gettier a trouvé une solution stabilisée. Il n’en est rien. Une partie de la discussion contemporaine porte même sur la légitimité des intuitions qui soutiennent les jugements initiaux sur ces cas.
Duncan Pritchard, notamment, a développé une épistémologie anti-chance qui insiste sur l’idée que la connaissance exclut une certaine forme de hasard défavorable (epistemic luck) susceptible de priver un sujet de la maîtrise de ses croyances. Tim Williamson, de son côté, a proposé que la connaissance soit prise comme notion primitive, irréductible à la combinaison d’une croyance et de conditions supplémentaires : la structure même du schéma JTB, centré sur la croyance, pourrait alors être inadaptée pour saisir ce qu’est savoir.[48]
Parallèlement, des travaux en psychologie cognitive ont mis en évidence des variations significatives dans les jugements portés sur les cas de type Gettier selon les contextes culturels ou les groupes de sujets. Certains y ont vu une raison de s’interroger sur la stabilité et la fiabilité de nos intuitions ordinaires concernant la connaissance : peuvent-elles encore servir de critère pour départager les théories ?[49]
Malgré ces interrogations, plusieurs points de convergence apparaissent : (1) l’article de Gettier met effectivement en lumière une insuffisance du schéma « croyance vraie justifiée » ; (2) les cas qu’il propose révèlent une dimension essentielle de la connaissance, à savoir la manière dont elle doit écarter certains effets du hasard ; (3) toute théorie contemporaine de la connaissance doit, d’une manière ou d’une autre, expliquer ce qui se passe dans les situations de type Gettier, même si elle choisit de reformuler le problème ou de contester certaines intuitions.[50]
À ce titre, le texte de 1963 conserve aujourd’hui encore une influence structurante. Il continue d’alimenter des désaccords substantiels, mais c’est précisément parce qu’il touche à des questions centrales sur le rapport entre justification, vérité et chance dans la connaissance.
1.3 Réponses au problème de Gettier
[modifier | modifier le wikicode]Introduction : la diversité des stratégies
[modifier | modifier le wikicode]Depuis 1963, les épistémologues ont proposé des réponses nombreuses et divergentes au problème de Gettier. Ces réponses ne se laissent pas organiser selon un principe unique. Certaines cherchent à adjoindre une quatrième condition aux trois conditions classiques. D'autres réexaminent et redéfinissent ces trois conditions elles-mêmes. D'autres enfin contestent l'hypothèse même selon laquelle la connaissance devrait faire l'objet d'une analyse définitionnelle en termes de conditions nécessaires et suffisantes. Cette pluralité témoigne de la profondeur du problème : aucun consensus ne s'est imposé sur la manière la plus adéquate de le traiter.[51]
La stratégie des conditions supplémentaires
[modifier | modifier le wikicode]L'approche par les défaiteurs (Lehrer, Pollock)
Une première réponse à Gettier s'appuie sur l'idée que la justification doit être non défaite : elle doit demeurer intacte face aux informations susceptibles de l'annuler ou de l'affaiblir. On appelle défaiteur une proposition vraie qui, si le sujet en prenait connaissance, anéantirait ou affaiblirait de façon décisive la justification de sa croyance initiale.[52]
Considérons d'abord ce qu'est un défaiteur de manière abstraite. Supposons que vous êtes justifié de croire une proposition P sur la base d'un ensemble de prémisses. Un défaiteur pour votre justification est une proposition Q (vraie) qui possède cette propriété : si vous la croyiez, cet ajout suffirait à annuler ou à gravement affaiblir votre justification de P. En d'autres termes, Q est incompatible avec le maintien de votre justification antérieure.
Dans l'exemple classique de Smith et Jones, considérons les différents défaiteurs potentiels :
1. Un défaiteur de premier ordre serait : « le président a trompé Smith : Jones n'obtiendra pas l'emploi ». Si Smith savait cela, il ne pourrait plus légitimement soutenir que la personne qui obtiendra l'emploi possède dix pièces dans sa poche, puisque sa conclusion reposait sur la prémisse que Jones obtiendrait le poste.
2. Mais il existe aussi un défaiteur de second ordre, que Lehrer appelle un défaiteur du défaiteur : c'est une proposition vraie qui, bien que rendant fausse la croyance du sujet, demeurerait ignorée du sujet. Par exemple : « Smith possède lui-même dix pièces dans sa poche ». Cette proposition est vraie, mais son existence ne suffit pas à détruire la justification initiale de Smith pour croire que la personne qui obtiendra l'emploi possède dix pièces.
C'est précisément sur ce point que la théorie des défaiteurs se complexifie. Lehrer et Paxson proposent une distinction entre les défaiteurs proprement dits (qui annulent la justification si le sujet en prenait connaissance) et les propositions qui rendent fausse la croyance (qui peuvent être vraies sans pour autant détruire la justification).
L'idée motrice est la suivante : pour qu'une croyance vraie et justifiée constitue une connaissance, il ne suffit pas qu'elle soit vraie, justifiée, et qu'aucun défaiteur inconnu du sujet ne la rende inexplicablement vraie. Il faut également qu'il n'existe pas de défaiteur vrai de la justification : en d'autres termes, toute information qui annulerait la justification doit être connue du sujet ou intégrée à son système de croyances de manière appropriée.[53]
Cette approche possède un attrait intuitif considérable. Elle rend compte de la raison pour laquelle, dans les cas de Gettier, le sujet n'a pas de connaissance : sa justification est vulnérable à une information vraie dont il ignore l'existence. En l'absence d'information qui annulerait sa justification, il pourrait affirmer connaître ; mais du moment que cette information existe (même s'il l'ignore), son statut épistémique en est compromis.
Cependant, l'approche par les défaiteurs se heurte à plusieurs difficultés sérieuses, qui ont alimenté un large corpus de critiques.
Premièrement, la question de l'identification des défaiteurs. Comment déterminer avec précision quelles propositions doivent être comptées comme de véritables défaiteurs ? Faut-il considérer toute proposition vraie qui pourrait, en principe, annuler la justification ? Une telle condition serait excessivement stricte. Imaginez que vous êtes justifié de croire que « Marie viendra à la réunion » parce qu'elle vous l'a promise. Une infinité de propositions vraies « annulerait » cette justification en un sens : « Marie a changé d'avis », « Marie a eu un accident », « Marie a reçu un appel urgent », et ainsi de suite. Faudrait-il que vous ignoriez chacune de ces propositions pour que votre croyance constituât une connaissance ?
Deuxièmement, il se pose la question de la pertinence des défaiteurs. Faut-il retenir que les défaiteurs pertinents, c'est-à-dire ceux qui ont un lien sémantique ou logique direct avec la croyance et sa justification ? Mais selon quels critères établir cette pertinence ? La pertinence est-elle une notion objective ou relative au contexte ? Lehrer lui-même a reconnu cette difficulté et a proposé diverses reformulations, cherchant à préciser ce qui distingue un défaiteur effectivement pertinent d'une proposition qui, bien que vraie et capable d'annuler la justification en un sens large, n'a aucune pertinence épistémique réelle.
Troisièmement, il existe une tension entre deux conceptions de la justification chez les tenants de cette approche. Certains soutiennent que la justification est intrinsèquement liée à ce que le sujet connaît ou croit : c'est une notion internaliste, qui ne dépend que des états mentaux du sujet. D'autres affirment que la justification dépend aussi de faits externes, notamment de l'existence de défaiteurs dans le monde réel. Cette seconde conception rend la justification dépendante de l'environnement, ce qui transforme l'approche en une forme d'externalisme.
Quatrièmement, les critiques ont soulevé le problème de la régression infinie des défaiteurs. Si l'absence d'un défaiteur vrai est requise pour la connaissance, comment éviter une régression ? Car pour tout défaiteur Q qui pourrait annuler une justification, on peut imaginer un défaiteur du défaiteur (une proposition R qui, si elle était vraie et connue, annulerait l'effet annulant de Q). Cette régression potentiellement infinie semble rendre la condition impraticable.[54]
Enfin, l'approche par les défaiteurs a été critiquée pour son incapacité à traiter certains cas complexes. Considérez le cas des fausses granges : vous voyez une grange réelle dans une région remplie de façades de granges. Quel est le défaiteur pertinent ? Est-ce simplement « cette région contient de nombreuses fausses granges » ? Mais vous pouvez voir la grange effectivement, et votre justification perceptive directe semble robuste. Le défaiteur « il existe d'autres fausses granges ailleurs » ne paraît pas logiquement connecté à votre justification de manière évidente. Cela suggère que la notion de défaiteur elle-même peut manquer de clarté dans des contextes non standard.
Malgré ces difficultés, l'approche par les défaiteurs a exercé une influence durable sur la théorie de la connaissance. Elle a inspiré d'autres formulations, notamment la théorie de la défaisabilité en général, selon laquelle une croyance justifiée ne constitue une connaissance que si elle n'est pas susceptible d'être défaite par l'acquisition d'informations nouvelles. Et elle a mis en lumière l'idée que l'absence d'informations pertinentes qui invalideraient la justification joue un rôle crucial dans la détermination du statut épistémique d'une croyance.
La condition de sécurité (Sosa)
Ernest Sosa a proposé, en alternative à la condition de suivi de Nozick, une condition de sécurité. Cette proposition émerge d'une réflexion critique sur les insuffisances de l'approche de Nozick et offre une caractérisation nouvelle de ce qui distingue la connaissance de la simple croyance vraie justifiée.[55]
Pour bien comprendre la condition de sécurité, il convient d'abord de l'opposer à la condition de sensitivité proposée par Robert Nozick. La sensitivité exige que, si la proposition était fausse, le sujet ne la croirait pas. Formulée en termes modaux : nécessairement, si P était faux, S ne croirait pas que P. Autrement dit, la croyance du sujet « suit » ou « épouse » la vérité de la proposition : sa croyance varie en fonction de la vérité de ce qu'elle porte sur.
La sécurité, par contraste, exige quelque chose de différent : qu'il ne soit pas facilement possible que le sujet croie cette proposition alors qu'elle serait fausse. Ou, formulé positivement : dans tous les mondes possibles suffisamment proches du monde actuel, où le sujet emploie la même méthode pour former sa croyance, cette croyance demeure vraie. La sécurité concerne donc non pas la sensitivité à la fausseté contrefactuelle, mais plutôt la robustesse de la méthode de formation de croyance dans les circonstances qui ressemblent à celle où le sujet se trouve actuellement.
Pour illustrer cette distinction, considérons le cas des fausses granges. Vous voyez une vraie grange dans une région remplie de façades. Votre croyance « c'est une grange » est vraie, et elle provient de la perception visuelle, qui est une méthode ordinairement fiable. Appliquons les deux conditions :
La sensitivité : Si cette structure n'était pas une vraie grange (si c'était une façade), ne la croiriez-vous pas ? Réponse : probablement si. Vous seriez trompé par l'apparence, tout comme vous l'auriez été si vous aviez regardé une autre façade. Votre croyance n'est donc pas sensitive à la fausseté : elle aurait pu être fausse sans que vous le sentiez. La sensitivité échoue donc dans ce cas.
La sécurité : Dans tous les mondes voisins où vous employez la même méthode (la perception visuelle) et où vous regardez une structure dans cette région, cette structure est-elle une vraie grange ? Non : dans beaucoup de mondes voisins, vous apercevriez une façade, et votre croyance serait fausse. La sécurité échoue aussi.
Cependant, considérons maintenant un cas différent : vous voyez votre ami Pierre assis à côté de vous dans une pièce bien éclairée. Votre croyance « Pierre est assis à côté de moi » est vraie et provient de la perception directe.
La sensitivité : Si Pierre n'était pas réellement là, ne le croiriez-vous pas ? Il est hautement probable que non : les circonstances sont normales, votre perception est directe et claire. La sensitivité réussit donc ici.
La sécurité : Dans tous les mondes voisins où vous employez la perception dans les mêmes conditions, Pierre est-il assis à côté de vous ? Oui, en règle générale : les mondes voisins où vous verriez quelqu'un assis à côté de vous dans ces circonstances normales sont des mondes où c'est effectivement Pierre. La sécurité réussit donc aussi.
Mais voici où la distinction devient philosophiquement cruciale. Considérez un cas d'illusion systématique : vous êtes dans un simulateur neuronal parfait, et on vous montre l'illusion d'une grange. Vous croyez « c'est une grange ».
La sensitivité : Si ce n'était pas une grange (ce qu'il n'est pas, puisque c'est une illusion), ne le croiriez-vous pas ? Malheureusement si : le simulateur continuerait à vous montrer exactement la même image. La sensitivité échoue.
La sécurité : Dans tous les mondes voisins où vous percevez une structure ressemblant exactement à une grange dans les mêmes conditions sensorielles internes, est-ce réellement une grange ? Non, probablement pas : vous pourriez être illusionné. Mais Sosa argurait que si l'on considère les mondes véritablement proches en termes de circonstances réelles, alors dans le monde actuel où vous êtes dans un simulateur, les mondes voisins sont aussi des mondes de simulateur, et votre croyance y demeure vraie (il y a une grange dans votre expérience simulée). La sécurité pourrait donc réussir, selon certaines formulations.
C'est précisément la raison pour laquelle Sosa préfère la sécurité à la sensitivité. Il argue que la sensitivité ne capture pas ce que nous cherchons vraiment à préserver dans notre notion de connaissance. Nous voulons que la croyance soit formée de telle sorte qu'elle soit sûre, c'est-à-dire qu'elle ne puisse pas facilement être fausse étant donné la méthode employée. Nous ne cherchons pas simplement à exclure la fausseté contrefactuelle globale.
Mais la distinction entre sensitivité et sécurité est subtile, et les deux conditions peuvent entrer en conflit ou converger selon les cas considérés.
Considérons le cas d'un faux banc. Vous êtes dans un musée d'art moderne où certaines œuvres d'art sont des reproductions si convaincantes qu'elles sont indiscernables des originaux. Vous voyez un banc en bois massif et formez la croyance « c'est un banc ». Supposons que c'est un faux banc artistique, une sculpture si réaliste qu'elle ressemble exactement à un banc ordinaire, mais qui n'est pas réellement un banc (c'est une œuvre d'art abstraite).
La sensitivité échoue clairement : vous ne sauriez percevoir la différence, donc si c'était vraiment une fausse sculpture, vous y croiriez quand même.
La sécurité pose une question plus complexe : si vous employez la même méthode perceptive (la vision) dans les circonstances similaires du musée, obtenez-vous une croyance sûre ? Cela dépend de comment on modélise les « mondes voisins ». Si les mondes voisins incluent d'autres faux bancs dans le musée, votre croyance pourrait être fausse. Mais si les mondes voisins sont suffisamment restreints aux seuls cas où vous percevez exactement la même chose, la croyance demeure vraie dans ces mondes.
Cette ambiguïté révèle une tension fondamentale : la condition de sécurité, tout comme celle de sensitivité, dépend de la manière dont on caractérise les mondes possibles proches. Faut-il les définir en termes d'apparence sensorielle ? En termes de faits environnementaux ? En termes de fiabilité des processus cognitifs ? Selon le choix qu'on fait, la sécurité peut être satisfaite ou non.
Sosa défend néanmoins l'idée que la sécurité rend mieux compte que la sensitivité de nos intuitions ordinaires sur plusieurs points décisifs. Premièrement, dans le cas du scepticisme radical (simulateur neuronal parfait), la sécurité permet de dire que nous ne savons pas que nous ne sommes pas dans le simulateur, car il n'est pas sûr que nous ne le soyons pas — mais cela n'invalide pas notre connaissance ordinaire du monde tel que nous le vivons. Deuxièmement, la sécurité capture mieux l'idée que la connaissance requiert une certaine stabilité ou fiabilité de la méthode : tant que la méthode est sûre dans le contexte où elle s'exerce, la croyance peut compter comme connaissance.[56]
Cependant, la condition de sécurité a aussi suscité des critiques sérieuses. Certains ont soutenu qu'elle est trop permissive : elle semble permettre des cas où l'on ne voudrait pas dire qu'il y a connaissance. D'autres ont argumenté qu'elle est trop restrictive dans d'autres contextes. En particulier, la dépendance de la sécurité envers la notion de mondes proches rend la condition vulnérable aux mêmes difficultés que la sensitivité : la notion même de proximité modale reste contestée et ambiguë.[57]
Malgré ces difficultés, la condition de sécurité demeure une contribution importante à la théorie de la connaissance post-gettierienne. Elle a inspiré d'autres approches, notamment l'épistémologie anti-hasard de Duncan Pritchard, qui intègre l'idée de sécurité dans une théorie plus large de l'exclusion du hasard épistémique. Et elle continue de structurer les débats contemporains sur ce qui distingue la connaissance de la simple croyance vraie justifiée.
Internalismes et externalismes
[modifier | modifier le wikicode]La ligne de partage fondamentale
Une autre manière de répondre à Gettier consiste à distinguer selon que la justification relève uniquement de facteurs internes au sujet ou dépend aussi de facteurs externes.
L'internalisme soutient que seuls des éléments internes au sujet — ses états mentaux, ses croyances, ses expériences conscientes — déterminent si une croyance est justifiée. Dans une version stricte, l'internalisme affirme que deux sujets ayant des états mentaux identiques disposent du même degré de justification pour leurs croyances respectives.
L'externalisme refuse cette limitation. Pour l'externaliste, la justification dépend également de faits externes : la fiabilité effective des processus de formation des croyances, les relations causales appropriées entre le sujet et le monde, ou encore des caractéristiques objectives de l'environnement cognitif.[58]
Application au problème de Gettier
Les internalistes ont tendance à soutenir que, dans les cas de Gettier, Smith ne dispose pas, en réalité, d'une justification pleinement suffisante : même si ses prémisses lui paraissent solidement établies et si son raisonnement est valide, il lui manque, du point de vue interne, un élément qui distinguerait une véritable justification d'une simple apparence de justification.
Les externalistes, à l'inverse, peuvent admettre que Smith possède une justification interne satisfaisante au sens internaliste, mais affirmer qu'une condition externe fait défaut : sa croyance ne s'enracine pas de manière adéquate dans le fait qui la rend vraie, ou elle n'est pas produite par une faculté cognitive effectivement fiable dans la situation considérée.[59]
L'approche par la fiabilité (fiabilisme)
[modifier | modifier le wikicode]Le fiabilisme d'Alvin Goldman propose une reformulation nette de la justification : une croyance est justifiée si, et seulement si, elle résulte d'un processus de formation des croyances fiable, c'est-à-dire d'un processus qui, en règle générale, produit des croyances vraies plutôt que des croyances fausses.
Dans les cas de Gettier, Smith emploie bien un certain type d'inférence déductive, qui s'avère généralement fiable lorsque les prémisses sont vraies. Mais, dans son cas, l'une des prémisses est fausse. Si l'on décrit le processus de manière plus fine — par exemple : « tirer une conclusion à partir d'un ensemble de prémisses parmi lesquelles figure une fausse croyance constitutive » — ce processus n'est plus fiable ; la croyance de Smith n'est vraie qu'accidentellement. Le fiabiliste en conclut que Smith ne sait pas, bien que sa croyance soit vraie et justifiée au sens ordinaire.
L'avantage du fiabilisme tient à sa simplicité : il propose un principe unique pour rendre compte du fait que les cas de Gettier ne donnent pas lieu à la connaissance. Son point faible réside dans la difficulté de caractériser avec précision les processus de formation des croyances : à quel niveau de généralité faut-il les décrire ? Un processus formulé de manière très générale (par exemple « perception visuelle ») peut être globalement fiable, alors que ce même processus décrit de façon plus spécifique (« perception visuelle dans une région remplie de fausses granges ») cessera de l'être.[60]
L'épistémologie des vertus
[modifier | modifier le wikicode]Le tournant anthropologique en épistémologie
[modifier | modifier le wikicode]L'épistémologie des vertus, formulée systématiquement par Linda Zagzebski et Ernest Sosa à partir des années 1980, mais préfigurée dans les travaux antérieurs de Philippa Foot et d'Alasdair MacIntyre, opère un déplacement paradigmatique fondamental au sein de la théorie de la connaissance. Plutôt que de poursuivre la stratégie dominante consistant à adjoindre des conditions formelles supplémentaires à la tripartition classique (vérité, croyance, justification), l'épistémologie des vertus propose une refonte catégorique du questionnement épistémologique lui-même. Elle déplace l'accent de la structure logique de la croyance vers le caractère et les excellences cognitives du sujet connaissant.[61]
Ce changement de perspective s'enracine dans une critique profonde de l'approche analytique traditionnelle, laquelle aurait restreint la problématique épistémologique à des questions d'analyse conceptuelle, de conditions nécessaires et suffisantes, au détriment d'une compréhension plus riche et plus existentiellement significative de ce que signifie vraiment connaître. L'épistémologie des vertus réhabilite l'intuition antique — présente notamment dans la phronesis aristotélicienne — que la connaissance n'est pas une possession abstraite de vérités, mais une réalisation humaine, un accomplissement du sujet qui s'exerce et se cultive.
La conception zagzebskienne : la connaissance comme acte vertueux
[modifier | modifier le wikicode]Linda Zagzebski développe sa théorie autour de l'idée directrice suivante : la connaissance doit être analysée non comme un état doxastique satisfaisant à certaines conditions, mais comme un acte de vertu intellectuelle. Cette réorientation implique une transformation radicale du cadre analytique.
Redéfinition de la justification épistémique
Dans la conception zagzebskienne, la justification d'une croyance ne réside plus dans un ensemble de preuves ou de raisons objectivement disponibles, mais dans le caractère vertueux du processus cognitif qui a produit la croyance. Une croyance est justifiée, au sens de Zagzebski, lorsqu'elle procède de l'exercice d'une vertu intellectuelle — c'est-à-dire d'une disposition fiable et bien-orientée à bien user de ses facultés cognitives en vue de la vérité.
Cette conception introduit une asymétrie significative par rapport aux théories standards de la justification. Tandis que la théorie traditionnelle s'intéresse principalement à la structure logique de la justification (relations d'appui entre croyances, cohérence systémique, etc.), Zagzebski s'intéresse à la qualité morale du sujet connaissant. La question n'est plus : « Quelles conditions formelles la croyance doit-elle satisfaire ? », mais plutôt : « Quelles excellences cognitives le sujet a-t-il exercées pour parvenir à cette croyance ? »
Les vertus intellectuelles comme dispositions de caractère
Zagzebski établit une distinction fondamentale entre les vertus intellectuelles et les simples capacités cognitives. La mémoire, la perception, l'attention — ce sont des capacités naturelles que tous les humains possèdent à des degrés variables. Mais les vertus intellectuelles vont bien au-delà. Ce sont des excellences de caractère, c'est-à-dire des dispositions stables et cultivées qui reflètent une manière d'être, une orientation profonde de l'agent vers la vérité et vers la compréhension.
Zagzebski énumère et analyse plusieurs vertus intellectuelles majeures :
- L'humilité épistémique : la capacité à reconnaître les limites de son propre savoir, à admettre son faillibilité, à ne pas prétendre à une omniscience. Une personne intellectuellement humble ne surestime pas la portée de ses connaissances ; elle demeure consciente de la possibilité qu'elle se trompe.
- L'ouverture d'esprit : la disposition à considérer sérieusement des perspectives divergentes, à résister à la fermeture dogmatique, à accueillir les défis à ses convictions établies sans hostilité préalable.
- Le courage intellectuel : la volonté d'explorer des questions difficiles malgré le risque de se tromper ou de rencontrer des résistances sociales. Le courage intellectuel s'oppose à la lâcheté cognitive — cette tendance à éviter les questions inconfortables ou à accepter des réponses faciles.
- La persévérance dans l'enquête : la constance et la détermination dans la poursuite de la compréhension, même lorsque les obstacles sont considérables et que les résultats demeurent incertains. Cette vertu s'oppose à l'impulsivité et à l'abandon prématuré.
- La vigilance critique : l'attention soutenue au screening des mauvais raisonnements, à la détection des sophismes et des biais, à l'évaluation rigoureuse des preuves.
- L'intégrité intellectuelle ou honnêteté : le refus de la malhonnêteté cognitive, c'est-à-dire la volonté de ne pas manipuler les preuves, de ne pas ignorer délibérément les considérations pertinentes, de rapporter fidèlement ce qu'on découvre.
Ces vertus ne sont pas des capacités naturelles avec lesquelles on naît. Ce sont des dispositions qu'on cultive, qu'on exerce, qui se renforcent par la pratique répétée. Tout comme le courage moral ou la générosité, les vertus intellectuelles s'acquièrent par l'habitude, par l'apprentissage, par un engagement prolongé envers l'excellence cognitive.
La structure formelle de la définition zagzebskienne
Zagzebski propose une définition analytique de la connaissance qui prend la forme suivante : S connaît que P si et seulement si la croyance vraie de S que P procède d'un exercice approprié d'une (ou plusieurs) vertus intellectuelle(s).[62]
Cette formulation repose sur trois éléments interdépendants :
- La croyance de S que P — l'état doxastique du sujet
- La vérité de P — la conformité de la croyance à la réalité
- L'exercice approprié d'une vertu intellectuelle — le processus cognitif vertueux qui a généré la croyance
L'innovation majeure réside dans le troisième élément. Tandis que les théories traditionnelles invoquent la justification comme condition de la connaissance (mais sans spécifier précisément en quoi elle consiste), Zagzebski propose de remplacer la justification par la vertu. Ce remplacement n'est pas purement verbal ; il induit une transformation conceptuelle profonde. La vertu n'est pas simplement une raison parmi d'autres pour croire P. C'est une excellente manière d'être, un engagement du sujet envers les normes épistémiques appropriées.
La conception sosienne : l'aptitude et la compétence
[modifier | modifier le wikicode]Ernest Sosa développe une approche parallèle mais distincte, qui met l'accent sur la notion d'aptitude (aptness) et de compétence cognitive. Pour Sosa, la connaissance est une croyance vraie formée avec aptitude — c'est-à-dire une croyance qui est vraie en vertu de la compétence qui l'a produite, et non par simple coïncidence.
La compétence intellectuelle comme vertu
Sosa conçoit la compétence intellectuelle de manière analogue à une compétence physique ou artistique. Tout comme un musicien talentueux exécute une partition de manière apte — c'est-à-dire excellente et appropriée à la tâche — un sujet épistémiquement compétent forme ses croyances de manière apte. L'appréciation de la compétence implique une référence à une norme d'excellence, à un étalon de bonne exécution.
La compétence intellectuelle, chez Sosa, n'est pas simplement une capacité mécanique. C'est une excellence de performance : la capacité à former des croyances vraies de manière fiable et répétée, dans une gamme appropriée de circonstances. Cette excellence repose sur une intériorisation des standards épistémiques pertinents et sur une sensibilité aux conditions qui favorisent ou entravent l'accès à la vérité.
Distinction entre le bonheur épistémique et l'accomplissement apte
Une distinction cruciale chez Sosa sépare ce qu'il appelle le succès (ou le bonheur) épistémique de l'accomplissement apte.[63]
Le succès épistémique consiste simplement à avoir une croyance vraie. C'est un résultat favorable, une coïncidence heureuse. Un sujet peut avoir du succès épistémique — sa croyance peut être vraie — sans que ce succès procède de sa compétence. C'est le cas paradigmatique dans les exemples de Gettier.
L'accomplissement apte, par contraste, se produit lorsque le succès (la vérité de la croyance) est causé de manière appropriée par l'exercice de la compétence du sujet. L'apte accomplissement constitue une forme d'excellence : ce n'est pas seulement qu'un but soit atteint, mais qu'il soit atteint bien, excellemment, de manière à refléter les compétences du sujet.
La connaissance, selon Sosa, est précisément cet accomplissement apte : une croyance vraie qui procède d'une compétence exercée de manière appropriée dans les circonstances.
Application aux cas de Gettier
[modifier | modifier le wikicode]L'épistémologie des vertus offre une réponse élégante et unifiée au problème de Gettier. Considérons à nouveau le cas de Smith et Jones.
Smith raisonne correctement sur le plan formel — son inférence obéit aux règles de la logique. Mais son raisonnement repose sur une croyance fausse, une prémisse qu'il n'a pas soumise à la critique appropriée. En d'autres termes, Smith n'a pas exercé la vigilance critique ou l'humilité épistémique qui caractérisent les vertus intellectuelles. Il a accepté l'affirmation du président sans la mettre suffisamment en question ; il a pris pour acquis que son inférence était solide sans exécuter la diligence cognitive requise.
De ce point de vue, le défaut dans la situation de Smith n'est pas d'ordre formel ou structural — ce n'est pas qu'une condition logique fait défaut. C'est que Smith n'a pas exercé les excellences intellectuelles appropriées. Sa croyance vraie n'est pas le fruit de sa vertu, mais le fruit du hasard. Elle résulte d'une coïncidence fortuite (la présence de dix pièces dans sa propre poche) qui neutralise l'inadéquation initiale de sa justification.
Une personne qui exercerait véritablement les vertus intellectuelles — qui serait humble, critique, vigilante, consciencieuse — ne se trouverait pas aisément dans une situation de type Gettier. Elle examinerait de près les prémisses ; elle serait consciente de la faillibilité des sources (même du président) ; elle résisterait à la tentation de conclure trop rapidement.
Avantages et enjeux de l'approche vertueuse
[modifier | modifier le wikicode]Avantages philosophiques
L'épistémologie des vertus présente plusieurs avantages significatifs.
Premièrement, elle restaure une connexion importante entre épistémologie et éthique. Savoir n'est pas une question technique isolée, mais une manifestation de l'excellence humaine. Les vertus intellectuelles sont des formes d'excellence du caractère, analogues à la bravoure ou à la générosité. Cette continuité entre l'éthique et l'épistémologie reflète une vision aristotélicienne selon laquelle la vérité, comme le bien, n'est pas simplement un objet à acquérir, mais le fruit d'une excellence qu'on cultive.
Deuxièmement, elle rend compte de l'intuition que la connaissance est méritoire ou creditworthy — digne de crédit. Attribuer une connaissance à quelqu'un, c'est reconnaître en lui une forme d'excellence, un accomplissement personnel. C'est très différent du fait d'une simple coïncidence heureuse. Cette approche capture le caractère personnel ou agentif de la connaissance : on connaît comme sujet responsable, en exerçant ses excellences cognitives.
Troisièmement, elle élargit le champ de l'analyse épistémologique. Au lieu de se restreindre à des questions de conditions formelles, l'épistémologie des vertus ouvre la réflexion vers des questions de développement moral et cognitif : comment cultive-t-on les vertus intellectuelles ? Quels rôles jouent l'éducation, l'expérience, la pratique ? Comment les défauts de caractère — l'arrogance, la paresse intellectuelle, le dogmatisme — entravent-ils l'accès à la connaissance ?
Difficultés et réserves critiques
Néanmoins, l'approche vertueuse rencontre des objections sérieuses.
La première concerne la clarté conceptuelle de la notion de vertu intellectuelle. Quels critères permettent d'identifier une vertu intellectuelle ? La liste proposée par Zagzebski (humilité, courage, persévérance, etc.) est-elle exhaustive ou simplement exemplaire ? Comment distinguer une vertu véritable d'une apparence de vertu ? Une personne peut sembler exhiber l'humilité tout en étant simplement apathique ou indifférente à la vérité.
La deuxième objection porte sur le caractère circulaire de la définition. Pour savoir si une croyance procède d'une vertu intellectuelle, faut-il d'abord savoir ce qu'est une vertu intellectuelle ? Et pour savoir cela, faut-il d'abord avoir une théorie de la connaissance ? Cette circularité, si elle est véritable, menacerait la prétention de l'épistémologie des vertus à offrir une analyse éclairante de la connaissance.
La troisième objection concerne la question du relativisme évaluatif. Si la connaissance repose sur l'exercice de vertus intellectuelles, et si les vertus intellectuelles sont en partie culturellement déterminées (c'est-à-dire si différentes cultures valorisent différentes excellences cognitives), ne risque-t-on pas de sombrer dans un relativisme qui nierait l'universalité des critères épistémiques ?[64]
La quatrième objection soulève le problème de la justification du lien entre vertu et connaissance. Pourquoi suppose-t-on que l'exercice d'une vertu intellectuelle garantit ou favorise l'accès à la vérité ? Une personne peut être courageux intellectuellement et néanmoins fortement errer. L'exercice d'une vertu ne semble pas logiquement implique l'atteinte de la vérité. Quel est donc le lien substantiel entre la vertu et la connaissance ?
Réception et développements ultérieurs
[modifier | modifier le wikicode]Malgré ces difficultés, l'épistémologie des vertus a exercé une influence croissante sur la réflexion épistémologique contemporaine. Elle a inspiré le développement de théories hybrides qui cherchent à intégrer les intuitions de l'approche vertueuse avec d'autres cadres théoriques — notamment l'épistémologie anti-hasard de Duncan Pritchard, qui conçoit la vertu comme une forme d'exclusion du hasard épistémique nuisible.
L'approche vertueuse a également stimulé une attention nouvelle aux questions d'épistémologie sociale : si les vertus intellectuelles sont culturellement situées et s'acquièrent par l'éducation et la pratique sociale, comment les structures de domination et les inégalités sociales affectent-elles le développement différencié de ces vertus ? Cette ouverture vers les questions de justice épistémique et d'équité cognitive constitue l'une des contributions majeures de l'épistémologie des vertus au débat actuel.
L'épistémologie anti-hasard de Pritchard
[modifier | modifier le wikicode]Le hasard épistémique
Duncan Pritchard a proposé une synthèse que l'on désigne comme une épistémologie anti-hasard. L'idée directrice est que la connaissance est une croyance vraie formée de telle sorte qu'elle ne soit pas affectée par certaines formes de hasard épistémique qui ôteraient au sujet un contrôle suffisant sur la vérité de ce qu'il croit.
Pritchard distingue notamment :
- un hasard de résultat : la croyance aurait facilement pu être fausse (c'est ce que la condition de sécurité vise à exclure) ;
- un hasard de formation : le processus cognitif effectivement suivi est inadéquat ou fragile ;
- un hasard environnemental : l'environnement est tel que, dans de nombreuses situations voisines, la même méthode conduirait à des croyances fausses (comme dans le cas des fausses granges).
Selon cette perspective, les cas de Gettier mettent au jour une forme déterminée de hasard épistémique : la conjonction fortuite de la justification et de la vérité, là où l'on attendrait que la justification conduise à la vérité d'une manière non contingente.[65]
L'approche contextualiste : variation des critères de connaissance
[modifier | modifier le wikicode]Certains épistémologues, en particulier parmi les contextualistes, soutiennent qu'il n'existe pas de réponse uniforme et définitive au problème de Gettier, parce que le prédicat savoir est contextuel. Ce que l'on admet légitimement comme connaissance varie selon les contextes d'énonciation et les exigences qui y sont tacitement présupposées.
Dans des contextes philosophiques exigeants, les critères de connaissance sont très stricts : dans un tel cadre, les cas de Gettier apparaissent comme des exemples clairs de non-connaissance. Dans des contextes ordinaires, où l'on tolère une certaine marge d'erreur possible, on pourrait être enclin à dire que Smith « sait », pour les besoins de la conversation, que la personne qui obtiendra l'emploi a dix pièces dans sa poche.
Le contextualisme rend ainsi compte de la variabilité de nos jugements ordinaires sur le savoir. Mais aux yeux de nombreux critiques, il laisse en suspens la question de savoir ce qu'est la connaissance indépendamment des fluctuations de contexte : il semble déplacer la question plutôt que d'y répondre frontalement.[66]
Bilan : la persistance du désaccord
[modifier | modifier le wikicode]Aucune des réponses proposées au problème de Gettier n'a recueilli un accord général. Chacune met en lumière une intuition légitime — le rôle des antiféatisants, l'importance de la fiabilité, la place de la compétence intellectuelle, l'influence de l'environnement, la variation contextuelle des critères — mais chacune se heurte à des objections précises. Après plus de soixante ans de discussions, le désaccord demeure profond.
Ce simple constat — la permanence du problème à travers les décennies — suggère que Gettier a mis au jour une difficulté véritable dans notre compréhension de la connaissance. Il se peut que la connaissance ne puisse pas être entièrement ramenée à un ensemble fini de conditions, qu'il s'agisse de trois, de quatre ou de davantage. Il se peut aussi que les intuitions que nous mobilisons devant les cas de type Gettier ne forment pas un ensemble parfaitement cohérent. Quoi qu'il en soit, la complexité conceptuelle révélée par ces cas continue de nourrir la réflexion épistémologique contemporaine.[67]
1.4 Connaissances non-propositionnelles
[modifier | modifier le wikicode]Au-delà des propositions
[modifier | modifier le wikicode]Tout ce qui précède s'est concentré sur la connaissance propositionnelle — la connaissance que quelque chose est le cas. Mais l'analyse standard de la connaissance présuppose une limitation importante : elle traite la connaissance comme une affaire de croyances vraies justifiées portant sur des propositions. Or plusieurs penseurs ont mis en question ce présupposé, en soutenant qu'il existe d'autres formes de connaissance — des connaissances qui ne se laissent pas réduire à des propositions.
Ces connaissances non-propositionnelles n'ont pas reçu autant d'attention philosophique que la connaissance propositionnelle. Pourtant, elles jouent un rôle central dans nos vies cognitives et dans nos activités pratiques quotidiennes. Ignorer ces formes de connaissance reviendrait à appauvrir considérablement notre compréhension de ce que c'est que connaître.
Connaître comment : le savoir-faire
[modifier | modifier le wikicode]Gilbert Ryle et la refondation de la théorie de la connaissance
[modifier | modifier le wikicode]La distinction entre knowing that et knowing how, formulée par Gilbert Ryle dans son article de 1945 intitulé Knowing How and Knowing That, constitue un tournant majeur dans l'histoire de l'épistémologie analytique.[68] Bien que cette distinction ne soit pas entièrement nouvelle — elle possède des antécédents dans la réflexion aristotélicienne, notamment la distinction entre sophia (sagesse théorique) et phronesis (sagacité pratique) — Ryle la reformule en termes modernes et l'inscrit au cœur de l'analyse philosophique du langage et de l'esprit.
La portée de l'article de Ryle s'étend bien au-delà de la simple catégorisation des formes de connaissance. Il s'agit d'une intervention critique dans la philosophie de l'esprit et du langage qui remet en question un présupposé fondamental de la tradition cartésienne : l'idée que toute compréhension repose ultimement sur des contenus mentaux explicites, des représentations cognitives articulées.
La connaissance-que : clarification et délimitation
Ryle désigne par knowing that la connaissance de propositions, c'est-à-dire la capacité à affirmer, à croire ou à reconnaître comme vraie une proposition portant sur l'état du monde. Cette forme de connaissance est caractérisée par sa structure linguistique : elle s'exprime sous la forme « Je sais que P », où P est une proposition dotée d'une valeur de vérité déterminée.
La connaissance-que revêt plusieurs caractéristiques saillantes. D'abord, elle est propositionnelle : elle porte sur des contenus qui peuvent être formulés explicitement en langage et dont on peut évaluer la vérité. Deuxièmement, elle est cognitive : elle implique une relation mentale à un contenu — une forme de compréhension ou de représentation. Troisièmement, elle est évaluable selon les critères de vérité et de fausseté : une connaissance-que peut être correcte ou erronée.
Les exemples paraissent triviaux : « Je sais que Paris est la capitale de la France », « Je sais que l'eau bout à 100°C au niveau de la mer », « Je sais que Socrate est le maître de Platon ». Mais cette trivialité apparente masque une complexité considérable. Savoir que P requiert non seulement de croire que P, mais également d'être justifié dans cette croyance et que P soit effectivement vrai — c'est l'analyse tripartite classique que nous avons examinée précédemment.
La connaissance-comment : une catégorie irréductible
À l'inverse, knowing how désigne une forme de connaissance fondamentalement différente. Elle s'exprime linguistiquement par la structure « Je sais comment faire X » ou « Je sais comment accomplir Y ». Mais cette similitude syntaxique superficielle ne doit pas nous égarer : la structure logique et ontologique de la connaissance-comment est radicalement distincte.
Ryle énumère de nombreux exemples de connaissance-comment : savoir comment jouer au tennis, savoir comment cuisiner un repas, savoir comment conduire une voiture, savoir comment danser la valse, savoir comment écrire élégamment, savoir comment convaincre un interlocuteur.[69] Dans chaque cas, la connaissance ne consiste pas en la possession d'une série de propositions — bien qu'elle puisse inclure une telle possession — mais plutôt en l'exercice d'une compétence, en la manifestation d'une habileté, en la capacité à accomplir intelligemment une action déterminée.
La réfutation rylienne de l'intellectualisme
[modifier | modifier le wikicode]Formulation et enjeu de la thèse intellectualiste
Ryle identifie et critique une position qu'il désigne sous le terme d'intellectualisme : la thèse selon laquelle toute forme de connaissance, y compris la connaissance-comment, se réduit ultimement à la connaissance-que. L'intellectualisme repose sur la conviction que la compréhension d'une action, la maîtrise d'une technique ou l'exercice d'une habileté revient fondamentalement à connaître une proposition appropriée.
Selon l'intellectualiste, apprendre à jouer au tennis consiste à acquérir la connaissance d'un ensemble de propositions : les règles du jeu, les principes de la biomécanique du service, les stratégies de placement, les techniques de déplacement, etc. Cette accumulation de connaissance propositionnelle constituerait, selon cette conception, ce qui s'appelle le « savoir-faire ». Le joueur expérimenté se distinguerait du novice non par la possession d'une compétence qualitativement différente, mais simplement par la possession d'un ensemble plus vaste, plus raffiné et mieux intégré de propositions vraies et justifiées concernant le jeu.
Cette position possède une certaine apparence de plausibilité. Après tout, on peut enseigner le tennis en expliquant les règles, en formant verbalement les stratégies, en décrivant les gestes appropriés. Et inversement, une personne qui ignore les règles du tennis ne pourra pas jouer correctement. Il semble donc qu'il existe une connexion intime entre la connaissance propositionnelle et la compétence pratique.
L'argument rylien : l'écart irréductible entre théorie et pratique
Ryle cependant identifie une lacune logique fondamentale dans le raisonnement intellectualiste. Son argument procède par une réductio ad absurdum subtile et pénétrante.
Supposons, en effet, que la connaissance-comment se réduise entièrement à la connaissance-que. Cela signifierait que posséder le savoir-faire consiste à posséder une certaine connaissance propositionnelle. Or, connaissance-que implique, selon l'analyse classique, non seulement de croire une proposition, mais aussi d'être justifié dans cette croyance. Le problème surgit immédiatement : qu'est-ce qui justifie la croyance à propos de la technique du tennis ?
Si c'est une autre proposition, alors on entre dans une régression justificative sans fin. Pour savoir comment servir, faut-il connaître une proposition P décrivant la technique du service ? Mais pour connaître P (au sens de la connaissance-que), faut-il connaître une autre proposition Q qui la justifie ? Et ainsi de suite indéfiniment, nous nous enfonçons dans une régression qui paraît vicieuse.
Mais il y a plus fondamental encore. Supposons même que nous possédions, de manière miraculeuse, la totalité des propositions pertinentes — l'ensemble complet et exhaustif de toutes les propositions vraies et justifiées concernant le tennis. Cela suffirait-il pour que nous sachions jouer au tennis ? Manifestement non. Une personne peut connaître absolument tout ce qu'il est possible de connaître de manière propositionnelle au sujet du tennis — toutes les règles, tous les principes de biomécanique, toutes les stratégies — sans pour autant être capable de remporter un match de tennis. Elle demeure une novice maladroite.
Inversement — et c'est un point qu'un champion professionnel illustre cruellement — une personne peut posséder un savoir-faire remarquable, une compétence extraordinaire au tennis, tout en étant incapable d'articuler sous forme propositionnelle justifiée les raisons précises de ses actions. Le champion peut ne pas savoir pourquoi il exécute son service de cette manière plutôt que d'une autre ; il sait simplement comment le faire, et il le fait avec une efficacité stupéfiante. Interrogé sur sa technique, il peut produire des explications laborieuses qui ne captent que partiellement la finesse réelle de sa compétence.
Cette asymétrie révèle un fossé logique insurmontable entre connaissance-que et connaissance-comment. Deux propositions en découlent :
- On peut posséder une connaissance-que exhaustive sans posséder la connaissance-comment correspondante.
- On peut posséder une connaissance-comment remarquable sans posséder la connaissance-que qui l'expliquerait.
Donc, la connaissance-comment ne peut pas se réduire à la connaissance-que. C'est une catégorie d'une irréductibilité logique.
La théorie rylienne des capacités et des dispositions
[modifier | modifier le wikicode]Le rejet du modèle représentationaliste
Ryle propose une compréhension alternative de la connaissance-comment qui rompt radicalement avec le modèle intellectualiste. Il refuse l'assimilation de la connaissance-comment à une représentation mentale explicite. Selon sa conception, la connaissance-comment n'est pas une forme de contenu mental, mais plutôt une capacité ou une disposition à accomplir une certaine action de manière intelligente et efficace.
Cette redéfinition s'enracine dans une critique plus large du modèle cartésien de l'esprit. Le dualisme cartésien, en reléguant l'esprit dans le théâtre intérieur de la conscience, a tendance à réduire toute compréhension véritable à une représentation explicite, articulée et présente à la conscience. Mais Ryle rejette cette conception comme philosophiquement stérile et phénoménologiquement inexacte.
Les dispositions comme catégories analytiques
Ryle introduit une distinction cruciale entre les états mentaux explicites (croyances conscientes, pensées actuelles, etc.) et les dispositions. Une disposition est une tendance récurrente, stable et caractérisable du sujet à se comporter d'une certaine manière dans certaines conditions. Quand je dis « le verre est fragile », je ne décris pas un état présent du verre, mais une disposition — la tendance du verre à se briser s'il est soumis à un impact suffisant.
De même, la connaissance-comment doit être comprise non comme un état mental présent, mais comme une disposition du sujet à accomplir intelligemment une certaine classe d'actions. Savoir comment jouer au tennis, c'est disposer d'une tendance stable, développée par la pratique, à frapper la balle de manière appropriée, à se placer correctement, à exécuter les coups avec efficacité, et à adapter sa stratégie aux circonstances changeantes du jeu.
Cette disposition n'existe pas comme une entité mentale cachée quelque part dans l'esprit du sujet. Elle n'est pas une représentation immobile et inerte. C'est plutôt une capacité actuelle — quelque chose qui s'exerce et se manifeste précisément dans l'action. La connaissance-comment est essentiellement performative : elle s'actualise dans la performance, dans l'exercice compétent de l'action.[70]
Caractéristiques de la disposition intelligente
Ryle établit que la connaissance-comment, en tant que disposition, possède des caractéristiques distinctives :
1. L'intelligibilité de l'action : la disposition se manifeste dans des actions qui ne sont pas simplement correctes d'une manière mécanique ou accidentelle, mais qui possèdent une forme d'intelligibilité interne. Le joueur de tennis compétent ne frappe pas simplement la balle ; il la frappe de manière appropriée aux circonstances, en ajustant son coup à la position du filet, à la vitesse de l'approche adverse, au type de terrain, etc. Son action est sensée.
2. L'absence de nécessité d'instruction propositionnelle : contrairement à ce que l'intellectualiste suggère, la manifestation de la disposition-ne requiert pas une consultation consciente d'un ensemble de propositions. Le champion de tennis ne se dit pas consciemment, avant chaque coup, : « Selon le principe P et dans la circonstance C, je dois faire X ». Il agit directement, pré-réflexivement, avec une fluidité qui serait entravée par la médiation d'une réflexion propositionnelle explicite.
3. L'évaluabilité selon les critères de compétence : contrairement à la connaissance-que (évaluée pour sa vérité), la connaissance-comment est évaluée selon des critères de compétence ou d'efficacité. Nous ne demandons pas : « Votre savoir-faire est-il vrai ? » — cette question n'a pas de sens. Nous demandons : « Votre savoir-faire est-il efficace ? Vos actions accomplissent-elles le but ? Reflètent-elles une compréhension appropriée de la situation ? »
La distinction entre théorie et pratique comme distinction conceptuelle
[modifier | modifier le wikicode]La distinction rylienne entre connaissance-que et connaissance-comment reflète une distinction plus profonde entre théorie et pratique. Cette distinction n'est pas simplement une différence d'attitude ou de contexte d'application. Elle touche à la structure même des deux formes de compréhension.
Un théoricien du ski — quelqu'un qui a étudié exhaustivement tous les principes physiques du ski, la biomécanique, la géométrie du terrain — peut demeurer incapable de skier efficacement. Inversement, un skieur olympique possède une compétence pratique époustouflante bien qu'il soit incapable de formuler ou même de comprendre les théories scientifiques qui sous-tendent son activité.
Cette incommensurabilité révèle que la théorie et la pratique ne sont pas simplement des points différents sur un continuum d'une seule forme de connaissance. Ce sont plutôt deux catégories qualitativement distinctes, dotées de leurs propres critères d'évaluation, de leurs propres modes d'acquisition et de leurs propres structurations conceptuelles.
Le débat contemporain : la résurgence de l'intellectualisme
[modifier | modifier le wikicode]Jason Stanley et la réduction sophistiquée
Le consensus rylien en faveur de l'irréductibilité de la connaissance-comment a cependant été remis en question de manière sérieuse dans la philosophie analytique contemporaine. Des penseurs comme Jason Stanley et Timothy Williamson ont formulé une défense modifiée et plus sophistiquée de l'intellectualisme.[71]
Stanley soutient que Ryle n'a pas tort de refuser une forme naïve d'intellectualisme selon laquelle la connaissance-comment s'identifierait simplement à la connaissance-que. Mais il propose une position plus nuancée : la connaissance-comment est effectivement une forme de connaissance propositionnelle, mais d'une variété particulière.
Selon Stanley, savoir comment faire quelque chose consiste à connaître une proposition de type particulier — une proposition indexée, contextuelle, qui guide l'action intelligente dans les circonstances pertinentes. Par exemple, savoir comment servir au tennis consisterait à connaître une proposition de la forme : « C'est la manière appropriée pour moi, dans ces circonstances, d'accomplir le service ». Cette proposition n'est pas une simple description théorique abstraite ; c'est une proposition que le sujet connaît de manière existentiellement engagée et pragmatiquement orientée vers l'action.
La proposition en question possède plusieurs caractéristiques :
1. Elle est de re (concernant les choses elles-mêmes) et indexée au contexte du sujet — elle ne porte pas sur une généralité abstraite, mais sur la situation actuelle du sujet. 2. Elle est pratiquement efficace — elle guide l'action, elle peut être exécutée, elle s'oriente vers un résultat. 3. Elle est acquise par la pratique — ce n'est pas une proposition qu'on apprend simplement en lisant un livre, mais une proposition qu'on réalise progressivement par l'expérience répétée.
L'objection anti-intellectualiste : Katalin Farkas et la défense rylienne réactualisée
[modifier | modifier le wikicode]Malgré l'élégance formelle de la position de Stanley, de nombreux philosophes contemporains demeurent convaincus par l'argument rylien fondamental. Katalin Farkas, notamment, a fourni une défense rigoureuse de la thèse rylienne selon laquelle il existe une distinction réelle et irréductible entre connaissance-comment et connaissance-que.[72]
Farkas relève une ambiguïté décisive dans la proposition de Stanley. Quand Stanley soutient que la connaissance-comment est une forme de connaissance-que, il utilise le terme proposition dans un sens étendu, largement redéfini. Mais cette extension conceptuelle ne résout pas le problème rylien fondamental : il existe toujours une différence irréductible entre (a) croire une proposition, même une proposition indexée, guidée par le contexte et pratiquement efficace, et (b) disposer de la capacité à accomplir intelligemment l'action en question.
Farkas distingue ainsi la connaissance propositionnelle de second ordre (connaître une proposition à propos de comment faire quelque chose) de la connaissance-comment authentique (disposer véritablement du savoir-faire). La première peut exister sans la seconde — je peux connaître une proposition correcte à propos de comment faire un service au tennis sans savoir vraiment comment le faire. Inversement, la seconde peut exister sans la première — un excellent joueur peut ne pas connaître explicitement la proposition qui décrirait sa compétence.
Cette distinction correspond, selon Farkas, à une différence dans les critères d'évaluation. La connaissance propositionnelle est évaluée pour sa vérité ; la connaissance-comment est évaluée pour sa compétence, c'est-à-dire sa capacité effective à produire des actions appropriées dans une gamme de circonstances.
Implications philosophiques
[modifier | modifier le wikicode]Pour l'analyse du langage et de la signification
Le débat entre intellectualistes et anti-intellectualistes possède des implications qui s'étendent bien au-delà de la théorie de la connaissance. Il porte sur la question de savoir comment le langage se rapporte à l'action et à la pratique. Si Stanley a raison, alors il est concevable que chaque forme de compréhension puisse être capturée linguistiquement, dans une proposition suffisamment contextualisée. Mais si Farkas et Ryle ont raison, alors il existe des dimensions de la compréhension — précisément celles qui se manifestent dans la pratique compétente — qui ne peuvent jamais être intégralement traduites en langage propositionnel.
Pour l'épistémologie générale
Ces enjeux remettent en question l'hypothèse de base de l'épistémologie analytique traditionnelle : que toute connaissance peut être analysée en termes de croyance propositionnelle vraie justifiée. Si la connaissance-comment résiste à cette réduction, alors l'épistémologie doit s'étendre au-delà du domaine des croyances propositionnelles pour embrasser d'autres catégories de compréhension et de capacité.
Pour la philosophie de l'esprit
Le débat soulève également des questions fondamentales en philosophie de l'esprit. Le modèle intellectualiste suppose qu'en dernier ressort, toute compréhension réside dans un contenu mental représentationnel. Le modèle rylien suggère au contraire que certaines formes de compréhension — celles qui caractérisent la connaissance-comment authentique — sont essentiellement non-représentationnelles, incarnées, engagées dans l'action en cours.
Connaissance par acquaintance
[modifier | modifier le wikicode]Russell et la connaissance immédiate
Bertrand Russell a proposé une autre distinction importante : celle entre knowledge by acquaintance (connaissance par acquaintance, ou connaissance par familiarité directe) et knowledge by description (connaissance par description).
La connaissance par acquaintance est une connaissance immédiate, directe et non inférentielle d’un objet ou d’un contenu. Quand je dis « Je connais Sam », « Je suis familier avec Paris » ou « Je connais le goût de la tsampa », j’exprime une forme de connaissance par acquaintance. Ce n’est pas d’abord une connaissance que (elle ne se présente pas essentiellement comme l’affirmation d’une proposition vraie) ; c'est plutôt une familiarité directe avec quelque chose.
La connaissance par description, en contraste, est une connaissance que — la connaissance propositionnelle ordinaire, comme lorsque je dis : « Je sais que Paris est la capitale de la France ». Elle est indirecte, inférentielle, et elle dépend d’une description qui identifie l’objet.
Caractéristiques de la connaissance par acquaintance
Russell soutient que la connaissance par acquaintance possède des traits distinctifs :
- Elle est directe : elle ne passe pas par des inférences ou des représentations conceptuelles médiatrices. Je ne conclus pas, à partir d'autres croyances, que je suis en acquaintance avec Paris ; j’en ai directement conscience.
- Elle ne se réduit pas à une proposition vraie : elle ne consiste pas simplement à croire une proposition au sujet de l’objet. Être en acquaintance avec quelqu’un ne se réduit pas à croire quelque chose à son propos.
- Elle est fondationnelle : selon Russell, toute notre connaissance propositionnelle repose ultimement sur notre acquaintance avec des objets et des contenus élémentaires. Les propositions que nous pouvons comprendre doivent être composées, en dernière analyse, de termes simples avec lesquels nous sommes directement en rapport dacquaintance.
Débats contemporains
La conception russellienne de lacquaintance soulève des questions délicates. Comment distinguer exactement lacquaintance de la simple conscience sensorielle ? Peut-on réellement avoir une relation directe et non médiatisée à un objet, ou bien notre conscience passe-t-elle toujours par des représentations mentales interposées ?
Certains philosophes contemporains ont contesté l'idée que lacquaintance soit véritablement non-propositionnelle. Ils soutiennent qu'être en acquaintance avec quelqu'un implique nécessairement certaines croyances propositionnelles minimales — par exemple, au moins la croyance que cette personne existe. D'autres maintiennent qu'il existe une forme de connaissance par acquaintance logiquement indépendante de toute connaissance propositionnelle explicite.
Autres formes de connaissances non-propositionnelles
[modifier | modifier le wikicode]Connaissance par contact perceptuel
Au-delà du savoir-faire et de lacquaintance, il existe d'autres formes de connaissance qui semblent résister à l’analyse purement propositionnelle. C’est le cas, par exemple, de la connaissance immédiate de certaines données sensorielles : ce que c’est que voir la couleur rouge, goûter le chocolat, entendre une mélodie précise. Ces états qualitatifs — ce que les philosophes appellent les qualia — semblent constituer une forme de connaissance difficile, voire impossible, à traduire intégralement en propositions.
Si vous me demandez « Qu’est-ce que c’est que de voir la couleur rouge ? », je peux vous donner une description propositionnelle (« c’est une lumière d’une certaine longueur d’onde »), mais cela ne capture pas l’essence de votre expérience immédiate. Il y a dans cette connaissance quelque chose d’irréductiblement vécu.
Connaissance pratique réfléchie
Farkas propose également de distinguer certaines formes de connaissance-comment qu’elle qualifie de connaissance pratique réfléchie : une habileté à accomplir une action, développée et affinée par une réflexion consciente sur la pratique. Ce type de connaissance n’est ni purement propositionnel (il requiert une capacité d’action réelle) ni purement dispositionnel (il implique une dimension de réflexion et d’engagement cognitif).
Implications épistémologiques
[modifier | modifier le wikicode]La reconnaissance de formes non-propositionnelles de connaissance a plusieurs implications importantes pour l’épistémologie contemporaine.
D’abord, elle élargit considérablement le champ de l’épistémologie. L’épistémologie ne se réduit pas à l’étude de la manière dont nous acquérons des croyances vraies justifiées au sujet du monde. Elle doit aussi s’intéresser à la manière dont nous acquérons des habiletés, dont nous développons une familiarité avec des lieux et des personnes, dont nous explorons et comprenons notre expérience qualitative.
Ensuite, cela remet en question l’idée que la vérité soit toujours le bien épistémique ultime. La connaissance-comment n’est pas évaluée pour sa vérité ; elle l’est pour sa capacité à nous permettre d’agir efficacement et intelligemment. Lacquaintance n’est pas avant tout une question de croyance vraie, mais un rapport direct, familier, souvent non conceptuel, aux choses.
Enfin, cela suggère que nous ne pouvons pas analyser toutes les formes de connaissance selon le même modèle. Les trois conditions de vérité, de croyance et de justification peuvent être pertinentes pour la connaissance propositionnelle, mais elles ne s’appliquent pas de la même manière — ou pas du tout — aux autres formes de connaissance. Par exemple, il n’y a pas de « croyance vraie justifiée » à propos de la manière de faire un geste technique réussi : il y a une habileté, éventuellement réfléchie, qui s’exerce correctement.
Conclusion : l’hétérogénéité de la connaissance
[modifier | modifier le wikicode]La philosophie classique de la connaissance a souvent présumé que la connaissance est un phénomène unifié — qu’on pourrait en donner une analyse unique et définitive qui capture l’essence de tous les cas de connaissance. Mais la reconnaissance de formes non-propositionnelles de connaissance suggère une conclusion différente : la connaissance est hétérogène.
Nous connaissons de multiples manières. Nous connaissons que certaines propositions sont vraies. Nous connaissons comment accomplir certaines actions. Nous connaissons les personnes et les lieux par acquaintance. Nous connaissons ce que c’est que faire l’expérience de telle ou telle qualité sensible. Chacune de ces formes de connaissance mérite une attention philosophique sérieuse, et chacune peut exiger une analyse légèrement différente.
Cette pluralité de formes de connaissance rend l’épistémologie à la fois plus complexe et plus riche. Elle nous oblige à réfléchir plus attentivement à ce que nous faisons quand nous affirmons savoir quelque chose. Et elle nous rappelle que la connaissance n’est pas seulement une affaire intellectuelle et théorique, mais aussi une affaire pratique, expérientielle et interpersonnelle.
Chapitre 2 : Les théories de la vérité
[modifier | modifier le wikicode]2.1 La théorie de la correspondance
[modifier | modifier le wikicode]Introduction : la théorie la plus intuitive
[modifier | modifier le wikicode]Parmi les théories de la vérité, la théorie de la correspondance est sans doute l'une des plus anciennes et, à première vue, l'une des plus intuitives. Elle affirme une idée simple : une proposition est vraie si et seulement si elle correspond à la réalité. Si je dis « La neige est blanche », cette affirmation est vraie si, en effet, la neige est blanche dans le monde. Si je dis « Paris est la capitale de la Belgique », cette affirmation est fausse parce qu'elle ne correspond pas à la réalité : Paris est la capitale de la France, non de la Belgique.
Cette conception s'accorde avec notre intuition ordinaire de ce qu'est une vérité. Pour savoir si une affirmation est vraie, nous cherchons habituellement à vérifier si elle correspond aux faits. La théorie semble donc saisir quelque chose d'important sur la nature de la vérité.
Cependant, comme nous allons le voir, la théorie de la correspondance soulève des questions philosophiques profondes et complexes. Comment explique-t-on précisément ce rapport entre une proposition et la réalité ? Qu'est-ce exactement qu'une proposition ? Qu'est-ce qu'un fait ? Qu'entend-on par une réalité indépendante ? Comment savons-nous que nos croyances correspondent effectivement au monde ? Ces questions occupent les épistémologues et les métaphysiciens depuis plus d'un siècle.
Les origines : d'Aristote à la métaphysique classique
[modifier | modifier le wikicode]Aristote et la formule classique
L'idée que la vérité consiste en une correspondance remonte à Aristote. Dans sa Métaphysique, il énonce : « Dire que ce qui est n'est pas, ou que ce qui n'est pas est, c'est faux ; dire que ce qui est est, et que ce qui n'est pas n'est pas, c'est vrai. »
Cette formule établit l'intuition fondamentale de la théorie de la correspondance : la vérité est l'accord entre ce qu'on dit et la réalité. Si la réalité est d'une certaine manière, alors dire que c'est ainsi constitue une vérité ; si la réalité est autrement, alors le dire serait faux.
Toutefois, Aristote lui-même ne développe pas une théorie systématique et détaillée de la vérité. Son énoncé demeure plutôt une observation métaphysique générale. Ce n'est que beaucoup plus tard que les philosophes modernes entreprennent de construire une véritable théorie épistémologique de la correspondance.
La version moderne : Russell et Moore
[modifier | modifier le wikicode]Bertrand Russell et le fait
Au début du XXe siècle, Bertrand Russell et George Edward Moore élaborent une version plus sophistiquée de la théorie de la correspondance. Russell formule clairement le noyau de la théorie : dire qu'une croyance est vraie, c'est dire qu'il existe dans l'univers un fait auquel elle correspond ; dire qu'elle est fausse, c'est dire qu'il n'existe dans l'univers aucun fait auquel elle correspond.
Russell insiste sur l'importance décisive de l'existence du fait. Pour qu'une croyance soit vraie, il faut qu'existe dans la réalité quelque chose — un fait — qui la rend vraie. La vérité ne dépend pas uniquement de notre manière de penser ; elle dépend d'une réalité objective, extérieure et indépendante de nos croyances.
Moore et les états de choses
George Edward Moore, de manière analogue, défend l'idée d'une correspondance entre la croyance et la réalité. Il soutient que les croyances vraies correspondent à des états de choses (states of affairs) qui existent effectivement dans l'univers, tandis que les croyances fausses prétendent correspondre à des états de choses qui, eux, n'existent pas.
La contribution importante de Russell et Moore consiste à rendre explicite le besoin de préciser ce que signifie exactement cette correspondance. Ils reconnaissent qu'on ne peut pas se contenter d'affirmer qu'une proposition correspond à un fait ; il faut expliquer en quoi consiste ce rapport de correspondance.
Les trois composantes de la théorie
[modifier | modifier le wikicode]1. Les porteurs de vérité (truth-bearers)
La première question qu'une théorie de la correspondance doit affronter est la suivante : quelles sont les entités qui peuvent être vraies ou fausses ? S'agit-il :
- des phrases ou énoncés (les formulations linguistiques concrètes) ?
- des propositions (les significations ou contenus abstraits des phrases) ?
- des croyances (les états mentaux des sujets) ?
Russell et Moore font, selon les périodes de leur pensée, des choix différents. Russell privilégie d'abord les propositions comme porteurs fondamentaux de vérité et de fausseté, avant de réviser sa position. Moore, pour sa part, insiste sur l'importance des propositions, considérées comme des entités abstraites, indépendantes de nos pensées.
La plupart des théoriciens contemporains de la correspondance considèrent que les propositions sont les porteurs primaires de vérité. Une proposition est alors le contenu signifié par une phrase, indépendamment de la langue utilisée pour l'exprimer.
2. Les entités de la réalité (truth-makers)
La deuxième question est : à quoi les propositions doivent-elles correspondre ? À des faits ? À des états de choses ? À des combinaisons d'objets et de propriétés ?
Russell et Moore parlent de faits. Un fait, selon eux, est une entité complexe qui fait partie de la structure du monde. Par exemple, le fait que la neige est blanche est une entité qui existe dans le monde et qui rend vraie la proposition « La neige est blanche ».
Mais la notion de fait s'avère problématique. Existe-t-il des faits négatifs (le fait que X n'existe pas) ? Existe-t-il des faits disjonctifs correspondant à des propositions disjonctives (comme « Il pleut ou il neige ») ? Si oui, le nombre de faits qui existent paraît étrange et démesurément proliférant. Sinon, comment une théorie de la correspondance peut-elle rendre compte de la vérité des propositions négatives et disjonctives ?
Pour tenir compte de ces difficultés, certains auteurs parlent plutôt de vérifacteurs de vérité (truth-makers) : des entités ou situations réelles, de types éventuellement variés, qui suffisent à rendre vraies certaines propositions.
3. La relation de correspondance
La troisième question est la plus délicate : qu'est-ce que cette correspondance elle-même ? Comment exactement une proposition correspond-elle à un fait ou à un vérifacteur de vérité ?
Deux grandes approches se sont dégagées.
L'approche structurale
Selon l'approche structurale, une proposition et un fait correspondent si leurs structures sont isomorphes : si leurs constituants sont agencés de la même manière. Par exemple, la proposition « Socrate est sage » possède la structure [sujet = Socrate, prédicat = sage]. Si le fait correspondant possède également cette structure interne, alors il y a correspondance entre la proposition et le fait.
L'approche non structurale
Selon l'approche non structurale, la correspondance n'est pas une relation d'isomorphie détaillée, mais une corrélation plus simple : le fait qu'une proposition soit vraie consiste simplement en l'existence d'un vérifacteur qui la rend vraie, sans qu'il soit nécessaire de postuler une correspondance structurale fine entre ses constituants et ceux du fait.
Les défis majeurs de la théorie
[modifier | modifier le wikicode]Le problème des vérités complexes
Considérons la proposition « Soit il pleut, soit il neige ». Existe-t-il un fait disjonctif — un état de choses consistant en une disjonction — dans la réalité ? L'idée paraît étrange. Ou prenons la proposition « Il n'est pas vrai que la Lune est faite de fromage ». Faut-il supposer un fait négatif pour rendre cette proposition vraie ? La théorie semble exiger une ontologie baroque, chargée de faits négatifs, disjonctifs, conditionnels, etc., pour rendre compte de toutes les vérités.
Le problème épistémologique
Comment savons-nous qu'une proposition correspond réellement à un fait ? L'objection classique est que nous ne pouvons jamais sortir de notre esprit pour vérifier directement si nos croyances correspondent au monde. Nous sommes enfermés dans notre perspective subjective et nous n'accédons au monde qu'au travers de nos perceptions et de nos pensées. Si la vérité consiste en la correspondance entre croyance et réalité, mais que cette correspondance est en elle-même inobservable, comment pouvons-nous jamais savoir que nos croyances sont vraies ?
Ce problème ouvre la voie au scepticisme : si la correspondance est la norme de la vérité, mais que nous ne pouvons jamais vérifier cette correspondance de façon indépendante, notre prétention à la connaissance semble constamment menacée.
L'objection kantienne
Immanuel Kant objecte que nous ne pouvons jamais accéder aux choses en soi (noumènes) indépendamment de nos catégories conceptuelles. Nous connaissons seulement les choses telles qu'elles nous apparaissent (phénomènes), c'est-à-dire telles qu'elles sont déjà structurées par nos formes de sensibilité et nos catégories de l'entendement. Dès lors, la théorie de la correspondance devient problématique : à quoi exactement nos propositions correspondent-elles ?
Correspondent-elles à la réalité telle qu'elle nous apparaît ? Dans ce cas, la correspondance ne serait pas une relation à une réalité indépendante, mais à une réalité déjà filtrée par notre appareillage conceptuel. Correspondent-elles à la réalité telle qu'elle est en elle-même, indépendamment de toute expérience ? Mais, dans ce cas, comment pourrions-nous jamais connaître ou vérifier une telle correspondance, puisque le noumène nous est par principe inaccessible ?
Tentatives contemporaines de reconstruction
[modifier | modifier le wikicode]Wittgenstein et la théorie figurative
Ludwig Wittgenstein, dans le Tractatus Logico-Philosophicus (1921), propose une version raffinée de la correspondance appelée théorie figurative (picture theory). Selon Wittgenstein, une proposition fonctionne comme une image d'une réalité possible. Une proposition est vraie si l'état de choses possible qu'elle représente est effectivement un état de choses actuel dans le monde.
L'intuition de Wittgenstein met en valeur l'idée suivante : une proposition figure une situation, un peu comme un dessin figure un objet. Les éléments de la proposition correspondent aux éléments de la réalité, et leur agencement correspond à l'agencement des choses dans le monde.
Cependant, Wittgenstein lui-même reconnaîtra plus tard que cette théorie figurative est insuffisante, en particulier pour rendre compte des propositions logiques complexes ou des énoncés portant sur des objets abstraits. Dans les Investigations philosophiques, il s'éloigne largement de la théorie de la correspondance pour adopter une conception plus pragmatique du sens (la théorie de l'usage du langage), centrée sur les jeux de langage et les pratiques d'usage plutôt que sur l'image du monde.
Les théories contemporaines du truthmaking
Certains philosophes contemporains, comme David Armstrong, tentent de reconstruire le projet de la correspondance sous la forme d'une théorie du truthmaking' (ou des vérifacteurs de vérité). Ils soutiennent que toutes les vérités sont ultimement rendues vraies par des entités objectives dans le monde. Cette approche reconnaît les difficultés traditionnelles, tout en essayant de les reformuler.
Selon ces théoriciens, nous n'avons pas besoin de faits au sens lourd de Russell. Il suffit de dire qu'il existe quelque chose dans le monde (une situation, un état de choses, une configuration d'objets et de propriétés) qui rend une proposition vraie. Ce vérifacteur détermine comment le monde doit être pour que la proposition soit vraie.
On peut également mentionner la conception sémantique de la vérité proposée par Alfred Tarski. Pour un langage formalisé, Tarski estime qu'une théorie de la vérité est adéquate si elle permet de démontrer, pour chaque phrase « p » du langage-objet, un schéma de la forme : « p » est vraie si et seulement si p (par exemple : « La neige est blanche » est vraie si et seulement si la neige est blanche). Cette approche, souvent interprétée comme une version formelle de la théorie de la correspondance, vise à relier de façon rigoureuse les expressions du langage à ce qui doit être le cas dans le monde pour qu'elles soient vraies.
Avantages et limites de la théorie
[modifier | modifier le wikicode]Avantages
La théorie de la correspondance s'accorde remarquablement bien avec notre intuition ordinaire selon laquelle dire la vérité revient à dire les choses comme elles sont. Elle exprime de manière simple l'idée que la vérité ne dépend pas de ce que nous voulons ou ressentons, mais de la manière dont est effectivement le monde.
Elle met également l'accent sur le caractère objectif de la vérité : la valeur de vérité d'une proposition dépend d'une réalité extérieure à nos croyances. Que nous le voulions ou non, si « Le chat est sur le tapis » cesse d'être vrai lorsque le chat s'éloigne du tapis, c'est parce qu'un changement réel dans le monde modifie la valeur de vérité de notre énoncé.
Enfin, la théorie de la correspondance fournit une base naturelle au réalisme sémantique : le sens des propositions peut être compris à partir de ce qui les rendrait vraies. Comprendre une proposition, c'est savoir dans quelles conditions du monde elle serait vraie ou fausse.
Limites
La notion de correspondance elle-même demeure obscure. Dire qu'une proposition correspond à un fait ne suffit pas : il faut expliquer en quoi consiste cette correspondance, et c'est précisément ce qui se révèle difficile à formuler sans recourir à des métaphores (image, miroir, reflet, etc.).
La théorie semble en outre impliquer une ontologie lourde et peu intuitive : pour chaque proposition vraie, faudrait-il postuler un fait correspondant, y compris pour les vérités négatives, disjonctives ou hautement générales ? On risque alors de multiplier les entités métaphysiques de manière peu parcimonieuse.
Le problème épistémologique demeure lui aussi préoccupant : si la vérité consiste en la correspondance entre nos croyances et le monde, mais que cette relation de correspondance ne peut jamais être directement observée, comment pouvons-nous justifier notre prétention à connaître ? La théorie paraît ici vulnérable aux arguments sceptiques.
Enfin, l'objection kantienne fait planer un doute plus profond : si toute notre expérience du monde est déjà structurée par nos formes de sensibilité et nos catégories conceptuelles, est-il encore cohérent de parler de correspondance avec une réalité totalement indépendante de ces formes ? La théorie de la correspondance doit alors soit renoncer à une partie de ses prétentions réalistes fortes, soit accepter une forme de modestie quant à ce que nous pouvons réellement connaître de la réalité en soi.
Conclusion : une théorie persistante
[modifier | modifier le wikicode]Malgré ses difficultés manifestes, la théorie de la correspondance demeure l'une des théories de la vérité les plus influentes et les plus vigoureusement défendues. Cela tient en partie à son accord avec notre compréhension ordinaire de la vérité, et en partie au fait que les théories concurrentes (théorie de la cohérence, pragmatisme, approches déflationnistes) rencontrent leurs propres problèmes sérieux.
La théorie de la correspondance n'est plus aujourd'hui celle d'Aristote, ni même celle de Russell et de Moore. Elle s'est transformée, raffinée, technicisée. Mais la même intuition centrale continue de la porter : il existe quelque chose dans le monde qui rend nos propositions vraies ou fausses. Ce noyau dur de l'idée de correspondance résiste étonnamment bien à la critique, même après des décennies de débats intenses, et continue de structurer une grande partie de la réflexion contemporaine sur la vérité.
2.2 La théorie de la cohérence
[modifier | modifier le wikicode]Introduction : une alternative à la correspondance
[modifier | modifier le wikicode]Si la théorie de la correspondance affirme que la vérité consiste dans l'accord entre propositions et réalité, la théorie de la cohérence propose une conception d'une autre nature : une proposition est vraie si et seulement si elle s'inscrit de manière cohérente dans un système plus large de propositions. Au lieu de chercher un lien mystérieux entre proposition et monde extérieur, la théorie de la cohérence se tourne vers l'intérieur : vers les relations entre les croyances et les propositions elles-mêmes.
Cette théorie s'inscrit dans une tradition philosophique ancienne, notamment celle de l'idéalisme britannique des XIXe et XXe siècles, et elle a été considérablement développée et sophistiquée par des épistémologues contemporains comme Laurence BonJour et Keith Lehrer.
Les origines idéalistes
[modifier | modifier le wikicode]L'idéalisme de Bradley et Blanshard
La théorie de la cohérence émerge historiquement de la philosophie idéaliste. Francis Herbert Bradley, grand philosophe idéaliste britannique du XIXe siècle, soutient que la réalité ultime consiste en un tout intégré et cohérent : l'Absolu. Rien de particulier ou d'isolé n'est vraiment vrai en soi ; seule la totalité complète et parfaitement cohérente possède la plénitude de la vérité.
Brand Blanshard reprend ultérieurement ce projet et formule un argument clé. Si la vérité consiste en une correspondance à des faits objectifs, comment saurions-nous qu'une proposition correspond réellement aux faits ? Nous ne pouvons jamais sortir de notre système de croyances pour vérifier directement la correspondance. Nous demeurons toujours à l'intérieur de nos pensées. La seule mesure de la vérité qui nous soit véritablement accessible paraît donc être la cohérence interne du système de croyances.
La structure de la théorie
[modifier | modifier le wikicode]Le concept central de cohérence
La théorie de la cohérence soutient que la vérité consiste dans la cohérence mutuelle des propositions au sein d'un système intégré. Mais qu'entend-on exactement par cohérence ? La question est plus complexe qu'il n'y paraît.
Cohérence et consistance
Certains pensent que la cohérence se réduit à la consistance logique ou à l'absence de contradiction. Mais cela ne suffit pas. Un ensemble de propositions pourrait être logiquement consistant sans présenter de véritable cohérence. Par exemple, une collection de propositions totalement indépendantes les unes des autres pourrait être consistante, tout en manquant totalement d'unité ou d'intégration.
Cohérence et soutien mutuel
Une conception plus riche, inspirée notamment par Bradley, voit la cohérence dans le soutien mutuel et l'intégration systématique des propositions. Les propositions cohèrent lorsqu'elles s'expliquent et se soutiennent mutuellement, formant un ensemble organique où chaque partie s'imbrique avec les autres de manière significative.
Cohérence et implications logiques
Une autre approche met l'accent sur les implications logiques. Une proposition cohère véritablement avec un système lorsqu'elle est impliquée par d'autres propositions du système, ou lorsqu'elle les implique à son tour, d'une manière qui renforce l'unité et la capacité explicative de l'ensemble.
Les théoriciens majeurs
[modifier | modifier le wikicode]Laurence BonJour et la structure systématique
Laurence BonJour a développé une théorie sophistiquée de la cohérence pour la justification épistémique. Selon lui, une croyance est justifiée si elle cohère adéquatement avec le reste du système de croyances d'une personne. BonJour insiste sur un point crucial : il ne s'agit pas seulement de consistance logique. La véritable cohérence comporte plusieurs dimensions articulées :
1. Une consistance interne : absence de contradiction logique manifeste au sein du système de croyances.
2. Un soutien mutuel : les croyances se renforcent et s'expliquent réciproquement.
3. Une certaine complétude : le système couvre et explique aussi largement que possible les domaines de l'expérience concernés.
4. Une simplicité relative : le système s'organise de manière économique et évite les complications inutiles.
BonJour introduit également la notion de système cognitif évalué, pour souligner que les croyances ne fonctionnent jamais isolément, mais toujours comme des éléments d'un réseau systématique complexe et interconnecté.
Keith Lehrer et le système d'évaluation
Keith Lehrer propose une conception apparentée mais distincte, où la cohérence dépend précisément de la manière dont une croyance s'insère dans le système plus large des croyances d'une personne. Pour Lehrer, une croyance est justifiée si elle s'intègre mieux que ses rivales dans ce qu'il appelle le système d'évaluation. Ce système comprend non seulement les croyances de premier niveau, mais aussi des croyances de niveau supérieur, c'est-à-dire des croyances que le sujet possède au sujet de ses croyances (par exemple : « mes perceptions ordinaires sont généralement fiables »).
Avantages de la théorie de la cohérence
[modifier | modifier le wikicode]Éviter le problème épistémologique central
Le grand avantage de la théorie de la cohérence, par rapport à la correspondance, est qu'elle semble éviter le problème épistémologique central : comment vérifier la correspondance à une réalité indépendante et, en un sens, inaccessible ? Dans le cadre cohérentiste, nous n'avons besoin que de comparer les propositions entre elles, ce qui paraît épistémiquement accessible et dépourvu de mystère métaphysique.
Intégration systématique des croyances
La théorie met en valeur une intuition importante : nos croyances forment un système intégré et interdépendant, plutôt qu'une collection chaotique de propositions isolées. Les croyances se soutiennent mutuellement et s'organisent en un réseau où chacune influe sur les autres. La cohérence devient ainsi un idéal rationnel pour nos systèmes de croyances.
Rôle dans la pratique scientifique
Dans la pratique réelle de la science, la cohérence joue un rôle central. Les théories scientifiques ne sont jamais testées isolément contre des faits bruts ; elles sont toujours confrontées à l'expérience comme des systèmes entiers. On ajuste les hypothèses aux marges, on revoit des postulats auxiliaires, on réorganise parfois toute une théorie pour préserver au mieux la cohérence globale. La théorie de la cohérence semble donc bien refléter cette dimension systématique et structurelle de la méthode scientifique.
Les défis majeurs de la théorie
[modifier | modifier le wikicode]Le problème de l'isolation (isolation objection)
L'objection la plus célèbre vient de Bertrand Russell. Le simple fait qu'un système de croyances soit cohérent ne garantit nullement qu'il soit vrai. Un système entier pourrait être parfaitement cohérent, logiquement impeccable, et pourtant complètement faux, s'il n'entretient aucun rapport avec la réalité objective.
Russell oppose ainsi à Blanshard l'idée qu'un système de croyances pourrait être intérieurement très harmonieux et cependant totalement déconnecté du monde réel. La cohérence interne ne semble donc jamais, à elle seule, une garantie de vérité. Ce qui importe, objectent les critiques, c'est le rapport à la réalité, non seulement l'harmonie interne.
Le problème des systèmes rivaux incompatibles
On peut aussi imaginer deux cosmologies entièrement différentes : l'une dans laquelle la Lune existe, l'autre où elle n'existe pas. Chacune pourrait, en principe, former un système de croyances entièrement cohérent, pourvu que l'on ajuste en conséquence tous les énoncés astronomiques et géophysiques. Pourtant, logiquement, elles ne peuvent pas être toutes deux vraies. Si la cohérence était le seul critère de la vérité, il serait difficile d'expliquer comment trancher entre deux systèmes rivaux également cohérents.
Le problème des degrés de vérité
La théorie de la cohérence semble impliquer que la vérité serait une affaire de degrés. Un système plus cohérent qu'un autre serait, en un certain sens, plus vrai que lui. Mais cela paraît contre-intuitif. Nous avons tendance à penser que les propositions vraies sont tout simplement vraies, non pas seulement plus vraies ou moins vraies que d'autres, même si, bien sûr, elles peuvent être plus ou moins bien justifiées.
Le risque de déconnexion avec l'expérience
Enfin, on peut objecter qu'un système théorique parfaitement cohérent pourrait, en principe, ignorer ou contredire systématiquement l'expérience perceptuelle. Si la cohérence est le critère ultime, un système hautement harmonieux pourrait justifier des croyances qui s'opposent frontalement à ce que nos sens nous donnent à voir. Comment, dans ce cas, la théorie pourrait-elle préserver le rôle intuitivement central de l'expérience dans la formation et la révision de nos croyances ?
Réponses des théoriciens de la cohérence
[modifier | modifier le wikicode]Distinguer cohérence et simple consistance
Les défenseurs contemporains de la théorie de la cohérence répondent d'abord que leurs adversaires confondent souvent cohérence et consistance logique. La cohérence véritable, insistent-ils, comprend un rapport structuré à l'expérience. BonJour, par exemple, soutient que les croyances perceptuelles élémentaires jouent un rôle particulier dans le système : elles ne sont pas infaillibles, mais elles occupent une place singulière dans l'économie globale de la justification.
La cohérence n'est pas purement interne
Plusieurs auteurs refusent aussi l'idée que la cohérence soit une affaire purement interne aux croyances. Nicholas Rescher, par exemple, soutient qu'une croyance n'est vraie ou justifiée que si elle cohère avec l'ensemble des candidats à la vérité : les propositions qui ont une légitime prétention à être vraies, y compris celles qui sont directement fondées sur l'expérience sensorielle. L'expérience n'est donc pas exclue, mais intégrée à l'intérieur même du système cohérentiste.
L'hypothèse du système optimal
Pour répondre au problème des systèmes rivaux, certains théoriciens avancent l'idée d'un système optimal. Ce qui compte, en dernière analyse, serait la cohérence avec le système de croyances qui maximiserait à la fois l'unité, la complétude, la simplicité et l'adéquation à l'expérience. En principe, un seul système pourrait atteindre ce degré optimal de cohérence globale, ce qui permettrait de surmonter le risque d'indétermination entre systèmes concurrents.
Les variantes contemporaines : au-delà de la cohérence pure
[modifier | modifier le wikicode]La cohérence explicative
Paul Thagard et d'autres ont développé des approches de cohérence explicative, selon lesquelles deux croyances cohèrent véritablement si elles s'expliquent mutuellement de manière satisfaisante, y compris sur le plan causal. Ce n'est pas seulement la consistance logique ou le soutien mutuel qui compte, mais la capacité explicative globale du réseau de croyances et la manière dont il relie les phénomènes entre eux.
Le foundherentism de Susan Haack
Susan Haack propose un modèle hybride, qu'elle appelle foundherentism, qui emprunte à la fois au fondationnalisme et au cohérentisme. Selon elle, les croyances perceptuelles élémentaires jouent un rôle particulier dans notre système de justification (comme le soutient le fondationnalisme), mais leur propre justification dépend aussi de leur insertion dans le réseau plus large des croyances (comme le souligne le cohérentisme). La justification résulte donc à la fois d'un appui (foundation) et d'une cohésion (coherence).
Réintégration de l'expérience
Les théoriciens contemporains reconnaissent largement que la cohérence seule ne suffit pas pour rendre compte de la vérité. La cohérence doit s'accompagner d'une bonne correspondance ou d'un bon alignement avec l'expérience perceptuelle et les données observables. Cette reconnaissance conduit, en pratique, à des modèles hybrides qui combinent des éléments de correspondance et des exigences de cohérence systématique.
Conclusion : la persistance du débat
[modifier | modifier le wikicode]La théorie de la cohérence demeure attrayante pour plusieurs raisons solides. Elle évite certaines des difficultés ontologiques de la théorie de la correspondance (pas besoin de multiplier les faits problématiques). Elle met en lumière un trait réel de notre vie cognitive : nos croyances forment un système qui doit être organisé et cohérent pour être rationnellement défendable.
Cependant, l'objection de l'isolation reste redoutable. La seule cohérence, même enrichie par des liens étroits avec l'expérience, ne semble pas suffire pour saisir ce que nous entendons ordinairement par vérité. Nous conservons une intuition tenace : la vérité concerne avant tout la manière dont le monde est réellement, et pas seulement l'organisation interne de nos croyances.
C'est pourquoi beaucoup d'épistémologues contemporains explorent aujourd'hui des voies de synthèse : des conceptions où la vérité implique à la fois la cohérence d'un système de croyances et une certaine forme de contact adéquat avec une réalité objective. Dans cette perspective, la théorie de la cohérence n'est pas purement abandonnée ; elle est réinterprétée comme l'une des composantes nécessaires, mais non suffisantes, d'une compréhension plus complète de la vérité.
2.3 La théorie pragmatiste
[modifier | modifier le wikicode]Introduction : la vérité au service de l'action
[modifier | modifier le wikicode]Si la théorie de la correspondance regarde vers l'extérieur (vers la réalité) et la théorie de la cohérence regarde vers l'intérieur (vers les relations entre croyances), le pragmatisme propose un déplacement plus radical : une proposition est vraie si et seulement si elle « fonctionne », c’est-à-dire si, lorsqu’on l’adopte, elle produit les conséquences pratiques attendues et permet d’agir efficacement. Plutôt que de demander « correspond-elle au réel ? » ou « cohère-t-elle avec d’autres croyances ? », le pragmatiste demande avant tout : « est-elle utile ? fonctionne-t-elle ? »
Le pragmatisme émerge comme un mouvement philosophique spécifiquement américain au tournant du XXe siècle, avec trois grandes figures : Charles Sanders Peirce, William James et John Dewey. Chacun propose une version légèrement différente du pragmatisme, mais tous partagent l’intuition centrale selon laquelle la vérité est inséparable de l’action pratique et de la résolution des problèmes.
Charles Sanders Peirce et la maxime pragmatique
[modifier | modifier le wikicode]Le fondateur du pragmatisme
Charles Sanders Peirce (1839-1914) est généralement considéré comme le fondateur du pragmatisme. Sa contribution majeure réside dans ce qu’il appelle la maxime pragmatique (pragmatic maxim), énoncée pour la première fois en 1878 dans son article How to Make Our Ideas Clear (« Comment rendre claires nos idées »).
Selon Peirce, la maxime pragmatique peut se formuler ainsi : « Considérez quels sont les effets pratiques que nous concevons que l’objet de notre conception possède. Alors, la totalité de notre conception de cet objet réside dans la représentation de ces effets. »
Autrement dit, le sens d’un concept réside intégralement dans ses conséquences pratiques concevables. Si deux conceptions n’entraînent aucune différence pratique — c’est-à-dire aucune différence observable dans les conséquences qu’elles impliqueraient — alors elles ne sont, en réalité, qu’une seule et même conception.
La vérité comme point de convergence de l’enquête
Pour Peirce, la vérité n’est pas d’abord une propriété statique possédée par une proposition à un moment donné. La vérité est ce vers quoi tendrait ultimement l’enquête scientifique collective après un processus suffisamment prolongé : « La vérité consiste dans la concordance d’une affirmation abstraite avec la limite idéale vers laquelle l’enquête illimitée ferait converger la croyance scientifique. »
Peirce introduit ainsi le concept d’opinion finale : la vérité est ce que l’ensemble des enquêteurs accepterait ultimement après un processus d’investigation poussé aussi loin que possible. Il s’agit d’une conception profondément communautaire et dynamique de la vérité : la vérité n’est pas ce qu’un individu isolé croit ici et maintenant, mais ce que la communauté scientifique accepterait à la limite d’une enquête idéale.
William James et la pragmatique du « fonctionnement »
[modifier | modifier le wikicode]La formule célèbre : « ce qui fonctionne »
William James (1842-1910) a largement popularisé le pragmatisme et lui a donné une formulation plus accessible. Sa phrase la plus célèbre — et la plus controversée — affirme que le vrai n’est que « l’expédient dans notre manière de penser », de même que le juste serait « l’expédient dans notre manière d’agir ».
Pour James, la vérité réside dans l’efficacité pratique d’une idée. Une idée vraie est une idée qui fonctionne : elle nous permet de nous orienter avec succès dans l’expérience, de résoudre des problèmes réels, de simplifier et d’unifier notre vie mentale. James décrit ainsi une idée vraie comme :
- « Toute idée avec laquelle nous pouvons entrer utilement en rapport avec notre expérience, qui nous porte avec succès d’une partie de notre expérience à une autre, qui relie les choses de manière satisfaisante, qui fonctionne de façon fiable, simplifie notre tâche, économise notre effort, est vraie dans la mesure où elle fonctionne, vraie instrumentalement. »
L’utilité comme critère de vérité
James insiste sur l’idée que la vérité doit être interprétée en termes de conséquences pratiques. La « valeur concrète » d’une croyance vraie est sa capacité à produire une différence tangible et observable dans nos vies. Si croire que X produit exactement les mêmes résultats pratiques que croire que Y, alors il n’existe pas, pour nous, de différence significative de vérité entre X et Y.
Cependant, James reconnaît une limite importante : l’utilité immédiate ne suffit pas. Une croyance n’est véritablement utile — et donc digne d’être tenue pour vraie — que si elle continue de fonctionner à long terme, si elle reste en accord, à terme, avec la « résistance » de la réalité. Croire que mon partenaire m’est fidèle alors qu’il ne l’est pas peut sembler utile pendant un temps, mais ce n’est pas une croyance véritablement vraie : tôt ou tard, la confrontation avec les faits réels produira conflit, souffrance et désillusion.
John Dewey et l’instrumentalisme épistémologique
[modifier | modifier le wikicode]L’extension pragmatiste à la méthode
John Dewey (1859-1952) étend le pragmatisme bien au-delà d’une simple théorie de la vérité. Il développe ce qu’il appelle l’instrumentalisme : l’idée que nos concepts, nos théories et nos croyances sont des instruments au service de la résolution de problèmes pratiques et de la transformation de notre environnement.
Pour Dewey, une croyance est vraie si, lorsqu’on l’emploie effectivement dans l’action, elle produit les conséquences attendues et prédites. La vérité n’est pas une propriété attachée de manière définitive à une phrase abstraite, mais le résultat d’un processus de mise à l’épreuve : celui de la vérification par l’action. Une proposition n’est pas encore pleinement dite vraie ou fausse tant qu’elle n’a pas été soumise à l’expérience ; c’est le processus de contrôle pratique qui lui confère son statut.
Dewey applique cette vision pragmatiste à des domaines très variés — l’éducation, la démocratie, les questions sociales et écologiques — pour montrer que la vérité dépend toujours des contextes pratiques et des problèmes concrets que nous cherchons à résoudre.
Les caractéristiques communes du pragmatisme
[modifier | modifier le wikicode]Malgré leurs différences, les trois grands pragmatistes partagent plusieurs traits fondamentaux :
- La maxime pragmatique : le sens et la portée de nos concepts doivent être compris à travers leurs effets pratiques concevables.
- L’enquête comme processus continu : la vérité n’est pas un état figé, mais le résultat d’un processus ininterrompu d’enquête, de mise à l’épreuve et de révision.
- Le faillibilisme : aucune croyance n’est absolument à l’abri de la révision ; toutes nos convictions restent susceptibles d’être corrigées à la lumière de nouvelles expériences.
- L’importance de la communauté : la vérité n’est pas ce que tel individu estime vrai, mais ce vers quoi tendrait, en principe, l’enquête collective d’une communauté de chercheurs.
- L’orientation pratique de la vérité : une vérité doit faire une différence réelle ; elle doit se manifester dans nos pratiques, nos décisions, notre capacité à résoudre des problèmes.
Avantages de l’approche pragmatiste
[modifier | modifier le wikicode]Éviter l’abstraction métaphysique stérile
Le pragmatisme offre un antidote puissant à certaines formes d’abstraction métaphysique très détachées de l’expérience. Plutôt que de se demander dans l’absolu si une théorie « correspond parfaitement » à une réalité indépendante, on pose une question plus concrète : que permet-elle effectivement de faire ? Quelles différences pratiques introduit-elle dans notre manière de vivre, de prévoir, d’agir ?
Rendre compte de la science réelle
La théorie pragmatiste éclaire un trait essentiel de la science effective : la recherche progresse en formulant des hypothèses, en en déduisant des conséquences observables, puis en confrontant ces conséquences à l’expérience. La vérité scientifique apparaît intrinsèquement liée à ce qui marche dans la pratique expérimentale : une théorie est dite vraie tant qu’elle permet des prédictions correctes et une action réussie sur le monde.
Souplesse contextuelle
Le pragmatisme autorise une certaine souplesse contextuelle : une même question peut se poser différemment selon les problèmes pratiques en jeu. Des théories différentes peuvent être pertinentes, ou même concurrentes, dans des contextes distincts. Le pragmatisme permet de rendre compte du fait qu’une théorie puisse être plus « vraie pour nous » dans un contexte donné parce qu’elle y fonctionne mieux, tout en reconnaissant que cette vérité reste soumise à révision.
Les défis majeurs de la théorie
[modifier | modifier le wikicode]Le risque de confusion entre utilité et vérité
L’objection classique, formulée notamment par G. E. Moore et Bertrand Russell, est que l’utilité n’est pas la même chose que la vérité. Une croyance peut être extrêmement utile sans être vraie. Un mensonge consolateur peut apporter du réconfort. Une superstition peut sembler « marcher » pendant un certain temps. À l’inverse, une vérité peut être douloureuse, socialement coûteuse et, à court terme, peu « utile ».
Si le pragmatisme identifie purement et simplement la vérité à l’utilité, il semble commettre une confusion : la relation logique entre être vrai et être utile n’est pas une identité.
Le problème du relativisme pratique
L’utilité est en partie relative : ce qui est utile pour une personne ne l’est pas forcément pour une autre ; ce qui est utile à court terme peut être désastreux à long terme. Si l’on définit la vérité par l’utilité, ne risque-t-on pas de se retrouver avec autant de « vérités » qu’il y a de contextes et d’intérêts ? La conception pragmatiste de la vérité ne conduit-elle pas à un relativisme général, voire à l’idée qu’il n’existe plus de vérité unique et objective ?
Les propositions sans pertinence pratique apparente
Une autre difficulté concerne les propositions qui ne semblent avoir aucune pertinence pratique concevable, du moins pour nous. Par exemple : « Il existe un nombre pair d’atomes dans la Lune. » Cette proposition ne joue aucun rôle dans notre action quotidienne, et peut-être ne jouera jamais un rôle pratique. Le pragmatisme paraît mal équipé pour rendre compte de ce type de vérités purement « spéculatives ».
L’objection du décalage temporel
Chez Peirce, la vérité est définie comme l’opinion finale de l’enquête illimitée. Mais nous avons besoin de parler de vérité ici et maintenant. Comment pouvons-nous affirmer qu’une proposition est vraie aujourd’hui si sa vérité dépend, en principe, de ce que la communauté scientifique accepterait à la limite d’une enquête sans fin ?
Réponses élaborées par les pragmatistes
[modifier | modifier le wikicode]Distinguer utilité apparente et succès durable
Les pragmatistes répliquent que leurs critiques confondent utilité momentanée ou apparente et succès durable dans l’expérience. Pour James, une croyance n’est véritablement « utile » — et donc légitimement qualifiée de vraie — que si elle continue à fonctionner au fil du temps, si elle résiste aux confrontations répétées avec la réalité. Une croyance illusoire peut procurer un avantage psychologique immédiat, mais elle finit, tôt ou tard, par échouer face aux faits.
Le pragmatisme et l’objectivité
Les pragmatistes insistent également sur le fait que leur position n’implique pas un relativisme sans frein. Peirce, en particulier, met l’accent sur la contrainte exercée par la réalité : ce n’est pas nous qui décidons arbitrairement de ce qui marchera ou non. Les échecs pratiques répétés, les réfutations expérimentales, les résistances du monde réel orientent progressivement l’enquête vers des croyances plus adéquates. Il n’y a pas une infinité de « vérités » possibles : il n’existe, en principe, qu’une seule opinion finale vers laquelle l’enquête idéale convergerait.
L’importance du contexte sans relativisme total
Reconnaître que la signification de certaines questions dépend d’un contexte pratique ne revient pas à dire que tout se vaut. Certaines questions ne deviennent pertinentes que dans des circonstances déterminées ; d’autres n’ont aucun intérêt pratique pour nous. Mais cela ne signifie pas qu’il n’existe plus de contraintes objectives : les contextes changent, la réalité, elle, ne dépend pas de nos caprices.
Variantes contemporaines du pragmatisme
[modifier | modifier le wikicode]Pragmatisme épistémique moderne
Des auteurs contemporains ont développé des formes plus nuancées de pragmatisme, en particulier dans l’épistémologie. Sous l’étiquette de pragmatic encroachment, certains (par exemple Jeremy Fantl, Matthew McGrath, John Hawthorne ou Jason Stanley) soutiennent que des facteurs pratiques — ce qui est en jeu pour le sujet — peuvent légitimement influer sur ce qui compte comme savoir dans un contexte donné, sans pour autant réduire la vérité elle-même à l’utilité. La structure pratique de la situation modifie les exigences épistémiques, non le sens du mot « vrai ».
Synthèses avec les approches déflationnistes
D’autres tentent de combiner le pragmatisme avec des théories déflationnistes de la vérité. L’idée est que le concept de vérité n’a peut-être pas une « essence » métaphysique profonde, mais joue néanmoins un rôle indispensable dans nos pratiques : dire qu’une proposition est vraie, c’est principalement marquer qu’elle est acceptable, qu’elle est confirmée, qu’on peut raisonnablement s’y fier dans l’action.
Conclusion : le pragmatisme comme intuition durable
[modifier | modifier le wikicode]Le pragmatisme demeure une perspective très influente pour qui cherche à penser la vérité à partir de la pratique humaine et scientifique. Il met l’accent sur le rôle de l’enquête, sur la dimension expérimentale de la connaissance, sur le lien intime entre croire vrai et pouvoir agir avec succès.
Cependant, l’identification directe de la vérité à l’utilité paraît excessive. Nous gardons l’intuition tenace que certaines choses peuvent être vraies même sans être utiles, et que certaines croyances peuvent nous être utiles tout en étant fausses. La vérité semble posséder une dimension d’objectivité et de stabilité que l’efficacité pratique, à elle seule, ne suffit pas à capturer.
La conclusion la plus raisonnable est peut-être que le pragmatisme met le doigt sur un aspect essentiel de la vérité : une proposition qui ne fait aucune différence dans l’expérience et l’action perd une grande part de son sens ; mais ce n’est qu’un aspect. Une théorie adéquate de la vérité devrait intégrer les intuitions pragmatistes — le rôle de l’enquête, de l’action, du succès pratique — tout en préservant l’idée que la vérité ne se réduit pas entièrement à ce qui nous est, ici et maintenant, utile.
2.4 Théories déflationnistes et minimalistes
[modifier | modifier le wikicode]Introduction : réduire la vérité à (presque) rien
[modifier | modifier le wikicode]Si les théories précédentes (correspondance, cohérence, pragmatisme) tentent chacune d'expliquer ce qu'est la vérité — en quoi elle consiste, quelle en serait la « nature » — les théories déflationnistes adoptent une attitude très différente : selon elles, il n’y a presque rien de profond à expliquer. La vérité n'est pas une propriété substantielle dotée d'une essence métaphysique ; c'est un concept mince, fait de platitudes, un simple outil linguistique régi par quelques règles d'usage. Dire d’une proposition qu’elle est vraie revient, pour l’essentiel, à réaffirmer cette proposition, sans lui ajouter un contenu conceptuel supplémentaire.
Cette famille de positions rassemble plusieurs variantes : la théorie de la redondance (Frege, Ramsey), les théories disquotationnelles, le minimalisme de Paul Horwich, ainsi que des approches connexes comme le prosententialisme de Dorothy Grover. Toutes partagent une intuition commune : la philosophie en a trop demandé au concept de vérité ; il est temps de reconnaître sa pauvreté ontologique et sa simplicité conceptuelle.
Les origines : de Frege à Ramsey
[modifier | modifier le wikicode]Gottlob Frege et l’idée de superfluité
Gottlob Frege, dans « La Pensée » (Der Gedanke), souligne un trait décisif : du point de vue du contenu de pensée, ajouter le prédicat vrai ne change rien. Dire « Il est vrai que la neige est blanche » ne fait, quant au contenu, que répéter « La neige est blanche ». Frege remarque d’ailleurs que, dans l’usage ordinaire, nous évitons en général d’ajouter « il est vrai que… » précisément parce que c’est superflu.
Important toutefois : Frege n’est pas lui-même un déflationniste radical. Dans sa théorie logique, la vérité joue un rôle fondamental (le Vrai comme valeur de référence des énoncés). Mais son observation linguistique ouvre la voie à l’idée déflationniste : au niveau du discours, le prédicat « est vrai » semble, en grande partie, redondant.
F. P. Ramsey et la théorie de la redondance
Frank Plumpton Ramsey reprend et radicalise cette intuition dans la théorie de la redondance. Selon lui, le mot vrai est logiquement superflu. La phrase « p est vraie » n’exprime rien de plus que la phrase « p ». Tout prédicat de vérité pourrait, en principe, être éliminé de notre langage sans perte de contenu cognitif.
Ramsey illustre ce point sur des exemples simples : dire « Il est vrai que César a traversé le Rubicon » n’ajoute absolument rien à dire « César a traversé le Rubicon ». Le prédicat est vrai n’introduit ici aucun fait supplémentaire ; il se contente de reprendre la même affirmation sous une forme grammaticalement différente.
Ramsey reconnaît cependant une utilité logique et pratique au prédicat de vérité, malgré sa redondance de contenu. Il sert notamment à formuler des généralisations aveugles (blind generalizations). Si je dis « Tout ce que le Pape a affirmé ex cathedra est vrai », j’endosse d’un seul coup une infinité de propositions dont je ne connais pas le détail. Sans le prédicat vrai, je serais incapable de formuler cette généralisation d’un seul tenant. La vérité n’apporte donc pas de contenu supplémentaire, mais elle rend possible certains types d’énoncés.
Paul Horwich et le minimalisme
[modifier | modifier le wikicode]La théorie minimaliste contemporaine
Paul Horwich, dans son ouvrage Truth, propose une version systématique du déflationnisme qu’il appelle minimalisme. Contrairement à Ramsey, Horwich admet que est vrai exprime bien une propriété, mais une propriété extrêmement mince, dont la nature entière se laisse saisir par un simple schéma d’équivalence.
Le cœur de sa théorie est le schéma d’équivalence (ou schéma T) :
- « La proposition que P est vraie si et seulement si P. »
Chaque instance particulière de ce schéma, du type :
- « La proposition que la neige est blanche est vraie si et seulement si la neige est blanche. »
est, pour Horwich, une platitude indéniable. Et c’est la totalité de ces platitudes — l’ensemble infini de toutes les instances du schéma — qui fixe entièrement le concept de vérité. Posséder le concept de vérité, c’est être disposé à accepter, pour toute proposition intelligible, l’instance correspondante du schéma T.
Le minimalisme est ainsi une théorie implicite : il ne donne pas une définition explicite de vrai, mais soutient que cette infinité d’équivalences suffit à capturer tout ce qu’il y a à dire de substantiel sur la vérité.
Une propriété sans essence profonde
Horwich insiste : si la vérité est bien une propriété (il y a un prédicat, et nous pouvons quantifier sur « les choses vraies »), elle ne possède pas pour autant d’« essence » riche. Il n’existe ni mécanisme caché de correspondance, ni structure de cohérence, ni critère pragmatique profond. Tout ce qu’il y a à dire sur la vérité se trouve déjà contenu dans ces équivalences « La proposition que P est vraie si et seulement si P ».
La vérité ne joue donc aucun rôle explicatif autonome : elle ne vient pas s’ajouter, comme une cause ou un mécanisme, au fait que les choses se passent d’une certaine manière. Dire « La théorie fonctionne parce qu’elle est vraie » n’ajoute, pour Horwich, rien de plus que répéter : « La théorie fonctionne parce que les choses sont comme elle le dit. »
La fonction pragmatique du prédicat de vérité
Horwich reprend et systématise l’idée des généralisations aveugles. Le prédicat est vrai a, selon lui, un rôle logique et pragmatique très utile : il nous permet de parler de propositions que nous ne pouvons pas (ou pas aisément) énumérer une par une.
Si je dis : « Tout ce que Jean a dit au tribunal est vrai », je ne connais pas forcément toutes ses phrases. Je ne peux donc pas les répéter. Le prédicat est vrai me permet, en un seul geste linguistique, de ratifier l’ensemble de ces énoncés. Il n’ajoute aucun fait de plus au monde ; il organise simplement notre discours de manière plus souple.
Autres variantes du déflationnisme
[modifier | modifier le wikicode]La théorie prosententielle de Dorothy Grover
Dorothy Grover (avec Camp et Belnap) propose une version déflationniste originale : le prosententialisme. L’idée est que les expressions comme « c’est vrai » ne fonctionnent pas comme un prédicat ordinaire appliqué à un objet (la proposition), mais comme des prophrases (ou prosentences), analogues, pour les phrases, à ce que sont les pronoms pour les noms.
Un pronom comme « il » renvoie à un nom mentionné auparavant. De même, une prosentence comme « c’est vrai » reprend une phrase énoncée plus haut dans le discours. Par exemple :
- Jean : « Il pleut. »
- Marie : « C’est vrai. »
Ici, « C’est vrai » ne dit pas autre chose que « Il pleut ». Elle se contente de reprendre, sous forme anaphorique, la phrase précédente. Le mot vrai ne désigne alors aucune propriété mystérieuse ; il sert simplement à reconstruire, de manière abrégée, la phrase déjà énoncée.
Le disquotationalisme de Quine
Willard Van Orman Quine, lisant la théorie tarskienne de la vérité, développe une approche dite disquotationnelle. L’idée centrale est que dire qu’une phrase est vraie revient à supprimer les guillemets qui en font un objet de discours :
- « « La neige est blanche » est vraie si et seulement si la neige est blanche. »
Attribuer la vérité à « La neige est blanche », c’est tout simplement « enlever les guillemets » et affirmer « La neige est blanche ». Le prédicat de vérité fonctionne alors comme un mécanisme de déquotation permettant de passer du niveau du métalangage (où l’on parle des phrases) au niveau du langage-objet (où l’on affirme ces phrases).
Quine voit là l’essentiel de la notion de vérité : un outil qui permet de formuler les schémas de Tarski (du type « p » est vraie si et seulement si p), de quantifier sur les phrases, et de manipuler le langage dans le langage, sans charge métaphysique supplémentaire.
Avantages des théories déflationnistes
[modifier | modifier le wikicode]Parcimonie métaphysique
Les théories déflationnistes sont extrêmement économes sur le plan ontologique. Elles n’ont pas besoin de postuler des « faits » spéciaux, des relations de correspondance mystérieuses, ni des structures de cohérence profondes. La vérité ne renvoie à aucun ingrédient supplémentaire dans la constitution du monde ; elle n’introduit pas de nouvelle catégorie d’entités.
De ce point de vue, le déflationnisme apparaît comme une manière de répondre à la question « Qu’est-ce que la vérité ? » en dissolvant la tentation métaphysique plutôt qu’en proposant un nouvel étage d’explication.
Fidélité à certaines platitudes ordinaires
Le déflationnisme rend bien compte d’une intuition vernaculaire : dans bien des contextes, dire « il est vrai que p » n’ajoute rien d’autre que la force d’insistance. Dans une conversation ordinaire, répondre « C’est vrai » au lieu de répéter la phrase de l’interlocuteur ne semble pas faire intervenir un concept mystérieux ; c’est simplement une manière de reprendre et d’approuver ce qui vient d’être dit.
Le schéma minimaliste « « p » est vraie si et seulement si p » paraît, à première vue, capter toute cette dimension banale du concept de vérité.
Unification conceptuelle
Enfin, le déflationnisme offre une image unifiée du concept de vérité à travers les domaines. Il n’a pas besoin d’expliquer différemment ce qui rend vraies les propositions scientifiques, morales, mathématiques, etc. Dans tous les cas, dire qu’une phrase est vraie, c’est seulement dire que les choses sont comme la phrase le dit. La diversité des domaines se joue dans le contenu de p, non dans une nature variable de la vérité.
Les défis majeurs du déflationnisme
[modifier | modifier le wikicode]Le problème explicatif
Une objection récurrente soutient que le déflationnisme affaiblit excessivement la capacité explicative de la notion de vérité. Dans la pratique scientifique, nous avons l’impression de pouvoir dire : « Cette théorie réussit parce qu’elle est vraie » ; ou encore : « Ces observations confirment que notre description est vraie, et c’est pour cela qu’elle permet des prédictions fiables. »
Si le terme vrai ne fait que répéter p, le déflationniste semble obligé de paraphraser : « La théorie réussit parce que le monde est comme la théorie le décrit. » Mais nombre de philosophes considèrent que cette reformulation ne fait que déplacer le problème, plutôt que d’expliquer pourquoi la vérité joue un rôle si central dans nos explications de la réussite scientifique, de la fiabilité des témoignages, ou du succès des méthodes de recherche.
L’enjeu est le suivant : si la vérité n’est qu’un dispositif linguistique, pourquoi semble-t-elle jouer un rôle aussi crucial dans nos explications à propos de la connaissance, de la science ou même de la morale ?
Le problème normatif
Michael Dummett et d’autres ont souligné une autre difficulté : la vérité semble normative. Il existe une norme épistémique fondamentale : « Vous devez viser à croire ce qui est vrai et à rejeter ce qui est faux. » Toute la pratique de l’enquête, du débat rationnel, de la preuve, semble structurée par cette norme.
Or, si la vérité ne possède aucun contenu substantiel, si elle n’est qu’un outil de ré-énonciation et de généralisation, d’où vient cette normativité ? Pourquoi devrait-on s’y conformer, au-delà du simple fonctionnement grammatical du prédicat « est vrai » ? Le risque est que le déflationnisme réduise la vérité à un rouage syntaxique et ne parvienne plus à expliquer ce qui en fait une norme régulatrice de notre vie cognitive.
Fausseté, erreur et dissymétrie
Une difficulté connexe concerne la fausseté. Le déflationniste dira volontiers : « La proposition que P est fausse si et seulement si non-P. » Mais la symétrie formelle entre vérité et fausseté masque peut-être une dissymétrie conceptuelle profonde : nous pensons la vérité comme ce à quoi la pensée doit tendre, et la fausseté comme ce qu’il faut éviter ou corriger.
Si la vérité et la fausseté sont toutes deux réduites à de simples équivalences formelles, que devient cette dissymétrie ? Que devient la notion de se tromper ? Le déflationnisme doit alors expliquer comment l’erreur, la rectification, la critique — centrales dans la pratique scientifique et dans l’argumentation — peuvent être comprises sans une conception plus robuste du vrai et du faux.
La question des contextes opaques
Enfin, les schémas disquotationnels du type « « p » est vraie si et seulement si p » fonctionnent bien dans des contextes dits transparents. Mais dans des contextes opaques (par exemple ceux qui impliquent des verbes d’attitude comme « croire », « espérer », « douter »), la substitution de « p » est vraie à p n’est pas toujours innocente.
Dire « Jean croit que « la neige est blanche » est vraie » n’est pas exactement la même chose que dire « Jean croit que la neige est blanche ». La gestion de ces contextes intensionnels complique l’application naïve du schéma d’équivalence et oblige les déflationnistes à affiner leur analyse linguistique.
Réponses et raffinements déflationnistes
[modifier | modifier le wikicode]Explication superficielle vs explication de fond
Les déflationnistes répondent en distinguant deux niveaux. Au niveau « de fond », la vérité ne joue aucun rôle explicatif : ce qui explique le succès d’une théorie, ce sont les mécanismes du monde, les relations causales, la structure des phénomènes. Dire « la théorie est vraie » n’ajoute rien à cette explication.
Mais au niveau « superficiel » de nos pratiques ordinaires, il est parfaitement légitime de dire : « la théorie réussit parce qu’elle est vraie », comme une manière compacte de résumer que ses énoncés décrivent correctement la réalité. La vérité n’explique rien par elle-même, mais elle sert d’étiquette commode pour résumer un ensemble très complexe de relations entre la théorie et le monde.
La norme de vérité comme reflet de notre pratique
Horwich, notamment, soutient que la normativité épistémique ne vient pas d’une « essence » de la vérité, mais du rôle que joue ce concept dans nos pratiques discursives. Le fait que nous ayons institué la règle « croire ce qui est vrai » n’exige pas que vrai désigne une propriété métaphysiquement riche ; il suffit que ce prédicat occupe la place de ce que nous tendons à approuver, endosser, ratifier.
Autrement dit, la force normative du vrai serait un sous-produit de notre organisation linguistique et sociale, non l’expression d’une nature métaphysique mystérieuse.
Pluralisme et déflationnisme modéré
Certains auteurs défendent des positions hybrides. Ils admettent que le concept ordinaire de vérité est en grande partie bien décrit par les schémas déflationnistes, tout en reconnaissant que, dans certains domaines (par exemple en métaphysique, en théologie ou en morale), nous utilisons aussi des notions plus épaisses, comme « adéquation à la réalité », « exactitude », « fidélité », etc.
On obtient ainsi des formes de pluralisme : d’un côté, un noyau déflationniste permettant de traiter la vérité comme une notion logique commune à tous les discours ; de l’autre, des notions plus substantielles, propres à certains domaines, qui capturent des exigences supplémentaires (réalisme moral, réalisme scientifique, etc.).
Déflationnisme vs théories substantialistes : un clivage central
[modifier | modifier le wikicode]Le contraste entre les théories déflationnistes et les théories plus « riches » (correspondance, cohérence, pragmatisme) se laisse ramener à une question centrale :
- La vérité possède-t-elle une nature positive qu’il faut analyser ?
Les théories de la correspondance, de la cohérence ou du pragmatisme répondent : oui. La vérité est, selon les cas, un rapport de correspondance à la réalité, un état de cohérence au sein d’un système de croyances, ou un succès pratique dans l’action. Le rôle de la théorie de la vérité est alors de mettre au jour cette nature et d’en éclairer les implications.
Le déflationnisme, au contraire, répond : non. Il n’existe rien de plus dans la vérité que ces platitudes capturées par le schéma d’équivalence. Chercher une « essence » de la vérité, c’est projeter sur ce concept des attentes métaphysiques excessives. La tâche philosophique, ici, est moins d’expliquer la vérité que de dissoudre l’illusion selon laquelle il y aurait quelque chose de profond à expliquer.
Conclusion : la minimalité provocante du déflationnisme
[modifier | modifier le wikicode]Le déflationnisme présente la vérité comme un concept minimal, presque squelettique, et c’est précisément ce minimalisme qui le rend philosophiquement provocateur. En refusant d’attribuer à la vérité une nature métaphysique riche — des faits de correspondance, des structures de cohérence, des critères pragmatiques — il met en question une grande part de la tradition.
En même temps, cette austérité laisse un sentiment d’inachèvement. Si la vérité n’est vraiment rien d’autre que ce que dit le schéma « « p » est vraie si et seulement si p », comment rendre justice au rôle qu’elle joue dans la science, dans la critique, dans l’éthique de la croyance, dans les conflits politiques où l’on se bat précisément au nom de la vérité ? Le déflationnisme peut répondre que ce rôle tient aux contenus mêmes des propositions, aux pratiques sociales, aux structures du monde, non à la vérité comme telle. Beaucoup de philosophes, toutefois, trouvent cette dissolution insatisfaisante.
Qu’on l’adopte ou qu’on le rejette, le déflationnisme a une vertu théorique incontestable : il oblige les défenseurs de théories plus substantielles à justifier pourquoi la vérité devrait être autre chose qu’un schéma d’équivalence apparemment trivial. En ce sens au moins, la position déflationniste constitue une contribution durable au débat contemporain sur la nature — ou la non-nature — de la vérité.
2.5 Théories épistémiques de la vérité
[modifier | modifier le wikicode]Introduction : la vérité au service de la connaissance
[modifier | modifier le wikicode]Les théories épistémiques de la vérité proposent un renversement conceptuel par rapport aux approches plus classiques. Au lieu de définir d’abord la vérité de manière indépendante (par exemple comme correspondance, cohérence ou utilité), puis de se demander ensuite comment elle se rapporte à la connaissance, elles soutiennent que la vérité ne peut être comprise qu’en la rapportant dès l’origine à des notions épistémiques telles que la connaissance, la justification, la vérification ou l’acceptabilité rationnelle. Autrement dit, la vérité n’est pas conçue comme une propriété métaphysique flottant au-dessus de nos pratiques cognitives, mais comme une notion dont le sens est indissociable de ce que nous faisons lorsque nous enquêtons, justifions, vérifions, acceptons ou rejetons des énoncés.
Sous l’étiquette de théories épistémiques, on regroupe plusieurs familles d’approches, qui ne sont pas toutes, au sens strict, des « théories de la vérité », mais qui accordent à la vérité un rôle central à l’intérieur de l’épistémologie : le vérificationnisme (la vérité pensée à partir de la vérification possible), les perspectives relativistes ou perspectivistes (la vérité envisagée relativement à un cadre conceptuel ou culturel), les conceptions véristes (veritism) qui font de la vérité le bien épistémique fondamental, et les approches dites de la connaissance d’abord (knowledge-first), qui assignent à la connaissance un rôle premier, la vérité étant intégrée à cette notion.
Le vérificationnisme
[modifier | modifier le wikicode]La conception classique : vérification et sens
Le vérificationnisme soutient, dans son noyau le plus simple, que la vérité d’une proposition dépend de sa vérifiabilité : une proposition n’est véritablement candidate à la vérité que si elle est, au moins en principe, vérifiable. Historiquement, cette idée est étroitement liée au positivisme logique du Cercle de Vienne au XXe siècle.
Les positivistes logiques formulent d’abord un principe de vérification du sens : un énoncé n’a de contenu cognitif que si l’on peut, au moins en principe, indiquer quelles expériences possibles compteraient comme sa confirmation ou sa réfutation. Les énoncés strictement métaphysiques ou théologiques, qui ne semblent pas susceptibles d’être confirmés ou infirmés par l’expérience, sont dès lors réputés dépourvus de véritable signification cognitive. On ne dira pas tant qu’ils sont faux que qu’ils ne disent rien de déterminé sur le monde.
Dans ce cadre, la vérité elle-même tend à être pensée à travers la vérification : dire qu’un énoncé est vrai revient à dire qu’il est, en principe, vérifiable et qu’il résisterait idéalement à toutes les épreuves empiriques pertinentes. La vérité n’est plus un état de choses mystérieux situé « au-delà » de nos moyens de connaissance ; elle est ce vers quoi convergerait, en droit, une enquête pleinement informée.
Variantes du vérificationnisme
On distingue classiquement plusieurs formes de vérificationnisme, plus ou moins exigeantes.
Une forme forte exige que la proposition soit vérifiable avec certitude. Interprétée de manière rigide, cette thèse s’avère rapidement intenable : très peu d’énoncés scientifiques satisfont un tel critère de vérification définitive. C’est l’une des raisons qui ont conduit à l’abandon du vérificationnisme fort.
Une forme faible affirme plutôt qu’un énoncé est doué de sens et peut être vrai ou faux si l’on peut spécifier, au moins en principe, les conditions dans lesquelles il serait confirmé ou infirmé par l’expérience. On ne demande plus une vérification complète et définitive, mais la possibilité de construire un lien intelligible entre l’énoncé et l’expérience.
Enfin, une forme probabiliste intègre explicitement le fallibilisme. La vérification ne fournit jamais une certitude absolue, mais confère à nos énoncés des degrés de confirmation. Dans cette perspective, la « vérité » d’une proposition est intimement liée au degré de soutien que lui apporte l’évidence empirique disponible, tel que modélisé, par exemple, dans des cadres bayésiens.
Le vérificationnisme a cependant rencontré des objections décisives : difficulté à formuler un critère de vérification qui n’auto-réfute pas lui-même, tendance à exclure du domaine du sens des énoncés que l’on hésite à considérer comme dépourvus de signification (évaluations morales, énoncés d’énorme portée cosmologique, etc.). De ce fait, il a été largement abandonné dans sa forme la plus dogmatique, mais il reste important comme tentative de rapprocher aussi étroitement que possible la vérité, le sens et la possibilité de vérification.
Perspectivisme et relativisme épistémique
[modifier | modifier le wikicode]La vérité comme « vérité de quelque part »
Une autre famille d’approches insiste sur le fait que nous n’accédons jamais à la vérité qu’à partir d’un point de vue déterminé : une perspective personnelle, culturelle, historique ou théorique. Le perspectivisme soutient que ce que nous appelons « la vérité » n’est jamais, dans la pratique, une vue de nulle part, mais toujours la vérité telle qu’elle apparaît à l’intérieur d’un cadre conceptuel donné.
Dans une version modérée, on admet volontiers qu’il existe une réalité indépendante et que certaines propositions sont objectivement vraies, mais on souligne que notre accès à ces vérités est toujours médiatisé par des schèmes de pensée, des langages, des intérêts et des pratiques situés. On parlera alors de perspectivisme faible : la vérité n’est pas elle-même relative, mais notre rapport à la vérité l’est inévitablement.
Dans une version plus radicale, parfois qualifiée de perspectivisme fort ou de relativisme de la vérité, on soutient que la vérité elle-même ne transcende pas les perspectives. Dans cette optique, il n’existerait pas de vérité absolue valable pour tous, mais seulement des vérités « pour nous », « pour eux », « dans tel cadre scientifique », « dans telle culture ». Une même proposition pourrait être vraie relativement à un système de normes épistémiques et fausse relativement à un autre.
Le relativisme culturel constitue une variante importante de cette famille : ce que l’on tient pour vrai dépendrait essentiellement des normes, des critères de preuve et des catégories conceptuelles propres à une culture donnée. Ainsi, les « vérités » cosmologiques, morales ou même médicales d’une société traditionnelle pourraient différer profondément de celles d’une société technoscientifique moderne, sans qu’il existe, selon ce point de vue, de tribunal neutre permettant de trancher entre elles.
Objections majeures
Ces approches rencontrent des difficultés sérieuses. La plus connue est l’objection d’auto-réfutation : si l’on affirme que « toute vérité est relative à une perspective », cette affirmation doit-elle, elle aussi, être tenue pour simplement relative ? Si elle ne vaut que pour certains, on ne voit pas pourquoi ceux qui rejettent le relativisme devraient s’y soumettre. Si, au contraire, elle prétend valoir absolument, elle dément son propre contenu. On semble pris dans une tension entre la portée universelle de la thèse et son refus de toute universalité.
Une autre difficulté tient à la pratique même de la critique et du désaccord. Si des perspectives différentes sont, par principe, incommensurables, comment rendre intelligible le fait que nous confrontions des arguments, que nous révisions nos opinions, que nous cherchions à convaincre autrui ? Le risque est alors de dissoudre la notion même de vérité dans celle de simple acceptation locale, et de rendre énigmatique la possibilité d’un progrès cognitif réel.
Le vérisme : la vérité comme valeur épistémique fondamentale
[modifier | modifier le wikicode]La vérité comme bien épistémique premier
Sous le nom de vérisme (veritism dans la littérature anglophone), certains épistémologues défendent l’idée que la vérité est le bien épistémique fondamental : c’est la seule chose qui possède une valeur épistémique intrinsèque, non simplement instrumentale. Une croyance vraie est, en tant que telle, un état cognitif meilleur qu’une croyance fausse, indépendamment des avantages pratiques qu’elle peut procurer.
Dans cette perspective, les autres biens épistémiques — justification, compréhension, sagesse, vertus intellectuelles — tirent leur valeur de leur relation à la vérité. Une croyance justifiée vaut mieux qu’une croyance non justifiée parce qu’elle est, en moyenne, plus proche de la vérité ; une vertu intellectuelle (comme la lucidité, la précision, l’honnêteté) vaut parce qu’elle nous dispose à former davantage de croyances vraies qu’un agent négligent, distrait ou malhonnête.
On obtient ainsi une hiérarchie : au sommet, la vérité, comme bien épistémique ultime ; en dessous, les propriétés qui sont précieuses parce qu’elles nous rapprochent de la vérité (justification, fiabilité, vertus intellectuelles) ; enfin, des biens dérivés comme la compréhension ou la sagesse, qui supposent un large ensemble de croyances vraies organisées de manière intelligible.
Le « problème de la submersion »
Le vérisme se heurte cependant à un problème célèbre, souvent appelé problème de la submersion (swamping problem). Si la seule source de valeur épistémique est la vérité, comment expliquer que nous valorisions aussi la justification et les vertus intellectuelles, une fois que la vérité est acquise ?
En effet, si l’on compare deux croyances également vraies, l’une solidement justifiée, l’autre vraie par pur hasard, le vériste semble contraint de dire que, du point de vue de la valeur épistémique pure, elles se valent : dans les deux cas, nous possédons la vérité, qui est le seul bien non instrumental. Or nous avons l’intuition nette que la croyance vraie bien justifiée vaut mieux que la croyance vraie fortuite. Il semble alors que la justification et les vertus intellectuelles possèdent une valeur qui ne se laisse pas entièrement réduire à leur rôle instrumental au service de la vérité.
Une autre difficulté concerne certaines vertus intellectuelles comme l’ouverture d’esprit ou la disposition à remettre en question des convictions établies. Elles peuvent, à court terme, nous éloigner de la vérité (en suspendant des croyances vraies que nous possédions déjà), tout en apparaissant pourtant comme épistémiquement souhaitables. Là encore, il semble que la valeur épistémique ne se laisse pas ramener intégralement à la seule possession de croyances vraies.
L’approche de la « connaissance d’abord » (knowledge-first)
[modifier | modifier le wikicode]La primauté de la connaissance sur la vérité et la justification
Plus récemment, certaines épistémologies dites de la « connaissance d’abord » (knowledge-first epistemology) ont proposé un déplacement encore plus radical : la notion épistémique fondamentale ne serait ni la vérité ni la justification, mais la connaissance elle-même. Dans cette approche, illustrée notamment par les travaux de Timothy Williamson, la connaissance n’est plus analysée comme croyance vraie justifiée ; au contraire, ce sont la croyance, la justification ou même le concept de vérité épistémique qui doivent être expliqués à partir de la connaissance.
La connaissance y est conçue comme un état mental factif : savoir que p implique nécessairement que p est vrai, mais la connaissance n’est pas pour autant réductible à la simple conjonction croyance + vérité. Elle possède une structure propre, irréductible à ces deux éléments pris séparément. L’épistémologie ne cherche plus prioritairement une « définition » de la connaissance ; elle se demande plutôt quelles lois, quelles normes et quelles structures conceptuelles régissent cet état mental fondamental.
La connaissance comme norme et comme but de l’enquête
Les épistémologies knowledge-first mettent en avant le rôle normatif de la connaissance :
– en matière d’assertion, la norme la plus exigeante énonce que l’on ne devrait affirmer que ce que l’on sait ;
– en matière de raisonnement, on ne devrait utiliser comme prémisses que des propositions que l’on sait vraies ;
– en matière d’action, on devrait agir sur la base de ce que l’on sait, plutôt que sur de simples conjectures.
La connaissance apparaît alors comme le critère de ce que nous sommes en droit d’affirmer, de supposer, d’utiliser comme base de décision. Elle est aussi présentée comme le but propre de l’enquête cognitive : ce que nous visons, dans la recherche scientifique comme dans la vie quotidienne, n’est pas seulement la croyance vraie, mais la croyance vraie suffisamment bien ancrée pour mériter le nom de connaissance.
Dans ce cadre, la vérité conserve un rôle essentiel (puisque la connaissance est factive), mais elle est intégrée à une notion plus riche : on ne définit pas la connaissance à partir de la vérité ; c’est l’inverse, la vérité épistémiquement pertinente est celle qui s’inscrit dans les états de connaissance.
Connexions entre vérité et justification : le fiabilisme
[modifier | modifier le wikicode]La question de fond : la justification rapproche-t-elle de la vérité ?
Toutes ces approches épistémiques rencontrent une question commune : dans quelle mesure la justification est-elle réellement liée à la vérité ? Si la justification ne faisait que refléter les normes internes d’une communauté, sans aucune connexion fiable à la réalité, elle perdrait sa valeur épistémique. Inversement, si l’on suppose qu’elle est en général un bon indicateur de la vérité, il faut expliquer en quoi consiste ce lien.
Le fiabilisme (reliabilism) propose une réponse influente. Une croyance est justifiée, ou constitue une connaissance, si elle est produite par un processus cognitif globalement fiable, c’est-à-dire qui conduit, dans une proportion suffisamment élevée de cas, à des croyances vraies : perception sensorielle dans des conditions normales, mémoire saine, inférences déductives valides, etc. La justification n’est plus définie par ce que le sujet peut « voir » de l’intérieur de sa propre conscience, mais par la qualité objective des mécanismes par lesquels il forme ses croyances.
Le fiabilisme établit ainsi un lien direct entre justification et vérité : ce qui rend une méthode de formation de croyance justifiée, c’est précisément sa tendance à produire de la vérité plutôt que de l’erreur. Il s’agit d’un lien non pas logique (une croyance justifiée peut toujours, en principe, être fausse), mais statistique et causal : un agent dont les facultés cognitives sont globalement fiables sera, dans l’ensemble, plus souvent dans le vrai que dans le faux.
Cette approche est typiquement externaliste : le sujet peut ignorer les détails de ce qui rend ses processus fiables, sans pour autant perdre sa justification. Elle offre une manière particulièrement claire d’illustrer la manière dont une théorie épistémique peut tenter de faire de la vérité la norme et le critère de nos pratiques justificatrices.
Avantages des théories épistémiques
[modifier | modifier le wikicode]Les théories épistémiques de la vérité, au sens large, ont le mérite de rappeler que la vérité n’est pas un concept isolé des pratiques réelles de la connaissance. Elles soulignent que nous nous intéressons à la vérité parce qu’elle est intimement liée à des questions de justification, d’enquête, de décision, de coordination sociale, d’action rationnelle. La vérité n’est pas seulement un idéal abstrait ; elle est ce que nous cherchons lorsque nous menons une enquête, lorsque nous confrontons nos arguments, lorsque nous corrigeons nos erreurs.
Elles ont aussi l’avantage d’intégrer de façon organique la théorie de la vérité à l’épistémologie : au lieu de traiter séparément, dans des chapitres distincts, la vérité d’un côté, la justification de l’autre, la connaissance ailleurs, elles insistent sur l’imbrication conceptuelle de ces notions et cherchent à les penser ensemble.
Problèmes majeurs des approches épistémiques
[modifier | modifier le wikicode]Ces approches ne sont cependant pas exemptes de difficultés.
D’abord, elles risquent de tourner en rond. Si l’on définit la vérité en termes de vérifiabilité, d’acceptabilité rationnelle idéale ou de convergence de l’enquête, et que l’on définit ensuite la connaissance ou la justification comme des moyens fiables d’atteindre la vérité, on semble pris dans une circularité. On utilise la vérité pour définir les bons processus épistémiques, mais l’on utilise ces mêmes processus pour définir ce qu’est la vérité « épistémiquement ». La frontière entre connexion profonde et redéfinition circulaire devient difficile à tracer.
Ensuite, certaines de ces théories encourent le reproche de relativisme ou de psychologisme : si la vérité est définie par ce que certaines personnes acceptent, jugent rationnel ou trouvent vérifiable, ne risque-t-on pas de réduire la vérité à un état psychologique collectif, variable d’une communauté à l’autre ? Comment préserver alors l’idée d’une vérité qui puisse résister à nos convictions, qui puisse « faire démentir » une communauté entière ?
Enfin, les versions vérificationnistes classiques se heurtent à des difficultés bien connues : leur propre principe de vérification paraît lui-même invérifiable par l’expérience ; elles ont tendance à exclure du domaine du sens des types d’énoncés que l’on hésite à déclarer insignifiants ; elles sous-estiment la possibilité de vérités qui dépassent pour longtemps nos capacités actuelles de vérification, sans être pour autant dépourvues de sens.
Réponses contemporaines et position équilibrée
[modifier | modifier le wikicode]Les défenseurs contemporains d’approches épistémiques tendent à nuancer fortement les thèses les plus ambitieuses du passé. Plutôt que de prétendre réduire la vérité à des notions épistémiques, beaucoup se contentent de souligner une connexion constitutive : la vérité reste une propriété objective des énoncés, mais notre compréhension de ce qu’elle est et de la manière dont elle se manifeste passe nécessairement par l’analyse de nos pratiques de justification, de vérification, de discussion, de correction des erreurs.
Certains adoptent un pluralisme épistémique modéré : la vérité, la connaissance, la justification, la compréhension, les vertus intellectuelles sont autant de biens épistémiques qui se soutiennent mutuellement sans se réduire entièrement les uns aux autres. La vérité conserve un statut central, mais elle n’épuise pas à elle seule tout ce qui compte dans la vie de l’esprit.
Conclusion : la vérité inséparable de l’épistémologie
[modifier | modifier le wikicode]Les théories épistémiques de la vérité, malgré leurs désaccords internes et leurs limites, expriment une intuition profonde : on ne peut pas comprendre pleinement ce qu’est la vérité sans tenir compte de ce que nous faisons lorsque nous cherchons à savoir. La vérité n’est pas seulement un rapport mystérieux entre des propositions et un monde entièrement extérieur à nos pratiques ; elle est aussi ce vers quoi tendent nos enquêtes, ce qui oriente nos normes de justification, ce qui donne sens à nos efforts pour distinguer le savoir de l’illusion.
Même si l’on refuse de définir la vérité exclusivement en termes épistémiques, on est conduit à reconnaître que vérité, justification et connaissance forment un réseau conceptuel étroitement solidaire. C’est ce réseau que l’épistémologie contemporaine s’efforce de démêler, en prenant acte à la fois de l’objectivité de la vérité et du caractère inévitablement situé, faillible et révisable de nos accès humains à cette vérité.
2.6 Pluralisme et contextualisme alétiques
[modifier | modifier le wikicode]Introduction : la multiplicité des formes de vérité
[modifier | modifier le wikicode]Alors que les théories examinées jusqu’ici cherchent, chacune à leur manière, à proposer une explication unique de la vérité valable pour tout type d’énoncé, le pluralisme alétique introduit une rupture profonde : il n’existe pas une seule et même nature de la vérité, mais plusieurs propriétés de vérité distinctes, pertinentes selon les différents domaines de discours. À cette thèse s’ajoute le contextualisme alétique, qui soutient que la vérité d’une proposition peut dépendre de manière systématique du contexte dans lequel elle est formulée.
Au lieu de supposer qu’une seule théorie moniste de la vérité doit s’appliquer indistinctement au discours scientifique, mathématique, moral, juridique ou esthétique, le pluralisme admet que les critères de vérité varient légitimement selon les domaines de connaissance. Le contextualisme, de son côté, souligne que même au sein d’un domaine donné, les conditions de vérité d’une proposition peuvent être sensibles à des paramètres contextuels (par exemple les enjeux pratiques, les présupposés communs, le niveau d’exigence épistémique).
Ces approches, développées notamment par Crispin Wright et Michael P. Lynch, entendent répondre à plusieurs difficultés classiques de la théorie de la vérité : le problème de portée (comment une seule théorie pourrait-elle s’appliquer uniformément à tous les types d’énoncés ?), le problème des inférences mixtes (comment valider les inférences qui combinent des énoncés appartenant à des domaines hétérogènes ?) et, plus indirectement, certains paradoxes sémantiques (comme le paradoxe du menteur), qui semblent mettre à l’épreuve les conceptions monistes trop rigides.
Le pluralisme alétique : principes de base
[modifier | modifier le wikicode]Le pluralisme alétique commence par rejeter le monisme alétique, c’est-à-dire la thèse selon laquelle il existerait une unique propriété de vérité commune à toutes les propositions vraies, quelle que soit leur nature. Selon le moniste, un énoncé empirique de physique (« La pression augmente avec la température, toutes choses égales par ailleurs »), un théorème mathématique (« Deux plus deux égale quatre ») ou un jugement moral (« Cette action est injuste ») sont vrais au sens d’une seule et même propriété — par exemple la correspondance avec les faits, ou la cohérence avec un système de croyances, etc.
Le pluraliste observe au contraire que les grandes théories monistes de la vérité semblent particulièrement adaptées à certains champs, et nettement moins à d’autres. La théorie de la correspondance paraît convenir de manière naturelle aux énoncés empiriques portant sur des faits observables : il est assez intuitif de dire que « La neige est blanche » est vraie parce qu’il existe un état de choses dans le monde — la blancheur de la neige — auquel l’énoncé correspond. Mais cette même notion de correspondance devient plus obscure quand on l’applique à des énoncés mathématiques (« Deux plus deux égale quatre ») ou à des vérités logiques, qui ne semblent pas décrire un état de choses au sens ordinaire. À l’inverse, une théorie de type cohérentiste paraît rendre mieux compte de la vérité en mathématiques ou en logique (où l’enjeu est la place d’un énoncé dans un système démonstratif), mais elle paraît insuffisante pour les énoncés empiriques élémentaires, dont la vérité ne dépend pas uniquement des relations internes à un système de propositions.
À partir de ce constat, le pluralisme alétique soutient qu’il faut admettre la pluralité des propriétés de vérité. La vérité des énoncés empiriques pourrait reposer principalement sur une relation de correspondance à la réalité ; celle des énoncés mathématiques, sur des critères de cohérence, de démontrabilité ou de nécessité logique ; celle de certains jugements évaluatifs, sur des formes d’acceptabilité rationnelle dans des conditions idéales ou sur des critères de justification pratique. L’idée générale n’est pas que chaque domaine soit totalement fermé aux autres, mais que la propriété qui réalise la vérité n’est pas la même partout, même si nous utilisons partout le même mot « vrai ».
On distingue souvent, à l’intérieur du pluralisme alétique, deux versions :
D’un côté, un pluralisme radical affirme qu’il n’existe aucune propriété de vérité commune à tous les domaines ; dans chaque champ, une propriété différente joue le rôle de vérité, et il n’y a entre elles qu’une parenté purement verbale. De l’autre, un pluralisme modéré soutient qu’il existe bien un concept général de vérité — une notion très « allégée » ou minimale — commun à tous les usages, mais que ce concept peut être réalisé par des propriétés différentes selon les domaines (correspondance ici, cohérence ou superassertibilité ailleurs, etc.). C’est cette forme modérée qui est aujourd’hui la plus largement défendue.
Crispin Wright et la superassertibilité
[modifier | modifier le wikicode]Crispin Wright est l’un des principaux artisans contemporains du pluralisme alétique. Il propose d’identifier ce qu’il y a de commun à tous les usages du mot « vrai » à une notion épistémique générale : la superassertibilité. De façon très schématique, une proposition est dite superassertible si elle est actuellement assertible (c’est-à-dire si nous disposons de raisons suffisantes pour l’affirmer) et si cette assertibilité résisterait à toute amélioration possible de l’information et de l’enquête. Autrement dit, une proposition est vraie si elle pourrait être maintenue rationnellement dans le cadre d’une enquête idéale, où toutes les données pertinentes auraient été rassemblées et soumises à la critique.
Cette notion de superassertibilité se veut minimale : elle ne présuppose pas, en elle-même, une métaphysique spécifique de la vérité (ni correspondance, ni cohérence, ni utilité). Elle décrit plutôt le rôle normatif que joue la vérité dans nos pratiques : être vrai, c’est être ce que l’on peut, en principe, affirmer de façon irrévocablement justifiée, quelles que soient les révisions et les corrections ultérieures de nos croyances.
Wright propose par ailleurs une méthode dite des platitudes pour identifier, dans un domaine donné, la propriété qui joue effectivement le rôle de vérité. Les platitudes sont un ensemble de principes largement partagés à propos de la vérité, par exemple l’idée que :
– une proposition vraie est, en un sens, « correcte » indépendamment du fait qu’on y croie ou non ;
– la vérité est en général l’objectif de la croyance et de l’enquête ;
– il n’est pas possible, dans un même contexte, qu’une proposition et sa négation soient toutes deux vraies ;
– la vérité est stable sous l’extension de l’enquête : si une proposition est vraie, l’accumulation de nouvelles preuves ne devrait pas, en principe, la faire passer au faux.
Dans chaque domaine, on examine alors quelle propriété (correspondance, cohérence, superassertibilité, acceptabilité idéale, etc.) satisfait le mieux ce faisceau de platitudes. Celle qui remplit ce rôle dans ce domaine-là mérite alors d’être appelée la propriété de vérité propre au domaine considéré, tout en restant compatible avec la notion générale de superassertibilité comme concept minimal.
Michael Lynch et le fonctionnalisme alétique
[modifier | modifier le wikicode]Michael P. Lynch prolonge et systématise cette intuition en défendant un fonctionnalisme alétique. Au lieu de chercher une unique propriété métaphysique de la vérité, Lynch propose d’identifier la vérité à un rôle fonctionnel : la vérité est ce qui remplit, dans nos pratiques cognitives, une certaine fonction caractéristique. De manière simplifiée, cette fonction consiste à servir de norme générale pour la croyance, à permettre que nos jugements soient évalués, révisés et justifiés en fonction de la manière dont ils se rapportent au réel (ou, dans certains domaines, à des structures rationnelles plus abstraites).
Lynch soutient ainsi qu’il peut exister plusieurs propriétés métaphysiquement différentes qui réalisent ce rôle fonctionnel de la vérité dans des domaines distincts, tout comme, en philosophie de l’esprit, différents états neurophysiologiques peuvent réaliser le même état mental fonctionnel. Ce qui assure l’unité du concept de vérité n’est donc pas l’identité d’une propriété unique, mais l’identité du rôle joué par ces différentes propriétés : être vrai, c’est, en tout domaine, occuper cette place de norme ultime de correction pour les croyances.
Ce fonctionnalisme alétique permet de concilier la diversité réelle des critères de vérité (pluralisme) avec une certaine unité conceptuelle (un seul concept fonctionnel de vérité), sans réduire la vérité à une seule de ses réalisations possibles (par exemple la correspondance).
Le contextualisme alétique
[modifier | modifier le wikicode]Le contextualisme alétique met l’accent non plus sur la multiplicité des propriétés de vérité entre domaines, mais sur la sensibilité au contexte des conditions de vérité d’un énoncé. L’idée générale est que ce qui compte comme vrai ou faux peut dépendre de paramètres contextuels : qui parle, à qui, dans quelles circonstances, avec quels présupposés partagés et quels enjeux pratiques.
Un exemple simple est celui d’énoncés évaluatifs comme « C’est difficile » ou « Il fait froid ». Dire « Ce problème est difficile » peut être vrai dans le contexte d’un enfant de sept ans qui découvre l’addition, et faux dans le contexte d’un mathématicien professionnel pour qui la même tâche est trivialement facile. Le contenu précis de l’énoncé, et donc ses conditions de vérité, varient avec le contexte de prononciation, même si la phrase utilisée reste la même.
Dans la littérature analytique, le contextualisme a été d’abord développé à propos de la connaissance (knowledge contextualism) : les standards de vérité des phrases de type « S sait que p » augmentent ou diminuent en fonction des exigences épistémiques du contexte (par exemple, selon que l’on discute dans un cadre ordinaire ou dans un séminaire sceptique où l’on soulève des scénarios de rêve ou de « cerveau dans une cuve »). On peut transposer cette idée à la vérité elle-même : dans certains contextes, des standards de correspondance très stricts sont requis ; dans d’autres, des critères plus relâchés ou plus pragmatiques suffisent.
On peut distinguer, là encore, des formes plus ou moins fortes de contextualisme :
– Dans une version modérée, le contexte fixe les paramètres pertinents (qui est visé par « difficile », quel degré de précision est exigé, quelles alternatives sont prises en compte, etc.), puis, une fois ce cadre déterminé, la proposition ainsi contextualisée est, de façon objective, vraie ou fausse. Le contexte influe sur les conditions de vérité, non sur la nature même de la vérité.
– Dans une version forte, on va jusqu’à dire qu’une même phrase peut être vraie dans un contexte et fausse dans un autre, sans que l’une de ces évaluations doive nécessairement l’emporter. La vérité est alors explicitement indexée aux contextes, au risque d’approcher une forme de relativisme alétique.
Le contextualisme ne nie pas nécessairement l’existence d’une seule propriété de vérité ; il insiste plutôt sur le fait que les conditions d’application de cette propriété varient avec le contexte. Il est donc conceptuellement distinct du pluralisme, même si, dans la pratique, les deux perspectives peuvent se combiner.
Avantages du pluralisme et du contextualisme alétiques
[modifier | modifier le wikicode]Pluralisme et contextualisme présentent plusieurs atouts théoriques.
D’abord, ils offrent une réponse convaincante au problème de portée. Plutôt que d’exiger d’une seule théorie moniste qu’elle rende compte à la fois de la vérité des lois physiques, des théorèmes mathématiques, des jugements moraux, des appréciations esthétiques et des énoncés de droit, le pluralisme permet de reconnaître que des critères différents sont pertinents dans des domaines différents. Il n’est plus nécessaire de forcer, par exemple, les énoncés moraux à entrer dans le moule de la correspondance, ni les vérités mathématiques à celui de l’utilité pragmatique.
Ensuite, le pluralisme éclaire rétrospectivement le succès partiel des grandes théories traditionnelles de la vérité. Si la correspondance, la cohérence, l’acceptabilité rationnelle ou l’efficacité pragmatique semblent chacune saisir une dimension authentique de la vérité, c’est peut-être parce qu’elles décrivent correctement ce qui se passe dans certains domaines particuliers. Chacune serait alors une bonne théorie sectorielle de la vérité, sans qu’aucune ne puisse prétendre à l’exclusivité.
Le contextualisme, de son côté, rend compte de la sensibilité manifeste de nos jugements de vérité au contexte. Il explique pourquoi certaines disputes apparaissent « purement verbales » : une même phrase peut être évaluée différemment parce que les interlocuteurs n’opèrent pas, de fait, avec les mêmes paramètres contextuels. En reconnaissant explicitement cette dimension, le contextualisme cherche à désamorcer des oppositions apparentes et à clarifier les conditions sous lesquelles un énoncé doit être tenu pour vrai ou pour faux.
Enfin, dans leurs versions les plus tempérées, pluralisme et contextualisme ne renoncent pas à l’idée d’une certaine unité du concept de vérité. Le pluralisme modéré affirme qu’un même concept minimal de vérité se réalise de façons différentes ; le fonctionnalisme alétique soutient que les propriétés diverses de vérité partagent un rôle fonctionnel commun ; le contextualisme maintient que, contexte par contexte, la question de savoir si une proposition est vraie possède encore un sens objectif.
Difficultés majeures : inférences mixtes et unité du concept
[modifier | modifier le wikicode]Le pluralisme est toutefois confronté à plusieurs objections sérieuses. L’une des plus discutées est le problème des inférences mixtes. Supposons un raisonnement qui combine une prémisse empirique (vraie par correspondance) et une prémisse mathématique (vraie en vertu de la cohérence ou de la nécessité démonstrative) pour aboutir à une conclusion, par exemple en physique théorique. Comment garantir que la validité logique de l’argument « préserve la vérité » si la vérité n’a pas la même nature pour chacune des prémisses ? Si ce qui rend vraies les prémisses n’est pas unifié, sur quoi repose le fait que la conclusion soit, elle aussi, vraie ?
Une autre difficulté est le problème de l’unité du concept. Si la vérité signifie des choses très différentes selon les domaines, ne devons-nous pas admettre qu’il existe plusieurs concepts distincts — plusieurs sens du mot « vrai » — plutôt qu’un concept unique pluriel ? La métaphore du « parapluie conceptuel » (un terme unique couvrant des réalités hétérogènes) ne masque-t-elle pas simplement une homonymie ?
On a enfin souligné un problème d’engloutissement analogue à celui rencontré par le veritisme : si, par exemple, la vérité empirique est conçue comme correspondance, mais que cette correspondance est à son tour évaluée ou justifiée par sa place dans une enquête rationnelle idéale, ne risque-t-on pas de réduire finalement toutes les formes de vérité à une seule notion épistémique centrale (par exemple la superassertibilité) ? Le pluralisme ne tend-il pas, de ce fait, à se replier en un monisme déguisé ?
Réponses pluralistes et raffinements contemporains
[modifier | modifier le wikicode]Les pluralistes modérés répondent à ces difficultés en opérant une distinction nette entre le concept de vérité et les propriétés qui le réalisent. Il peut y avoir un seul concept général de vérité — défini minimalement, par exemple, comme ce qui joue le rôle de norme ultime pour la croyance, ou comme ce qui est superassertible — et, simultanément, plusieurs propriétés métaphysiquement distinctes qui remplissent ce rôle dans différents domaines (correspondance, cohérence, etc.).
Dans cette perspective, la logique opère au niveau du concept général de vérité, et non au niveau des propriétés particulières. Les inférences mixtes peuvent alors être considérées comme valides dès lors qu’elles préservent la vérité au sens conceptuel minimal, même si ce qui rend vraies les prémisses et la conclusion diffère d’un domaine à l’autre. La conséquence logique est une relation entre propositions vraies, sans qu’il soit nécessaire d’unifier ce qui, métaphysiquement, les rend vraies.
De plus, le pluralisme contemporain met l’accent sur sa forme modérée plutôt que sur les versions radicales. En conservant un noyau conceptuel unifié, et en admettant que ce noyau peut être réalisé de façon plurielle, il prétend éviter à la fois le relativisme désordonné (où tout critère serait équivalent) et le monisme rigide (qui impose un seul modèle de vérité à tous les domaines).
Pluralisme et contextualisme : distinctions et recoupements
[modifier | modifier le wikicode]Pluralisme alétique et contextualisme alétique ne doivent pas être confondus, même s’ils peuvent se combiner. Le pluralisme affirme que la nature de la propriété de vérité varie d’un domaine à l’autre (physique, mathématique, éthique, etc.) de manière relativement stable. Le contextualisme insiste sur le fait que, à l’intérieur même d’un domaine, les conditions de vérité d’un énoncé peuvent varier selon des paramètres contextuels (enjeux, présupposés, normes de précision, etc.).
Un pluraliste peut très bien être contextualiste : il peut soutenir que différents domaines possèdent des propriétés de vérité différentes et, de surcroît, que, dans chaque domaine, le contexte influe sur la manière dont ces propriétés s’appliquent. Inversement, un contextualiste peut rester moniste : il peut considérer qu’il y a une unique propriété de vérité, tout en maintenant que les conditions de vérité d’un énoncé dépendent fortement du contexte d’énonciation et d’évaluation.
Conclusion : l’apport spécifique du pluralisme alétique
[modifier | modifier le wikicode]Pluralisme et contextualisme alétiques invitent à prendre au sérieux la diversité réelle de nos pratiques de vérité. Ils suggèrent qu’il est peut-être illusoire d’espérer une théorie unique et uniforme qui rendrait compte, d’un seul bloc, de ce qui se passe lorsque nous déclarons vrai un résultat expérimental, un théorème mathématique, un jugement moral ou une appréciation esthétique.
Sans renoncer nécessairement à l’idée qu’il existe un concept général de vérité, ces approches nous incitent à reconnaître que ce concept peut être réalisé de manières différentes selon les domaines, et que ses conditions d’application sont fréquemment sensibles au contexte. Elles expliquent ainsi pourquoi les grandes théories classiques de la vérité semblent chacune saisir une part légitime du phénomène : chacune a peut-être raison quelque part, dans un certain champ, plutôt que la vérité partout.
Reste que le pluralisme, même modéré, doit encore surmonter des difficultés importantes, en particulier la question des inférences mixtes et la préservation d’une unité conceptuelle non purement verbale du terme « vrai ». Mais, qu’on l’adopte ou non, il a eu le mérite de déplacer le débat : au lieu de chercher obstinément la nature unique de la vérité, il oblige à interroger plus finement comment la notion de vérité fonctionne effectivement dans nos différentes pratiques discursives et cognitives. À ce titre, il constitue aujourd’hui l’un des axes les plus stimulants de la réflexion contemporaine sur la vérité.
Chapitre 3 : La justification épistémique
[modifier | modifier le wikicode]3.1 Nature de la justification
[modifier | modifier le wikicode]Introduction : qu’est-ce qui rend une croyance justifiée ?
[modifier | modifier le wikicode]La justification épistémique est l’une des notions centrales de l’épistémologie contemporaine. Elle pose la question fondamentale : qu’est-ce qui rend une croyance justifiée ou rationnelle ? Autrement dit, qu’est-ce qui distingue une croyance solidement fondée d’une opinion arbitraire, d’un simple préjugé ou d’une superstition ? Dans la tradition issue de Platon, la justification est tenue pour une condition nécessaire de la connaissance : on ne peut véritablement connaître que si l’on dispose de raisons adéquates en faveur de ce que l’on croit.
Selon l’analyse classique de la connaissance comme croyance vraie justifiée (Justified True Belief, JTB), dont on trouve déjà les éléments chez Platon, une proposition constitue un cas de connaissance si et seulement si : (1) le sujet y croit, (2) la proposition est vraie, (3) le sujet dispose d’une justification pour cette croyance. Or ce troisième élément demeure obscur : en quoi consiste exactement ce « bon fondement » qui distingue la croyance rationnelle de la croyance téméraire ? C’est autour de cette question que s’articule une grande partie de l’épistémologie contemporaine.
Le problème fondamental de la justification
[modifier | modifier le wikicode]La difficulté fondamentale peut être formulée ainsi : qu’est-ce qui confère à une raison, à une preuve ou à un état cognitif le pouvoir de justifier une croyance ? Plus largement : sous quelles conditions une croyance est-elle véritablement justifiée, plutôt que simplement psychologiquement convaincante ou subjectivement persuasive ?
Cette interrogation en entraîne immédiatement d’autres. Faut-il tenir pour justificatifs uniquement des éléments de nature propositionnelle (énoncés, jugements), ou bien aussi des états expérientiels (par exemple le vécu perceptif d’« il me semble voir un arbre ») ? La justification doit-elle être accessible au sujet — au sens où celui-ci devrait, par réflexion, pouvoir identifier les raisons qui soutiennent sa croyance ? Une croyance peut-elle être objectivement justifiée si, de fait, le sujet l’adopte pour de mauvaises raisons ? Enfin, comment éviter que l’exigence de justification ne conduise à une régression à l’infini ?
Le problème de la régression est en effet la difficulté classique de toute théorie de la justification. Pour que la croyance que P soit justifiée, elle semble devoir être soutenue par une autre croyance que Q. Mais, pour que Q soit à son tour justifiée, elle doit reposer sur une autre croyance que R, et ainsi de suite. On obtient alors soit une régression infinie, apparemment insoutenable pour un esprit fini ; soit un cercle de justifications mutuelles, généralement jugé vicié d’un point de vue épistémique ; soit l’arrêt arbitraire du processus sur une croyance qui ne serait plus elle-même justifiée. L’un des grands enjeux des théories de la justification est précisément de proposer une issue à cette aporie.
Internalisme et externalisme : le grand clivage
[modifier | modifier le wikicode]Les débats contemporains se structurent en grande partie autour de l’opposition entre internalisme et externalisme épistémiques.
L’internalisme épistémique soutient que la justification d’une croyance est entièrement déterminée par des facteurs internes au sujet, c’est-à-dire par des états mentaux auxquels il peut, au moins en principe, avoir accès par réflexion. Pour qu’une croyance soit justifiée, il ne suffit pas qu’elle ait été produite de la « bonne » manière : il faut encore que le sujet puisse, en examinant ses propres états cognitifs, reconnaître les raisons qui la soutiennent. La justification est alors conçue comme quelque chose de transparent ou de « visible » pour la conscience réflexive.
L’externalisme épistémique, à l’inverse, affirme que la justification d’une croyance peut dépendre de facteurs externes au champ de conscience du sujet. Ce qui fait qu’une croyance est justifiée peut relever de caractéristiques objectives de son mode de formation (par exemple la fiabilité du processus cognitif en cause), sans que le sujet ait à en être conscient ni même capable de s’en rendre compte. Ce qui importe, pour l’externaliste, n’est pas tant ce dont le sujet a conscience que la manière dont la croyance est effectivement reliée au monde par un processus approprié.
Cette opposition recoupe un désaccord plus profond sur la fonction de la justification. Pour l’internaliste, la justification est étroitement liée à l’évaluation réflexive de nos croyances : elle doit pouvoir être invoquée dans un contexte de discussion, de doute ou de délibération. Pour l’externaliste, elle renvoie plutôt à la fiabilité objective de nos pratiques cognitives : ce qui compte, c’est que nos croyances soient produites par des mécanismes qui, de fait, conduisent le plus souvent à la vérité.
Le fondationnalisme : la structure de base de la justification
[modifier | modifier le wikicode]Le fondationnalisme est une théorie de la structure de la justification. Il soutient que l’édifice de nos croyances justifiées possède une architecture hiérarchique. Certaines croyances sont de base : elles sont justifiées de manière non inférentielle, c’est-à-dire qu’elles ne tirent pas leur justification d’autres croyances. D’autres croyances, dites non basiques, sont justifiées de manière dérivée, en vertu de leur relation (logique, inductive, explicative) aux croyances de base.
L’idée centrale est que la régression de la justification doit s’arrêter quelque part. Les croyances de base constituent ce point d’arrêt : elles ne sont pas justifiées par d’autres croyances, mais disposent d’une forme d’évidence immédiate (perceptive, introspective, logique, parfois mémorielle) qui suffit à les rendre prima facie rationnelles. Les croyances non basiques héritent alors leur justification de ces fondements, par inférence ou par soutien explicatif.
Les fondationnalistes divergent cependant sur la nature exacte de ces croyances de base. Le fondationnalisme classique tend à exiger une forme forte de sécurité : les croyances de base seraient infaillibles ou du moins indubitables (par exemple certains jugements immédiats de conscience ou certaines vérités logico-mathématiques évidentes). Le fondationnalisme modéré renonce à cette infaillibilité : les croyances de base peuvent, en principe, être erronées, mais elles bénéficient d’une justification immédiate suffisamment robuste pour jouer le rôle de fondation. Enfin, un fondationnalisme externaliste fait dépendre le caractère « basique » non d’une évidence intrinsèque pour le sujet, mais du fait que la croyance provient d’un processus fiable : une perception normale en conditions ordinaires produirait ainsi des croyances de base justifiées, même si le sujet n’a pas réfléchi aux raisons de leur fiabilité.
Le cohérentisme : une approche holistique
[modifier | modifier le wikicode]Le cohérentisme propose une alternative radicale au fondationnalisme. Il refuse l’idée même de croyances privilégiées qui serviraient de fondement ultime. Selon le cohérentisme, une croyance est justifiée dans la mesure où elle s’insère de manière cohérente dans l’ensemble global des croyances du sujet. Ce n’est pas la relation à un socle de croyances auto-évidentes qui confère la justification, mais l’appartenance à un système suffisamment intégré, harmonieux et explicativement puissant.
La justification apparaît alors comme holistique : une croyance isolée ne peut être évaluée qu’en fonction de la place qu’elle occupe au sein du réseau de croyances du sujet. Une croyance qui renforce la cohérence globale du système, qui améliore sa puissance explicative ou qui permet de résoudre des tensions internes aura, de ce point de vue, un meilleur statut justificatif qu’une croyance qui introduit dissonances et contradictions.
Le cohérentisme présente des atouts réels. Il rend compte du fait que même nos croyances apparemment les plus « basiques » (perceptives, par exemple) peuvent être révisées à la lumière d’autres informations ; il explique aussi pourquoi la justification n’est jamais purement locale mais dépend toujours de l’ajustement d’ensemble. Toutefois, cette approche rencontre des difficultés sérieuses. On peut imaginer, au moins en pensée, un système de croyances parfaitement cohérent et pourtant massivement faux : pourquoi un tel système serait-il justifié ? De plus, le cohérentisme doit expliquer comment ce réseau de croyances reste connecté à la réalité, et ne devient pas un simple château de cartes conceptuel flottant au-dessus du monde.
Le fiabilisme : la justification par la fiabilité des processus
[modifier | modifier le wikicode]Le fiabilisme (reliabilism) est une forme d’externalisme qui définit la justification en termes de fiabilité des processus de formation des croyances. Selon cette approche, une croyance est justifiée si et seulement si elle est produite par un processus cognitif généralement fiable, c’est-à-dire un processus qui, dans une proportion suffisante de cas, conduit à des croyances vraies.
Ainsi, les croyances issues d’une perception normale dans des conditions ordinaires, celles qui proviennent d’une mémoire non pathologique, ou encore celles qui résultent de raisonnements logiques corrects, seront typiquement tenues pour justifiées parce que les processus qui les produisent sont, dans notre environnement, globalement fiables. À l’inverse, les croyances formées par astrologie ou par tirage au sort ne seront pas justifiées, même si elles se révèlent par hasard vraies, car les processus qui y conduisent sont globalement non fiables.
Le fiabilisme présente l’avantage de relier étroitement justification et vérité : justifier une croyance, c’est la raccorder à des mécanismes qui, empiriquement, nous conduisent le plus souvent à des croyances vraies. Il évite ainsi de faire de la justification une pure affaire de conscience subjective. Mais cette théorie n’est pas exempte de difficultés. Le fameux scénario du « mauvais démon » (ou du cerveau dans une cuve) suggère que deux sujets psychologiquement indiscernables, dont l’un vit dans un monde normal et l’autre dans un monde systématiquement trompeur, devraient, intuitivement, être également justifiés ; or le fiabilisme standard semble obligé de dire que le second ne l’est pas, puisque les processus qui le guident sont en réalité non fiables. D’autre part, l’externalisme fiabiliste soulève la question de l’accessibilité : si la justification dépend de la fiabilité objective de processus que le sujet ne connaît pas, en quel sens peut-il encore savoir que ses croyances sont justifiées ?
L’évidentialisme : la justification par l’évidence
[modifier | modifier le wikicode]On désigne par évidentialisme (evidentialism) la thèse selon laquelle la justification d’une croyance dépend uniquement de l’évidence dont dispose le sujet. Une croyance est justifiée si, et seulement si, elle est appropriée à la lumière de l’ensemble des données, raisons ou indices dont le sujet dispose effectivement. La justification est alors envisagée comme un rapport d’ajustement ou de conformité entre ce que le sujet croit et ce que son évidence totale rend rationnel de croire.
L’évidentialisme est généralement couplé à un internalisme : l’évidence pertinente est constituée par les états mentaux du sujet (perceptions, souvenirs, intuitions, autres croyances) auxquels il peut, en principe, avoir accès par réflexion. L’évidentialiste défendra, par exemple, qu’il est irrationnel de persister à croire P si l’on reconnaît que la quasi-totalité de l’évidence dont on dispose va à l’encontre de P. À l’inverse, lorsque toute l’évidence disponible converge en faveur de P, la croyance que P est, prima facie, justifiée.
Justification propositionnelle et justification doxastique
[modifier | modifier le wikicode]Les discussions contemporaines introduisent une distinction devenue classique entre justification propositionnelle et justification doxastique.
- On dit qu’un sujet dispose d’une justification propositionnelle pour P lorsqu’il possède de bonnes raisons ou de bonnes preuves en faveur de P, indépendamment du fait qu’il croie effectivement P ou qu’il fonde sa croyance sur ces raisons. Il pourrait, en principe, s’appuyer sur ces raisons pour croire P de manière rationnelle.
- On dit qu’un sujet a une justification doxastique pour sa croyance que P lorsqu’il croit effectivement P en se fondant sur les raisons appropriées dont il dispose. La justification doxastique requiert donc non seulement la possession de bonnes raisons, mais le fait de baser réellement sa croyance sur ces raisons.
Cette distinction permet de clarifier de nombreux cas. Un sujet peut, en principe, avoir toute l’évidence requise pour justifier P, mais, pour des raisons psychologiques contingentes, croire P sur la base d’un préjugé ou d’un motif inapproprié. Sa croyance ne sera alors pas doxastiquement justifiée, même si des raisons suffisantes existaient à sa disposition.
Le problème de Gettier et la justification
[modifier | modifier le wikicode]Les célèbres contre-exemples d’Edmund Gettier (1963) ont montré que la définition classique de la connaissance comme croyance vraie justifiée n’est pas suffisante. Il existe des situations où un sujet possède une croyance vraie, pour laquelle il dispose de bonnes raisons, mais où l’on hésite à parler de connaissance parce que la vérité de la croyance résulte en partie du hasard ou d’une coïncidence fortuite.
Ces cas ont conduit les épistémologues à examiner de plus près la structure de la justification. Il ne suffit pas que la croyance soit accompagnée d’arguments persuasifs ; il faut encore que la manière dont ces raisons conduisent à la croyance exclue certaines formes de chance épistémique. Les approches externalistes, en particulier, ont vu dans les cas de Gettier un argument pour renforcer la dimension causale ou fiable de la justification : une croyance ne peut constituer une connaissance que si elle est reliée de manière adéquate, non seulement rationnelle mais aussi causale, au fait qui la rend vraie.
Conclusion : un concept central et toujours discuté
[modifier | modifier le wikicode]Après des décennies de débats, la notion de justification épistémique demeure l’une des plus disputées de la philosophie contemporaine. Le fondationnalisme insiste sur la nécessité de croyances de base non inférentielles ; le cohérentisme met l’accent sur la cohérence globale de nos systèmes de croyances ; le fiabilisme souligne l’importance de la fiabilité objective de nos processus cognitifs ; l’évidentialisme rappelle que la justification est, pour une large part, affaire d’évidence disponible et d’ajustement rationnel à cette évidence. Chacune de ces approches met en lumière une dimension authentique de notre pratique épistémique, sans parvenir pour autant à s’imposer comme solution définitive.
De nombreux auteurs contemporains s’orientent vers des positions hybrides ou pluralistes, admettant que différents types de croyances (perceptuelles, mémorielles, mathématiques, morales, testimoniales) peuvent être justifiés selon des modalités partiellement distinctes, et que la justification réelle combine souvent des éléments internes (évidence, accessibilité réflexive) et externes (fiabilité, lien causal adéquat au réel).
Quoi qu’il en soit, la tentative de clarifier ce qui rend une croyance véritablement justifiée reste au cœur du projet épistémologique : elle conditionne notre compréhension de la connaissance, mais aussi de la rationalité, de l’enquête scientifique et, plus largement, de ce que signifie pour nous croire de manière responsable.
3.2 Internalisme versus externalisme
[modifier | modifier le wikicode]Introduction : un clivage majeur au cœur de l'épistémologie
[modifier | modifier le wikicode]Le débat entre internalisme et externalisme constitue l’un des clivages majeurs de l’épistémologie contemporaine. Il porte sur une question fondamentale : les facteurs qui déterminent si une croyance est justifiée sont-ils entièrement internes au sujet, ou peuvent-ils inclure des facteurs externes ? Autrement dit, la justification épistémique dépend-elle uniquement des états mentaux du sujet et de ce à quoi il a un accès réflexif, ou peut-elle aussi dépendre de faits extérieurs à la conscience du sujet, comme la structure causale de son environnement ou la fiabilité objective de ses processus cognitifs ?
Ce débat s’est cristallisé dans le sillage du problème de Gettier, à partir des années 1960. La mise en évidence de cas où un sujet possède une croyance vraie et justifiée qui ne semble pourtant pas constituer une véritable connaissance a conduit les épistémologues à réexaminer la relation entre justification et connaissance. Les tentatives de « réparer » la définition classique de la connaissance comme croyance vraie justifiée ont alors donné naissance à deux grandes familles de réponses : celles qui insistent sur ce qui est accessible de l’intérieur au sujet, et celles qui insistent sur les relations externes entre le sujet, ses croyances et le monde.
L’internalisme épistémique : la centralité de l’accès
[modifier | modifier le wikicode]L’internalisme soutient que la justification d’une croyance est entièrement déterminée par des facteurs internes au sujet, en un sens qu’il convient de préciser. De façon générale, l’internaliste estime que, pour qu’une croyance soit véritablement justifiée, le sujet doit, au moins en principe, pouvoir savoir en vertu de quoi elle l’est. La justification doit ainsi dépendre d’éléments enracinés dans la vie mentale du sujet : expériences, états doxastiques, souvenirs, capacités de raisonnement, et non de simples faits objectifs qui resteraient à jamais hors de portée de sa réflexion.
On résume parfois cette position en disant que la justification « supervient sur l’interne ». Cette formule signifie que si deux sujets sont exactement identiques du point de vue de leurs états mentaux – mêmes expériences, mêmes croyances, mêmes dispositions réflexives –, alors ils doivent avoir le même statut justificatoire, quels que soient par ailleurs les faits du monde extérieur. Si l’on modifie l’environnement sans modifier les états mentaux, on ne doit pas, du point de vue internaliste, modifier le degré de justification.
Les internalistes se divisent eux-mêmes selon la manière dont ils définissent ce qui compte comme interne. Une première approche, souvent qualifiée d’internalisme d’accès (accessibilisme), soutient que les facteurs qui déterminent la justification doivent être accessibles au sujet par la réflexion : le sujet doit pouvoir, en examinant son propre esprit, prendre conscience des raisons, preuves ou arguments qui soutiennent sa croyance. Il n’est pas nécessaire qu’il y pense effectivement en permanence, mais il doit être en position de les « faire remonter » à la conscience par un effort réflexif. Une seconde approche, parfois désignée comme mentalisme, élargit ce qui peut compter comme interne : sont internes tous les états authentiquement mentaux du sujet, y compris ceux auxquels il n’a pas un accès réflexif immédiat. Dans cette perspective, certains états non thématisés, voire préconscients, peuvent contribuer à la justification, pourvu qu’ils appartiennent réellement à la vie mentale du sujet.
Dans la tradition internaliste classique, l’accent est principalement mis sur l’accessibilité. L’intuition directrice est qu’on ne peut être tenu pour épistémiquement responsable d’une croyance – c’est-à-dire loué ou blâmé pour l’avoir adoptée – que si l’on est en mesure de ‘‘voir’’ les raisons qui la soutiennent. Si les facteurs qui rendent ma croyance justifiée m’étaient à jamais inaccessibles, il semblerait étrange de dire que j’agis de manière rationnelle en la conservant ou en la révisant. L’internalisme cherche ainsi à articuler la justification avec des notions comme la responsabilité, la transparence réflexive et le contrôle rationnel que le sujet exerce sur ses états doxastiques.
Certains internalistes, plus exigeants, défendent une forme « forte » d’accessibilisme : pour qu’une croyance soit justifiée, il faudrait que le sujet soit effectivement conscient, hic et nunc, des raisons qui la soutiennent. D’autres, plus modérés, considèrent qu’il suffit que le sujet soit en position de les rendre présentes à sa conscience par un effort de réflexion. Cette seconde variante, moins rigide, est la plus largement défendue, car elle permet de tenir compte du fait que nous ne réfléchissons pas en permanence à toutes nos justifications, tout en maintenant le lien étroit entre justification et possibilité de prise de conscience.
L’externalisme épistémique : au-delà de l’esprit
[modifier | modifier le wikicode]L’externalisme adopte une stratégie presque inverse. Selon cette famille de théories, la justification d’une croyance peut dépendre de facteurs externes au sujet, c’est-à-dire de faits qui ne sont pas nécessairement accessibles à sa conscience et qui ne superviennent pas sur ses seuls états mentaux. Ce qui rend une croyance justifiée peut alors être, par exemple, la fiabilité objective du processus par lequel elle a été formée, la relation causale adéquate entre la croyance et son objet, ou encore le bon fonctionnement des facultés cognitives du sujet dans un environnement approprié.
Dans cette perspective, il est possible que deux sujets mentalement indiscernables – ayant exactement les mêmes sensations, les mêmes croyances conscientes et les mêmes raisonnements – aient des statuts justificatoires différents, si leurs environnements diffèrent de manière épistémiquement pertinente. La justification ne dépend plus seulement de ce que le sujet vit de l’intérieur, mais aussi de la manière dont ses croyances sont reliées au monde dans lequel il se trouve réellement.
Le célèbre cas de pensée du « démon trompeur » permet d’illustrer ce désaccord. Imaginons deux sujets, que l’on appellera Pat et Nat, qui ont, à chaque instant, des états mentaux strictement identiques. Pat vit dans un monde ordinaire, peuplé d’arbres, de tables et de montagnes : ses expériences visuelles sont causées par des objets concrets. Nat, en revanche, est victime d’un démon cartésien tout-puissant qui produit en lui exactement les mêmes expériences, sans qu’il y ait derrière celles-ci un monde extérieur correspondant. Du point de vue d’un internaliste, Pat et Nat étant mentalement indiscernables, leurs croyances perceptives ont le même statut justificatoire. Du point de vue d’un externaliste fiabiliste, au contraire, les croyances de Pat sont justifiées parce qu’elles sont issues d’un processus perceptif fiable dans un environnement normal, alors que celles de Nat ne le sont pas, car elles sont systématiquement produites par un dispositif trompeur qui ne met pas le sujet en contact adéquat avec le réel.
Les différentes versions de l’externalisme se distinguent en fonction du type précis de facteur externe qu’elles mettent au centre. Le fiabilisme insiste sur la fiabilité des processus de formation des croyances : une croyance est justifiée si elle provient d’un processus qui, dans une large gamme de situations proches, tend à produire des croyances vraies plutôt que fausses. D’autres auteurs défendent des théories du suivi (tracking theories) : une croyance est adéquatement justifiée si le sujet croirait différemment si le monde était différent, de sorte que sa croyance « suit » la vérité à travers les mondes possibles pertinents. Les théories de la sécurité (safety views) mettent plutôt l’accent sur l’idée qu’une croyance justifiée ne doit pas « facilement » être fausse : dans les circonstances proches de celles où le sujet se trouve, il ne doit pas être facile qu’il forme la même croyance en situation de fausseté. Enfin, le fonctionnalisme adéquat (inspiré des travaux d’Alvin Plantinga) considère qu’une croyance est justifiée si elle résulte des facultés cognitives du sujet fonctionnant correctement, conformément au dessein ou à la fonction pour laquelle elles ont été « conçues », dans un environnement pour lequel elles sont adaptées.
Toutes ces approches ont en commun de refuser de réduire la justification à ce qui est directement introspectible. Pour l’externaliste, ce qui importe avant tout, du point de vue de la valeur épistémique, est que les croyances soient effectivement bien connectées à la vérité, même si le sujet n’est pas toujours en mesure de se rendre compte de cette connexion.
Les motivations principales du débat
[modifier | modifier le wikicode]Les partisans de l’internalisme et de l’externalisme ne se distinguent pas seulement par leurs définitions techniques, mais aussi par les intuitions philosophiques qui motivent leurs positions.
Du côté internaliste, une première motivation majeure tient à la notion de responsabilité épistémique. Nous louons ou blâmons les agents, nous leur demandons des comptes pour leurs croyances : nous leur reprochons d’être crédules, dogmatiques, ou au contraire nous les félicitons pour leur prudence et leur esprit critique. Cette pratique semble présupposer que les sujets ont accès aux raisons de croire qu’ils invoquent, sans quoi il serait difficile de les considérer comme véritablement responsables. Une deuxième motivation est liée aux préoccupations sceptiques. Si la justification dépend, pour une grande part, de facteurs externes qui nous échappent, il devient délicat de savoir si nous sommes effectivement justifiés, ce qui paraît renforcer le scepticisme. L’internalisme cherche à préserver l’idée d’un certain contrôle réflexif que le sujet exerce sur la légitimité de ses croyances. Enfin, les internalistes invoquent souvent l’évidence fournie par l’introspection : lorsque nous examinons nos croyances, c’est en scrutant nos expériences, nos inférences, nos souvenirs, et non en inspectant des faits externes dont nous ne savons parfois presque rien.
Les externalistes sont animés par d’autres préoccupations. Ils insistent d’abord sur la nécessité de maintenir un lien étroit entre justification et vérité. Une théorie de la justification qui n’intègre pas des conditions objectives – comme la fiabilité des processus cognitifs ou la sécurité des croyances – risque de se détacher de ce qui fait la valeur première de la croyance : être vraie. Les externalistes soulignent aussi que de nombreux sujets – enfants en bas âge, animaux, ou adultes peu portés à la réflexion – semblent néanmoins détenir des croyances que nous jugeons épistémiquement bonnes, même s’ils sont incapables d’articuler des raisons ou de satisfaire aux exigences internalistes. Enfin, pour beaucoup d’externalistes, il est simplement contre-intuitif d’affirmer que Nat, le sujet systématiquement trompé par un démon, est tout aussi justifié que Pat : il nous semble naturel de dire que Nat n’a pas vraiment un bon contact cognitif avec le monde, même si, de l’intérieur, ses expériences ressemblent parfaitement à celles d’un sujet bien informé.
Les défis majeurs pour chaque position
[modifier | modifier le wikicode]Chaque camp affronte des difficultés sérieuses que ses adversaires ne manquent pas de souligner.
Les internalistes doivent d’abord répondre au défi du « monde du démon ». S’ils admettent que Nat, dans un monde entièrement illusoire, est tout aussi justifié que Pat, ils doivent expliquer pourquoi nous devrions accorder la même valeur épistémique à des croyances qui, dans un cas, sont systématiquement vraies, et dans l’autre, presque toujours fausses. Ils sont également confrontés à une difficulté conceptuelle : la notion même d’« accès » paraît déjà chargée d’un contenu épistémique – avoir accès, n’est-ce pas, en un certain sens, savoir ? Le risque est alors de définir la justification en termes d’une autre notion qui lui est étroitement apparentée, au lieu d’en donner une véritable analyse. Enfin, l’internalisme semble avoir du mal à rendre compte de croyances que nous jugeons spontanément justifiées sans qu’un travail réflexif conscient soit requis, par exemple les croyances ordinaires de perception chez les enfants ou chez les adultes qui ne se livrent pas à une introspection sophistiquée.
Les externalistes, de leur côté, doivent affronter le reproche d’« inaccessibilité ». Si la justification dépend de facteurs externes qui échappent au sujet, celui-ci risque de ne jamais pouvoir savoir s’il est effectivement justifié. Or il semble faire partie de notre pratique ordinaire que nous puissions, au moins dans une certaine mesure, évaluer nos propres états épistémiques. Les fiabilistes se heurtent, en outre, à ce que l’on appelle le « problème de la généralité » : pour évaluer la fiabilité d’un processus de formation de croyances, encore faut-il déterminer de quel processus il s’agit exactement. Doit-on parler du « système visuel humain », de la « perception en plein jour chez un sujet sans déficience », ou d’un sous-processus encore plus spécifique ? Selon la manière dont on délimite le processus, son taux de fiabilité peut varier, ce qui rend la théorie indéterminée si l’on ne précise pas un critère non arbitraire. Enfin, les externalistes doivent expliquer comment concilier leur thèse avec l’intuition selon laquelle Nat, bien que selon eux non justifié, ne mérite aucun blâme pour ses croyances : il fait, de son point de vue, tout ce qu’un agent rationnel peut faire. Il y a là une tension entre la dimension « axiologique » de la justification (valeur épistémique d’une croyance) et sa dimension « normative » (ce qu’il est raisonnable d’exiger d’un agent).
Les positions intermédiaires et synthétiques
[modifier | modifier le wikicode]Face à ces difficultés réciproques, de nombreux épistémologues ont cherché des voies médianes. Certains défendent un internalisme modéré : ils maintiennent que la justification dépend en premier lieu de facteurs internes, dont le sujet peut rendre compte, mais admettent que des conditions externes – comme le bon fonctionnement des facultés ou la conformité à des normes objectives – jouent un rôle complémentaire. Dans cette perspective, l’internalisme fournirait les conditions de responsabilité du sujet, tandis que certaines exigences externalistes garantiraient la bonne connexion à la vérité.
Inversement, certains externalistes adoptent des formes nuancées de leur position. Ils reconnaissent, par exemple, que pour qu’une croyance soit pleinement justifiée, il ne suffit pas qu’elle résulte d’un processus fiable : encore faut-il que le sujet soit disposé à réagir de manière appropriée à des contre-preuves, qu’il ne soit pas indifférent à l’évidence disponible, et qu’il entretienne un certain rapport réflexif à ses propres croyances. L’externalisme n’exclut alors pas la prise en compte d’exigences internes, mais refuse de les considérer comme suffisantes ou exclusives.
Une autre orientation consiste à adopter un pluralisme justificatif. Plutôt que de chercher une conception unique de la justification valable pour tous les usages du terme, certains auteurs soutiennent qu’il existe plusieurs notions apparentées de justification, adaptées à des objectifs épistémiques distincts. Pour attribuer une responsabilité ou évaluer la démarche d’un agent, une conception internaliste, centrée sur l’accès aux raisons, serait la plus pertinente. Pour expliquer la connaissance en tant que relation réussie au vrai, une conception plus externaliste, orientée vers la fiabilité ou la sécurité des croyances, serait mieux adaptée. Le débat ne porterait plus alors sur la question de savoir qui a absolument raison, mais sur la clarification des différents rôles que le concept de justification joue dans nos pratiques théoriques et ordinaires.
Les implications pratiques du débat
[modifier | modifier le wikicode]Ce débat n’est pas seulement d’intérêt théorique ; il a des conséquences pour d’autres domaines de la philosophie et pour notre manière d’évaluer croyances et pratiques cognitives.
Pour la théorie de la connaissance, la question est de savoir si la connaissance exige que le sujet ait un certain accès réflexif à ses raisons. Un internaliste aura tendance à exiger, pour parler de connaissance, que le sujet soit en mesure d’expliquer en vertu de quoi il croit, au moins dans les cas paradigmatiques. Un externaliste peut être plus enclin à admettre des cas de connaissance « implicite », où le sujet est correctement relié au monde sans pouvoir formuler les raisons qui rendent sa croyance justifiée. Ces divergences influencent la manière dont on traite les cas marginaux : connaissances animales, intuitions perceptives immédiates, connaissances tacites, etc.
En épistémologie appliquée – par exemple dans l’évaluation du témoignage, des médias d’information ou de l’expertise scientifique –, les divergences jouent également un rôle. Une approche internaliste insistera sur la nécessité pour les citoyens d’examiner les sources, de comprendre les arguments, de vérifier les conditions dans lesquelles une information a été obtenue. Une approche plus externaliste accordera davantage de poids au fonctionnement global des institutions cognitives (universités, revues scientifiques, agences d’expertise), à leur fiabilité statistique, même si les individus ne peuvent pas toujours, à titre personnel, accéder aux détails justificatifs. La manière dont on articule ces deux dimensions – contrôle réflexif des sujets d’un côté, fiabilité des structures cognitives de l’autre – conditionne notre conception d’une société épistémiquement saine.
Conclusion : un débat durablement structurant
[modifier | modifier le wikicode]Après plusieurs décennies de discussions, aucun consensus ne s’est imposé en faveur de l’internalisme ou de l’externalisme. Chaque position met en lumière des aspects essentiels de notre vie cognitive. Les internalistes rappellent que la justification n’est pas un simple fait objectif relatif à nos croyances, mais aussi une norme à laquelle nous essayons, en tant qu’agents rationnels, de nous conformer en examinant nos raisons. Les externalistes insistent, pour leur part, sur la nécessité de ne pas détacher la valeur épistémique de la croyance de sa connexion effective à la vérité, connexion qui peut dépendre de faits que nous ne maîtrisons pas intérieurement.
Il est possible que la question « la justification est-elle fondamentalement interne ou externe ? » soit, en elle-même, trop grossièrement posée. Une approche plus fine consisterait à distinguer les diverses fonctions que le concept de justification remplit – évaluer des agents, expliquer la connaissance, guider la recherche de l’information fiable – et à reconnaître que ces fonctions ne requièrent pas nécessairement les mêmes conditions. Dans cette perspective, le débat entre internalisme et externalisme ne disparaît pas, mais se transforme en un travail de clarification conceptuelle plus différencié.
Quoi qu’il en soit, la controverse demeure l’une des plus actives de l’épistémologie contemporaine. Elle continue de susciter des positions intermédiaires, des synthèses originales et des reformulations qui, loin de l’épuiser, montrent au contraire combien la question de savoir ce qui rend nos croyances véritablement justifiées est centrale pour toute réflexion sur la connaissance.
3.3 Structure de la justification : fondationnalisme
[modifier | modifier le wikicode]Introduction : le recours aux croyances de base
[modifier | modifier le wikicode]Le fondationnalisme constitue l’une des théories les plus anciennes et les plus influentes concernant la structure de la justification épistémique. Son idée directrice peut se formuler ainsi : les croyances justifiées ne forment pas un ensemble informe, mais un système organisé de manière hiérarchique, dont la base est constituée par des croyances de base, c’est-à-dire des croyances qui ne dépendent d’aucune autre croyance pour être justifiées, et qui soutiennent l’édifice entier des croyances dérivées. Le fondationnalisme prétend ainsi résoudre le problème de la régression infinie des raisons en affirmant que cette régression trouve un terme naturel dans des croyances fondamentales, qui fournissent un point d’arrêt légitime et justifié.
Alors que l’internalisme et l’externalisme portent principalement sur les facteurs qui déterminent la justification (internes au sujet ou externes à lui), le fondationnalisme s’intéresse à la forme d’ensemble de notre système de croyances : la manière dont les croyances justifiées s’ordonnent et s’articulent les unes aux autres au sein d’une architecture globale. Deux questions commandent toute version du fondationnalisme. Premièrement : qu’est-ce qui confère à une croyance le statut de croyance de base, c’est-à-dire de croyance justifiée indépendamment de toute autre croyance ? Deuxièmement : comment les croyances qui ne sont pas de base reçoivent-elles leur justification d’une manière qui s’enracine ultimement dans ces fondations ?
Le fondationnalisme : architecture conceptuelle
[modifier | modifier le wikicode]La structure hiérarchique des croyances justifiées
Le fondationnalisme repose sur deux thèses étroitement liées :
- Thèse des croyances de base : il existe au moins certaines croyances qui bénéficient d’une justification non inférentielle, indépendante de tout soutien fourni par d’autres croyances. Ces croyances de base possèdent une suffisance justificatrice qui leur est propre.
- Thèse de la chaîne justificatrice : toute croyance qui n’est pas de base – une croyance non de base – doit recevoir sa justification par l’intermédiaire d’une chaîne justificatrice descendante, qui s’appuie, directement ou indirectement, sur des croyances de base. Aucune croyance dérivée ne peut être justifiée uniquement par d’autres croyances elles-mêmes dérivées, sans que la chaîne ne se termine, sous peine de régression infinie ou de circularité.
Le fondationnaliste se représente ainsi la justification sous la forme d’une structure pyramidale : à la base, des croyances fondatrices dotées d’une justification autonome ; plus haut, des croyances non de base, dont la justification se déploie par des relations inférentielles qui renvoient, en dernière analyse, vers ces fondations stables. C’est cette organisation hiérarchisée qui est censée conférer au système de croyances sa solidité épistémique globale.
La justification des croyances de base
Une difficulté majeure surgit aussitôt : si les croyances de base ne tirent pas leur justification d’autres croyances, d’où provient cette justification ? Différentes variantes du fondationnalisme proposent des réponses distinctes.
- Selon certaines versions, les croyances de base possèdent une forme d’auto-justification : elles seraient justifiées en vertu de leurs seules propriétés intrinsèques (par exemple leur évidence irrésistible), sans appel à un facteur extérieur. Cette solution a une certaine élégance conceptuelle, mais elle est métaphysiquement exigeante : comment comprendre qu’une croyance « se justifie » elle-même sans circularité ?
- D’autres fondationnalistes soutiennent que les croyances de base reçoivent leur justification de sources non doxastiques, au premier rang desquelles l’expérience perceptive immédiate (ce qui apparaît dans le champ visuel, auditif, tactile) et l’expérience introspective (la conscience directe de ses propres états mentaux, comme la douleur ou la tristesse). La justification est alors ancrée dans l’expérience vécue, qui jouerait le rôle de « donné » soutenant certaines croyances.
- Enfin, des fondationnalistes de sensibilité externaliste considèrent que les croyances de base sont justifiées du fait qu’elles proviennent de processus de formation des croyances objectivement fiables : les sens, la mémoire normale, certaines formes de raisonnement, dès lors qu’ils fonctionnent correctement dans un environnement approprié. La justification n’est plus liée à un caractère d’évidence interne, mais à la qualité causale des mécanismes cognitifs qui engendrent la croyance.
Le problème de la régression infinie : l’argument fondationnaliste classique
[modifier | modifier le wikicode]L’argument de la régression
L’argument de la régression (souvent désigné par l’expression anglaise regress argument) est la principale motivation du fondationnalisme. Il se déploie en plusieurs étapes.
Considérons une croyance P qui est, supposons-le, justifiée. Si la justification de P est d’ordre inférentiel, elle provient d’une autre croyance Q. Mais, pour que Q puisse justifier P, Q doit elle-même être justifiée. On invoquera alors une croyance R pour justifier Q, et ainsi de suite. Dès lors, quatre possibilités logiquement exhaustives se présentent :
- Régression infinie : la chaîne justificatrice s’étend à l’infini, sans jamais atteindre un point d’arrêt. Or, il paraît psychologiquement impossible qu’un sujet humain possède effectivement une infinité de croyances conscientes formant une telle chaîne. Même en faisant abstraction de cette impossibilité psychologique, la justification semble toujours « fuyante » : pour chaque croyance, on peut toujours demander une nouvelle raison, sans jamais atteindre une justification complète.
- Circularité : la chaîne, au lieu de se prolonger à l’infini, revient à son point de départ. Une croyance B est justifiée par C, C par D, et D, finalement, par B. Cette circularité est généralement jugée épistémiquement vicieuse : le soutien mutuel de croyances se renvoyant les unes aux autres ne fait que refléter un enfermement dans un même cercle, sans fournir de véritable ancrage dans la réalité.
- Arrêt dans l’injustifié : la chaîne s’interrompt sur des croyances qui, elles, ne sont pas justifiées. On pose alors comme « données » de simples opinions dépourvues de fondement, pour en justifier d’autres. Mais il est difficilement acceptable qu’une croyance injustifiée serve de base légitime à la justification d’une autre : si la source est épistémiquement défectueuse, tout ce qui en dérive le sera également.
- Arrêt dans des croyances de base justifiées : la chaîne aboutit à des croyances qui possèdent une justification non dérivée, indépendante de tout soutien doxastique préalable. Ces croyances « de base » sont justifiées, mais ne sont pas justifiées par d’autres croyances.
Pour le fondationnaliste, les trois premières possibilités sont inacceptables : la régression infinie rend la justification inatteignable, la circularité ne fournit qu’une apparence de soutien, et l’arrêt dans l’injustifié nie le principe même de suffisance des raisons. Il en conclut qu’il doit exister des croyances de base justifiées, si l’on veut sauver l’idée même d’une justification rationnelle.
Variantes du fondationnalisme et traits distinctifs
[modifier | modifier le wikicode]Fondationnalisme classique : infaillibilité et certitude
Le fondationnalisme classique – que l’on peut qualifier de fort – impose les exigences les plus strictes quant à la nature des croyances de base. Il soutient que celles-ci doivent être infaillibles ou au moins incorrigibles : elles ne peuvent pas être fausses, ou du moins il n’est jamais rationnel d’en douter. Par ailleurs, cette version tend à considérer que les croyances non de base ne peuvent être justifiées que par des inférences déductives, seules garanties de transférer intégralement la vérité et la justification des prémisses vers la conclusion.
L’histoire de la philosophie offre divers candidats à ce statut fondationnel fort :
- des énoncés d’auto-référence immédiate, tels que « Je pense » ou « Il m’apparaît maintenant du rouge », dont la négation semble auto-contradictoire dans le contexte où ils sont énoncés ;
- des descriptions très fines de l’expérience interne (« J’éprouve maintenant une vive douleur »), que l’on suppose soustraites au doute ;
- certains principes logiques élémentaires, comme le principe de non-contradiction, appréhendés comme immédiatement évidents.
Cette version classique a pour elle le prestige de la certitude, mais elle se heurte à plusieurs difficultés. D’une part, les croyances réellement infaillibles semblent rarissimes ; d’autre part, l’idée que seule la déduction puisse transmettre la justification paraît en décalage profond avec la pratique scientifique et ordinaire, largement fondée sur des inférences non déductives (induction, abduction).
Fondationnalisme modéré : faillibilité et pluralisme inférentiel
Le fondationnalisme modéré – ou faible – renonce à l’idéal d’infaillibilité. Il affirme que les croyances de base peuvent être faillibles : elles peuvent, en principe, être fausses, même si elles bénéficient d’une justification initiale forte. Ce qui les caractérise n’est pas l’impossibilité de l’erreur, mais le fait qu’elles jouissent d’un droit épistémique prima facie : tant qu’aucune raison contraire ne les met sérieusement en cause, elles sont légitimement tenues pour vraies.
Cette version modérée admet également un pluralisme inférentiel : la justification des croyances non de base peut être transmise non seulement par la déduction, mais aussi par des inférences inductives et par des inférences à la meilleure explication. Les pratiques de généralisation empirique, de mise en hypothèse et de raisonnement analogique sont ainsi pleinement intégrées à l’architecture fondationnaliste.
Les croyances de base candidates, dans cette perspective, incluent notamment :
- les croyances perceptuelles ordinaires de premier niveau (« Il y a une table devant moi », « J’entends un bruit de pas dans le couloir ») ;
- les croyances portant sur nos états mentaux conscients (« J’ai soif », « Je ressens de la tristesse ») ;
- certains principes logiques ou mathématiques élémentaires, dont l’évidence rationnelle est robuste, sans être pour autant à l’abri de toute révision possible dans des contextes extrêmes.
Cette version modérée paraît plus conforme à notre expérience cognitive réelle : nous accordons volontiers un crédit initial aux données perceptives et aux impressions introspectives, tout en admettant qu’elles puissent être corrigées ou révisées.
Fondationnalisme minimaliste et pluralisme justificatif
Une version plus minimale du fondationnalisme se borne à affirmer qu’il existe bien, quelque part dans notre système de croyances, des croyances jouant de fait un rôle fondationnel, sans prétendre que toute justification doive se ramener, par des enchaînements explicites, à de telles croyances. Elle laisse ainsi davantage de place à des formes mixtes de justification, où des éléments fondationnels et des éléments cohérentistes (cohérence globale du système de croyances) interagissent. Le fondationnalisme se transforme alors en une thèse surtout négative : il est impossible que toutes nos croyances justifiées soient uniquement dérivées d’autres croyances, sans ancrage aucun dans des croyances ayant un statut plus fondamental.
Identifier les croyances de base : critères et phénoménologie
[modifier | modifier le wikicode]La justification non inférentielle comme marque distinctive
Le trait le plus caractéristique des croyances de base est que leur justification est non inférentielle. Le sujet n’a pas besoin de s’appuyer sur d’autres croyances qu’il possède déjà pour avoir le droit de les tenir pour vraies. Une croyance de base peut être justifiée « dès son apparition » dans l’esprit du sujet, pourvu que certaines conditions soient réunies (fiabilité des facultés, absence de défaite, lucidité minimale).
Critères d’identification
Reste à préciser comment distinguer, parmi nos croyances, celles qui peuvent légitimement être tenues pour de bonnes candidates fondationnelles. Plusieurs critères sont souvent avancés :
- L’auto-évidence : la croyance apparaît au sujet comme manifestement vraie dès qu’il la comprend ou la saisit ; elle ne réclame aucune preuve supplémentaire pour être raisonnablement acceptée.
- L’immédiateté : la justification n’est pas médiatisée par un raisonnement. Entre le contenu de l’expérience (perceptive ou introspective) et la croyance correspondante, il n’y a pas d’étape argumentative intermédiaire.
- La stabilité sous l’examen : la croyance résiste à la réflexion critique. Lorsqu’on s’interroge sur ses raisons de croire, elle ne se trouve pas affaiblie, mais confirmée dans son statut justificatif.
Ces critères ne sont ni nécessaires ni suffisants pris isolément, mais ils contribuent à dessiner le profil des croyances susceptibles d’occuper la base de la structure.
Les « sembler » phénoménaux comme sources de justification
Une approche contemporaine, souvent désignée sous le nom de conservatisme phénoménal, ancre les croyances de base dans les apparences (seemings) phénoménales. L’idée est la suivante : lorsque quelque chose nous semble être le cas – par exemple qu’il y a un arbre devant nous, ou que 2 + 2 = 4 –, ce sembler ainsi constitue, en l’absence de raisons contraires, une raison suffisante pour croire que les choses sont effectivement ainsi. L’expérience phénoménale confère, de manière par défaut, un droit épistémique à la croyance correspondante.
Cette stratégie permet de réconcilier l’exigence fondationnaliste d’une justification non inférentielle avec le constat de notre dépendance à l’égard de ce qui apparaît à la conscience. Elle soulève cependant une question délicate : comment distinguer les apparences « normales » des apparences trompeuses (illusions, hallucinations) sans réintroduire une demande de justification supplémentaire ?
La justification des croyances non de base : inférence et transfert
[modifier | modifier le wikicode]L’inférence comme mode de transfert de la justification
Les croyances non de base reçoivent leur justification grâce à diverses formes d’inférences reliant leur contenu à celui de croyances déjà justifiées. La justification est alors conçue comme une propriété qui se transmet des prémisses vers la conclusion lorsque certaines conditions logiques et contextuelles sont satisfaites.
Diversité des formes d’inférence
Le fondationnalisme modéré reconnaît plusieurs types d’inférences ayant une portée justificatrice :
- Inférence déductive : la conclusion découle nécessairement des prémisses. Si les prémisses sont vraies et parfaitement justifiées, la conclusion ne peut être fausse, et hérite intégralement de leur statut justificatif.
- Inférence inductive : à partir d’un grand nombre de cas observés, on conclut à une régularité générale ou à une anticipation future. L’induction n’offre pas la nécessité, mais une probabilité plus ou moins forte. Le fondationnalisme doit alors accepter une forme de justification graduée : certaines croyances sont plus ou moins fortement soutenues par les données empiriques.
- Inférence à la meilleure explication : parmi plusieurs hypothèses compatibles avec un ensemble de faits, on privilégie celle qui les explique de la manière la plus cohérente, la plus simple et la plus unifiée. Cette forme d’inférence joue un rôle central dans les sciences, où l’on juge les théories à leur pouvoir explicatif global.
Conditions d’une bonne justification dérivée
Pour qu’une croyance non de base soit véritablement justifiée dans un cadre fondationnaliste, plusieurs conditions doivent être réunies :
- la croyance doit être liée, par une relation inférentielle appropriée (déductive, inductive ou abductive), à un ensemble de croyances déjà justifiées ;
- la chaîne inférentielle, si on la prolonge vers le bas, doit aboutir à des croyances de base ; sans ce contact, même l’inférence la mieux formée resterait suspendue dans le vide ;
- enfin, il doit exister une relation de fondation (basing relation) correcte : le sujet doit effectivement tenir sa croyance parce qu’il se fonde, de fait, sur les raisons en question. Il ne suffit pas que la croyance puisse être justifiée par certaines prémisses ; encore faut-il que le processus réel de formation de la croyance reflète cette dépendance aux raisons.
Cette dernière exigence permet de distinguer la simple disponibilité objective d’une justification (il y a des raisons qui pourraient justifier la croyance) de la possession effective de cette justification par un sujet déterminé.
Les atouts du fondationnalisme
[modifier | modifier le wikicode]Mettre fin à la régression
Le premier avantage du fondationnalisme est de proposer une solution claire au problème de la régression infinie : en postulant des croyances de base justifiées, il met un terme au processus de demande de raisons. Au lieu de se perdre dans une exigence de justification sans fin, on admet qu’au niveau des croyances fondamentales, la demande de raisons s’arrête légitimement.
Rendre compte de nos pratiques ordinaires de justification
Le fondationnalisme modéré semble aussi bien décrire nos pratiques ordinaires. Lorsqu’on nous demande pourquoi nous croyons telle ou telle chose, nous sommes enclins à remonter jusqu’à des points d’arrêt du type : « Parce que je le vois », « Parce que je le ressens », « Parce que c’est évident », « Parce que je m’en souviens clairement ». Le fondationnalisme donne un cadre théorique à ces arrêts spontanés dans la chaîne des pourquoi.
Préserver le lien à la vérité
Dans sa version externaliste, le fondationnalisme insiste sur le fait que les croyances de base sont produites par des mécanismes cognitifs en général fiables. Dès lors, le statut fondationnel de ces croyances n’est pas purement subjectif ; il reflète, au moins en moyenne, une connexion réelle avec la structure du monde. La justification n’est pas seulement une cohérence interne, mais aussi un indice de succès cognitif dans un environnement donné.
Objections et difficultés majeures
[modifier | modifier le wikicode]Identifier les croyances de base
Une première difficulté concerne l’identification même des croyances de base. Le fondationnaliste doit être capable de dire, avec un minimum de précision, quelles croyances jouissent de ce statut privilégié. Or, dès que l’on tente de dresser une liste de telles croyances, les controverses surgissent : certains trouvent que la liste est trop restrictive (quasiment aucune croyance ne serait de base), d’autres qu’elle est trop généreuse (on accorderait un privilège injustifié à des croyances en réalité contestables). Le risque est alors d’ériger en « fondations » des convictions que l’on tient pour évidentes simplement parce qu’elles sont profondément enracinées dans une culture ou une époque.
Les croyances de base demandent-elles elles-mêmes des raisons ?
Une autre objection est que, psychologiquement et philosophiquement, nous sommes souvent tentés de demander aussi des raisons pour les croyances supposées fondamentales. Si j’affirme : « J’ai mal », il paraît étrange de me demander une preuve. Mais dans d’autres cas, l’appel à l’expérience ou à l’évidence semble moins probant : « Je vois une table » peut être corrigé en « Je vois un trompe-l’œil », « Je crois percevoir une table, mais c’est un hologramme ». Cette possibilité de rectification donne l’impression que même les croyances dites de base doivent pouvoir, à leur tour, être justifiées, ce qui menace de réintroduire la régression.
Le problème du contenu de l’expérience
On peut également douter que l’expérience perceptive possède, en elle-même, un contenu suffisamment déterminé pour justifier directement des croyances élaborées sur le monde extérieur. L’expérience fournit-elle une croyance immédiate du type « Il y a une table devant moi » ou seulement quelque chose comme « Il m’apparaît une forme rectangulaire, brune, dans telle portion de mon champ visuel » ? Si l’on adopte la seconde option, l’accès au monde extérieur semble demander des inférences supplémentaires à partir de données plus pauvres ; si l’on adopte la première, l’expérience apparaît déjà saturée de concepts et de jugements, et l’on peut se demander si ce qui était censé être « de base » n’est pas déjà une croyance complexe.
Le dilemme de Sellars et la critique du « donné »
Wilfrid Sellars a formulé une critique célèbre du fondationnalisme fondé sur l’idée d’un « donné » expérientiel. Selon lui, ou bien l’expérience a déjà une structure conceptuelle et propositionnelle, et elle tombe alors sous le coup des mêmes exigences de justification que n’importe quelle croyance ; ou bien elle est un simple événement non conceptuel, et il devient mystérieux de comprendre comment un tel événement pourrait, à lui seul, justifier une croyance. Dans les deux cas, l’idée d’un point de départ « donné » et épistémiquement auto-suffisant se trouve gravement mise en cause.
Le risque de « générosité excessive »
D’autres critiques, comme Laurence BonJour, ont soutenu que le fondationnalisme contemporain, notamment lorsqu’il se réclame des apparences phénoménales, tend à être trop généreux dans l’attribution de la justification. Si le simple fait que quelque chose nous semble être le cas suffit à justifier la croyance correspondante, alors un sujet pourrait être massivement dans l’erreur tout en étant néanmoins, d’un point de vue fondationnaliste, largement justifié. L’écart entre justification et vérité risquerait de devenir si grand que la valeur épistémique de la justification s’en trouverait dépréciée.
Le fondationnalisme modéré : une position contemporaine défendable
[modifier | modifier le wikicode]Face à ces objections, de nombreux épistémologues contemporains défendent des versions modérées du fondationnalisme, qui cherchent à conserver l’intuition fondamentale – il doit bien y avoir, quelque part, un point d’arrêt non inférentiel – tout en renonçant aux exigences trop fortes de la certitude absolue ou de l’innocence métaphysique de l’« expérience donnée ».
Dans cette perspective, certaines croyances perceptuelles ou introspectives reçoivent une justification initiale, forte mais révisable, qui peut être renforcée ou affaiblie par la suite en fonction d’autres éléments du système de croyances. De plus, la cohérence globale de ce système joue un rôle important : une croyance qui s’insère harmonieusement dans un réseau déjà bien justifié voit son statut renforcé ; une croyance isolée, en tension avec le reste de nos convictions, voit au contraire sa justification affaiblie, même si elle avait, à l’origine, un certain crédit fondationnel.
Enfin, le fondationnalisme modéré se laisse souvent combiner avec des intuitions externalistes : les croyances de base ne sont pas seulement privilégiées parce qu’elles nous paraissent évidentes, mais aussi parce qu’elles sont produites, dans des conditions normales, par des facultés cognitives fiables. La structure hiérarchique de la justification se trouve ainsi articulée à une théorie générale du bon fonctionnement de l’esprit dans son environnement.
Conclusion : actualité du fondationnalisme
[modifier | modifier le wikicode]Le fondationnalisme, sous ses formes classiques ou révisées, demeure un acteur central du débat en théorie de la justification. En insistant sur la nécessité de croyances de base justifiées non inférentiellement, il offre une image forte et ordonnée de notre vie cognitive : celle d’un édifice de croyances où certaines d’entre elles jouent le rôle de piliers porteurs.
Les principales questions restent cependant ouvertes : existe-t-il véritablement des croyances qui se justifient sans demander d’autres raisons ? Si oui, quelles sont-elles exactement, et comment les distinguer des croyances simplement tenues pour évidentes ? Dans quelle mesure ces croyances de base peuvent-elles être faillibles tout en conservant un statut fondamental ? Les réponses divergent, mais le problème que le fondationnalisme met au jour – la nécessité d’éviter à la fois la régression sans fin, la circularité et l’arbitraire – demeure une contrainte puissante pour toute théorie de la justification. C’est à ce titre que le fondationnalisme conserve, aujourd’hui encore, une place de premier plan dans l’épistémologie contemporaine.
3.4 Structure de la justification : cohérentisme
[modifier | modifier le wikicode]Introduction : le refus des fondations privilégiées
[modifier | modifier le wikicode]Le cohérentisme propose une conception de la structure de la justification épistémique qui rompt en profondeur avec le fondationnalisme. Alors que le fondationnalisme soutient que la justification doit s’édifier sur une base de croyances fondamentales, dotées d’un statut justificatoire privilégié et non dérivé, le cohérentisme affirme au contraire que la justification ne repose pas sur une architecture pyramidale, mais sur un ensemble de croyances formant un système : chaque croyance tire son statut justificatoire de ses relations de soutien mutuel avec les autres croyances du système tout entier.
Aucune croyance ne possède, en droit, un privilège constitutif ; il n’existe pas de « point de départ » auto-justifié qui soutiendrait passivement l’édifice. Une croyance est justifiée dans la mesure où elle s’insère de manière satisfaisante dans un réseau de croyances déjà en place, de telle sorte que l’ensemble forme une structure cohérente, équilibrée et explicativement féconde.
Le cohérentisme apporte ainsi une réponse originale au problème de la régression à l’infini : il refuse l’idée que la justification doive se déployer selon une chaîne linéaire qui devrait s’achever soit dans des croyances non justifiées, soit dans des croyances auto-fondées. Pour le cohérentiste, la justification n’est pas une ligne qui descend vers des fondations, mais un tissu de relations d’appui réciproques : les croyances se soutiennent mutuellement à l’intérieur d’un système interconnecté, au sein duquel la circularité n’est pas nécessairement vicieuse, pourvu qu’elle s’inscrive dans une structure globale suffisamment cohérente.
Le cohérentisme : architecture conceptuelle et principes centraux
[modifier | modifier le wikicode]La conception holistique de la justification
Le cohérentisme s’organise autour d’une thèse directrice :
- Thèse holistique principale : La justification épistémique est, en premier lieu, une propriété du système de croyances d’un sujet, et seulement de manière dérivée une propriété de croyances singulières. Une croyance n’est pas justifiée en vertu d’une qualité intrinsèque isolée, mais parce qu’elle trouve sa place dans un ensemble de croyances qui, pris globalement, présente un haut degré de cohérence.
Ainsi, la question « cette croyance est-elle justifiée ? » ne peut être traitée de façon strictement locale. Elle exige d’examiner comment cette croyance s’articule avec les autres : s’accorde-t-elle avec elles ? les contredit-elle ? permet-elle d’expliquer certaines d’entre elles, ou un ensemble d’expériences ? clarifie-t-elle ou simplifie-t-elle la structure du système ? C’est l’harmonie relative de l’ensemble, et non la solidité isolée de quelques « fondations », qui confère un poids justificatoire.
L’architecture réticulaire de la justification
Pour éclairer cette idée, les cohérentistes recourent volontiers à des images architecturales. Le fondationnaliste se représente la justification sur le modèle d’un bâtiment reposant sur des piliers porteurs : les croyances de base jouent le rôle de fondations, tandis que les autres croyances, situées à des niveaux supérieurs, dépendent d’elles sans leur rendre en retour un soutien justificatoire.
Le cohérentiste préfère une autre image, plus dynamique : celle d’une voûte ou d’un réseau. Dans une voûte de pierres appareillées, aucune pierre unique ne joue le rôle de fondation absolue ; chaque pierre soutient les pierres voisines et se trouve elle-même maintenue par elles. La stabilité de l’ensemble ne résulte pas de la solidité d’un bloc premier, mais d’un équilibre de forces distribuées dans tout l’arc. De même, dans un réseau de croyances, chaque élément reçoit un soutien du système et contribue en retour à sa cohésion ; l’édifice tient parce que les relations sont bien ajustées, non parce qu’un socle ultime serait inébranlable.
Cette métaphore interdit l’idée d’une croyance qui serait justifiée par avance en dehors de tout contexte : ce qui importe est la place que la croyance occupe dans la trame de nos engagements, et les ajustements qu’elle impose ou permet au système dans son ensemble.
La remise en cause cohérentiste de l’argument de la régression
[modifier | modifier le wikicode]Révision des prémisses de la régression à l’infini
L’argument fondationnaliste classique de la régression soutient qu’une croyance justifiée doit être fondée sur une autre croyance déjà justifiée ; si chaque croyance devait ainsi en présupposer une autre, on obtiendrait soit une régression infinie, soit un cercle, soit un arrêt arbitraire dans l’injustifié. D’où la conclusion : il faut bien des croyances de base, qui ne tiennent pas leur justification d’autres croyances.
Le cohérentiste ne conteste pas que, dans nos pratiques de justification, nous invoquions certaines croyances pour en soutenir d’autres. Il refuse cependant l’hypothèse implicite selon laquelle la justification devrait être pensée selon le modèle d’une chaîne unidirectionnelle : A justifie B, B justifie C, etc. Il soutient au contraire que la justification a fondamentalement une structure réticulaire et circulaire :
- une croyance peut renforcer la crédibilité d’une autre, tout en recevant d’elle un appui en retour ;
- la « circularité » n’est pas en soi un vice, si elle s’inscrit dans un ensemble suffisamment riche, diversifié et intégré pour que le système, dans son ensemble, rende raison de nos expériences et reste ouvert à la révision.
L’argument fondationnaliste présuppose que tout cercle justificatoire est désespérément suspect. Le cohérentiste répond qu’il n’en est pas ainsi : un petit cercle isolé de deux ou trois croyances arbitraires est certes épistémiquement stérile, mais un vaste réseau, où les liens explicatifs, inductifs et conceptuels sont multiples et croisés, peut parfaitement produire, à l’échelle du système, une justification satisfaisante.
La circularité dans un cadre systémique
La circularité justificatoire n’est acceptable, selon le cohérentiste, qu’à certaines conditions exigeantes. Il ne s’agit pas de dire que « A justifie B et B justifie A » serait suffisant. Pour que la circularité ne soit pas purement illusoire, il faut que :
- le système comporte un grand nombre de croyances distinctes, portant sur des domaines variés ;
- ces croyances soient reliées par des liens conceptuels, explicatifs et inductifs riches ;
- le système soit capable d’intégrer des données nouvelles, de corriger des erreurs locales, de se transformer sans perdre sa cohésion d’ensemble.
Ce n’est donc pas la circularité en tant que telle qui fonde la justification, mais la capacité du système circulaire à organiser, expliquer et anticiper un large spectre de croyances et d’expériences, tout en restant relativement stable et révisable. Dans cette perspective, la régression n’est plus un gouffre à éviter, mais la marque de la complexité normale d’un tissu de raisons qui se soutiennent mutuellement.
La notion multidimensionnelle de cohérence : au-delà de la simple consistance
[modifier | modifier le wikicode]La cohérence ne se réduit pas à l’absence de contradiction
Une difficulté immédiate pour le cohérentisme consiste à préciser ce qu’il entend par « cohérence ». On pourrait croire, de manière simpliste, qu’un ensemble de croyances est cohérent s’il ne contient pas de contradiction formelle : aucune croyance ne doit logiquement impliquer la négation d’une autre. Or cette condition de consistance, bien que nécessaire, est manifestement insuffisante.
En effet, un ensemble de croyances peut être parfaitement consistant tout en étant épistémiquement misérable. Une collection de propositions disparates, sans aucun lien thématique ni explicatif, pourrait être logiquement non contradictoire et pourtant dépourvue de toute cohérence au sens fort. La cohérence justificatrice véritable doit donc impliquer plus que l’absence de contradiction ; elle renvoie à une structure d’ensemble intelligible et articulée.
Les dimensions de la cohérence justificatrice
Les cohérentistes contemporains distinguent plusieurs dimensions complémentaires de la cohérence :
- Consistance logique : l’ensemble ne doit pas contenir de contradictions manifestes. C’est une exigence minimale : un système où l’on affirme à la fois p et non-p perd immanquablement de sa valeur justificatrice.
- Articulation conceptuelle : les croyances doivent entretenir des liens conceptuels intelligibles entre elles. Elles doivent s’ordonner selon des relations de spécialisation, de généralisation, de précision, de conséquence ou d’incompatibilité conceptuelle qui confèrent à l’ensemble une structure compréhensible, plutôt qu’un simple inventaire de propositions juxtaposées.
- Cohérence explicative : un système cohérent est capable d’expliquer un grand nombre de croyances particulières et de données d’expérience par un petit nombre de principes plus généraux. Ainsi, la croyance que « les corps tombent vers le sol » et celle que « les planètes décrivent des trajectoires elliptiques » trouvent une cohérence accrue lorsqu’elles sont expliquées par une théorie commune de la gravitation. La capacité d’un ensemble de croyances à rendre intelligibles de multiples phénomènes constitue une dimension décisive de la cohérence.
- Soutien inductif et probabiliste : les croyances d’observation, les généralisations empiriques et les hypothèses théoriques doivent se renforcer mutuellement. Plus un système parvient à prédire avec succès des observations nouvelles et à intégrer les résultats expérimentaux, plus sa cohérence probabiliste augmente. La cohérence n’est pas seulement logique : elle est également inductive et confirmative.
- Simplicité et économie : à contenu explicatif égal, un système qui recourt à moins d’hypothèses ad hoc, qui évite les complications inutiles et qui unifie les phénomènes sous des principes sobres, est réputé plus cohérent qu’un système proliférant en explications disparates.
- Stabilité et capacité de révision : un système cohérent ne s’effondre pas sous l’ajout d’une information nouvelle ; il peut au contraire absorber des corrections locales en réaménageant ses croyances périphériques, tout en conservant un noyau stable et intelligible. Cette capacité d’autorévision contrôlée est elle-même un indice de cohérence.
Ainsi comprise, la cohérence n’est pas un critère monolithique, mais un faisceau de propriétés structurelles qui, combinées, confèrent un poids justificatoire au système de croyances.
Variantes du cohérentisme
[modifier | modifier le wikicode]Cohérentisme holiste classique
Le cohérentisme holiste soutient que le statut justificatoire d’une croyance dépend exclusivement de sa place dans la totalité du système de croyances d’un sujet. Pour savoir si une croyance donnée est justifiée, il faudrait en principe se demander comment elle s’intègre à l’ensemble complet : quelles modifications elle impose, quelles tensions elle crée ou résout, quelles explications nouvelles elle permet ou interdit.
Laurence BonJour, par exemple, défend un cohérentisme de ce type en insistant sur le caractère symétrique et réciproque des relations justificatrices : aucune croyance ne joue, par nature, le rôle de point de départ indiscutable ; la justification naît de l’organisation d’ensemble, non d’un privilège originel concédé à certains énoncés.[73]
Cohérentismes modérés et approches hybrides
D’autres auteurs défendent des formes plus modérées de cohérentisme. Certains soutiennent qu’il est possible de raisonner de manière plus locale : de petits sous-systèmes de croyances, fortement interconnectés et relativement autonomes, peuvent avoir une pertinence justificatrice propre, sans qu’il soit toujours nécessaire de prendre en vue l’ensemble du système.
D’autres encore, comme Susan Haack, proposent des positions hybrides – parfois qualifiées de « fondhérentistes » – qui combinent des éléments fondationnalistes et cohérentistes : il existe bien des croyances d’observation disposant d’un statut privilégié, mais leur contribution justificatrice ne se comprend qu’à l’intérieur d’un réseau plus large de dépendances mutuelles.[74] Ces positions témoignent de la plasticité du schème cohérentiste, susceptible de diverses inflexions.
Les mérites philosophiques du cohérentisme
[modifier | modifier le wikicode]Une réponse originale au problème de la régression
Le premier mérite du cohérentisme est de proposer une issue qui ne passe ni par une régression infinie, ni par un arrêt dogmatique, ni par une circularité superficielle. En situant la justification au niveau du système, il considère la régression non comme une menace à conjurer, mais comme l’expression de l’intrication normale des raisons : il est naturel que la plupart de nos croyances s’appuient sur d’autres, qui à leur tour renvoient à un réseau plus large, sans que cela oblige à désigner un commencement absolu.
Un modèle fidèle de la pratique rationnelle et scientifique
Le cohérentisme apparaît également plausible lorsqu’on examine la pratique réelle des sciences. Les théories scientifiques ne se présentent pas comme des édifices parfaitement hiérarchisés reposant sur quelques énoncés indubitables ; elles forment plutôt des ensembles d’hypothèses, de lois, de modèles, d’énoncés d’observation et de principes méthodologiques qui se soutiennent mutuellement.
Lorsqu’un résultat expérimental contredit une prédiction, on ne renonce pas automatiquement au « fondement » le plus élémentaire ; on examine l’ensemble : l’instrumentation, les hypothèses auxiliaires, les approximations de calcul, etc. Une théorie gagne en justification non parce qu’elle se rapproche d’un socle inébranlable, mais parce qu’elle s’intègre de mieux en mieux à un réseau de croyances interconnectées, explicatives et prédictives.
Un schème adapté à la révision continue des croyances
Enfin, le cohérentisme rend compte de la manière dont nous révisons effectivement nos croyances. Nous ne partons pas d’un fondement absolu pour en dériver mécaniquement toutes les autres croyances ; nous ajustons sans cesse notre système à la lumière de nouvelles informations, en renonçant parfois à des convictions profondes lorsque leur maintien engendrerait trop de tensions avec le reste de ce que nous tenons pour vrai. La rationalité épistémique apparaît alors comme un travail permanent d’ajustement et de rééquilibrage du système, ce que le modèle cohérentiste embrasse naturellement.
Objections majeures au cohérentisme
[modifier | modifier le wikicode]L’objection de l’isolement
La critique la plus célèbre est l’objection de l’isolement : un système de croyances pourrait être parfaitement cohérent tout en étant entièrement faux et sans rapport avec la réalité. On peut imaginer un sujet enfermé dans une simulation parfaite ou trompé par un démon cartésien : toutes ses croyances sur son environnement, son corps, l’histoire du monde, se soutiennent mutuellement, expliquent ses expériences apparentes, prédisent correctement ce qu’il « verra » dans la simulation ; et pourtant, rien de tout cela ne correspond au monde réel.
Si la seule cohérence intra-systémique suffisait à fonder la justification, il faudrait reconnaître à ce sujet des croyances pleinement justifiées, alors même qu’il vit dans une illusion généralisée. Cette conséquence paraît contre-intuitive : la justification semble exiger non seulement une bonne organisation interne des croyances, mais aussi un certain ancrage dans le réel.
Permissivité excessive et pluralité de systèmes cohérents
Une objection proche souligne le risque de permissivité : plusieurs systèmes de croyances distincts, incompatibles entre eux, pourraient chacun présenter un haut degré de cohérence interne. Rien, dans la conception purement cohérentiste, ne garantirait a priori qu’un seul système soit justifié.
Si des ensembles de croyances radicalement divergents – portant par exemple sur la structure de l’univers, l’existence de certaines entités, ou les normes morales fondamentales – peuvent tous atteindre une forte cohérence interne, le cohérentisme semble condamné à admettre une pluralité de systèmes également justifiés, sans critère pour trancher entre eux. Il risquerait alors de glisser vers une forme de relativisme épistémique.
Le problème de l’« entrée » de l’expérience
Une autre difficulté, souvent relevée, concerne le statut de l’expérience dans un schème cohérentiste. Si seules les croyances peuvent justifier des croyances, comment comprendre le rôle des données sensibles, des impressions perceptives, des affects ?
Le cohérentiste répond généralement que l’expérience intervient sous la forme de croyances d’observation (« il me semble voir une table », « j’éprouve une douleur vive »), qui appartiennent au système et y occupent une place particulière : elles sont plus fermement ancrées, plus résistantes à la révision que d’autres. Mais certains critiques objectent que, si l’on admet ainsi des « croyances d’observation » privilégiées, on se rapproche dangereusement d’un fondationnalisme déguisé ; et si l’on refuse tout privilège à ces croyances, on ne comprend plus comment l’expérience contraint effectivement nos théories. C’est le problème dit de l’entrée (input problem) du cohérentisme.[75]
Réponses cohérentistes contemporaines
[modifier | modifier le wikicode]Les cohérentistes ont développé diverses stratégies pour répondre à ces objections.
Certains insistent sur le fait que l’expérience n’est pas un élément extérieur à la sphère des croyances, mais qu’elle se manifeste à travers des croyances d’un type particulier, fortement reliées à nos sensations et difficilement révisables sans raison puissante. Ces croyances d’observation, bien qu’elles ne soient pas infaillibles, jouent un rôle de points d’ancrage pour le système : lorsque des tensions apparaissent, c’est d’abord la périphérie théorique qui est remise en cause, et non ces croyances immédiatement liées à la perception.
D’autres élaborent des conceptions naturalistes de la cohérence : la cohérence d’un système de croyances n’est plus seulement un critère logique interne, mais se mesure à sa capacité à guider efficacement l’action, à s’accorder avec les méthodes des sciences empiriques, à produire des prédictions fructueuses. La cohérence inclut alors, en quelque sorte, la contrainte du réel dans sa définition même.
Enfin, plusieurs auteurs reconnaissent les limites du cohérentisme « pur » et adoptent des positions mixtes, dans lesquelles la cohérence joue un rôle central mais non exclusif : elle vient compléter d’autres sources de justification (expérience perceptive, mémoire, témoignage), sans s’y substituer entièrement. C’est la combinaison d’un certain ancrage expérientiel et d’une forte cohérence interne qui fonde, en dernière analyse, le caractère raisonnable de nos croyances.
Conclusion : la place du cohérentisme dans l’épistémologie contemporaine
[modifier | modifier le wikicode]Le cohérentisme demeure aujourd’hui l’une des grandes théories concurrentes du fondationnalisme pour penser la structure de la justification. Il met en valeur le caractère systématique de nos croyances, l’importance des liens explicatifs et inductifs qui les unissent, et la dimension dynamique de la rationalité, comprise comme révision incessante d’un réseau de convictions plutôt que comme déduction à partir de fondements intangibles.
Les objections classiques – en particulier l’isolement possible d’un système cohérent par rapport à la réalité, et la difficulté d’intégrer l’expérience comme source de contrainte – n’ont pas été définitivement levées. Mais les efforts pour y répondre ont enrichi l’analyse de la cohérence elle-même et favorisé l’émergence de positions hybrides où la cohérence, loin d’être un critère unique, devient l’une des vertus épistémiques décisives d’un ensemble de croyances.
Le débat entre fondationnalisme et cohérentisme, loin d’être clos, continue ainsi de structurer l’épistémologie contemporaine et de nourrir la réflexion sur la manière dont nos croyances peuvent, ou non, être légitimement tenues pour justifiées.
3.5 L'infinitisme : l'acceptation de la régression justificatoire à l'infini
[modifier | modifier le wikicode]Introduction : une troisième voie face à la régression de la justification
[modifier | modifier le wikicode]L’infinitisme est une position théorique audacieuse et largement contre-intuitive qui se présente comme une alternative à la fois au fondationnalisme et au cohérentisme. Alors que le fondationnalisme soutient que la régression de la justification doit s’interrompre dans des croyances de base auto-justifiées, et que le cohérentisme affirme que cette régression peut légitimement prendre la forme d’un réseau circulaire de croyances se soutenant mutuellement, l’infinitisme propose une troisième voie : accepter que la régression justificatoire se poursuive sans fin et reconnaître que cette infinité non répétitive constitue précisément la structure adéquate de la justification.
Pour l’infinitiste, une croyance ne jouit d’une véritable justification que si elle s’inscrit dans une chaîne potentiellement infinie et non répétitive de raisons justificatrices, disponibles en principe pour le sujet. L’idée centrale est que la demande de justification ne saurait être légitimement interrompue ni par un arrêt arbitraire dans des « fondements » ultimes, ni par une circularité où l’on reviendrait, de manière plus ou moins déguisée, au point de départ.
Cette position se présente explicitement comme une réponse à ce que Peter D. Klein appelle le problème de l’amélioration de la justification : lorsqu’une croyance est mise en question, de quelle manière une raison supplémentaire peut-elle véritablement améliorer son statut justificatoire ? L’infinitiste répond : seule une chaîne illimitée de raisons nouvelles, jamais répétées, permet d’améliorer indéfiniment la justification sans sombrer ni dans l’arbitraire fondationnel ni dans la circularité cohérentiste. Le mouvement sans fin de la demande de raison ne constitue plus un « défaut » de notre système de croyances, mais devient au contraire sa structure normative appropriée.
Les deux principes axiomatiques de l’infinitisme épistémique
[modifier | modifier le wikicode]Le Principe de Non-Circularité (PNC)
L’infinitisme repose sur deux principes de base qui organisent l’ensemble de la théorie. Le premier est le Principe de Non-Circularité. On peut le formuler ainsi : si un sujet S possède une véritable justification pour une croyance B, alors aucune croyance B* qui intervient à quelque niveau que ce soit dans la chaîne justificatrice de B ne peut être identique à B, ni logiquement équivalente à B, ni constituer une partie d’une conjonction logiquement équivalente à B. En d’autres termes, une croyance ne peut jamais faire partie de sa propre généalogie justificatoire ; la circularité – directe ou indirecte – est épistémiquement proscrite.
Ce principe traduit une intuition profondément ancrée : la justification circulaire, loin d’apporter un gain cognitif, revient à tourner en rond. Si je prétends justifier la croyance « le feu produit une chaleur intense » par l’énoncé « j’ai observé à de nombreuses reprises que le feu produit de la chaleur », et que, sous la pression d’une demande supplémentaire, je fais finalement appel, d’une manière ou d’une autre, à la croyance initiale pour justifier la croyance perceptive elle-même, je n’ai pas véritablement avancé. Je me contente de décrire la même chose sous des formulations différentes ; je manque le type de progression justificatoire qu’exige l’enquête rationnelle. Le PNC généralise cette intuition et l’érige en norme : l’amélioration de la justification requiert que l’on passe à des raisons réellement nouvelles et distinctes.
Le Principe d’Amélioration par Raisons Additionnelles (PARA)
Le second principe, le Principe d’Amélioration par Raisons Additionnelles, complète le premier. Il affirme que, pour toute croyance justifiée d’un sujet S, il existe en principe une chaîne de raisons telle que chaque élément de la chaîne justifie entièrement le précédent, et que cette chaîne est, par nature, ouverte à une extension indéfinie. Aucune raison isolée n’est, à elle seule, définitivement et de manière autonome suffisante ; chaque raison appelle à son tour une nouvelle raison qui en soutient la valeur justificatrice.
Ce principe exprime l’idée que, dès lors que l’on admet qu’une raison peut améliorer la justification d’une croyance, rien ne justifie rationnellement d’assigner un point d’arrêt nécessaire à ce processus. Si R justifie P, on peut toujours demander ce qui justifie R ; si une nouvelle raison R* vient justifier R, on pourra à son tour interroger le statut de R*, et ainsi de suite. Si l’on prend au sérieux la normativité de cette exigence de raison supplémentaire, alors il n’existe pas de « dernier mot » justificatoire qui serait rationnellement à l’abri de toute demande de fondement. Le PARA systématise cette idée : la logique interne de la justification entraîne une ouverture structurelle vers une régression à l’infini.
La structure architectonique infinitiste de la justification
[modifier | modifier le wikicode]La chaîne infinie et non répétitive : cœur du modèle
De la combinaison du PNC et du PARA découle la thèse infinitiste centrale : pour qu’une croyance soit véritablement justifiée pour un sujet donné, il faut qu’il existe, en principe, une chaîne infinie et non répétitive de raisons, telle que chaque raison justifie la précédente et qu’aucune ne réapparaisse dans la série. La structure justificatoire adoptée par l’infinitisme a donc la forme d’une progression sans terme.
On peut se la représenter ainsi : la croyance initiale P est justifiée par une raison r1. Cette raison r1 reçoit à son tour sa justification de r2, r2 est justifiée par r3, r3 par r4, et ainsi de suite, sans fin. La chaîne r1, r2, r3, r4, … n’est pas seulement potentiellement très longue : elle est, en droit, illimitée, et aucun maillon n’y fait retour. Chaque raison a pour rôle d’améliorer la justification de la raison immédiatement antérieure, et l’ensemble de la structure confère à la croyance de départ un statut justificatoire qui ne cesse de s’accroître à mesure que l’on progresse dans la chaîne.
Contrairement au fondationnaliste, l’infinitiste ne cherche pas un point d’arrêt privilégié qui serait, par nature, « auto-justifié ». Contrairement au cohérentiste, il refuse que l’on puisse revenir, d’une manière ou d’une autre, à des croyances déjà convoquées, même si c’est sous une forme reformulée ou intégrée dans un réseau global. La justification, pour lui, est intrinsèquement dynamique : elle consiste dans la possibilité de prolonger indéfiniment une série de raisons nouvelles.
L’argument infinitiste contre le trilemme d’Agrippa
Le trilemme d’Agrippa met en lumière trois issues possibles pour la régression des raisons : la régression infinie, la circularité, ou l’arrêt arbitraire. Le fondationnalisme assume l’arrêt arbitraire dans des croyances de base injustifiées mais supposées indubitables ; le cohérentisme assume la circularité en faisant valoir la force d’un système de croyances mutuellement soutenues ; l’infinitisme, quant à lui, assume la régression à l’infini et la réhabilite comme structure normative.
Pour Peter D. Klein, le véritable problème n’est pas la régression en tant que telle, mais le manque d’amélioration justificatoire. Un arrêt arbitraire dans des croyances de base ne permet pas d’expliquer en quoi ces croyances, plutôt que d’autres, devraient jouir d’un statut privilégié. De même, une circularité, même large, semble toujours trahir une forme de complaisance : on finit par se justifier à partir de ce que l’on présuppose déjà. L’infinitisme se présente alors comme la seule position qui, tout en prenant au sérieux l’exigence d’une amélioration constante, évite à la fois l’arbitraire et la circularité. La régression à l’infini n’est plus un scandale théorique, mais la seule réponse cohérente à la normativité de la demande de raison.
L’accessibilité en puissance des raisons infinies : un problème psychologique central
[modifier | modifier le wikicode]Le problème de l’accessibilité psychologique
L’objection la plus immédiate semble insurmontable : comment un sujet humain, fini et limité, pourrait-il posséder une justification qui dépend d’une infinité de raisons ? Il serait absurde de prétendre qu’un sujet garde présentes à l’esprit, à chaque instant, une quantité illimitée d’éléments justificatifs articulés.
L’infinitisme répond en distinguant l’accessibilité actuelle de l’accessibilité en puissance ou dispositionnelle. Il n’est nullement requis que le sujet ait actuellement en tête, de manière consciente et explicite, l’ensemble des raisons composant la chaîne infinie. Ce qui est requis, c’est que pour tout maillon de la chaîne, le sujet soit, en principe, capable de fournir une raison supplémentaire si la situation épistémique le demande. Autrement dit, l’ensemble de la chaîne n’est pas effectivement parcouru, mais le sujet possède la capacité de prolonger la série chaque fois qu’une raison nouvellement produite est mise en cause.
Cette distinction est essentielle : l’infinitisme ne mise pas sur un stock infini de contenus présents dans la conscience, mais sur une compétence cognitive, une disposition à produire des raisons supplémentaires lorsque les conditions de la discussion ou de l’enquête l’exigent. La justification repose alors, non sur l’énumération effective d’une suite infinie, mais sur l’aptitude, toujours reconductible, à fournir de nouvelles raisons.
L’analogie avec d’autres capacités cognitives
L’infinitiste invoque volontiers une analogie avec d’autres domaines cognitifs. Ainsi, un mathématicien qui maîtrise les axiomes de l’arithmétique ne détient pas actuellement, dans sa conscience, toutes les conséquences possibles de ces axiomes. Pourtant, on estime qu’il sait qu’il pourrait, pas à pas, dériver une infinité de théorèmes à partir de ce petit ensemble de principes de base. Ce qu’il possède, ce n’est pas un inventaire achevé de résultats, mais une capacité réglée à en produire indéfiniment de nouveaux.
De manière similaire, l’agent épistémique ne détient pas une série infinie de raisons déjà explicitées, mais il possède une compétence rationnelle qui lui permettrait, à chaque fois que l’on met en cause une raison, d’en articuler une autre plus profonde. La justification infinitiste repose donc sur une structure dispositionnelle : elle est liée à ce que le sujet pourrait, en droit, produire comme raisons, et non à ce qu’il a, de fait, déjà formulé.
Les avantages philosophiques et l’attrait théorique de l’infinitisme
[modifier | modifier le wikicode]L’évitement du trilemme d’Agrippa
L’un des principaux attraits de l’infinitisme est sa capacité à rendre compte, de manière unifiée, des exigences que le trilemme d’Agrippa met en évidence. En refusant tout arrêt arbitraire, il honore l’idée qu’aucune croyance ne doit être immunisée contre la demande de justification. En interdisant la circularité, il maintient l’exigence de progressivité et de non-redondance dans la chaîne des raisons. En assumant l’ouverture infinie du processus, il donne un contenu précis à la notion de perfectibilité de la justification : une croyance peut toujours être davantage justifiée par l’ajout de nouvelles raisons.
De ce point de vue, l’infinitisme fournit une image très exigeante de la rationalité : une rationalité qui ne se contente jamais de ses acquis et qui refuse absolument toute clôture dogmatique. C’est cette radicalité critique qui fait la force séduisante du modèle pour certains théoriciens, même si elle en accroît en retour le coût psychologique et pratique.
L’amélioration progressive de la justification
Un autre mérite de l’infinitisme, tel que le met en avant Klein, est de rendre intelligible l’idée d’une amélioration graduelle de la justification. Dans notre pratique ordinaire, nous considérons spontanément qu’une croyance est d’autant mieux justifiée que nous pouvons invoquer, à son appui, des raisons plus nombreuses, plus variées, plus indépendantes les unes des autres. Si, face à la contestation d’une croyance, je fournis une première raison, puis une seconde qui vient justifier la pertinence de la première, puis une troisième qui renforce la deuxième, il semble bien que la position justificatoire globale de ma croyance de départ s’en trouve réellement consolidée.
L’infinitisme systématise cette intuition : chaque raison additionnelle améliore le statut épistémique de la croyance de départ. Il n’existe pas de « plafond » au-delà duquel la justification deviendrait absolument complète et insusceptible d’augmentation. L’infini ne désigne pas un point que l’on atteindrait, mais la structure ouverte d’un processus d’amélioration sans terme. Ce faisant, l’infinitisme capte, de manière théorique, une dimension importante de notre expérience concrète de la discussion et de l’argumentation.
Les objections majeures adressées à l’infinitisme
[modifier | modifier le wikicode]L’objection de l’accessibilité psychologique
La critique la plus classique insiste sur ce qui semble être une exigence psychologiquement impossible : si la justification exige une chaîne infinie de raisons, alors, dans les faits, aucune croyance humaine ne serait jamais réellement justifiée. Même en admettant la distinction entre accessibilité actuelle et dispositionnelle, il paraît difficile de donner un contenu clair à l’idée qu’un sujet est en puissance capable de prolonger indéfiniment une chaîne justificatoire : aucune capacité humaine n’est véritablement illimitée, et l’appel à une disposition infinie peut apparaître comme une fiction vide.
Les adversaires de l’infinitisme soutiennent que l’on finit ainsi par vider la notion de possession de justification de son sens ordinaire : on en vient à dire que le sujet possède des raisons qu’il ne pourrait jamais, de fait, énoncer ou même esquisser. La justification se détache alors dangereusement de ce que les agents sont réellement capables de faire dans l’enquête et le dialogue, et risque de devenir une construction purement théorique, sans prise sur notre pratique cognitive effective.
L’objection de l’inadéquation aux cas ordinaires
Une autre objection fortement intuitive part des exemples les plus élémentaires de croyances perceptives. Lorsque je crois, en regardant devant moi, qu’« il y a un mur bleu à quelques mètres », il semble extrêmement artificiel de dire que ma croyance n’est justifiée que si une chaîne infinie de raisons est, en principe, disponible. De manière spontanée, nous considérons qu’une perception claire et non trompeuse suffit, dans un contexte ordinaire, à justifier la croyance correspondante.
L’infinitisme, s’il est pris au pied de la lettre, paraît contraint d’affirmer que cette croyance n’est pas, à proprement parler, justifiée, tant que l’on ne peut pas greffer sur elle une structure justificatoire ouverte à l’infini. Il se trouve ainsi en tension avec la pratique épistémique commune, qui attribue volontiers un haut degré de justification à ce type de croyances sans exiger la moindre chaîne de ce genre. Pour beaucoup de philosophes, cette conséquence constitue une réduction à l’absurde de la thèse infinitiste.
L’objection des chaînes concurrentes et du risque de symétrie
Enfin, certains critiques avancent que la simple existence d’une chaîne infinie de raisons ne suffit pas à garantir la valeur épistémique d’une croyance, en particulier lorsque des croyances opposées peuvent, en principe, être soutenues par des chaînes analogues. Si l’on peut imaginer une série de raisons infinies à l’appui de P et une autre série infinie à l’appui de non-P, la structure infinitiste, prise isolément, ne permet pas de trancher entre ces deux ensembles concurrentiels.
L’objection vise ici à montrer que l’infinitisme, lorsqu’il se présente comme théorie pure de la structure justificatoire, doit être complété par d’autres critères (réalisme de la connexion à la vérité, fiabilité des processus de formation des croyances, cohérence globale du système, etc.) pour éviter de considérer comme également justifiables des croyances manifestement incompatibles. Ce point ouvre la voie à des versions mixtes de l’infinitisme.
Variantes et raffinements de l’infinitisme
[modifier | modifier le wikicode]Infinitisme pur et infinitisme mixte
On peut distinguer un infinitisme pur, qui fait de la présence d’une chaîne infinie et non répétitive de raisons une condition à la fois nécessaire et suffisante de la justification, et un infinitisme mixte, qui maintient le caractère nécessaire de cette chaîne mais y ajoute d’autres exigences. L’infinitisme mixte admet par exemple que les raisons doivent former un ensemble suffisamment cohérent, être reliées de manière appropriée aux faits, ou provenir de processus cognitifs fiables.
Cette forme modérée cherche à préserver l’intuition fondamentale de l’infinitisme – à savoir que la demande de nouvelles raisons ne se clôt jamais – tout en intégrant les leçons d’autres approches (fiabilisme, cohérentisme, réalisme épistémique). Elle reconnaît que la structure infinitiste ne suffit pas, à elle seule, à capturer toute la normativité de la justification.
Infinitisme contextuel
Une autre tentative de réponse aux objections consiste à proposer un infinitisme contextuel. Selon cette variante, ce n’est pas un nombre déterminé de raisons qui est exigé dans l’absolu, mais un schéma structurel dont la portée dépend des contextes. Dans les situations ordinaires, comme certaines croyances perceptives élémentaires, les exigences sont relativement faibles : une courte chaîne de raisons – éventuellement en grande partie implicites – peut être tenue pour suffisante. En revanche, dans les contextes de contestation sérieuse, de désaccord argumenté, ou de recherche scientifique approfondie, la demande de raisons devient plus pressante, et la chaîne justificatoire doit pouvoir être prolongée beaucoup plus loin.
L’infinité ne serait alors pas une condition toujours actuellement requise, mais une limite régulatrice : elle exprimerait l’idée que, pour toute demande de raison recevable, le sujet doit pouvoir, en principe, poursuivre l’enquête, sans que la structure de la justification prévoie jamais un point d’arrêt absolu. L’infini est alors compris comme l’horizon d’un processus, non comme une propriété actualisée de l’activité cognitive.
Conclusion : une position marginale mais théoriquement stimulante
[modifier | modifier le wikicode]L’infinitisme demeure une position minoritaire en épistémologie contemporaine, mais il s’agit d’une position élaborée, systématique et philosophiquement stimulante. En prenant au sérieux jusqu’au bout l’exigence de raison supplémentaire, il offre une image exigeante de la rationalité, où la justification ne se laisse jamais figer dans un ensemble fini de fondements définitivement à l’abri de la critique.
Ses forces tiennent principalement à la manière dont il affronte le trilemme d’Agrippa et à sa capacité à conceptualiser l’amélioration graduelle de nos justifications au fil de l’enquête. Ses faiblesses résident dans le coût psychologique et pratique de ses exigences, dans son apparente incompatibilité avec nos jugements ordinaires sur les cas de justification les plus simples et, parfois, dans son besoin d’être complété par d’autres critères pour départager des chaînes de raisons concurrentes.
Le débat entre fondationnalisme, cohérentisme et infinitisme, loin de se réduire à une querelle technique, engage en réalité trois conceptions profondes de ce que signifie être rationnel: accepter certains points de départ comme donnés, valoriser la cohérence globale d’un système de croyances, ou bien reconnaître que la demande de raison reconductible à l’infini est l’expression la plus exigeante de l’idéal critique de la connaissance. À ce titre, l’infinitisme, même s’il n’emporte pas l’adhésion, contribue puissamment à éclairer les tensions internes de notre conception de la justification.
3.6 Les approches hybrides et alternatives : dépassement des tripartitions classiques
[modifier | modifier le wikicode]Introduction : au-delà de la tripartition fondationnalisme–cohérentisme–infinitisme
[modifier | modifier le wikicode]Les débats épistémologiques sur la structure de la justification ont longtemps été organisés autour de trois grandes familles de positions : le fondationnalisme, le cohérentisme et l’infinitisme. Cette tripartition a l’avantage de clarifier les options théoriques, mais elle tend aussi à rigidifier le paysage conceptuel, comme si toute théorie de la justification devait nécessairement se ranger dans l’un de ces trois camps exclusifs. Or, au cours des dernières décennies, de nombreux auteurs ont cherché à dépasser cette alternative étroite en élaborant des approches hybrides et alternatives qui refusent de se laisser enfermer dans ce schéma.
Ces approches partent souvent d’un constat commun : chacune des trois théories classiques met en lumière une dimension légitime et importante de la justification, mais chacune, prise isolément, se heurte à des difficultés qu’elle ne parvient pas à résoudre sans faire appel à des idées empruntées aux autres. Plutôt que de défendre une position « pure » contre toutes les autres, ces théories hybrides s’attachent à combiner, dans un cadre plus souple, les apports conceptuels essentiels des différentes traditions. Elles ouvrent ainsi des voies nouvelles pour sortir de certaines impasses récurrentes du débat.
On peut distinguer, parmi ces tentatives, plusieurs orientations principales : un fondationnalisme mitigé ou modéré, qui cherche à articuler croyances de base et cohérence globale ; la théorie des vertus épistémiques, qui déplace l’accent des croyances vers les agents et leurs dispositions intellectuelles ; le pragmatisme épistémologique, qui relie étroitement justification et pratique ; l’épistémologie féministe et l’épistémologie sociale, qui introduisent la dimension collective et politique de la connaissance ; enfin, diverses formes de synthèses explicites entre fondationnalisme, cohérentisme et infinitisme, ainsi que des formes de pluralisme contextuel qui récusent l’idée d’un modèle justificatoire unique et universel.
Le fondationnalisme mitigé : une articulation entre croyances de base et cohérence
[modifier | modifier le wikicode]Une première famille d’approches hybrides est regroupée sous le nom de fondationnalisme mitigé ou modéré. Elle part du diagnostic suivant : le fondationnalisme classique, tel qu’on l’a parfois compris, pose des exigences irréalistes à l’égard des croyances de base (infaillibilité, transparence totale, auto-justification forte), tandis que le cohérentisme, s’il est pris de manière « pure », tend à détacher la justification du contact effectif avec la réalité et des sources non doxastiques de nos croyances (perception, mémoire, témoignage, etc.).
Le fondationnalisme mitigé cherche à conserver ce qu’il y a de juste dans ces deux intuitions opposées. D’un côté, il maintient que certaines croyances occupent un rôle épistémique privilégié : elles tirent une partie essentielle de leur justification du fait qu’elles sont issues de sources fiables, non elles-mêmes des croyances (expérience sensible, introspection élémentaire, souvenirs ordinaires, etc.), et n’exigent pas toujours de raisons supplémentaires pour être légitimement tenues. De l’autre, il reconnaît que la cohérence globale du système de croyances apporte un surcroît de justification : plus une croyance s’insère dans un réseau harmonieux, explicatif et stable, plus sa prétention à être acceptée se renforce.
Dans cette perspective, les croyances de base ne sont ni infaillibles, ni entièrement indépendantes du reste du système ; elles peuvent être révisées si elles entrent en conflit avec un ensemble cohérent mieux étayé. Réciproquement, la cohérence, si importante soit-elle, ne suffit pas toute seule à produire la justification : elle doit s’appuyer sur des points d’ancrage dans des sources cognitives effectivement reliées au monde. Le fondationnalisme mitigé exprime ainsi l’idée que la justification épistémique est le résultat d’une double exigence : enracinement dans des sources appropriées et intégration dans une structure de croyances globalement cohérente.
La théorie des vertus épistémiques : un déplacement du centre de gravité
[modifier | modifier le wikicode]La théorie des vertus épistémiques opère un changement de perspective plus profond encore. Au lieu de se demander d’abord comment des croyances, considérées isolément, sont justifiées par d’autres croyances, elle se demande ce qui caractérise un bon sujet connaissant. La question centrale devient : quelles dispositions intellectuelles, quelles habitudes cognitives excellentes conduisent, de manière fiable, à la formation de croyances vraies et sensées ?
Dans cette approche, une croyance est justifiée lorsqu’elle est le produit de l’exercice adéquat d’une vertu épistémique : par exemple une perception attentive et discriminante, une mémoire entraînée, une capacité d’introspection honnête, un sens critique développé, un goût pour la recherche de contre-exemples, la patience dans l’examen des arguments, ou encore le courage intellectuel de remettre en cause ses propres présupposés. Ce ne sont plus seulement les relations logiques entre propositions qui comptent, mais la manière dont un agent, doté de certaines qualités, mène sa pratique cognitive.
Cette réorientation permet de relativiser le conflit entre fondationnalisme et cohérentisme. Une même vertu — par exemple la rigueur dans le raisonnement — peut conduire à exiger, dans certains contextes, des raisons supplémentaires pour des croyances de base apparentes, ou à exiger, dans d’autres, une meilleure cohérence globale du système de croyances. La structure justificatoire apparaît alors comme un effet dérivé de pratiques intellectuelles vertueuses, plutôt que comme un schéma abstrait imposé de l’extérieur. L’enjeu n’est plus seulement de dessiner une architecture formelle, mais de comprendre comment des sujets, socialement situés et historiquement déterminés, développent des dispositions à la fois critiques et confiantes qui les rendent capables de connaître.
Le pragmatisme épistémologique : justification, action et expérience
[modifier | modifier le wikicode]Le pragmatisme épistémologique propose, de son côté, une critique de l’idée même de justification conçue comme structure purement formelle de liens entre croyances. Pour les pragmatistes, une croyance ne se justifie pas d’abord par son insertion dans un système plus ou moins abstrait, mais par la manière dont elle intervient dans l’action, oriente les conduites, et se trouve éprouvée dans l’expérience. La question « Suis-je justifié à croire p ? » se comprend alors à partir de : « Que se passe-t-il si j’agis comme si p était vrai ? Quelles habitudes d’action cette croyance soutient-elle, et se révèlent-elles efficaces, intelligibles, fécondes ? »
La justification devient ainsi un moment d’un processus d’enquête continu : on forme des hypothèses, on agit en conséquence, on observe les résultats, on corrige ou on abandonne certaines croyances, on en renforce d’autres. Une croyance qui résiste à ces épreuves, qui permet d’anticiper avec succès, de résoudre des problèmes réels, de stabiliser l’action collective, acquiert un statut justificatoire renforcé. À l’inverse, une croyance qui entraîne systématiquement des échecs, des blocages pratiques, des contradictions internes dans l’expérience doit être révisée.
Ce cadre pragmatiste ne nie pas l’importance des relations logiques entre croyances, mais il les resitue dans une dynamique plus large : celle d’une pratique historique, sociale, traversée par des intérêts, des conflits, des rapports de force. La justification n’est plus une propriété « statique » de croyances contemplées de l’extérieur, mais un moment d’un mouvement par lequel une communauté d’enquêteurs tente de s’orienter dans le monde à partir de ses propres expériences collectives.
Épistémologie féministe et épistémologie sociale : la dimension collective et politique de la justification
[modifier | modifier le wikicode]L’épistémologie féministe et l’épistémologie sociale introduisent une autre rupture importante avec les schémas classiques. Elles reprochent à la plupart des théories traditionnelles — y compris certaines formes de fondationnalisme, de cohérentisme ou même de théorie des vertus — de privilégier une image abstraite du sujet connaissant : individu neutre, sans corps, sans histoire, sans appartenance de genre, de classe ou de « race ». Or, dans les pratiques réelles de production des savoirs, les sujets sont toujours situés dans des rapports sociaux concrets, marqués par des asymétries de pouvoir, des hiérarchies institutionnelles et des mécanismes d’exclusion.
Du point de vue féministe, ces rapports de pouvoir ne constituent pas simplement un décor extérieur à la connaissance ; ils affectent directement ce qui est considéré comme preuve, ce qui est jugé pertinent, qui est entendu ou au contraire disqualifié d’emblée. Des groupes dominés (femmes, classes populaires, minorités racisées, etc.) voient souvent leurs expériences et leurs témoignages moins pris au sérieux, voire déformés, tandis que les groupes dominants bénéficient d’un crédit épistémique quasi automatique. Les questions de justification ne peuvent donc pas être séparées de l’analyse des injustices épistémiques : refus de croire certains témoins, invisibilisation de certains types d’expériences, appropriation des découvertes d’autres groupes, etc.
L’épistémologie sociale élargit ce constat en soulignant que la connaissance est produite au sein de communautés épistémiques organisées : laboratoires, institutions, réseaux de recherche, médias, espaces militants. Les normes de preuve, les critères de crédibilité, les hiérarchies d’autorité y sont socialement construits et contestés. La justification d’une croyance dépend alors aussi de la manière dont elle circule, est évaluée, corrigée ou verrouillée dans ces collectifs. Une théorie de la justification qui ignore ces dimensions collectives et politiques reste aveugle à une partie décisive de ce qui, en pratique, fait qu’une croyance est effectivement tenue pour légitime ou délégitimée.
Le foundhérentisme : une synthèse explicite entre fondationnalisme et cohérentisme
[modifier | modifier le wikicode]Une tentative de synthèse plus directement systématique entre fondationnalisme et cohérentisme est proposée par ce que Susan Haack a nommé le foundherentism, souvent traduit en français par foundhérentisme. L’idée de base est de refuser l’alternative exclusive entre croyances de base d’un côté et cohérence globale de l’autre, en montrant que la justification réelle repose toujours, en pratique, sur une combinaison des deux.
Dans cette perspective, certaines croyances possèdent bien un poids justificatoire particulier en vertu de leur origine dans des sources fiables (perception, mémoire, témoignage compétent, etc.), mais ce poids n’est jamais totalement indépendant de la manière dont ces croyances s’insèrent dans un ensemble plus vaste. Une croyance issue d’une source en général fiable perd une partie de sa force si elle s’accorde mal avec tout un ensemble de données indépendantes solides ; inversement, une croyance bien intégrée dans un réseau cohérent et explicatif peut gagner en crédibilité, même si son origine n’est pas, prise isolément, parfaite.
Le foundhérentisme insiste ainsi sur la nature conjuguée de la justification : nous faisons confiance à certaines sources en partie parce que leurs livraisons s’accordent, à long terme, avec d’autres sources et d’autres croyances ; et nous faisons confiance à certains schèmes cohérents en partie parce qu’ils s’appuient sur des interactions constantes avec le monde. La justification apparaît alors comme un entrelacement de soutiens « verticaux » (depuis les sources vers les croyances) et de soutiens « horizontaux » (entre croyances), plutôt que comme une édifice strictement hiérarchique ou comme un simple réseau auto-référentiel.
Variantes mixtes et infinitisme cohérent : combiner régression, cohérence et ancrage
[modifier | modifier le wikicode]D’autres approches, plus expérimentales, cherchent à intégrer des éléments infinitistes dans un cadre globalement cohérentiste ou pluraliste. L’idée est de reconnaître qu’il est parfois légitime d’exiger que certaines croyances puissent, si besoin, être soutenues par des chaînes de raisons potentiellement très longues, voire illimitées, tout en maintenant que ce travail d’extension des raisons se fait toujours à l’intérieur d’un système de croyances qui doit rester globalement cohérent et connecté au monde.
Dans ce type de modèles, l’infinitisme ne vaut plus comme théorie unique et exclusive de la structure de la justification, mais comme une exigence à activer dans certains contextes : lorsque des croyances sont sérieusement contestées, lorsque des enjeux pratiques importants sont en jeu, ou lorsque des désaccords théoriques profonds apparaissent. La cohérence joue alors un rôle de filtrage : toutes les chaînes de raisons ne se valent pas, et seules celles qui s’intègrent dans un système relativement stable, explicatif et sensible aux données empiriques peuvent prétendre à une véritable force justificatoire.
De telles conceptions hybrides montrent que l’on peut reprendre des éléments de l’infinitisme — en particulier l’idée d’une amélioration indéfinie possible de la justification — sans pour autant s’engager dans l’image d’agents devant, en permanence, « posséder » des chaînes de raisons effectivement infinies pour chacune de leurs croyances ordinaires.
Le pluralisme justificatoire contextuel : rompre avec le modèle unique
[modifier | modifier le wikicode]Enfin, plusieurs auteurs défendent des formes de pluralisme justificatoire contextuel. Selon cette orientation, il est vain de chercher une structure de justification unique et universelle qui s’appliquerait indifféremment à toutes les croyances, dans tous les contextes et pour tous les types de questions. Les exigences justificatoires varient en fonction des buts poursuivis, des risques encourus, de la nature des objets étudiés, des pratiques sociales dans lesquelles les croyances s’insèrent.
Ainsi, dans la vie courante, certaines croyances perceptuelles immédiates peuvent être considérées comme suffisamment justifiées par une expérience claire et non trompeuse, sans qu’il soit raisonnable d’exiger une longue chaîne de raisons supplémentaires. Dans la recherche scientifique, en revanche, la justification fera davantage appel à la cohérence globale d’une théorie, à sa capacité explicative, à la convergence de multiples sources de données. Dans un contexte de controverse politique ou morale, ce seront davantage la prise en compte des points de vue marginalisés, l’examen des intérêts en jeu et la critique des rapports de domination qui deviendront centraux.
Le pluralisme contextuel ne se contente donc pas de juxtaposer des modèles ; il soutient que la notion même de justification est, en un sens, polymorphe. Elle conserve un noyau commun – l’idée d’une exigence de raisons répondant à une demande de légitimation – mais se déploie différemment selon les pratiques sociales, les disciplines et les enjeux.
Conclusion : un paysage épistémologique enrichi et profondément transformé
[modifier | modifier le wikicode]Le développement des approches hybrides et alternatives a profondément modifié le visage de l’épistémologie contemporaine. Là où l’on opposait naguère, de manière souvent exclusive, fondationnalisme, cohérentisme et infinitisme, on reconnaît désormais plus volontiers que chacune de ces positions met en lumière un aspect réel et important de la justification, mais aussi que chacune ne peut prétendre, à elle seule, épuiser la richesse des pratiques de connaissance.
Les théories des vertus, les cadres pragmatistes, les épistémologies féministes et sociales, les synthèses de type foundhérentiste et les pluralismes contextuels déplacent la question elle-même. Plutôt que de chercher obstinément la structure unique de la justification, elles s’attachent à comprendre comment des agents situés, engagés dans des pratiques sociales, confrontés à des rapports de pouvoir et à des enjeux matériels, parviennent à élaborer des croyances plus ou moins légitimes, plus ou moins stables, plus ou moins ouvertes à la critique.
Ce déplacement ne rend pas caducs les débats classiques ; il les réinscrit dans un cadre plus large, où la structure de la justification n’est plus conçue comme un schéma abstrait flottant au-dessus des pratiques, mais comme l’un des aspects d’un ensemble mouvant de formes de vie, de rapports sociaux et de techniques d’enquête. De ce point de vue, les approches hybrides et alternatives ne se contentent pas d’ajouter quelques nuances à un tableau déjà fixé : elles invitent à repenser en profondeur ce que l’on attend d’une théorie de la justification, et à accepter que les exigences de la raison prennent des formes diverses dans des mondes sociaux eux-mêmes traversés par la conflictualité, la domination et la possibilité de leur critique.
Deuxième partie : Sources et méthodes de la connaissance
[modifier | modifier le wikicode]Chapitre 4 : La perception
[modifier | modifier le wikicode]4.1 Épistémologie de la perception : le fondement empirique de la connaissance
[modifier | modifier le wikicode]Introduction : la perception comme source centrale de justification épistémique
[modifier | modifier le wikicode]La perception constitue, depuis l’Antiquité, une source centrale et décisive de justification épistémique pour nos croyances portant sur le monde externe. À la base de toute connaissance empirique se trouvent nos expériences perceptuelles : ce que nous voyons, entendons, touchons, sentons et goûtons. L’épistémologie de la perception s’interroge sur la manière dont ces expériences sensorielles peuvent justifier nos croyances concernant les objets et les propriétés du monde extérieur, et sur la structure logique que revêt cette justification perceptuelle.
Cette apparente évidence cache toutefois des difficultés conceptuelles profondes. Comment, précisément, la perception nous met-elle en rapport cognitif avec une réalité supposée indépendante de l’esprit ? Qu’est-ce qui confère à nos expériences perceptuelles leur force justificatrice ? La perception nous donne-t-elle un accès direct aux objets du monde ou seulement un accès indirect, médiatisé par des représentations mentales ? Ces questions structurent l’ensemble du champ de l’épistémologie de la perception et renvoient à un problème plus général : comment pouvons-nous, à partir d’états mentaux, prétendre connaître un monde extérieur à ces états ?
Le problème central de l’épistémologie de la perception : le scepticisme à l’égard du monde externe
[modifier | modifier le wikicode]L’énoncé du problème de base
Le problème central de l’épistémologie de la perception peut être formulé ainsi : comment la perception peut-elle nous fournir une connaissance, ou au moins une justification, portant sur le monde externe, c’est-à-dire sur des objets et des propriétés situés en dehors de notre esprit ? Le point de départ, en apparence banal mais philosophiquement perturbant, est le suivant : nos expériences perceptuelles sont des états mentaux. Voir un arbre, entendre une mélodie, sentir une odeur, ce sont là des événements qui se passent dans notre vie mentale.
Dès lors, une distinction s’impose entre l’expérience perceptuelle (un état ou un événement mental) et l’objet externe (supposé exister indépendamment de notre esprit). C’est ce décalage qui semble ouvrir un « gouffre épistémique » : comment passer, sans saut illégitime, de la seule connaissance de nos états mentaux à une justification concernant la réalité objective ?
L’argument sceptique standard
L’argument sceptique classique, qui donne sa force à cette inquiétude, peut être schématiquement reconstruit en trois étapes.
Tout d’abord, on adopte ce que l’on peut appeler un principe d’indirectité : nous n’aurions jamais, à strictement parler, un accès immédiat aux objets externes eux-mêmes, mais seulement à nos expériences ou à des « données sensorielles ». Ensuite, on observe que ces expériences peuvent être épistémiquement indiscernables dans des situations très différentes : l’expérience que j’ai lorsque je vois une table dans des conditions normales peut être, du point de vue phénoménal, rigoureusement la même que celle que j’aurais si j’étais victime d’une hallucination parfaite ou plongé dans un rêve particulièrement vif. Enfin, on en conclut que, si l’on ne peut pas, sur la base de l’expérience seule, distinguer les cas normaux des cas pathologiques, nous n’avons alors aucune bonne raison décisive de tenir nos perceptions ordinaires pour véridiques plutôt que pour illusoires.
L’argument sceptique ne prétend pas prouver que toutes nos perceptions sont fausses, mais qu’il nous manque, pour chacune d’elles, le type de justification que nous croyons habituellement posséder. Il met ainsi sous tension l’idée spontanée selon laquelle la perception serait le fondement indiscutable de toute connaissance empirique.
La distinction métaphysique fondamentale : réalisme direct et réalisme indirect
[modifier | modifier le wikicode]Le réalisme direct (ou réalisme naïf) : la perception immédiate des objets externes
Le réalisme direct — parfois qualifié de réalisme naïf dans sa version la plus intuitive — soutient que, dans la perception ordinaire, nous sommes directement en contact avec les objets physiques du monde. Lorsque vous voyez une table rouge devant vous, ce que vous percevez, selon ce point de vue, n’est pas une image mentale, ni un « écran de données sensorielles », mais la table elle-même, dans sa matérialité et avec ses propriétés réelles.
Ce réalisme direct attribue aux objets externes les propriétés sensibles mêmes que nous leur reconnaissons dans l’expérience courante : la couleur, la forme, la texture, la spatialité seraient véritablement dans les choses telles qu’elles nous apparaissent. L’expérience perceptuelle, loin de nous enfermer dans un monde intérieur de représentations, est alors comprise comme un mode d’ouverture immédiate au monde.
L’attrait principal de cette conception tient à son accord étroit avec notre attitude pré-théorique. Dans la vie quotidienne, nous ne nous concevons pas comme des spectateurs d’images internes, mais comme des êtres engagés dans un environnement peuplé d’objets, que nous voyons, touchons, manipulons. Le réalisme direct prend cette phénoménologie au sérieux et revendique son évidence.
Le réalisme indirect (ou représentationalisme) : la médiation des représentations mentales
Le réalisme indirect, ou réalisme représentationnel, propose une ontologie plus complexe. Il admet l’existence d’objets externes, mais soutient que ce ne sont pas ces objets eux-mêmes qui sont les objets immédiats de la perception. Lorsque vous percevez une table rouge, ce que vous appréhendez directement, selon cette conception, est une représentation mentale ou une donnée sensorielle qui possède les qualités de « tablité » et de rougeur. L’objet physique n’est alors accessible qu’indirectement : à partir de la structure de cette représentation, vous inférez la présence d’une cause externe adéquate.
Ce réalisme indirect fournit un cadre explicatif pour les illusions et les hallucinations. Dans le cas d’une hallucination de table, il n’existe aucun objet externe correspondant, mais il existe bien un état mental qui possède les mêmes qualités phénoménales que dans un cas de perception normale. Ce sont ces états mentaux — et non les objets eux-mêmes — qui sont, à chaque fois, directement présents à l’esprit. La continuité phénoménale entre perception véridique et hallucination s’explique ainsi par le fait que, dans les deux cas, l’objet immédiat est un même type d’état mental.
Cependant, cette manière de concevoir la perception rend particulièrement aigu le défi sceptique : si ce à quoi nous avons directement accès n’est jamais l’objet, mais seulement une représentation interne, comment garantir que cette représentation est effectivement causée, de manière fiable, par un monde extérieur plutôt que par des processus cérébraux aberrants ?
Le rôle épistémique de l’expérience perceptuelle : simple causalité ou justification proprement dite ?
[modifier | modifier le wikicode]La distinction entre lien causal et lien justificatoire
Une question épistémologique fondamentale consiste à préciser le type de relation qui unit l’expérience perceptuelle et la croyance qui en résulte. Qu’il existe un lien causal est évident : si je vois un mur, cette expérience visuelle cause habituellement en moi la croyance « il y a un mur devant moi ». Mais la question épistémique est différente : l’expérience ne se contente-t-elle que de causer la croyance, ou fournit-elle également une raison pour la tenir pour vraie ? Le fait qu’un état mental en produise un autre n’implique pas, en lui-même, que le second soit justifié par le premier.
On peut imaginer des cas où une expérience cause une croyance sans la justifier (par exemple une hallucination provoquée par une drogue), et, inversement, des cas où une expérience contribue à justifier une croyance précisément parce qu’elle est reliée de manière appropriée à la réalité. Toute épistémologie de la perception doit ainsi distinguer soigneusement la dimension causale (comment les croyances se forment) et la dimension normative (dans quelles conditions ces croyances sont justifiées).
L’expérience perceptuelle comme source de justification immédiate
Une position largement répandue dans la philosophie contemporaine de la perception consiste à soutenir que l’expérience perceptuelle fournit une justification immédiate à certaines croyances. Lorsque j’ai une expérience visuelle claire d’un objet rouge, il semble qu’en vertu même de cette expérience, j’aie déjà une raison prima facie de croire qu’il y a quelque chose de rouge devant moi. Cette justification est dite « immédiate » en ce sens qu’elle ne dépend pas d’un ensemble préalable de croyances servant de médiation explicite.
Cette idée a été théorisée, notamment, sous les étiquettes de conservatisme phénoménal ou de dogmatisme perceptif. Selon ces approches, le simple fait qu’il me semble qu’il y a un arbre devant moi suffit, jusqu’à preuve du contraire, à me donner le droit épistémique de croire qu’il y a un arbre. Ce droit peut bien sûr être retiré si l’on découvre des raisons de douter (éclairage trompeur, contexte pathologique, antécédents de hallucinations, etc.), mais il n’est pas nécessaire, pour qu’il existe, de disposer, dès le départ, d’un argument indépendant montrant que nos sens sont globalement fiables.
Internalisme et externalisme dans l’épistémologie de la perception
[modifier | modifier le wikicode]L’internalisme : tout se joue dans le caractère phénoménal
L’internalisme en épistémologie soutient que la justification d’une croyance dépend exclusivement de ce qui est, en un sens pertinent, interne au sujet : ses expériences, ses états réflexifs, ce qui est accessible à l’introspection. Appliqué à la perception, l’internalisme affirme que le statut justificatoire d’une croyance perceptuelle ne dépend que du caractère phénoménal de l’expérience correspondante, c’est-à-dire de la manière dont elle se présente au sujet.
Deux expériences ayant exactement le même profil phénoménal — la même impression de couleur, de forme, de profondeur, de mouvement — doivent, du point de vue internaliste, conférer le même degré de justification, même si l’une est causée par un objet réel et l’autre par une stimulation cérébrale artificielle. L’épistémologie se concentre alors sur ce qui est subjectivement donné, indépendamment des circonstances causales extérieures.
L’externalisme : la prise en compte de faits externes à l’expérience
L’externalisme soutient au contraire que la justification d’une croyance dépend aussi de faits qui ne sont pas reflétés dans le seul vécu phénoménal du sujet. En matière de perception, cela signifie que la fiabilité des processus sensoriels, la relation causale qui relie l’objet externe à l’expérience, ou encore l’inscription de l’agent dans un environnement adéquat jouent un rôle constitutif dans la justification.
Ainsi, deux expériences phénoménalement indiscernables peuvent, pour un externaliste, ne pas conférer le même degré de justification. Si dans un monde « normal » votre expérience de voir une table est causée de façon régulière et adéquate par l’objet lui-même, alors cette expérience justifie fortement la croyance « il y a une table ». Si, dans un autre monde, structurée de façon identique du point de vue phénoménal, la même expérience est systématiquement produite par une machine qui vous trompe, la croyance n’est plus, au sens strict, justifiée — même si le sujet n’a aucun moyen interne de faire la différence.
L’opposition internalisme/externalisme engage ainsi deux conceptions très différentes de la justification perceptuelle : l’une centrée sur l’accessibilité réflexive, l’autre sur la relation effective au monde.
Le contenu perceptuel : propositionnel ou non conceptuel ?
[modifier | modifier le wikicode]Le débat sur le contenu de l’expérience perceptuelle
Une autre controverse importante porte sur la nature du contenu de l’expérience perceptuelle. Les expériences perceptuelles ont-elles un contenu propositionnel — du type : « il y a un arbre vert à tel endroit » — qui peut être évalué comme vrai ou faux ? Ou bien possèdent-elles seulement une structure phénoménale, riche mais non articulée conceptuellement, que nous ne transformons en propositions que dans un second temps, par un travail interprétatif ?
Si l’on soutient que les expériences ont un contenu propositionnel, il devient relativement simple de concevoir comment elles justifient des croyances : elles présentent le monde comme étant d’une certaine façon, et la croyance reprend sous forme jugée ce que l’expérience donnait déjà sous forme perceptive. L’écart entre expérience et croyance se réduit, dans ce cas, à une différence de « format ».
Si, au contraire, l’on soutient que les expériences ne possèdent pas, en elles-mêmes, de contenu propositionnel — qu’elles fournissent un « matériau sensible » sans structure conceptuelle — alors il faut expliquer comment un tel matériau peut néanmoins jouer un rôle justificatoire. Il faut, en particulier, rendre compte de la manière dont la simple présence de qualités sensibles (couleurs, formes, textures) peut fonder rationnellement une croyance articulée.
L’exigence davidsonienne et la réponse non conceptualiste
Donald Davidson a défendu l’idée qu’un état ne peut justifier une croyance que s’il possède lui-même un contenu susceptible d’être vrai ou faux. Dans cette perspective, les expériences purement phénoménales, dépourvues de toute forme de contenu conceptuel, ne pourraient pas, à proprement parler, servir de raisons : elles pourraient, au mieux, causer des croyances, mais non les fonder rationnellement. D’où l’idée que le contenu perceptuel doit être, en un certain sens, propositionnel.
Les non conceptualistes contestent cette exigence. Ils soutiennent que l’on peut avoir des raisons qui ne sont pas encore formulées sous forme de propositions, mais qui se présentent sous la forme de présentations sensibles riches, suffisamment structurées pour guider la croyance et l’action. Selon cette approche, l’expérience perceptuelle joue un rôle justificatoire sans qu’il soit nécessaire de lui attribuer d’emblée la forme d’un jugement : c’est parce que le monde nous apparaît d’une certaine façon, avant toute verbalisation, que certaines croyances se trouvent plus « naturelles », plus aisées à adopter, et d’autres moins.
Le phénomène de la pénétrabilité cognitive : l’influence des états mentaux sur la perception
[modifier | modifier le wikicode]La question de la pénétrabilité cognitive
Une dimension de plus en plus étudiée concerne la pénétrabilité cognitive de la perception : dans quelle mesure nos croyances, nos désirs, nos attentes, nos catégories conceptuelles peuvent-ils modifier le contenu ou même le caractère phénoménal de l’expérience perceptuelle ?
On peut, par exemple, se demander si un historien de l’art et un passant peu averti voient vraiment la même peinture. Le premier discerne des traits de style, des références historiques, des détails compositionnels auxquels le second reste largement insensible. Faut-il dire qu’ils perçoivent différemment l’œuvre elle-même, ou bien qu’ils ont la même perception mais des interprétations différentes ? De même, des préjugés racistes ou sexistes peuvent-ils influer sur ce que l’on croit voir dans une situation donnée (par exemple, la perception d’un geste comme menaçant ou non) ?
Les implications épistémiques
Si la perception est cognitivement pénétrable, alors le statut justificatoire de nos expériences perceptuelles dépendra, au moins en partie, de l’arrière-plan de croyances qui les façonne. Des croyances fausses ou biaisées peuvent « contaminer » l’expérience, la rendre trompeuse ou moins fiable ; des croyances vraies, au contraire, peuvent affiner la perception, la rendre plus discriminante et plus apte à saisir les traits pertinents de la réalité.
Cela complique considérablement l’idée d’une « base perceptive neutre » sur laquelle viendraient ensuite se greffer des interprétations. L’épistémologie de la perception doit alors tenir compte du fait que le regard lui-même est historiquement et socialement formé, et que la perception n’est pas seulement un afflux passif de données, mais déjà une manière, située, de prendre position dans le monde.
Conclusion : l’enjeu permanent de l’épistémologie de la perception
[modifier | modifier le wikicode]L’épistémologie de la perception demeure au cœur de la réflexion épistémologique contemporaine, parce qu’elle engage à la fois la question du contact avec le monde et celle de la légitimité de nos croyances empiriques. Les interrogations relatives à la manière dont la perception peut justifier la formation de croyances sur le monde externe, à la structure de cette justification (immédiate ou médiatisée, interne ou externe), au statut du contenu perceptuel (propositionnel ou non conceptuel), ainsi qu’au degré de pénétrabilité cognitive de l’expérience, restent l’objet de débats intenses et nourris.
Loin de se réduire à des disputes techniques, ces débats mettent en lumière des options philosophiques profondes : doit-on privilégier la transparence apparente de l’expérience ordinaire ou la force des arguments sceptiques ? Faut-il penser la justification à partir de l’agent et de ses vertus, à partir de la structure de ses croyances, ou à partir des relations causales qui le rattachent au monde ? En ce sens, l’épistémologie de la perception n’est pas un chapitre spécialisé de la théorie de la connaissance, mais un lieu stratégique où se rejouent, de manière concentrée, les grandes tensions de la philosophie : entre subjectivité et objectivité, entre vécu et science, entre confiance et doute.
4.2 Théories de la perception : les grandes approches philosophiques
[modifier | modifier le wikicode]Introduction : le problème fondamental de la perception
[modifier | modifier le wikicode]La perception constitue notre lien premier et le plus immédiat avec le monde extérieur, et pourtant elle présente une énigme philosophique profonde. Comment des expériences sensorielles, qui semblent se dérouler « en nous », peuvent-elles nous donner accès à une réalité extérieure et indépendante de l’esprit ? Que percevons-nous véritablement : les objets eux-mêmes, ou seulement des représentations mentales qui en seraient les images ? L’expérience perceptive nous met-elle en rapport direct avec la réalité, ou interpose-t-elle entre nous et elle un écran de phénomènes psychiques dont nous ne pouvons sortir ?
Ces interrogations, loin d’être de simples curiosités théoriques, structurent l’ensemble de la philosophie de la perception. Elles engagent à la fois des enjeux ontologiques (qu’est-ce qu’un objet perçu ?), épistémologiques (comment la perception peut-elle fonder la connaissance ?) et phénoménologiques (quel est le mode d’apparaître propre au perçu ?). Plusieurs grandes familles de théories se sont développées pour y répondre, chacune proposant une conception spécifique de la nature, de la structure et du statut ontologique de l’expérience perceptuelle.
Le réalisme direct : l’accès immédiat aux objets externes
[modifier | modifier le wikicode]La thèse fondamentale du réalisme direct
Le réalisme direct (souvent appelé, dans sa version la plus spontanée, réalisme naïf) soutient que les objets immédiats de notre perception sont les objets matériels eux-mêmes, existant indépendamment de notre esprit. Lorsque vous voyez une table rouge devant vous, ce que vous percevez, selon cette conception, n’est pas une image mentale de la table, mais la table elle-même, avec ses propriétés réelles (sa couleur, sa forme, sa texture, sa position dans l’espace).
Le réalisme direct affirme ainsi que la perception établit une relation cognitive immédiate entre le sujet et l’objet : il n’existe, en droit, aucun intermédiaire ontologiquement distinct – pas de « chose mentale », pas de « donnée sensible » autonome – qui se placerait entre l’esprit percevant et le monde. La perception est un mode de présence directe de l’objet à la conscience.
L’attrait et la force intuitive du réalisme direct
Cette position bénéficie d’un puissant soutien intuitif. Dans le langage ordinaire, lorsque l’on demande à quelqu’un ce qu’il a perçu, il répond : « une table », « un bruit de pas », « un parfum de fleur », et non « une représentation interne de table » ou « une donnée sensorielle de rougeur ». Le réalisme direct semble prendre au sérieux cette évidence pré-philosophique : en percevant, nous sommes d’emblée dehors, dans le monde.
De plus, le réalisme direct paraît rendre compte sans détours de la fonction cognitive de la perception : si nous percevons directement les objets et leurs propriétés, alors la perception s’impose comme une source de connaissance authentique et relativement sûre du monde extérieur. Il n’y a pas, du moins en première analyse, de « voile » interposé entre nous et les choses.
Les difficultés du réalisme direct : variation, illusion et hallucination
Toutefois, le réalisme direct se heurte à des difficultés classiques. L’argument de la variation perceptuelle montre que la même réalité matérielle peut donner lieu à des expériences très différentes. Un bâton partiellement plongé dans l’eau nous apparaît courbé, alors qu’il est effectivement droit ; un objet semble changer de couleur selon l’éclairage ou l’angle de vue. Deux sujets, ou même le même sujet à des moments distincts, peuvent avoir des vécus perceptifs divergents alors que l’objet externe demeure identique.
Comment comprendre, dans le cadre d’un réalisme direct strict, qu’un seul et même objet puisse correspondre à une pluralité d’expériences discordantes, sans introduire quelque chose comme un « mode d’apparition » ou une « manière pour l’objet de se manifester », qui n’est déjà plus l’objet lui-même ?
Plus radical encore est le problème des hallucinations. Il est concevable – et cliniquement attesté – qu’un individu vive une expérience perceptive phénoménalement indiscernable d’une perception authentique (par exemple « voir » une table rouge, avec la même vivacité et la même richesse de détails) alors qu’il n’y a, en réalité, aucune table. Si, dans les deux cas, l’expérience subjective est exactement la même, comment soutenir que, dans un cas, le sujet est en contact direct avec un objet réel et, dans l’autre, n’a affaire qu’à un « rien » ? Il semble, au minimum, qu’il faille introduire un élément commun aux deux situations, qui ne peut être l’objet externe puisqu’il fait défaut dans l’hallucination. C’est ce point que le réalisme direct doit clarifier.
Le réalisme indirect : la théorie des données sensorielles
[modifier | modifier le wikicode]Les données sensorielles comme objets immédiats de perception
Pour répondre à ces difficultés, le réalisme indirect – encore appelé réalisme représentationnel ou théorie des données sensorielles – propose une autre analyse. Selon cette approche, ce que nous percevons immédiatement ne sont pas les objets matériels, mais des entités mentales dépendantes de l’esprit, souvent nommées « données sensibles » ou « sense-data ». Les objets physiques ne seraient perçus que de manière médiate, à travers ces données sensorielles qui les représentent.
Ainsi, lorsque je regarde une rose rouge, l’objet immédiat de ma perception serait une certaine qualité sensible de rougeur, présente dans mon expérience, et non la rose matérielle elle-même. C’est en vertu de cette donnée sensible – de la manière dont elle se donne à moi – que je suis fondé à inférer l’existence d’un objet externe qui en serait la cause ou le support.
Illusion et hallucination : la ressource explicative du réalisme indirect
Cette théorie semble mieux armée que le réalisme direct pour rendre compte des illusions et des hallucinations. Dans le cas du bâton plongé dans l’eau, elle peut affirmer que l’expérience est correcte quant à ce qu’elle donne immédiatement : la donnée sensible présente dans la conscience a effectivement une forme apparente courbe. L’erreur ne porte pas sur l’expérience elle-même, mais sur le jugement qui en infère que l’objet externe est courbé.
De même, une hallucination peut être, sur le plan phénoménal, strictement identique à une perception véridique, parce qu’elle met en jeu une donnée sensible de même type – la même qualité de rouge, la même configuration phénoménale – sans qu’il y ait, dans un cas, d’objet externe correspondant. On comprend alors comment deux expériences subjectivement indiscernables peuvent se distinguer quant à leur relation à la réalité.
Le « voile de la perception » et les difficultés ontologiques
Mais le réalisme indirect soulève à son tour des inquiétudes majeures. Si nous ne sommes directement en contact qu’avec des données sensorielles internes, comment pouvons-nous jamais savoir si elles correspondent à des objets extérieurs ? Nous semblons enfermés derrière un voile de la perception : tout ce à quoi nous avons accès est constitué par des contenus mentaux, dont nous ne pouvons comparer la « fidélité » avec aucune réalité indépendante. La voie du scepticisme sur l’existence ou sur la nature du monde externe paraît ainsi largement ouverte.
S’y ajoute un problème ontologique : les données sensorielles sont typiquement décrites comme non physiques, non spatiales, inextensives, tandis que les objets matériels sont étendus, situés, composés de parties. Comment des entités aussi différentes pourraient-elles « représenter » adéquatement les objets physiques ? Comment une simple qualité de rougeur mentale pourrait-elle être adéquatement reliée à des propriétés physiques de réflexion de la lumière, de structure microscopique, etc. ? Le réalisme indirect doit proposer un pont explicatif entre ces deux ordres d’être.
Le représentationalisme : la perception comme représentation du monde
[modifier | modifier le wikicode]Le contenu représentationnel comme essence de l’expérience perceptive
Le représentationalisme entend dépasser l’alternative trop tranchée entre réalisme direct et réalisme indirect. Il soutient que l’essence de l’expérience perceptuelle réside dans son contenu représentationnel : percevoir, c’est se trouver dans un état mental qui représente le monde comme étant d’une certaine manière.
Sur cette conception, l’expérience perceptive n’est pas d’abord une chose (une « donnée ») dont nous serions conscients, mais un acte ou un état qui se rapporte, par sa forme même, à des objets et à des propriétés possibles. Deux expériences sont phénoménalement identiques si, et seulement si, elles présentent au sujet le monde selon le même contenu : si elles représentent les mêmes objets comme possédant les mêmes propriétés dans les mêmes relations.
Cela permet de dire qu’une hallucination complète et une perception véridique peuvent partager le même contenu représentationnel : dans les deux cas, le monde est présenté au sujet comme contenant une table rouge à tel endroit. La différence ne porte plus sur le vécu lui-même, mais sur le fait que, dans un cas, ce contenu correspond à un état de choses réel, et, dans l’autre, non.
Les vertus explicatives du représentationalisme
Le représentationalisme présente plusieurs avantages. Il sauvegarde, d’une part, l’intuition que, dans la perception, c’est bien le monde que nous visons : nos expériences ne sont pas des objets d’intérêt en elles-mêmes, mais des façons de nous rapporter aux objets et aux événements extérieurs.
D’autre part, il rend compte de l’indiscernabilité phénoménale entre certaines hallucinations et certaines perceptions véridiques, en la rattachant à l’identité de contenu : si l’expérience représente le monde de la même manière, elle doit, du point de vue du vécu, « se donner » de la même manière au sujet, que ce contenu soit effectivement réalisé ou non.
Enfin, le représentationalisme évite de réifier les « données sensibles » comme des entités mentales autonomes interposées entre nous et le monde. Il n’est pas nécessaire de supposer un « écran » de choses mentales : il suffit de reconnaître que l’expérience a un certain contenu, qui peut être plus ou moins adéquat à ce qu’il y a effectivement. En ce sens, le représentationalisme se rapproche du réalisme direct, tout en conservant une analyse plus fine de la structure de l’expérience.
L’approche écologique : la perception comme détection des invariants
[modifier | modifier le wikicode]La théorie écologique de James Gibson
James J. Gibson a proposé, au XXe siècle, une théorie écologique de la perception qui remet en cause les présupposés mêmes des débats traditionnels.[76] Selon lui, l’idée d’un « problème de la perception » naît d’une conception trop internaliste et passive de l’expérience : on se représente le sujet comme recevant des « sensations » brutes qu’il faudrait ensuite interpréter, alors qu’en réalité la perception est d’emblée un rapport dynamique entre un organisme et un environnement structuré.
Pour Gibson, nous ne percevons pas des « stimulations » ponctuelles sur les récepteurs, mais des invariants dans le flux sensoriel, invariants qui sont disponibles dans le milieu lorsque l’organisme se déplace, explore, oriente sa tête, ses yeux, son corps. Le flux optique – l’ensemble des variations structurées de la lumière qui parvient aux yeux d’un sujet en mouvement – contient déjà de l’information sur la profondeur, la texture, la forme, le mouvement des objets. La perception visuelle n’a pas à « reconstruire » le monde à partir de données lacunaires : elle consiste à détecter, dans ce flux richement structuré, les régularités pertinentes.
Les affordances : les possibilités d’action perçues
Une notion centrale de la théorie gibsonienne est celle d’affordance, c’est-à-dire la possibilité d’action qu’un élément de l’environnement offre à un organisme donné. Un rocher peut être « escaladable » pour un être humain adulte, mais non pour un jeune enfant ; une surface peut être « franchissable » pour un piéton, mais non pour un véhicule. L’objet perçu n’est alors pas seulement un ensemble de propriétés géométriques et optiques, mais un ensemble de possibilités pratiques : une chaise est immédiatement perçue comme un support pour s’asseoir, un escalier comme quelque chose que l’on peut monter ou descendre.
Gibson soutient que ces affordances sont perçues directement : nous ne calculons pas d’abord des propriétés neutres de l’objet pour en déduire ensuite qu’il permet telle ou telle action ; nous saisissons d’emblée l’objet comme « pouvant être utilisé pour… ». La perception est ainsi inséparable de l’action possible, et la frontière entre perception et motricité devient poreuse.
Forces et limites de l’approche écologique
L’approche écologique a le mérite de souligner le caractère actif, orienté vers l’action et profondément contextuel de la perception. Elle rompt avec l’image d’un sujet passivement bombardé de sensations et insiste sur la richesse de l’information disponible dans l’environnement lui-même. Elle prétend par là dissoudre le « problème du voile de la perception » : si l’information écologique est directement accessible, il n’y a pas à « passer » par des entités mentales interposées.
Cependant, la théorie gibsonienne rencontre des objections. On peut se demander, d’abord, comment elle rend compte des illusions : si la perception est une détection directe d’invariants réels, comment expliquer que nous soyons parfois systématiquement induits en erreur (perspective trompeuse, mirages, illusions de contraste, etc.) ?
En outre, certains phénomènes – notamment les hallucinations, qui surviennent en l’absence de tout stimulus approprié – résistent à une analyse strictement écologique. Si toute perception suppose un couplage adéquat entre organisme et environnement, que dire de ces expériences où le système nerveux produit, pour ainsi dire, « de lui-même » des contenus perceptifs ? L’approche écologique doit soit minimiser ces phénomènes, soit s’efforcer de les intégrer dans une théorie plus large.
L’approche constructiviste : la perception comme inférence inconsciente
[modifier | modifier le wikicode]La perception comme hypothèse interprétative
À l’opposé de la perspective gibsonienne, les théories constructivistes soutiennent que la perception n’est pas la simple réception d’une information déjà structurée, mais le résultat d’un processus d’inférence à partir de données sensorielles partielles et ambiguës. Inspiré notamment par les travaux de Helmholtz, ce courant affirme que voir, entendre, toucher, c’est « poser des hypothèses » – le plus souvent inconscientes – sur les causes probables de nos stimulations.[77]
Le système perceptif reçoit des motifs de stimulation sur les récepteurs sensoriels (rétine, oreille interne, peau, etc.). Ces motifs, pris isolément, sont insuffisants pour déterminer de manière univoque la configuration du monde qui les produit ; il existe une pluralité de « solutions » possibles. La perception consiste alors dans le choix d’une hypothèse interprétative, guidée par l’expérience passée, les régularités apprises, la probabilité des différentes configurations. Ce travail de construction s’opère en deçà de la conscience réflexive : nous n’avons accès qu’au résultat stabilisé – la scène perçue – non au processus inférentiel qui y conduit.
Le codage prédictif : une élaboration contemporaine
Une version contemporaine influente de ce constructivisme est la théorie du codage prédictif. Selon ce modèle, le cerveau fonctionne comme un système génératif qui élabore en permanence des prédictions quant aux entrées sensorielles à venir, à partir de modèles internes du monde. Les signaux ascendants en provenance des récepteurs ne sont pas traités comme des données brutes à interpréter, mais comme des erreurs de prédiction : des écarts entre ce qui était attendu et ce qui est effectivement reçu.[78]
Dans cette perspective, percevoir, c’est continuellement ajuster des modèles hypothétiques pour minimiser l’erreur de prédiction. La perception résulte de l’équilibre entre des influences descendantes (les attentes, les hypothèses, les cadres conceptuels) et des influences ascendantes (les contraintes imposées par le signal sensoriel).
Ce schème permet de rendre compte à la fois de la stabilité de la perception (nos modèles anticipent correctement la plupart des situations ordinaires) et de la possibilité de hallucinations : lorsque les modèles internes deviennent excessivement rigides ou trop fortement pondérés, ils peuvent imposer leur contenu malgré des signaux sensoriels faibles ou contradictoires. Le sujet peut alors « percevoir » des objets ou des événements qui ne sont pas effectivement présents.
Conclusion : la pluralité des perspectives théoriques
[modifier | modifier le wikicode]Les grandes théories de la perception – réalisme direct, réalisme indirect, représentationalisme, approche écologique, constructivisme inférentialiste – mettent chacune en lumière un aspect essentiel de l’expérience perceptive : sa prétention à nous mettre en rapport avec un monde indépendant, sa vulnérabilité aux erreurs, son caractère intrinsèquement représentationnel, sa dimension pratique orientée vers l’action, ou encore le rôle des processus de construction et de prédiction.
Aucune de ces approches ne s’est imposée comme définitivement victorieuse. Le réalisme direct garde le mérite de prendre au sérieux notre expérience d’un contact immédiat avec les choses, mais doit affronter les cas d’illusion et d’hallucination. Le réalisme indirect explique ces cas au prix d’un éloignement préoccupant du monde externe. Le représentationalisme offre une articulation fine entre contenu phénoménal et contenu intentionnel, mais doit préciser la nature de ce contenu et sa relation au physique. L’approche écologique insiste avec force sur l’inscription corporelle et pratique de la perception, tandis que le constructivisme et le codage prédictif mettent l’accent sur l’activité interprétative et la fonction modélisatrice du cerveau.
Il est vraisemblable qu’une théorie satisfaisante de la perception devra combiner, plutôt qu’opposer, plusieurs de ces intuitions : reconnaître à la fois la richesse de l’information environnementale, le rôle des attentes et des modèles internes, la dimension représentationnelle des vécus perceptifs et l’orientation pratique de notre rapport au monde. La perception apparaît alors comme un nœud complexe où se croisent le corps, l’environnement, les structures cognitives et les normes de la connaissance.
4.3 Justification perceptuelle : comment la perception justifie-t-elle nos croyances ?
[modifier | modifier le wikicode]Introduction : le problème de la justification perceptuelle
[modifier | modifier le wikicode]La question centrale de l'épistémologie de la perception ne concerne pas seulement la nature métaphysique de l'expérience perceptuelle, mais aussi et surtout son rôle épistémique : comment nos expériences perceptuelles peuvent-elles justifier nos croyances sur le monde externe ? En quoi consiste précisément la relation de justification que l'expérience perceptuelle entretient avec les croyances perceptuelles ?
Cette interrogation soulève des difficultés conceptuelles profondes. L'expérience perceptuelle elle-même n'est pas une croyance — c'est un état mental distinct possédant un caractère phénoménal et un contenu représentationnel. Comment donc un état mental non doxastique (l'expérience) peut-il fournir une justification pour un état mental doxastique (la croyance) ? Quelle est la structure logique de cette relation justificatoire ? Est-elle immédiate ou médiatisée ? Dépend-elle uniquement de facteurs internes à l'esprit du sujet, ou implique-t-elle également des facteurs externes concernant la fiabilité causale de l'expérience ?[79]
Le fondationnalisme perceptuel : la perception comme fondement de la justification
[modifier | modifier le wikicode]La thèse fondamentale du fondationnalisme épistémologique
Le fondationnalisme constitue l'une des deux grandes architectures traditionnelles de la structure de la justification épistémique. Selon cette approche, nos croyances justifiées se divisent en deux catégories ontologiquement et épistémologiquement distinctes : les croyances de base (ou croyances fondamentales) et les croyances dérivées (ou croyances non fondamentales).[80]
Les croyances de base possèdent une justification qui ne dépend pas d'autres croyances — elles sont immédiatement justifiées ou auto-justifiées. Les croyances dérivées, par contraste, obtiennent leur justification de manière médiatisée — par inférence ou par dérivation à partir des croyances de base. Selon le fondationnalisme, cette structure hiérarchique évite la régression infinie de la justification : la chaîne de justifications s'arrête aux croyances de base, qui ne requièrent pas elles-mêmes de justification ultérieure par d'autres croyances.[81]
Le fondationnalisme perceptuel : les croyances perceptuelles comme croyances de base
Le fondationnalisme perceptuel applique cette structure architecturale à la justification des croyances perceptuelles. Selon cette position, les croyances perceptuelles simples et directes — par exemple, la croyance « il y a une table rouge devant moi » formée sur la base d'une expérience visuelle appropriée — constituent des croyances de base. Elles sont immédiatement justifiées par l'expérience perceptuelle correspondante, sans qu'il soit nécessaire de posséder d'autres croyances justificatrices intermédiaires.[82]
Cette approche possède un attrait intuitif puissant. Dans l'expérience ordinaire, quand nous percevons une table rouge, nous formons immédiatement et spontanément la croyance qu'une table rouge est présente — nous ne passons pas par un processus inférentiel conscient où nous raisonnons à partir de prémisses concernant notre expérience vers une conclusion sur le monde externe. La justification semble immédiate, directe et non médiatisée.
Les défis du fondationnalisme perceptuel : le dilemme de Sellars
Cependant, le fondationnalisme perceptuel rencontre une objection profonde et influente formulée par Wilfrid Sellars dans son essai classique Empirisme et philosophie de l'esprit (1956) : le dilemme du donné (the Myth of the Given). Sellars soutient que les expériences perceptuelles ne peuvent pas simultanément satisfaire deux exigences apparemment nécessaires pour servir de fondement justificatoire aux croyances.[83]
D'un côté, pour qu'une expérience perceptuelle justifie une croyance, elle doit posséder un contenu conceptuel ou propositionnel — elle doit représenter le monde comme étant d'une certaine manière, et ce contenu doit être susceptible d'être vrai ou faux. Car seul un état possédant un contenu évaluable pour sa vérité peut justifier rationnellement une croyance. Cependant, si l'expérience possède un contenu conceptuel, alors elle semble elle-même nécessiter une justification — comment savons-nous que l'expérience représente correctement le monde ?[84]
D'un autre côté, si l'expérience perceptuelle ne possède pas de contenu conceptuel — si elle constitue simplement une « impression brute » ou un « donné » non conceptuel — alors elle ne peut pas justifier rationnellement une croyance, car elle ne se tient pas dans une relation logique appropriée avec la croyance. La justification requiert des relations rationnelles ou logiques, et de telles relations ne peuvent exister qu'entre états possédant un contenu propositionnel.[85]
Le conservatisme phénoménal : la phénoménologie comme source de justification
[modifier | modifier le wikicode]L'intuition fondamentale du conservatisme phénoménal
Le conservatisme phénoménal constitue une position fondationnaliste contemporaine influente défendue notamment par Michael Huemer et James Pryor. Selon cette approche, l'expérience perceptuelle justifie immédiatement les croyances perceptuelles en vertu de son caractère phénoménal — c'est-à-dire en vertu de la manière dont l'expérience se présente ou apparaît au sujet.[86]
Le principe central du conservatisme phénoménal peut s'énoncer ainsi : si quelque chose semble être le cas pour un sujet S — si S a une expérience selon laquelle P — alors S possède par là même une justification prima facie pour croire que P, en l'absence de raisons contraires ou de défaiseurs. Cette justification est immédiate : elle ne dépend pas de la possession d'autres croyances justifiées concernant l'expérience ou sa fiabilité.[87]
La force phénoménale et l'attitude de présentation
Selon les partisans du conservatisme phénoménal, ce qui distingue l'expérience perceptuelle d'autres états mentaux comme l'imagination ou la simple contemplation intellectuelle est sa force phénoménale ou son attitude de présentation. Quand vous percevez visuellement une table rouge, l'expérience ne se contente pas de représenter une table rouge — elle présente cette table comme étant réellement présente, comme étant actualisée ici et maintenant. Elle possède un caractère d'immédiateté et de présence qui distingue phénoménalement la perception de l'imagination.[88]
Cette force phénoménale distinctive, cette manière spécifique dont la perception présente son contenu comme actualisé, est ce qui confère à l'expérience perceptuelle son pouvoir justificatoire unique. L'imagination peut représenter le même contenu — vous pouvez imaginer une table rouge — mais elle ne présente pas ce contenu avec la force d'actualisation qui caractérise la perception. C'est pourquoi l'imagination ne justifie pas les croyances perceptuelles alors que la perception le fait.
Les objections au conservatisme phénoménal : le problème des apparences trompeuses
Cependant, le conservatisme phénoménal rencontre des objections sérieuses. Une difficulté majeure concerne les cas où quelque chose « semble » être le cas en raison de processus cognitifs dysfonctionnels ou biaisés. Supposez qu'un sujet, en raison d'un désir intense ou d'une peur pathologique, expérimente une apparence selon laquelle P, alors même qu'aucune évidence perceptuelle authentique ne soutient P. Le conservatisme phénoménal semble impliquer que ce sujet possède une justification prima facie pour croire P, ce qui paraît contre-intuitif.[89]
Plus généralement, le conservatisme phénoménal semble trop libéral ou permissif — il confère une justification à trop de croyances. Si toute apparence ou tout « sembler » suffit pour conférer une justification prima facie, alors même les apparences générées par des processus cognitifs peu fiables ou dysfonctionnels confèrent une justification, ce qui semble problématique.[90]
Le fiabilisme processuel : la fiabilité causale comme fondement de la justification
[modifier | modifier le wikicode]La rupture externaliste : de l'accessibilité interne à la fiabilité objective
Le fiabilisme processuel, développé principalement par Alvin Goldman, représente une rupture profonde avec les approches traditionnelles internalistes de la justification. Selon le fiabilisme, une croyance est justifiée si et seulement si elle est produite par un processus cognitif fiable — c'est-à-dire un processus qui produit généralement ou systématiquement des croyances vraies plutôt que fausses.[91]
Cette approche est externaliste en ce sens que la justification d'une croyance dépend de facteurs qui peuvent être externes à la perspective consciente du sujet — notamment, de la fiabilité objective du processus cognitif qui a produit la croyance. Un sujet peut posséder une croyance justifiée sans nécessairement savoir ou avoir accès au fait que son processus cognitif est fiable.[92]
Application à la justification perceptuelle
Appliqué à la justification perceptuelle, le fiabilisme processuel affirme que les croyances perceptuelles sont justifiées si et seulement si elles sont produites par des processus perceptuels fiables. Par exemple, votre croyance qu'une table rouge est devant vous est justifiée si elle résulte d'un processus de perception visuelle qui produit généralement des croyances vraies dans des conditions normales d'observation.
Cette approche offre plusieurs avantages théoriques importants. D'abord, elle explique pourquoi la perception constitue généralement une source fiable de justification — parce que nos systèmes perceptuels sont évolutivement adaptés pour produire des représentations véridiques de l'environnement. Deuxièmement, elle rend compte naturellement de la variation contextuelle de la justification perceptuelle — la même expérience peut justifier une croyance dans un contexte mais pas dans un autre, selon la fiabilité du processus dans ce contexte spécifique.[93]
Le problème de la généralité : quel processus est pertinent ?
Cependant, le fiabilisme processuel rencontre une difficulté technique majeure connue sous le nom de problème de la généralité. Pour évaluer si une croyance est produite par un processus fiable, nous devons identifier le type de processus pertinent et évaluer sa fiabilité statistique. Mais toute instance particulière de formation de croyance peut être classée sous de multiples types de processus de généralité variable.[94]
Par exemple, votre croyance qu'une table rouge est présente pourrait être produite par : (a) le processus très général de « perception visuelle » ; (b) le processus plus spécifique de « perception visuelle dans des conditions d'éclairage normal » ; (c) le processus encore plus spécifique de « perception visuelle d'objets rouges dans des conditions d'éclairage normal par un sujet ayant une vision normale ». Chacun de ces types de processus peut avoir un taux de fiabilité différent, et donc la justification de la croyance variera selon le type choisi.
Le problème de la généralité demande : selon quel principe doit-on choisir le type de processus pertinent pour évaluer la justification ? Aucune solution largement acceptée à ce problème n'a encore émergé dans la littérature fiabiliste.[95]
Le cohérentisme perceptuel : la justification comme cohérence systémique
[modifier | modifier le wikicode]Le rejet de la structure fondationnaliste
Le cohérentisme représente l'alternative architecturale majeure au fondationnalisme. Selon le cohérentisme, il n'existe pas de croyances de base qui seraient immédiatement justifiées indépendamment d'autres croyances. Au contraire, toutes les croyances obtiennent leur justification de leur cohérence avec l'ensemble du système de croyances du sujet.[96]
Une croyance est justifiée dans la mesure où elle s'intègre harmonieusement, sans contradiction ni tension, avec les autres croyances que le sujet possède. La justification est donc une propriété holistique et systémique — elle dépend de la structure globale du système de croyances, et non de relations locales et linéaires entre croyances individuelles.[97]
Application controversée à la justification perceptuelle
L'application du cohérentisme à la justification perceptuelle est controversée et contre-intuitive. Selon le cohérentisme strict, même les croyances perceptuelles les plus simples et directes ne sont pas immédiatement justifiées par l'expérience perceptuelle. Au contraire, une croyance perceptuelle est justifiée seulement dans la mesure où elle cohère avec l'ensemble des autres croyances du sujet — y compris les croyances sur la fiabilité de la perception, sur les conditions d'observation, sur les propriétés des objets, etc.
Cette position semble s'éloigner considérablement de notre compréhension intuitive de la justification perceptuelle. Il semble qu'une expérience perceptuelle claire et distincte puisse justifier une croyance même si cette croyance ne cohère pas parfaitement avec le reste du système de croyances — par exemple, quand la perception révèle quelque chose de surprenant qui contredit nos attentes antérieures.[98]
La réponse cohérentiste : l'expérience comme croyance spontanée
Certains cohérentistes répondent en affirmant que l'expérience perceptuelle elle-même doit être conceptualisée comme générant spontanément des croyances perceptuelles immédiates, qui entrent alors dans des relations de cohérence avec les autres croyances. L'expérience ne justifie pas directement la croyance perceptuelle, mais elle produit causalement une croyance perceptuelle spontanée, qui obtient ensuite sa justification de sa cohérence avec le système.[99]
Cependant, cette réponse semble affaiblir la distinction entre le rôle causal et le rôle justificatoire de l'expérience, et ne rend peut-être pas pleinement compte de l'intuition que l'expérience possède un rôle épistémique spécial et direct dans la justification des croyances perceptuelles.
L'internalisme versus l'externalisme dans la justification perceptuelle
[modifier | modifier le wikicode]L'axe fondamental du débat contemporain
Le débat contemporain sur la justification perceptuelle est structuré par une distinction fondamentale entre deux orientations théoriques : linternalisme et lexternalisme.
Selon l'internalisme, les facteurs qui déterminent si une croyance est justifiée doivent être accessibles par introspection au sujet — c'est-à-dire que le sujet doit pouvoir, par simple réflexion consciente, accéder aux facteurs qui confèrent la justification à sa croyance. Pour les internalistes, la justification d'une croyance perceptuelle dépend uniquement du caractère phénoménal de l'expérience et des autres états mentaux conscients du sujet.[100]
Selon l'externalisme, par contraste, les facteurs qui déterminent la justification peuvent inclure des éléments qui ne sont pas accessibles à l'introspection du sujet. La fiabilité objective du processus perceptuel, les conditions causales qui ont produit l'expérience, les relations nomologiques entre l'expérience et l'environnement — tous ces facteurs peuvent jouer un rôle dans la détermination de la justification, même si le sujet ne peut pas y accéder par simple réflexion.[101]
Les arguments en faveur de l'internalisme
Les internalistes avancent plusieurs arguments puissants. D'abord, l'internalisme capture l'intuition que la justification épistémique est liée à la responsabilité épistémique — un sujet est justifié dans une croyance s'il a satisfait ses obligations épistémiques, et ces obligations ne peuvent porter que sur des facteurs auxquels le sujet a accès.
Deuxièmement, l'internalisme explique pourquoi deux sujets dans des états mentaux phénoménalement identiques — par exemple, un sujet normal et un sujet victime d'un « démon malin » qui produit des expériences systématiquement trompeuses — possèdent le même degré de justification pour leurs croyances perceptuelles. Puisque leurs perspectives internes sont identiques, ils sont également justifiés épistémiquement, même si l'un possède des croyances vraies et l'autre des croyances fausses.[102]
Les arguments en faveur de l'externalisme
Les externalistes répondent que l'internalisme rend la justification trop facile à obtenir et trop déconnectée de la vérité. Si la justification dépend uniquement de facteurs internes, alors un sujet systématiquement trompé par un démon malin pourrait posséder des croyances parfaitement justifiées mais entièrement fausses. Cela semble affaiblir le lien crucial entre justification et vérité.[103]
De plus, l'externalisme capture l'intuition que la justification perceptuelle dépend réellement de la fiabilité objective de nos processus perceptuels. Quand nous évaluons si quelqu'un est justifié dans une croyance perceptuelle, nous nous soucions réellement de savoir si son système perceptuel fonctionne correctement et de manière fiable, non pas simplement de ce à quoi ressemble son expérience de l'intérieur.[104]
Conclusion : la pluralité persistante des théories de la justification perceptuelle
[modifier | modifier le wikicode]Le débat sur la justification perceptuelle demeure vivant et philosophiquement fécond. Chaque approche — fondationnalisme, cohérentisme, fiabilisme, conservatisme phénoménal — possède des forces théoriques et rencontre des difficultés caractéristiques. Aucune théorie ne fait actuellement consensus dans la communauté épistémologique.[105]
Cette pluralité persistante suggère peut-être que la notion même de « justification » est plurivoque — qu'il existe plusieurs notions légitimes mais distinctes de justification épistémique, chacune capturant un aspect important mais partiel de notre concept intuitif. Une théorie adéquate de la justification perceptuelle devra peut-être reconnaître cette pluralité conceptuelle et articuler les relations entre ces différentes notions de justification.[106]
4.4 Empirisme et rationalisme : les sources de la connaissance
[modifier | modifier le wikicode]Introduction : le débat fondamental sur l'origine de la connaissance
[modifier | modifier le wikicode]L'une des controverses les plus anciennes et les plus fondamentales en épistémologie concerne la question primaire des sources de notre connaissance : d'où provient notre savoir sur le monde ? Comment acquérons-nous nos concepts et nos croyances ? Cette interrogation structurante a donné naissance à deux grandes traditions philosophiques concurrentes dans la philosophie moderne : l'empirisme et le rationalisme.[107]
Le rationalisme soutient que la raison constitue la source principale ou privilégiée de notre connaissance substantielle, et que certaines vérités peuvent être connues indépendamment de l'expérience sensible, par la seule réflexion rationnelle. L'empirisme, par contraste, affirme que toute notre connaissance factuelle provient de l'expérience sensible, et que l'esprit ne possède aucune connaissance substantielle antérieure à l'expérience perceptuelle. Ces deux positions s'opposent radicalement quant à l'architecture fondamentale de la justification épistémique et quant à la nature des sources primaires de notre savoir.[108]
Le rationalisme : la raison comme source privilégiée de connaissance
[modifier | modifier le wikicode]Les thèses fondamentales du rationalisme classique
Le rationalisme, dont les représentants majeurs incluent René Descartes (1596-1650), Baruch Spinoza (1632-1677) et Gottfried Wilhelm Leibniz (1646-1716), défend plusieurs thèses épistémologiques distinctes mais profondément interconnectées. La première et la plus centrale constitue la thèse de l'intuition et de la déduction : certaines propositions substantielles et informationnelles peuvent être connues par intuition rationnelle immédiate et par déduction logique rigoureuse, sans recourir en aucune manière à l'expérience sensible.[109]
L'intuition rationnelle désigne ici non pas un pressentiment vague ou une conjecture incertaine, mais une saisie intellectuelle immédiate, perspicace et indubitablement certaine de la vérité d'une proposition. Descartes illustre cette capacité rationnelle par sa célèbre formulation « Cogito, ergo sum » (« Je pense, donc je suis ») : la vérité de l'existence du sujet pensant s'impose à l'esprit avec une évidence immédiate et irrésistible qui ne dépend d'aucune expérience sensible externe ou d'aucune observation du monde physique.[110]
La déduction rationnelle, quant à elle, constitue le processus par lequel nous dérivons logiquement de nouvelles connaissances à partir de vérités initialement intuitionnées ou préalablement établies. Si nous intuitionnons que « tout effet nécessite une cause » et que « le mouvement constitue un effet observable », nous pouvons déduire rigoureusement que « le mouvement possède une cause ». Cette connaissance dérivée par déduction logique demeure tout aussi certaine et indépendante de l'expérience empirique que les prémisses rationnelles dont elle procède, car la certitude se transmet de manière nécessaire par la validité logique.
La doctrine des idées innées : structure naturelle de l'esprit
Une seconde thèse épistémologiquement cruciale du rationalisme concerne l'existence d'idées innées — c'est-à-dire de concepts fondamentaux ou de connaissances élémentaires que l'esprit possède naturellement et originairement, antérieurement à toute expérience perceptuelle. Cette doctrine, défendue avec conviction par Descartes et développée sophistiquement par Leibniz, affirme que certaines notions conceptuelles fondamentales (Dieu, la substance, la causalité, l'identité logique, l'infinité) ne peuvent pas être dérivées empiriquement de l'expérience sensible fragmentaire, mais doivent être présentes dans l'esprit de manière innée, constitutive et antécédente.[111]
Leibniz propose une métaphore d'une clarté et d'une pertinence remarquables : l'esprit n'est pas une « table rase » (tabula rasa) entièrement vide et indifférenciée, mais plutôt comparable à un bloc de marbre dont les veines naturelles préfigurent et prédéterminent les formes qui pourront en être extraites. De manière analogue, notre esprit possède des structures conceptuelles et rationnelles innées qui orientent, organisent et contraignent notre compréhension du monde. Sans ces structures préexistantes et innées, nous ne pourrions même pas former les concepts généraux et abstraits que nous semblons tirer de l'expérience sensible fragmentaire et particulière.[112]
Les avantages explicatifs du rationalisme
Le rationalisme possède plusieurs avantages théoriques et explicatifs importants. D'abord, il rend compte élégamment de comment nous pouvons posséder des connaissances qui sont nécessaires et universelles — des vérités qui ne sont pas simplement vraies dans les cas particuliers que nous avons observés, mais qui doivent être vraies dans tous les cas possibles. Les vérités mathématiques (« 2 + 2 = 4 », « la somme des angles d'un triangle euclidien égale 180 degrés ») et les principes logiques fondamentaux (« une chose ne peut simultanément être et ne pas être ») semblent posséder ce caractère intrinsèque de nécessité qui transcende entièrement toute expérience particulière ou observation contingente.
Deuxièmement, le rationalisme explique la certitude épistémique absolutiste que nous éprouvons concernant certaines propositions théoriques. Quand nous intuitionnons rationnellement qu'une proposition est vraie, nous ne la croyons pas simplement avec probabilité ou avec un degré de confiance variable — nous la savons avec une certitude indubitable et inébranlable qui ne peut être ébranlée par aucune observation ultérieure ou aucune expérience contraire.
L'empirisme : l'expérience comme source unique et suffisante de connaissance
[modifier | modifier le wikicode]Les thèses fondamentales de l'empirisme britannique
L'empirisme, dont les représentants majeurs incluent John Locke (1632-1704), George Berkeley (1685-1753) et David Hume (1711-1776), constitue la position philosophique antithétique au rationalisme. Selon l'empirisme, toute notre connaissance substantive et informationnelle provient de l'expérience sensible, et aucune connaissance factuelle ne peut être acquise par la seule raison indépendamment de l'expérience perceptuelle empirique.[113]
La thèse centrale et définitoire de l'empirisme peut s'énoncer avec clarté ainsi : l'esprit humain à la naissance constitue une tabula rasa — une table rase, une page blanche ou un tableau vierge dépourvu d'aucune inscription préalable, sans aucune idée innée et sans aucune structure conceptuelle pré-constituée. Toutes nos idées et tous nos concepts sont acquis progressivement et graduellement par l'expérience sensorielle — par la vision, l'audition, le toucher, le goût et l'odorat — et par la réflexion interne sur les opérations de notre propre esprit. Ce que nous appelons « connaissance » n'est rien d'autre que la collection systématique, la combinaison originale et la généralisation progressive des données sensorielles brutes que nous recevons de l'expérience externe.[114]
L'argument lockien contre les idées innées : le critère d'universalité
John Locke, dans le premier livre de son influent Essai sur l'entendement humain (1690), développe une critique systématique, rigoureuse et multifacette de la doctrine rationaliste des idées innées. Son argument principal et le plus dévastateur repose sur le principe épistémologique suivant : si une idée ou une connaissance est véritablement innée — si elle existe réellement dans l'esprit antérieurement à toute expérience — elle doit être universellement présente — c'est-à-dire présente sans exception dans tous les esprits humains, quelle que soit leur condition, leur culture ou leur développement intellectuel. Or, observe Locke avec une perspicacité remarquable, aucune proposition prétendue innée ne satisfait à ce critère rigoureux d'universalité.[115]
Considérez les principes logiques que les rationalistes prétendent innés et universels, comme le principe d'identité (« ce qui est, est ») ou le principe de non-contradiction (« une même chose ne peut simultanément être et ne pas être »). Les enfants en bas âge et les personnes intellectuellement handicapées ne possèdent manifestement aucune conscience explicite, aucune compréhension cognitive de ces principes. Si ces principes étaient véritablement innés dans la structure profonde de l'esprit, ils devraient être conscients et accessibles dans tous les esprits dès la naissance, sans nécessité de développement ou d'éducation.
Les rationalistes tentent de répondre en affirmant que les idées innées peuvent exister dans l'esprit sans être conscientes — elles sont présentes de manière latente, implicite ou virtuelle, et l'éducation ne fait que les rendre explicites, actuelles et conscientes. Mais Locke rejette cette réponse comme fondamentalement incohérente et conceptuellement intenable : une idée dont nous ne sommes pas conscients, une idée qui n'existe qu'en puissance latente sans actualité consciente, n'est tout simplement pas réellement une idée que nous possédons au sens propre. Dire qu'une idée est « dans l'esprit » mais demeure inconsciente revient à employer des mots vidés de sens — c'est revenir à l'absurdité de dire qu'elle n'est tout simplement pas dans l'esprit.
La construction empiriste de la connaissance : idées simples et idées complexes
Locke propose une explication alternative élégante et systématique de l'origine entière de nos idées qui ne requiert aucune invocation d'idées innées ou de structures rationnelles préexistantes. Selon sa théorie génétique de l'entendement, toutes nos idées — du plus simple au plus complexe, du plus concret au plus abstrait — se divisent en deux catégories fondamentales et exhaustives : les idées simples et les idées complexes.[116]
Les idées simples constituent les unités élémentaires et indécomposables que nous recevons passivement et directement par l'expérience sensorielle externe — la rougeur, la chaleur, la dureté, la mollesse, le froid — ou par la réflexion interne et méditative sur les opérations caractéristiques de notre propre esprit — le doute, la croyance, le désir, la réflexion, la volition. Ces idées simples ne peuvent pas être analysées ou réduites en composants plus élémentaires ; elles constituent les atomes conceptuels irréductibles, les briques primitives dont est construite toute notre connaissance conceptuelle.
Les idées complexes, par contraste, sont construites activement, volontairement et combinatoirement par les opérations synthétiques de l'esprit, en assemblant, comparant, distinguant et abstrayant des idées simples préalablement acquises par l'expérience sensorielle. L'idée d'une « montagne d'or » — un concept que nous formons aisément — résulte simplement de la combinaison judicieuse de deux idées simples préalablement acquises par l'expérience perceptuelle : l'idée simple de montagne (acquise en observant des montagnes réelles) et l'idée simple d'or (acquise en observant de l'or réel). Même si nous n'avons jamais observé une montagne d'or dans la réalité physique du monde, nous pouvons former cette idée complexe imaginaire en combinant synthétiquement deux idées simples d'origine empirique indubitable.
Le scepticisme humien : l'analyse critique des fondements de la connaissance empirique
David Hume pousse les principes empiristes à leurs conclusions logiques les plus strictes, les plus rigoureuses et les plus sceptiquement radicales. Selon Hume, si toute notre connaissance provient de l'expérience, alors notre connaissance demeure nécessairement limitée à ce que nous avons effectivement et directement observé. Nous ne pouvons jamais savoir avec la certitude démontrée et logique ce qui se passe au-delà de nos observations immédiates, dans le passé non-observé ou dans l'avenir incertain.[117]
Le problème philosophique majeur de l'induction illustre de manière lumineuse cette limitation épistémique radicale. Supposez que nous avons observé mille fois, dix mille fois, avec une régularité absolue, que le feu brûle et détruit. Pouvons-nous conclure avec certitude logique et démontrée que le feu brûlera toujours à l'avenir, en toutes circonstances, sans exception ? Selon l'analyse critique de Hume, catégoriquement non. Aucun nombre, aussi grand soit-il, d'observations passées ne peut garantir logiquement ou déductivement qu'une régularité observée se maintiendra invariablement dans le futur. L'inférence du passé au futur présuppose tacitement un principe métaphysique fondamental — le principe de l'uniformité de la nature — l'idée non-démontrée que l'avenir ressemblera au passé. Mais ce principe lui-même ne peut être justifié ni par l'expérience (ce serait un raisonnement vicieusement circulaire) ni par la raison pure (car sa négation n'implique aucune contradiction logique autoréfutante).[118]
Plus philosophiquement perturbant encore est l'analyse huienne de la causalité — l'une des notions les plus fondamentales et les plus ordinaires de la pensée. Quand nous observons qu'un événement A est toujours suivi d'un événement B, nous croyons naturellement et spontanément que A « cause » B — que A produit B, que A est responsable de B. Mais que percevons-nous réellement lors de cette observation ? Uniquement une succession temporelle régulière, répétée et constante — une conjonction constante entre l'événement antécédent A et l'événement conséquent B. Nous ne percevons jamais directement une « connexion nécessaire » invisible, une « puissance causale » occulte, un « pouvoir » mystérieux qui lierait causalement A à B. Cette idée de connexion causale nécessaire et de pouvoir productif ne provient donc pas de l'expérience sensible directe, et elle ne peut être justifiée rationnellement de manière démonstrée. Elle résulte simplement d'une habitude psychologique involontaire : après avoir observé maintes fois la conjonction régulière de A et B, notre esprit développe une disposition psychique à attendre B quand A se produit.[119]
La synthèse kantienne : dépassement de l'opposition binaire
[modifier | modifier le wikicode]L'influence réformatrice de Hume sur la pensée kantienne
Immanuel Kant (1724-1804) affirmera que la lecture des œuvres philosophiques de David Hume l'a « réveillé de son sommeil dogmatique » — c'est-à-dire qu'elle l'a libéré de l'acceptation naïve et non-critique des présuppositions rationalistes cartésiennes dans lesquelles il avait reçu sa formation philosophique initiale. Cependant, Kant ne se convertit nullement simplement à l'empirisme humien et à son scepticisme radical. Au contraire, il développe une position synthétique et novatrice qui prétend dépasser l'opposition apparemment irréconciliable entre rationalisme et empirisme en intégrant les intuitions valides et profondes de chaque tradition dans un cadre théorique plus profond, plus cohérent et plus satisfaisant épistémologiquement.[120]
Les distinctions kantiennes fondamentales : a priori versus a posteriori, analytique versus synthétique
Kant introduit deux distinctions conceptuelles crucialement importantes qui permettent d'articuler avec une précision remarquable le débat philosophique entre rationalisme et empirisme. La première distinction concerne la source épistémique de justification d'une proposition :[121]
- Une proposition est connue a priori si sa justification rationnelle ne dépend en aucune manière d'une expérience perceptuelle particulière — elle peut être connue et établie comme vraie par la seule réflexion et raisonnement rationnel, entièrement indépendamment de toute observation empirique du monde.
- Une proposition est connue a posteriori si sa justification dépend essentiellement et constitutivement de l'expérience sensible et de l'observation empirique — nous devons observer et interroger le monde pour savoir avec certitude si elle est vraie ou fausse.
La seconde distinction fondamentale concerne le contenu informatif substantiel d'une proposition :
- Un jugement est analytique si le prédicat est conceptuellement et logiquement contenu dans le sujet — la simple analyse et décomposition du concept du sujet révèle déjà le prédicat. Par exemple, « tous les célibataires sont non-mariés » est analytique, car le concept « non-marié » est déjà inclus logiquement et définitionnellement dans le concept « célibataire ». Le prédicat ne nous apprend rien de nouveau sur le sujet.
- Un jugement est synthétique si le prédicat ajoute une information nouvelle et substantielle qui n'était pas déjà contenue analytiquement dans le concept du sujet. Par exemple, « cette table est rouge » est synthétique, car le concept de rougeur n'est pas contenu dans le simple concept de table — cette proposition nous apprend quelque chose de nouveau sur le monde.
L'innovation révolutionnaire kantienne : la possibilité du synthétique a priori
Les philosophes et les penseurs antérieurs à Kant avaient généralement supposé que ces deux distinctions coïncident parfaitement et sans exception : tout ce qui est connu a priori serait analytique et n'ajouterait aucune information nouvelle, et tout ce qui est synthétique et informatif serait connu a posteriori par l'expérience. Le rationalisme et l'empirisme ne divergeaient que sur l'étendue quantitative et l'importance relative de nos connaissances analytiques a priori.[122]
L'innovation révolutionnaire et transformatrice de Kant consiste à affirmer l'existence d'une nouvelle catégorie épistémique jusqu'alors non-reconnue : les jugements synthétiques a priori — c'est-à-dire des propositions qui sont à la fois informationnellement substantielles et ajoutent du contenu nouveau au monde (synthétiques) et connaissables indépendamment de l'expérience sensible (a priori). Kant cite comme exemples paradigmatiques et incontestables les vérités mathématiques (« 7 + 5 = 12 », « la ligne droite est le plus court chemin entre deux points ») et les principes fondamentaux de la physique causale (« toute altération dans la nature possède une cause »).
Considérez l'énoncé mathématique « 7 + 5 = 12 ». Selon l'analyse kantienne, ce jugement est synthétique, car le concept « 12 » n'est pas analytiquement et logiquement contenu dans les concepts de « 7 » et de « 5 » considérés séparément ou combinés. Pour saisir et reconnaître que sept unités plus cinq unités égalent nécessairement douze unités, nous devons effectuer une opération mentale active de construction — nous devons progressivement et mentalement ajouter cinq unités à sept unités et percevoir intuitivement que le résultat synthétisé est effectivement douze. Cette opération constructive et synthétisante dépasse et transcende la simple analyse conceptuelle et la simple réflexion logique.[123]
Cependant, ce jugement mathématique demeure également a priori, car nous n'avons manifestement pas besoin de compter empiriquement sept objets concrets et cinq objets concrets pour savoir avec certitude que leur ensemble constitue nécessairement douze objets. La vérité mathématique ne dépend d'aucune observation empirique particulière — elle est universelle, éternelle et nécessaire, vraie dans tous les mondes possibles et tous les univers concevables.
L'idéalisme transcendantal : résolution du mystère du synthétique a priori
La question centrale et véritablement cruciale que pose Kant est donc : comment la connaissance synthétique a priori — la connaissance de propositions substantielles et informationnelles qui ne dépendent pourtant pas de l'expérience particulière — est-elle épistémiquement possible ? Comment pouvons-nous posséder des connaissances qui ajoutent de l'information réelle sur le monde et qui demeurent néanmoins indépendantes de toute expérience sensible empirique ?[124]
La réponse profonde et innovante de Kant constitue ce qu'il appelle magistralement la « révolution copernicienne » en philosophie. Au lieu de présupposer avec la tradition que notre connaissance doit nécessairement se conformer à la structure préexistante des objets externes, Kant propose l'hypothèse métaphysiquement inverse et audacieuse : ce sont précisément les objets de notre expérience qui doivent se conformer et s'adapter à la structure a priori de notre connaissance et de nos facultés cognitives. Nous ne connaissons jamais les choses « en soi » (Dinge an sich), telles qu'elles existent en elles-mêmes, indépendamment et détachées de nos facultés cognitives. Nous connaissons exclusivement les choses « pour nous », telles qu'elles nous apparaissent et se présentent nécessairement structurées et organisées par les formes a priori de notre sensibilité et par les catégories a priori de notre entendement.[125]
Les formes a priori de la sensibilité — l'espace et le temps — structurent transcendantalement toute notre expérience perceptuelle possible. Nous ne percevons jamais des objets sans structure spatiale organisée et sans structure temporelle organisée, non pas parce que les objets en soi, indépendants de nous, possèdent nécessairement ces propriétés formelles, mais parce que notre faculté sensorielle et perceptuelle ne peut représenter les objets et les événements que sous ces formes a priori de l'espace et du temps. De manière analogue, les catégories a priori de l'entendement — substance, causalité, réciprocité, nécessité, possibilité — structurent transcendantalement toute notre compréhension conceptuelle organisée du monde.[126]
Cette théorie transcendantale explicite comment la connaissance synthétique a priori demeure épistémiquement possible : les vérités synthétiques a priori décrivent non pas les propriétés intrinsèques des choses en soi indépendantes, mais plutôt la structure nécessaire et inévitable que notre faculté cognitive impose de manière constitutive à toute expérience objectale possible. La proposition « toute altération dans la nature possède une cause » est synthétique a priori car elle décrit une condition transcendantalement nécessaire de toute expérience cohérente et ordonnée d'un monde temporel — nous ne pourrions même pas avoir une expérience unifiée et compréhensible d'un univers temporel et changeant sans appliquer nécessairement le concept de causalité.
Conclusion : l'héritage durable du débat empirisme-rationalisme
[modifier | modifier le wikicode]Le débat entre rationalisme et empirisme, bien que prenant des formes considérablement transformées et innovantes, demeure vivant et philosophiquement fécond dans l'épistémologie contemporaine. Les descendants conceptuels du rationalisme incluent les théories et les positions qui défendent l'existence de connaissances a priori substantielles et nécessaires — notamment en logique pure, en mathématiques fondamentales et en philosophie métaphysique. Les descendants conceptuels de l'empirisme incluent les théories naturalistes, scientifiques et empiriquement informées qui insistent avec rigueur sur le rôle central et primordial de l'observation empirique systématique et de la méthode expérimentale.[127]
La synthèse kantienne, malgré ses difficultés conceptuelles persistantes et ses défis théoriques non-résolus, a établi un cadre conceptuel durable et influent pour articuler et structurer ces questions philosophiques fondamentales. Les distinctions kantiennes entre a priori et a posteriori, entre analytique et synthétique, entre phénomène et chose-en-soi continuent de structurer et d'organiser les débats épistémologiques contemporains, même lorsque les philosophes actuels contestent vigoureusement les réponses spécifiques et les positions particulières que Kant lui-même a proposées.[128]
Chapitre 5 : Le témoignage
[modifier | modifier le wikicode]5.1 Épistémologie du témoignage : la confiance et la transmission du savoir
[modifier | modifier le wikicode]Introduction : le témoignage comme source fondamentale de connaissance
[modifier | modifier le wikicode]La majorité de nos connaissances ne provient pas de notre expérience directe du monde, mais du témoignage d'autrui — de ce que d'autres personnes nous disent, nous écrivent ou nous rapportent. Nous n'avons pas personnellement visité toutes les villes dont nous connaissons l'existence, nous n'avons pas assisté aux événements historiques que nous tenons pour établis, nous n'avons pas conduit nous-mêmes les expériences scientifiques dont nous acceptons les résultats. Notre savoir sur l'histoire, la géographie, la science naturelle, l'actualité et même sur la vie intérieure d'autrui dépend de manière massive et constitutive du témoignage — de la parole et de l'écrit d'autres personnes que nous croyons et sur lesquelles nous comptons.[129]
Cette dépendance épistémique profonde et inévitable soulève des questions philosophiques fondamentales et persistantes. Comment le témoignage peut-il véritablement constituer une source légitime et fiable de connaissance ? Quelles conditions précises doivent être satisfaites pour qu'une croyance formée sur la base du témoignage d'une autre personne soit epistemiquement justifiée ? Le témoignage se limite-t-il à transmettre une connaissance déjà possédée par le locuteur, ou peut-il générer une connaissance nouvelle et authentique chez l'auditeur ? Ces interrogations structurantes organisent ce qu'on appelle l'épistémologie du témoignage — une branche centrale et florissante de l'épistémologie sociale contemporaine qui explore les fondements épistémologiques de nos pratiques communicatives et de nos dépendances interpersonnelles en matière de savoir.[130]
Le réductionnisme : la réduction du témoignage à d'autres sources épistémiques
[modifier | modifier le wikicode]La position réductionniste : structure générale
Le réductionnisme en épistémologie du témoignage défend la thèse que la justification testimoniale ne constitue pas une source épistémique fondamentale ou primitive, mais peut et doit être réduite ou reconstituée à partir d'autres sources épistémiques plus basiques et antérieurement mieux comprises — principalement la perception sensorielle, la mémoire autobiographique et l'inférence inductive. Selon cette approche, un auditeur ne peut être rationnellement justifié à croire le témoignage d'un locuteur que s'il possède des raisons positives et indépendantes de penser que ce témoignage particulier, ou le locuteur particulier, ou la pratique testimoniale en général, constituent des sources fiables de croyances vraies.[131]
David Hume constitue historiquement le représentant paradigmatique et le plus influent du réductionnisme testimonial classique. Selon l'analyse huienne, notre confiance naturelle dans le témoignage d'autrui ne se justifie épistémiquement que par appel à notre observation répétée et accumulée de la conformité générale entre les témoignages passés et les faits observés de manière indépendante. Nous croyons ce que les autres personnes nous disent simplement parce que nous avons constaté empiriquement, à travers de nombreuses expériences antérieures étendues, que les témoignages humains sont généralement et statistiquement véridiques. La justification de la croyance testimoniale se réduit donc à un raisonnement inductif fondé rigoureusement sur l'expérience personnelle et l'observation passée accumulée.[132]
Deux variantes du réductionnisme : global et local
On distingue couramment deux variantes du réductionnisme qui diffèrent significativement par leur degré d'exigence épistémique et de sophistication. Le réductionnisme global soutient que pour être justifié à accepter un témoignage particulier quelconque, l'auditeur doit posséder des raisons positives concernant la fiabilité générale du témoignage en tant que pratique sociale — c'est-à-dire une évaluation globale de la fiabilité de l'activité humaine de témoigner. L'auditeur doit avoir observé et accumulé suffisamment de cas où des témoignages se sont avérés véridiques pour pouvoir inférer inductivement, avec confiance statistique, que le témoignage présent spécifique est probablement fiable et véridique également.[133]
Le réductionnisme local, plus modéré dans ses exigences, ne demande pas que l'auditeur possède des raisons positives générales concernant la fiabilité du témoignage en tant que pratique universelle, mais seulement des raisons positives et spécifiques concernant la fiabilité du locuteur particulier dans la situation particulière présente. L'auditeur doit évaluer activement et avec vigilance la crédibilité épistémique spécifique du locuteur — en observant et interprétant son comportement verbomoteur, son intonation et son assurance, sa cohérence interne et sa cohérence avec d'autres sources informatives, sa compétence apparente et démontrée sur le sujet — et ne devrait accepter le témoignage que si cette évaluation critique produit des raisons positives suffisantes de confiance fiduciaire envers le locuteur particulier.[134]
Objections majeures au réductionnisme : circularité viciée et acquisition infantile
Le réductionnisme rencontre plusieurs objections puissantes et conceptuellement troublantes qui questionnent sa viabilité théorique. D'abord, l'objection de la circularité vicieuse : pour acquérir les raisons inductives et les justifications que le réductionnisme considère comme nécessaires — c'est-à-dire pour accumuler suffisamment d'observations particulières de corrélation entre témoignage et vérité objective — nous devons déjà posséder une quantité considérable de connaissances factuelles sur le monde. Mais comment avons-nous initialement acquis ces connaissances factiques préalables ? Si c'est précisément par le témoignage d'autres personnes, alors nous sommes pris dans un cercle épistémique apparemment inévitable : nous aurions besoin de raisons inductives concernant le témoignage pour être justifiés à accepter le témoignage, mais nous aurions besoin d'accepter le témoignage pour acquérir ces raisons inductives. Le réductionnisme semble donc soit vicieusement circulaire, soit conduire à une régression infinie de justifications testimoniales.[135]
Deuxièmement, l'objection de l'acquisition infantile de connaissance : les jeunes enfants — particulièrement en bas âge — acquièrent manifestement une quantité colossale de connaissances factuelles authentiques par le témoignage de leurs parents, de leurs éducateurs et de leur entourage familial et social. Ces enfants constituent clairement des cas de personnes qui possèdent une connaissance attestée et irrécusable. Pourtant, ces enfants ne possèdent manifestement pas l'expérience extensive du monde, ni les capacités cognitives sophistiquées d'évaluation critique et de pensée inductive, que le réductionnisme semble exiger pour justifier rationnellement l'acceptation du témoignage. Un enfant de trois ans qui apprend que les girafes possèdent un cou extraordinairement long en écoutant patiemment ses parents ne peut absolument pas avoir accumulé suffisamment d'observations épistémologiquement pertinentes confirmant la fiabilité générale du témoignage parental pour satisfaire aux exigences exigeantes du réductionnisme global ou même local. Si le réductionnisme était véritablement correct, les enfants jeunes ne pourraient tout simplement pas acquérir aucune connaissance testimoniale — conclusion qui semble manifestement fausse et contraire à nos observations empiriques évidentes de l'apprentissage enfantin.[136]
L'anti-réductionnisme : le témoignage comme source épistémique primitive
[modifier | modifier le wikicode]La thèse anti-réductionniste fondamentale et ses présupposés
L'anti-réductionnisme (aussi appelé non-réductionnisme) soutient la position rivale que le témoignage constitue une source épistémique fondamentale et primitive, au même titre structurel que la perception sensible, la mémoire autobiographique ou le raisonnement déductif. Aucune de ces sources — ni perception, ni mémoire, ni raisonnement — ne peut être réduite ou reconstruite à partir d'autres sources plus basiques. De manière similaire, le témoignage représente une voie irréductible et autonome d'accès à la connaissance. Selon cette approche, un auditeur peut rationnellement être justifié à croire le témoignage d'un locuteur sans posséder de raisons positives indépendantes préalables concernant la fiabilité du locuteur particulier ou du témoignage en général. La réception d'un témoignage sincère et clairement énoncé suffit, en l'absence de raisons positives contraires spécifiques ou de ce qu'on appelle des défaiseurs, à conférer une justification prima facie (une justification présomptive et provisoire, susceptible d'être défaite) à la croyance testimoniale formée par l'auditeur.[137]
Thomas Reid, philosophe écossais du dix-huitième siècle, représente historiquement et philosophiquement le représentant paradigmatique de la position anti-réductionniste. Selon Reid, la nature humaine possède deux principes psychologiques et communicatifs fondamentaux, innés et constitutifs, qui rendent la pratique du témoignage épistémiquement fiable et rationnellement acceptable par défaut : le principe de véracité dispose naturellement les locuteurs humains à dire la vérité et à rapporter consciencieusement ce qu'ils savent, tandis que le principe de crédulité dispose naturellement les auditeurs humains à croire ce qu'on leur dit honnêtement et sincèrement. Ces deux dispositions naturelles ne requièrent aucune justification inductive préalable ni aucune validation empirique — elles constituent des aspects constitutifs et fondamentaux de notre nature sociale, communicative et épistémique. Accepter le témoignage d'autrui représente donc une attitude épistémiquement rationnelle et justifiée par défaut, une option de base qui ne nécessite pas de raisons positives supplémentaires ou de preuves additionnelles pour être justifiée.[138]
La structure présomptive de la justification testimoniale : défaiseurs et contexte
Les anti-réductionnistes contemporains reconnaissent généralement que la justification testimoniale, bien que fondamentale, n'est pas absolue, irrévocable ou imperméable à la critique rationnelle. La justification n'est que prima facie ou présomptive — c'est-à-dire provisoire et révocable. La confiance épistémique par défaut dans le témoignage peut être rationnellement défaite ou annulée par la présence de défaiseurs — c'est-à-dire de raisons positives, de preuves ou d'indices donnant à l'auditeur des motifs légitimes de douter de la véracité et de la fiabilité du témoignage particulier. Si l'auditeur possède des évidences convaincantes que le locuteur est un menteur habituel et dénué de fiabilité, ou que le témoignage présent contredit d'autres témoignages provenant de sources fiables et indépendantes, ou que le locuteur possède des motivations évidentes et manifestes de tromper intentionnellement, alors la justification prima facie est raisonnablement défaite et annulée, et l'auditeur n'est plus épistémiquement justifié à accepter et à croire le témoignage.[139]
Cette structure architecturalement présomptive et défaisible de la justification testimoniale — justification par défaut et confiance automatique en l'absence de défaiseurs identifiables — distingue fondamentalement l'anti-réductionnisme du réductionnisme. Le réductionniste exige activement des raisons positives pour croire et pour justifier la croyance ; l'anti-réductionniste exige seulement l'absence de raisons positives contraires ou de défaiseurs pour rationnellement maintenir et ne pas abandonner la croyance. Cette différence architecturale profonde dans la structure de la justification reflète deux conceptions distincts et irréconciliables de la rationalité épistémique et de l'organisation fondamentale de la justification épistémique chez les êtres humains.
Objections à l'anti-réductionnisme : crédulité excessive et environnements hostiles
L'anti-réductionnisme rencontre lui aussi des objections sérieuses et philosophiquement significatives qui questionnent sa plausibilité théorique. L'objection principale et la plus persistante concerne le problème de la crédulité excessive ou de l'acceptation trop libérale : si nous sommes justifiés à croire tout témoignage en l'absence de défaiseurs explicites et identifiés, alors nous semblons rationnellement justifiés à croire des témoignages manifestement douteux ou extraordinaires dans des contextes épistémiques où nous manquons simplement d'information pertinente pour identifier des défaiseurs appropriés. Supposez qu'un étranger rencontré par hasard dans la rue vous affirme qu'il a observé et rencontré personnellement un extraterrestre physiquement présent hier soir. Si vous ne possédez aucune information spécifique sur cette personne, aucune connaissance préalable de sa réputation ou de sa fiabilité, aucune enquête sur les circonstances supposées, alors vous ne possédez aucun défaiseur explicite ou identifié. L'anti-réductionnisme semblerait donc vous dire que vous êtes rationnellement justifié à croire ce témoignage extraordinaire et hautement implausible — conclusion qui paraît epistermatiquement irresponsable et contraire à nos intuitions normatives sur la pensée critique rationnelle.[140]
De plus, dans les contextes épistémiquement hostiles ou environnements épistémiquement nuisibles — des contextes informationnels où la désinformation organisée, la propagande délibérée, les faux témoignages systématiques et les manipulations informationnelles sont répandus — la confiance par défaut en témoignages non-interrogés semble dangereusement naïve et épistémiquement imprudente. À l'ère numérique contemporaine, où les contenus informationnels en ligne cherchent fréquemment à manipuler plutôt qu'à informer véridiquement, où les réseaux sociaux propagent massivement la désinformation, où les bulles épistémiques et les chambres d'écho fragmentent notre accès à l'information véridique, accepter les témoignages par défaut sans évaluation critique développée semble exposer l'auditeur à des risques épistémiques considérables, évitables et prévisibles.[141]
La transmission versus la génération de connaissance testimoniale
[modifier | modifier le wikicode]Le débat transmission-génération : enjeux et structure
Un second débat central et philosophiquement fécond en épistémologie du témoignage concerne la question métaphysiquement importante de savoir si le témoignage transmet simplement une connaissance préexistante du locuteur vers l'auditeur, ou s'il peut générer ou créer une connaissance nouvelle et authentique chez l'auditeur qui ne préexistait pas chez le locuteur. Selon la thèse de transmission, l'auditeur ne peut rationnellement acquérir une connaissance testimoniale authentique que si et seulement si le locuteur possédait déjà cette même connaissance préalablement. Le témoignage préserve, transmet et perpétue la connaissance d'une personne à une autre, mais ne la crée ni ne la génère de manière ex nihilo. Selon la thèse de génération, par contraste profond, l'auditeur peut acquérir une connaissance testimoniale authentique même et précisément dans les cas où le locuteur ne possédait pas de connaissance au sens épistémique strict, pourvu que le témoignage énoncé soit néanmoins véridique et que certaines autres conditions épistémiques appropriées soient satisfaites.[142]
Arguments en faveur de la thèse de transmission
Les partisans de la thèse de transmission avancent plusieurs arguments intuitifs et conceptuellement importants. D'abord, il semble epistemiquement bizarre, paradoxal ou même impossible qu'un auditeur puisse posséder et savoir quelque chose d'important que le locuteur lui-même ne savait pas ou ne possédait pas. Si Marie affirme à Jean que le train de 15 heures part de la gare centrale, mais que Marie elle-même ne savait pas réellement et authentiquement que le train part à 15 heures — elle a simplement deviné sans certitude, ou répété sans comprendre quelque chose qu'elle avait vaguement entendu — comment Jean pourrait-il rationnellement acquérir une véritable connaissance que Marie elle-même ne possédait pas ? La connaissance semble devoir se transmettre du locuteur épistémiquement informé vers l'auditeur réceptif, plutôt que d'apparaître miraculeusement chez l'auditeur sans avoir préexisté chez le locuteur informé.[143]
Deuxièmement, si le témoignage pouvait générer et créer de la connaissance ex nihilo, alors la connaissance deviendrait « trop facile » à acquérir et perdrait sa valeur épistémique. Un locuteur totalement ignorant ou complètement dénué de justification épistémique pourrait néanmoins transmettre de la connaissance authentique à un auditeur simplement en émettant par pur hasard ou par chance un témoignage qui s'avère véridique, indépendamment de tout processus cognitif approprié. Cela semble affaiblir dangereusement les standards épistémiques rigoureux et les conditions substantielles exigées pour l'acquisition et l'attribution de la connaissance.
Arguments contre la transmission : cas lackeyen de témoignages véridiques sans connaissance du locuteur
Cependant, des philosophes influents comme Jennifer Lackey ont proposé des cas contraires convaincants et détaillés qui semblent démontrer que le témoignage peut effectivement générer et créer de la connaissance même quand le locuteur lui-même ne possédait pas cette connaissance. Considérez le cas particulier suivant, attentivement construit : un professeur d'astronomie enseigne consciencieusement, méthodiquement et rigoureusement à ses étudiants attentifs que la Terre tourne autour du Soleil — une connaissance scientifique établie et confirmée. Le professeur possède toutes les justifications rationnelles appropriées, tous les arguments rigoureux, toutes les preuves empiriques, et sait authentiquement que cette proposition est vraie. Cependant — point crucial — ce professeur souffre d'un doute pathologique irrationnel et profondément dysfonctionnel en matière de cosmologie. Malgré toutes ses preuves empiriques et tous ses arguments rationnels, il ne peut pas s'empêcher psychologiquement de douter perpétuellement de la vérité de cette proposition, malgré son absence complète de raison justifiée. Selon certaines théories de la connaissance — notamment les théories externalistes et fiabilistes — ce professeur ne sait pas strictement et véritablement que la Terre tourne autour du Soleil, car il ne possède pas la certitude psychologique appropriée, la confiance, ou d'autres conditions supposées nécessaires pour la connaissance. Pourtant, ses étudiants attentifs, qui acceptent honnêtement son témoignage sans ce doute pathologique dysfonctionnel, semblent acquérir une connaissance authentique et véridique. Si ce raisonnement est correct, alors les étudiants ont effectivement acquis une connaissance que le professeur lui-même ne possédait strictement pas — le témoignage a généré et créé, plutôt que simplement transmis, de la connaissance authentique.[144]
La confiance épistémique et les normes du témoignage
[modifier | modifier le wikicode]La notion de confiance épistémique interpersonnelle
La confiance épistémique joue un rôle central, constitutif et normativement chargé dans l'épistémologie du témoignage contemporaine. Quand un auditeur accepte et endosse le témoignage d'un locuteur, il n'accomplit pas simplement l'acte psychologique minimaliste de former une croyance causée ou provoquée par le contenu asserté du témoignage — il place sa confiance épistémique de manière active dans le locuteur, il compte sur le locuteur, il attend du locuteur qu'il lui fournisse une information véridique et fiable. Cette dimension interpersonnelle, sociale et normativement significative du processus testimonial distingue fondamentalement et qualitativement l'acquisition de croyances testimoniales de l'acquisition alternative de croyances par perception directe ou par inférence logique individuelle.[145]
La confiance épistémique implique une vulnérabilité épistémique particulière et constitutive : l'auditeur se rend psychologiquement et épistémiquement dépendant du locuteur, et cette dépendance volontairement contractée peut être rationnellement trahie et violée si le locuteur témoigne de manière insincère, malhonnête ou incompétente. Cette vulnérabilité soulève des questions normatives importantes et troublantes : quelles obligations morales et épistémiques le locuteur possède-t-il envers ses auditeurs ? Dans quelles conditions précises un auditeur rationnel est-il justifié de placer sa confiance délibérée dans un locuteur particulier ?
Les normes du témoignage : quelle est la norme épistémique appropriée ?
Un débat normatif important et structurant en épistémologie du témoignage concerne la question de savoir quelles normes épistémiques et sociales gouvernent appropriément et justifient la pratique communicative du témoignage. Selon la norme de connaissance, un locuteur ne devrait énoncer un témoignage affirmatif que P que dans les cas où il sait véritablement que P — la connaissance constitue la norme correcte et appropriée pour asserter. Témoigner sans savoir constitue une violation sérieuse d'une norme épistémique constitutive de la pratique testimoniale elle-même et rend le locuteur épistémiquement responsable. Selon la norme de justification, plus permissive et libérale, un locuteur peut légitimement et appropriément témoigner que P s'il possède une justification suffisante et rationnelle pour croire que P — même s'il ne satisfait pas toutes les conditions strictes pour constituer une connaissance authentique. Selon la norme de vérité, la plus libérale et la plus permissive, un locuteur peut propriétement et sans réserve témoigner que P pourvu seulement que P soit vrai objectivement dans le monde — indépendamment entièrement de son état épistémique personnel concernant P.[146]
Ces normes distinctes et rivales ont des implications dramatiques et divergentes pour l'évaluation appropriée de la responsabilité épistémique des locuteurs et pour la justification rationnelle des croyances des auditeurs. Si la norme de connaissance est correcte et justifiée, alors un auditeur qui accepte le témoignage d'un locuteur compétent et visiblement sincère peut légitimement présupposer et supposer que le locuteur sait véritablement ce qu'il affirme — et cette présupposition de la connaissance du locuteur renforce considérablement et élève la justification testimoniale de l'auditeur récepteur.
Conclusion : vers une épistémologie sociale intégrée et nuancée
[modifier | modifier le wikicode]L'épistémologie du témoignage révèle fondamentalement la dimension profondément sociale, interpersonnelle et collaborative de la connaissance humaine. Notre savoir collectif n'est pas le produit solitaire et autonome d'efforts cognitifs individuels isolés, mais plutôt le fruit d'une vaste et complexe coopération épistémique impliquant la confiance réciproque, la communication authentique et la dépendance mutuelle acceptée. Les débats structurants entre réductionnisme et anti-réductionnisme, entre transmission et génération de connaissance, entre différentes normes épistémiques du témoignage, reflètent des désaccords profonds et persistants sur la nature fondamentale de la rationalité épistémique humaine et sur les conditions métaphysiquement suffisantes et nécessaires pour l'attribution de la connaissance.[147]
Une théorie adéquate, complète et satisfaisante de la connaissance testimoniale devra probablement intégrer et synthétiser des éléments philosophiques de plusieurs approches rivales : reconnaître avec les anti-réductionnistes que le témoignage est une source épistémique fondamentalement autonome et primitive, tout en reconnaissant simultanément avec les réductionnistes que l'évaluation critique vigilante et la perspicacité épistémique demeurer importantes et rationnellement exigées, particulièrement dans des contextes épistémiquement hostiles ou informationnellement fragmentés. Elle devra également articuler avec soin les relations complexes entre la connaissance authentique du locuteur, la confiance fiduciaire de l'auditeur, les normes sociales qui structurent la pratique testimoniale, et la vulnérabilité épistémique inévitable qu'implique toute dépendance informationnelle interpersonnelle.[148]
Notes et références
[modifier | modifier le wikicode]- ↑ Penjon, A. “Un métaphysicien anglais contemporain: M. J. F. Ferrier.” Revue philosophique de la France et de l'étranger, vol. 2, 1876, pp. 130–67. JSTOR, http://www.jstor.org/stable/41071286. Accessed 23 Nov. 2025.
- ↑ Platon, Théétète, 142a-210b. Traduction française : Louis-André Dorion, Platon. Théétète, Paris, Flammarion, 1990.
- ↑ Platon, Théétète, 151e-186e. Sur cette première réfutation, voir : Lesley Brown, « The Theaetetus », dans C. H. Shields (dir.), The Blackwell Guide to Plato's Republic, Oxford, Blackwell, 2003, p. 401-425.
- ↑ Platon, Théétète, 187a-200c. Voir également : Michel Narcy, « Doxa et alèthéia chez Platon », Proceedings of the Boston Area Colloquium in Ancient Philosophy, vol. 11, 1995, p. 1-25.
- ↑ Platon, Théétète, 200e-201a.
- ↑ Platon, Théétète, 201c. Sur l'interprétation du logos platonicien en rapport avec la justification, voir : Timothy Chappell, Reading Plato's Theaetetus, Indianapolis/Cambridge, Hackett, 2004, p. 198-215.
- ↑ Edmund Gettier, « Is Justified True Belief Knowledge? », Analysis, vol. 23, n° 6, 1963, p. 121-123.
- ↑ Edmund Gettier, « Is Justified True Belief Knowledge? », Analysis, vol. 23, n° 6, 1963, p. 121-123. Cet article court mais influent marque le tournant qui conduit à l’adoption généralisée du sigle « JTB ».
- ↑ Roderick Chisholm, Theory of Knowledge, Prentice-Hall, 1966 (1re édition). Cet ouvrage de référence formalise la structure tripartite pour l’épistémologie analytique.
- ↑ René Descartes, Méditations métaphysiques, Méditation Première, 1641 ; Immanuel Kant, Critique de la raison pure, Introduction, A1-A6 / B1-B10.
- ↑ Jaakko Hintikka, Knowledge and Belief. An Introduction to the Logic of the Two Notions, Cornell University Press, 1962, p. 29-45.
- ↑ Alfred Tarski, « The Semantic Conception of Truth and the Foundations of Semantics », Philosophy and Phenomenological Research, vol. 4, 1944, p. 341-376.
- ↑ Michael Lynch (dir.), The Nature of Truth, MIT Press, 2001.
- ↑ Bertrand Russell, The Problems of Philosophy, Oxford University Press, 1912, chap. VII.
- ↑ Roderick Chisholm, Person and Object, Allen & Unwin, 1976, p. 8-27 ; Franz Brentano, Psychology from an Empirical Standpoint, Routledge, 1973 (traduction anglaise de l’édition allemande de 1874).
- ↑ Isaac Levi, The Fixation of Belief and Its Undoing, Cambridge University Press, 1991 ; Darren Bradley, A Critical Introduction to Bayesian Epistemology, Bloomsbury, 2015.
- ↑ Alvin Goldman, Epistemology and Cognition, Harvard University Press, 1986, p. 59-90.
- ↑ BonJour, Laurence, The Structure of Empirical Knowledge, Harvard University Press, 1985, p. 38-45.
- ↑ Gettier, op. cit., p. 121.
- ↑ Alvin Goldman, « A Causal Theory of Knowing », The Journal of Philosophy, vol. 64, n° 12, 1967, p. 357-372.
- ↑ William Alston, Epistemic Justification. Essays in the Theory of Knowledge, Cornell University Press, 1989.
- ↑ Laurence BonJour & Sosa, Ernest, Epistemic Justification: Internalism vs. Externalism, Foundations vs. Virtues, Blackwell, 2003.
- ↑ Keith DeRose, « Solving the Skeptical Problem », The Philosophical Review, vol. 104, n° 1, 1995, p. 1-52.
- ↑ John Pollock, Contemporary Theories of Knowledge, Rowman & Littlefield, 1986, p. 29-35.
- ↑ BonJour, Laurence, The Structure of Empirical Knowledge, op. cit., p. 21-32.
- ↑ Sextus Empiricus, Outlines of Pyrrhonism, trad. R.G. Bury, Harvard University Press, 1933, Livre I, § 165-177.
- ↑ Michael Huemer, Epistemology. Contemporary Readings, Routledge, 2002, p. 1-50.
- ↑ Keith Lehrer & Cohen, Stewart, « Justification, Truth, and Coherence », Synthese, vol. 55, n° 2, 1983, p. 191-207.
- ↑ Jason Stanley, Knowledge and Practical Interests, Oxford University Press, 2005.
- ↑ Timothy Williamson, Knowledge and Its Limits, Oxford University Press, 2000, p. 1-50.
- ↑ Peter Unger, Ignorance. A Case for Scepticism, Oxford University Press, 1975.
- ↑ Linda Zagzebski, Virtues of the Mind: An Inquiry into the Nature of Virtue and the Ethical Foundations of Knowledge, Cambridge University Press, 1996.
- ↑ Fred Dretske, Knowledge and the Flow of Information, MIT Press, 1981.
- ↑ Robert Nozick, Philosophical Explanations, Harvard University Press, 1981, p. 172-178.
- ↑ Matthias Steup, Turri, John & Sosa, Ernest (dir.), Contemporary Debates in Epistemology, Wiley-Blackwell, 2014.
- ↑ Edmund Gettier, « Is Justified True Belief Knowledge? », Analysis, vol. 23, n° 6, 1963, p. 121-123.
- ↑ Pour une synthèse récente des recherches, voir : Ichikawa, Jonathan L. & Steup, Matthias, « The Analysis of Knowledge », dans The Stanford Encyclopedia of Philosophy, 2018.
- ↑ Gettier, op. cit., p. 122.
- ↑ Saul Kripke, « A Puzzle About Belief », dans Margalit, Avishai (dir.), Meaning and Use, D. Reidel, 1979, p. 239-283.
- ↑ Linda Zagzebski, « Virtue Epistemology », dans Greco, John & Sosa, Ernest (dir.), The Blackwell Guide to Epistemology, Blackwell, 2003, p. 93-113.
- ↑ Alvin Goldman, « Discrimination and Perceptual Knowledge », The Journal of Philosophy, vol. 73, n° 20, 1976, p. 771-791.
- ↑ Keith Lehrer & Thomas Paxton, « Knowledge, Undefeated Justified True Belief », The Journal of Philosophy, vol. 66, n° 8, 1969, p. 225-237.
- ↑ Goldman, Alvin, « A Causal Theory of Knowing », The Journal of Philosophy, vol. 64, n° 12, 1967, p. 357-372.
- ↑ Robert Nozick, Philosophical Explanations, Harvard University Press, 1981, p. 172-178.
- ↑ Duncan Pritchard, Epistemic Luck, Oxford University Press, 2005.
- ↑ Frank Jackson, « Gettier Cases as Counterexamples to the Justified True Belief Analysis of Knowledge », dans Pappas, George S. & Swain, Marshall (dir.), Essays on Knowledge and Justification, Cornell University Press, 1978, p. 25-37.
- ↑ Matthias Steup, « Epistemology », dans Stanford Encyclopedia of Philosophy, 2021.
- ↑ Tim Williamson, Knowledge and Its Limits, Oxford University Press, 2000, p. 34-73.
- ↑ Jonathan Weinberg, Shaun Stich & David E. Cohen, « Individually Individuated Concepts », Journal of Philosophy, vol. 99, n° 3, 2002, p. 109-126.
- ↑ Ichikawa & Steup, op. cit.
- ↑ Matthias Steup, Turri, John & Sosa, Ernest (dir.), Contemporary Debates in Epistemology, Wiley-Blackwell, 2014.
- ↑ Keith Lehrer & Thomas D. Paxson, Jr., « Knowledge, Undefeated Justified True Belief », The Journal of Philosophy, vol. 66, n° 8, 1969, p. 225-237.
- ↑ Keith Lehrer, Theory of Knowledge, Westview Press, 2e édition, 1990, p. 109-135.
- ↑ Robert K. Shope, The Analysis of Knowing: A Decade of Research, Princeton University Press, 1983, p. 87-104.
- ↑ Ernest Sosa, Knowledge in Perspective, Cambridge University Press, 1991, p. 138-147.
- ↑ Ernest Sosa, A Virtue Epistemology: Apt Belief and Reflective Knowledge, Oxford University Press, 2007, vol. 1, p. 84-101.
- ↑ John Greco, « Sosa's Virtue Epistemology and the Problem of Modal Luck », dans Contemporary Debates in Epistemology, Wiley-Blackwell, 2014, p. 227-239.
- ↑ William Alston, Epistemic Justification. Essays in the Theory of Knowledge, Cornell University Press, 1989, p. 227-245.
- ↑ Fred Dretske, Seeing and Knowing, University of Chicago Press, 1969.
- ↑ Alvin Goldman, Epistemology and Cognition, Harvard University Press, 1986, p. 93-112.
- ↑ Linda Zagzebski, Virtues of the Mind: An Inquiry into the Nature of Virtue and the Ethical Foundations of Knowledge, Cambridge University Press, 1996, p. 271-290.
- ↑ Linda Zagzebski, op. cit., p. 281-290.
- ↑ Ernest Sosa, Virtue Epistemology: Apt Belief and Reflective Knowledge, Oxford University Press, 2007, vol. 1, p. 25-40.
- ↑ Jason Baehr, The Inquiring Mind: On Intellectual Virtues and Virtue Epistemology, Oxford University Press, 2011, p. 156-185.
- ↑ Duncan Pritchard, Epistemic Luck, Oxford University Press, 2005, p. 168-195.
- ↑ Keith DeRose, The Case for Contextualism: Knowledge, Skepticism, and Context, Oxford University Press, 2009.
- ↑ Ichikawa, Jonathan L. & Steup, Matthias, « The Analysis of Knowledge », Stanford Encyclopedia of Philosophy, 2018.
- ↑ Gilbert Ryle, « Knowing How and Knowing That », Proceedings of the Aristotelian Society, vol. 46, 1945, p. 1-16.
- ↑ Gilbert Ryle, The Concept of Mind, Hutchinson, 1949, p. 25-61.
- ↑ Gilbert Ryle, op. cit., p. 32-45.
- ↑ Jason Stanley & Timothy Williamson, « Knowing How , The Journal of Philosophy, vol. 98, n° 8, 2001, p. 411-444.
- ↑ Katalin Balog & Katalin Farkas, « Introspection and the Concept of Phenomenal Consciousness , dans Gendler, Tamar Szab & Hawthorne, John (dir.), Perceptual Experience, Oxford University Press, 2006, p. 285-312.
- ↑ (en) Laurence BonJour, The Structure of Empirical Knowledge, Cambridge (Mass.), Harvard University Press,
- ↑ (en) Susan Haack, Evidence and Inquiry. Towards Reconstruction in Epistemology, Oxford, Blackwell,
- ↑ (en) Keith Lehrer, Theory of Knowledge, London, Routledge,
- ↑ James J. Gibson, The Ecological Approach to Visual Perception, Boston, Houghton Mifflin,
- ↑ Hermann von Helmholtz, Handbuch der physiologischen Optik, Hambourg, L. Voss,
- ↑ Karl Friston, « The free-energy principle: a unified brain theory? », dans Nature Reviews Neuroscience, vol. 11, 2010, p. 127-138
- ↑ Goldman, A. I. & McGrath, M. (2015). Epistemology: A Contemporary Introduction. Oxford University Press.
- ↑ Audi, R. (2011). Epistemology: A Contemporary Introduction to the Theory of Knowledge, 3e édition. Routledge.
- ↑ BonJour, L. (1985). The Structure of Empirical Knowledge. Harvard University Press.
- ↑ Pryor, J. (2000). « The Skeptic and the Dogmatist ». Noûs, 34(4), 517-549.
- ↑ Sellars, W. (1956). « Empiricism and the Philosophy of Mind », dans Feigl, H. & Scriven, M. (dir.), Minnesota Studies in the Philosophy of Science, vol. I, p. 253-329. University of Minnesota Press.
- ↑ deVries, W. A. & Triplett, T. (2000). Knowledge, Mind, and the Given: Reading Wilfrid Sellars's "Empiricism and the Philosophy of Mind". Hackett Publishing.
- ↑ McDowell, J. (1994). Mind and World. Harvard University Press.
- ↑ Huemer, M. (2001). Skepticism and the Veil of Perception. Rowman & Littlefield.
- ↑ Huemer, M. (2007). « Compassionate Phenomenal Conservatism ». Philosophy and Phenomenological Research, 74(1), 30-55.
- ↑ Tucker, C. (2010). « Why Open-Minded People Should Endorse Dogmatism ». Philosophical Perspectives, 24(1), 529-545.
- ↑ Siegel, S. (2012). « Cognitive Penetrability and Perceptual Justification ». Noûs, 46(2), 201-222.
- ↑ Markie, P. (2005). « The Mystery of Direct Perceptual Justification ». Philosophical Studies, 126(3), 347-373.
- ↑ Goldman, A. I. (1979). « What Is Justified Belief? », dans Pappas, G. S. (dir.), Justification and Knowledge, p. 1-23. Reidel.
- ↑ Goldman, A. I. & Beddor, B. (2021). « Reliabilist Epistemology ». Stanford Encyclopedia of Philosophy, E. N. Zalta (dir.).
- ↑ Alston, W. P. (1995). « How to Think About Reliability ». Philosophical Topics, 23(1), 1-29.
- ↑ Conee, E. & Feldman, R. (1998). « The Generality Problem for Reliabilism ». Philosophical Studies, 89(1), 1-29.
- ↑ Lyons, J. C. (2019). « Algorithm and Parameters: Solving the Generality Problem for Reliabilism ». Philosophical Review, 128(4), 463-509.
- ↑ BonJour, L. (1985). The Structure of Empirical Knowledge. Harvard University Press, chap. 5-6.
- ↑ Lehrer, K. (1990). Theory of Knowledge. Westview Press.
- ↑ Pollock, J. (1986). Contemporary Theories of Knowledge. Rowman & Littlefield.
- ↑ Haack, S. (1993). Evidence and Inquiry: Towards Reconstruction in Epistemology. Blackwell.
- ↑ BonJour, L. & Sosa, E. (2003). Epistemic Justification: Internalism vs. Externalism, Foundations vs. Virtues. Blackwell.
- ↑ Goldman, A. I. (1999). « Internalism Exposed ». Journal of Philosophy, 96(6), 271-293.
- ↑ Fumerton, R. (1995). Metaepistemology and Skepticism. Rowman & Littlefield.
- ↑ Goldman, A. I. (1986). Epistemology and Cognition. Harvard University Press.
- ↑ Bergmann, M. (2006). Justification Without Awareness. Oxford University Press.
- ↑ Bernecker, S. & Pritchard, D. (dir.) (2011). The Routledge Companion to Epistemology. Routledge, partie IV.
- ↑ Alston, W. P. (2005). Beyond "Justification": Dimensions of Epistemic Evaluation. Cornell University Press.
- ↑ Markie, P. (2004). « Rationalism vs. Empiricism ». Stanford Encyclopedia of Philosophy, E. N. Zalta (dir.). https://plato.stanford.edu/entries/rationalism-empiricism/
- ↑ Audi, R. (2011). Epistemology : A Contemporary Introduction to the Theory of Knowledge, 3e édition. Routledge, chap. 6-7.
- ↑ Descartes, R. (1641). Méditations métaphysiques, trad. fr. Duc de Luynes. Paris : Librairie générale française, 1990.
- ↑ Descartes, R. (1637). Discours de la méthode. Paris : Garnier-Flammarion, 1992, partie IV.
- ↑ Leibniz, G. W. (1704). Nouveaux essais sur l'entendement humain. Paris : Garnier-Flammarion, 1990, préface.
- ↑ Leibniz, G. W. (1704). Nouveaux essais sur l'entendement humain. Paris : Garnier-Flammarion, 1990, livre I, chap. 1.
- ↑ Locke, J. (1690). Essai sur l'entendement humain, trad. fr. J.-M. Vienne. Paris : Vrin, 2001.
- ↑ Locke, J. (1690). Essai sur l'entendement humain, trad. fr. J.-M. Vienne. Paris : Vrin, 2001, livre II, chap. 1.
- ↑ Locke, J. (1690). Essai sur l'entendement humain, trad. fr. J.-M. Vienne. Paris : Vrin, 2001, livre I, chap. 2-4.
- ↑ Locke, J. (1690). Essai sur l'entendement humain, trad. fr. J.-M. Vienne. Paris : Vrin, 2001, livre II, chap. 2-12.
- ↑ Hume, D. (1748). Enquête sur l'entendement humain, trad. fr. A. Leroy. Paris : Garnier-Flammarion, 1983.
- ↑ Hume, D. (1748). Enquête sur l'entendement humain, trad. fr. A. Leroy. Paris : Garnier-Flammarion, 1983, section IV.
- ↑ Hume, D. (1748). Enquête sur l'entendement humain, trad. fr. A. Leroy. Paris : Garnier-Flammarion, 1983, section VII.
- ↑ Kant, I. (1783). Prolégomènes à toute métaphysique future qui pourra se présenter comme science, trad. fr. L. Guillermit. Paris : Vrin, 1986, préface.
- ↑ Kant, I. (1781/1787). Critique de la raison pure, trad. fr. A. Tremesaygues et B. Pacaud. Paris : PUF, 2004, introduction, B1-B3.
- ↑ Kant, I. (1781/1787). Critique de la raison pure, trad. fr. A. Tremesaygues et B. Pacaud. Paris : PUF, 2004, introduction, B10-B14.
- ↑ Kant, I. (1781/1787). Critique de la raison pure, trad. fr. A. Tremesaygues et B. Pacaud. Paris : PUF, 2004, introduction, B15-B16.
- ↑ Kant, I. (1781/1787). Critique de la raison pure, trad. fr. A. Tremesaygues et B. Pacaud. Paris : PUF, 2004, introduction, B19.
- ↑ Kant, I. (1781/1787). Critique de la raison pure, trad. fr. A. Tremesaygues et B. Pacaud. Paris : PUF, 2004, préface de la seconde édition, Bxvi-Bxviii.
- ↑ Kant, I. (1781/1787). Critique de la raison pure, trad. fr. A. Tremesaygues et B. Pacaud. Paris : PUF, 2004, Esthétique transcendantale et Analytique transcendantale.
- ↑ BonJour, L. (1998). In Defense of Pure Reason : A Rationalist Account of A Priori Justification. Cambridge University Press.
- ↑ Guyer, P. & Wood, A. (dir.) (1992). The Cambridge Companion to Kant. Cambridge University Press.
- ↑ Goldman, A. I. (1999). Knowledge in a Social World. Oxford University Press, p. 100-104.
- ↑ Lackey, J. & Sosa, E. (dir.) (2006). The Epistemology of Testimony. Oxford University Press.
- ↑ Hume, D. (1748). Enquête sur l'entendement humain, trad. fr. A. Leroy. Paris : Garnier-Flammarion, 1983, section X.
- ↑ Hume, D. (1748). Enquête sur l'entendement humain, trad. fr. A. Leroy. Paris : Garnier-Flammarion, 1983, section X, § 4-5.
- ↑ Fricker, E. (1994). « Against Gullibility ». Dans Matilal, B. K. & Chakrabarti, A. (dir.), Knowing from Words. Kluwer, p. 125-161.
- ↑ Fricker, E. (1995). « Telling and Trusting : Reductionism and Anti-Reductionism in the Epistemology of Testimony ». Mind, 104(414), 393-411.
- ↑ Coady, C. A. J. (1992). Testimony : A Philosophical Study. Oxford University Press, p. 79-100.
- ↑ Audi, R. (1997). « The Place of Testimony in the Fabric of Knowledge and Justification ». American Philosophical Quarterly, 34(4), 405-422.
- ↑ Reid, T. (1764). An Inquiry into the Human Mind on the Principles of Common Sense (trad. fr. : Recherches sur l'entendement humain d'après les principes du sens commun). Paris : Vrin, 2012, chap. VI, section XXIV.
- ↑ Reid, T. (1764). An Inquiry into the Human Mind on the Principles of Common Sense. Chap. VI, section XXIV.
- ↑ Burge, T. (1993). « Content Preservation ». Philosophical Review, 102(4), 457-488.
- ↑ Fricker, E. (2006). « Testimony and Epistemic Autonomy ». Dans Lackey, J. & Sosa, E. (dir.), The Epistemology of Testimony, p. 225-250. Oxford University Press.
- ↑ Nguyen, C. T. (2020). « Echo Chambers and Epistemic Bubbles ». Episteme, 17(2), 141-161.
- ↑ Lackey, J. (2008). Learning from Words : Testimony as a Source of Knowledge. Oxford University Press, p. 48-75.
- ↑ Lackey, J. (1999). « Testimonial Knowledge and Transmission ». Philosophical Quarterly, 49(197), 471-490.
- ↑ Lackey, J. (1999). « Testimonial Knowledge and Transmission ». Philosophical Quarterly, 49(197), 471-490.
- ↑ Faulkner, P. (2011). Knowledge on Trust. Oxford University Press.
- ↑ Goldberg, S. (2015). Assertion : On the Philosophical Significance of Assertoric Speech. Oxford University Press, p. 88-120.
- ↑ Greco, J. (2020). The Transmission of Knowledge. Cambridge University Press.
- ↑ Goldberg, S. (2010). Relying on Others : An Essay in Epistemology. Oxford University Press.