samedi 26 novembre 2011

Comment une différence peut-elle ne pas devenir une inégalité?

Tout le monde est facilement capable de distinguer entre ces deux concepts, celui d'égalité et d'inégalité d'une part, et celui d'identité et de différence d'autre part. L'égalité et l'inégalité sont toujours relatives à une certaine grandeur mesurée, donc à la possibilité d'établir une hiérarchie selon une unité de mesure. Tous les jeunes français passent par le même système scolaire, donc on peut comptabiliser les années d'étude, pour déterminer qui a le plus étudié, ou bien faire passer des épreuves ou des concours, en vue de hiérarchiser les élèves. De même, tous les salariés français reçoivent un salaire en euros, donc l'euro peut servir d'unité de mesure pour établir les inégalités de revenu. 
Par opposition, l'apparence physique, le trait de caractère, le lieu de vie, etc. forment des différences entre individus, sans que ces différences soient des inégalités. On ne considère pas qu'être roux soit supérieur au fait d'être brun, on ne considère pas qu'habiter à Bordeaux soit mieux qu'habiter à Marseille, etc. Bien sûr, chaque individu, pour mener sa vie, a besoin de faire des choix entre différentes actions possibles, et doit donc hiérarchiser les possibilités qui se présentent à lui. Mais ces choix individuels ne sont pas déterminés par des hiérarchies socialement établies. Celui qui a une préférence pour la chaleur méditerranéenne préfèrera aller habiter à Marseille qu'à Bordeaux, mais la société ne juge pas du tout que la première ville soit supérieure à la seconde. Elle est seulement différente.
Ainsi, bien que le fait d'établir l'inégalité de plusieurs choses suppose que ces choses soient différentes (si elles étaient parfaitement semblables, elles seraient égales), il y a beaucoup de différences qui ne donnent pas naissance à des inégalités. Dès lors, il convient de se poser la question suivante : puisque, en bons démocrates, nous souhaitons lutter contre les inégalités jugées inacceptables, comment expliquer que, parfois, des inégalités apparaissent à partir de différences? Pourquoi les choses ne se contentent-elles pas de rester différentes, au lieu de s'établir en une hiérarchie qui pénalise ceux qui sont en situation d'infériorité? Pourquoi ne peut-on pas toujours revendiquer sa différence sans être immédiatement classé comme inférieur?

Ce débat de la différence contre l'inégalité a pris une forme exemplaire dans les luttes féministes pour l'égalité des droits. En effet, les féministes se distinguent, de manière très schématique, entre les universalistes et les différencialistes. Les premières considèrent que les femmes doivent être égales aux hommes, parce qu'elles sont semblables. Elles sont des êtres humains capables d'apprendre, de penser, d'agir responsablement, d'avoir des convictions morales et politiques, etc. Bref, elles n'ont rien qui les distingue des hommes, et qui justifierait de les traiter différemment. Ainsi, l'universalisme soutient la similtude des hommes et des femmes, afin de pouvoir défendre leur égalité. Le différentialisme au contraire soutient que les femmes sont différentes. Elles ont une personnalité différente, des besoins différents, des valeurs différentes, etc. Mais toutes ces différences ne doivent pas impliquer l'inégalité de traitement. Ces différences de genre existent, mais ne justifient en rien qu'un genre soit favorisé par rapport à l'autre. Il n'y a pas de raison que les valeurs viriles aient un privilège sur les valeurs de douceur et d'attention féminines. 
Ainsi, les différentialistes font le pari que ces différences de genre peuvent ne pas découler nécessairement sur une hiérarchie des genres, donc que la société peut prendre conscience de ces différences, sans immédiatement trouver une unité de mesure permettant de les hiérarchiser. Comment serait-ce possible? C'est possible si l'on ne cherche pas, dans une vision englobante, soucieuse d'établir des liens de tout avec tout, à ramener la moindre différence à des buts socialement définis. Si toute la société a pour principal souci de développer l'ardeur militaire, le combat, etc. il est évident que la différence des hommes et des femmes deviendra mécaniquement une inégalité. Les femmes étant (en général) moins fortes physiquement, il est inévitable qu'elles soient désavantagées : n'ayant pas envie de faire carrière dans l'armée, ou bien ayant des carrières moins brillantes, elles se retrouveront socialement désavantagées. Alors que si la différence des sexes n'est pas ramenée à un but externe, cette différence n'entraîne aucune inégalité. La douceur est simplement différente de la virilité, et chacun peut adopter le comportement qui lui plaît (pensons aussi aux hommes qui préfèrent la douceur à la virilité!) sans être pénalisé par sa conduite.

Autrement dit, ce sont les coupures, les ruptures, les discontinuités, mais aussi la multiplicité des instances capables de produire des valeurs qui permettent de protéger les différences, de les empêcher de se résoudre en inégalités. Une société ne peut maintenir des différences en son sein que si elle instaure des coupures dans la circulation des membres, et des valeurs morales, politiques, économiques, etc.
On peut prendre un autre exemple, celui de l'école. Pourquoi l'école suscite-t-elle aujourd'hui tant de tensions, tant d'enjeu, et donc aussi tant de critiques? Ce que l'on reproche à l'école est d'être inégalitaire, de reproduire des inégalités sociales, au lieu de les compenser. Or, reprocher ceci à l'école, c'est considérer que les différences de parcours scolaires se transformeront nécessairement en inégalités sociales. Et c'est en effet le cas, mais pourquoi est-ce le cas? Parce que l'école n'est pas coupée, mais au contraire en lien assez étroit avec le monde du travail, ce qui fait que les inégalités scolaires auront pour conséquences directes des inégalités professionnelles. Autrement dit, qui échoue lors de ses premières années échouera probablement sa vie entière; celui qui, au contraire, a eu une scolarité brillante a de très grandes chances de réussir tout le reste de sa vie. C'est le fait que la partie (l'école) décide du tout (la vie) qui cristallise tous les ressentiments portés envers l'école. Alors que si, à l'inverse de ce qui se fait aujourd'hui, l'école était coupée beaucoup plus fortement du monde professionnel, l'échec scolaire n'impliquerait pas l'échec professionnel. Chacun aurait une seconde chance pour réussir sa vie ailleurs. Tel élève ne comprend rien à son cours de physique : ce n'est pas grave, il aura peut-être l'occasion de réussir sa vie en devenant manager d'une grande équipe. Mais si, au contraire, toutes les places sont d'emblée verouillées par le système scolaire, il n'y a tout simplement plus aucune seconde chance, il devient obligatoire d'investir au maximum le champ scolaire sous peine de défaite définitive. Et l'école devient un lieu d'angoisse terrible.
L'école devrait donc tout faire pour se rendre inutile, c'est-à-dire ne pas avoir d'autre but qu'elle-même, et c'est à cette condition que les élèves pourront y venir de manière apaisée et désintéressée, attitude qui est la seule compatible avec l'étude véritable. L'école doit être un lieu d'apprentissage de ce qui fait de nous des êtres humains, et non un lieu de formation à un futur métier, ou un système de sélection (ces deux dernières descriptions revenant au fond au même). Tant que l'école aura aussi pour but de fixer la carrière professionnelle, donc tant qu'elle mettra en jeu le fait même que nous puissions manger, nous vêtir et nous loger dignement, il est inévitable que l'école suscite des tensions énormes, qui n'ont pourtant aucun rapport avec sa fonction propre. Le jour où personne n'attendra un travail correct du simple fait qu'il a un master d'histoire, et où tout le monde saura qu'un master d'histoire donne des perspectives de carrière semblables à n'importe quel autre cursus scolaire, alors les étudiants pourront se lancer dans les études en ayant pour seul objectif le plaisir d'étudier. Et tous les pauvres étudiants qui sont obligés de suivre des cursus mortellement ennuyeux pourront enfin se rabattre sur ce master d'histoire, au lieu de penser fiévreusement à la valeur de leur diplôme sur le marché du travail.
Bref, la destinée des véritables carrières scolaires est intrinsèquement liée à l'élimination de toutes ces filières dont le seul but est de fournir des diplômes, et d'être les agences de sous-traitance du travail de formation professionnelle que devraient accomplir les entreprises. On ne devrait pas reprocher aux filières d'histoire, de psychologie ou de philosophie de ne mener à rien, c'est au contraire toutes les filières qui mènent à quelque chose qu'il faudrait éliminer. 

N'aurait-on pas dérivé du sujet, en glissant du thème du rapport entre différence et inégalité, au thème du rapport entre les différentes inégalités (ici, les inégalités scolaires et professionnelles)? Aucunement. Car il ne faut pas s'illusionner : il est inévitable que les différences se convertissent toujours en inégalités. Les sociétés sont commes les individus, il y a des choses qu'elles aiment, d'autres qu'elles détestent, et toutes les différences tendent à être converties en inégalités. Donc, malgré les différentialistes, il est inévitable que chacun ait sa préférence pour la virilité ou pour la féminité, les individus comme les sociétés.
Mais plus globalement, les différencialistes ont raison, parce qu'il est toujours possible de créer des ruptures, des séparations entre les inégalités. Il est indéniable que les moeurs rendent la vie plus dure aux femmes qu'aux hommes (par exemple, concernant les charges domestiques). Mais ces inégalités ne deviennent vraiment intolérables que parce qu'elles ont des conséquences dans d'autres domaines. Lorsque le sexe a des conséquences sur les droits juridiques, sur le niveau de rémunération, sur l'exposition à la criminalité, sur la santé, etc. alors ces inégalités deviennent intolérables. Alors qu'elles resteraient à peu près tolérables si les différences au sein de la maison n'avaient aucune conséquence dès lors que l'on en sort. Et le progrès de la cause féminine consisterait justement à créer de nouvelles coupures, à faire que les différences de jugement aient de moins en moins de conséquences extérieures. Le féminisme aura terminé son combat le jour où les avis de chacun sur la valeur du masculin et du féminin ne se traduisent plus dans la moindre institution ou la moindre coutume.
Ainsi, on peut mieux comprendre ce qui fait qu'une différence est nommée différence plutôt qu'inégalité. En un sens, toute différence est une inégalité. Si on y est attentif, même les différences les plus superficielles sont hiérarchisées. On trouve plus belles les personnes blondes que les personnes brunes, etc. Mais ces différences ne sont pas prises pour des inégalités, tant que ces différences-inégalités ne débouchent pas sur d'autres inégalités. Celui qui est blond est plus beau, mais cela ne lui donne aucun autre avantage; donc on peut tenir cette inégalité pour une simple différence. Par contre, le genre et la réussite scolaire font partie de ces inégalités qui débouchent sur de nouvelles inégalités, et donc qui ne peuvent pas être tenues pour de simples différences. Pour que les inégalités scolaires deviennent des différences scolaires, il faut que ces inégalités restent cloisonnées au champ scolaire, et ne le débordent pas. Le jour où le docteur en droit aura (à peu près) les mêmes opportunités professionnelles que le bachelier scientifique, alors les différences de parcours scolaires pourront être tenues pour de véritables différences, pas des inégalités.

Une différence, c'est une inégalité sans conséquence.

mercredi 23 novembre 2011

La valeur de l'exception

Reconnaître le caractère exceptionnel de certaines pratiques, c'est comprendre que la généralisation de ces pratiques aboutirait à une contradiction. Une pratique exceptionnelle n'est possible que si elle n'est pas la règle, donc qu'elle s'inscrit dans un ensemble de pratiques qui lui sont différentes, et qui la rendent possible.
Un exemple popularisé par Kant est celui du mensonge. Kant a pris cet exemple, et l'a défendu courageusement, même quand on lui a fait les meilleures objections du monde (cf. Constant qui prend le cas de l'individu qui cache un innocent chez lui et ment aux personnes qui le pourchassent). Si Kant n'a rien voulu concéder sur ce sujet, c'est parce que sa théorie morale, qui définit l'action morale comme une action pouvant être universalisée, ne marche correctement que pour le mensonge. En effet, Kant a bien du mal à montrer que se laisser vivre paresseusement, tuer les faibles ou les handicapés, ou être égoïste et détestable envers tous les autres, ne pourrait pas être généralisé. En effet, il n'y a aucune contradiction à ce que les méchants règnent sur Terre, et nous rendent la vie particulièrement pénible.
Par contre, en effet, le mensonge ne pourrait pas être universalisé. Car l'universaliser, c'est faire perdre son sens à toutes nos paroles, ce qui signifie que nos enfants ne pourraient plus apprendre à parler, et nous adultes arrêterions aussi de parler, puisque ce serait totalement impossible, ne pouvant jamais comprendre ce que l'on nous dit. Bref, Davidson, dans ses articles sur la vérité et l'interprétation, a clairement montré que l'on ne peut comprendre une langue que si ce que l'on nous dit est en grande majorité vrai. C'est en supposant qu'une phrase est vraie que l'on en retrouve le sens. Donc, si tout le monde mentait, personne ne comprendrait jamais rien à ce que nous disent les autres. Donc, personne ne parlerait. Il faut noter que l'absence de langage n'a rien d'immoral, et c'est pourquoi il n'est pas certain que mentir soit immoral. Par contre, comme le dit bien Kant, le mensonge n'est pas universalisable. S'il se généralise, il se détruit lui-même.On peut concevoir une humanité qui ne parle pas, par contre, une humanité qui ment en permanence est inconcevable.

Or, ce statut de l'exception, qui nous permet de faire des choses qui ne seraient pas possibles autrement, permet aussi d'éclaicir d'autres pratiques, qui sont liées à la pensée.
Celui qui est temporairement sourd (par exemple parce qu'il a un casque audio sur les oreilles) peut continuer à parler et à chanter correctement. Par contre, un sourd de naissance, pour qui la surdité est la situation générale, et pas l'exception, ne peut ni parler ni chanter. Ne s'entendant pas, il ne peut pas apprendre à utiliser correctement sa voix. Pour apprendre à parler, il faut entendre sa voix. Par contre, celui qui a appris à parler peut continuer à parler même si les circonstances nécessaires à l'apprentissage ne sont plus présentes. Cependant, ici aussi, il ne faut pas que la surdité se généralise, sinon, notre apprentissage finit par s'effacer, notre voix devient moins précise, et nous finissons progressivement par ne plus pouvoir parler du tout. Autrement dit, on peut s'éloigner quelques temps des conditions nécessaires à l'exercice de la parole, mais on ne peut pas les abandonner définitivement. Parler sans entendre sans voix est possible de manière exceptionnelle, mais cela ne peut jamais être une règle. Nous sommes ici un peu comme un cycliste s'arrêtant de pédaler : s'il a de la vitesse, il conserve son équilibre et continue d'avancer. Par contre, généraliser ceci entraînerait l'arrêt du vélo, et la chute du cycliste. Donc, en général, pour avancer il faut pédaler, même si on peut continuer ponctuellement à avancer sans pédaler.
L'honnêteté intellectuelle me force à signaler que je n'ai pas la preuve que la pensée peut être expliquée par ce paradigme du vélo, et non pas par celui du bâtiment qui, une fois l'échafaudage retiré, demeure indéfiniment debout, sans qu'il soit nécessaire de replacer régulièrement l'échafaudage. Il me semble donc que, pour la pensée, la pensée privée est l'exception, et non la règle. Il me semble, en suivant Wittgenstein, que nous ne pourrions pas avoir la moindre intériorité si nous n'avions pas régulièrement la possibilité de contrôler que nos pensées personnelles ne nous ont pas trop éloigné de ce que notre communauté linguistique est prête à accepter. Mais ce modèle de l'exception permet aussi de faire une place à une intériorité, donc à ne pas la rayer purement et simplement de notre compte-rendu ontologique. En effet, il est difficile de nier que les personnes raisonnent silencieusement, et ajustent leur comportement par la suite, sans que toutes les étapes intermédiaires justifiant ce changement de comportement soient visibles. Ce changement de comportement peut être pratique : exécuter un geste de manière plus efficace ou élégante, ou plus théorique : employer un terme de manière plus pertinente. Mais il est indéniable que, pour l'individu qui a changé, quelque chose s'est passé dans l'intervalle. Il en est de même lorsque l'on écrit : on fait une pause à la fin d'une phrase, on attend, on réfléchit un moment, et l'écriture repart. Ce moment de pause est un moment où il s'est passé quelque chose.
Wittgenstein nous signale surtout (dans les Cahier bleu et brun, et dans les Recherches philosophiques), que ce quelque chose qui s'est passé, mais qui n'est pas visible, est impossible à décrire correctement, parce qu'il n'y a aucun critère de description correcte. Pourtant ne pourrait-on pas dire qu'il s'est passé la même chose que ce qu'il se passe lorsque nous raisonnons tout haut? Nous avons l'habitude de faire des choses publiquement, et cette habitude est si forte, si bien imprégnée, que nous pouvons encore l'exécuter quand personne ne nous contrôle. Penser, c'est donc faire la même chose que parler, mais sans le montrer publiquement. Penser ne peut pas être différent de ce que nous faisons couramment, sinon, en effet, nous tomberions sous le coup des remarques de Wittgenstein : comment pourrions-nous identifier et décrire correctement une activité dont nous n'avons jamais appris les critères de reconnaissance? Par contre, si penser est seulement s'accorder une exception dans une activité que nous faisons très naturellement, alors il n'y a plus d'objection possible. De même que celui qui est temporairement sourd peut continuer à parler correctement, celui qui est temporairement coupé du monde peut continuer à penser, même si apprendre à penser suppose d'interagir avec le monde. La pensée est donc lancée dans son élan, et capable de continuer à raisonner en l'absence de contrôle extérieur. Mais comme pour le chanteur ou le cycliste, il faut de temps en temps enlever le casque des oreilles, se remettre à pédaler, c'est-à-dire revenir auprès des autres, pour contrôler que ce que nous avons pensé n'est pas devenu un quelque chose d'absolument inarticulé.
Bref, pour prendre un exemple simple : comment sait-on que nous avons mal à la tête, quand nous sommes seuls chez nous et qu'il n'y a personne pour vérifier que nous grimacions bien de douleur? On le sait parce que l'on a appris à parler de notre douleur, grâce aux nombreux contexte publics qui se sont présentés à nous. Et nous avons si bien appris que nous pouvons ponctuellement continuer à parler de douleur, même quand autrui n'est plus là pour contrôler. Mais si nous restons trop longtemps seuls, il est très probable que nous finissions par perdre le sens courant de la douleur. Nous risquons de nous mettre à parler d'autre chose, sans que jamais nous puissions nous rendre compte de la dérive.

Bref, une philosophie qui met en avant les habitudes dans la constitution de nos compétences, qui affirme que l'apprentissage est une sorte de dressage, ne peut pas nier l'existence d'une intériorité. L'intériorité est relativement déterminée, justement parce que les habitudes sont puissantes, et continuent de fonctionner même pendant que les maîtres s'absentent. Si l'habitude disparaissait aussi vite que la cause qui l'a produite, ce ne serait pas une habitude. Mais parce que notre habitude de penser en est bien une, il nous est possible de persévérer dans la pensée, même quand plus personne n'est là pour vérifier que nous pensions correctement.
Wittgenstein le dit bien bien : comment a-t-on appris à prolonger un motif ornemental? Les raisons nous manqueront bientôt, et alors nous agirons sans raison (§211), aveuglément (§219). La pensée est tout à fait semblable : nous sommes comme aveugles par rapport à elle, pourtant, cet aveuglement ne nous empêche pas de réussir à penser correctement.

mardi 15 novembre 2011

Comment un raisonnement peut-il être mauvais?

En matière de logique, il est assez simple d'exprimer ce qu'est un raisonnement invalide. Un raisonnement est invalide s'il ne peut pas être déduit à partir des prémisses, en suivant des règles d'inférence admises. Les règles d'inférences du langage ordinaire sont assez bien connues de tous : ce sont les règles qui gouvernent les expressions telles que "et", "ou", "si ...alors", "tous les...", "quelques...", etc. Une fois que l'on sait se servir de ces termes, nous devenons capables de déduire de manière valide de nouvelles propositions à partir de propositions qui les contiennent. La validité ne tient pas compte de la vérité des propositions. Un raisonnement est valide, même s'il part de prémisses fausses, tant qu'il reste cohérent avec ces prémisses.

Cependant, est-il aussi possible qu'un raisonnement soit valide du point de vue du respect des règles d'inférence, qu'il parte de prémisses qui sont tout à fait acceptables, et qui pourtant, aboutisse à une conclusion qui ne soit plus acceptable? En toute logique, il faudrait répondre que ce n'est pas possible. Si les règles d'inférence sont consistantes (c'est-à-dire si elles ne nous font pas inférer le faux à partir du vrai), ce qui paraît aller de soi pour les règles courantes d'inférence, alors un système dont les prémisses sont vraies ne devrait mener qu'au vrai. Pourtant, il me semble qu'un tel cas arrive bel et bien, et c'est pourquoi je propose d'appeler de tels raisonnements mauvais, pour la raison qu'ils sont formellement acceptables, mais pourtant inacceptables quand au respect de principes de déduction plus informels, et néanmoins importants. Autrement dit, on peut suivre les règles formelles du raisonnement, et violer des règles plus informelles, et pourtant aussi importantes pour parvenir à un résultat valide.
C'est Perelman qui a attiré l'attention sur le fait que beaucoup de nos raisonnements sont quasi-logiques plutôt que logiques. Dans L'Empire rhétorique, il donne beaucoup d'exemples montrant que certains raisonnements concluent alors qu'ils ne devraient pas, s'ils respectaient les règles strictes de la logique. Mais par habitude, commodité, et parce que nos raisonnements sont fiables la plupart du temps, nous nous permettons de tirer une conclusion plus vite que nous en avons le droit. Ainsi, un juge qui fait la liste de tous les motifs qu'un homme pourrait avoir d'en tuer un autre, et qui en conclut que cet homme est innocent, parce qu'il n'a aucun motif de le tuer, commet un raisonnement formellement incorrect, car il n'a pas apporté la preuve que sa liste est complète. Donc, en l'absence de cette preuve, le raisonnement n'est pas justifié. Et d'ailleurs, il se pourrait même que l'accusé ait tué un homme en l'absence de tout motif. Bref, nous faisons souvent des inférences que l'on pourrait nommer inférence à la meilleure explication : nous n'avons pas le droit de conclure ainsi, mais il nous semble que cette conclusion est la meilleure que nous connaissions; donc nous la retenons.
Ici, dans un tel raisonnement quasi-logique, les principes formels de l'inférence ne sont pas respectés, mais sont respectés les principes informels de l'inférence : vraisemblance, précision, constance, etc. Celui qui raisonne se dispense en partie de mener un raisonnement valide, afin de produire un bon raisonnement, qui soit vraisemblable et acceptable par tous. Et surtout, ultime valeur épistémologique, il se soucie de la vérité de sa conclusion. Il est important que le raisonnement quasi-logique soit vrai.
Or, je voudrais plutôt examiner un cas inverse, celui d'un raisonnement véritablement logique, qui ne commet aucune erreur d'inférence, mais qui ne respecte pas tous les principes plus informels de raisonnement. Bref, le raisonnement est valide, mais aboutit à une inférence qui n'est pas du tout la meilleure explication, qui n'est pas vraisemblable, et, ultime défaut, qui est simplement fausse. Autrement dit, il me semble que l'on peut partir de prémisses vraies, et aboutir à des conclusions fausses. Cela ne signifie pas du tout que notre système logique nous permette de produire des contradictions, mais plutôt qu'il y a, dans tout raisonnement sur des objets dont la définition n'a pas été parfaitement formalisée (ce qui est inévitable - et même peut-être souhaitable - dans le langage ordinaire) une sorte de marge de manœuvre qui nous permet d'aboutir à des conclusions divergentes à partir des mêmes prémisses de départ.

I Premier exemple : l'image du non-être
Pour donner un exemple de raisonnement formellement correct et qui est pourtant insatisfaisant, il suffit d'ouvrir un livre quelconque de Platon (et tout particulièrement l'Euthydème) pour trouver un des nombreux raisonnements trompeurs que produisent les sophistes. Celui qui est présenté ci-dessous est une variante de ce que l'on trouve dans le Sophiste :
  1. toute image est l'image de quelque chose,  [prémisse]
  2. la licorne n'existe pas  [prémisse]
  3. l'image de la licorne est l'image de quelque chose qui n'existe pas, donc est l'image de rien, [d'après 1 et 2]
  4. une image de rien n'est pas une image [d'après 1]
  5. il n'y a pas d'image de licorne [d'après 3 et 4]
Manifestement, la conclusion de ce raisonnement est inacceptable, pourtant, chacune de ses étapes est correcte. Si le raisonnement est incorrect, c'est parce qu'il s'arrête trop vite, trop brusquement, alors qu'il deviendrait vrai s'il était poursuivi, développé plus amplement. Son erreur est de ne pas être assez précis, de négliger certains aspects des prémisses qu'il manipule. Si ces aspects étaient pris en compte, alors le raisonnement pourrait mener à la vérité.
En effet, pour dépasser l'affirmation 5, qui est manifestement incorrecte, il nous faut une théorie du non-être, et c'est à quoi s'attelle Platon dans le Sophiste. Tout son effort (peu m'importent ici les résultats) consiste à donner une sorte d'être au non-être, autrement dit, à donner une sorte d'être à ce qui n'existe pas. Ainsi, Platon pourra soutenir la prémisse 1 et 2, mais nier la conclusion 3 parce qu'il dira qu'on peut être quelque chose sans exister réellement. Ce que fait donc Platon est d'introduire une distinction là où elle n'existait pas. Alors que pour un sophiste, être quelque chose et exister sont strictement identiques (ce qui justifie la validité de la proposition 3), pour Platon, on peut être quelque chose sans exister. Platon reconstruirait l'argument ainsi (en gras figurent les modifications apportées) :
  1. toute image est l'image de quelque chose,  [prémisse]
  2. la licorne n'existe pas  [prémisse]
  3. l'image de la licorne est l'image de quelque chose qui n'existe pas, donc est l'image de quelque chose, [d'après 1 et 2]
  4. il y a des images de licorne [d'après 2 et 3]
Le raisonnement aboutit donc à la conclusion contraire, à partir des mêmes prémisses, et de manière tout aussi valide, parce que des distinctions ont été faites parmi les termes, ce qui a rendu nécessaires de nouvelles inférences. Une fois que la licorne est tenue pour quelque chose, et non pour un pur rien, il n'est plus possible de dire que l'image de la licorne est impossible.
Mais cette ambiguïté de définition des termes a-t-elle un quelconque rapport avec la valeur des raisonnements? Ne soulève-t-on pas ici un problème en rapport avec l'ambiguïté de la langue, mais sans rapport avec l'incertitude de nos raisonnements? Non, parce que n'importe quel raisonnement en langue naturelle a nécessairement ce problème d'ambiguïté, et parce que des distinctions telles que celle de Platon sont avant tout une réponse à des raisonnements qui sont malheureux. C'est seulement parce que nous tenons pour un paradoxe qu'il y ait des images de rien que nous avons besoin de distinguer le fait d'être quelque chose, et le fait d'exister. Autrement dit, les distinctions conceptuelles répondent à une imperfection du raisonnement. C'est parce que le raisonnement nous trompe que nous avons le besoin de trouver une ambiguïté, et de la lever. L'ambiguïté ne précède pas le raisonnement; c'est le raisonnement qui la produit. Le raisonnement est mauvais, et en même temps, nous n'avons formellement rien à lui reprocher, donc nous avons le besoin de "sauver" la validité formelle de ce raisonnement en lui trouvant un défaut informel, celui de l'ambiguïté des prémisses. 
Nous sommes ici dans une situation courante en épistémologie : nous constatons qu'une loi physique est fausse; nous avons deux manières de réagir : changer les fondements mathématiques de la loi physique, ou bien changer les valeurs physiques qui lui donnent un contenu. On peut toujours inventer une nouvelle théorie des nombres pour conserver des théories physiques imprécises voire réfutées par l'expérience, mais ce serait ridicule. Il en est de même ici : on préfère corriger son langage, plutôt que de remettre en cause les règles d'inférence. Pourtant, pris dans sa globalité, un raisonnement de physique qui aboutit au faux est mauvais, même s'il est bien mené; il en est de même pour les raisonnements de la vie ordinaire. Notre souhait de sauver les mathématiques ou la logique ne montre pas que c'est notre physique qui est fausse, cela montre seulement que l'ensemble formé des deux est mauvais, même s'il suit pourtant les règles mathématiques. Rappelons nous simplement qu'Aristote est célèbre pour avoir pensé que les mathématiques sont trop précises pour être appliquées au monde sub-lunaire. Il n'a pas raison pour autant. Il a simplement fait un choix, d'une manière arbitraire, au sujet de la discipline (mathématiques ou physique) où localiser l'erreur. Soit nous affirmons qu'un raisonnement est invalide, soit nous disons qu'il est mauvais. J'attire simplement l'attention sur ce dernier point. Et je dis bien mauvais et non pas faux, car un mauvais raisonnement peut très bien être vrai.

II Second exemple : Croissance ou décroissance?
Prenons pour finir l'exemple qui est à l'origine de tous ces propos bien abstraits, et qui est un nouveau sophisme, appliqué aux questions écologiques. C'est parce que nous ignorons que beaucoup de nos raisonnements sont valides mais mauvais que nous avons parfois l'impression d'être d'accord sur les faits, et en désaccord sur les actions à accomplir. Nous avons l'impression d'être d'accord sur le constat, et en désaccord sur les réponses à lui apporter. Ceci paraît être une variante de la distinction des faits et des valeurs. Nous pourrions tous nous mettre d'accord sur les faits, mais nous resterions en désaccord sur les valeurs, donc sur les actions à accomplir.
Or, en réalité, loin d'être en accord sur le constat, nous divergeons déjà sur de nombreux points, et l'accord apparent sur les prémisses est tout à fait superficiel, tout comme les sophistes et Platon sont apparemment d'accord sur les prémisses ci-dessus. Voici l'inférence discutable (et discutée!) :
  1. Il y a des pays riches et des pays pauvres [prémisse factuelle]
  2. Les pays pauvres doivent s'enrichir pour sortir de la pauvreté [prémisse normative]
  3. La croissance économique enrichit les pays [prémisse]
  4. Donc il faut de la croissance économique pour sortir les pays pauvres de la pauvreté [d'après 2 et 3].
Ceci est le raisonnement des productivistes. Voici maintenant le raisonnement des partisans de la décroissance (en gras, les modifications apportées) :
  1. Il y a des pays riches et des pays pauvres [prémisse descriptive]
  2. Les pays pauvres doivent s'enrichir pour sortir de la pauvreté [prémisse normative]
  3. La croissance économique enrichit certains pays, au détriment des autres [prémisse descriptive]
  4. Donc il faut la décroissance des pays riches pour sortir les pays pauvres de la pauvreté [d'après 2 et 3]
Ici encore, un apparent accord sur les prémisses mène pourtant à des conclusions inversées, puisque les uns proposent que l'on continue à se développer, alors que les autres proposent un mode de vie décroissant. Qu'est-ce qui distingue le productiviste et le décroissant? Ce n'est pas une ambiguïté de langage. Il s'agit plutôt d'un propos incomplet, que tient le productiviste, car le décroissant accepte la totalité des prémisses du productiviste. En effet; il accepte les prémisses du productiviste, mais ajoute, dans la proposition 3, que la croissance des uns se fait contre la croissance des autres. Cela l'entraîne à dire qu'il nous est impossible de continuer à nous enrichir, tout en prétendant combattre la pauvreté. Leur divergence est donc factuelle : l'un voit seulement la croissance globale sur la planète, et se dit qu'il faut produire de la croissance, alors que l'autre voit les différentiels de richesse, et en conclut que la croissance des pauvres est une bonne chose, mais que celle des riches est très dangereuse pour celle des pauvres.
Cependant, le productiviste et le décroissant risquent quand même de croire qu'ils ont un désaccord sur les valeurs. Les deux vont se reprocher de ne pas chercher à combattre la pauvreté, parce que, à l'aune de ses propres prémisses factuelles, chacun verrait dans la conclusion de l'adversaire une injonction à ne pas réduire la pauvreté. Le productivisme entend "décroissance des pays riches et des pays pauvres", et se révolte à juste titre; le décroissant entend "croissance des pays riches aux dépends des pays pauvres" et se révolte aussi à juste titre. Mais les deux ne voient pas que la divergence ne porte pas sur la prémisse normative, mais sur une des deux prémisses descriptives.
Ainsi le productiviste prend les choses de manière globale, il juge la croissance de manière mondiale, indifférenciée. Alors que le décroissant se place d'emblée dans une perspective comparative, et voit les effet collatéraux de la croissance des uns et des autres. C'est parce que les deux ont un regard différent qu'ils aboutissent à des conclusions diamétralement opposées, alors même que, lorsqu'ils essaient de clarifier leurs présupposés idéologiques, ils ont l'impression d'être d'accord. Certes, les deux cherchent à réduire la pauvreté, mais leur manière très différente de voir la richesse et la pauvreté des nations les empêche d'aboutir au même résultat.
Je voudrais toutefois signaler que cette notion de bon et de mauvais raisonnement est une notion informelle, ce qui implique que je ne vais pas apporter la preuve définitive que le productiviste voit mieux les choses, ou bien que c'est le décroissant qui les voit les mieux. Même après que le désaccord a été clarifié, les deux options possibles restent envisageables. Certes, en ce qui me concerne, le choix à faire ne me paraît pas difficile,et je pense que chacun me rejoindra assez naturellement. Mais que nous reconnaissions avec aisance le bon choix n'implique pas que nous ayons un critère bien défini. Nous faisons ceci sans règle, par habitude.

Bref, partout où les hommes sont en désaccord, il convient de se rappeler qu'un raisonnement peut être valide mais mauvais, parce que le sens donné aux notions est flottant, flou et variable. Et ce flou finit par produire des désaccords terribles, et des conclusions inacceptables. Prendre conscience de ce flou inhérent à tout raisonnement, c'est se permettre de résoudre les désaccords, et montrer que les hommes, quoi qu'ils en disent, sont en fait d'accord sur l'essentiel. Les différences de valeurs sont exceptionnelles; mais les petites différences de point de vue finissent souvent par engendrer des conséquences spectaculaires.

dimanche 13 novembre 2011

La force de la preuve

Il est d'usage de prouver ce que l'on avance, lorsque certains de ceux à qui on s'adresse ne sont pas d'accord avec nous. Ainsi, n'importe quel discours a toujours deux modes de progression : dans le premier cas, le propos se poursuit puisque ce qui a été affirmé juste avant ne rencontre aucune critique; dans le second cas, le propos revient sur ce qui a été affirmé juste avant afin de lui apporter davantage de poids, ou bien même le prouver de manière définitive. Ainsi, l'accord de l'auditoire permet de développer en extension son propos, alors que son désaccord oblige à développer en intension, à donner plus de force à notre propos, à le rendre plus solide.
Mais comment juger la force que nos arguments apportent à nos propos? Commet distinguer ceux que l'on tient pour des arguments, c'est-à-dire de simples raisons de changer d'opinion, et ceux que l'on tient pour des preuves, c'est-à-dire des propos qui obligent quiconque à changer d'opinion? La distinction entre preuve et argument est cardinale, puisque le preuve contraint l'auditeur, alors que l'argument lui laisse encore la liberté de ne pas suivre le propos. D'un point de vue plus logique, la preuve est le discours qui montre la totalité des réponses possibles à un problème, et qui montre en même temps que la seule bonne réponse est celle qui est défendue par le locuteur. Toute autre réponse serait fausse. C'est pourquoi, subjectivement, la preuve est vécue comme une contrainte : tous les autres chemins, les autres manières de répondre, ont été barrés par la preuve, qui nous oblige à prendre un unique chemin. Alors que les arguments, eux, se présentent davantage comme des poteaux indicateurs que comme des barrages. Ils nous indiquent quelle voie il faut suivre, mais la possibilité d'aller à l'encontre de ce qu'ils suggèrent reste possible. Quand on prouve que les médianes d'un triangle quelconque se croisent en un point, qui est le centre de gravité du triangle, on ne sait plus guère comment penser autre chose. Quand on argumente afin de montrer que l'accusé est bien coupable du meurtre qui lui est reproché, parce que son ADN a été retrouvé sur les lieux du crime, on sent bien que de multiples possibilités restent ouvertes. Il se peut que l'accusé n'ait fait que parler avec la victime, il se peut que le vrai coupable ait manipulé les preuves, il se peut que l'expertise scientifique ait mal fait ses relevés, etc. 

Cette différence entre preuve et argument en recoupe une seconde, tout aussi importante, celle entre vérification et justification.
La vérification est le faire de contrôler qu'un énoncé est vrai. Ce faisant, si la vérification est correctement menée, alors cet énoncé est prouvé, il devient hors de doute. La vérification est une activité tout à fait ordinaire. Untel a besoin de prendre le train, et n'est plus certain de l'heure exacte du départ; il fouille donc dans ses affaires, retrouve son billet, et lit alors l'heure de départ. Ici, il a vérifié quelque chose. La vérification a quelque chose de définitif. Après avoir lu l'horaire sur son billet, la personne arrête son enquête.
A l'inverse, la justification n'a pas ce caractère définitif, parce que justifier la croyance en quelque chose n'est pas prouver que chacun doit y adhérer. La théorie de la connaissance, et notamment Gettier avec ses fameux problèmes, a bien montré que toute croyance raisonnablement justifiée n'est pas pour autant une croyance vraie. Et même s'il s'agit quand même d'une croyance vraie, il se peut encore que la justification ne soit pas complètement suffisante pour rendre la croyance en cette vérité absolument nécessaire, contraignante. Il est possible d'avoir de très bonnes raisons de croire quelque chose, de croire quelque chose de vrai, et pourtant de ne pas avoir la raison ultime, de ne pas avoir la preuve de ce que nous croyons. 
Fabriquons en effet un petit problème de Gettier, à partir de l'exemple ci-dessus. La personne a donc lu son billet, et y a vu inscrit l'horaire de départ du train. Ceci sera considéré par tous comme une preuve du véritable horaire. Pourtant, ce n'est pas le cas. Ce n'est qu'une justification, et pas vraiment une vérification. Car il se pourrait bien que la personne ait des ennemis, qui soient prêt à tout pour que la personne ne monte pas dans ce train, même à fabriquer un faux billet, et à lui glisser dans ses affaires pour l'induire en erreur. Bref, il n'est jamais exclu que la plus forte des preuves dont nous disposions soit encore trop faible pour vérifier quelque chose. D'ailleurs, pour respecter la structure des problèmes de Gettier, on pourrait même imaginer que les ennemis de la personne commettent une erreur, et inscrivent par mégarde la véritable heure de départ du train sur le faux billet. Ce faisant, notre personne regardant son faux billet a une croyance vraie concernant l'heure de départ, elle a une justification pour sa croyance, pourtant, elle n'a pas de preuve, puisque la justification de sa croyance n'a pas la caractère de contrainte. Si les faussaires n'avaient pas fait d'erreur, la personne aurait eu une fausse croyance.

Ainsi, une justification n'est pas une vérification, tant que le plus suspect, le plus paranoïaque des êtres humains n'a pas épuisé toutes ses raisons de croire le contraire. Tant que l'imagination la plus débridée n'a pas été bloquée par une preuve, aucune croyance n'est vraiment indubitable. Et malheureusement, l'exemple ci-dessus ne peut que suggérer que jamais aucune preuve empirique ne sera hors de doute. Il est toujours possible de douter de la solidité d'une preuve. Bref, en sciences, nous avons de bonnes justifications de croire, mais jamais nous ne vérifions quoi que ce soit. 
Cette critique s'adresse en tout premier lieu à James, qui, autant dans ses Essais d'empirisme radical (Essai 2) que dans le Pragmatisme (sixième leçon) identifie vérité et vérification. Pour lui, une idée est vraie si elle est rendue vraie par un processus de vérification; autrement dit, elle est vraie parce que l'idée originale à vérifier nous guide vers une nouvelle expérience que nous estimons correspondre à l'idée originale. Cette métaphore du guidage est constante dans tous les textes, et rend compte de manière plus concrète de cette idée, encore plus métaphorique, de correspondance entre la pensée et la réalité. Pour James, une idée est vraie si elle nous guide vers une nouvelle expérience que nous jugeons conforme à la première. C'est d'ailleurs pourquoi James privilégie volontiers les exemples faisant appel à des déplacements spatiaux : pour James, connaître le Memorial Hall, à Cambridge, c'est pouvoir y conduire quelqu'un s'il nous le demande, ou bien au moins pouvoir donner des indications permettant de s'y rendre. La représentation mentale du Memorial est donc vraie si elle guide correctement vers le Memorial réel. L'adéquation entre la représentation et la chose signifie que la représentation mène à la chose. Autrement dit, une idée n'est vraie que si elle fonctionne, elle nous permet d'aboutir au résultat attendu. Nous pensons au Memorial, et cette pensée nous permet de nous y rendre. Elle nous fait réussir ce que nous voulons. Bref, cette idée est vraie, car vérifiée.
Or, ce que néglige James, c'est le fait que nous n'avons aucune garantie que la réalité vers laquelle nous somme guidés correspond bien à l'idée de départ. Ou plutôt, nous sommes seuls juges de cette correspondance, ce qui revient à dire que l'accusé et le juge sont la même personne. Celui qui fait la vérification est aussi celui qui juge de la valeur de cette vérification. Autant dire que ce jugement laisse à désirer. James néglige ici le caractère social de l'activité de vérification, le fait que la vérification est toujours un accord donné par autrui, et pas quelque chose que l'on peut faire isolément. Ce sont toujours les autres qui acceptent ou refusent nos preuves, on ne se donne pas à soi-même des preuves. Or, les autres peuvent toujours critiquer le plus fort de nos arguments. Ils peuvent toujours dire que cette prétendue vérification n'est qu'une justification, un motif de croire, et pas une contrainte. 
Nous voulons par exemple mesurer la température d'un liquide. Nous y plongeons la main, et déclarons que le liquide est à 50 degrés. Une telle procédure révolterait les observateurs, qui la trouveraient totalement aléatoire et imprécise. Nous décidons alors de plonger dans le liquide un thermomètre à mercure. La jauge monte jusqu' à 48 degrés. Ici, les observateurs se sentent contraints d'adhérer (abstraction faite de la légère marge d'erreur). Mais pourquoi le seraient-ils? Pourquoi ne commenceraient-ils pas à mettre en doute la fiabilité du thermomètre, ou bien le fait que l'xpérimentateur l'ait laissé suffisamment longtemps dans le liquide, ou bien ne souspçonneraient-ils pas qu'ils sont victimes d'un tour de magie? Ainsi de suite, à l'infini. Il est toujours possible d'être suspicieux, la contrainte n'est jamais totale, donc la vérification n'existe pas. Il n'y a que des justifications plus ou moins fortes.

Ainsi, la vérité n'est pas, comme le prétend James, une croyance vérifiée, mais plutôt une croyance suffisamment justifiée. Par suffisamment justifiée, il faut entendre une croyance à laquelle personne ne trouve plus rien à objecter, une croyance qui suscite l'adhésion de tous. Que cette adhésion ne repose jamais sur un fondement absolu, c'est ce qu'il faut se rappeler en permanence. Il serait toujours possible qu'une personne extrêmement méfiante envisage quelques motifs pour ne pas adhérer à une croyance. Mais nous reprocherions à cette personne d'émettre des doutes déraisonnables, farfelus. Il se pourrait que nos yeux nous trompent même quand nous lisons un appareil à affichage numérique, de sorte que le moindre relevé d'expérience soit faussé. Mais cette hypothèse n'est pas tenable, et c'est pourquoi nous n'en tenons pas compte. Donc, après avoir fait le relevé de la mesure, nous estimons que notre croyance relative à l'objet mesuré est suffisamment justifiée. La communauté savante à laquelle nous appartenons ne viendra pas polémiquer sur la qualité de la visions.
C'est pourquoi nous retrouvons ici une différence non métaphysique entre vérification et justification. La vérification n'est pas la possession d'une preuve définitive, totalement contraignante, mais une raison dont nous estimons, par habitude, qu'elle satisfera la totalité de la communauté réelle à laquelle nous appartenons, alors qu'une justification est une raison dont nous savons à l'avance qu'elle en laissera certains dubitatifs. Vérification et justification prennent leur sens en fonction d'un auditoire réel, et pas d'un auditoire idéal, car un auditoire idéal ne serait jamais satisfait par rien.
Or, et c'est un point capital, il faut bien que nous finissions par nous mettre d'accord sur certaines choses. Nous ne pouvons pas passer un temps infini à prouver nos affirmations. Il faut bien que, pour nous êtres finis, les raisons finissent par compter pour des preuves définitives. C'est pourquoi il est structurellement nécessaire que, dans une communauté scientifique réelle, quelque chose puisse être tenu pour hors de doute, afin que les raisons s'arrêtent quelque part. C'est ce que dit légitimement Wittgenstein dans De la Certitude (§§ 192, 204, etc.). Si nous n'avions pas choisi d'admettre certaines justifications comme absolument hors de doute, c'est l'ensemble de l'activité de connaissance qui deviendrait impossible. Le choix de ce qui est hors de doute peut toujours être discuté et révisé (pourquoi juge-t-on plus fiable nos yeux qui lisent un thermomètre, plutôt que la sensation directe de chaleur par la main plongée dans l'eau?). Mais qu'il y ait quelque chose hors de doute, c'est absolument nécessaire.

samedi 12 novembre 2011

Qu'est-ce que la vérité?

En tant que jeune professeur de philosophie, j'ai la chance d'encore m'étonner devant les discours que tiennent les élèves dans leurs dissertations, alors que j'imagine que cet étonnement s'est transformé en énervement chez mes collègues plus anciens. Ayant donné un sujet de dissertation qui concernait la notion de vérité, j'ai trouvé très fréquemment l'affirmation qu'il fallait distinguer les vérités que chacun peut se faire pour lui-même, puisque, bien entendu, chacun a sa vérité à lui, et les vérités solides, objectives, prouvables, qui ne sont pas sujettes à cette relativité. Et cette distinction en rendait une autre possible, celle entre vérités vraies et vérités fausses! En effet, puisqu'il arrive que la vérité de chacun finisse par se révéler fausse, démentie par une expérience scientifique par exemple, il semble bien que l'on doive conclure qu'il y a des vérités fausses! La vérité fausse est la vérité subjective qui ne passe pas l'épreuve de la réalité objective.
Inutile de dire qu'un philosophe ordinaire aurait vite fait de pointer chez les élèves une confusion grave entre croyance et vérité, puisque chacun n'a pas sa vérité à lui, mais des croyances, et il n'y a rien de spécialement paradoxal à ce que des croyances se révèlent fausses. Par contre, la vérité elle, est par définition vraie. Toute vérité est vraie, il n'y a pas de vérité fausse, mais seulement des croyances fausses. Le fait que nous soyons subjectivement attachés à certaines croyances n'en fait pas des vérités.

Pourtant, cette réponse est farouchement platonicienne, et donc un peu décevante. Certes, le vrai est toujours vrai, mais personne ne s'intéresse à l'idée du vrai elle-même. Ce qui nous intéresse vraiment, ce qui suscite la réflexion philosophique, ce sont les croyances que nous avons ici et maintenant, et notamment celles que tout le monde tient pour vraies. L'enjeu de la philosophie est de juger ce que nous tenons pour des vérités, et non pas d'enchaîner les tautologies comme "le vrai est vrai". Bref, les élèves appellent à bon droit "vérités" les croyances que nous tenons pour vraies, et il se peut en effet qu'elles se révèlent fausses. C'est bien pourquoi la notion de vérité fausse n'est pas si absurde. Elle signifie simplement que ce que nous tenons tous pour vrai aujourd'hui peut devenir faux plus tard.
Surtout, il y a une sorte de contradiction performative assez insidieuse dans la position platonicienne, et elle n'est pas pour rien dans le rejet spontané de cette position par les élèves. En effet, un platonicien dira qu'une proposition peut être fausse, même si tout le monde la croit vraie. Mais dire ceci, c'est justement douter que cette proposition soit vraie, c'est donc rompre l'unanimité qui garantissait la vérité. Soit tout le monde la croit vraie, et ce genre de propos platonicien n'apparaît pas, soit ce genre de propos apparaît, et donc il y a bien certaines personnes qui doutent de sa vérité. Mais on ne peut pas de manière cohérente suggérer qu'elle pourrait bien être fausse, après tout, et en même temps y adhérer sans réserve. Quand nous avons affaire à une proposition scientifique implacable, personne ne suggère qu'elle pourrait bien être fausse, même si tout le monde y croit. Quand tout le monde adhère sans réserve, les platoniciens adhèrent aussi, donc personne ne mentionne leurs arguments, donc la croyance partagée fait la vérité. 
Le platonicien aurait toutefois un autre mode de défense : il pourrait suggérer que celui qui dit une telle chose se place en dehors de l'humanité, ne s'inclut pas lui-même dans cette unanimité, mais se place peut-être dans la situation de Dieu, qui seul aurait accès à la réalité ultime, au-delà des apparences. Mais qu'est-ce qui justifie l'adoption d'un tel point de vue? Les philosophes sont des hommes, et le point de vue divin n'est pas le leur. Il se pourrait d'ailleurs que ce point de vue divin n'existe tout simplement pas. Donc, sans argument solide permettant de justifier la possibilité de se mettre au-dessus de la foule des hommes, les propos qui affirment que l'unanimité ne fait pas la vérité sont auto-contradictoires. Si ces propos veulent dire : "cherchons mieux, je ne suis toujours pas certain que cette affirmation soit suffisamment justifiée", alors ils sont tout à fait légitimes. Mais s'ils veulent dire "tout le monde adhère à cette affirmation sans réserve, j’appartiens à ce monde, pourtant je n'adhère pas à cette affirmation sans réserve", alors ils se contredisent manifestement.

Ainsi, il ne faut évidemment pas adhérer à de telles manières de parler qui ne peuvent que nous placer dans un embarras terrible. Non, les vérités ne sont jamais fausses. Cependant, une fois ces manières de parler corrigées, il convient de prendre au sérieux l’attitude philosophique qui les porte implicitement, attitude qui assume complètement son caractère situé, qui n'oublie pas que les croyances sont sans cesse sujettes à révision, et qui sait bien qu'affirmer que la vérité est toujours vraie, par définition, ne nous éclaire nullement sur ce que nous devons penser de nos multiples croyances.
Bref, pour nous, les hommes, la vérité ne peut pas être autre chose que nos croyances unanimes, parce que la critique externe de ces croyances unanimes n'est tout simplement pas possible. Il n'y a aucun moyen de se placer au-delà de l'humanité pour juger toute l'humanité, y compris soi-même.

Bref, le relativisme de la vérité, tout autant que le dogmatisme, sont des positions incohérentes. Le relativisme dit que la vérité dépend des points de vue, que chacun, étant différemment situé, a une vérité différente. Et le dogmatisme dit au contraire que la vérité ne dépend d'aucun point de vue, puisqu'il existe des vérités indépendamment de ce que chacun en pense. Or, le fait que, justement, nous soyons situés, que nous ayons un point de vue, contredit ces deux discours d'un seul coup, ce fait rend impossible tous ces propos sur la condition humaine. Puisque nous sommes des hommes, nous devons tenir le seul discours que les hommes peuvent tenir, et faire comme si ce discours était le seul qui puisse être tenu. Tous les discours surplombants sur l'humanité se contredisent.
Néanmoins, comme je l'avais signalé dans mon post sur les contradictions performatives (Est-il permis de se contredire?), certains propos contradictoires méritent d'êtres tenus, parce que leur fonction, ce à quoi ils servent, est désirable. Ainsi, les propos relativistes sont de bonnes armes contre les tentations dogmatiques. Ils affirment bien quelque chose de vrai, en un sens, même si le fait de le dire est contradictoire (dire que l'homme est situé est vrai, mais le dire, c'est s'extraire de sa situation, donc rendre faux aussi cette affirmation). Mais il ne faut pas les prendre au sérieux. Dès qu'ils ont produit leur effet (faire taire les dogmatiques), il faut rapidement les oublier, pour vivre de la seule manière possible : comme si la vérité était une, et indépendante de ce que croient les hommes. Autrement dit, après avoir détruit la théorie dogmatique par des arguments relativistes, on peut retrouver l'attitude dogmatique normale. La théorie dogmatique est fausse mais l'attitude est bonne, alors que la théorie relativiste est vraie, mais l'attitude est mauvaise. Heureusement, la réfutation relativiste du dogmatisme nous permet de retrouver l'attitude dogmatique naïve, la seule qui soit acceptable (et la seule qui existe).
Note : bien sûr, tous mes propos, aussitôt qu'ils ont été compris, doivent être rejetés, comme dirait Wittgenstein.

mercredi 9 novembre 2011

La réflexion

Dans un post récent (Méta-outils, méta-désirs, méta-langages), j'ai critiqué l'abus des théories du méta, qui prétendent en trouver dans n'importe laquelle de nos activités. Leur erreur de principe consiste à prendre une série de médiations horizontales pour une montée en verticalité. Avoir des outils permettant de modifier des outils ne fait pas de ces derniers des outils d'une espèce différente, de niveau supérieur, cela en fait seulement des outils qui interviennent dans une chaîne d'opérations plus longue que la chaîne de départ. Avoir des mots nous permettant de qualifier les autres mots de la langue n'en fait pas des mots de niveau supérieur, juste des mots dont la référence porte sur ces mots-là, ou sur des propriétés linguistiques. Bref, un outil est une chose comme une autre, et un outil agissant sur d'autres outils est une outil comme un autre; un mot est une chose comme une autre, un mot en décrivant un autre est un mot comme un autre. Et le fait que nous utilisions ces outils ou ces mots particuliers avec des intentions particulières n'en fait pas des outils ou des mots spécifiquement différents.
Mais j'avais alors laissé de côté un des aspects les plus important de ce problème, à savoir celui de la pensée. Or, ici aussi, il y a bien une théorie du méta. La méta-pensée n'est en effet rien d'autre que la conscience, la réflexion sur soi par soi. La réflexion est en effet très exactement, si l'on suit cette analyse, une pensée portant sur d'autres pensées, ces premières pensées étant celles que le sujet a immédiatement. Une telle théorie apparaît avec Locke, qui, dans l'Essai sur l'entendement humain, livre 2 chapitre 1, introduit un clivage fondamental entre les perceptions portant sur les objets extérieurs, perceptions que l'on nomme sensations, et les perceptions portant sur les opérations internes de l'esprit, c'est-à-dire, justement, les perceptions portant sur les perceptions des objets extérieurs (ainsi que toutes les opérations que l'esprit exerce sur ces sensations, comme le souvenir, la comparaison, etc.). Ces perceptions de perceptions sont nommées réflexions, puisque l'esprit se perçoit lui-même dans son activité, il se perçoit en pleine activité de perception. Cette capacité de l'esprit permettra, par la suite, de constituer une conscience de soi, puisque l'esprit pourra ramener à lui-même toutes les perceptions qu'il trouve en lui, de sorte qu'il puisse se dire, réflexivement : toutes ses pensées sont miennes.
Je ne vise pas spécialement Locke ici, mais plus généralement tous ceux qui prétendent instituer une différence de principe entre perception de soi-même en train de penser, et perception des objets extérieurs. Car c'est la croyance en une telle différence qui implique l'analyse en termes de méta, pour parler de la réflexion. Ayant donné un statut tout à fait extraordinaire aux pensées, un statut spécifiquement distinct des autres objets, on est entraîné à dire que penser aux objets extérieurs est une activité, alors que penser aux pensées est une autre activité, une méta-activité. Mon but n'est pas pour autant de dire que la réflexion est impossible, ce qui serait stupide et même totalement auto-contradictoire (au moment où je vous parle, je suis évidemment en train de réfléchir à mes pensées, de me demander si elles sont justes, si elles reflètent bien ce que je veux dire, etc.). Mais je veux dire que la réflexion est une activité comme une autre, qui s'inscrit plus généralement dans l'ensemble de toutes nos activités, notamment nos activités intellectuelles, mais pas seulement. Car réfléchir, c'est à la fois penser à ses propres pensées, mais c'est également penser à soi-même en tant qu'être humain corporel. Quand on prend conscience de sa position spatiale dans le monde, on accomplit aussi un geste de réflexion. Cependant, je me restreindrai à la réflexion au sens étroit, celui de la pensée portant sur ses pensées. 

Partons tout d'abord d'une analyse élémentaire de ce mot de réflexion. En effet, il ne me paraît pas du tout anecdotique que ce mot soit ambigu. En effet, la réflexion peut être :
1) le fait de raisonner, de calculer, de considérer différentes possibilités pour déterminer la meilleure.
2) le fait de faire retour sur soi-même, de se percevoir soi-même, de penser à ses pensées.
Dans le premier sens du mot réflexion, il n'y a pas la moindre idée d'un retour sur soi, de réflexion au sens où l'on dit que le miroir réfléchit la lumière. Un raisonnement peut très bien être inconscient, ou du moins, ne pas faire l'objet d'une approche réflexive. Nul besoin de se demander ce que l'on est en train de faire pour raisonner ou calculer. Il suffit de prélever les données du problème, et de les traiter de manière purement mécanique. Quiconque a quelques habitudes de calcul mental, de conduite d'un véhicule, de conversation avec des proches, se rend bien compte qu'il peut adopter les bonnes attitudes sans même y penser. Cela se fait tout seul. Ainsi, formulé de manière générale, un raisonnement consiste à associer un ensemble de données de départ à un comportement à adopter, et ce, en fonction d'un but. Une personne voit son réfrigérateur rempli de nourriture, elle désire se nourrir, elle en conclut donc qu'elle doit saisir un aliment et le manger. Un raisonnement est donc toujours de cette sorte : il lie des données en entrée à des données en sortie, en fonction d'une certaine règle. Dans le cas ci-dessus, les données en sortie sont un comportement à adopter, alors que la règle est la situation finale désirée.
Le second sens du mot réflexion lui, est en effet d'usage aussi bien pour décrire l'esprit qui se regarde penser, que pour la lumière qui se reflète dans un miroir. Dans les deux cas, on trouve cette idée d'un retour sur soi, d'un retour à son point de départ. L'esprit qui s'apparaît à lui-même réfléchit. Et il est à noter que cette opération ne semble pas supposer la moindre capacité de raisonnement. Il semble que l'on puisse se percevoir tout simplement, même si l'on n'est pas capable d'opérations élaborées de raisonnement. Pour percevoir une pensée, il semble suffire d'avoir une pensée, rien de plus. Mais justement, avoir une pensée, c'est déjà raisonner. Il n'y a pas de pensée qui n'ait d'effet sur nos actions, et raisonner est justement diriger ou se préparer à diriger nos actions.

Cette ambiguïté entre les deux sens du mot réflexion est donc justifiée, parce qu'il n'est guère possible d'établir une véritable disjonction (c'est-à-dire une séparation complète des deux sens). En effet, le fait de faire retour sur soi s'inscrit toujours dans le cadre d'un certain raisonnement. Une réflexion est une procédure de raisonnement parmi d'autres. En effet, imaginons une personne perdue dans un labyrinthe. Essayant de s'appuyer sur son sens de l'orientation, sur l'idée qu'elle se fait de sa position dans le labyrinthe, la personne fait certains choix. Ceci correspond au seul fait de raisonner, sans réfléchir. Et supposons que, procédant ainsi, la personne finisse par revenir sur ses pas, au lieu de trouver la sortie. A ce point, la logique voudrait qu'elle recommence le même raisonnement, puisque ce premier raisonnement est celui que la personne tenait pour le plus pertinent. Mais si elle fait cela, elle va évidemment boucler indéfiniment, et ne sortira jamais. Il lui faut donc ici avoir un moment de réflexion, dans lequel elle a justement les remarques que je viens de faire. Elle doit conclure que, si elle continue à raisonner ainsi, elle ne sortira jamais. Elle doit conclure qu'un autre chemin doit être pris, parce que ce qu'elle pensait être le bon chemin la fait revenir sur ses pas. Réfléchir est donc ici raisonner, faire porter ses pensées à la fois sur le raisonnement, et sur les actions que produisent ce raisonnement. Au lieu d'avoir un raisonnement qui produit simplement des actions, on a maintenant un raisonnement qui prend en charge le lien entre un raisonnement et une action. La chaîne de raisonnement a donc été allongée, de façon à ajuster différemment l'action. La personne va se dire que suivre ce qu'elle croit être son meilleur raisonnement l'entraînera à une boucle infinie, donc qu'elle doit suivre un autre raisonnement, un raisonnement parmi ceux qu'elle jugeait initialement moins pertinent. Ainsi, on voit ici en quoi réfléchir, prendre conscience de sa pensée, n'est pas du tout distinct de raisonner. Dès lors qu'un raisonnement a plusieurs étapes, nous sommes obligés de dire qu'il y a réflexion, parce que la réalisation des premières étapes suppose d'avoir à l'esprit la pensée des étapes intermédiaires, au lieu d'avoir simplement en tête la pensée du but désiré. Mais ceci ne change pas fondamentalement la nature du raisonnement. Il s'agit toujours d'une procédure visant à ajuster son comportement à la réalité. Que cet ajustement demande des étapes intermédiaires n'en change pas la nature. Il s'agit toujours d'associer le bon comportement aux données de départ, en fonction d'une certaine règle, même si, maintenant, les données de départ incluent quelque chose qui était déjà un raisonnement. L'important est que ce raisonnement puisse être traité comme une chose parmi d'autres.
Or, il me semble bien que c'est justement le cas. Entre examiner un raisonnement pour voir que ce raisonnement nous entraînerait à tourner indéfiniment dans le labyrinthe, ce qui est incontestablement un raisonnement faisant appel à la réflexion, et examiner une machine dont on constate qu'une pièce est mal ajustée, et tourne dans le vide, il n'y a pas de différence fondamentale, alors que ce dernier raisonnement ne serait pas tenu (à raison) pour exigeant de la réflexion. Pour voir qu'une pièce est défectueuse, il suffit de regarder le lien qu'entretient une pièce avec les autres pièces, il n'y a nul besoin de réflexion. Réfléchir est donc le nom que nous donnons à cette activité consistant à établir des liens entre les raisonnements et les actions. Et le raisonnement étant déjà l'établissement d'un lien entre une situation et une action, on peut dire que la réflexion est un raisonnement parmi d'autres, qui examine le lien entre un lien et une action.
Par contre, une créature peut raisonner sans avoir conscience de ce qu'elle fait. En effet, la réflexion étant un raisonnement parmi d'autres, il n'est pas exclu que certains êtres puissent faire certains raisonnements, mais pas de réflexion. Je pense notamment aux ordinateurs, dont le calcul est l'opération fondamentale, mais qui sont entièrement dépourvus de capacité réflexive. Si l'on demande à un ordinateur de répéter l'opération +1, il le fera indéfiniment, sauf si on l'a explicitement programmé pour s'arrêter dans les cas où il constate le retour de certains nombres. Alors qu'une personne humaine comprendra vite que cette tâche serait infinie. Cet exemple ne me paraît pas anecdotique. La découverte fondamentale que permet la réflexion est celui du caractère infini que recouvre l'application d'une procédure : une procédure peut toujours être indéfiniment répétée. Autrement dit, la découverte fondamentale de la réflexion est celle de la notion de concept, celle d'une règle pour des opérations, règle pouvant être appliquée un nombre infini de fois. Alors que tous les raisonnements du monde ne peuvent manier que des données en nombre fini et être d'une longueur finie, la réflexion peut donner l'idée de l'infini, elle montre que les opérations peuvent être indéfiniment renouvelées. 

Ainsi, la réflexion est probablement le raisonnement le plus important chez l'homme, celui qui fait son humanité, et c'est pourtant, un raisonnement parmi d'autres, n'ayant aucune différence spécifique. La réflexion est simplement le nom que nous donnons à tous les raisonnements qui savent tenir compte des précédents raisonnements pour en tirer des conséquences. La personne qui n'est pas réfléchie ne perçoit pas les liens entre les situations, et les pensées qui ont mené à ces situations. C'est pourquoi elle n'aura pas l'idée d'agir sur ces pensées. Alors qu'un être réflexif, qui sait percevoir l'effet qu'entraîne telle ou telle pensée, se rend capable d'en tenir compte, et de les réorienter.
Bref, la pensée est un comportement doué de sens, un lien réglé entre une situation de départ et une situation finale, et la réflexion vient aux êtres qui sont suffisamment intelligents pour tenir compte de ce lien, au lieu de s'en tenir à la situation finale, et répéter stupidement la même opération qui mènera au même résultat. Bref, réfléchir est pouvoir percevoir une relation comme une chose, pour l'inclure dans une nouvelle relation. Mais raisonner est, en un sens, toujours faire une telle chose. Notre différence entre réfléchir et raisonner est aussi conventionnelle que celle que l'on établit entre ce que l'on tient pour une relation entre choses, et les choses elles-mêmes.

vendredi 4 novembre 2011

C'est moi!

Sémantique et pragmatique.
La sémantique étudie la signification d'une phrase en dehors de tout contexte, elle en montre le contenu en termes d'information transmise. La pragmatique étudie la signification des phrases en contexte, elle montre ce que font les locuteurs en énonçant ces phrases. 
Il s'agit donc de deux manières possibles d'étudier le langage, en partie concurrentes, en partie complémentaires. En effet, il se peut que l'usage d'une phrase en contexte vienne compléter la signification littérale d'une phrase, auquel cas les considérations pragmatiques complètent les sémantiques. Grâce à l'observation des circonstances, des gestes qui accompagnent la parole, aux propos précédemment échangés, on parvient facilement à retrouver la référence des pronoms personnels ("il n'a pas l'air en forme, aujourd'hui"), les demandes déguisées en description ("ce n'est pas assez salé"), ou le sens de phrases incomplète ("je n'en peux plus!"). Mais il arrive parfois que les deux dimensions s'opposent. Celui qui dit "ce sapin" en désignant un épicéa parle bien de l'épicéa qu'il désigne, même si sa phrase, littéralement, ne parle de rien. De même, une victime qui croit que telle personne l'a agressée dans la nuit noire, et hurle au juge "mettez le criminel en prison", parle bien de la personne qu'elle croit coupable, même s'il se peut que celle-ci soit en fait innocente et soit sur le point de subir une erreur judiciaire. Dans ces deux derniers cas, malgré l'erreur de désignation, la référence fonctionne parce que le contexte est suffisamment explicite pour permettre de retrouver ce que la personne veut dire.

Mais il y a encore un dernier type de cas, qui montre que la langue peut fonctionner indépendamment de toute dimension sémantique. "C'est moi!" est justement une de ces phrases qui, d'un strict point de vue littéral, ne signifient rien. En effet, "c'est moi!" étant toujours vraie, n'ayant aucune condition de fausseté, ne signifie rien du tout. Isolez cette phrase de son contexte d'énonciation, et regardez ce qu'il reste, en termes sémantiques : rien. Tout le monde pourrait dire cette phrase, ce n'est donc pas une bonne manière de s'annoncer, et de permettre aux autres de nous identifier. Pour donner de l'information à son auditeur, il faudrait évidemment décliner son nom. En disant "c'est Oussia", celui qui lit ou entend cette phrase retire une information, à savoir celui qui est en train de parler ou d'écrire.
Pourtant, en dépit de l'absence d'information transmise, cette phrase accomplit très bien sa fonction, celle d'identifier son auteur. Parce que cette phrase conserve bien une dimension pragmatique, un sens en contexte, on peut continuer à l'utiliser alors que son sens en termes sémantiques est nul. En effet, dès lors que le destinataire de cette phrase peut entendre le son de notre voix, et la reconnaître, alors "c'est moi" lui fait justement comprendre celui qui est en train de parler. Mes amis sont familiers de ma voix. Donc, lorsque je les appelle au téléphone, je ne dis pas "c'est Oussia", mais seulement "c'est moi!", puisque le son de ma voix suffit pour mon identification. Et nul doute que les autres amis de mes amis disent aussi "c'est moi!" sans plonger mes amis dans la confusion, car ceux-ci savent reconnaître des dizaines de voix, et identifier leur auteur. Tout le monde dit "c'est moi!", et pourtant, nous confondons rarement nos amis avec le reste du monde. Merveilleuse phrase, unique, d'une simplicité radicale, et qui permet pourtant d'identifier une personne au milieu de milliards d'autres, alors même que les personnes n'ont pas de contact visuel! 
Ainsi, nous parlons parfois avec des phrases qui ne veulent rien dire, mais qui accomplissent parfaitement leur fonction. Nous pourrions aussi bien pousser un cri, un râle, chanter ou siffler, comme le font les animaux afin de se reconnaître entre eux. Nous préférons faire un bruit avec la bouche qui ressemble à une phrase. Car il faut bien dire qu'une phrase qui ne signifie semblerait ne pas être une phrase, mais seulement un bruit. Il faudrait alors conclure que "c'est moi!" est seulement un cri que nous faisons avec la bouche, pour faciliter notre reconnaissance. Cette conclusion est peut-être maladroite, et porte un lourd présupposé, selon lequel une phrase doit avoir une signification sémantique pour en être une. Or, ne pourrait-on pas dire qu'une phrase a un sens (ou plus précisément "un bruit devient une phrase") si cette phrase a un usage, c'est-à-dire une signification pragmatique? Cela paraît plus raisonnable. Dès lors que nous faisons quelque chose avec un bruit, selon une certaine intention (nous faire reconnaître par autrui), alors ce bruit est plus qu'un bruit, et est un signe, une phrase douée de sens. Ainsi, il faut aussi donner aux animaux la maîtrise d'un langage élémentaire puisqu'ils sont comme nous capables d'utiliser leur voix afin de s'identifier auprès des autres.

Ces dernières remarques sur les animaux ne sont pas anecdotiques, parce qu'elles déterminent assez largement la manière dont on pense notre propre langage, et la manière dont on cherche à le transformer. Les défenseurs de la sémantiques sont le plus souvent des logiciens et philosophes des sciences, soucieux d'éviter l'ambiguïté, de créer un langage aussi précis, univoque et expressif que possible. De ce point de vue, le langage de la science (et particulièrement le langage mathématisé des sciences physiques) leur apparaît évidemment comme le langage le plus parfait. Et l'homme paraît d'autant plus éloigné de l'animalité qu'il se livre à l'activité scientifique. Alors que les défenseurs de la pragmatique, plus soucieux du langage ordinaire, voient au contraire de grandes continuités avec les activités animales. Chez Wittgenstein, le chien peut être tenu pour le paradigme de l'être humain : c'est en comprenant comment on dresse un chien que l'on peut comprendre comment un homme apprend à parler. En dressant les hommes à se servir de sons dans certaines situations, on leur donne les moyens de faire des phrases, c'est-à-dire de donner un sens à leurs sons. L'essentiel n'est donc pas l'information transmise, puisque le plan de l'information est seulement secondaire (on n'a accès à ce plan qu'après avoir appris à parler), mais plutôt l'activité consistant à entremêler productions vocales, situations, gestes, etc. L'activité consistant à tirer une information de nature sémantique à partir d'une phrase est une activité linguistique parmi d'autres, mais pas l'essence de la communication.
Bref, il y a un langage technique, puissant mais incroyablement mobilisateur de ressources. C'est ce langage qui permet d'assigner un nom unique à chacun d'entre nous (et encore, il reste des noms ambigus). Et il y a un langage ordinaire, qui ne peut presque pas passer à l'écrit, mais qui fait preuve d'une efficacité redoutable compte tenu des faibles moyens utilisés. Avec un "il" ou un "c'est moi", on rend inutile tout le système de la nomination.