mercredi 21 mars 2012

Communiquer avec les autres

Il y a plusieurs raisons de communiquer avec d'autres personnes :
- on peut souhaiter obtenir un renseignement, un objet, un sentiment de la part d'autrui, et le solliciter pour l'obtenir
- on peut souhaiter transmettre à autrui un renseignement, un objet, un sentiment, qui lui sera personnellement utile ou agréable
- on peut vouloir simplement passer le temps avec quelqu'un d'autre, entretenir une relation
- on peut vouloir coordonner une action, mettre en place une équipe, une association, un parti.

Et il y a une condition nécessaire de toute communication : il faut quelque chose à communiquer, quelque chose à transmettre à l'autre.

Discuter de la pluie et du beau temps est le cas limite, celui dans lequel le contenu de la discussion est le moins important. Que fait-on quand on bavarde? On ne se fond pas dans le grand "On", comme le dirait Heidegger. Le bavardage est tout sauf la perte de l'individualité et de l'authenticité, il est au contraire la recherche de cette authenticité. Le bavardage est une une technique bien maîtrisée, et pas du tout un oubli de soi au profit de l'impersonnalité. Le bavardage est une recherche, pas un oubli. En effet, on discute de la pluie et du beau temps avec ceux que l'on ne connaît pas. Mais on le fait justement afin de mieux les connaître. La manière de découvrir les autres consiste donc à bavarder de manière libre, jusqu'à trouver par tâtonnement les sujet de discussion les plus importants, ceux qui intéressent les interlocuteurs. En jetant des sujets de discussion dans toutes les directions, on observe la réponse d'autrui, un peu comme le pêcheur qui attend que le poisson morde à l'hameçon. Si rien ne mord, le pêcheur reprend son fil de pêche et le renvoie dans une autre direction. De même, le bavardeur, si le sujet ne soulève pas d'enthousiasme, lance un autre sujet, de manière plus ou moins aléatoire. La pluie et le beau temps sont donc le moment exploratoire de l'autre, l'envoi de coups de sonde afin de mieux le connaître, savoir ce qui l'intéresse. Si l'interlocuteur n'est pas très habile, il risque de ne pas trouver de centre d'intérêt commun, et discuter éternellement de la pluie et du beau temps, justement. Par contre, s'il est plus habile, et s'il a lui-même de vastes intérêts, il trouvera assez vite des intérêts communs, sur lesquels les discussions vont se concentrer.
Ainsi, le bavardage est le point zéro de la communication, mais justement parce qu'il est le moment où la communication se cherche, tâtonne. Les personnes sont ensemble, n'ont rien à se dire, et se disent pourtant quelque chose, afin de trouver un véritable sujet de conversation, quelque chose qui les concerne toutes, au lieu d'échanger des propos purement génériques. Peut-être certaines personnes se satisfont-elles du bavardage, mais ce serait aller contre sa tendance normale, qui est de trouver quelque point d'équilibre, quelque centre de gravité, qui permette à chacun de prendre plaisir à la discussion. Or, discuter de la pluie et de beau temps ne plait à presque personne (ou à personne?), met tout le monde mal à l'aise. Tout le monde veut au contraire que la discussion porte sur des sujets qui lui plaisent davantage.

Une fois que les personnes se connaissent, il est intéressant de noter que la discussion n'a pas toujours lieu, que les personnes qui se connaissent bien peuvent rester longtemps sans rien se dire. Pour expliquer cela, on pourrait employer la métaphore des vases communicants. Quand les deux récipients sont exactement à la même hauteur, au même niveau, aucune communication de liquide n'a lieu. Par contre, s'il arrive qu'un récipient soit surélevé, alors le liquide circule du haut vers le bas, jusqu'à retrouver un nouveau point d'équilibre, un nouvel arrêt de la communication. Or, il en est de même pour les personnes qui se connaissent bien. Tant qu'elles vivent des choses ensemble, et restent ensemble, elles n'ont rien à se dire, la parole est inutile. Même le bavardage est impossible, justement parce que les personnes se connaissent déjà, et se sont à peu près tout dit. Par contre, si elles sont séparées, que l'une vit seule des choses, alors il se créé un différentiel entre les deux, et ce différentiel est presqu'immédiatement corrigé lorsque les personnes sont réunies. Une personne qui a vécu quelque chose de notable s'empresse de téléphoner pour raconter ce qui lui est arrivé, ou bien de retrouver physiquement la personne pour le lui raconter. Tout se passe donc comme si la personne seule ne pouvait pas rester longtemps avec ce différentiel de connaissance ou d'expérience, et devait donc le décharger le plus vite possible. Et dès qu'il a été déchargé, communiqué, la communication s'interrompt, les personne n'ont de nouveau plus rien à se dire.
Si l'on quitte ces métaphores de la communication comme décharge d'une trop forte tension, pour exprimer cela de manière plus littérale, il faudrait dire que tout se passe comme si les personnes se devaient, pour confirmer leur nouvelle acquisition de connaissance ou d'expérience, en référer à autrui, comme instance d'objectivation. Une expérience que l'on a fait seul, de son côté, est une expérience quasiment irréelle, subjective. Elle ne devient réelle et objective que si l'autre apprend qu'elle a eu lieu, et la valide. Celui qui va au cinéma seul, voit un excellent film, n'a encore rien fait. Il n'a fait quelque chose que s'il est capable de témoigner de son activité, de décrire le film, de le recommander ou de le déconseiller. Autrement dit, c'est par l'observation des pratiques de communication que l'on comprend la dimension essentiellement intersubjective de nos activités. Lorsque les activités se réalisent à plusieurs, la communication est inutile, parce que la réalité de ces activités ne fait pas problème. Par contre, lorsqu'une activité a été réalisée seul, ou pire, dans son for intérieur, celle-ci demande à être confirmée, objectivée, en étant communiquée à autrui. Le réel est ce qui est partagé, et c'est pourquoi peu d'hommes supportent de ne pas raconter ce qui leur est arrivé, ou même supportent de garder des secrets. En partageant, en communiquant ce que nous sommes seul à connaître, nous faisons exister ce qui nous est arrivé. On peut alors, non pas oublier, mais ne plus se soucier des choses qui nous sont arrivées, parce qu'elles existent par elles-mêmes, ne dépendent plus de nous pour exister. Si une personne oublie ce qui lui est arrivé, sans l'avoir raconté, cette expérience est définitivement perdue. Elle était donc subjective, puisqu'elle reposait sur une personne. Par contre, si elle a raconté son expérience, elle peut oublier ce qui lui est arrivé, parce qu'une autre personne pourra toujours le lui remémorer. Bien sûr, si toutes oublient, l'expérience est perdue, mais le risque est beaucoup plus faible.

Ainsi, nos discussions, réparties entre le bavardage et la communication, ont deux buts : découvrir l'autre, d'une part; faire exister des faits d'autre part. Sans bavardage, autrui resterait un inconnu; et le monde commun ne pourrait jamais se constituer. Sans communication, le monde commun resterait vide, car seulement peuplé d'expériences privées, donc de fantômes d'expériences.

jeudi 15 mars 2012

Théorie des causes

Comment quelque chose peut-il être cause d'autre chose?
Le célèbre texte de la Physique d'Aristote affirme que quatre sortes de choses peuvent être tenues pour des causes :
1) la cause matérielle, à savoir la matière dont est faite une chose, ce dont elle est faite. La matière est cause en ce que, si elle n'était pas là, la chose ne serait pas là non plus.
2) la cause formelle, à savoir la configuration de la chose, ce qui fait qu'une chose est ce qu'elle est, la forme étant ce que la définition caractérise.
3) la cause efficiente, qui est une autre chose, qui précède, et qui est à l'origine de la chose en question. C'est la notion de cause qui est le plus couramment utilisé dans les sciences naturelles.
4) la cause finale, qui est une autre chose, qui suit, et qui est pourtant à l'origine de la chose en question. La cause finale est souvent identifiée au but que se représente un agent pouvant penser, et qui guide son action.

Aristote donne cette liste, et n'en justifie pas vraiment la clôture.
Les successeurs, cependant, se sont rarement essayés à découvrir de nouvelles causes, mais se sont plutôt consacrés à en réduire le nombre, montrer que certaines sont inutiles, et que l'on pouvait décrire l'ensemble des évènements du monde au moyen d'un plus petit nombre de causes.
Parmi les réductions les plus poussées, figurent celles des positivistes (je préfère ne pas donner de nom, cette tendance étant assez forte chez nombre de philosophes à partir de Descartes), qui affirment que la causalité ne se dit qu'en un seul sens, celui d'une continuité entre deux évènements. Un évènement est cause d'un autre si et seulement si il est immédiatement suivi de cet autre évènement, et de lui seul. La causalité implique donc l'idée de nécessité : la cause doit nécessairement produire le même effet; et elle implique l'idée d'une relation de continuité spatiale et temporelle : la cause est immédiatement suivie de l'effet, tout en étant dans la même position spatiale, ou une position immédiatement voisine. Ceci implique que la cause et l'effet sont séparables par une opération de pensée, mais pas réellement séparables, puisqu'ils sont en réalité attachés par un lien de continuité. Les plus instruits d'entre mes lecteurs penseront peut-être à l'intrication des particules quantiques, donc au fait qu'il semble y avoir une causalité instantanée à distance. C'est en effet un cas limite : la causalité ne serait plus ici que la continuité temporelle, et plus spatiale. On peut, je pense, accepter cette précision, sans affecter le cadre global de ce type de causalité.
Ainsi, cette conception de la causalité correspond à la causalité efficiente d'Aristote : la cause est principe au sens où elle est chronologiquement première, et qu'elle produit par son action un effet chronologiquement second.

Néanmoins, les positivistes ont une tendance à ne regarder que la physique, et tout particulièrement la mécanique, dans laquelle il est tentant de ne voir la causalité que sur ce mode des chocs entre particules.
Or, dès que l'on s'intéresse à la biologie, à la sociologie, à la technologie, ou tout simplement à la vie ordinaire, deux nouveaux types de causes apparaissent. Il s'agit de la causalité matérielle, et de la causalité formelle. En effet, un vivant est une structure, définie par un certain agencement de parties, aptes à accomplir certaines fonctions. Une machine est aussi une structure dont les éléments permettent d'accomplir certaines fonctions (Je renvoie ici au chapitre 7 de la Denrée mentale, écrit par Vincent Descombes, chapitre dans lequel il présente les travaux de Herbert Simon sur la science de l'artificiel). Or, dès lors qu'il y a structures et fonctions, les notions de causes matérielle et formelle redeviennent indispensables.
En effet, la causalité matérielle est l'effet des parties sur le tout. Les parties peuvent ou bien rendre possible l'opération propre du tout, ou bien entraver cette opération. Si la pile d'une montre est vide, la montre ne peut plus afficher l'heure. Si le nerf optique est coupé, il n'est plus possible de voir. Si un joueur d'une équipe de sport est absent, et qu'il n'y a aucun remplaçant, l'équipe doit déclarer forfait, etc. Dans tous ces cas, la causalité matérielle explique l'absence de réalisation d'une fonction, en mentionnant le constituant qui est à l'origine du problème.
Inversement, la causalité formelle explique l'effet du tout sur les parties. Les parties du vivant ne sont pas agencées n'importe comment, par un choc aléatoire de cellules. Chaque cellule prend une place et se spécifie en fonction du rôle qu'elle devra accomplir pour le corps. Certaines vont former de la peau, d'autres des cellules musculaires, des cellules gastriques, des cellules sexuelles, etc. Pour comprendre le devenir de chacune des parties, il faut donc faire référence à l'organisme entier : si celui-ci a besoin de grandir, se déplacer, se nourrir, se reproduire, il faut que les différentes parties se structurent de façon à rendre possible l'exécution de ces fonctions. Le terme d'organisation correspond très bien à l'idée de cause formelle. L'organisation est en effet à la fois le point de vue statique sur une chose : la position réciproque des parties les une par rapport aux autres, et dessinant la configuration d'un être, et le point de vue dynamique sur cette chose : les parties vont là où la structure a besoin d'elles, et produisent un effet conforme à ce dont la structure a besoin.
Causalité matérielle et causalité formelle forment donc une paire indissociable, elles sont la causalité montante, des parties vers le tout, et la causalité descendante, du tout vers les parties. Et cette causalité doit être pensée davantage comme un principe explicatif, que comme une force causale active. La structure n'est pas une chose, mais le résultat d'un certain agencement, c'est justement pourquoi une chose ne peut jamais agir directement sur une structure. Une chose ne peut avoir qu'une action indirecte. En changeant ou en se déplaçant, la chose change conséquemment la structure, sans l'avoir affectée directement, comme elle pourrait affecter une autre partie. Ainsi, la vision ne peut être affectée que par les objets visibles qui se présentent ou disparaissent, mais pas par les parties de l'organe visuel, qui n'appartiennent pas aux objets visibles. De même, dans une société, aucun homme n'a par lui-même un effet social, il ne l'a qu'en tant qu'on lui reconnaît une certaine fonction. Le président de la République peut mettre le pays en guerre, mais aucun homme ne le peut. Là encore, les fonctions réagissent directement à d'autres fonctions, mais les bases matérielles de ces fonctions n'ont jamais d'effet direct.
D'ailleurs, la causalité efficiente se concilie très bien avec les causalités formelles et matérielles, parce qu'elles ne se développent pas dans la même direction. Pour continuer à parler métaphoriquement, les causalités matérielles et formelles sont montantes et descendantes, alors que la causalité efficiente va de gauche (le passé) à droite (l'avenir). On peut en effet donner deux explications d'un phénomène :
1) la discours du président à la télévision marque l'entrée en guerre du pays. On est ici dans le registre du formel et du matériel : le président (la partie) met le pays (le tout) en état de guerre.
2) un ensemble de gestes, de sons émis par la voix, produit un certain nombres d'effets cérébraux et musculaires, eux-mêmes produisant la mise en mouvement de multiples éléments physiques (les tanks, les obus, etc.). On a ici la causalité efficiente

Reste une cause, la causalité finale. On voit assez bien que celle-ci se rapproche fortement de la causalité efficiente : celle-ci ayant lieu dans le sens normal du temps, du présent vers l'avenir (de gauche à droite), il faut en conclure que la causalité finale a lieu en sens inverse, de l'avenir vers le présent (de droite à gauche). Mais à partir de ce point, il faut être précis, et Descombes nous a justement mis en garde, dans le livre précité. En effet, prise à la lettre, cette définition de la finalité est fausse, parce qu'il y a des comportements finalisés qui n'atteignent pas leur but. Donc, dans un tel cas l'avenir ne pourrait pas causer le présent, puisque l'avenir ne sera pas réalisé. Il faut donc qu'une certaine représentation guide le comportement, sans que l'objet de cette représentation soit réellement produit. Il faut que la représentation de la maison puisse guider la construction, même si au final, la maison n'est jamais construite.
Il y a alors un deuxième risque d'erreur, que Descombes a aussi pointé (c'est même cette erreur qui constitue la cible centrale de son livre). Il ne faut pas ramener la finalité à la causalité efficiente, au point de considérer que les représentations sont des états mentaux (et cérébraux) qui causent les actions jusqu'à parvenir au résultat attendu. La philosophie mentale (dont font partie les néo-cartésiens comme Fodor) commet justement cette erreur de tenir les représentations finales pour des entités pouvant intervenir dans une chaîne de causalité efficiente. Dans les termes qui sont les miens ici, la philosophie mentale nie la causalité finale, et la réduit à la causalité efficiente. Pour elle, c'est le présent (une représentation de la maison) qui cause les évènements futurs (la maison). La finalité est ramenée à une causalité de gauche à droite.
Il faut donc avoir une véritable conception de la causalité finale. Et je me range ici à celle que propose Descombes, qui lui-même s'inscrit dans la lignée des intentionalistes (les intentionalistes, opposés aux causalistes, considèrent que les intentions sont des rationalisations de l'action, des moyens de la décrire, et non pas des motifs réellement possédés par les agents, qui les pousseraient à agir). La finalité est un moyen de comprendre la succession des évènements, mais à partir de dispositions présentes faisant référence à des évènements du futur, plutôt qu'à partir des évènements passés. Quand on comprend que quelqu'un est disposé à se lancer dans la maçonnerie (il a déclaré son intention, il est allé chercher du ciment, etc.), on peut prévoir l'avenir, à partir justement d'une certaine considération de ce à quoi aboutit généralement une telle disposition. On voit que du ciment et des briques ont été apportés sur un chantier, on pense alors à la maison construite, et cette image servira alors de guide pour anticiper le travail du maçon. Mais cette image n'est pas une cause agissant sur le maçon, elle est seulement notre moyen de le comprendre.

Récapitulons : la théorie aristotélicienne des quatre causes est complète, car on dispose d'une causalité de gauche à droite (efficiente) de droite à gauche (finale) de bas en haut (matérielle) de haut en bas (formelle). Il n'y a plus d'espace pour une autre possibilité. Ceux qui affirment que cet espace ne comprend que deux dimensions, et qu'il existe une troisième dimension, celle de la profondeur, donc encore deux nouvelles causes à découvrir, sont bien évidemment incités à donner le nom de ces deux causes.
Par contre, il demeure un problème, celui de la dissymétrie entre trois causes, qui sont des principes explicatifs, et la dernière, la causalité efficiente, qui paraît plutôt être une action réelle, et pas un principe explicatif. Pourquoi y a-t-il cette dissymétrie? Mon idée est que la causalité efficiente est aussi un principe explicatif. Mais si on ne le voit pas, c'est parce que la causalité efficiente paraît ne jamais être prise en défaut, alors que la finalité, elle, l'est souvent. Il arrive souvent que l'intention de construire une maison ne mène pas à une maison réelle. Par contre, à tous les coups, si on mélange dans de justes proportions du ciment, du sable et de l'eau, on obtient du béton. C'est le caractère infaillible de la causalité efficiente, et le caractère faillible de la causalité finale, qui nous fait considérer que seule la première est une action réelle.
On pourrait dire que cette distinction est conventionnelle. Car il nous arrive de rater des recettes que nous avons respectées à la règle. On va alors faire jouer une stratégie d'immunisation : "tout compte fait, il doit bien y avoir quelque chose que nous n'avons pas respecté", dirons-nous si nous avons raté une recette. Alors que pour la causalité finale, nous acceptons le fait qu'une anticipation puisse se révéler fausse, et nous ne faisons pas jouer de stratégie d'immunisation, nous ne disons pas du maçon qui ne finit pas sa maison : "en fait, il n'a jamais eu l'intention de la finir".
C'est juste, mais cette convention a quand même une justification : la dissymétrie du temps. Le présent est là et bien là, il est nécessairement ce qu'il est; alors que le futur n'est pas encore là, il reste contingent. C'est pourquoi, compte tenu du présent nécessairement là, on doit pouvoir anticiper avec certitude l'avenir. Par contre, en s'aidant d'un futur lointain et contingent, il est inévitable que nous fassions des erreurs pour prévoir le futur proche. Le maçon peut nous surprendre, parce que la maison future n'est pas déjà là, et peut ne jamais advenir.

mercredi 7 mars 2012

Qu'est une introduction de dissertation?

Nonobstant le titre de ce post, à première vue très différent du précédent (La charge de la preuve), les deux posts s'inscrivent dans une continuité, qui je, l'espère, apparaîtra  vite.
L'objet de ce post est d'expliquer ce que doit contenir une introduction de dissertation philosophique. Je ne prétend nullement réinventer la poudre, et me contenterai de répéter très modestement ce que tous les professeurs de philosophie, de tout temps, ont répété à leurs élèves. Il me semble seulement que ces recommandations, si on les écoute comme il se doit, sont révélatrices d'aspects importants de l'activité philosophique en général.

Que contient une bonne introduction? Elle contient la mise en place d'un problème. Elle est la transformation d'une simple question, en un problème. Une question est seulement une phrase interrogative, à laquelle on peut, le plus souvent, répondre par oui ou par non. Je suis invité chez des amis, nous sommes à table, et ces amis me demandent si l'entrecôte est assez salée. Je réponds oui ou non, selon mes goûts. Mais une telle question ne peut pas se transformer en problème philosophique. Il n'y a aucun mystère à résoudre, rien qui ne s'oppose à une réponse directe. Il me suffit de savoir ce que j'aime pour répondre par oui ou par non.
Or, passer à côté d'un sujet en philosophie, c'est justement prendre le sujet comme s'il s'agissait d'une simple question, et ne pas voir le problème sous-jacent. Prenons l'exemple suivant : "Pouvons-nous avoir la certitude que nous sommes libres?". Si un devoir se contente de parler des détenus en prison, et des personnes qui sont libres de leurs mouvements et de leurs paroles, en disant que les uns et les autres savent très bien qu'ils sont libres ou qu'ils ne le sont pas, alors ce devoir manque le sujet, et y répond comme si on lui demandait si l'entrecôte est assez salée. La réponse est directe, immédiate, ce qui signifie qu'aucun problème n'a été soulevé.
Un problème apparaît lorsque l'on comprend que la question ne va pas de soi, et que la réponse ne va pas non plus de soi. Pour conserver ce même exemple, le problème consiste en ce que la liberté paraît être quelque chose de négatif : la liberté est l'absence d'entrave, l'absence de limitation pour réaliser ce que veut un individu. Mais si la liberté est une absence, une négation, alors on ne peut pas constater directement que nous sommes libres, puisque l'absence, par définition, ne se voit pas, ne s'observe pas. On peut observer une contrainte, on peut observer des chaînes, par contre, one ne peut jamais observer directement l'absence de contrainte. Dès lors, il semble qu'il soit impossible de savoir avec certitude que nous sommes libres, puisque la seule preuve parfaite  (l'observation directe de l'existence de la liberté), est impossible. On peut savoir avec certitude que nous sommes soumis à une contrainte, si c'est le cas, mais on ne pourra jamais savoir avec certitude que nous sommes libres. Et pourtant, ne ressent-on pas très souvent le sentiment de la liberté, le sentiment que de multiples choix s'offrent à nous, et que nous pouvons choisir celui qui nous convient, sans être contraint par des choses extérieures? D'où le problème suivant : comment peut-on à la fois faire l'expérience de notre liberté, alors même que la liberté n'est qu'une absence, et qu'il n'y a jamais par définition, d'expérience de quelque chose d'absent?
Ainsi, la simple question est devenue un problème, parce que la nature de la liberté se trouve engagée dans la discussion. Il n'est maintenant plus possible de répondre directement par oui ou par non. Avant de répondre, il faudra une longue enquête sur la nature de cette expérience intérieure de la liberté, et une longue enquête sur la dimension positive ou négative de la liberté. Voici donc ce en quoi consiste transformer une question en un problème : rendre la réponse directe impossible, rendre nécessaire une véritable enquête sur les notions mises en jeu sur le sujet.

En quoi cette explication méthodologique est de grande valeur pour la philosophie en général? Elle montre qu'aucune question ne doit être acceptée avant d'avoir été elle-même justifiée. Il n'y a pas que les réponses qui demandent à être argumentées. Une question aussi s'argumente, se justifie. Il y a des mauvaises questions, il y a des questions qui sont même trompeuses. Se dépêcher d'y répondre, c'est justement tomber dans leur piège. 
Parmi ces questions trompeuses, figurent en tout premier lieu celles que le sceptique adresse au dogmatique. En demandant au dogmatique s'il est certain de ne pas être en train de rêver, le sceptique envoie une question au dogmatique sans avoir justifié le bien fondé de sa question. Chercher à y répondre va évidemment mener le dogmatique à des propos absurdes, des sophismes, des gesticulations ridicules. C'est bien pourquoi j'avais soutenu, dans mon post précédent, que le sceptique ne devait pas se contenter de poser des questions. Le sceptique a la charge de la preuve, il doit montrer que sa question est sérieuse, qu'elle est un vrai problème. Il doit montrer que sa question demande à être résolue, parce qu'elle est réellement un problème pour notre compréhension du monde. Si la fiction du rêve n'est vraiment rien de plus qu'une fiction, alors inutile de faire appel aux sciences et à la philosophie pour y répondre. Une autre fiction suffit. Par contre, si le sceptique arrive à montre que son problème est sérieux, alors la philosophie est nécessaire.
Autrement dit, l'élève ou l'étudiant devant rédiger une introduction est dans la même situation que le sceptique. Le sceptique doit montrer que la question qu'il pose est sérieuse; l'élève doit montrer que la question du sujet est un problème philosophique. C'est pourquoi une bonne introduction est, bien évidemment, toujours un moment sceptique. Le sceptique pose des questions, comme le fait une introduction. Mais le bon sceptique, comme la bonne introduction, ne se contentent pas de poser des questions : ils expliquent pourquoi leur question est justifiée, pourquoi il faut la prendre au sérieux, c'est-à-dire faire un exercice philosophique pour y répondre.

Ce que montre l'introduction de la dissertation, c'est donc que l'activité intellectuelle n'est pas toujours une activité consistant à résoudre des problèmes. Les théories ne sont pas seulement des tentatives de répondre à des questions. Les problème ne naissent pas tout seuls, par génération spontanée. Le doute ne nous tombe pas brutalement dessus. Le doute est construit, il est élaboré, il est aussi le produit d'un effort théorique. Le proverbe dit que la philosophie est davantage intéressée par les questions que les réponses. C'est faux, pour deux raisons : à la fois parce que la philosophie s'intéresse aussi aux réponses qu'elle donne, et parce que les sciences aussi s'intéressent aux questions. Mettre en place un protocole expérimental, c'est justement considérer que la manière dont on questionne la nature est très importante dans le résultat obtenu. Une mauvaise question implique une mauvaise réponse, ou bien fausse, ou bien imprécise. Une bonne question conditionne par contre une réponse fine, précise, et féconde.
Bref, l'argumentation n'est pas seulement l'art de répondre à des questions. Il est aussi l'art de poser les bonnes questions, de la façon correcte. C'est ce que montre l'introduction philosophique.

lundi 5 mars 2012

La charge de la preuve

Dans l'éternelle discussion entre sceptiques et dogmatiques pour déterminer si nos connaissances sont solides, si nous ne sommes pas en train de rêver (Descartes), si nous ne sommes pas des cerveaux dans une cuve (Putnam), si nous avons bien deux mains (Moore), etc., chaque camp, en dépit du fait qu'il est frontalement opposé à l'autre camp, partage en fait un certain nombre de présupposés, qui seuls, expliquent qu'une confrontation puisse avoir lieu. Les dogmatiques et les sceptiques partagent des préjugés communs, qui expliquent à la fois le débat lui-même, et son enlisement.
Je voudrais montrer que ces préjugés, une fois qu'ils sont explicités, changent considérablement les rapports de force entre dogmatiques et sceptiques. Mais je voudrais aussi montrer que ce renversement est paradoxal : c'est en cassant un préjugé dogmatique que l'on peut réfuter la position sceptique. Le sceptique ne peut tenir sa position que parce qu'il emploie un procédé typiquement dogmatique. Si au contraire, le sceptique va jusqu'au bout de son scepticisme, il ne pourra plus employer un tel procédé et n'aura plus rien à objecter au dogmatique. Cependant, le dogmatique n'aura pas gagné pour autant, car lui aussi ne peut vaincre que s'il emploie un tel procédé. Ainsi, en mettant au jour ce procédé, on aboutit à une sorte de situation intermédiaire, modérée, une solution de bon sens, que nous allons présenter ci-dessous.

Le débat entre le dogmatique et le sceptique se déroule ainsi : 
1) le dogmatique affirme de manière péremptoire qu'il connaît la vérité de ceci ou de cela, qu'il a des connaissances authentiques, que la réalité objective est conforme à son discours. Peu importe ici le sujet. Le dogmatique pense que la logique, la métaphysique, les sciences dures et les sciences humaines, peuvent produire des vérités, tant que l'on s'y prend correctement.
2) le sceptique, rusé, réplique que les connaissances du dogmatique ne sont pas aussi solides qu'elles en ont l'air. Après tout, on pourrait imaginer un nombre considérable de fictions, qui sont vraisemblables, et qui montrent que tout notre savoir est illusoire. Ainsi, les fictions des illusions des sens, du rêve, du malin génie, cet être quasi-divin capable de tromper les hommes dès qu'il le veut, nous montrent que nos connaissances ne sont pas assurées, puisqu'il y a quelques possibilités toujours ouvertes qu'elles soient fausses. Autrement dit, tant que le dogmatique n'a pas écarté les unes après les autres toutes les possibilités envisagées (et peut-être même envisageables) que nos connaissances soient illusoires, alors sa science reste incertaine.
3) Le dogmatique, à ce moment, tombe dans le piège du sceptique. Il se met alors à rechercher une preuve pour réfuter toutes les fictions du sceptique. C'est ce que fait Descartes, entre autres, avec grand talent. Avec toute son intelligence, il tente de montrer que le monde ne peut pas être illusoire, que nous ne sommes pas dans nos rêves, et que nous pouvons nous fier à nos sens, excepté bien sûr dans quelques cas bien délimités.
4) Naturellement, le sceptique n'est jamais totalement convaincu de ce qu'il trouve dans les méditations métaphysiques de Descartes, il va donc élaborer ou bien de nouvelles fictions plus retorses, ou bien  montrer que les arguments de Descartes ne fonctionnent pas vraiment. Employant toujours la même stratégie, le sceptique demande au dogmatique de faire la preuve que son savoir est infaillible, c'est-à-dire que toutes les possibilités logiques et métaphysiques aient été écartées. S'il reste la plus petite possibilité qu'une erreur ait été commise, ou que le savoir soit douteux, alors le dogmatique doit retourner à son travail et trouver un argument définitif.
5) Le jeu de ping-pong se poursuit ainsi, des sceptiques grecs jusqu'à nos jours. 

Où est la faiblesse du sceptique? Qu'emprunte-t-il au dogmatique, alors qu'il n'en a pas le droit? Le sceptique emprunte au dogmatique son modèle de la justification des énoncés. Pour un dogmatique, un énoncé est justifié si tout autre énoncé incompatible a pu être prouvé faux. En logique, prouver un énoncé est assez simple, car il suffit de montrer que le contradictoire d'un énoncé est faux pour avoir prouvé ipso facto que l'énoncé original est vrai (c'est la preuve de la logique classique, la réfutation par l'absurde). On peut aussi, par une série d'inférences, montrer qu'un énoncé est la conséquence nécessaire d'autres énoncés. Par contre, en métaphysique, en physique et dans les autres sciences, les énoncés ne sont à peu près jamais des conséquences logiques d'autres énoncés. Il y a toujours une multiplicité d'autres possibilités enviseables ou même qui n'ont pas été envisagées. C'est justement pour cela que le travail du dogmatique est difficile. Il est écrasé d'une part sous le nombre des possibilités, et d'autre part sous la puissance de certaines de ces possibilités : en effet, l'hypothèse que nous sommes tous des cerveaux dans une cuve est une hypothèse farouchement difficile à éliminer (Putnam, dans Raison, vérité et histoire, soutient même qu'on ne peut même pas en discuter, pour des raisons liées à notre langue, mais cela n'empêche pas que cette hypothèse soit, absolument parlant, envisageable). Ainsi, le sceptique reprend les exigences du dogmatique, et les fait jouer contre lui, pour lui demander des preuves absolues que ce qu'il avance est vrai.
Je ne veux pas dire que le sceptique commet une faute logique, serait incohérent. Au contraire, c'est bien plutôt le dogmatique qui est incohérent, puisqu'il est incapable de soutenir ses propres normes de justification. Le dogmatique veut des justifications absolues des énoncés, et le sceptique lui rappelle qu'il ne parvient même pas à les fournir. Les justifications absolues sont trop difficiles à fournir, le dogmatique n'y arrive pas, et le sceptique triomphe, en quelque sorte. 
Mais je veux dire que le sceptique risque par contre de tomber lui aussi dans l'incohérence, aussitôt qu'il se met à dire quelque chose. Car si on demande au sceptique sa position, il devra dire quelque chose qui ressemble à ceci : "bien sûr que je ne crois pas vraiment que nous sommes des cerveaux dans une cuve ou que nous sommes tous dans nos rêves, mais je n'ai pourtant aucune preuve que c'est faux". En disant cela, malgré l'apparence simplement négative de cette affirmation, le septique tombe à son tour dans le piège du dogmatique. Car il refuse de tenir les croyances des dogmatiques pour fondées, et pourtant, il conserve comme valides les standards de justification qui lui permettent d'affirmer que ces croyances sont infondées. Le sceptique affirme qu'il n'a pas de preuve que nous ne rêvons pas, mais il ne peut affirmer ceci que s'il croit qu'il lui faut une preuve définitive, absolue, autrement dit dogmatique, pour écarter cette possibilité. Or, c'est justement l'essence du scepticisme que de refuser un tel standard de justification. Le sceptique ne refuse pas les croyances dogmatiques, mais l'idée que ces croyances auraient besoin d'une preuve aussi extraordinaire que celle que Descartes et ses épigones tentent de fournir.

Comment donc le débat entre sceptiques et dogmatiques doit-il se dérouler, dès lors que le sceptique est enfin cohérent, et refuse de demander au dogmatique des preuves absolues? Le débat doit être restreint aux seules hypothèses que l'on peut tenir pour sérieuses, au lieu de s'étendre à toutes les hypothèses possibles. J'insiste ici sur ce terme de sériosité. Un hypothèse est possible quand notre imagination nous donne la capacité de la formuler. Une hypothèse est sérieuse dès lors qu'une enquête empirique et notre expérience passée nous laissent penser qu'elle a des chances d'être vraie. Ce concept de sériosité est informel, il est pourtant indispensable pour la discussion. Les hypothèses qu'un malin génie existe, que nous rêvions en permanence, etc. sont possible mais pas sérieuses. Parce que, jusqu'à présent, pas le moindre évènement du monde ne nous a laissé penser que c'est envisageable. Cette hypothèse a été forgée par une imagination débordante, sans s'appuyer sur quoi que ce soit de réel. Par contre, que tel ou tel souvenir soit illusoire; qu'une machine à calculer donne des résultats presque toujours faux; que nos sens causent des erreurs systématiques dans la perception, sont des hypothèses sérieuses. Nous avons déjà vu cela dans le passé : certains psychologues arrivent à suggérer de faux souvenirs, les ordinateurs buggent parfois, et il y a des daltoniens. Par conséquent, de telles hypothèses peuvent être sérieusement discutées.
Autrement dit, le sceptique doit détendre un peu ses critères de justification, et tenir pour acquis tout ce dont il n'a pas de raison sérieuse de douter. En ce sens, le dogmatique peut et doit toujours dire au sceptique que celui-ci a la charge de la preuve. Le dogmatique ne se fatiguera à donner des preuves de la solidité de notre connaissance que si le sceptique arrive d'abord à montrer qu'il y a un doute sérieux que notre connaissance soit erroné. Tant que le sceptique n'a pas pu montrer que son doute est sérieux, et pas extravagant, le dogmatique n'a même pas à répondre. 
La charge de la preuve est donc la notion fondamentale qui permet de dépasser les débats éternels entre sceptiques et dogmatiques. Tant que l'on garde les standards de justification déraisonnables du dogmatique, la notion de charge de la preuve est inutile. Le dogmatique doit seulement tout prouver, montrer que le moindre doute peut être rejeté. Par contre, dès lors que l'on adopte des standards de justification plus modestes, la question de la charge de la preuve devient centrale. En effet, le dogmatique ne sera plus le seul à devoir se justifier. Le sceptique le devra aussi, puisqu'il devra montrer que les doutes qu'il oppose au dogmatique sont sérieux. Il devra donc mener l'enquête, comme n'importe qui, et apporter un faisceau d'indices suffisamment convergents pour que le dogmatique soit obligé de préparer, à son tour, une réponse argumentée. 

Ainsi, nous savons que nous ne rêvons pas et que nous ne sommes pas des cerveaux dans une cuve, parce que nous attendons encore que le sceptique nous donne des indices probants que ces fictions soient sérieuses. Tant qu'il n'y parvient pas, la charge de la preuve reste de son côté, le bon sens du côté de ceux qui pensent qu'ils sont éveillés et bien réels. Bien sûr, le dogmatique a toujours envie de brûler les étapes, et  d'apporter une preuve à un problème qui ne lui a pas encore été posé. A quoi pourrait-il donc répondre?

vendredi 2 mars 2012

Petite sociologie de la vérité

Il y a un contraste assez frappant, pour un professeur de philosophie qui a déjà lu une fois dans sa vie Quine et Davidson, entre ce que ces auteurs disent de la vérité, et ce qu'il observe chez ses élèves. Ce contraste demande une explication.

Que disent Quine et Davidson? Que la vérité est une notion primitive comprise très rapidement par les êtres humains, parce que cette notion (avec celle de fausseté) est indispensable pour apprendre notre langue maternelle. En effet, apprendre une langue consiste toujours à interpréter les énonciations des autres, c'est-à-dire à retrouver le sens de ce qu'ils disent, en présupposant que ce qu'ils disent est vrai. C'est le lien, sur lequel a beaucoup insisté Davidson, entre vérité et signification : la signification d'une phrase donnant les conditions dans lesquelles elle est vraie, alors comprendre la signification des phrases d'autrui consiste à identifier les conditions dans lesquelles il l'emploie, en présupposant qu'il dit vrai.
Bien entendu, il est exclu qu'un enfant puisse avoir une notion de la vérité aussitôt qu'il a commencé à interpréter les autres. Car tant qu'il ne s'est pas aperçu que les autres peuvent se tromper, et se trompent parfois, autrement dit tant qu'il ne possède pas aussi la notion de fausseté, la notion de vérité ne peut avoir aucun contenu. Si le principe de charité, qui nous demande de supposer qu'autrui dit vrai, ne menait jamais à la moindre déception, alors ce principe serait totalement vide. Faire une phrase et dire vrai seraient identiques, et on pourrait tout simplement supprimer le concept de vérité.
Ainsi, un enfant normal disposera des concepts de vérité et de fausseté dès qu'il comprendra que les personnes disent souvent la vérité, que l'on peut donc se servir de ce fait pour interpréter leurs propos, mais qu'il arrive aussi que les personnes mentent ou se trompent, ce qui implique que les conditions d'usage de ces phrases fausses ne renseignent plus sur leur sens. Un enfant sait ce qu'est la fausseté lorsqu'il est capable de comprendre ce que croit une personne qui fait erreur, et qu'il sait en même temps que cette personne est dans l'erreur. L'enfant entend son grand-père myope dire "regarde, un aigle", alors que l'enfant reconnaît très bien un pigeon. L'enfant dispose du concept de fausseté si, au lieu de conclure que son grand-père appelle "aigle" les pigeons, son grand-père appelle normalement ces oiseaux, mais qu'il a mal vu l'oiseau qui venait de passer.

Donc, l'usage des notions de vérité et de fausseté paraît ordinaire et simple. Pourtant, en cours de philosophie, ces notions posent problèmes. Des affirmations qui ne font que reformuler cet usage ordinaire, telles que la définition de la connaissance comme croyance vraie, sont acceptées avec beaucoup de peine par les élèves. L'usage implicite de ces notions ne pose pas de problème, et l'explicitation est pourtant très laborieuse. En généralisant de manière assez peu rigoureuse, il me semble que les élèves s'attachent particulièrement aux preuves, aux justifications, dans la définition de la connaissance, et pas du tout à la vérité. A partir des trois composantes de la définition platonicienne de la vérité comme 1) croyance 2) vraie 3) justifiée, les élèves ne retiendraient que les composantes 1 et 3. Pour eux, une connaissance est une croyance justifiée. D'ailleurs, pour être plus précis, ils pensent aussi que l'idée de croyance justifiée est quasi contradictoire, de sorte qu'ils préfèrent encore dire qu'une connaissance, "c'est prouvé", ne retenant que la composante 3, plutôt que de parler de croyance justifiée. Les refus des composantes 1 et 2 ont la même cause, que je vais essayer d'expliquer.
Il y a deux sortes de rapports aux connaissances. Il y a le rapport du juge, et le rapport du sceptique. Le juge est celui qui décide si quelque chose est vrai ou faux, et qui ne peut exercer son jugement que s'il dispose déjà de tous les éléments dans son dossier, afin de trancher. En épistémologie, le juge ne peut être que l'historien qui revient sur la science du passé, la science déjà écrite, et qui sait dès le commencement qui avait raison et tort. En tant que juge, il peut dire qui avait la vérité, et qui était dans le faux. Le sceptique, lui, est quelqu'un qui, ou bien doute de ce qu'il sait, ou bien cherche parce qu'il ne sait pas encore. Le scepticisme, étymologiquement, est en effet le doute et la recherche. Or, dans ces deux cas, il lui est impossible d'employer la notion de vérité, puisqu'il ne peut pas dire ce qui est vrai. Et il ne pourra pas non plus prouver quelque chose en disant que c'est vrai. La vérité d'une phrase ne se présente pas à nous comme une preuve qu'il faut y croire. Bref, pour le sceptique, pour la science en train de se faire, la vérité est une notion inutile.
Voilà donc pourquoi les élèves n'ont que faire de cette idée de vérité. Leur situation scolaire les identifie à des chercheurs, à des personnes qui cherchent à connaître, et pas à des juges, rôle qui est tenu par leurs professeurs seulement. Les élèves sont confrontés à des problèmes, et devront les résoudre en donnant des preuves et démonstrations. Mais ils ne convaincront jamais leur professeur en affirmant péremptoirement que ce qu'ils disent est vrai. Du coup, pour eux, la connaissance est d'abord ce qui peut être démontré. Alors que pour un professeur, chargé de vérifier que ce que disent leurs élèves est conforme à ce qu'ils savent, les connaissances sont d'abord des croyances ou des affirmations vraies. 
Autrement dit, il y a une sociologie de l'usage de la notion de vérité, et cette sociologie peut même dériver en une théologie. En effet, une communauté d'égaux, les élèves entre eux, ou les chercheurs entre eux, ne peuvent pas utiliser la notion de vérité. Elle ne leur sert à rien. Elle ne convainc personne et n'explique rien. Par contre, dès lors qu'existe une hiérarchie, les professeurs et les élèves, ou bien Dieu et les hommes, alors la notion de vérité redevient opératoire. Le supérieur hiérarchique détient la vérité, et la connaissance consistera, pour l'inférieur hiérarchique, à croire quelque chose conformément à la connaissance du supérieur. Le supérieur seul peut dire quelque chose comme "la connaissance est une croyance vraie". Il peut se le permettre parce qu'il a de son côté identifié ce qu'est la vérité, et qu'il se sert de cette connaissance pour parler des connaissances des autres, qui eux sont à la recherche de la connaissance. C'est le fait de parler des croyances des autres qui permet de parler de croyance vraie. Par contre, pour un chercheur, qui parle de ses propres croyances ou des croyances de ses égaux, il ne sert à rien de parler de vérité, puisqu'il ne dispose d'aucune manière distincte de sa propre recherche, pour établir ce qui est vrai ou faux.

Qu'en conclure? La philosophie demande aux élèves, pour la première fois dans leur scolarité, de redevenir ce qu'ils sont toujours dans la vie ordinaire, à savoir des juges. En effet, pour comprendre l'autre, il faut juger qu'il dit vrai ou faux. Mais les élèves, qui ont parfaitement intériorisé les règles scolaires, qui sont aussi les règles de la recherche scientifique, comprennent très bien que la vérité est, dans ce cadre, une notion inutile, ou bien utile seulement pour un hypothétique être suprême qui saurait tout ce qu'il y a à savoir sur le monde. Philosophiquement, les élèves ne retiennent donc qu'une dichotomie entre croyances et connaissances, c'est-à-dire une dichotomie entre les discours justifiés et les discours injustifiés. Il me semble qu'il faut leur donner raison. En sciences, nous ne sommes jamais certains d'avoir la vérité. Il se peut toujours que l'avenir nous démente. C'est pourquoi une connaissance ne peut jamais être quelque chose de plus qu'un discours suffisamment justifié.