explorations - nouveaux objets - croisements des sciences

L'auteur

Antonio Mosca

Université Paris VII Denis Diderot
Università Roma 3, Équipe LGC
Université Paris 3, Sorbonne Nouvelle

moscantonio [chez] gmail.com

Référence

Antonio Mosca, « Le problème de l’identité entre logique et langue », Influxus, [En ligne], mis en ligne le 11 septembre 2012. URL : http://www.influxus.eu/article504.html - Consulté le 24 octobre 2017.

Le problème de l’identité entre logique et langue

par Antonio Mosca

Résumé

En partant d’un constat, celui de la distance séparant aujourd'hui la logique « des mathématiciens » de la logique « des littéraires », un rapide bilan historique et épistémologique est fait de certains résultats importants mais peu connus ou peu remarqués, obtenus en logique mathématique pendant les quarante dernières années. L’attention est portée surtout sur la notion, crucial, de complétude logique d’un système formel, dont l’omission ôte toute pertinence et tout intérêt à l’usage d’un formalisme «logique». On souligne comment les recherches logiques «internalisent» enfin la complétude et surmontent ainsi l’ancienne opposition entre une syntaxe de théories et une sémantique de modèles : cela au nom d’une syntaxe qui devient dans un certain sens «géométrique» et «des interactions» – une syntaxe en somme tout à fait «sémantique». La clé de lecture qui éclaire tous ces résultats est l’égalité preuves-programmes (isomorphisme de Curry-Howard), véritable coup de théâtre épistémologique étonnamment méconnu malgré ses retombées pour la science informatique, qui éclaire réciproquement notions logiques et notions calculatoires et montre comment elles incarnent deux manières différentes de voir un même phénomène. Une critique est donc faite, à la lumière de ces résultats désormais classiques, de la distinction «logique» que l’on fait traditionnellement en sciences du langage entre syntaxe, sémantique et pragmatique ; il en résulte que les «formalisations» des approches linguistiques «logicistes» ne satisfont même pas les critères minimaux de logicité ; par ailleurs, les approches linguistiques qui semblent le plus suivre, dans la méthode, la direction tracée par les logiciens des mathématiques sont justement ces approches qui, dans le sillage d’un Saussure «non-structuraliste» et de Benveniste, revendiquent un farouche anti-logicisme. Anti-logicisme, par exemple, au nom d’une sémantique énonciative non référentielle, polyphonique et argumentative (Ducrot et Carel), ou anti-logicisme d’une sémantique du rythme non sémiotique, sérielle et poétique (Meschonnic). Enfin, en mettant en avant la situation d’enseignement-apprentissage comme cadre cognitif et énonciatif épistémologiquement paradigmatique, une place privilégiée est réservée à la situation didactique, et notamment aux problèmes épistémologiques, tout à fait analogues, que posent la didactique des sciences et la didactique des langues.

Abstract

In light of the distance that today separates the logic of « mathematicians » from the logic of « literary critics », a concise inventory is made of certain results, epistemologically and historically important but little known or commented upon, that have been obtained in mathematical logic over the last forty years. Attention is paid above all to the crucial notion of logical completeness, whose failure or omission deprives the use of a « logical » formalization of any pertinence or interest. Further emphasis is put on how research in logic ends up « internalizing » completeness, thus overcoming the old opposition between a syntax of theories and a semantics of models, so that syntax becomes, in a sense, « geometrical » and « interactional » – in sum, thoroughly « semantic ». The key that clarifies these results is the identification of proofs and programs (Curry-Howard’s isomorphism) ; this true epistemological coup de theatre – surprisingly neglected in spite of its impact on computer science – clarifies, in a reciprocal manner, logical and computational notions, showing how they constitute two different ways of looking at a single phenomenon. In the light of these by now classic results, a critique is made of the « logical » distinction between syntax, semantics and pragmatics that is traditionally made in linguistics. It turns out that the « formalizations » of linguistic « logicist » approaches do not even meet the minimal criteria of logicality. What’s more, those linguistic approaches which most seem to follow in their method the direction traced out by logicians of mathematics, are precisely those approaches which, in the footsteps of (a non-structuralist) Saussure and of Benveniste, claim a fierce anti-logicism : the anti-logicism, for instance, of a non-referential enunciative semantics (e.g., the polyphonic and argumentative anti-logicism of Ducrot and Carel) or of a non-semiotic semantics of rhythm (e.g., the serial and poetical anti-logicism of Meschonnic). Finally, emphasising the teaching-learning dynamic as epistemologically paradigmatic on a cognitive and enunciative level, a privileged place is reserved to didactics, and especially to the quite analogous epistemological problems posed by the didactics of sciences and by the didactics of languages.

Introduction. - Celles qu’on appelle logiques - celles qu’on enseigne aujourd’hui

La logique se trouve actuellement enseignée et aux scientifiques et aux littéraires : elle fait partie, de fait, des sciences que l’on appelle humaines et des sciences que l’on appelle exactes. Son statut n’est pourtant guère double dans le sens où, par exemple, la médecine pourrait avoir un double statut, de « science » et d’« art », selon le point de vue que le médecin adopte : qu’on donne la priorité au physiologique ou au pathologique, au laboratoire ou au chevet du malade, aux explications ou aux remèdes, dans les deux cas on est souvent face aux mêmes phénomènes, aux mêmes problèmes, aux mêmes instruments - seul change ce qui est mis en avant ; ce n’est pas peu, la différence est peut-être même cruciale, mais les deux points de vue sur l’activité médicale peuvent être identifiés, confondus, voire négligés, du moins par le regard externe d’un sujet non médecin - notamment un chimiste, un biologiste, ou, à l’inverse, un patient. Or, il en est tout autrement pour les « deux logiques », celle qui est enseignée aux scientifiques et celle qui est enseignée aux littéraires. Il suffit de se glisser dans la salle de cours d’une classe préparatoire littéraire et dans la salle de cours d’une école d’ingénieur, au moment où dans les deux salles on parle de « logique », pour voir que tout y est différent : objets, problèmes, instruments, au point qu’on soupçonnerait une pure homonymie si on ne savait par ailleurs que les deux matières sont historiquement cousines ; un résidu est d’ailleurs là pour témoigner de ce cousinage : la proposition logique, qui surtout dans sa version implicative et quantifiée apparaît au tableau dans les deux salles de cours, tel un mot familier qui, surgissant dans un discours dit dans une langue inconnue, ne ferait que rendre l’incompréhension plus désespérée.

Il serait faux d’affirmer que la logique « des littéraires » - appelons-la pour l’instant logique littéraire - est seulement une logique « moins scientifique » car non ou moins mathématique, parce que victime de simplifications ignorantes ou de détournements idéologiques, ou simplement parce qu’arrêtée à un stade scientifique antérieur et dépassé : les deux logiques partagent certes le souvenir de certains précurseurs - Aristote, Frege, Russell...- mais le fait que la logique littéraire, au contraire de la logique des scientifiques, utilise souvent ces précurseurs comme de véritables autorités ne doit pas faire oublier qu’elle n’est pas la logique d’Aristote, ni celle de Frege ou de Russell. La logique philosophique, ancêtre commun des deux logiques, prétendait gouverner, en tant que science des lois de la pensée, l’activité linguistique et l’activité mathématique, activités également logiques en droit et relevant pourtant de la compétence de deux sciences absolument séparées de fait au vu de leurs objets et des relations qu’elles entretiennent avec les autres sciences ; la science linguistique, qui a comme objet la « langue », est un canon de rigueur pour les sciences humaines, auxquelles elle fournit les instruments de travail les plus rigoureux, alors que la science mathématique, qui a comme objet les structures mathématiques, est un canon de rigueur pour les sciences exactes. Il y aura donc, au vingtième siècle, une logique qui voudra rendre compte de l’activité mathématique, une logique mathématique dans sa méthode et dans ses résultats, et une logique qui voudra rendre compte de l’activité linguistique, une logique en somme linguistique. Il suffit de se figurer l’abîme de problèmes et d’intérêts qui sépare les lecteurs idéaux de deux ouvrages tels que le Zahlbericht de Hilbert et le Cours de linguistique générale de Saussure ces lecteurs idéaux qu’une science logique serait censée aider, méthodologiquement et heuristiquement - pour avoir une mesure de la distance, du moins initiale, entre les cahiers des charges respectifs de ces deux « logiques ».

1. Maintenant, s’il fallait dresser un court bilan

S’il fallait maintenant dresser un bilan scientifique, sûrement provisoire, du chemin parcouru jusqu’ici par les deux logiques, chacune dans son domaine, on verrait que les résultats sont décidément, et étonnamment, inégaux : de francs succès, parfois spectaculaires, du côté de la logique mathématique, et un constat qui paraît être désormais d’échec pour la logique linguistique - échec, rappelons-le, linguistique. En quel sens succès, en quel sens échec ?

1.1 En logique mathématique, un changement de point de vue

L’histoire des résultats acquis par la logique mathématique au cours du vingtième siècle - histoire qui est loin d’avoir dit son dernier mot - a été racontée, par ses acteurs [1] et par les philosophes [2] : nous en retiendrons quelques points essentiels. Le plus saillant est que les succès sont arrivés là où on ne les attendait pas ; l’objectif déclaré des premières recherches en logique mathématique était en effet de garantir le déploiement de la pensée mathématique, garantir que ce déploiement expansif d’une pensée qui s’explicite et se connaît par sa propre activité démonstrative se fasse d’une manière valide et complète : l’accent, dans cette activité démonstrative, est mis sur la proposition logique qu’on démontre, car c’est la loi générale qu’elle établit, cette loi qui devient norme, qui importe. Certes, la proposition nécessite une preuve, puisqu’on ne peut l’établir en toute rigueur qu’en la démontrant, mais la nature de cette preuve reste en fin de compte secondaire : une autre preuve aurait fait également l’affaire, car ce n’est pas tant l’échelle qui compte que le toit sur lequel on monte. Le formalisme à la Hilbert reflète d’ailleurs parfaitement ce rôle secondaire attribué à la preuve, dans l’agencement même, textuel, des formules qui la composent : celles-ci sont empilées, une par ligne - des lignes numérotées de haut en bas, à chaque ligne s’appliquant une règle logique, qui renvoie aux numéros des lignes où se trouvent les hypothèses utilisées ; la preuve ainsi écrite ne dit rien sur la façon dont elle a été trouvée : elle est rédigée, pour ainsi dire, au propre, sans ratures ni ratés, et donne l’impression que les conséquences surgissent presque par hasard des hypothèses - on ne trouve pas une démonstration, c’est plutôt la formule qui se trouve démontrée. Des normes découleront finalement - doivent découler - les procédures : si les preuves sont secondaires, le calcul sera, lui, un effet second. En somme, tout le sens est, dans cette première logique mathématique, du côté de la sémantique, c’est-à-dire des modèles, là où sont les « vrais » objets, les vraies structures mathématiques, ensemblistes et algébriques ; la syntaxe, partie ingrate du labeur logique, là où sont preuves et calculs, incarnés dans un formalisme et un codage qu’on voudrait par définition aveugles et arbitraires, ne pourra qu’être, quant à elle, privée de sens.

Les théorèmes d’incomplétude sanctionnent enfin l’échec de cette approche [3] : il y a des formules de l’arithmétique qu’on ne peut ni démontrer ni réfuter, et c’est là non pas un « paradoxe », mais un théorème en bonne et due forme ; on ne peut pas se fier à un déploiement démonstratif aveugle car - cela paraît pourtant évident a posteriori - il présente, justement, des points aveugles : très banalement, le fait qu’on n’arrive pas à savoir une chose ne veut pas dire qu’on sache le contraire.

En somme : le fait qu’après une longue épreuve toutes mes tentatives d’avoir $A$ aient échoué ne veut pas dire que j’aie une preuve de sa négation. Faire l’épreuve de l’échec oblige à s’interroger sur le pourquoi de l’échec, ce qui présuppose d’une part qu’on mette en avant la possibilité même de l’échec - possibilité qui, avec la complétude, aurait pu être, sinon passée sous silence, du moins mise en retrait - et d’autre part qu’on ne puisse plus faire semblant que les théorèmes et le flux démonstratif coulent de source, du sommet de la page vers la vallée : pour trouver un théorème il faut tout de même, normalement, qu’on en ait recherché la preuve. Le renversement du point de vue est très concret : on va inverser le sens de la lecture et de l’écriture de la preuve, et remonter du bas vers le haut ; on écrit d’abord la formule qu’on veut démontrer et on essaye ensuite d’en bâtir une démonstration, qui sera achevée une fois qu’on n’aura plus besoin, aux sommets, que de formules qu’on a effectivement à disposition par ailleurs - axiomes, lemmes déjà démontrés, hypothèses qu’on accorde. Si, après des détours et des ratures, on n’arrive pas à achever la démonstration, on aura obtenu tout de même quelque chose, ce même quelque chose qui n’avait pas droit de cité en démontrant à la Hilbert : une preuve incomplète. C’est un ratage, certes, mais un ratage où tout n’est peut-être pas à jeter, où l’on peut chercher localement ce qui coince ou ce qui manque. On va donc s’interroger sur la manière dont on construit la démonstration, et pour ce faire on va tenter d’écrire la démonstration de sorte qu’on puisse avoir toujours « sous les yeux » - à la ligne supérieure - les hypothèses qui auront produit chaque formule, au lieu de l’illisible renvoi aux « lignes correspondantes » de l’écriture hilbertienne : on aura donc une écriture des déductions dite naturelle, dans laquelle les formules bifurquent, donnant ainsi à la preuve l’aspect d’un arbre - un arbre où la racine est la proposition à démontrer et où les feuilles sont les axiomes. Ce style d’écriture des démonstrations, toutefois, ne permet pas d’avoir sous les yeux tout le « patrimoine héréditaire » d’une formule, c’est-à-dire les hypothèses qu’elle présuppose et qui la justifient - ce qu’on appelle le contexte ; on utilisera alors un autre style d’écriture, qu’on a baptisé calcul des séquents. Les deux styles ne s’excluent pas, au contraire, et d’ailleurs les deux sont dus à Gentzen ; leur choix, comme le choix de tout instrument, dépend de ce qu’on veut faire, à savoir de ce qu’on veut voir dans la structure de la démonstration.

Arbres, graphes : ce sont là des structures, des objets sémantiques. D’un côté la syntaxe « prend du sens », de l’autre la sémantique ensembliste, de fait, disparaît ; cependant il serait inexact de dire que la syntaxe « expulse » la sémantique : cette syntaxe n’est plus une « syntaxe » au sens ancien du terme, une syntaxe qui aurait comme objet la formule logique, car l’objet de cette nouvelle syntaxe est la démonstration entière. Et alors qu’avant on considérait la démonstration comme « contenant » des formules, ce sont maintenant les formules qui contiennent, tels les ensembles de l’ancienne sémantique, des démonstrations ; car une formule peut posséder plusieurs démonstrations, identifiables ou pas. Cette « syntaxe » est en même temps une syntaxe sémantique, mais aussi une sémantique syntaxique.

La nouvelle logique mathématique, cette logique qui a comme objet les démonstrations, n’évacue pas non plus l’ancien problème de la complétude des règles de la pensée : d’une manière assez inattendue, une idée claire et heuristique de complétude renaît des cendres des résultats d’incomplétude. Quel était le sens mathématique du théorème de complétude, exprimé en termes de théories (syntaxe) et de modèles (sémantique) ? Si on démontre que tout ce qui est vrai dans la sémantique est démontrable dans la syntaxe - c’est justement ça, en somme, la complétude - cela permet, dans les faits, de ne pas s’embêter avec de laborieuses preuves syntaxiques et de prendre des raccourcis du côté de la sémantique - là où on « voit » et où on manipule impunément les objets - avec la garantie que, si besoin est, on pourrait obtenir, de ce qu’on constate sémantiquement, une preuve syntaxique et explicite. Or, ce va-et-vient, qu’on voudrait vertueux, entre syntaxe et sémantique peut se traduire parfaitement dans un simple jeu d’interaction entre preuves, donc du seul côté syntaxique ; car une preuve peut bien sûr être construite avec les seules pièces qui composent la formule à démontrer, ses sous-formules : elle est alors tout à fait explicite - en forme normale - et clairement analysable ; mais on pourrait aussi introduire dans une démonstration des formules étrangères à la conclusion visée, quitte à s’en « débarrasser » chemin faisant. Bizarre démarche : pourquoi un tel détour ? Quel besoin y a-t-il d’introduire dans la démonstration un élément étranger, somme toute inutile à son économie et nuisible pour sa lisibilité ? Pourquoi ne pas construire directement une preuve explicite, sans rien d’inutile ni d’opaque - bref, sans détours ?

Les détours sont pourtant nécessaires ; il suffit de remarquer que dans le cas de l’implication ce que nous appelons « détour » n’est rien d’autre que le modus ponens, c’est-à-dire ce qu’on considère normalement comme le droit chemin de la déduction. À partir de $A \rightarrow B$ et de $B\rightarrow C$ j’obtiens comme conclusion $A\rightarrow C$, qui justement n’a pas $B$ comme sous-formule. $B$, le moyen terme, a été introduit quelque part et ensuite, avant la conclusion, coupé - ainsi appelle-t-on cet enchaînement une coupure. Si j’ai besoin d’argumenter à propos de la mortalité des hommes et que je sais déjà que, d’une part, tous les animaux sont mortels et, par ailleurs, que les hommes sont des animaux, je ne m’entêterai pas à chercher un argument sur les causes de mort spécifiques des humains mais je me limiterai plutôt à assembler, à brancher, mes deux connaissances préalables. Faire un détour veut dire faire appel à une autre preuve, donc à un lemme : le détour est nécessaire car c’est finalement un raccourci. C’est d’ailleurs par ces raccourcis - par ces détours - qu’on raisonne dans ce bas monde : pour démontrer que $745 \times 321 = 321 \times 745$ je ne détaillerai pas tout le calcul, ce qui serait laborieux, sinon stupide, mais, si je suis futé, j’appliquerai plutôt le lemme général $a \times b = b \times a$.

Si raisonner sans détour est donc, sinon impossible, du moins inhumain, il faut pourtant qu’on puisse les éliminer, ces détours - ces coupures - si besoin est : s’il est souvent nécessaire, faute d’espace, de renvoyer le lecteur, dans une note, à un passage d’un autre texte où un certain argument est démontré ou développé dans le détail, il faut cependant que ce passage existe, et qu’il parle vraiment de ce dont il est censé parler ; certes, le lecteur pourrait « faire confiance » et ne pas aller vérifier, mais dans le cas contraire l’auteur ferait preuve de maladresse, voire de cavalerie [4].

En somme, l’ancienne complétude externe, qui voulait que tout ce qui est obtenu par un détour sémantique soit démontrable syntaxiquement, devient une complétude toute interne, qui exige d’un bon système formel que tout ce qui est obtenu par un détour démonstratif, en faisant donc appel à une autre preuve comme lemme, soit démontrable d’une manière explicite, à savoir sans coupures. La différence est de taille : le fait qu’entre deux domaines de la pensée ou du savoir l’un soit « syntaxique » et l’autre « sémantique » n’est plus quelque chose de foncier et établi une fois pour toutes par la nature, plus ou moins explicite, des deux domaines - qui ferait que l’un serait le « méta » de l’autre - mais dépend seulement de la dynamique d’interaction des preuves, donc du problème particulier qui est posé ; on pourra avoir besoin d’un détour dans le domaine $A$ pour résoudre un problème posé dans le domaine $B$, mais on pourra aussi utiliser un résultat de $B$ pour résoudre un problème qui appartient à $A$ : les deux cas ne s’excluent pas a priori. L’esprit de la complétude logique interne est donc décidément anti-réductionniste, et fournit contre tout réductionnisme un argument épistémologique peut-être crucial.

Ce tournant dans les recherches en logique mathématique que nous venons d’esquisser est défini par ses acteurs mêmes comme un tournant géométrique [5] : géométrique dans le sens très général qu’est géométrique ce qui est sensible au codage, et qui doit donc être compris non pas par une brutale traduction dans un système formel d’interprétation, mais en en observant plutôt le fonctionnement au cours de ses transformations - transformations qui laisseront invariantes certaines de ses caractéristiques (cf. [48, p. 343-4]). Dans le cas de l’objet géométrique « démonstration », sa mise à l’épreuve se fera par les interactions avec les autres démonstrations - c’est-à-dire par les coupures - et la dynamique de transformation sera donnée par la normalisation, c’est-à-dire par l’élimination de ces mêmes coupures ; cette logique géométrique sera donc aussi, dans ce sens assez général et en même temps assez précis, une géométrie de l’interaction (cf. [31]). La logique devient ainsi une véritable éthique de la communication, car la pensée logique n’est plus vue comme une pensée purement objective qui se déploie béatement en face d’elle-même, mais comme une pensée communicante, la pensée d’un sujet qui en communicant fait bien plus que « transmettre des informations » : il met à l’épreuve la connaissance qu’il a de l’autre et de soi-même, et ce faisant met, et se met, à l’épreuve.

Ce tournant est, en fin de compte, cognitif, car il met en avant, et éclaire, la distinction - épistémologiquement fondamentale - entre l’activité démonstrative et l’activité vérificative ; on ne « démontre » pas que $1 + 1 = 2$, on le vérifie, et il n’y pas à être intelligent pour accomplir une tâche pareille : il s’agit de réécrire la chose qu’on a à gauche de l’égalité jusqu’à en obtenir une forme moins intéressante mais plus lisible - une forme normale - qu’on va donc comparer avec cette autre chose qu’on a à droite ; si les deux choses sont identiques (deux bâtonnets d’un côté, deux bâtonnets de l’autre), l’égalité est vérifiée. C’est là quelque chose de très « trivial », de très bête, donc de très fastidieux, et c’est seulement son caractère fastidieux qui peut rendre la tâche de la vérification - qui correspond à la normalisation des preuves par élimination des coupures - parfois très difficile. Ce qui rend par contre difficile la recherche d’une preuve est son caractère absolument non trivial : écrire un roman ou aller chercher la source d’un passage cité dans un texte, ce sont là deux activités qui ont un sens cognitif et épistémologique très différent.

La conséquence immédiate de cela est que le problème de la « vérité » est, sinon évacué, du moins mis en retrait : la vérité devient, pour paraphraser Leriche, « le silence dans la vie des concepts » ; la vérité se transmet silencieusement des hypothèses aux conséquences, mais c’est le sens inverse qui met à l’épreuve l’intelligence, ce même sens qui transmet le faux : une preuve de $A\rightarrow B$, qui permet d’obtenir à partir d’une preuve de $A$ une preuve de $B$, est aussi, de fait, une preuve de $\neg B\rightarrow \neg A$, qui permet à l’inverse d’obtenir à partir d’une réfutation de $B$ une réfutation de $A$ ; car ce sont les mêmes raisons qui nous pousseront, par exemple, à affirmer qu’un homme doit être mortel ou bien qu’un immortel ne peut pas être un homme - tout dépend du sens de lecture de la démonstration. L’usage qu’on fait d’un même principe peut changer (en changeant le sens des flux de chaleur et de travail on aura, selon les cas, des machines aussi différentes qu’un réfrigérateur, un radiateur ou un moteur), aussi bien que le point de vue sur une même situation : si je suis en train de payer pour acheter quelque chose, le vendeur, lui, au même instant, est en train de vendre quelque chose pour encaisser. La preuve peut donc être vue non plus comme un arbre, mais comme un graphe, presque un circuit, avec des interrupteurs - les implications - et avec des rallonges pour brancher un circuit à un autre circuit - les coupures : dans ce nouveau style naturel d’écriture les démonstrations deviennent des réseaux, les réseaux de preuves ([26]) ; le calcul de séquents aussi se retrouve modifié pour mettre en avant - pour focaliser - la dynamique d’interaction entre preuves : c’est la ludique ([29]).

Ces deux nouveaux instruments, très heuristiques, sont dus au même logicien : Jean-Yves Girard.

1.2 Du logique au calcul, un détour didactique

La moralité cognitive de ce « tournant géométrique » rend compte d’une intuition très forte pour quiconque travaille professionnellement dans un certain domaine : ce n’est pas l’ampleur des données qu’on connaît, ni l’étendue de la palette d’outils qu’on a à disposition, ni surtout la quantité « d’erreurs » qu’on commet, qui fait la différence entre ceux qui savent et ceux qui ne savent pas, c’est-à-dire entre un expert et un profane. Non seulement un expert peut commettre des erreurs, mais il pourra même en commettre plus qu’un profane, parce que plus grande est sa maîtrise, plus grande sera sa prise de risques et plus grands et rapides seront les détours auxquels il se hasardera ; ce qui caractérise l’expertise, au contraire, est la possibilité de vérifier l’usage qu’on fait de ses instruments, ce qu’on peut faire seulement si on les maîtrise. Et maîtriser ce détour-qui-raccourcit qu’est l’instrument technique, c’est-à-dire en être le maître, veut dire précisément pouvoir l’éliminer, pouvoir s’en passer, si besoin est. Là où on n’arrive plus à éliminer les coupures, là commencent nos limites, nos besoins, nos dettes - là commence ce terrible bon rieur qu’est le réel. Et s’il n’y a pas de test sûr et rapide pour établir que quelqu’un est un expert, il y a par contre un test très rapide et certain pour établir que quelqu’un est un profane : celui qui prétend dans un certain domaine exhaustivité et absence d’erreurs, celui-là sera certainement, dans ce domaine, un profane.

La didactique donne, de cette moralité cognitive, des applications très concrètes, presque d’ingénierie (cf.[4]). Pour qu’il y ait succès pédagogique il ne suffit pas que l’élève sache répéter l’explication qu’on lui a donnée, ni qu’il montre qu’il sait appliquer sans erreurs la procédure apprise : dans le premier cas l’élève est une marionnette, dans le second un simple usager. Prenons un cas concret : imaginons des élèves de 13-14 ans auxquels on aurait expliqué la formule de résolution des équations de second degré ; l’enseignant, pour tester si les élèves ont « appris » ce qu’il a expliqué, donnera à la maison, ou sur table, des exercices : à savoir, des listes d’équations de second degré, à résoudre bien sûr en appliquant la formule apprise. La résolution répétée des exercices a aussi une utilité aux yeux de l’élève : cela lui permet de se familiariser avec la formule et, surtout, de la mémoriser ; car la mémorisation et la bonne application de la formule seront la preuve, pour l’enseignant et pour l’élève, du succès et de l’enseignement et de l’apprentissage. Or, un paradoxe se produit, bien connu par tout enseignant : les élèves, la plupart d’entre eux et non seulement les « mauvais », oublient la formule, et ce malgré le temps parfois important passé sur les exercices ; si l’élève est de bonne volonté, et c’est souvent le cas, il fera alors des efforts, souvent importants, pour « renouveler » le souvenir de la formule : il la répétera par exemple par cœur, il l’affichera au mur des toilettes, il pourra même développer des moyens mnémotechniques personnels parfois très compliqués, et reviendra, bien sûr, sur les exercices que l’enseignant lui avaient donnés après l’explication. D’une manière ou d’une autre l’élève y arrivera, mais le douloureux entretien de ce souvenir obstinément caduc ne lui évitera pas de rencontrer par ailleurs des difficultés dans la résolution des équations de troisième ou quatrième degré : les formules à retenir se multiplient, et d’ailleurs comment faire avec les équations de cinquième degré, puisque il n’existe pas, pour elles, de formule de résolution ?

Les très bons élèves, bien sûr, résolvent les équations de cinquième degré, et de degré supérieur, sans aucun problème, et ils le feront comme il faut : en appliquant tout simplement ce qu’on leur a enseigné sur les produits remarquables à, disons, 12 ans ; ces mêmes élèves, d’ailleurs, auront souvent dédié moins de temps que les élèves « moyens » à la résolutions des exercices donnés par l’enseignant, et n’auront aucun besoin d’afficher la formule de résolution des équations de second degré au mur des toilettes pour s’en souvenir : non qu’ils aient un don caché pour retenir les formules, mais parce que le fait d’oublier la formule ne leur pose aucun problème. Les bons élèves peuvent, s’ils ont un doute, retrouver la formule, ce qui est très simple justement avec la seule connaissance des produits remarquables : on prend l’expression $x^2 + bx + c$ ; on réécrit $x^2 + bx$ comme un carré d’un binôme en soustrayant ce qu’il faut, c’est-à-dire $x^2 + bx = (x + b/2)^2 - b^2/4$ ; enfin, on rajoute $c$ et on traite le tout comme une différence de deux carrés.

Or, et c’est là un fait à remarquer, les élèves amnésiques connaissent très souvent assez bien les lemmes des produits remarquables, et peuvent même les appliquer dans le cas d’équations du type $x^2 - c = 0$, $x^2 + bx = 0$ ou $x^2 + 2bx + b^2$, qu’ils considéreront cependant comme des « cas à part », voire comme des exceptions : avec une équation « normale » de second degré, « il faut appliquer la formule ». Et pourtant, le fait que la formule de résolution des équations de second degré résume finalement, d’une manière très raccourcie, une stratégie générale qui consiste à emboîter deux applications des produits remarquables, le fait qu’on puisse donc résoudre les équations de second degré sans forcément utiliser cette formule, ce fait leur a été démontré par l’enseignant au moment même où il a introduit la formule. Il le leur a montré, mais ils ne l’ont pas vu. Pour qu’ils le voient, il aurait fallu que l’enseignant rappelle d’une certaine manière les connaissances des élèves sur les produits remarquables, qu’il prenne en considération un cas particulier bien choisi, qu’il souligne, dans ce cas particulier, ce qui est particulier et ce qui est général, ce qui est négligeable et ce qui est remarquable, pour enfin reconnaître une stratégie générale et trouver la formule qui résume cette stratégie. Enfin : pour tester la compréhension des élèves, il aurait dû exiger non pas qu’ils se montrent capables de remplacer bêtement les coefficients d’équations données dans la formule de résolution, non pas qu’ils apprennent la formule par cœur, mais qu’ils sachent la retrouver, ce qui présuppose qu’ils puissent s’en passer. Tout cela, soulignons-le, n’a rien de trivial : la recherche de la bonne présentation d’une preuve, ainsi que de bonnes questions-tests, est aussi dure et non triviale que la recherche d’une preuve, car c’en est une. Mais pour que l’effort de l’enseignant soit fructueux, il faudra qu’il souligne d’abord que si on démontre un résultat mathématique ce n’est pas pour s’assurer qu’il est « vraiment vrai », ni parce qu’en mathématiques « il faut tout démontrer » : si on le démontre c’est parce que c’est dans la compréhension qu’on a de sa preuve que se cachent les usages qu’on pourra, ou qu’on ne pourra pas, en faire.

Les recherches les plus récentes des didacticiens des mathématiques et, surtout, de la physique [6], ont mis en avant les mêmes préoccupations méthodologiques que celles des logiciens. Le professeur de physique donne à ses élèves des instructions pour qu’ils puissent résoudre des problèmes « de la vie de tous les jours » - nous dirons : des problèmes macroscopiques - en appliquant des instruments qui « fonctionnent à tous les coups » : des équations mathématiques. Pour que l’élève applique de façon pertinente ces équations - pour que le détour se fasse d’une manière heureuse - l’enseignant distinguera les variables mathématiques avec des types différents, c’est-à-dire avec des grandeurs physiques hétérogènes, qui relient ce que l’élève peut constater, se figurer et mesurer au niveau macroscopique avec « ce qui se passe vraiment ». Ce qui se passe vraiment, là où seraient les « causes », se passe souvent à un niveau « inaccessible », microscopique, que l’enseignant se donnera la peine de faire voir « par induction » à partir d’expériences effectives ou imaginées, résumées par des dessins et par des diagrammes plus ou moins géométrisés. Or, une fois tout cela acquis, un fait a été remarqué dans l’enseignement de la physique, un fait qui justifie d’ailleurs l’existence même d’une science didactique : bien que l’enseignant donne des explications « vraies », claires et détaillées, et bien que l’élève arrive à résoudre les exercices parfois difficiles que l’enseignant lui donne, rien n’y fait : des erreurs inattendues sont commises dès qu’on pose aux élèves des questions inusuelles quoique « faciles ». Ainsi, dans un échantillon d’étudiants américains en début d’études universitaires - des étudiants, soulignons, en section de Techniques Supérieures d’Optique, qui ont reçu des cours substantiels en optique et qui ont montré qu’ils savaient résoudre correctement des problèmes d’optique géométrique concernant par exemple l’enchaînement de lentilles, la correction de l’anomalie de l’œil, etc - eh bien, à la question sur ce qui se passe si on enlève une lentille mince convergente positionnée entre un objet et un écran - écran où apparaît, grâce à la lentille, l’image inversée de l’objet - 40% de ces étudiants répondent qu’il y aura toujours une image affichée à l’écran ([50, p. 35]). Ils ne sont pas fourvoyés par leurs « sens » - ils savent très bien que les lampes ne projettent pas leurs images sur les murs qu’elles éclairent - ni par les films de science-fiction : ils ne font qu’appliquer sagement - aveuglément - les schémas géométriques qu’ils utilisent avec succès dans la résolutions des problèmes, ces mêmes schémas qui, pour aider les étudiants à appliquer les théorèmes de la trigonométrie, montrent des rayons qui partent des bouts des objets et qui « transportent » l’image sur l’écran. Pour rappeler aux élèves que l’image se forme par échantillonnage il faudra mettre en avant un autre schéma, où on montre un seul point et des rayons de lumière qui partent de lui dans toutes les directions - pas d’image possible si ces rayons ne se rejoignent pas quelque part. Mais penser à mettre en avant un tel schéma n’a rien de trivial.

On pourrait croire que le « schéma du seul point » est meilleur car plus « microscopique », donc plus détaillé et plus explicite que le schéma à objet entier. Ce n’est pas le cas : au contraire, ce sont les explications « explicites » données au niveau microscopique qui causent souvent les bugs pédagogiques les plus éclatants. C’est l’image des « électrons baladeurs » et du « courant » électrique qui pousse les élèves à raisonner séquentiellement avec les circuits électriques (les ampoules brilleraient plus fort à droite ou à gauche d’une résistance, selon qu’on suit le sens des électrons ou le sens du courant, (cf. [17]) ; et c’est en mettant en avant le niveau moléculaire, pourtant « existant vraiment », qu’on étaye l’idée que le frottement serait une pure force de résistance, voire une sorte de « colle ». Si le tiers d’un groupe d’étudiants universitaires en physique croit encore, après enseignement, que la pression hydrostatique agit seulement vers le bas et qu’elle dépend de la seule quantité d’eau située au dessus ([7]), cela veut dire finalement, comme le disent Laurence Viennot et Ugo Besson, « qu’il manque l’idée d’un mécanisme, avec une analyse des actions locales, qui permette d’expliquer l’établissement de l’équilibre, les étudiants n’arrivant pas à comprendre la situation physique » ([7, p. 46]). Prendre en considération les molécules d’eau ne sert à rien : car il faudra prendre en considération des éléments « assez petits » pour qu’on puisse négliger les variations macroscopiques dues au milieu, et « assez grands » par rapport au libre parcours moyens des molécules ; il va donc falloir bien choisir des « bons » éléments à un niveau intermédiaire, disons mésoscopique ([7]) : on se figurera l’eau comme étant formée, par exemple, de petites sphères élastiques, comme des balles de mousse. Elles n’existent nulle part, bien sûr, mais « ça fonctionne », avec l’effet collatéral de débarrasser l’élève de l’idée pernicieuse que les liquides seraient « incompressibles ».

Ce niveau mésoscopique et intermédiaire dont la nature est pourtant purement heuristique et donc « fictive », se charge de sens, telle la syntaxe des logiciens. Pour trouver le sens des forces de frottement, sens qui ne s’oppose pas forcément au sens du mouvement, on donnera aux aspérités des objets en contact une apparence de brosse (cf. [10]), ce qui permettra d’ailleurs de souligner le rôle propulseur fondamental du sol ; mais pour ce faire, il faut revenir autrement sur la troisième loi de Newton : pour montrer que celle-ci ne se confond pas avec les bilans de force, pour montrer qu’en somme, un homme qui vainc la « résistance » de la voiture qu’il pousse continue tout de même à subir de la part de cette voiture une « réaction » égale à la force qu’il applique, pour montrer cela il faudra arrêter de mettre en avant, comme exemples illustrant l’action-réaction, des situations d’équilibre. Mais aussi : après avoir vérifié qu’il n’y a pas de « forces veuves » dans le schéma qu’on aura dessiné - chaque action étant couplée à sa réaction - il faudra séparer les objets, même s’ils sont en contact « dans la réalité », car chaque bilan de force doit se faire sur chaque objet séparément. On obtient ainsi des schémas éclatés ([50]), qui permettent d’ailleurs de rappeler aux élèves que ce sont les interactions qui définissent les forces, car une force n’appartient pas à un objet mais qu’elle concerne toujours une interaction entre deux objets. On évitera ainsi, finalement, que l’élève confonde les sens des forces et les sens des mouvements - à condition qu’on mette en avant, de préférence, des situations où force appliquée et mouvement de l’objet n’ont pas le même sens...

On s’en doute : tout cela n’est pas trivial, et il ne suffit pas d’être bon physicien pour trouver les bons modèles didactiques, car il est question justement de trouver la manière d’éviter ces erreurs auxquelles un bon physicien ne songerait même pas.

Quoiqu’en disent certains didacticiens de la physique, il n’y a pas de « raisonnement commun » non-logique ou externe aux raisonnements scientifiques, venu d’ailleurs ou inné, qui serait sournoisement à l’œuvre dans les erreurs des étudiants : comme les recherches en didactique le montrent d’elles-mêmes, les erreurs les plus remarquables trouvent leurs explications les plus pertinentes dans le cours même, c’est-à-dire dans cette longue liste d’instructions - cet algorithme - que l’enseignant dresse leçon après leçon et que l’élève suit avec confiance. « Débugger » un échec pédagogique n’est pas une mince affaire : une incompréhension des circuits oscillatoires peut cacher des bugs du côté des ressorts, voire du côté de Galilée, et ce sont ces instructions mal comprises, mal comprises car souvent mal données, qui pousseront l’élève à maltraiter le formalisme algébrique : en additionnant grandeurs scalaires et grandeurs vectorielles, ou en changeant les signes des grandeurs dans les équations selon le résultat attendu, « puisque le formalisme est conventionnel ». Certes, une bonne compréhension des outils mathématiques met à l’abri ipso facto de certaines erreurs : mais la didactique des mathématiques n’est pas moins triviale, surtout si la logique reste, comme le dit Marc Rogalski ([47, p. 75]) « l’un des points aveugles de l’enseignement universitaire des mathématiques ».

Instructions, bugs, algorithme : après avoir introduit une analogie cognitive entre logique et didactique, nous avons élargi tacitement notre analogie à l’informatique et à la programmation. Ce n’est pas tout à fait injustifié, car il est certain que l’ordinateur est, parmi les élèves, le plus bête et le plus sage, donc le plus dur à instruire ; le programmeur doit vraiment « tout lui expliquer », et s’il y a un bug il serait comique qu’il s’en prenne à la mauvaise volonté de la machine. Nous pouvons cependant ne pas nous arrêter à la seule analogie et en dire enfin plus : une preuve est vraiment, mathématiquement, un programme, et un programme est vraiment, mathématiquement, une preuve. Ce véritable coup de théâtre épistémologique - dont on n’a guère perçu toute l’ampleur et que logiciens et informaticiens appellent discrètement isomorphisme Curry-Howard - éclaire d’une lumière nouvelle tout ce que nous avons dit précédemment sur la nouvelle logique « géométrique » ; si les preuves sont des programmes, les formules logiques deviennent des types ; les propositions à démontrer seront alors des spécifications, c’est-à-dire les cahiers des charges d’un problème qui attend sa solution - solution que sera la preuve enfin construite. Les deux sens d’écriture logique et informatique correspondent aux deux points de vue de l’enseignant et de l’élève : ou bien mettre sur le papier ce qu’on souhaite que le programme fasse et ensuite essayer d’écrire concrètement un programme qui fonctionne de la manière souhaitée ; ou bien se retrouver devant un « exemple donné » (une preuve non typée) et essayer donc d’en résumer une « moralité » (le typage).

Si les preuves sont des programmes, voire des termes fonctionnels (d’un langage très simple comme le lambda-calcul, par exemple), la coupure représente alors un programme qui reçoit un input, c’est-à-dire une fonction qui s’applique à un argument. L’élimination des coupures devient le calcul du résultat, voire le calcul tout court, et la complétude interne, cette belle garantie logique de bon fonctionnement, se traduit exactement dans la notion intuitive de procédure correcte que tout informaticien souhaiterait : tous les calculs se terminent et convergent (cf.[27]).

Si nous retournons maintenant dans la salle de cours de l’école d’ingénieurs que nous avons quittée il y a quelques pages, nous serons désormais en mesure désormais de comprendre les raisons pour lesquelles l’intitulé du cours était « Informatique théorique ». Aux résultats les plus importants des informaticiens en sémantique des langages fonctionnels, tels ceux obtenus à l’INRIA par Gérard Berry et Pierre-Louis Curien (à propos de la stabilité, du calcul séquentiel et du calcul en parallèle, du rôle sémantique de l’erreur : (cf [2, 5, 19]), répondent les résultats « cousins » obtenus par des logiciens, qui les étayent et les éclairent (cf. [6]) - notamment ceux obtenu par Girard : espaces cohérents, logique linéaire, le daimon de la ludique. La logique mathématique finit par recouvrer le rôle fondationnel qui lui était promis, mais d’une manière bien inattendue : en donnant droit de cité et sens à la partie la plus concrète, refoulée, honteuse, de la pensée mathématique. C’est peut-être là, d’ailleurs, le seul sens épistémologique qu’une fondation logique pouvait avoir.

1.3 Ce mélange confus qu’on trouve en linguistique - syntaxe et sémantique, pragmatique et logique

Après ce détour du côté de la logique mathématique, nous pouvons retourner maintenant à l’autre salle de cours, celle des étudiants littéraires. Nous remarquerons qu’il n’y a pas non plus, ici, d’enseignement de « logique » à proprement parler, sinon dans le cursus de philosophie ; la nature de ces cours de « logique philosophique » change cependant considérablement selon la nature des problèmes que les instruments logiques sont appelés à éclairer : à une logique des problèmes mathématiques, de compétence donc des philosophes « des mathématiques » s’oppose, presque, une logique des problèmes langagiers, qui étaye les recherches des philosophes « du langage ». L’opposition est bien illustrée par la nette divergence dans les choix respectifs des formalismes et des théories : les philosophes des mathématiques privilégient la théorie des ensembles, les structures ordonnées ou les diagrammes catégoriaux, alors que les philosophes du langage utilisent et introduisent souvent des logiques modales de toutes sortes et même, parfois, des « logiques » qui paraîtraient, aux yeux d’un mathématicien, franchement douteuses, telles que les logiques « non-monotones » ou « paraconsistantes ».

La portée des considérations et des résultats des logiciens « philosophes des mathématiques » étant à évaluer à la lumière des recherches des logiciens mathématiques, c’est donc sur les résultats des logiciens « philosophes du langage » qu’il faudra se pencher pour donner un jugement épistémologique de la logique « littéraire » - et ce, dans l’arène de la science linguistique. Ainsi, c’est bien dans les départements de linguistique qu’on étale les trésors de formalisme les plus impressionnants, car si la linguistique, de par ses problèmes et ses instruments, est dans les faits un modèle de rigueur pour les autres sciences humaines, il faut bien que son rôle de garante soit logiquement justifié - bref que les résultats linguistiques soient « logiques ».

La non-formalisation d’un résultat linguistique est, partant, souvent considérée comme une véritable absence de preuve, et donc comme une lacune de rigueur grave et rédhibitoire : cela oblige finalement les linguistes, même les plus rigoureux dans leur démarche « informelle », à évoquer immanquablement les outils logiques, fût-ce seulement pour traduire - c’est le cas de le dire : formellement - « en logique » leurs résultats, ou pour justifier la hardiesse de leur choix « non-formaliste ». Dans les autres domaines des sciences humaines, les notions et les concepts logiques étayent souvent des remarques très générales de méthode, et les invitations des enseignants à « éviter les contradictions » ou à « argumenter logiquement à partir des hypothèses » sont à comprendre normalement comme des invitations à n’utiliser que des instruments rigoureux et à tout justifier par ceux-ci - des instruments rigoureux spécifiques à chaque domaine, que les enseignants auront donnés aux élèves par ailleurs. Parmi ces instruments il y a parfois, effectivement, des instruments plus spécifiquement « logiques » : ainsi l’usage de la logique est-il traditionnellement très courant en rhétorique, ce qui n’est pas pour étonner, et on pourra par exemple, en critique littéraire, donner une idée de l’« ouverture » exégétique de l’œuvre littéraire en faisant grand étalage de « modèles à mondes possibles » ou de choses de ce style. Mais il ne faut pas être dupe : dans tous ces domaines qui ne relèvent pas directement de la science linguistique, la formalisation logique est présentée comme un outil de plus parmi d’autres, elle n’est pas requise, en somme, comme gage obligatoire de rigueur.

La logique littéraire est donc une logique de la raison linguistique : les charges étaient linguistiques et le constat de « mi-chemin » paraît désormais, nous avons dit, d’échec. Pour comprendre en quel sens on peut se hasarder à parler d’échec, il faut toutefois lever une ambiguïté sournoise qui risquerait de biaiser dès le début toutes nos considérations : en langue aussi il y a une syntaxe et une sémantique, qui ne sont absolument pas à identifier avec la syntaxe et la sémantique logiques, ni à réduire à celles-ci ; car d’une part ce qu’on entend aujourd’hui par syntaxe en logique mathématique n’a désormais rien à voir avec ce qu’on entend par le même mot en linguistique ; d’autre part parce que la syntaxe et la sémantique de la langue précèdent - historiquement, heuristiquement - les notions logiques analogues [7] : « syntaxe » et « sémantique » sont dès le début, en logique, des métaphores langagières, se nourrissant de l’analogie fondamentale entre logique et « langue bien faite ».

C’est d’ailleurs sur le modèle classique et scolaire de la grammaire qu’ont été pensés les premiers formalismes logiques « naïfs », disons « pre-Gentzen » ou « non-géométriques » : ceux-ci s’inspiraient du modèle de la grammaire en tant que science des règles et des normes dont découle, « de haut en bas », l’ensemble des phrases correctes - correctes parce que produites suivant le bon ordre syntaxique. Ce bon ordre syntaxique, étant propre à chaque langue, entretiendrait un rapport arbitraire, formel, avec « ce dont on parle », c’est-à-dire avec la sémantique : une sémantique qui sera considérée d’une certaine manière comme référentielle, car elle ferait référence aux « objets » du monde, à leurs propriétés et à leurs relations ; cette intuition langagière du rapport entre syntaxe et sémantique poussera les premiers logiciens à penser le codage comme une « traduction », voire une traduction formelle, le choix du formalisme syntaxique étant considéré comme conventionnel, donc arbitraire : la syntaxe recevra son sens de la sémantique, et sera garantie par une preuve de validité et de complétude - complétude sémantique. La sémantique logique « à la Tarski » résumera et étayera parfaitement cette analogie, en introduisant une nouvelle métaphore langagière : le méta-langage. Cette métaphore, illustrée par le célèbre exemple de l’énoncé « la neige est blanche », qui serait vrai si et seulement si la neige est blanche, s’appuie évidemment sur une analogie fondamentale entre « langage-objet » et discours rapporté, analogie qui exploite à son tour fondamentalement - et tacitement - le fonctionnement éminemment linguistique, car lié à la ponctuation, des guillemets, et confond, assez cavalièrement, « discours du locuteur » et « méta-discours » [8].

Deux malentendus se trouvent alors entremêlés. Quand des logiciens tels que Girard s’en prennent aux échecs des « linguistes » et de leurs approches « langagières », ils ne se réfèrent aucunement à Bally, à Benveniste ou à Ducrot, ni à leurs approches ; de la même manière, si des linguistes tels que Ducrot s’en prennent aux « logiciens » et à leurs approches « logicistes », ce ne sera certainement pas pour critiquer les résultats de Gentzen, de Prawitz ou de Girard : dans les deux cas, sous les étiquettes respectives de « linguistes » et de « logiciens » se cachent ceux qu’on appelle aujourd’hui philosophes du langage. Cependant - là est le deuxième malentendu - les critiques des logiciens et des linguistes contre ces philosophes du langage n’ont pas le même sens. Le blâme des logiciens a pour cible une certaine approche de la syntaxe logique, approche taxée - dans le sillage des critiques des intuitionnistes - de « langagière » car elle mettrait en avant l’objet « formule logique » et refoulerait l’objet « preuve », objet non-linguistique car « procédural ». D’une certaine manière, l’adjectif « langagier » devient, pour les logiciens, synonyme de formaliste [9]. L’approche que les linguistes appellent « logiciste », quant à elle, est une certaine approche de la sémantique de la langue : car le but des « linguistes logiciens », que nous sachions, n’est pas, ou n’est plus, de créer une nouvelle langue logique qui remplacerait les langues naturelles, mais au contraire d’expliquer et, surtout, de garantir la production des phrases correctes de la langue - garantie qui serait donnée par un détour du côté des calculs logiques, donc par une sorte de preuve de complétude externe.

L’échec d’une sémantique logique de la langue naturelle pourrait paraître à certains égards évident, car la réduction de la langue à des mécanismes « déductifs » serait pour beaucoup, sinon impossible, du moins non souhaitable. Ainsi, par exemple, la traductologie et la didactique des langues se passent-elles fort bien des formalisations logiques, et les travaux les plus récents des « nouveaux rhétoriciens » ([44]) posent désormais d’une manière très nette l’opposition et l’hétérogénéité absolue entre « argumentation » et « démonstration » (cf. [46]). À un niveau plus proprement linguistique, l’idée de l’inutilité sémantique des outils logiques repose généralement sur la conviction de la priorité de la pragmatique : les instructions de la langue pousseraient à chercher les « bons référents » dans le contexte, dans le co-texte ou dans le savoir préalable des locuteurs, sur la base de « principes minimaux ». Ces principes pourront être, par exemple, des principes de pertinence, de cohérence, d’économie, ou d’exhaustivité : principes d’une certaine manière « logiques », certes, mais qui peuvent rester dans une sorte de boîte noire cognitive.

Le cas des anaphores semble illustrer exemplairement cette démarche avant tout pragmatique : l’expression définie « la bière » pourra se référer à de la bière dont il a déjà été question dans le discours, mais restera compréhensible même si on n’a pas fait mention de bière précédemment : il suffit qu’on sache par ailleurs qu’il est question, par exemple, d’un pique-nique (le pique-nique n’a pas été un succès : la bière était chaude) ; en absence d’éléments discursifs utiles, on donnera alors à l’expression définie, « par inférence », un sens purement contingent (l’énoncé passe-moi la bière donnant par exemple, par sa seule énonciation, l’information nouvelle qu’il y a, quelque part, de la bière) ou purement générique (la bière désaltère). Un mécanisme pragmatique analogue serait à l’œuvre avec un temps tel que l’imparfait, qui contiendrait - parce qu’essentiellement anaphorique, ou parce qu’aspectuellement « imperfectif » - l’instruction d’aller chercher quelque part dans le passé un « ancrage temporel » ; dans l’énoncé Paul entra dans la pièce : Marie faisait la vaisselle, le moment passé « pertinent » coïnciderait par exemple avec l’entrée de Paul ; les imparfaits des complétives du discours indirect ou du discours indirect libre ne seraient finalement que des cas particuliers de cette instruction pragmatique. Enfin, une instruction pragmatique analogue - du type « cherche un fait qui ait un rapport non-contradictoire avec le fait donné » - aiderait à comprendre le connecteur logique par excellence, donc ; ainsi, selon les informations à disposition, l’énoncé Paul est donc parti pourra être compris soit comme un renvoi co-référentiel qui reprend ou résume une énonciation précédente concernant le départ de Paul, soit comme une conséquence qui découle d’une certaine situation donnée (il n’y avait plus de bière, Paul est donc parti), soit au contraire comme une hypothèse dont découlerait une situation donnée - ce que les philosophes du langage appellent, depuis Peirce, une abduction (son manteau n’est pas là, Paul est donc parti).

Le besoin de sortir les outils logiques de leur boîte, et d’intégrer explicitement la partie « extensionnelle » de la sémantique (objets dans l’espace, instants dans le temps) avec une partie « intensionnelle » référant aux concepts et à leur agencement déductif, se présente avec force dès qu’on se rend compte que certaines contraintes « logiques » résistent malgré le co-texte ou le contexte extralinguistique. Le fait qu’on puisse enchaîner l’énoncé j’arrivai dans un petit village avec l’église était sur une colline et non avec le centre commercial était sur une colline, quoiqu’un petit village puisse raisonnablement avoir un centre commercial, semble découler d’une loi « universelle » qui établirait un lien conceptuel, implicatif et général, entre « être un village » et « avoir une église », et non pas avec « avoir un centre commercial » (cf. [38]) ; de la même manière, on pourra formuler l’énoncé générique « le cardinal doit son obéissance au Pape » et non l’énoncé générique « le cardinal est vieux », bien que tous les cardinaux puissent être, et soient normalement, vieux, parce que seul le premier énoncé affirmerait un aspect définitionnel « du » cardinal (cf. [35]). Encore plus spectaculaire est le comportement « logique » de l’imparfait : si on peut enchaîner l’énoncé la police autoroutière arrêta Paul avec il roulait trop vite et non pas avec il roulait avec plaisir, bien qu’il soit tout à fait plausible que Paul roule avec plaisir au moment où les policiers l’arrêtent, c’est que la référence à un instant temporel dans le passé, seule, ne suffit pas : il faudra aussi un lien conceptuel entre les deux situations (cf. [36]) - le même lien conceptuel et logique qui serait mis en avant, après l’énoncé il la regarda, elle lui sourit par l’imparfait narratif deux mois après ils se mariaient et non par le plus « neutre » deux mois après ils se marièrent.

Là commencent les ennuis. Car on serait tenté de tout formaliser avec des lois logiques universelles ; mais comment distinguer alors, avec le seul quantifieur logique universel que fournit le calcul des prédicats, des expressions génériques pourtant linguistiquement très différentes comme le soldat français, les soldats français ou tous les soldats français ? En outre, il existe pourtant et heureusement des Italiens qui ne sont pas voleurs, des villages sans églises et des cardinaux qui n’obéissent pas au Pape : faut-il en résumer que la langue s’appuie nécessairement sur une sémantique conceptuelle faite de stéréotypes idéologiques et d’images d’Épinal ? Les tentatives de tout sauver en introduisant des systèmes logiques « avec exceptions » (cf. par exemple [16]) débouchent enfin sur des choses telles que des quantifieurs « quasi » universels, des « implicatures », des systèmes « non-monotones » ou déductifs mais seulement « par défaut », bref, de pures monstruosités logiques - car, malgré leur vernis logique, ces « formalisations » ne passent même pas l’épreuve minimale de logicité : l’élimination des coupures.

Tant pis, dira-t-on : la langue, produit hasardeux et contingent de l’histoire humaine, aurait la sémantique logique qui lui sied. Le besoin de se fier en dernière instance à une science grammaticale - une science des normes purement syntaxiques, propres à chaque langue, qui permettent de décider de la correction des phrases produites, voire de produire l’ensemble de toutes les phrases correctes - n’en ressortirait que renforcé. Ainsi, dira-t-on encore, ce n’est pas un hasard si c’est par des règles grammaticales syntaxiques, et non par des formalisations logiques, qu’on enseigne et qu’on apprend les langues. Or, pour étonnant que cela puisse paraître, c’est justement dans le cadre didactique de l’enseignement des langues, là où l’approche grammaticale semble pourtant bien « fonctionner », qu’apparaissent les points aveugles de la grammaire et, plus en général, d’une approche syntaxique « aveugle » aux phénomènes de la langue.

1.4 Encore un détour du côté du didactique - L’accord faussé de ceux participant au cours

Des problèmes que pose enseigner une langue

Qu’on imagine - l’exemple est tiré de notre expérience d’enseignement - un cours de langue italienne, donné à des élèves adultes d’origines linguistiques diverses, parmi lesquels un élève de langue maternelle française. La leçon du jour - les constructions pronominales de l’italien - est assez difficile : l’enseignant donnera donc d’une manière très étendue la définition grammaticale du pronom réfléchi ou réflexif et expliquera les cas de figure où la construction réflexive se présente (« action qui concerne le sujet, action dont le sujet est aussi l’objet », etc ), ainsi que ses contraintes syntaxiques - le fait, par exemple, qu’il faut la construire avec l’auxiliaire être. Pour illustrer tout cela il présentera finalement des exemples tirés du manuel ou inventés par lui : mi lavo (je me lave), mi alzo (je me lève), mi sveglio (je me réveille), etc. L’élève français, futé, remarquera d’une part que l’explication donnée par l’enseignant correspond à l’explication donnée par la grammaire française, d’autre part que les exemples choisis correspondent en français aussi à des constructions pronominales ; il acquiert donc l’assurance d’avoir « compris » comment fonctionnent les phrases pronominales, à savoir : exactement comme les phrases pronominales françaises, via une fonction qui traduit mot à mot les pronoms réfléchis français par les pronoms italiens (me $\rightarrow$ mi, te $\rightarrow$ ti, etc).

L’enseignant, toutefois, dans la suite de ses cours, prononcera aussi des phrases qui sont en italien absolument « normales », standard, comme mi bevo una birra (je me bois une bière). Une telle phrase, à coup sûr « familière » en français, ne troublera pas l’élève francophone : il ne la remarquera pas trop s’il est lui-même habitué à utiliser surtout le registre « familier », ou il pourra même apprécier le choix si c’est le type d’élève qui aime les enseignants « qui filent des trucs sympas à leurs élèves » ; il n’appréciera guère si au contraire il se convainc que l’enseignant fait passer pour des exemples d’italien « correct » des phrases de toute évidence « familières » : l’élève, qui pourrait être lui-même, par ailleurs, professeur de français, pourra même en arriver au jugement drastique que son enseignant est un mauvais enseignant, car il enseigne un italien familier, donc mauvais.

Les doutes de l’élève sur les qualités de son enseignant deviendront enfin une certitude quand celui-ci dira par malheur qu’une dame si è permessa - s’est permise - de faire quelque chose. L’erreur est grave et impardonnable, l’élève français le sait fort bien, car sur cette faute exemplaire et malheureuse les enseignants français de sa jeunesse auront insisté longuement : le participe passé ne s’accorde pas dans ce cas avec le pronom réfléchi « se » car celui-ci n’est pas un complément d’objet direct ; que l’enseignant italien, et avec lui absolument tous les Italiens, accorde en vérité le participe passé avec le sujet féminin, et ce à cause de la présence de l’auxiliaire être, cela ne sautera pas à l’esprit de l’élève français, car d’une part ses enseignants français lui auront dit que ce verbe être est en vérité un verbe avoir [10], d’autre part parce qu’il est naturel, pour lui comme pour tout Français scolarisé, qu’un cas litigieux concernant le participe passé « s’explique » par une histoire d’accord ou de non-accord avec le complément d’objet direct : problème négligé en italien car considéré comme banal, mais ô combien central, formellement, dans l’apprentissage scolaire de la langue française.

L’élève français résumera donc - au choix - que son enseignant est définitivement un illettré et qu’il vaudra mieux en changer, ou que la langue italienne est définitivement une langue moins logique que la langue française - puisqu’elle ne respecte pas ses propres principes grammaticaux. Sûr et fort de ses raisons, il dira donc, en parlant en italien à un interlocuteur italien, qu’une dame s’est permesso de faire quelque chose, et son interlocuteur, grand seigneur, passera outre, car il est normal que des étrangers commettent des fautes dans une chose aussi difficile que ... l’accord du participe passé avec le sujet du verbe être. Le malentendu est d’autant plus remarquable que la règle « française » de l’accord du complément d’objet direct n’est que la traduction d’une règle grammaticale italienne, introduite en France en tant que règle italienne par les poètes et enfin validée, non sans maintes discussions, par les grammairiens [11]. Si dans un cours d’italien pour étrangers l’enseignant ne ressent pas le besoin de s’arrêter sur l’accord du « c.o.d. » c’est qu’il ne s’agit pas d’un point sur lequel on aurait besoin de s’arrêter dans un cours d’italien pour Italiens - et on n’aurait pas besoin de s’y arrêter parce que dans une langue comme l’italien, où on entend toujours à l’oral l’accord en genre du participe passé, un enfant qui aurait acquis au moins la capacité de distinguer le masculin du féminin ne pourra jamais commettre une erreur pareille [12] Au contraire, c’est bien parce qu’il s’agit d’une « faute » que les natifs francophones commettent souvent et normalement que l’enseignant français d’un cours de français soulignera la nature fautive de phrases comme Cunégonde s’est permise de ; et si la plupart des grammaires françaises peuvent stigmatiser de telles phrases pourtant normales et cohérentes avec le fonctionnement de la langue française, c’est pour des raisons bien précises : par exemple, parce qu’il n’y a environ que soixante-dix verbes en français dont on puisse distinguer, à l’oral, l’accord du participe passé - et de cette poignée de participes passés « pertinents », à peine une dizaine (faite, dite, mise, prise ...) sont effectivement attestés dans l’activité normale des parlants (cf. [8, p. 150]).

L’accord du participe passé joue donc un rôle tout à fait marginal dans le fonctionnement effectif de la langue française, mais cela n’est aucunement en contradiction avec le rôle central que cette règle a acquis dans l’enseignement de langue française aux parlants français ; car ceux-ci savent déjà parler français quand ils reçoivent leur premiers cours de grammaire : ce qu’ils apprennent en vérité est le bon usage du français, c’est-à-dire à parler comme il faut quand il faut et à ne pas parler comme il ne faut pas quand il ne faut pas, bref, à ne pas mettre en avant leur âge, leur éducation, leur origine géographique ou sociale - et ce, en apprenant par exemple à parler sans accent ou sans régionalismes, à ne pas oublier le « ne » de la négation, ni l’accord du c.o.d., etc. Mais si un natif d’une langue apprend, par l’enseignement scolaire de cette même langue, à se distancier, si besoin est, de son propre niveau langagier familier et privilégié, et à s’approprier d’autres niveaux - premièrement ce niveau socialement très important qu’est le niveau qui se donne comme énonciativement « neutre » - un non-natif, au contraire, voudra sortir d’un niveau langagier purement « informationnel » pour arriver, dans la langue étrangère, à se mettre en avant énonciativement comme il le ferait dans sa langue maternelle, à entretenir avec les parlants natifs un rapport familier, fait d’exclamations, d’ironie, d’allusions. Dans un cours de langue, partant, les questions que poserait ou se poserait un élève non-natif de cette langue paraîtront aux natifs soit triviales soit dépourvues de sens ; inversement, les réponses qu’un enseignant peut donner aux questions posées par les natifs d’une langue à propos de cette même langue se révéleront tout à fait inutiles pour les élèves non-natifs.

Revenons maintenant à notre français italianisant. Ses déboires ne se limiteront pas à l’énonciation de phrases fautives mais toujours compréhensibles comme la signora s’è permesso (cf. supra, p.27). Il pourra se retrouver par exemple dans la situation de vouloir dire, en italien, qu’il « met ses chaussures » : il traduira donc mot à mot à partir du français, en se rappelant ce que l’enseignant lui a dit à propos de l’adjectif possessif en italien, à savoir « qu’il faut toujours faire précéder l’adjectif possessif par l’article : mon livre $\rightarrow$ IL mio libro ». L’énoncé français je mets mes chaussures sera donc traduit par l’élève par l’énoncé italien metto le mie scarpe, sans qu’il se rende compte qu’en ajoutant une chose aussi forte que l’article défini il dit beaucoup plus que quelque chose sur « ses chaussures » : il met en avant qu’il est question de ses chaussures, « les siennes », et pas celles de quelqu’un d’autre - effet de sens pourtant prévisible, vu que l’article défini fonctionne de la même manière en italien et en français. L’adjectif possessif français tout seul n’est pas là pour mettre en avant la possession, mais plutôt pour dire qu’il s’agit de chaussures qui sont « chez-moi », donc « sur moi ». C’est justement ce rôle que joue d’une manière essentielle le pronom réflexif italien, et c’est pour cette raison qu’en italien on se met les chaussures, on se regarde des films, on s’enlève le manteau, on s’emmène des amis. De fait, « se mettre » et « mettre » sont, en italien, deux verbes très différents avec deux sens très différents : se mettre quelque chose dessus, pour le premier ; mettre quelque chose quelque part, c’est-à-dire poser quelque chose, pour le second.

L’énoncé metto le mie scarpe que l’élève français prononce avec l’intention de traduire en italien l’énoncé français je mets mes chaussures se traduit donc bien autrement : je vais poser (quelque part) mes chaussures à moi, pas celles de quelqu’un d’autre. La phrase n’est pas fautive : elle a tout simplement un autre sens, qui sera communiqué « avec succès » à l’interlocuteur italien et retenu comme information par celui-ci si rien dans le contexte d’énonciation ne le pousse à soupçonner que le locuteur voulait en réalité dire autre chose. Le malentendu se boucle et s’installe définitivement en inversant les rôles : si l’italien dit mi metto le scarpe (je me mets les chaussures), l’allocutaire français, pourtant incapable, comme on vient de le voir, de produire cet énoncé car dupé par la traduction mot à mot, le comprendra dans son vrai sens ; il le comprendra, parce qu’en français aussi, pour peu que les enseignants français aient envie de l’accepter, la construction pronominale est utilisée, normalement et, surtout, productivement, pour « se faire des choses », et pas seulement pour « se boire des bières » : on s’approprie, on s’empare, on se saisit, on se permet ... Bien qu’il ait compris que son interlocuteur italien « se met les chaussures », le locuteur français répliquera tout de même que lui aussi rangera quelque part ses chaussures à lui.

Résumons : le professeur effectue une réduction de sa propre langue à l’ordre normal ou standard établi dans le manuel et dans la grammaire qu’il suit, ordre normal ou standard que le cours va recopier et reproduire dans les productions orales et écrites des élèves. La preuve du succès du cours résidera pour l’enseignant dans le fait que les élèves arrivent à rendre des exercices, oraux ou écrits, bien faits, en appliquant bien les règles et le vocabulaire enseignés aux situations, elles aussi standard et choisies par l’enseignant ou par l’auteur du manuel, qui sont censées résumer exemplairement « les usages de l’italien » : commander une pizza, écrire une carte postale de Venise, demander le chemin pour la Tour de Pise, dire à quel point la mafia est un problème, dire à quel point Fellini est un génie. L’enseignant se contentera donc d’obtenir des élèves qui réussissent à faire et à comprendre tout ce qui est évident - des élèves donc pas mauvais - et ne s’inquiétera pas du fait que ces mêmes élèves, puisqu’ils n’arrivent pas à faire ou à comprendre des choses non évidentes qu’après coup, jamais sans que l’enseignant les corrige ou leur explique, ne sont pas forts non plus ; cela ne l’inquiétera pas car ce ne sera pour lui qu’une preuve du fait que ses élèves ont besoin de continuer le cours - véritable dette inextinguible contractée vis-vis de l’enseignant et qui paraît normale, aux yeux des élèves aussi, puisqu’ils ne sont pas de langue maternelle et qu’ils ne peuvent donc pas « être aussi forts » que quelqu’un qui a appris la langue « naturellement ».

L’élève, à son tour, effectuera pendant le cours une traduction mot à mot de l’ordre syntaxique standard enseigné par l’enseignant dans l’ordre syntaxique standard auquel il sait par ailleurs réduire sa propre langue : content et convaincu de parler, toujours mieux, italien, alors qu’il est toujours en train de parler un mauvais français avec des mots italiens.

Le cours pourra donc « progresser » dans la pleine satisfaction de ses acteurs sans qu’il y ait de véritable « apprentissage » de la langue ni de véritable « enseignement ». Il suffirait pourtant de très peu pour sortir de cette impasse : par exemple, que l’enseignant souligne que « se faire des choses » n’est pas forcément familier en italien, pour ensuite mettre en avant ces usages français des pronoms réfléchis que les francophones ne « voient » pas forcément. Le professeur pourrait, en somme, apprendre à l’élève à faire de « bons détours » du coté de sa langue maternelle pour ensuite les éliminer et « rester » dans la langue apprise. Mais pour ce faire - pour que l’enseignant puisse remettre en question ce que l’élève croit comprendre de la langue qu’il apprend, ainsi que ce qu’il croit savoir de sa propre langue maternelle, pourtant pour lui « d’usage évident » - il faudra que l’enseignant apprenne à voir le cours et sa propre langue avec les yeux de l’élève.

Cela n’a, on s’en doute, rien de évident : un cours d’italien pour francophones ne pourra pas être fait de la même manière qu’un cours d’italien, par exemple, pour anglophones. Mais si la conception du « bon cours de langue » n’a rien d’évident, on aura acquis au moins une certitude : le cours le plus sûrement voué à l’échec pédagogique est justement ce cours qui paraît le plus transparent, à savoir le cours en immersion totale. Sorte de pièce de théâtre où l’on exige que l’enseignant « oublie » que ses élèves parlent d’autres langues et donne le même cours qu’il donnerait à des Italiens, voire à des enfants italiens - un « cours pour enfants italiens » qui refoule d’ailleurs le fait que les enfants italiens savent déjà parler italien - le cours en immersion totale se présente comme une véritable pantomime qui imite la situation, considérée comme « idéale », d’immersion dans la langue. Dans cette situation, grâce à un natif qui « joue le jeu » (l’enseignant), les élèves peuvent se flatter de parler italien parmi les Italiens, voire d’être italiens, alors qu’ils ne « sortent » jamais de leur langue - en somme, on fait semblant d’avoir atteint dès le début du cours ce qui devrait en être, au contraire, le but ultime : l’oubli, de la part de l’élève, de sa propre langue.

Mais le refus du cours en immersion totale présuppose un refus plus fondamental : le refus, voire le renversement, d’un certain point de vue sur la syntaxe de la langue, si bien illustré, par exemple, par les approches linguistiques « à la Chomsky ». On rejoint là, enfin, le tournant « géométrique » accompli par les logiciens mathématiques : ne pas voir dans l’agencement syntaxique le déploiement de règles qui permettraient de produire aveuglément, de haut en bas, l’ensemble des phrases correctes et de transmettre ainsi les « vraies informations », mais mettre en avant, au contraire, la possibilité de l’échec, de l’incompréhension. Cela implique qu’on voie, dans le discours du locuteur, la construction du bas vers le haut d’une stratégie qui lui permette de faire comprendre à son interlocuteur ce qu’il voudrait qu’il comprenne - ce qui n’est ni mécanique, ni trivial, exactement comme l’écriture d’un algorithme qui accomplirait une spécification donnée. Deviennent donc pertinentes les raisons qu’on a de transmettre certaines informations et, surtout, la manière dont on le fait.

Conclusion. - Du logique jusqu’à l’énonciation, la signifiance, le philologique

La syntaxe linguistique, comme jadis la syntaxe logique, se charge ainsi de sens, devient elle-même « sémantique » ; et si le tournant logique a été, comme nous l’avons vu, « géométrique », dans le sens qu’il a mis en avant ce qui est sensible au codage, le tournant linguistique analogue ne pourra qu’être stylistique, voire poétique et argumentatif, puisque c’est bien la partie créative, stylistique et argumentative de l’activité langagière qui est sensible à la paraphrase. La science linguistique achève ainsi le même renversement fondationnel vécu par les recherches logiques : dans les décennies où les logiciens prétendaient fonder, par une syntaxe aveugle, l’activité mathématique et ses « paradoxes », les grammairiens français, en confondant bon français et français correct, prétendaient réduire le style à la syntaxe et fonder, grammaticalement, l’activité littéraire et ses « perversions du bon français » : les phrases averbales de Loti, les luisants des parapets des Goncourt, le Monsieur Teste de Valéry qui se voit se voir, jusqu’au puriste Gide et à ce « maître d’erreurs » que devient, sous la plume de Léon Daudet, l’ancien maître de style Gustave Flaubert [13]. De cet échec fondationnel surgiront les recherches de Bally qui, tout en libérant la linguistique du « préjugé littéraire », mettra enfin en avant la nature éminemment stylistique de la syntaxe.

Ce tournant argumentatif est aussi, essentiellement, philologique, car c’est bien en philologie qu’on a compris - après les échecs de la méthode de Lachmann et depuis les recherches de Paris, de Bédier et de Pasquali, jusqu’aux travaux de Contini et ceux, plus récents, de Cerquiglini - que la compréhension d’un document ne passe pas par le simple « redressement » des erreurs de sa transmission ni par l’établissement de son texte prétendument vrai et original, mais au contraire par la construction - hautement non-triviale - d’un instrument qui permette d’interroger son véritable sens, donné par sa tradition et par sa vie dans les siècles, c’est-à-dire par ses interactions avec les autres documents ; cet instrument sera l’édition, littéralement, critique du document. Benveniste saura tirer, en linguistique, des conclusions éclairantes à partir des leçons des philologues, ainsi qu’un concept linguistique très philologique : celui d’énonciation [20] et notamment [41], qui met en avant le rapport nécessaire, et non pas de correspondance arbitraire - dans le sens de « conventionnelle » - entre signifiant et signifié. Rapport, interne à un système, de signifiance - qui ne peut que s’opposer à un rapport externe de complétude entre « structures ». Plus qu’entre deux héritages saussuriens, c’est enfin entre deux lectures décidément incompatibles de Saussure - entre un Saussure de la signifiance, d’une langue vue comme système [39, 40], et un Saussure d’une langue vue comme structure, dont on a grossièrement croqué, pour mieux s’en réclamer ou pour mieux le réfuter, un portrait posthume en structuraliste - que les résultats des logiciens permettent désormais de trancher, nécessairement.

Que la philologie et la poétique puissent finalement être à la linguistique ce que l’informatique est à la logique ne devrait pas étonner. Encore moins étonnant devrait être le fait que la possibilité d’une approche véritablement logique dans le langage soit finalement à chercher dans les travaux de ces linguistes qui, dans le sillage d’un Saussure « non-structuraliste » et de Benveniste, revendiquent un farouche anti-logicisme. Anti-logicisme, par exemple, au nom d’une sémantique du rythme non sémiotique, sérielle et poétique, ou anti-logicisme d’une sémantique énonciative non référentielle, polyphonique et argumentative - nous entendons les travaux du regretté Henri Meschonnic [14], d’Oswald Ducrot [23, 22, 21], mais aussi ceux, plus récents, de Marion Carel [11]. But that is another story.


Références

[1] V. M. Abrusci, Logica. Lezioni di primo livello, Rome, CEDAM, 2009.

[2] R. Amadio, P.-L. Curien, Domains and Lambda-Calculi, Cambridge Tracts in Theoretical Computer Science, Cambridge University Press, 1998.

[3] D. Apothéloz, « Le passé surcomposé et la valeur de parfait existentiel », French Language Studies, 20 : 105-126, 2010.

[4] M. Artigue, « Ingénierie didactique », Recherches en Didactique des Mathématiques, Vol. 9, 3 : 281-308, La pensée sauvage éditions, 1990.

[5] G. Berry, P.-L. Curien, « Sequential algorithms on concrete data structures », Theoretical Computer Science 20 : 265-321, 1982.

[6] G. Berry, Penser, modéliser et maîtriser le calcul informatique, Paris, Collège de France - Fayard, 2009.

[7] U. Besson, L. Viennot, « Modèles à l’échelle mésoscopique dans l’enseignement de la physique : exemples du frottement solide et de la pression dans les fluides », in [52], pp. 29-59, 2008.

[8] C. Blanche-Benveniste, Ph. Martin, Le français. Usages de la langue parlée, Leuven-Paris, Peeters, 2010.

[9] M. Bréal, Essai de sémantique (science des significations), Paris, Hachette, 1897.

[10] H. Caldas, « Les étudiants et le sens des forces de frottement solide. Le modèle de la brosse », Bulletin de l’Union des Physiciens, 822 : 471-485, 2000.

[11] M. Carel, L’entrelacement argumentatif. Lexique, discours et blocs sémantiques, Paris, Honoré Campion, 2011.

[12] N. Catach, Les Délires de l’orthographe, Paris, Plon, 1989.

[13] B. Cerquiglini, La parole médiévale. Discours, syntaxe, texte, Paris, Éditions de Minuit, 1981.

[14] A. Chervel, Histoire de la grammaire scolaire (1ère éd. Et il fallut apprendre à écrire à tous les petits Français), Paris, Payot, 1977/1981.

[15] J.-Cl. Chevalier, Histoire de la syntaxe. Naissance de la notion de complément dans la grammaire française (1530-1750), Genève, Droz, 1968.

[16] R. Clark, « Prima facie Generalizations », in Conceptual Changes, G. Pearce et P. Maynard eds., Dordrecht, D. Reidel, pp. 42-54.

[17] J.-L. Closset, « Les obstacles à l’apprentissage de l’électrocinétique », Bulletin de l’Union des Physiciens, 716 : 931-949, 1989.

[18] G. Contini, Breviario di ecdotica, Turin, Einaudi,1992.

[19] P.-L. Curien, « Playful, streamlike computation », Chengdu, Proc. Int. Symp. on Domain Theory, Kluwer, 2001.

[20] G. Dessons, Émile Benveniste, l’invention du discours, Paris, In Press, 2006.

[21] O. Ducrot et al., Les mots du discours, Paris, Éditions de Minuit, 1980.

[22] O. Ducrot, Le dire et le dit, Paris, Éditions de Minuit, 1980.

[23] O. Ducrot, Dire et ne pas dire, Paris, Hermann, 3e éd. aug., 1998.

[24] S. Feferman, In The Light of Logic, Oxford University Press, 1998.

[25] L. Foulet, « Le développement des formes surcomposées », Romania, 51 : 203-252, 1925.

[26] J.-Y. Girard, « Linear Logic », Theoretical Computer Science, 50 : 1-102, 1987.

[27] J.-Y. Girard, P. Taylor, Y. Lafont, Proofs and Types, Cambridge University Press, 1989.

[28] J.-Y. Girard, « Du pourquoi au comment : la théorie de la démonstration de 1950 à nos jours », in Jean-Paul Pier ed., Developments of Mathematics 1950-2000, Birkhauser, 2000.

[29] J.-Y. Girard, « Locus Solum », Mathematical Structures in Computer Science, 11 : 301-506, 2001.

[30] J.-Y. Girard, Le point aveugle, Cours de Logique, tome I, [Vers la perfection], Paris, Hermann, 2006.

[31] J.-Y. Girard, Le point aveugle, Cours de Logique, tome II, Vers l’imperfection, Paris, Hermann, 2007.

[32] J.-Y. Girard, « La logique comme géométrie du cognitif - Manifeste », in J.-B. Joinet ed., Comptes-rendus de la table ronde de la Sorbonne, Avril 2003, Paris, Presses de la Sorbonne, 2007.

[33] J.-Y. Girard, Titres et travaux, téléchargeable à la page web iml.univ-mrs.fr/ girard/Articles.html, février 2009.

[34] Cl. Gruaz, sous la direction de, L’accord du participe passé - Études pour une rationnalisation de l’orthographe française, quatrième fascicule, Limoges, Lambert Lucas, 2012.

[35] G. Kleiber, L’article LE générique. La généricité sur le mode massif, Genève, Librairie Droz, 1990.

[36] G. Kleiber, A.-M. Berthonneau, « Pour une nouvelle approche de l’imparfait : l’imparfait, un temps anaphorique méronomique », Langages, 112 : 55-73, 1993.

[37]G. Kleiber, Nominales. Essais de sémantique référentielle, Paris, Armand Colin, 1994.

[38] G. Kleiber, L’anaphore associative, Paris, Presses Universitaires de France, 2001.

[39] H. Meschonnic, Le signe et le poème, Paris, Gallimard, 1975.

[40] H. Meschonnic, Pour la poétique V - Poésie sans réponse, Paris, Gallimard, 1978.

[41] H. Meschonnic, « Seul comme Benveniste ou Comment la critique manque de style », Langages, 118 : 31-55, 1995.

[42] M. Meyer ed., Perelman, le renouveau de la rhétorique, Paris, Presses Universitaires de France, 2004.

[43] Fr.-J.-M. Noël, Ch.-P. Chapsal, Nouvelle grammaire française, Paris, Vve Nyon Jeune, 1823 (80 éditions jusqu’en 1889).

[44] C. Perelman, L. Olbrechts-Tyteca, Traité de l’argumentation. La nouvelle rhétorique, 1ere éd. Paris, Presses Universitaires de France, 1958 ; Bruxelles, de l’Université de Bruxelles, 1988.

[45] G. Philippe, Sujet, verbe, complément. Le moment grammatical de la littérature française (1890-1940), Paris, Gallimard, 2002.

[46] C. Plantin, « Sans démontrer ni (s’)émouvoir », in [42], pp. 65-80, 2004.

[47] M. Rogalski, « Les rapports entre local et global », in [52], pp. 61-87, 2008.

[48] S. Tronçon, Dynamique des démonstrations et théorie de l’interaction, Thèse de doctorat, Université Aix-Marseille I -Université de Provence, 2006.

[49] D. Trudeau, Les inventeurs du bon usage (1529-1647), Paris, Éditions de Minuit, 1992.

[50] L. Viennot, « Bilan des forces et lois des actions réciproques », Bulletin de l’Union des Physiciens, 716 : 951-970, 1989.

[51] L. Viennot, Raisonner en physique. La part du sens commun, Bruxelles, De Boeck Université, 1996.

[52] L. Viennot ed., Didactique, épistémologie et histoire des sciences, Paris, Presses Universitaires de France, 2008.

[53] M. Wilmet, Le Participe passé autrement : protocole d’accord, exercices et corrigés, Paris-Bruxelles, De Boeck-Larcier, 1999.


[1] La plupart des travaux et des articles publiés par Jean-Yves Girard ces vingt dernières années s’accompagne d’un grand effort de contextualisation rétrospective des résultats obtenus, effort qui a une visée non spécialement historique mais heuristique et, surtout, polémique, pour remettre en cause l’histoire de la logique telle qu’elle est enseignée par les « logiciens philosophes ». Cf. [28] et [33]. Ce dernier inclut une bibliographie exhaustive des travaux de Girard.

[2] Cf. notamment la thèse de Samuel Tronçon, [48]

[3] Bien sûr, certains logiciens (cf. par exemple [24]) poursuivront, et poursuivent aujourd’hui encore, des recherches pour « fonder les mathématiques », mais leur échec épistémologique, dans les faits, demeure : ces mathématiques abstraites et « trop infinies » qu’ils voudraient fonder se passent fort bien de leurs efforts fondationnels, voire les négligent tout à fait. Douady par exemple, dans son Algèbre et mathématiques galoisiennes, manuel de vraies mathématiques infinies s’il en est, dédie à peine une page (p. 21) à la « difficulté d’ordre logique » que représente la possibilité de considérer l’ensemble de tous les ensembles. Il rassure alors le lecteur en postulant « un grand fourre-tout » qui serait un Univers et non pas un ensemble, solution qu’il déclare préférer à la distinction entre classes et ensembles, et c’est tout ; il pose - et résout - donc le problème comme on l’aurait fait dans les années 1930, sans besoin d’aller plus loin : plus qu’un problème, une avocasserie grammaticale, qu’il aborde une fois pour toutes pour éviter qu’on lui cherche chicane, et dont il ne parle plus dans tout le reste du livre. Car il faut bien qu’il passe à ce qui intéresse le lecteur, c’est-à-dire les algèbres de Galois.

[4] D’ailleurs, effectuer une « coupure textuelle » comporte un risque : que le lecteur peu discipliné s’égare dans la lecture du texte auquel nous l’avons renvoyé, sans ne jamais terminer la lecture de notre texte.

[5] Cf. le Manifeste [32] du groupe LIGC (Logique et Interaction : vers une Géométrie de la Cognition) rédigé par Girard.

[6] Cf. le désormais classique [51].

[7] Nous renvoyons, sur la syntaxe, au fondamental [15] ; sur la sémantique, cf. [9], qui en introduit la notion même.

[8] Les exemples de sémantiques où la différence entre les « méta-niveaux » est illustrée par l’usage de langues différentes ou de polices de caractère différentes, ne font qu’exploiter, bien sûr, d’autres phénomènes de polyphonie linguistique.

[9] Cf. [48, pp. 51-82].

[10] Pour une systématisation d’école de cette « furieuse gymnastique de substitution d’avoir à être » [53, p.66], véritable tour de magie remontant à Port-Royal, cf. la grammaire scolaire de Noël et Chapsal [43], qui établit la règle scolaire de l’accord du c.o.d. avec le participe passé telle qu’on la connaît.

[11] C’est le poète Clément Marot, cité inlassablement par tous les grammairiens en guise d’autorité, qui donne pour la première fois la règle en France, sous François I : « Enfants, oyez une leçon : / Noste langue ha ceste façon / Que le terme qui va devant / Voluntiers regist le suivant / [...] / Il faut dire en termes parfaictz : / Dieu en ce monde nous ha faictz / Fault dire en parolles parfaictes / Dieu en ce monde les ha faictes / Et ne faut point dire en effect : / Dieu en ce monde les ha faict ; / Ne nous ha faict pareillement, / Mais nous ha faictz, tout rondement. / L’italien, dont la faconde / Passe les vulgaires du monde / Son langage ha ainsi basty / En disant : Dio noi à fatti » (c’est moi qui souligne). Cf. [49, p. 51] et [12, p. 183].

[12] Nous entendons, bien sûr, le cas de l’accord du participe passé avec le sujet en présence du verbe être, et le cas de l’accord avec le c.o.d. en présence du verbe avoir - mais dans ce dernier cas seulement avec les c.o.d. des troisièmes personnes, qui sont bien les seuls à exiger, linguistiquement, l’accord avec le participe passé. On dira toujours et seulement, en italien et en français, qu’une lettre on l’a écrite, alors qu’une dame, aussi bien française qu’italienne, pourra dire il m’a séduit ou il m’a séduite, la variante avec accord étant même le cas marqué.
Quoi que les grammaires françaises en disent, ces cas d’accord ou de non-accord entre le participe passé et les c.o.d. situés entre le sujet et le verbe ne sont absolument pas à confondre avec ceux du type la chose que j’ai fait/faite, où la position du que, avant le sujet de la proposition relative, n’entraîne nullement un accord nécessaire avec le participe passé ; l’accord est obligatoire seulement dans une phrase comme De l’aventure que dite ai / Li Breton en firent un lai, mais dans ce cas c’est l’antéposition, poétique, du participe passé qui force son accord (comme dans une fois faite, cette chose ne peut pas être défaite...), et certainement pas la présence du que, qui n’est ni nécessaire ni suffisante pour que l’accord s’impose nécessairement - on a par exemple Passée a la première porte (Jehan Maillart), Un certain loup, dans la saison / Que les tièdes zéphyrs ont l’herbe rajeunie (La Fontaine), Les grands, ensorceléz par subtilles querelles, / Ont remplis leurs esprits de haines mutuelles (D’Aubigné), et Corneille, dans une œuvre aussi mal écrite que le Cid (1636), écrit aussi bien Mon père est mort, Elvire, et la première épée / Dont s’est armé Rodrigue a sa trame coupée que Ces tristes vêtements, où je lis mon malheur / Sont les premiers effets qu’ait produit sa valeur. En somme : on a bien sûr le droit de dire, en italien comme en français, l’erreur que j’ai commise, mais qu’on sache que c’est une option, linguistiquement marquée et finalement aussi marqué que, mettons, j’ai commise une erreur. Marque de mise en relief familière ou poétique ou autre (cf. [3], ainsi que [25], article séminal de Lucien Foulet), c’est évidemment la mise en discours qui tranche. Cf. par exemple l’accord du participe passé que l’on trouve dans la phrase sans un mot j’ai été à la cuisine faire le repas puis doucement, je lui ai demandé pourquoi il avait faite cette chose interdite par notre seigneur de façon pourtant bien claire (http://forum.aufeminin.com/forum/co...), où se mêlent effort de style correct voire, pour un forum électronique, maladroitement surcorrigé (je suis perturbée, perdue[...] j’ai peur que notre seigneur ne bénisse plus notre foyer. hors des considérations religieuses, y’a [sic] t-il un moyen biologique pour faire cesser ce comportement ?[...]), ton religieux et pathétique, habitude probable de l’usage modal du passé surcomposé, (pourquoi il avait eu faite cette chose interdite $\rightarrow$ pourquoi il avait faite cette chose interdite).

Qu’on remarque d’ailleurs que le passé surcomposé, ce point aveugle de la langue française qu’il faut cacher parce que les grammairiens ne sauraient le voir, entraîne tout naturellement, lui, l’accord du participe passé dans les propositions relatives : ce n’est qu’un petit indice, mais l’expression surcomposée avec accord la chose que j’ai eu faite est, par exemple, 43 fois plus attestée sur google.fr que l’expression la chose que j’ai eu fait, alors que, inversement, c’est l’expression simplement composée non accordée la chose que j’ai fait qui est plus attestée (36 fois plus) que l’expression la chose que j’ai faite. Il y a peut-être là matière à réflexion.

[13] Léon Daudet, « Un maître d’erreurs », L’Action française, 24 mai 1912. La « querelle sur le style de Flaubert » sera déclenché en 1919 par l’article de Robert « Flaubert écrit mal », qui provoquera un réponse au titre humoristique (« Louis de Robert écrit bien ») de la part de Roubaud, les réponses piquées de Souday et, surtout, les célèbres interventions de Thibaudet et de Proust. Sur tout cela, cf. [45], surtout pp. 47-66.

[14] Les œuvres respectives du linguiste et poète Henri Meschonnic et du logicien et mathématicien Jean-Yves Girard présentent d’ailleurs des points de contact très frappants, et de style - notamment polémique - et, surtout, épistémologiques : mise en avant du sujet, respectivement, du poème et de la preuve, critique des « points aveugles » de l’« essentialisme » et du signe, approche épistémologique éminemment poétique, rôle analogue qu’ils attribuent, l’un à la traduction, l’autre à la programmation. Meschonnic est d’ailleurs excellent historien de la logique, et Girard grand lecteur de poésie : ils ne se citent pourtant jamais.

L’invisibilité, jusqu’à aujourd’hui, de ces points de contact aux yeux de ceux qui travaillent dans le sillage de Meschonnic d’un côté et de Girard de l’autre, est un autre indice, assez flagrant, de la fâcheuse distance qui sépare encore les recherches les plus rigoureuses sur la logique et sur le langage.

Logique et Interaction : vers une Géométrie de la Cognition

Cet opus augural rassemble des communications issues des différentes rencontres du groupe LIGC [Logique et Interaction : vers une Géométrie de la Cognition] au sein duquel collaborent des philosophes et des scientifiques d’horizons divers, rassemblés dans une réflexion philosophique commune sur l’impact des métamorphoses récentes de la logique dans le contexte de son dialogue avec l’informatique théorique.
Le groupe LIGC promeut une analyse critique des points de vue « réalistes » prédominants en philosophie de la logique, en philosophie des sciences et dans les approches logiques de la cognition, au profit d’une philosophie interactionniste de la rationalité.