explorations - nouveaux objets - croisements des sciences

L'auteur

Jean Lassègue

CNRS UMR 8178
Institut Marcel Mauss
EHESS-LIAS
190-198 avenue de France
75244 Paris cedex 13
France

Page auteur

jean [chez] lassegue.net

Référence

Jean Lassègue, « Le formalisme hilbertien est-il soluble dans la culture ? », Influxus, [En ligne], mis en ligne le 4 septembre 2012. URL : http://www.influxus.eu/article434.html - Consulté le 19 septembre 2017.

Le formalisme hilbertien est-il soluble dans la culture ?

par Jean Lassègue

Résumé

Les pages qui suivent voudraient essayer de montrer que l’attitude consistant à rapporter une production scientifique donnée au « contexte culturel » dans lequel elle est apparue historiquement donne lieu à des incohérences telles qu’il est nécessaire d’envisager autrement la question de l’apparition d’une production scientifique originale. On essaiera de montrer que la seule façon de sortir de ces impasses consiste à ne pas isoler la production scientifique pour, dans un deuxième temps, analyser ses rapports avec un contexte culturel donné. Il s’agit dès lors d’envisager la production du sens en général comme un tout différencié et de voir comment la différenciation opère de façon spécifique dans le champ de la production scientifique. L’exemple que je compte privilégier est celui du formalisme hilbertien mais pourrait être généralisé à d’autres cas.

Abstract

The relationship between a scientific production endowed with conceptual necessity and its cultural supposedly contingent context raise such dilemmas that it is preferable to give up this epistemological distinction altogether. To exemplify this thesis, we take the case of Hilbertian formalism in which all mathematical propositions were supposedly able to be written and show how it is better understood as the gradual diffusion of the alphabetical mode of expression in replacement of a mixed logographic-diagrammatic mode in the mathematical domain. Viewed from this angle, Hilbertian formalism is not opposed to its cultural context even though it keeps all the mathematical properties it was designed for.

1. L’attitude à l’égard du langage et la notion de « contexte culturel »

La représentation que nous nous faisons du rapport que nous entretenons avec les langues est habituellement une représentation utilitaire : que ce soient celles que chacun de nous parlons de façon immémoriale comme langue maternelle ou celles que nous employons plus ou moins facilement quand il s’agit de langues apprises au cours de la vie, les langues seraient avant tout des moyens utilisés en vue de fins pratiques qu’elles soient sociales (dialogues entre les humains) ou descriptives (caractérisation des objets). Généralement, dans le contexte des sciences exactes et des sciences de la nature, cette attitude utilitaire à l’égard des langues naturelles condamne à brève échéance leur usage : passé le premier moment pédagogique nécessaire pour rendre un concept accessible à celui qui en ignore tout, les langues naturelles auraient le défaut d’être irrémédiablement diverses, réfractaires à toute détermination univoque et sujettes à des évolutions incontrôlables. Bref, les langues naturelles seraient sinon toujours des obstacles à la connaissance proprement scientifique, du moins de simples auxiliaires pédagogiques, car elles seraient des instruments globalement inadaptés pour ce que les sciences cherchent à penser, à savoir les déterminations univoques des objets ou complexes d’objets. D’où aussi le fait qu’à côté des langues dites « naturelles » viendraient s’ajouter, à la suite d’efforts considérables, des langues « artificielles » pour pallier les défauts des premières : universelles, univoques et invariantes, les langues artificielles viseraient ce que les langues naturelles ne seraient pas parvenues à viser, à savoir une description universelle, univoque et invariante des objets de la nature.

Ce faisant, force est de reconnaître que les langues artificielles, en reprenant à leur compte mais par d’autres moyens la capacité descriptive des langues naturelles, conserveraient bien toutefois un trait capital de celles-ci, celui de leur pouvoir de signification. Retenir du langage le seul pouvoir de signification tout en éliminant les langues dans leur diversité, somme toute trop imparfaites pour cet usage, voilà ce qui ferait partie du programme philosophique mis à l’ordre du jour depuis que Platon a considéré la signification comme ce qui tire son origine de l’essence conceptuelle de l’objet, susceptible d’être pensée en dehors de toute langue particulière et dans une parenté sans cesse à élaborer avec le nombre et la mesure.
Cette attitude, qui s’inscrit dans la tradition vénérable de la rationalité classique et moderne, a pour effet d’isoler les productions scientifiques des autres formes d’expression humaine, reléguées au rang de simple « contexte » autour de la signification conceptuelle. Par contexte, il faut entendre ici ce qui, situé hors du domaine du concept, n’en possède pas les traits d’universalité, d’univocité et de stabilité et qui de ce fait, est relégué au rang de contingence. La culture en général relèverait finalement de cette contingence, tout comme les langues naturelles mais aussi les sujets psychologiques et toutes les circonstances historiques particulières dans lesquelles sont plongées les vies des sujets. Les langues artificielles, dans la mesure où elles poursuivent des buts conceptuels, n’en relèveraient pas et tenteraient de parvenir, grâce à des ressources énigmatiques et non précisées à ce jour, à s’extraire de ce contexte contingent. La culture deviendrait de ce fait une réalité biface : contingente pour certaines expressions, elle déploierait cependant une nécessité à travers l’histoire quand on parviendrait à préciser ce qui relève en elle du concept.
Pourtant, on devine tout de suite le grave défaut d’une telle représentation dans laquelle le partage entre nécessité et contingence introduit une rupture passant à l’intérieur même des sujets et des expressions linguistiques qu’ils utilisent. En particulier, le rapport que peuvent entretenir les dimensions nécessaire et contingente dans la vie des sujets devient immédiatement énigmatique. Un tel rapport oblige en effet à supposer d’étranges facultés psychologiques ou tout au moins des dispositions spécifiques dont la nature reste obscure, susceptibles d’articuler l’une à l’autre nécessité et contingence : on imagine immédiatement les difficultés sans nombre qui attendent ceux qui tenteraient d’envisager les rapports entre des dimensions que, par définition, on a commencé par déclarer hétérogènes. Entre un type d’expression linguistique à visée conceptuelle et le « contexte culturel » dans lequel cette expression conceptuelle se manifeste, il ne peut y avoir de rapport véritable et c’est finalement deux histoires qu’il faudrait finir par concevoir : une histoire contingente énumérant empiriquement des événements et une histoire nécessaire, celle de l’auto-déploiement de la rationalité conceptuelle, qui n’entretient plus de rapports véritables avec le temps de la contingence. On en arrive à cette conséquence paradoxale « parmi beaucoup d’autres » selon laquelle le gros du travail des historiens des sciences consisterait à replacer dans un « contexte culturel » des expressions conceptuelles dont les auteurs ont passé le plus clair de leur temps à tenter de s’extraire. Si c’était le cas, l’histoire des sciences ne vaudrait évidemment pas une heure de peine.
Il faut envisager les choses autrement et commencer par se retenir de réintroduire plus ou moins subrepticement des séparations étanches entre des expressions conceptuelles et des expressions qui ne le seraient pas. Il faut partir du fait premier qu’il y a un seul matériau expressif, qu’il faut commencer par l’envisager comme un tout divers et articulé et que celui-ci est de ce fait susceptible de différenciations et de recompositions selon des modalités à décrire, dont l’une d’entre elles peut être de nature mathématique. L’exemple que nous allons tenter d’analyser pour ce faire est celui du formalisme hilbertien.

2. L’exemple du formalisme hilbertien

Pourquoi avoir choisi cet exemple ? Il a un double avantage : directement conceptuel puisqu’il vise, dans son projet, à décrire de façon univoque la totalité des propositions mathématiques, il suppose également une réorganisation profonde des moyens linguistiques mis au service d’un tel but. A la croisée du concept et du langage, cet exemple a ainsi l’avantage de poser très directement la question des rapports entre nécessité et contingence au sujet de la notion de « contexte culturel ».
On se rappelle qu’Hilbert distinguait plusieurs points de vue sur les mathématiques : d’une part, une mathématique à contenu qui portait sur des concepts exprimables sous la forme de propositions (y compris en langue naturelle) et qui respectait la relation de signification entre le signe et ce à quoi il renvoie ; d’autre part, des extensions idéales de ce premier domaine, extensions dans lesquelles le transfini pouvait intervenir soit dans les propositions soit dans l’application de règles logiques (en particulier le tiers exclu) et pour lesquelles la relation de signification risquait d’être prise en défaut dans la mesure où des paradoxes pouvaient surgir en elles. Le formalisme tel que l’entendait Hilbert était avant tout conçu comme une méthode visant à rendre mathématiquement licite les propositions ou règles logiques ayant recours au transfini. Pour ce faire, le formalisme consistait à ne prendre en considération que les caractères écrits des expressions, en faisant l’hypothèse qu’en s’en tenant à la réplique graphique des propositions et règles logiques, réplique intégralement manipulable sans faire usage du transfini, il serait possible de faire un usage consistant de toutes les propositions et règles logiques, qu’elles appartiennent à la mathématique à contenu ou à ses extensions transfinies. L’usage des extensions transfinies s’en trouverait immédiatement justifié puisqu’il y aurait toujours moyen de prévenir l’apparition de paradoxes dissimulée dans la relation de signification élargie au domaine transfini. Pour s’assurer de cette consistance, il fallait introduire une nouvelle distinction de méthode, résidant entre le plan graphique propre à la mathématique formelle et le plan du jugement méta-mathématique, exclusivement saisi de la vérification de la conformité de l’enchaînement des caractères avec les règles explicites mises en œuvre dans les déductions. Ce plan méta-mathématique partageait avec la mathématique à contenu au moins un trait : toutes les deux s’en tenaient à un contenu finitaire, la mathématique à contenu en se reposant sur des signes pour examiner sémantiquement des concepts, la méta-mathématique en examinant la syntaxe des caractères au moyen d’une pensée que l’on suppose finitaire dans son déroulement. Ainsi le passage par le niveau du formel permet-il d’abandonner la relation de signification propre aux signes et d’introduire une coupure radicale entre syntaxe et sémantique reposant sur l’hypothèse selon laquelle la pensée est un processus finitaire portant sur l’examen de caractères graphiques.
Le formalisme fait donc sortir de la relation de signification proprement dit qui suppose l’adéquation au moins potentielle du signe au concept qu’il vise et fait pénétrer dans le domaine de ce qu’il faudrait appeler le fonctionnement syntaxique de la pensée pure. On sait quel avenir sera réservé à ce nouveau cadre théorique à partir du moment où l’hypothèse d’un fonctionnement syntaxique de la pensée sera rendue effective sous la forme des langages de programmation.

3. Le contexte culturel et le formalisme hilbertien

Comment rendre compte de la transformation considérable opérée par la perspective mise en place par Hilbert ? On peut expliciter cette démarche en montrant, d’un point de vue strictement épistémologique, ce qu’elle rend possible : mise en place du programme de Hilbert, questions formelles de consistance, de complétude et de décision, numération de Gödel, machine de Turing, etc. On peut aussi plonger la démarche de Hilbert dans un contexte culturel qui ne se limite pas à l’histoire de la logique mathématique, en envisageant en particulier le formalisme comme une nouvelle étape dans l’histoire de l’écriture. C’est ce que nous allons tenter d’esquisser plus bas. Mais attention : établir le fait que Hilbert emprunte à la culture dans laquelle il est immergé un certain nombre de traits typiques ne vise pas du tout à diminuer l’originalité mathématique de Hilbert en uniformisant tous les types de production culturelle. Il s’agit au contraire de montrer qu’en utilisant les ressources graphiques propres à la culture à laquelle il appartient, Hilbert diffuse certains traits graphiques jusque dans la mathématique, ce qui transforme en retour l’outil alphabétique lui-même en le dotant d’une forme mathématique qu’il n’avait jamais eue auparavant. Il ne faut donc pas du tout en revenir à une conception dans laquelle le contexte culturel serait conçu comme un substrat inerte et les mathématiques comme une forme nécessaire qui ne dépendrait pas de ce substrat : il s’agit au contraire de penser la transformation de la culture à partir des pratiques spécifiques qui, à un moment donné, la font basculer dans une nouvelle forme. Bref, la perspective rendue possible par le travail de Hilbert transforme la culture et n’en est ni un produit ni une émanation parce que ce travail participe à la transformation de la culture en changeant les conditions mêmes de sa production. Le seul principe requis pour ce type d’analyse d’histoire culturelle des sciences est donc : « Il y a un matériau signifiant, investi par différentes pratiques qui le modifie en retour » et tout autre principe (la différence entre nécessaire et empirique, a priori / a posteriori, par exemple) a seulement une pertinence régionale.

4. Le formalisme et l’histoire de l’écriture

Commençons par une comparaison très générale entre écriture des langues et écriture mathématique, du seul point de vue qui nous intéresse ici, à savoir le point de vue graphique. Par graphique, nous entendons les moyens qui permettent de capter sur une surface matérielle des flux perceptibles par les sens et dotés de signification.

4.1 Logogramme et alphabet

L’écriture des langues vise à capter quelque chose du flux sonore de l’oralité, ce « quelque chose » pouvant être différent selon les systèmes d’écriture employés pour sa retranscription. Cette retranscription a pour base un répertoire de caractères qui peuvent être de deux types, soit schématique soit alphabétique. Dans le type schématique, deux cas sont possibles : soit les formes schématiques ont en elles-mêmes une forme reconnaissable (comme les hiéroglyphes égyptiens représentant des êtres vivants ou des parties du corps) soit une forme conventionnelle standardisée (comme les logogrammes cunéiformes ou les idéogrammes chinois) captant des éléments sonores ou de signification (morphème, lemme ou notion). Dans le type alphabétique, intervient un répertoire fini de formes conventionnelles standardisées (des lettres) qui captent soit des syllabes (dans le cas des alphabets logo-syllabiques) soit des phonèmes (dans le cas des alphabets vocalo-consonantiques) correspondant à certaines positions physiques de l’appareil phonatoire.
L’écriture mathématique n’a pas pour but propre de capter quoi que ce soit de l’oralité des langues naturelles, même si l’écriture mathématique fait un usage constant, mais accessoire, de l’écriture de ces langues. L’écriture mathématique vise plutôt à capter une certaine idéalité du diagramme ainsi que le caractère formel de la preuve, le plus souvent de manière conjuguée, en vue de faire apparaître des invariants de structure. Si maintenant on compare l’écriture des langues et l’écriture mathématique, on se rend compte que l’écriture mathématique fait intervenir essentiellement des ressources qui relèvent du premier type d’écriture, celui qui se fonde sur la reconnaissance de formes schématiques ayant en elles-mêmes une forme soit directement reconnaissable soit conventionnelle. Autrement dit, l’écriture mathématique entretient avec l’écriture logogrammatique des rapports qu’il faut expliciter.
Les formes schématiques utilisées en mathématiques sont en effet soit directement reconnaissables quand il s’agit de « dessins » ou de « diagrammes », soit conventionnelles quand des caractères conventionnels sont utilisés, caractères que l’on classe dans la catégorie générale des logogrammes, c’est-à -dire des marques graphiques qui représentent directement une notion, comme $\pi$, $\sqrt{}$ ou =. Les logogrammes mathématiques s’étendent du non-alphabétique (il s’agit de tous les symboles fonctionnels qui peuvent s’ajouter au corpus des caractères au fur et à mesure de l’avancée des mathématiques comme « $\leq$ », « $\sqrt{}$ » ou « $e$ ») au quasi-alphabétique dans le cas des nombres (en particulier, les chiffres hindo-arabes et leur base décimale). Dans ce dernier cas, le répertoire des numéraux forme en effet un ensemble à part dans la mesure où il s’agit d’un répertoire fini où la base sert de règle de production pour toutes les nouvelles formations, selon un principe équivalent à la production de mots dans une langue à partir de l’alphabet. Mais il ne s’agit pas de lettres à proprement parler puisque chaque numéral isolé représente la signification d’un nombre (le « 2 » représente tout ensemble de deux éléments, qu’il s’agisse d’unités, de dizaines ou de tout autre multiples de dix), ce qui n’est pas généralement le cas des lettres. Qu’en français par exemple, la lettre « a » prise isolément fasse autre chose que de représenter un son mais désigne aussi directement une préposition et une forme verbale reste évidemment un cas particulier.
Qu’en est-il alors du point de vue formaliste dans cette comparaison ? Du fait de l’élimination de toute perspective diagrammatique et du fait de l’adoption de caractères alphabétiques d’un certain type au sein du formalisme, la notion de traduction formelle assure le passage du logogrammatique à l’alphabétique dans le domaine de l’écriture mathématique : le traitement finitiste de marques sans signification relève en effet de la même démarche que l’utilisation d’un alphabet. Autrement dit, si l’on s’en tient à la comparaison avec l’écriture des langues, le point de vue formaliste serait celui qui ferait basculer d’un premier système d’écriture fondé sur le diagramme et le logogramme à un second système d’écriture, fondé sur l’alphabet. De ce point de vue, toute « arithmétisation de la logique » suppose, au préalable, une phase antérieure d’alphabétisation du nombre.

4.2 Alphabet des langues et alphabet formel

Il devient alors possible de comparer l’alphabet des langues et l’alphabet d’un système formel parce que, dans les deux cas, on néglige tout aspect diagrammatique autre que celui de la reconnaissance des marques-caractères, c’est-à -dire tout ce qui relève du « dessin » ou du « schéma », bref tout ce qui est apparenté, dans un sens encore peu défini, au géométrique. Les marques sans signification d’un système formel sont bien dès lors comparables à des lettres telles qu’on les trouve dans les alphabets des langues, lettres dépourvues de signification intrinsèque et dont le regroupement permet la constitution d’un lexique lui-même régi par des règles grammaticales (les deux niveaux n’étant d’ailleurs pas étanches). Cette comparaison, pour avoir une certaine portée, doit cependant aborder deux problèmes : le nombre des marques employées et leur traitement spécifique.
Au premier abord, les cas de l’alphabet des langues et de celui de l’alphabet d’un système formel semblent diverger quant au nombre des marques. En effet, l’alphabet d’une langue est composé d’une seule liste de marques, elles-mêmes en nombre fini (nos 26 lettres par exemple). Au contraire, dans un système formel, on a affaire à plusieurs listes de marques (variables, constantes, signes logiques) qui, outre qu’elles sont indépendantes les unes des autres, sont composées d’un nombre infini dénombrable de marques puisqu’il est toujours possible d’en ajouter de nouvelles (de type $p_1$... $p_n$) en les indexant sur les entiers. Il semble donc que, du point de vue du nombre des marques, la comparaison tourne court et que les deux alphabets ne soient pas identifiables. Cependant, il faut faire intervenir la notion de traitement des marques pour aller jusqu’au bout de la comparaison.
Pour ce faire, on doit distinguer trois types de traitement des marques dans le cas de l’écriture des langues orales. Comme l’a montré Havelock [1], le principe de l’écriture des langues reposait à l’origine sur la règle « un signe pour un son », ce son étant généralement identifiable à une syllabe. Dans la constitution des syllabaires (akkadien ou sumérien par exemple), ce principe a eu pour conséquence une multiplication des marques très peu propice à la production de systèmes stables de marques, manipulables par une communauté, même réduite, de scribes. D’où l’apparition ultérieure au cours de l’histoire de deux autres types de traitement des marques dont le principe de base repose sur la réduction du nombre des signes : les alphabets consonantiques (tels qu’ils existent dans les langues sémitiques) et l’alphabet vocalo-consonantique (grec, puis étrusque et latin). Le cas des alphabets consonantiques est pleinement mis en lumière par le cas de l’écriture des langues sémitiques et de leurs racines trilitères. Cette écriture alphabétique hérite des syllabaires antérieurs la volonté de capter les syllabes de la langue mais s’en démarque quand elle se trouve confrontée au problème de leur prolifération. Pour limiter celle-ci, les lettres écrites y sont réduites à un petit nombre, la conséquence étant que ce que l’écriture gagne du point de vue du nombre des marques employées en devenant un alphabet, elle le perd en univocité, chaque lettre devenant susceptible de capter plusieurs syllabes et donc plusieurs sens [2]. Les lettres écrites, en devenant ambiguës, sont en elles-mêmes imprononçables et c’est le locuteur qui, par son intervention active dans le discours, lève leur ambiguïté et reconstitue les syllabes des mots de la langue au moyen de sons qui font vibrer les cordes vocales [3]. Le cas de l’alphabet vocalo-consonantique (tel qu’il est illustré au premier chef par l’alphabet grec) est différent : il ne vise pas à capter les syllabes de la langue, c’est-à -dire des unités sonores porteuses d’une esquisse de sens, mais les phonèmes, c’est-à -dire les composants sonores sans signification présents dans la langue [4]. Ce deuxième type d’alphabet est le plus général parce qu’il peut s’adapter à toute langue [5], son principe de traitement ne consistant pas à imiter des syllabes linguistiques mais à isoler des sons physiques tels qu’ils sont produits par les différents éléments anatomiques modifiant la colonne d’air du souffle. Seul ce deuxième type d’alphabet, en se donnant pour principe théorique de reproduire tous les sons quels qu’ils soient (en tenant évidemment compte des contraintes anatomiques liées à l’appareil phonatoire humain), et non d’imiter des syllabes préexistantes dans les langues, découple a priori le problème de la captation de l’oralité de celui de la signification. C’est ce découplage qui distingue les systèmes d’écriture vocalo-consonantiques de tous les autres systèmes d’écriture.
Ce découplage a ainsi tendance à orienter le système en question vers la captation d’éléments en dehors de toute considération de sens et cela a trois conséquences au moins. Premièrement, un tel système d’écriture ne cherche pas exclusivement à rendre compte de l’oralité mais, virtuellement, contient la captation de toute pratique susceptible de se présenter sur un mode combinatoire d’éléments. Deuxièmement, un tel système permet l’automatisation de la reconnaissance des marques parce que celles-ci renvoient uniformément à tous les composants sonores sans s’arrêter à la distinction signifiante et subjective de la syllabe : il s’agit donc de marques intégralement publiques dont l’aspect prononçable ou non est secondaire puisqu’elles ne nécessitent pas l’intervention d’un locuteur pour être reconnues. Troisièmement, et c’est le point le plus important dans la comparaison avec l’alphabet des systèmes formels, la question du nombre des marques employées par l’alphabet devient accessoire parce qu’il n’a pas besoin d’être fixé une fois pour toutes pour se tenir au plus près des syllabes d’une langue donnée puisque la notion de syllabe n’est plus pertinente ; selon les cas, il devient possible de rajouter des marques pour prendre en considération des sons qui n’étaient pas pris en compte dans un autre contexte linguistique. Aussi, à la limite, le nombre des lettres pourrait être potentiellement infini (dénombrable) parce qu’il est toujours possible d’en rajouter si le besoin se présente. L’alphabet d’un système formel représente donc un passage à la limite mathématique d’un cas virtuellement présent dès la mise en place progressive des systèmes d’alphabets vocalo-consonantiques, c’est-à -dire dès les débuts de l’alphabet grec.
Ces trois traits permettent de saisir au moins trois des points par rapport auxquels l’alphabet a pu être réinvesti mathématiquement dans la perspective formelle.
Premièrement, le formalisme a cherché à développer un alphabet qui soit indépendant de la pratique logogrammatique antérieure des mathématiques jouant un rôle analogue à celui d’un syllabaire. Deuxièmement, l’alphabet d’un système formel est conçu, comme l’alphabet vocalo-consonantique [6], en vue d’une mécanisation du traitement de ses marques, selon la définition nouvelle que Hilbert propose de la pensée comme traitement technique d’un matériau signifiant disponible publiquement et non plus comme une capacité d’intuition du sens élaboré par un Sujet parlant. Troisièmement, le problème du nombre des marques devient accessoire parce que le traitement qui les accompagne ne vise pas l’imitation d’une signification qui préexisterait aux axiomes.
Il y a donc bien des traits communs aux alphabets des langues naturelles et à celui de la mathématique formelle et on peut retracer historiquement la façon dont l’alphabétisation progressive a conquis non seulement certaines langues naturelles mais aussi le domaine mathématique.

Conclusion

En rapportant, du point de vue graphique, le cas de la constitution d’une axiomatique formelle à des considérations plus larges sur la culture alphabétique dans laquelle ce projet a vu le jour, il ne s’agissait pas de diminuer ou de relativiser la perspective formelle telle qu’elle est construite par Hilbert. Il s’agissait tout au contraire de montrer que Hilbert était parvenu à diffuser certains traits graphiques jusque dans la mathématique et à transformer en retour l’outil alphabétique lui-même en le dotant d’une forme mathématique qu’il n’avait jamais eu auparavant : l’émergence de l’informatique en devient possible. C’est dans cette mesure que la perspective ouverte par Hilbert institue bien une étape complètement nouvelle dans l’histoire de l’écriture. De ce point de vue, les mathématiques ne sont pas extérieures à la pratique sémiotique, elles en sont partie prenante, comme tout ce qui relève des signes. Du point de vue de la méthode en histoire des sciences, il s’agit donc de se placer d’un point de vue dans lequel le matériau signifiant, toujours présupposé, se différencie en modalités qui, pour certaines, tendent à une pure expression conceptuelle reposant sur un matériau signifiant réduit à la reconnaissance de son tracé tandis que d’autres, en respectant la nature de signe du matériau signifiant, font jouer les parentés que le matériau signifiant entretient avec la nature vocale des langues. C’est par le biais de l’étude de ces mouvements de différenciation et de recomposition qu’une histoire des sciences, et en particulier des mathématiques, devient possible.


[1] E. A. Havelock, The Literate Revolution and Its Cultural Consequences, Princeton University Press, Princeton, 1982.

[2] E. A. Havelock, Origins of Western Literacy, Toronto, The Ontario Institute for Studies in Education, 1976 : « Les systèmes syllabiques antérieurs avaient au moins tenté d’assigner chaque son à un signe seulement. La multiplication des signes les plongea dans l’embarras. L’écriture sémitique réduisit de façon draconienne le nombre des signes à 22, ce qui eut un prix : il fallut assigner un signe à plusieurs sons linguistiques et attribuer la responsabilité du choix pertinent au lecteur. »

[3] E. A. Havelock, Origins of Western Literacy, Toronto, The Ontario Institute for Studies in Education, 1976, p. 68 : « En somme, le système syllabique se fonde sur le principe consistant à symboliser chaque son distinct véritablement prononcé dans une langue donnée. »

[4] Comme le fait remarquer E. A. Havelock, Origins of Western Literacy, Toronto, The Ontario Institute for Studies in Education, 1976, p. 80-81 : « Les systèmes antérieurs au système grec avaient pour but d’imiter la langage tel qu’il était parlé dans les unités syllabiques. Le système grec sauta au-delà du langage et de l’empirique. Il rendit possible de concevoir le fait d’analyser l’unité linguistique en ses composants théoriques, la colonne d’air vibrante et l’action que la bouche imposait à cette vibration. »

[5] En effet, il n’y a rien à rajouter du point de vue strictement sonore à l’alphabet vocalo-consonantique et la captation de l’intonation et de l’accent ferait revenir à la situation antérieure de captation d’éléments de signification comme la syllabe. Il vaudrait donc mieux appeler l’alphabet dit complet « objectif » au sens où il se situe au niveau purement sonore sans faire intervenir de regroupements de nature linguistique (syllabe, intonation, accent par exemple), et ne nécessite pas l’intervention de la catégorie de sujet parlant.

[6] Comme le fait remarquer E. A. Havelock, Origins of Western Literacy, Toronto, The Ontario Institute for Studies in Education, 1976, p.17 : « Un système d’écriture efficace ou développé est un système qui ne pense pas du tout. »

Logique et Interaction : vers une Géométrie de la Cognition

Cet opus augural rassemble des communications issues des différentes rencontres du groupe LIGC [Logique et Interaction : vers une Géométrie de la Cognition] au sein duquel collaborent des philosophes et des scientifiques d’horizons divers, rassemblés dans une réflexion philosophique commune sur l’impact des métamorphoses récentes de la logique dans le contexte de son dialogue avec l’informatique théorique.
Le groupe LIGC promeut une analyse critique des points de vue « réalistes » prédominants en philosophie de la logique, en philosophie des sciences et dans les approches logiques de la cognition, au profit d’une philosophie interactionniste de la rationalité.