Deprecated: Unparenthesized `a ? b : c ? d : e` is deprecated. Use either `(a ? b : c) ? d : e` or `a ? b : (c ? d : e)` in /home/wwwapp/spip/ecrire/inc/utils.php on line 2697
Influxus : explorations, nouveaux objets, croisements des sciences - Influxus
explorations - nouveaux objets - croisements des sciences
Fiche Mot

Virtula networks

ARTICLES

L’informatique aux interfaces des savoirs

1. L’origine de la machine numérique à états discrets : entre mathématiques et philosophie.

Au cours des années 1930, un croisement très riche entre le questionnement philosophique sur les fondements des mathématiques, la réflexion sur la cognition humaine et les techniques mathématiques nouvelles, est à l’origine de l’ordinateur moderne. A l’époque, les machines à calculer existent déjà, de celle de Babage (1850) aux machines analogiques comme le « Differential Analiser » de V. Bush (1927), mais c’est le problème épistémologique de la complétude déductive des formalismes axiomatiques, qui amènera à l’invention des concepts fondamentaux du calcul digital moderne.
L’analyse logique de la preuve chez Herbrand (sa thèse, 1930, Ens-Sorbonne) contient une première définition de la fonction récursive primitive (calculable au sens fort). Gödel (1931) et Turing (1936) enchaineront en donnant une réponse définitive au questionnement fondationnel de l’époque : est-ce qu’un calcul de signe potentiellement mécanisable et sans référence au sens permet de décider tout énoncé mathématique ? Peut-on en démontrer la cohérence par des arguments « finitaire » et formels ? Et, en fait, le raisonnement humain est-il
complètement réductible à un système de signes potentiellement mécanisable ?
Pour répondre à de telles questions philosophiques, ces grands mathématiciens durent préciser ce que veut dire « potentiellement mécanisable ». Autrement dit, pour construire des propositions indécidables ils durent préciser ce que veut dire décidable ou calculable en général, en donnant une formalisation mathématique (la classe des fonctions récursives) de la notion informelle de calcul. Turing, en particulier, en propose une définition particulièrement originale, sa Logical Computing Machine (LCM), idée abstraite d’un « homme dans l’acte minimal de calcul » (une remarque de Wittgenstein), et définit formellement par...