Du test de Turing au test de Borges (rêverie machinale)

Alan Turing est connu pour deux idées accolées à son nom : la machine et le test. La machine de Turing est une représentation abstraite des fonctions calculables, que j’ai déjà évoquée ici. Le test de Turing est une expérience de pensée formalisée vingt ans plus tard (Turing 1950). Il s’agit d’une épreuve visant à déterminer si une machine peut être qualifiée d’intelligente. Un jury de volontaires engage une conversation écrite à l’aveugle, avec un interlocuteur situé dans une autre pièce. Après un certain temps, le jury doit dire si l’interlocuteur en question est un humain ou une machine. Le jour où le jury se trompera et qualifiera d’humain l’ordinateur capable de tenir une conversation en langue naturelle, alors le test sera réussi pour la machine et celle-ci pourra être qualifiée d’intelligente.

Cette idée assez simple a fait couler beaucoup d’encre. Certains ont nié qu’un tel test révèle quoi que ce soit de l’intelligence de la machine, quand bien même elle parviendrait à tromper le jury humain. C’est grosso modo la position de John Searle (et de la contre-expérience de l’esprit dite de la « chambre chinoise  ») : parvenir à une simulation parfaite de la compréhension n’est pas parvenir à la compréhension elle-même (Searle 1980). Je n’ai jamais compris ce contre-argument. Si une machine est programmée de telle sorte qu’elle simule parfaitement toute conversation en langue chinoise, alors cette machine maîtrise parfaitement la langue chinoise et il n’y a rien à chercher « ailleurs » – comme si le sens était une propriété mystique du langage ou de la conscience, ou comme s’il n’était pas intrinsèquement contenu dans les échanges de deux locuteurs.

D’autres ont considéré que jamais une machine ne parviendra à cet exploit, à moins d’être une copie pure et simple d’un cerveau humain, ou inversement que certains esprits humains limités par une pathologie mentale et/ou une éducation sommaire pourraient être confondus avec une machine. Chaque année a lieu un concours international de Turing (prix Loebner), mais aucune machine n’a réussi le test à ce jour. Après une phase d’enthousiasme dans les années 1960-1980, les chercheurs en intelligence artificielle ont éprouvé par la suite toute la difficulté d’une reproduction de la langue dans sa dimension lexicale, syntaxique mais surtout sémantique. Si le sens n’a rien de mystique, son implémentation physique dans un système non-vivant est une autre paire de manches.

Pour ma part, je suis persuadé que nous construirons des artefacts capables de réussir le test de Turing. Il me semble que c’est une conséquence logique de l’approche physicaliste de l’esprit, selon laquelle la pensée humaine et ses diverses propriétés émergent des connexions « aveugles » entre des neurones « stupides ». Le potentiel d’action d’un neurone individuel ou le canal ionique d’une synapse n’est ni plus ni moins intelligent que la porte logique d’un transistor. Autrement dit, quand on aura craqué ce code neural comme on l’a fait avec le code génétique, on ne devrait pas avoir de difficulté particulière à le transposer dans un réseau de neurones artificiels susceptible de recevoir un apprentissage – celui de la langue ou un autre. Le fait que le cerveau dispose d’un langage continu (chimique) et non seulement discret (électrique) n’est pas une objection très redoutable (on peut discrétiser une fonction continue, et en dernier ressort la matière comme l’énergie ou les forces sont discrètes). L’inscription corporelle de l’esprit ne me semble pas plus insurmontable – les sens proviennent des mêmes neurones « aveugles » que l’esprit, donc ils sont potentiellement réplicabes.

Cette machine de Turing se rapprochera énormément du vivant dans sa simulation – l’échec de la première IA me semble l’échec d’une approche formelle / structurale d’un langage détaché de l’esprit lui-même détaché de la vie. Le succès de la prochaine vague d’IA dépendra probablement de l’implémentation d’une approche évolutive et développementale dominée par des algorithmes d’auto-apprentissage par essai-erreur. Dans le cas imaginé par Turing, une bonne théorie de langage humain et de son émergence spectaculaire dans les cinq premières années de vie formera la base de programmation et de socialisation de la machine.

En réalité, c’est plutôt la suite à laquelle je réfléchis. Quand on se penche sur la machine de Turing ayant réussi son test, on se limite généralement à sa compréhension du langage. Or, il me semble que cela définit la première étape : la même machine devrait exceller en production du langage. Je pense à la bibliothèque de Babel imaginée par Borges, l’ensemble infini de tous les livres possibles (de 410 pages en l’occurrence). Un réseau de machines de Turing pourrait réellement entreprendre la rédaction de tous les textes possibles à partir d’une langue donnée, en évitant au passage des variations inutiles car insensées dans cette langue (de simples superpositions de lettres et de mots produisant des mots / des phrases vides de sens). Ou bien, si la machine prend la forme d’un être artificiel doté de sens et donc d’une expérience mémorisée du monde, elle pourrait être conduite à rédiger une sorte d’autofiction. Peut-être que des grands prix littéraires viseront un jour à départager les machines les plus créatives en poèmes ou nouvelles. Ou bien, comme Kasparov face à Deeper Blue et X3D Fritz, à mesurer la résistance de l’inventivité humaine.

Références citées : Searle J (1980), Minds, brains and programs, Behavioral and Brain Sciences,  3, 417-457 ; Turing A (1950), Computing machinery and intelligence, Mind, LIX, 36. 

1 commentaire:

  1. "Un réseau de machines de Turing pourrait réellement entreprendre la rédaction de tous les textes possibles à partir d’une langue donnée"

    Impossible puisque ces textes sont en nombre infini. Je vous renvoie à Chomsky qui définit la compétence linguistique comme la capacité à produire un nombre infini d'énoncés doués de sens à partir d'un ensemble fini de mots et d'un jeu fini de règles grammaticales.

    Les travaux de Selmer Bringsjord devraient vous intéresser. Il pense que le test de Turing n'est pas adapté - les concepteurs de chatbots utilisent des astuces pour simuler une conversation mais leurs machines n'ont aucune compréhension - et devrait être remplacé par ce qu'il appelle le test de Lovelace - d'après Ada Lovelace voir http://fr.wikipedia.org/wiki/Ada_Lovelace - qui met au défi une IA de créer des histoires originales. La narration plutôt que la conversation en somme.

    Un de ses papiers :
    http://www.rpi.edu/~faheyj2/SB/SELPAP/DARTMOUTH/lt3.pdf
    Son site : http://www.rpi.edu/~brings/

    RépondreSupprimer