Affichage des articles dont le libellé est Théorie de l'information. Afficher tous les articles
Affichage des articles dont le libellé est Théorie de l'information. Afficher tous les articles

Quelques réflexions sur l'information

Etant ces temps-ci au milieu de nulle part, et doté d’une bien médiocre connexion, voici quelques réflexions inactuelles sur l’information. Il s’agit de commentaires sur certaines propositions que l’on entend souvent à son sujet. L’information n’est pas ici prise dans son sens informatique ou physique, elle désigne plutôt quelque chose comme nos unités d’échange cognitif sur le monde, au sens où notre esprit a évolué pour acquérir, mémoriser / oublier, transmettre et produire ce que l’on peut appeler génériquement des informations. Chacun échange en permanence des informations ainsi définies. Le terme a aussi une connotation plus spécialisée par laquelle je commence (l’information sur le monde actuel telle que les médias modernes l’ont définie).

L’information des amateurs ne vaut rien, informer est un métier. De nombreux blogs et sites sont animés par des professionnels de la presse, de la communication en général (c’est le cas de celui que vous lisez). Et en tout état de cause, sur des sujets qui les passionnent, les « amateurs » ont des connaissances plus étendues et plus précises que des professionnels généralistes. Quand il s’agit d’exprimer des opinions, et non des connaissances, les uns et les autres sont à égalité. Cet argument reflète souvent l’avis d’une corporation (journalistes) qui vit très mal la remise en cause de son statut économique et symbolique à l’ère numérique. Mais cela ne signifie pas que les professionnels de l’information sont inutiles : on attend simplement d’eux un travail à valeur ajoutée par rapport à ce que peut produire l’intelligence collective du réseau (c’est-à-dire le fait qu’il y aura toujours des sources d’information gratuite, amateur et de qualité parmi les multitudes).

La pluralité de l’information n’a pas attendu Internet. C’est vrai et faux. En démocratie, la presse est libre et la diversité des opinions s’exprime. Mais les canaux de communication avant l’Internet étaient coûteux : les médias les plus influents, financés par l’État ou la publicité, ne pouvaient se dire totalement indépendants de leurs ressources économiques. Ils étaient surtout rares, et dans cet espace-temps limité, ils laissaient donc souvent la place à la parole dominante des experts ou des représentants « officiels » de certains secteurs d’opinion. Internet a facilité et généralisé l’expression des individus et des communautés vers un public plus ou moins large, lui-même fragmenté (l’opinion publique devient l’opinion des publics). La baisse du coût de production de l’information signifie un accroissement sans précédent de la pluralité de ses sources.

Nous sommes noyés dans l’information, cela provoque l’insignifiance. Cette noyade ne concerne que ceux qui sont disposés à perdre pied. Car sauf à prendre l’Internaute pour un simple d’esprit, il est relativement simple d’organiser ses flux d’information par la syndication RSS, le following Twitter, le criblage des fils d’actualité par mots-clés, le suivi des sources pertinentes, le partage sur réseaux sociaux, etc. Internet produit certes la profusion de l’information, mais aussi bien les outils de sélection au sein de cette abondance.

L’Internet nous prive de notre mémoire individuelle, nous y puisons les informations que nous retenions jadis. Sans doute, mais à quoi bon encombrer sa mémoire de données qui deviennent peu à peu immédiatement et universellement accessibles ? Dans la plupart de nos tâches intellectuelles, ce n’est pas la mémorisation mais l’agilité et la créativité qui font la différence, c’est-à-dire notre capacité à rassembler, trier, synthétiser l’information, pour finalement produire une interprétation qui nous est propre. Socrate déjà pestait contre l’écriture qui allait priver les humains de leur mémoire en stockant des informations ailleurs que dans le cerveau. On s’en est remis…

Les informations fausses et vraies deviennent indiscernables, Internet est le tombeau de la vérité. Ceux qui se souviennent la première guerre du Golfe (par exemple) souriront en lisant cela : presse, radio et télévision ont déjà produit un reflet du monde qui n’est nullement la vérité du monde (la réalité), mais une sélection, une interprétation voire une manipulation d’une infime partie du réel. Reste à s’accorder sur la notion même de « vérité » dans nos propositions de langage : dans bien des cas, cette vérité n’existe pas ou, ce qui revient au même, elle varie selon l’opinion subjective des locuteurs. Des jugements objectifs renvoient à une méthodologie éprouvée et partagée définissant cette objectivité. Ce qui est finalement le cas le plus rare de nos échanges : car l’humain parle assez peu des faits, beaucoup des interprétations de ces faits (donc du ressenti ne prétendant pas au statut d’une vérité objective, universelle, indépendante du locuteur-observateur).

Tout vaut tout, l’information anarchique sur Internet alimente le relativisme et le nihilisme de l’époque. Cette conviction est souvent associée à la précédente. Elle émane parfois de personnes pour qui l’information doit être hiérarchisée par des « experts en vérité et en qualité », son sens et sa portée devant être fixés une fois pour toutes. En fait, Internet ne produit pas mais reflète la diversité de nos points de vue dans la plupart des domaines : celle-ci n’est pas une idéologie (le « relativisme »), mais d’abord une réalité, à savoir que les gens ne partagent pas les mêmes goûts, les mêmes opinions, les mêmes valeurs. Certains s’en effraient car ils sont nostalgiques des ordres symboliques homogènes ; d’autres s’en félicitent, car ils préfèrent l’instabilité et l’évolutivité des représentations individuelles ou collectives.

Plus ça change, plus c’est la même chose : Internet est un épiphénomène anodin, au bout du compte. On peut penser le contraire. Si Socrate a bu la ciguë, si Bruno a terminé sur le bûcher, si l’imprimerie a été soumise aux lettres de cachet et si la plupart des puissances publiques ou privées continuent aujourd’hui encore de pratiquer le secret et/ou de contrôler et manipuler l’information, c’est bien que cette dernière occupe une place de premier plan dans les rapports de pouvoir. Les canaux de communication ne sont donc jamais indifférents au cours de l’histoire : l’existence d’un réseau d’information décentralisé, individualisé et libre constitue une nouveauté importante de notre temps. Et ce réseau est un enjeu de pouvoir, comme en témoignent les remises en cause régulières de sa neutralité en démocratie, ainsi que son contrôle direct en tyrannie.

L’information n’est pas la connaissance, on peut être surinformé et ignorant. Cela me semble exact, mais il faut être plus précis. L’information est une condition nécessaire mais non suffisante de la connaissance : on ne peut connaître un sujet sans information directe (par la pratique) ou indirecte (par l’observation de la pratique) sur celui-ci. Si la sur-information ne garantit pas la compréhension, la sous-information produit toujours l’ignorance. L’enjeu principal des décennies à venir, pour l’individu comme pour les collectivités, sera d’exploiter les flux d’information toujours plus massifs afin d’en produire des connaissances. 

Darwinisme quantique et physique de l’information

L’humanité évolue par transfert, modification et sélection de l’information socioculturelle. La vie évolue par transfert, modification et sélection de l’information biologique. Se pourrait-il que l’univers évolue par transfert, modification et sélection de l’information quantique ? C’est, en substance, l’hypothèse que défend depuis quelques années le groupe du physicien Wojciech Hubert Zurek et dont une expérience récente suggère la validité (Burk et al, Phys. Rev. Lett. 104, 176801, voir aussi le commentaire sur PhysOrg). Ce modèle est connu sous le nom de « darwinisme quantique ».

Je vais tâcher d’introduire ces notions… en espérant rester compréhensible ! Comme le faisait remarquer Feynman avec son humour célèbre, ceux qui affirment avoir compris la physique quantique manifestent ainsi que ce n’est pas décidément le cas. Je crains de ne pas échapper à la règle… (Pour des synthèses plus fiables sur le darwinisme quantique par l’auteur de cette hypothèse, voir Zurek 2008, Zurek 2009)

Petit rappel. En physique quantique, le comportement des particules diffère considérablement de ce que nous observons des corps en physique classique, c’est-à-dire à l’échelle macroscopique. Ces particules sont les électrons, photons, bosons, quarks formant les protons et neutrons, des dizaines d’autres dont l’existence est très courte. Ce sont des quantifications discrètes de la matière, de l’énergie et des forces, d’où leur nom de quanta (singulier quantum) : ce qui nous apparaît comme continu est discontinu. Les particules ne peuvent être décrites à proprement parler comme des ondes, ni comme des corpuscules (ponctuels). Il est impossible de connaître simultanément leur position et leur vitesse. L’observation dans un appareillage ad hoc va « figer » leur comportement. La description adéquate du niveau quantique de l’univers est mathématique et se fait le plus souvent dans un espace vectoriel (un espace euclidien de nature complexe, où l’on calcule le comportement d’une fonction). L’approche déterministe de la physique classique laisse place à une estimation probabiliste (évaluation des amplitudes de probabilité représentées par une matrice, c’est-à-dire la probabilité qu’a la particule considérée de se trouver dans un état particulier) : il ne s’agit pas d’une carence de la théorie ou de l’expérimentation, mais du comportement réel des particules élémentaires. « Le vieux » joue bel et bien aux dés, selon une formule célèbre de la correspondance d’Einstein à Max Born.

Tout cela est éminemment contre-intuitif, pas seulement pour le commun des mortels mais aussi bien pour les plus grands physiciens. Einstein, dont un des articles de 1905 fut pourtant à l’origine de l’approche quantique de l’électromagnétisme (photon de lumière), passera les dernières années de sa vie à tenter sans succès de conjurer l’étrangeté quantique au profit d’une vision plus « réaliste » supposant des « variables locales » que nous ignorerions. On a expérimentalement démontré depuis que les réserves du père de la relativité n’étaient pas fondées (inégalités de Bell et expériences conséquentes), que l’infiniment petit est bel et bien infiniment étrange pour nos sens, évolutivement adaptés pour vivre dans un autre niveau de la réalité. La superposition quantique indique par exemple que les différents observables (comme la quantité de mouvement, la position) peuvent avoir des valeurs différentes au même instant t. L’intrication quantique signale que deux particules liées mais spatialement séparés communiquent instantanément car elles forment un seul système, au sens où la modification de l’une (par exemple une observation) entraîne instantanément celle de l’autre, même à des années-lumière de distance. Tout cela ne relève plus de la spéculation (comme dans la période des fondateurs, 1900-1930), mais de l’expérimentation depuis que l’on peut manipuler des particules isolées ou assemblées dans des conditions ad hoc (que ce soit des photons monochromes, des électrons, des atomes froids, des condensats de Bose-Einstein, etc.).

Parmi les nombreuses questions qui intéressent les physiciens se trouve celle de la transition d’un ensemble infini d’états quantiques plus ou moins probables vers un état classique « certain », localisé et familier, celui que la physique newtonienne décrit, où la superposition, l’intrication et autres propriétés étonnantes ont disparu. La théorie dominante est celle de la décohérence : toute interaction avec un élément de l’environnement E (y compris bien sûr un appareillage d’enregistrement) rend les fonctions d’ondes du système incohérentes (déphasées ou orthogonales), ce qui signifie que la probabilité de superposition de ces fonctions devient nulle, en d’autres termes que le système prend un « état pur » (observable et cohérent du point de vue macroscopique) par « effondrement de la fonction d’onde » (aussi appelée « réduction du paquet d’onde », cette image venant de la mécanique ondulatoire de Broglie et Schrödinger). C’est ici qu’intervient le « darwinisme quantique » de Zurek.

Zurek repart principalement de trois postulats de la physique quantique (un peu plus, mais on simplifie ici en allant à l’essentiel) : (i) il y a des états quantiques superposés (représentables dans un espace vectoriel), (ii) leur évolution est unitaire (évolution dans le temps de l’équation de Schrödinger, pour un système non relativiste), (iii) les mesures mènent aux mêmes résultats (nous observons tous une même réalité objective, dans un labo ou dans la rue). Il ajoute un autre axiome évident, mais ignoré des manuels : (o) L’univers est fait de systèmes.

Comme nous l’avons dit, on a mis en avant l’idée que toute observation (iii) provoque un « effondrement de la fonction d’onde » et réduit un système quantique au seul état observable. Zurek suggère une formulation différente de la question : dans les états quantiques possibles, certains sont plus résistants à l’environnement que d’autres. Il les nomme des « pointer states » (que l’on pourrait traduire par « états accessibles à une observation »). Par exemple si vous regardez un arbre, et que cette expérience classique doit être traduite en termes quantiques, vous observez plutôt l’interaction du rayonnement (en lumière visible) sur la matière de l’arbre, c’est-à-dire en dernier ressort un « environment-induced state » de l’arbre (« état induit par l’environnement ») résultant lui-même d’une « einselection » (« sélection par l’environnement » dans les états possibles, aussi appelée « supersélection » par Zurek). Pour le dire autrement, si l’on prend un système quantique (S) et son environnement (E), les états de S vont plus ou moins modifier E (ou des sous-ensembles de E, des fragments F) et ce sont les états les plus robustes qui finissent par dessiner les observables de E. Cela mène Zurek à parler de « l’environnement comme témoin ».

Comment s’opère cette empreinte d’un système quantique sur son environnement ? Zurek propose une relecture de la théorie des probabilités sur laquelle je ne m’étendrai pas ici. En deux mots, l’approche « subjective » et familière de Laplace (nous ne savons pas quel côté de la pièce sera sélectionné) est remplacée par une approche objective déduite de la symétrie des états intriqués (décomposition de Schmidt des produits tensoriels d’un vecteur en deux ensembles orthogonaux). Cela permet de retrouver la règle de Born mais en évitant l’hypothèse initiale ad hoc de l’additivité des probabilités.

Physiquement, Zurek donne à l’information un statut assez nouveau dans notre vision du réel puisque l’environnement devient un « canal de communication » des états quantiques les plus redondants. C’est en cela que le darwinisme quantique est une théorie de l’information.

Comme le note Zurek (2008 23), « le spectre de l’information hantait et hante encore la physique ». Un état classique est « réel », doté d’une existence objective au sens où des observateurs ignorants les uns des autres parviennent aux mêmes observations indépendantes. Mais l’information ne paraît pas « réelle » de la même manière : elle désignait ce que l’observait connaît subjectivement, « un simple reflet de l’état réel, non pertinent pour la physique ».

Cette vision est appelée à être dépassée, nous dit Zurek. « Dans une approche quantique, l’information et l’existence deviennent interdépendants. L’état réel est défini et rendu objectif parce que nous savons de lui – par l’information. » Il cite mot célèbre de son professeur, John Archibald Wheeler : « it from bit » (Wheeler, élève d’Einstein, fut aussi le professeur de Feynman quand celui-ci formalisa la quantique en intégrales de chemin, à la base de ses futurs diagrammes, et de quelques autres pointures de la physique quantique, voir Misner et al 2009). Et un autre de Landauer : « L’information est physique ». Ces auteurs sont parvenus à la même conclusion par des approches différentes – l’analyse des trous noirs chez Wheeler, de l’entropie et du démon de Maxwell chez Landauer (voir Leff et Rex 2003).

Hugh Everett est célèbre pour avoir mené la physique quantique à son terme logique, en portant sur elle un autre regard que celui de la génération des fondateurs : au lieu de chercher d’une manière ou d’autre autre à interpréter le monde quantique par le monde classique (de nos sens), libérons notre esprit et faisons plutôt des hypothèses novatrices sur le monde classique depuis l’évidence du monde quantique. La conclusion d’Everett sur les « mondes parallèles » est néanmoins restée très obscure, bien qu’un certain nombre de physiciens la défendent (voir par exemple Deutsch 2003, Lepeltier 2010 pour une introduction vulgarisée) : le chercheur défendait l’idée que chaque état quantique définit un univers et que les univers se divisent en permanence. Le paradoxe du chat de Schrödinger devenait : dans un univers le chat est mort, dans un autre il est vivant. Et nous-mêmes existons dans un grand nombre de mondes parallèles.

L’approche élégante de Zurek reprend la première intuition d’Everett (partir du quantique et trouver la meilleure explication du classique, fut-ce au détriment de nos catégories familières) en évitant soigneusement la seconde, qui est contre-intuitive, peu testable et induit des complications inutiles. Il parle d’une « interprétation existentielle » : « Son essence est une définition opérationnelle de l’existence objective des états physiques : pour exister, un état doit, au grand minimum, persister ou évoluer de manière prédictible malgré l’immersion du système dans son environnement. La prédictabilité est la clé de la sélection induite par l’environnement (einselection) ».

Toutes ces considérations – si vous avez eu le courage de les suivre jusqu’ici ! – paraissent bien abstraites et lointaines Pourtant, la physique quantique sous-tend un nombre croissant de nos réalisations : transistor et semi-conducteurs, laser, ensemble des nanotechnologies appelées à modifier nos manipulations de l’énergie, de la matière et à l’information, états mésoscopiques, etc. Sans la compréhension quantique de l’électron, vous ne seriez pas en train de me lire. Toutes ces révolutions de la vie quotidienne induites par la technoscience forment un moteur prépondérant d’évolution des sociétés, mais nous y sommes généralement aveugles – au sens où l’on observe une sous-information chronique concernant la technique et la science, de sorte que les débats concernent des enjeux souvent plus futiles.

L’information quantique apportera son lot de bouleversements concrets – le travail est par exemple avancé sur des solutions de cryptographie quantique inviolable, car fondées sur le spin des particules et leur modification d’état en cas d’interception par un tiers, ou bien inversement sur la factorisation rapide de nombres très grands permettant de casser aisément des codes réputés inviolables en calcul classique. (Quand on sait la place du secret dans tout édifice politique, ce genre d’innovation ne sera pas neutre.) On peut se représenter ces questions d’information quantique à partir du démon de Maxwell. Dans une expérience de l’esprit, le père de l’électromagnétisme conçoit un être imaginaire (le démon) qui commande le sas entre deux compartiments d’une boite contenant un gaz. Ce démon laisse passer les molécules les plus rapides du sas B vers le sas A. Comme la température est fonction de la vitesse moyenne des molécules, il parvient ainsi à violer les lois de la thermodynamique. Si Landauer (et non Brillouin comme l’écrit Wikipedia) a exposé l’impossibilité physique du démon (en raison du travail nécessaire à l’effacement intermédiaire de sa mémoire), il n’en reste pas moins que cette expérience de pensée trace une voie de recherche, celle de la manipulation de l’information à son niveau le plus pertinent par les moyens les plus efficaces (moindre action, moindre temps et moindre énergie).

Un certain nombre d’observateurs pensent ainsi que l’accélération du savoir, c’est-à-dire la croissance de plus en plus rapide des explications du réel et des applications sur le réel, ouvre une ère qui rendra caduque bon nombre de nos questionnements « classiques ». Car il ne s’agira plus de s’adapter à la nature des hommes et des choses, mais bien de réécrire cette nature dans son langage intime, celui de l’information. On peut ainsi laisser divaguer son imagination. Par exemple, l’information étant définie comme le contraire de l’entropie – et l’irréversibilité de cette dernière comme la base physique de la flèche du temps –, penser un monde où l’information tend vers la préservation d’un présent éternel…

Références citées : Deutsch D (2003, 1997), L’étoffe de la réalité, Cassini ; Leff HS, Rex AF (2003), Maxwell’s Demon 2. Entropy, classical and quantum information, computing, Institute of Physics Pub ; Lepeltier T (2010), Univers parallèles, Seuil ; Misner CW et al (2009), John Wheeler, relativity, and quantum information, Physics Today 62 (4) 40-46 ; Zurek WH (2008), Relative states and the environment: Einselection, envariance, quantum Darwinism, and the existential interpretation, arXiv:0707.2832 ; Zurek WH (2009), Quantum Darwinism (arXiv:0903.5082), Nature Physics 5, 181-188.

L’information, c’est la vie. Et le code, c’est la loi

Le biologiste américain Craig Venter et son équipe ont mis au point la première bactérie dotée d’un génome synthétique, c’est-à-dire d’un génome assemblé pièce par pièce (Gibson et al 2010). Cette découverte, attendue depuis quelques années, a été abondamment commentée. Elle ouvre des horizons immenses, que certains jugeront enthousiasmants et d’autres inquiétants.

Côté enthousiasme, on peut par exemple imaginer la conception de bactéries ou d’algues synthétiques conçues pour capter le CO2 atmosphérique ou pour produire du biocarburant. Côté inquiétude, et si la méthode est efficacement généralisée à des organismes complexes, il n’y aurait pas d’obstacle de principe à produire un être humain dont les gènes ont été sélectionnés un par un sur odinateur avant implantation dans un ovocyte énucléé. De manière moins grandiloquente (car le fantasme ne sert pas à grand chose), et comme l’observe d’une heureuse formule George Church, la biologie synthétique en pleine expansion devra éviter deux scénarios : « la bio-erreur et la bio-terreur » (Church 2010).

Le point sur lequel j’aimerais insister, dans le cadre de ce blog, c’est le triomphe de la conception informationnelle de la vie représentée par l’avancée de Craig Venter et de ses collègues. Ceux-ci l’expriment d’ailleurs clairement dans leur papier : « Notre approche par génomique synthétique se distingue très clairement d’un autre type d’ingénierie génétique qui modifie les génomes naturels en introduisant de multiples insertions, substitutions ou délétions. Ce travail produit une preuve de principe pour la production de cellules fondée sur des séquences génomiques conçues par ordinateur. Le séquençage ADN du génome cellulaire permet le stockage des instructions génétiques de la vie comme fichier numérique ».

Quand Schrödinger formule l’hypothèse d’un cristal apériodique comme support de l’hérédité, il dit en parlant des chromosomes où se trouvent les gènes : « ils contiennent d’une certaine manière le code-script du processus entier du futur développement de l’individu et de son fonctionnement à un état mature » (Schrödinger, 1994, 1992, 21). Quand quelques années plus tard Watson et Crick déchiffrent la structure en double hélice de l’ADN (l’un d’entre eux ayant réfléchi à partir de Schrödinger), ils soulignent que l’organisation proposée produit « un mécanisme de copie du matériel génétique » (Watson et Crick 1953). Et depuis lors, les images du code, de l’information et la copie sont attachées à la génétique.

Il va de soi que six décennies de biologie moléculaire et cellulaire ont complexifié le tableau de l’expression des gènes et de leur rôle relatif dans la développement de l’organisme, mais tout cet édifice emploie néanmoins les mêmes métaphores : les éléments du vivant transmettent de signaux chimiques et physiques par lesquels la vie produit son organisation et ses propriétés émergentes, esprit compris. La bactérie à génome synthétique de Craig Venter représente un aboutissement victorieux de cette méthode d’analyse en même que le commencement prévisible de son extension : la communication entre flux d’information génétique et numérique, avec conception du premier par le second.

« Le code, c’est la loi », a écrit Lawrence Lessig en 2000 à propos de la régulation et de la liberté sur l’Internet. Il me paraît intéressant de réfléchir à cette perspective dans l’ensemble plus vaste du vivant.

Références citées : Church G. (2010), Now let’s lower costs, in Life after the synthetic cell, Nature, doi : 10.1038/465422a (pdf, anglais) ; Gibson DG et al (2010), Creation of a bacterial cell controlled by a chemically synthesized genome, Science, doi : 10.1126/science.1190719 ;
Schrödinger E (1944, 1992),What is life?: the physical aspect of the living cell, Cambridge University Press ; Watson JD, FHC Crick (1953), Molecular structure of nucleic acids: A structure for deoxyribose nucleic acid, Nature, 171, 737-738. 

Vers les réseaux quantiques

Une équipe chinoise vient de faire dans Nature Photonics l’annonce d’une téléportation quantique réussie sur plus de 16 km et dans le vide. Plus de 89% des états quantiques fondamentaux des particules ont été corrélés. Le canal utilisé par les chercheurs est un laser bleu, diffracté par un cristal BBO, émettant 32.600 paires de photons intriqués et polarisés par seconde. La preuve de concept de la téléportation quantique avait été apportée en 1997 et 1998 par des groupes de chercheurs travaillant à Innsbruck et à Rome. Mais jusqu’à présent, on n’était parvenu qu’à communiquer par photons interposés sur un réseau de fibre optique de quelques centaines de mètres. Le tour de force de Xian-Min Jin et de ses collègues ouvre la voie d’une communication quantique à l’échelle globale et satellitaire, puisque l’épaisseur de l’atmosphère varie de 5 à 10 km.

La téléportation quantique ne concerne pas les objets ou les personnes, comme dans la science-fiction, mais les particules élémentaires : photons, ions et autres constituants du rayonnement et de la matière. Elle tire partie d’une propriété de l’échelle quantique : après émission, deux particules intriquées conservent la « mémoire » de leurs caractéristiques communes et la modification de l’une entraîne automatiquement la modification de l’autre (non pas à la vitesse de la lumière, mais instantanément). Elles forment en réalité un seul système quantique. Or, ces particules possèdent des traits (comme le moment angulaire de leur spin) qui permettent de procéder à des calculs, car ils correspondent aux 0 et 1 des portes logiques « classiques ». En fait, ces qubits (bits quantiques) devraient à terme d’accélérer considérablement les temps de calcul, notamment procéder en parallèle plutôt qu’en série. Par ailleurs, la cryptographie quantique est potentiellement inviolable : toute interception d’un message par un tiers non autorisé entraîne sa modification, en vertu du principe de décohérence (quand un observateur interagit avec un système quantique, ici pour intercepter un message en qubits, il le modifie définitivement).

Comme j’aurais l’occasion de le préciser dans un prochain article sur les travaux de Zurek, un nombre croissant de chercheurs considèrent qu’au niveau quantique, l’univers peut être décrit comme un processeur permanent d’information : ce que nous en percevons (au niveau classique familier, celui des objets macroscopiques et de la physique newtonienne) serait simplement le résultat le plus robuste de cette communication quantique permanente et sous-jacente. Autant dire que « l’ère de l’information » ne fait que commencer et que nos réalisations actuelles, pourtant déjà surprenantes en l’espace de trois générations, ont de bonnes chances de paraître à nos descendants aussi rudimentaires que la machine à calculer de Blaise Pascal. Nos réseaux électroniques dépendent déjà de la physique quantique dans leur conception, mais ils restent prisonniers des contraintes classiques pour le calcul et la transmission.

Référence : Jin XM et al. (2010), Experimental free-space quantum teleportation, Nature Photonics, online pub, doi:10.1038/nphoton.2010.87

Du test de Turing au test de Borges (rêverie machinale)

Alan Turing est connu pour deux idées accolées à son nom : la machine et le test. La machine de Turing est une représentation abstraite des fonctions calculables, que j’ai déjà évoquée ici. Le test de Turing est une expérience de pensée formalisée vingt ans plus tard (Turing 1950). Il s’agit d’une épreuve visant à déterminer si une machine peut être qualifiée d’intelligente. Un jury de volontaires engage une conversation écrite à l’aveugle, avec un interlocuteur situé dans une autre pièce. Après un certain temps, le jury doit dire si l’interlocuteur en question est un humain ou une machine. Le jour où le jury se trompera et qualifiera d’humain l’ordinateur capable de tenir une conversation en langue naturelle, alors le test sera réussi pour la machine et celle-ci pourra être qualifiée d’intelligente.

Cette idée assez simple a fait couler beaucoup d’encre. Certains ont nié qu’un tel test révèle quoi que ce soit de l’intelligence de la machine, quand bien même elle parviendrait à tromper le jury humain. C’est grosso modo la position de John Searle (et de la contre-expérience de l’esprit dite de la « chambre chinoise  ») : parvenir à une simulation parfaite de la compréhension n’est pas parvenir à la compréhension elle-même (Searle 1980). Je n’ai jamais compris ce contre-argument. Si une machine est programmée de telle sorte qu’elle simule parfaitement toute conversation en langue chinoise, alors cette machine maîtrise parfaitement la langue chinoise et il n’y a rien à chercher « ailleurs » – comme si le sens était une propriété mystique du langage ou de la conscience, ou comme s’il n’était pas intrinsèquement contenu dans les échanges de deux locuteurs.

D’autres ont considéré que jamais une machine ne parviendra à cet exploit, à moins d’être une copie pure et simple d’un cerveau humain, ou inversement que certains esprits humains limités par une pathologie mentale et/ou une éducation sommaire pourraient être confondus avec une machine. Chaque année a lieu un concours international de Turing (prix Loebner), mais aucune machine n’a réussi le test à ce jour. Après une phase d’enthousiasme dans les années 1960-1980, les chercheurs en intelligence artificielle ont éprouvé par la suite toute la difficulté d’une reproduction de la langue dans sa dimension lexicale, syntaxique mais surtout sémantique. Si le sens n’a rien de mystique, son implémentation physique dans un système non-vivant est une autre paire de manches.

Pour ma part, je suis persuadé que nous construirons des artefacts capables de réussir le test de Turing. Il me semble que c’est une conséquence logique de l’approche physicaliste de l’esprit, selon laquelle la pensée humaine et ses diverses propriétés émergent des connexions « aveugles » entre des neurones « stupides ». Le potentiel d’action d’un neurone individuel ou le canal ionique d’une synapse n’est ni plus ni moins intelligent que la porte logique d’un transistor. Autrement dit, quand on aura craqué ce code neural comme on l’a fait avec le code génétique, on ne devrait pas avoir de difficulté particulière à le transposer dans un réseau de neurones artificiels susceptible de recevoir un apprentissage – celui de la langue ou un autre. Le fait que le cerveau dispose d’un langage continu (chimique) et non seulement discret (électrique) n’est pas une objection très redoutable (on peut discrétiser une fonction continue, et en dernier ressort la matière comme l’énergie ou les forces sont discrètes). L’inscription corporelle de l’esprit ne me semble pas plus insurmontable – les sens proviennent des mêmes neurones « aveugles » que l’esprit, donc ils sont potentiellement réplicabes.

Cette machine de Turing se rapprochera énormément du vivant dans sa simulation – l’échec de la première IA me semble l’échec d’une approche formelle / structurale d’un langage détaché de l’esprit lui-même détaché de la vie. Le succès de la prochaine vague d’IA dépendra probablement de l’implémentation d’une approche évolutive et développementale dominée par des algorithmes d’auto-apprentissage par essai-erreur. Dans le cas imaginé par Turing, une bonne théorie de langage humain et de son émergence spectaculaire dans les cinq premières années de vie formera la base de programmation et de socialisation de la machine.

En réalité, c’est plutôt la suite à laquelle je réfléchis. Quand on se penche sur la machine de Turing ayant réussi son test, on se limite généralement à sa compréhension du langage. Or, il me semble que cela définit la première étape : la même machine devrait exceller en production du langage. Je pense à la bibliothèque de Babel imaginée par Borges, l’ensemble infini de tous les livres possibles (de 410 pages en l’occurrence). Un réseau de machines de Turing pourrait réellement entreprendre la rédaction de tous les textes possibles à partir d’une langue donnée, en évitant au passage des variations inutiles car insensées dans cette langue (de simples superpositions de lettres et de mots produisant des mots / des phrases vides de sens). Ou bien, si la machine prend la forme d’un être artificiel doté de sens et donc d’une expérience mémorisée du monde, elle pourrait être conduite à rédiger une sorte d’autofiction. Peut-être que des grands prix littéraires viseront un jour à départager les machines les plus créatives en poèmes ou nouvelles. Ou bien, comme Kasparov face à Deeper Blue et X3D Fritz, à mesurer la résistance de l’inventivité humaine.

Références citées : Searle J (1980), Minds, brains and programs, Behavioral and Brain Sciences,  3, 417-457 ; Turing A (1950), Computing machinery and intelligence, Mind, LIX, 36. 

Vers l'électronique moléculaire

La loi empirique formulée en 1965 par Gordon E. Moore suggère que le nombre de transistors des microprocesseurs double tous les deux ans environ. La traduction concrète en est la montée en puissance de calcul des ordinateurs, faisant que le PC d’entrée de gamme de 2010 est bien plus performant que les supercalculateurs des années 1960. Cette loi de Moore connaîtra immanquablement une limite : la miniaturisation aboutit à des portes logiques d’échelle nanométrique où surgissent divers problèmes d’instabilité quantique et de dissipation thermique.

Le passage du silicium au graphène (cristal de carbone) comme matériau de base pourrait annuler une partie de ces effets (échauffement), et accélérer le transit des électrons à taille égale (d’un facteur 30). Il n’empêche que les chercheurs réfléchissent activement à de nouvelles solutions. La raison en est que la numérisation du monde produit une quantité exponentielle d’informations que nous n’avons déjà pas la capacité de traiter intégralement, notamment dans certaines recherches de pointe (en génomique et protéomique, on encore en physique des particules et astrophysique). D’un point de vue plus pratique, l’Internet des objets consistant à tagger numériquement (par micro- ou nanopuces) l’intégralité de notre environnement physique sera gourmand en puissance de calcul.

Deux pistes sont explorées pour outrepasser les limites actuelles : l’informatique quantique et l’électronique moléculaire. La première exploite des propriétés des particules élémentaires (notamment la non-localité, l’intrication et le spin), la seconde s’inspire plus volontiers des propriétés du vivant.

L’équipe d’Anirban Bandyopadhyay, dont les travaux viennent d’être publiés dans Nature Physics, s’inscrit dans la seconde voie. Les chercheurs observent que les ordinateurs actuels possèdent une extraordinaire puissance de calcul (10 puissance 13 opérations par seconde) mais que leur approche séquentielle bride ce potentiel : les calculs y sont nécessairement opérés en série (l’un après l’autre). En comparaison, un neurone répond à bien moins de potentiels électriques d’action (environ 1000 par seconde), mais les assemblées de neurones sont plus efficaces que les ordinateurs pour bien des tâches, car elles traitent l’information en parallèle. Dès les années 1940, John Von Neumann avait perçu les limites de l’ordinateur (qu’il avait pourtant largement contribué à faire émerger, à travers l’EDVAC) et il avait consacré la fin de son existence à une réflexion sur des automates cellulaires susceptibles de rapprocher l’ordinateur du cerveau, au prix d’une conception très différente (cf Neumann 1996, 1998).

Cette conception est à l’œuvre dans les travaux de Bandyopadhyay et de ses collègues. Ils ont conçu un réseau d’environ 300 molécules organiques capables de se connecter en réseau pour procéder à des calculs. La molécule en question est le DDQ, un réactif dérivé des quinones (l’atome d’hydrogène y est remplacé). Chaque molécule, placée sur un réseau physique monocouche, peut communiquer avec 2 à 6 de ses voisines. L’ensemble peut traiter le parcours de 300 électrons simultanément, qui sont transformés en états logiques discrets par sept règles de contrôle physique. Ces portes logiques sont au nombre de 4 au lieu des deux états (0, 1) du bit habituel. Les chercheurs ont montré que le dispositif peut opérer sur les tâches habituellement traitées par la logique numérique, depuis l’écriture, lecture et effacement d’information jusqu’à la décomposition de Voronoï (analyse des distributions d’éléments d’un espace plan, utilisée par exemple pour la retouche photo ou la simulation climatique). L’équipe a enfin montré que ce dispositif peut travailler sur l’analyse de problèmes concrets, comme la simulation d’une diffusion de chaleur ou d’une croissance cancéreuse dans un tissu sain.

Ce dispositif au DDQ est l’une des nombreuses voies possibles de l’électronique moléculaire. Au plan fondamental, la contrainte la plus difficile réside dans le contrôle et la normalisation des opérations logiques. Mais comme l’avait suggéré Dennis Bray dans un article influent, les protéines du vivant opèrent très souvent comme des opérateurs d’information, et non des usines de transformation chimique : elles repèrent, transmettent ou stockent des informations qui vont décider, ou non, de divers processus actifs (Bray 1996, voir aussi Ruben et Landweber 2000, Jones 2009). Il en va de la sorte quand une simple bactérie nage vers un milieu nutritif ou fuit un milieu toxique. A fortiori dans un système nerveux composé de cellules spécialisées dans le traitement de l’information. Aussi les supports possibles de l’électronique moléculaire sont-ils innombrables. L’an dernier, Maung Nyan Win et Christina D. Smolke du CalTech ont ainsi pu mettre au point un un dispositif synthétique à base d’ARN capable de reproduire les quatre portes logiques (AND, NOR, NAND, OR) du calcul numérique (Win et Smolke 2009).

L’avenir dira si ces travaux, offrant autant de preuves de concept, aboutissent plus ou moins rapidement à des débouchés opérationnels. Une chose est déjà certaine : le traitement de l’information en vue d’une action n’est nullement enfermé dans un dispositif particulier. L’émergence de l’électronique et de l’informatique au XXe siècle a conduit à considérer rétroactivement que cette information traitée dans un calculateur est partout présente dans la matière, particulièrement dans la matière vivante. Nous ne sommes qu’au début du basculement impliqué par cette représentation du monde.

Références citées : Bandyopadhyay A. et al. (2010), Massively parallel computing on an organic molecular layer, Nature Physics, 6, 369-75, doi:10.1038/nphys1636 ; Bray D (1996), Protein molecules as computational elements in living cells, Nature, 376, 307-312 ; Jones R (2009), Computing with molecules, Nature Nanotechnology, 4, 207 ; Neumann J (1996), L'ordinateur et le cerveau, Flammarion ; Neumann J (1998), Théorie générale et logique des automates, Champ Vallon ; Win NM, CD Smoke (2009), Higer-order cellular information processing synthetic RNA devices, Science, 322, 456-460.

L’œuvre de l’esprit à l’époque de sa reproductibilité numérique

Le titre de ce billet se réfère bien sûr au classique de Walter Benjamin, L’œuvre d’art à l’époque de sa reproductibilité technique (1935). Benjamin s’intéresse dans cet essai aux conséquences esthétiques de procédés comme l’imprimerie, la photographie ou la cinématographie, qui ont comme caractéristiques communes de reproduire à l’échelle industrielle des œuvres d’art. Selon Benjamin, cette reproductibilité fait apparaître dans un paradoxal effacement l’ancienne « aura » dont était entourée l’œuvre unique, originale, celle que l’on ne pouvait contempler qu’en un lieu et un temps donnés (le « hic et ninc »). Le philosophe n’a aucune nostalgie particulière, puisqu’il considère que l’aura de l’œuvre d’art était instrumentalisée par les pouvoirs religieux dans les temps anciens. Les régimes totalitaires l’utilisaient à l’époque de Benjamin pour esthétiser l’existence (reproduire l’aura à grande échelle pour capter l’esprit de l’individu et de la masse).

En cette même année 1935, Alan Turing est élu enseignant-chercheur (fellow) au King’s College de l’Université de Cambridge. Il travaille à la rédaction d’un texte qui sera soumis l’année suivante aux Annales de la société mathématique : « Théorie des nombres calculables, suivi d’une application au problème de la décision ». Derrière ce titre obscur pour le profane, l’article de Turing peut être considéré comme la « preuve de concept » de l’ordinateur, une machine universelle pour résoudre toutes les fonctions calculables. Turing ouvre ainsi sans le savoir l’ère de la reproductibilité numérique, qui est une forme particulière appelée à devenir dominante de la reproductibilité technique sur laquelle réfléchit son contemporain allemand, Walter Benjamin.

Une partie des réflexions de Walter Benjamin a aujourd’hui vieilli au sens où ces pensées portaient sur la captation de l’art par des régimes politiques totalitaires, et la possible réponse des masses prolétariennes. De telles problématiques ont peu ou prou disparu : le phénomène dominant (ou survivant) de cette époque a plutôt été l’appropriation de l’art par les industries de la culture et du divertissement. Évoquant le cinéma, Benjamin écrit cependant : « La masse est la matrice où, à l'heure actuelle, s'engendre l'attitude nouvelle vis-à-vis de l'œuvre d'art. La quantité se transmue en qualité : les masses beaucoup plus grandes de participants ont produit un mode transformé de participation. » (XVIII).

L’actualité de Benjamin pourrait être une réflexion sur la signification de la reproductibilité à l’âge numérique, de sa singularité par rapport aux anciens modes de reproduction. La grande différence, soixante-quinze ans plus tard, est que la reproductibilité s’est démocratisée et que le « mode transformé de participation » des multitudes, évoqué par Benjamin, est désormais démultiplié. Nul ne pouvait jadis imaginer qu’il serait loisible à chaque individu de reproduire un livre, une musique ou un film. Mais la machine universelle de Turing a fini par rendre cela possible. La participation peut même aller un cran au-delà puisque la reproductibilité numérique se double d’une transformabilité numérique : chacun peut intervenir sur une œuvre ou une partie d’œuvre pour l’annoter, la détourner, la modifier, la contextualiser, la partager (voir ici pour l’âge du read/write web). « La masse est la matrice » dans un sens que ne pouvait anticiper Benjamin.

Ces évolutions sont analysées du point de vue du public. Elles ne sont pas sans conséquence sur le point de vue de l’artiste ou de l’auteur : celui-ci ne peut feindre d’ignorer les conditions de diffusion de sa création. Cela d’autant que cette création se destine à la reproduction : l’œuvre par nature unique du spectacle vivant ou de certaines formes traditionnelles d’art (peinture, sculpture, architecture, etc.) n’est pas l’œuvre par nature démultipliée de la littérature, de la musique ou du cinéma. Les conditions de la reproductibilité technique à l’époque de Benjamin rendaient nécessaire l’intervention d’un médiateur industriel entre l’œuvre et son public. La reproductibilité numérique efface cette nécessité, faisant apparaître le médiateur industriel comme une source de revenu du créateur, non une condition de diffusion de la création.

L’œuvre de l’esprit à l’époque de sa reproductibilité numérique est donc confrontée à la réalité de son autonomie de diffusion et de son appropriation par le public. On ne peut désormais la penser hors de contexte entièrement nouveau.

Références citées : Benjamin W (1935, 2003), L’oeuvre d’art à l’époque de sa reproductibilité technique, Allia ; Turing A (1937), On Computable Numbers with an Application to the Entscheidungsproblem, Proceedings of the London Mathematical Society, 2, 42 (reproduit in Turing A, Girard JY, 1995, La machine de Turing, Seuil ; disponible en anglais sur les Turing Archives). 

Internet est-il soluble dans les dictatures?

Shaojung Sharon Wang et Junhao Hong, deux chercheurs américains (Université de Buffalo) spécialistes de la Chine, publient un intéressant papier de synthèse sur le blog en Chine. La blogosphère chinoise est parmi les plus actives au monde : on comptait 230.000 blogueurs en 2002, 16 millions en 205, 162 millions à la fin de l’année 2008 (dont 105 millions actifs). Malgré ces chiffres impressionnants, seuls 19 % des Chinois (essentiellement urbains) ont une connexion Internet.

Les thèmes les plus populaires des blogs chinois sont apolitiques : émotions (43 %), journal personnel (42 %), relations romantiques (20 %), littérature (20 %), humour (18 %). Un des déclencheurs de la mode du blog a été le journal des aventures sexuelles de Muzimei (lancé en 2003) qui a reçu plusieurs millions de visites le jour où sa rédactrice a révélé son identité.

Même si 35 % des blogueurs n’utilisent pas leur vrai nom, le gouvernement chinois exerce une surveillance active : enregistrement obligatoire, filtrage de contenu, conservation de l’information etc. En 2007, une « Convention d’autodiscipline » a exigé que les fournisseurs d’accès et hébergeurs de blogs signalent les contenus illicites et procèdent à leur effacement – convention signée aussi par des sociétés américaines comme Yahoo ou Microsoft. Si les autorités ne peuvent évidemment pas contrôler chaque contenu, elles n’ont en revanche pas trop de difficultés à identifier l’auteur qui aurait pris trop de liberté sur les points sensibles du régime (cela vaut pour les propriétaires du cybercafé, tenus à un registre strict et responsables si des troubles à l’ordre public proviennent d’un de leurs terminaux).

Certains sondages anonymisés, dont le résultat doit évidemment être interprété avec prudence vu la crainte du régime policier, montrent que le contrôle de l’information en ligne est approuvé « officiellement » par une large partie de la population (84,8 % trouvent normal que le gouvernement s’assure du contrôle des informations en ligne et 78,6 % que les entreprises fassent de même, Guo 2007). Les opposants (adeptes du Falung Gong, soutiens aux Tibétains, réformateurs) ont utilisé Internet dès le début des années 2000, mais plusieurs ont été emprisonnés et la crainte d’une arrestation entretient évidemment l’apathie politique que l’on observe sur la blogosphère.

Wang et Hong observent qu’un espace public de discussion a réellement émergé en Chine, apportant une certaine liberté et originalité dans l’expression culturelle, sociale, économique, sexuelle et générationnelle. Mais ils doutent que la politique soit concernée, au moins à court terme. Le gouvernement a massivement investi dans les infrastructures d’information et de communication, suggérant qu’il les envisage comme des moyens de développement économique mais aussi de contrôle politique. Au-delà, il convient aussi de s’interroger sur les aspirations réelles de l’ethnie majoritaire en Chine, dont la cadre culturel conservateur et les flambées nationalistes ne sont probablement pas le simple reflet d’une propagande. Internet est trop jeune pour trancher entre les deux thèses opposées : soit la régulation autoritaire devient inefficace face au flux d’information, soit ce flux d’information augmente l’efficacité de la surveillance.

Dans un autre travail, Kristopher K. Robinson et Edward M. Crenshaw parviennent à des conclusions similaires. Il s’agit ici d’une synthèse de douze années d’études de la « fracture globale numérique » opposant les pays surconnectés comme les Etats-Unis ou l’Europe occidentale à d’autres nettement moins avancés sur ce plan. L’Europe orientale (49 % du taux de connexion de la population nord-américaine de référence), l’Asie (40 %), l’Amérique latine (42 %) et l’Océanie reste pour le moment loin derrière. Il en va de même pour le Moyen-Orient (33 %), l’Afrique du Nord (21 %) et l’Afrique sub-saharienne (7 %), bien que ces trois dernières régions aient connu avec la Chine la plus forte croissance au cours de la période écoulée.

Si Robinson et Crenshaw considèrent qu’un « seuil critique » de connexion est probablement favorable à la démocratie, ils n’observent pas pour autant une corrélation forte entre ce régime politique et l’avancée d’Internet. Le premier facteur corrélé au taux de connexion numérique est ainsi l’urbanisation, suivi de la croissance économique, de la maîtrise démographique (faible fertilité) et de l’absence de conflit.

Références : Robison KK, EM Crenshaw (2010), Reevaluating the Global Digital Divide: Socio-demographic and conflict barriers to the Internet revolution, Sociological Inquiry, 80, 1, 34-62 ; Wang SS, J  Hong (2010), Discourse behind the Forbidden Realm: Internet surveillance and its implications on China’s blogosphere, Telematics and Informatics, 27, 1, 67-78.

Copiez-vous les uns les autres

C’est le conseil que l’on peut déduire des travaux d’un groupe de dix chercheurs récemment publiés dans Science. Ce consortium s’est intéressé à l’apprentissage adaptatif dans les sociétés humaines. La culture est généralement considérée comme la base du succès évolutif d’Homo sapiens. Cette culture procède par observation et interaction entre les individus. Kevin Laland (Université St Andrews, Royaume-Uni) et ses collègues ont donc souhaité comprendre l’importance relative de deux stratégies, l’apprentissage social et l’innovation individuelle.

Les scientifiques ont organisé un tournoi international auquel ont participé 104 équipes envoyant chacune un modèle. L’environnement simulé (modèle du Multi-Armed Bandit, une série de défis à plusieurs solutions ou « comportements » possibles) proposait des comportements de type Innovate (choix individuel d’essais et erreurs sans apprentissage social), Observe (partage social des informations entre joueurs) et Exploit (choisir l’un des comportements acquis de son répertoire pour surmonter le défi). Chacune de ces stratégies simulées dans le jeu pouvait être affectée de contreparties pénalisantes, par exemple la probabilité de copier une erreur dans l’apprentissage social. Ces différentes pénalités conduisaient de manière équiprobable à une « mort » de la stratégie en cas d’accumulation des échecs, créant une pression sélective comparable à la lutte pour la survie des meilleures solutions.

Une première vague du concours a donné lieu à 5000 affrontements « face-à-face » de paires de stratégies, occasionnant 100.000 simulations. Les 10 stratégies ayant survécu sont entrées dans la seconde phase de « mêlée » où elles s’affrontaient toutes simultanément. A la grande surprise des organisateurs, un modèle a emporté le concours en dépassant nettement ses concurrents après 10.000 rounds et 15.000 scénarios : ce modèle était fondé sur l’imitation sociale massive. La place de l’innovation individuelle est réelle, mais restreinte (moins de 10 %). Commentaire de Samuel Bowles : « Beaucoup de gens, quand ils se demandent comment viennent les nouvelles idées, pensent à un excentrique qui fait des tests dans son garage ou un geek timide qui bidouille son ordinateur. Nous considérons que le progrès fonctionne comme ça. Cette étude suggère que cela se passe ainsi, mais que le point réellement décisif est la diffusion de ces idées ».
L'évolution sociale et culturelle semble donc favoriser les groupes encourageant la libre copie des idées, ce qui forme une condition de sélection des innovations les plus adaptatives. 

Référence : Rendell L et al (2010), Why Copy Others? Insights from the Social Learning Strategies Tournament, Science, 328, 208-213, doi : 10.1126/science.1184719

Sur le même thème : L'information veut être libre, après tout

L'information veut être libre (après tout)

« L’information veut être libre ». Ce propos de Stewart Brand à la Conférence des Hackers de 1984 est souvent repris comme un slogan par les partisans de l’accès libre aux contenus sur Internet. Le propos originel de Brand est cependant plus balancé : « D’un côté, l’information veut être chère, car il est si profitable. La bonne information au bon moment change votre vie. D’un autre côté, l’information veut être gratuite / libre [free], car le coût pour y accéder ne cesse de baisser avec le temps. Vous avez ces deux visions antagonistes ».

On ne peut arguer d’un simple déterminisme technologique (numérisation des contenus, connexion des individus) ou économique (coût marginal nul de la réplication numérique) pour déduire que l’information sera nécessairement libre ou gratuite. Il est évident que ces deux facteurs contribuent à la baisse du coût de production et de diffusion d’une information quelconque, ainsi qu’à l’affaiblissement conséquent des barrières de propriété intellectuelle. Mais en soi, et notre monde prend pour le moment ce chemin, l’information peut malgré tout être bloquée.

Par ailleurs, l’histoire ne démontre pas qu’une technique plus simple de copie entraîne de facto une gratuité ou quasi-gratuité. Le coût marginal de reproduction d’une œuvre est nettement plus faible avec l’imprimerie qu’avec le copiste. Or, la disparition des scribes n’a nullement entraîné la gratuité de l’information – c’est même le contraire en un sens, le droit d’auteur n’existait pas avant l’époque moderne, l’ère Gutenberg a conduit à son émergence. (Si l’on prend l’autre sens de « free », c’est-à-dire la liberté et non plus la gratuité, l’inverse paraît en revanche exact : l’imprimerie associée à l’alphabétisation ont plutôt favorisé la libre pensée et l’esprit critique, comme l’écriture l’avait déjà fait avant elles par rapport à la tradition orale).

De manière tout à fait intéressante, à la préhistoire de l’Internet qui s’appelait alors cybernétique (années 1940), Norbert Wiener avait déjà posé le problème. Fondant son raisonnement sur « l’homéostasie », phénomène de préservation de l’équilibre dans un milieu changeant observable au niveau cellulaire comme au niveau individuel ou social, Wiener remarque que celle-ci est étroitement associée à l’information : « Tout organisme se maintient par cette action d’acquisition, d’utilisation, de rétention et de transmission de l’information. Dans une société trop large pour un contact entre ses membres, ces moyens sont l’imprimé, qui rassemble à la fois les livres et l’ensemble des journaux, la radio, le téléphone, le télégraphe, la poste, le théâtre, les films, les écoles et les églises ». Les sociétés humaines de plus en plus ouvertes et complexes déploient donc des moyens de communication eux-mêmes de plus en plus ouverts et complexes.

Mais Wiener observe que des « fonctions secondaires » s’ajoutent à ces moyens de communication, et notamment le profit. « Dans une société comme la nôtre, largement fondée sur l’achat et la vente, dans laquelle toutes les ressources humaines ou naturelles sont regardées comme la propriété absolue du premier homme d’affaires assez entreprenant pour les exploiter, ces aspects secondaires des moyens de communication tendent à primer sur leur dimension primaire (…) Ainsi de tous côtés observe-t-on une triple limitation des moyens de communication : l’élimination des moins profitables au profit des plus profitables ; le fait que ces moyens sont aux mains d’une classe très limitée d’hommes riches, et expriment donc naturellement les opinions de cette classe ; et également le fait que, voie royale vers le pouvoir politique et personnel, ils attirent par-dessus ceux qui ont l’ambition de ce pouvoir ». (Wiener 2000)

A l’heure d’Acta et d’Hadopi, l’actualité des analyses de Wiener reste entière : la classe concentrée des producteurs industriels de contenus ne veut pas abandonner ses anciens privilèges, et elle partage avec la classe politique un certain goût du pouvoir sur les masses, caractéristique de l’époque moderne.

De manière également très actuelle, Wiener observait déjà que le marché n’est nullement garant de l’homéostasie des sociétés. Depuis les travaux de la jeune théorie des jeux (Von Neumann et Morgenstern à l’époque), il montrait que les individus ne produisent pas les solutions optimales d’allocation de ressources notamment en raison d’une distribution aléatoire de l’information sur ces ressources. (Dans un travail classique qui lui a valu le Prix Nobel, George Akerlof a montré depuis que ces asymétries d’information ruinent l’optimalité supposée de la concurrence parfaite, cf son travail princeps Akerlof 1970) Aussi Wiener est-il fondé à douter que la fonction sociale d’homéostasie des moyens de communication fait bon ménage avec l’appropriation monétaire et politique de ces moyens, qui est plutôt un facteur de déséquilibre.

Pourquoi penser malgré tout que l’information sera, tendanciellement, libre et gratuite ?

J’ai cité des facteurs technologiques et économiques propre à la numérisation du monde qui, s’ils n’impliquent pas obligatoirement la liberté de circulation des informations, la rendent néanmoins beaucoup plus simple et beaucoup plus distribuée que tous les anciens moyens de communication, donc en dernier ressort beaucoup plus probable.

Mais on peut ajouter un facteur anthropologique bien plus puissant. Celui-ci se déduit des résultats obtenus par les sciences de l'évolution, de la cognition et du comportement depuis quelques décennies.

La survie de tout organisme et de toute société d’organismes repose sur la circulation d’information, comme l’observe Wiener – même des organismes simples comme les bactéries interprètent des signaux chimiques de déséquilibre. Or, l’être humain, doté d’un système nerveux consommant une importante énergie utile, a été qualifié d’hypersocial : il forme des groupes élargis, qui s’étendent très au-delà de la proximité génétique ; il produit une évolution culturelle bien plus rapide que l’évolution biologique ; il s’adapte aux pressions écologiques et biologiques de son milieu naturel par l’intermédiaire un milieu technique de plus en plus complexe. Ces différents traits caractérisent l’évolution humaine. Tous reposent en dernier ressort sur une circulation accélérée de l’information par rapport aux autres organismes.

L’évolution culturelle et technique, dont tous les observateurs s’accordent à dire qu’elle distingue l’humain des autres animaux par sa rapidité et son ubiquité, n’est possible que si notre espèce est génétiquement et neurologiquement disposée à l’entreprendre. D’innombrables travaux empiriques suggèrent que nous sommes ainsi programmés à l’évolution culturelle : par exemple, les neurones-miroir nous permettent de produire spontanément des théories de l’esprit et de l’action en observant simplement nos semblables, le cerveau de l’enfant humain ne se développe pas s’il est privé d’informations à certains stades critiques, l’activité principale des groupes humains les plus simples (tribus de chasseurs-cueilleurs) est le « gossip », ce commérage étant une forme primitive du réseau social permettant de capter de tous les signaux pertinents. (Sur l’évolution culturelle, voir par exemple des synthèses chez Boyd et Richerson 1985, Donald 1999, Dunbar, Knight et Power 1999, Plotkin 2002).

Pour le dire autrement, la libre copie des informations présentes dans le milieu naturel, social ou culturel soutient depuis son origine le développement humain, qu’il soit individuel ou collectif. Aux capacités d’imitation déjà présentes chez les autres primates sociaux et surexprimées chez l’humain s’ajoutent des capacités de compréhension et modification des informations imitées : notre culture est à la fois mimétique, symbolique et théorique. Le mot que Newton reprend à Bernard de Chartres – « s'il m'a été donné de voir un peu plus loin que les autres, c'est parce que j'étais monté sur les épaules de géants » – ne s’applique pas qu’aux génies, mais à tout individu dont le développement cognitif dépend de l’appropriation spontanée de toutes les informations présentes dans son milieu.

L’esprit humain est un système à copier l’information ; les moyens de communication sont une extension de cette disposition innée.

De là un statut très particulier de l’information, que Richard Dawkins a exprimé en forgeant le concept de « mème » par analogie avec les gènes : l’évolution biologique est guidée par la transmission horizontale et (surtout) verticale des unités de programmation élémentaires que sont les gènes ; l’évolution culturelle est guidée par la transmission verticale et (surtout) horizontale des unités d’information élémentaires que sont les mèmes (Dawkins 1976). « L’information veut être libre » au sens où nos cerveaux sont programmés à la répliquer, de manière différentielle selon l’intérêt que nous y portons. Depuis le feu, la roue ou l’écriture jusqu’au best-seller, au tube ou au blockbuster, il suffit que les humains soient en contact les uns des autres pour que des informations circulent d’esprit en esprit, certaines avec une grande rapidité compte-tenu de l’utilité ou du plaisir qu’elles procurent à leurs émetteurs et récepteurs. (Un autre paradigme que le mimétisme, aboutissant au même constat, est celui de la contagion, cf. par exemple Sperber 1996 ; voir cependant les critiques de Henrich, Boyd et Richerson 2008 pour un modèle pluraliste de la transmission culturelle).

Les journaux, les livres, les musiques, les jeux ou les films ne sont pas de simples informations, mais des agrégats complexes d’information. Cela ne change pas fondamentalement leur statut ni notre disposition à leur égard : nous les partageons spontanément dans notre cercle de socialité primaire (famille, amis, proches) lorsque nous les apprécions, nous le faisons dans le cercle élargi de la socialité numérique puisque leur numérisation le permet pour une dépense quasi nulle de temps et d’énergie.

Résumons : anthropologiquement, technologiquement et économiquement, les conditions sont réunies pour que l’information devienne massivement libre et gratuite – ou le redevienne, puisque seule une courte parenthèse de l’époque moderne a prétendu imposer une propriété sur cette information. « Imposer » car la question est purement politique : depuis deux siècles, l’État a accordé un monopole temporaire d’exploitation à certains créateurs d’information en vue de leur garantir un revenu. On observe qu’avant cette intervention de l’État (et après la diffusion de l’imprimerie), le mouvement spontané a été la « contrefaçon », en réalité la réplication maximale de l’information, tout à fait conforme à ce que l’on peut attendre d’une société humaine.

Dans ce monopole décidé et imposé par les pouvoirs publics s’est engouffrée une chaîne d’exploitation privée de la rareté artificiellement produite sur l’information. Cette solution affronte aujourd’hui ses limites car la numérisation a restauré le caractère spontané, simple et universel de la circulation d’information (la complexité est désormais dans les machines et les tuyaux, qui n’ont pas de problème particulier car ce sont des biens matériels rivaux pour lesquels la propriété est mieux adaptée). Il est légitime que des créateurs espèrent un revenu de leur travail, mais si la solution trouvée pour ce revenu aboutit à la criminalisation des masses, la non-assistance à populations en danger, l’obstruction ou l’exclusion des moyens de communication, on peut dire sans grand risque d’erreur que cette solution n’est pas viable à long terme pour la société qui l’adopte.

Références citées : Akerlof G (1970), The Market for "Lemons" : Quality Uncertainty and the Market Mechanism, Quarterly Journal of Economics, 84, 3, 488-500 ; Boyd R, PJ Richerson (1985), Culture and the Evolutionary Process, Chicago University Press ; Dawkins R (1976), The Selfish Gene, Oxford University Press ; Donald M. (1999), Les origines de l'esprit moderne, DeBoeck ; Dunbar R, C Knight, C Power (1999), The Evolution of Culture, Edinburgh University Press ; Henrich J, R Boyd, P. J. Richerson (2008), Five Misunderstandings about Cultural Evolution, Human Nature, 19, 119–137 ; Plotkin H (2002), The Imagined World Made Real. Toward A Natural Science of Culture, Penguin ; Sperber D (1996), La contagion des idées, Odile Jacob ; Wiener N (2000, 1948, 1961), Cybernetics, MIT Press.

L'information comme vision du monde

En conclusion d’un chapitre sur les calculateurs et le cerveau, Norbert Wiener souligne : « L’information est l’information, pas la matière ni l’énergie. Un matérialisme qui n’admet pas cela ne peut survivre aujourd’hui » (Wiener 2000, 132). Ce point de vue n’a pas vraiment triomphé pour le moment. Certes, les travaux fondateurs des Turing, Shannon, Neumann, McCulloch, Pitts, et donc Wiener ont fini par produire la numérisation du monde qui forme le basculement le plus étonnant de notre époque, avec comme effet secondaire « l’information » mise à toutes les sauces (société de l’information, économie de l’information, technologie de l’information, etc.). Mais en science, cette information n’est pas réellement constituée ou pensée comme concept physique central au même titre que la matière et l’énergie, comme l’espérait Wiener, malgré quelques prises de position célèbres en ce sens (le « it from bit » de James Wheeler par exemple).

Et pourtant… il existe de l’information. Comme à l’époque de la première cybernétique, l’intuition nous en vient de l’émergence du système nerveux dans l’évolution biologique : un organisme extrait par ses neurones de l’information sur son milieu interne et externe. Par exemple, le rouge est dans certaines circonstances naturelles un indicateur de dangerosité qui influe certains comportements : à la longueur d’onde électromagnétique définissant le rouge pour un type de récepteur sensoriel s’ajoute une propriété supplémentaire dans l’interaction entre un organisme et son milieu. Toutes les cellules échangent des signaux chimiques, mais les neurones semblent spécialisés dans l’extraction et la régulation des informations à travers des mécanismes végétatifs, perceptifs ou cognitifs. L’approche du cerveau comme « organe de traitement de l’information » domine aujourd’hui la théorie de la cognition (par exemple Buser et Lestienne 2001), de même qu'elle sous-tend les théories de l’évolution et de l’hérédité (Avery 2003) et l’exploration structurale-fonctionnelle du vivant en général (Nurse 2008).

Cette propriété est-elle une simple émergence locale du vivant – et tout récemment des machines conçues par lui ? Ou bien l’univers lui-même est-il structuré par de l’information, au-delà de notre approche énergie-matière ou particules-champs-forces ? Ces questions n’ont pas de réponse ferme, mais elles intéressent un nombre croissant de chercheurs (pour des synthèses en anglais, voir par exemple Siegfried 2001, Leff et Rex 2002, Von Bayer 2004 ; en français voir Ségal 2003, Tricot 2008 ; voir aussi les publications du site de Charles Bennett). La raison en est que le paradigme de l’information joue un rôle important dans divers champs scientifiques et technologiques, mais aussi que l’approche quantique de la physique continue d’interroger les limites de son approche classique. Le principe holographique, né de l’observation des propriétés quantiques des trous noirs, est un des exemples les plus connus d’une approche par l’information. Nous allons sans doute retrouver ces questions par un autre angle et dans un proche avenir : la loi de Moore qui soutient l’actuel développement informatique s’achemine vers un niveau atomique de miniaturisation où une théorie de l’information quantique sera nécessaire (Bennett et DiVincenzo 2000). Il ne s’agira pas d’une théorie logique, comme celle de Shannon, mais d’une théorie physique.

L’émergence d’une telle théorie de l’information a de bonnes chances de bouleverser notre vision du monde – notre écriture et notre lecture du monde.

Références : Avery J (2003), Information Theory and Evolution, Word Scientific Publishing ; Bennett CH, DP DiVincenzo (2000), Quantum information and computation, Nature, 404, 247-255 ; Buser P, R Lestienne (2001), Cerveau, information, connaissance, CNRS-Editions ; Leff H, AF Rex (dir) (2002), Maxwell's Demon 2: Entropy, Classical and Quantum Information, Computing, Taylor & Francis ; Nurse P (2008), Life, logic and information, Nature, 454, 424-426 ; Ségal J (2003), Le Zéro et le Un : Histoire de la notion scientifique d'information au 20e siècle, Syllepses ; Siegfried T (2001), The Bit and the Pendulum: From Quantum Computing to m Theory - The New Physics of Information, John Wiley & sons ; Tricot M (2008), Le moment cybernétique : La constitution de la notion d'information, Champ Vallon ; Von Baeyer HC (2004), Information: The New Language of Science, Harvard University Press ; Wiener N. (2000, 1948, 1961), Cybernetics, MIT Press. 

Le degré infini de l'écriture

Bien que répondant à une disposition naturelle au langage, inscrite dans nos gènes et neurones, la langue est une invention – certes d’un genre particulier, collective et chaotique, sans coordinateur ni administrateur, sans aucune idée préconçue d’un dessein précis ou d’un résultat final, mais une invention tout de même. Tout mot, tout symbole a été inventé un jour ou l’autre, avant de se répandre. La plupart des langues parlées dans l'histoire ont disparu, remplacées par d’autres.

L’écriture est elle aussi, et plus évidemment encore, une invention. Associée à un geste et une technique, elle a multiplié les signes et les supports. On observe mieux les inventions de la langue grâce à l’écriture, on situe la période où elles sont proposées, employées, officialisées. Par exemple, en 1557, Robert Recorde invente le signe « = » qui se répand depuis. Alphabets et idéogrammes sont restés, mais beaucoup de modalités d’écriture ont disparu, remplacées par d’autres. J’ai évoqué cette question ici.

Langue et écriture sont des inventions d’un genre particulier, produisant une boucle rétroactive : elles expriment l’esprit en même temps qu’elles le produisent. C’est la raison pour laquelle il n’est pas si difficile de les inscrire dans une analyse évolutionniste : ce genre de boucle rétroactive produit facilement une « course en avant ». En l’occurrence, la maîtrise et la manipulation de l’information (langue, écriture) à des fins pragmatiques ou référentielles ont ajouté dans l’histoire de l’espèce humaine un niveau de sélection sociale, cognitive et culturelle à la sélection naturelle et sexuelle, la nouvelle potentialisant l’ancienne.

Langues et écritures expriment et produisent l’esprit, mais aussi le monde. Non pas le réel tel qu’il est, indépendant de la présence humaine dans ses lois, mais le monde tel qu’il est vécu et transformé par cette présence humaine.

Ayant ces pensées à l’esprit et lisant les réflexions toujours stimulantes du physicien Freeman Dyson, je tombe sur ce passage : « Nous entrons rapidement dans l’ère post-darwinienne, lorsque les espèces n’existeront plus et que les règles du partage open source s’étendront de l’échange de logiciels à l’échange de gènes. Alors l’évolution de la vie redeviendra communautaire, comme elle l’était au bon vieux temps, avant l’invention des espèces séparée et de la propriété intellectuelle » (Dyson 2009).

Dyson considère que les biotechnologies vont connaître au cours de ce siècle la même démocratisation que les infotechnologies. Quand John von Neumann pensait à l’avenir des ordinateurs, dans les années 1950, il voyait une poignée d’immenses machines centralisées, au service des Etats et de quelques firmes multinationales. On connaît la suite : les années 1970 ont détruit cette prospective et lancé l’ordinateur personnel. Donc pour Dyson, les biotechs suivront un semblable destin. La lente évolution darwinienne qui transmet des gènes de manière verticale dans des espèces « propriétaires » va être remplacée par une évolution technologique qui les fait circuler de manière horizontale, comme ce fut (et c’est) encore le cas dans le monde bactérien. (Les transposons ou éléments transposables sont les plus connues de ces séquences génétiques qui bondissent d’un génome à l’autre ; notre génome humain est plein de ces insertions agrégées par transfert horizontal puis transmises verticalement.)

J’ignore si la prédiction de Dyson aura plus de succès que celle de Neumann. Son propos m’intéresse parce qu’il rappelle l’ubiquité des notions d’information, de langage et d’écriture. C’est évident pour le vivant : depuis Schrödinger, la métaphore du « code » domine les représentations et les explorations des organismes au niveau moléculaire et cellulaire. Quand les chercheurs utilisent massivement la bioinformatique dans leur quête actuelle des « -omes » (génome, épigénome, métabolome, protéome, etc.), ils décomposent au fond des flux d’informations élémentaires par lesquels s’écrit la vie. Dans une perspective de Nature, Paul Nurse soulignait que la biologie de l’avenir a besoin de cette pensée de l’information et des circuits logiques pour intégrer ses connaissances dans une approche systémique du vivant, de l’échelle moléculaire à l’échelle phénotypique (Nurse 2008).

On pourrait faire exactement le même genre de réflexion sur une autre grande promesse du siècle, les nanotechnologies. Elles concernent la matière (vivante ou non) à un niveau plus élémentaire encore d’observation, de modélisation et de manipulation, celui des atomes et des particules subatomiques. Comme les biotechnologies, elles se couplent aux technologies de l’information pour détecter et transférer des signaux. Quand il voulait faire comprendre le potentiel des nanotechnologies (n’ayant pas encore ce nom) à son public, Richard Feynman choisissait spontanément un projet d’écriture : « Pourquoi ne pas écrire les 24 volumes de l’Encyclopedia Brittanica sur une tête d’épingle ? ». Et le reste de son exposé, allant de la physique à la biologie en passant par la chimie, consiste à placer l’infiniment petit dans cette logique d'écriture (Feynman 1959).

Sous un certain angle, ces diverses inventions du XXe siècle peuvent être vues comme des métamorphoses et des extensions prodigieuses de l’écriture née dans les grandes cités babyloniennes, égyptiennes et grecques – infotechnologie et écriture numérique, biotechnologie et écriture vivante, nanotechnologie et écriture matérielle.

Elles révèlent alors ce dont l’écriture était porteuse dès son origine, retrouvant un diagnostic (critique) fait par Heidegger sur l’histoire du logos et de la métaphysique. L’écriture a véhiculé (et véhicule encore) la pensée narrative ou pensée mythique, présente dans la parole et avant elle dans le geste de nos ancêtres les plus lointains (peut-être déjà les Homo erectus), retrouvée et réinventée à chaque génération dans la fiction (notre goût pour les histoires). Mais l’écriture a également produit la naissance de la pensée analytique ou pensée théorique, qui est destinalement une maîtrise du monde par le mot (le concept, la catégorie, la relation, la signification, etc.). Il me semble que les nouvelles écritures infotechnologiques, biotechnologiques et nanotechnologiques accomplissent ce destin-là.

Lire ce texte comme une fiction ou comme une analyse, cela ne dépend pas de son auteur.

Références citées : Dyson F (2009), La vie dans l’univers, Gallimard ; Feynman R (1959), Plenty of room at the bottom, conférence à l’APS, Caltech ; Nurse P (2008), Life, logic and information, Nature, 454, 424-426.

Read/Write Book : mise en bouche

« En entrant dans l’ère de l’informatique en réseau, le livre semble appelé à devenir de plus en plus réinscriptible. Il n’est plus seulement séquentiel comme autrefois, dans cette fameuse chaîne du livre qui mène de l’amont vers l’aval en ligne droite. Il est aussi réticulaire. Comme un oignon, il se pare de multiples couches, un ensemble d’informations ajoutées par des dizaines de métiers différents, qui participent à une vaste entreprise d’enrichissement documentaire, et par des auteurs secondaires qui, par leurs inscriptions, contribuent, à toutes les étapes de la vie du texte, à enrichir la grille de lecture du texte, à ajouter des strates supplémentaires au texte initial.

Le livre devient inscriptible, dans un système d’information riche, polymorphe, mouvant et encore très fragile. C’est le Read/Write Book, expression proposée par Hubert Guillaud, sur le modèle du magnifique Read/Write Web. Le livre qui s’écrit et qui se lit. Ou bien le livre qui se lit puis qui s’écrit. Comme on voudra. Les inquiets y verront la disparition des figures de proue du navire livre : l’auteur, l’éditeur, le libraire. Et, trop souvent, de dénoncer Wikipedia comme le paroxysme de la démocratie des médiocres et de l’absence de hiérarchie, d’ordre et de valeurs. La transposition sur internet de l’ancienne prophétie concernant les quinze minutes de célébrité offertes à chacun. Ce contre-sens est lié à la confusion entre l’encyclopédie des Lumières et l’encyclopédie collaborative, en train de se faire, du xxiesiècle. Les autres y voient un enrichissement historique, qui se dotera peu à peu de repères, de règles, de lieux, de formes et de codes. Et qui nécessite la mise en place de grilles de lecture. La «prison de papier», selon l’expression de Christian Vandendorpe, dans laquelle le livre avait atteint son âge d’or, pourrait donc céder la place à un écosystème inédit, vivant et puissant. »

Ce texte est un extrait de l’introduction de Read / Write Book. Le livre inscriptible, un livre collectif dirigé par Marin Dacos, en libre accès HTML ou accès payant ePub / pdf (Cléo 2010).

Outre cette introduction, le livre propose 16 textes (Hubert Guillaud, Alain Pierrot, Bob Stein, Nova Spivack, Joël Faucilhon, Milad Doueihi, Philippe Aigrain, Robert Darnton, Tim O'Reilly, Andrew Savikas, Fabrice Epelboin, André Gunthert, Pierre Mounier, Janet Stemwedel, Antoine Blanchard,Jean Sarzana) organisés en trois sections :
le livre électronique est un texte (sur le retour au texte permis par l’édition numérique et les usages pluriels qui vont se développer dans un proche avenir) ;
• monopolivre (sur la bataille industrielle entre anciens et nouveaux acteurs, la propriété intellectuelle, la criminilisation de la copie libre)
• édition électronique scientifique (sur le secteur qui a inventé l’Internet, dont les publications sont déjà largement dématérialisées, certaines libres, d’autres payantes… et même très chères !).

Marin Dacos, dont je commentais voici peu un entretien accordé à Libération, est aussi le co-auteur avec Pierre Mounier d’un livre de synthèse remarquable sur L’édition électronique (Découverte, 2010), venant de paraître et que j’aurai l’occasion de recenser. Les équipes rassemblées autour de ces chercheurs produisent les réflexions les plus intéressantes qu’il m’a été donné de lire depuis mes découvertes de Lessig et Benkler sur l’évolution de l’Internet en lien avec l’édition et la propriété intellectuelle. On peut consulter notamment les sites suivants : L’édition électronique ouverte et Homo numericus.

Enfin, on mettra les réflexions du Cléo en lien avec celles que faisait Roger Chartier dans son texte sur les trajectoires de l’écrit (Du codex à l’écran), dont je vous livre pour conclure quelques extraits, en vous conseillant d’en lire la source dans son intégralité. Elles illustrent les évolutions du texte dont je vous parlais hier :

« La révolution du texte électronique sera elle aussi une révolution de la lecture. Lire sur un écran n'est pas lire dans un codex Si elle ouvre des possibilités neuves et immenses, la représentation électronique des textes modifie totalement leur condition : à la matérialité du livre, elle substitue l'immatérialité de textes sans lieu propre ; aux relations de contiguïté établies dans l'objet imprimé, elle oppose la libre composition de fragments indéfiniment manipulables ; à la saisie immédiate de la totalité de l'oeuvre, rendue visible par l'objet qui la contient, elle fait succéder la navigation au très long cours dans des archipels textuels sans rives ni bornes. Ces mutations commandent, inévitablement, impérativement, de nouvelles manières de lire, de nouveaux rapports à l'écrit, de nouvelles techniques intellectuelles. Si les précédentes révolutions de la lecture sont advenues alors que ne changeaient pas les structures fondamentales du livre, il n'en va pas de même dans notre monde contemporain. La révolution entamée est avant tout, une révolution des supports et des formes qui transmettent l'écrit. En cela, elle n'a qu'un seul précédent dans le monde occidental : la substitution du codex au volumen, du livre composé de cahiers assemblés au livre en forme de rouleau, aux premiers siècles de l'ère chrétienne. (…)

Non seulement le lecteur peut soumettre le texte à de multiples opérations (il peut l'indexer, l'annoter, le copier, le démembrer, le recomposer, le déplacer, etc.), mais, plus encore, il peut en devenir le co-auteur. La distinction, fortement visible dans le livre imprimé, entre l'écriture et la lecture, entre l'auteur du texte et le lecteur du livre, s'efface au profit d'une réalité autre : celle où le lecteur devient un des acteurs d'une écriture à plusieurs voix ou, à tout le moins, se trouve où en position de constituer un texte nouveau à partir de fragments librement découpés et assemblés. Comme le lecteur du manuscrit qui pouvait réunir dans un seul livre des oeuvres de nature fort diverses, rapprochées dans un même recueil, dans un même libro-zibaldone, par sa seule volonté, le lecteur de l'âge électronique peut construire à sa guise des ensembles textuels originaux dont l'existence et l'organisation ne dépendent que de lui. Mais, de plus, il peut à tout moment intervenir sur les textes, les modifier, les récrire, les faire siens. On comprend, dés lors, qu'une telle possibilité met en question et en péril les catégories qui sont les nôtres pour décrire les oeuvres, rapportées depuis le XVIIIe siècle à un acte créateur individuel, singulier et original, et qui fondent le droit en matière de propriété littéraire. La notion de copyright, entendue comme le droit de propriété d'un auteur sur une oeuvre originale, produite par son génie créateur (la première occurrence du terme est de 1728) s'ajuste fort mal aux modes de constitution des banques de données électroniques. (…)

Le texte électronique autorise, pour la première fois, de surmonter une contradiction qui a hanté les hommes d'occident : celle qui oppose, d'un côté, le rêve d'une bibliothèque universelle, rassemblant tous les livres jamais publiés, tous les textes jamais écrits, voire, avec Borges, tous les livres qu'il est possible d'écrire en épuisant toutes les combinaisons des lettres de l'alphabet, et, de l'autre, la réalité, forcément décevante, de collections qui, aussi grandes soient-elles, ne peuvent fournir qu'une image partielle, lacunaire, mutilée du savoir universel. »