Gallimard n’a rien compris (et sera donc président du SNE)

Mon ami Antoine Gallimard (voir ici) en remet une couche dans un entretien accordé au Point. Entretemps, le patron de la rue Sébastien-Bottin est devenu le premier prétendant à la présidence du Syndicat national de l’édition, suite à de sombres luttes de pouvoir chez les magnats du papier. Et donc Antoine précise sa vision du livre numérique. Je suis consterné par ses propos et si son probable accès à la présidence du SNE signifie qu’ils seront désormais les positions dominantes des éditeurs, cela promet à mon sens une décennie de naufrage pour les dernières lignées de Gutenberg.

Concernant l’absence de Gallimard dans l’iBookstore d’Apple : « En somme, aujourd'hui, on nous demande d'accepter qu'un fabricant fasse le marché. Non ! Ce sont les éditeurs et les lecteurs qui doivent le faire. Car si l'éditeur ne maîtrise pas les prix, il perd sa vision du marché et ne contrôle plus son usage. Un prix papier est fixé par l'éditeur, mais si on entre dans le système iBookstore, on se retrouve obligé de vendre ce livre à ce prix moins 20 %. Et c'est sans concession, puisque c'est imposé par le contrat. Pourtant, il est dans le droit de l'éditeur de vendre ou non plus cher son livre. »

Ainsi, Apple commet le crime de lèse-oligarchie consistant à proposer des livres moins chers. Il est risible que Gallimard mentionne « les lecteurs » dans les supposés acteurs du marché, puisque son propos consiste à soutenir que la fixation du prix relève de la seule volonté de l’éditeur. Pour être plus précis : l’éditeur artificiellement protégé (avec le libraire) par la loi sur le prix unique du livre, que le SNE espère voir reproduite pour le livre numérique histoire de préserver l’entente cordiale des oligarques de la chaîne papier.

Sur la stratégie « cavalier seul » de chaque éditeur : « On ne veut pas de la bibliothèque d'Apple. Nous, on veut créer notre propre application. C'est ce qu'on cherche à faire avec notre Eden Reader. Cette librairie numérique existe déjà sur PC. Son utilisation est simple. Une fois son compte créé, le lecteur choisit dans la librairie numérique son livre. Il le télécharge sur PC. Il peut même le copier à six amis. »

Il ne vient apparemment pas à l’esprit d’Antoine Gallimard que la multiplication des plateformes, des formats et des DRM ne peut que pénaliser le lecteur numérique, qui n’a pas envie de s’adresser à plein de sites différents (ou d'applications) pour feuilleter et choisir ses lectures. Sur Eden Reader / ePagine, l’avis de Clément Monjou (eBouquin) est pour le moins mitigé et il en va de même pour Nicolas Gary (Actualitté). N’ayant pas d’iPad (ni l’intention d’acheter cette tablette à laisse pour usager captif), impossible de charger l’application en question (qui est absente de l’iPhone). J’aimerais bien vérifier dans le détail l’histoire de la copie libre pour six amis.

Sur le format ePub : « C'est surtout sur la modalité de lecture que réside le danger. Apple impose, à la lecture, un format : le e-pub. Ce format donne la possibilité au lecteur de changer, à sa guise, la topographie du texte ou d'un livre (sa taille de caractère ou l'emplacement d'une image, etc.). Du coup, tous les efforts traditionnels et historiques de l'éditeur dans la conception d'une page ou d'un livre disparaissent. La numérisation risque ainsi de dévaloriser le contenu. L'enjeu est donc de savoir quels seraient les moyens pour garder un confort de lecture tout en conservant l'esprit, le parcours d'un texte. »

Notons d’abord que le format epub n’est pas imposé par Apple : le constructeur n’a fait que s’aligner sur ce standard ouvert créé en septembre 2007. Steve Jobs aurait sûrement préféré créer son propre format propriétaire, mais il est arrivé un peu tard pour laisser s’exprimer ses pulsions de contrôle. Remarquons ensuite que les craintes de Gallimard illustrent à leur état quasi-pur les incompréhensions de la vieille génération papier et surtout son hostilité à l’esprit même de l’ère numérique. Car ce que Gallimard décrit (possibilité de manipuler un texte à sa guise), c’est l’appropriation des contenus par les usagers, le principe même du read write web et du mouvement de la culture libre. A cela, le futur président du syndicat des papimanes oppose la maîtrise de A à Z du texte et de son usage par le lecteur. Non pas que je critique l’excellent travail des graphistes et maquettistes des éditions Gallimard : mais refuser l’epub parce que l’on veut figer dans le marbre une certaine mise en page, c’est continuer de penser papier quand on parle numérique.

Sur le push affinitaire par choix de lecture : « La librairie proposée par Apple vous liste dans des catégories. Dès que vous commandez un ouvrage, elle enregistre votre choix. Du coup, dès qu'un livre sort dans cette catégorie, elle ne vous propose que celui-là. On perd tout le libre arbitre qu'on pouvait avoir avec la librairie traditionnelle. Ce vieux compagnon de route du livre, où on y fait de belles rencontres et qui, comme on dit dans le milieu, contribue au "hasard de l'édition heureuse". La lecture est une promenade solitaire. En aucun cas, elle se fait en collectif. C'est donc l'indépendance et l'autonomie du lecteur qui sont mises en cause. »

Là encore, Apple n’innove en rien, cela fait des années qu’Amazon propose des suggestions de lecture en fonction de vos listes antérieures d’achat. Les arguments de Gallimard sont parfaitement stupides. Quand on s’intéresse à un sujet, surtout s’il est pointu, les conseils de lecture sont généralement assez avisés, de même que les commentaires des précédents lecteurs sont parfois utiles. J’en ai encore fait l’expérience récente, depuis que je suis mis en tête de rafraîchir ma culture en physique quantique. Et de toute façon, ces conseils automatiquement produits ne prétendent pas remplacer la circulation personnelle de livres à livres. Gallimard se contredit par ailleurs, puisqu’en faisant cavalier seul avec Eden Reader, il empêche le lecteur de consulter tous les romans sur le même « étalage numérique » et donc de pratiquer la fameuse promenade solitaire dans les nouveautés. Enfin, chacun connaît l’importance du bouche-à-oreille dans certains succès de librairie (et ce n’est pas à Galliamrd que l’on apprendra son métier) : cela montre que la lecture est bel et bien « collective » à un certain degré, ou sociale si l'on veut, c’est-à-dire que les conseils de personnes à personnes déterminent une partie des choix.

Bref, Antoine ne comprend pas grand chose aux mœurs digitales. Mais les lecteurs numériques comprennent très bien que la stratégie « seul contre tous » de la maison Gallimard n’aura que des conséquences fâcheuses pour eux. Puisque les livres de cet éditeur seront si difficiles à trouver et si chers à payer, il ne devra pas s’étonner si certains lecteurs vont les chercher du côté des réseaux BitTorrent dans les années à venir…

Quelques réflexions sur l'information

Etant ces temps-ci au milieu de nulle part, et doté d’une bien médiocre connexion, voici quelques réflexions inactuelles sur l’information. Il s’agit de commentaires sur certaines propositions que l’on entend souvent à son sujet. L’information n’est pas ici prise dans son sens informatique ou physique, elle désigne plutôt quelque chose comme nos unités d’échange cognitif sur le monde, au sens où notre esprit a évolué pour acquérir, mémoriser / oublier, transmettre et produire ce que l’on peut appeler génériquement des informations. Chacun échange en permanence des informations ainsi définies. Le terme a aussi une connotation plus spécialisée par laquelle je commence (l’information sur le monde actuel telle que les médias modernes l’ont définie).

L’information des amateurs ne vaut rien, informer est un métier. De nombreux blogs et sites sont animés par des professionnels de la presse, de la communication en général (c’est le cas de celui que vous lisez). Et en tout état de cause, sur des sujets qui les passionnent, les « amateurs » ont des connaissances plus étendues et plus précises que des professionnels généralistes. Quand il s’agit d’exprimer des opinions, et non des connaissances, les uns et les autres sont à égalité. Cet argument reflète souvent l’avis d’une corporation (journalistes) qui vit très mal la remise en cause de son statut économique et symbolique à l’ère numérique. Mais cela ne signifie pas que les professionnels de l’information sont inutiles : on attend simplement d’eux un travail à valeur ajoutée par rapport à ce que peut produire l’intelligence collective du réseau (c’est-à-dire le fait qu’il y aura toujours des sources d’information gratuite, amateur et de qualité parmi les multitudes).

La pluralité de l’information n’a pas attendu Internet. C’est vrai et faux. En démocratie, la presse est libre et la diversité des opinions s’exprime. Mais les canaux de communication avant l’Internet étaient coûteux : les médias les plus influents, financés par l’État ou la publicité, ne pouvaient se dire totalement indépendants de leurs ressources économiques. Ils étaient surtout rares, et dans cet espace-temps limité, ils laissaient donc souvent la place à la parole dominante des experts ou des représentants « officiels » de certains secteurs d’opinion. Internet a facilité et généralisé l’expression des individus et des communautés vers un public plus ou moins large, lui-même fragmenté (l’opinion publique devient l’opinion des publics). La baisse du coût de production de l’information signifie un accroissement sans précédent de la pluralité de ses sources.

Nous sommes noyés dans l’information, cela provoque l’insignifiance. Cette noyade ne concerne que ceux qui sont disposés à perdre pied. Car sauf à prendre l’Internaute pour un simple d’esprit, il est relativement simple d’organiser ses flux d’information par la syndication RSS, le following Twitter, le criblage des fils d’actualité par mots-clés, le suivi des sources pertinentes, le partage sur réseaux sociaux, etc. Internet produit certes la profusion de l’information, mais aussi bien les outils de sélection au sein de cette abondance.

L’Internet nous prive de notre mémoire individuelle, nous y puisons les informations que nous retenions jadis. Sans doute, mais à quoi bon encombrer sa mémoire de données qui deviennent peu à peu immédiatement et universellement accessibles ? Dans la plupart de nos tâches intellectuelles, ce n’est pas la mémorisation mais l’agilité et la créativité qui font la différence, c’est-à-dire notre capacité à rassembler, trier, synthétiser l’information, pour finalement produire une interprétation qui nous est propre. Socrate déjà pestait contre l’écriture qui allait priver les humains de leur mémoire en stockant des informations ailleurs que dans le cerveau. On s’en est remis…

Les informations fausses et vraies deviennent indiscernables, Internet est le tombeau de la vérité. Ceux qui se souviennent la première guerre du Golfe (par exemple) souriront en lisant cela : presse, radio et télévision ont déjà produit un reflet du monde qui n’est nullement la vérité du monde (la réalité), mais une sélection, une interprétation voire une manipulation d’une infime partie du réel. Reste à s’accorder sur la notion même de « vérité » dans nos propositions de langage : dans bien des cas, cette vérité n’existe pas ou, ce qui revient au même, elle varie selon l’opinion subjective des locuteurs. Des jugements objectifs renvoient à une méthodologie éprouvée et partagée définissant cette objectivité. Ce qui est finalement le cas le plus rare de nos échanges : car l’humain parle assez peu des faits, beaucoup des interprétations de ces faits (donc du ressenti ne prétendant pas au statut d’une vérité objective, universelle, indépendante du locuteur-observateur).

Tout vaut tout, l’information anarchique sur Internet alimente le relativisme et le nihilisme de l’époque. Cette conviction est souvent associée à la précédente. Elle émane parfois de personnes pour qui l’information doit être hiérarchisée par des « experts en vérité et en qualité », son sens et sa portée devant être fixés une fois pour toutes. En fait, Internet ne produit pas mais reflète la diversité de nos points de vue dans la plupart des domaines : celle-ci n’est pas une idéologie (le « relativisme »), mais d’abord une réalité, à savoir que les gens ne partagent pas les mêmes goûts, les mêmes opinions, les mêmes valeurs. Certains s’en effraient car ils sont nostalgiques des ordres symboliques homogènes ; d’autres s’en félicitent, car ils préfèrent l’instabilité et l’évolutivité des représentations individuelles ou collectives.

Plus ça change, plus c’est la même chose : Internet est un épiphénomène anodin, au bout du compte. On peut penser le contraire. Si Socrate a bu la ciguë, si Bruno a terminé sur le bûcher, si l’imprimerie a été soumise aux lettres de cachet et si la plupart des puissances publiques ou privées continuent aujourd’hui encore de pratiquer le secret et/ou de contrôler et manipuler l’information, c’est bien que cette dernière occupe une place de premier plan dans les rapports de pouvoir. Les canaux de communication ne sont donc jamais indifférents au cours de l’histoire : l’existence d’un réseau d’information décentralisé, individualisé et libre constitue une nouveauté importante de notre temps. Et ce réseau est un enjeu de pouvoir, comme en témoignent les remises en cause régulières de sa neutralité en démocratie, ainsi que son contrôle direct en tyrannie.

L’information n’est pas la connaissance, on peut être surinformé et ignorant. Cela me semble exact, mais il faut être plus précis. L’information est une condition nécessaire mais non suffisante de la connaissance : on ne peut connaître un sujet sans information directe (par la pratique) ou indirecte (par l’observation de la pratique) sur celui-ci. Si la sur-information ne garantit pas la compréhension, la sous-information produit toujours l’ignorance. L’enjeu principal des décennies à venir, pour l’individu comme pour les collectivités, sera d’exploiter les flux d’information toujours plus massifs afin d’en produire des connaissances. 

Questions aux éditeurs en procès contre Google

Chers éditeurs, vous venez de faire condamner la société Google pour la numérisation sans votre autorisation d’ouvrages français présents dans les bibliothèques américaines, estimant que cette démarche s’apparente à la contrefaçon et porte atteinte à votre propriété intellectuelle (jugement, pdf).

Vous défendez le droit d’auteur, fort bien. Mais, chers éditeurs, vous avez également un certain nombre de devoirs vis-à-vis de ces auteurs et, plus largement, vis-à-vis des lecteurs. Vous n’ignorez pas que la chaîne de production du livre est numérisée depuis les années 1980, que les scanners existent depuis plus longtemps encore, que la simple saisie d’un texte permet aisément de le rendre disponible en lecture numérique, que les premières machines à numérisation automatique sont apparues au début des années 2000. Vous n’ignorez pas non plus que vos fonds comportent plusieurs centaines de milliers de titres parus au XXe siècle, protégés par ce fameux droit d’auteur auquel vous attachez tant d’importance.

Vous vous félicitez de votre procès contre Google, mais je me permets de vous poser quelques questions :

• Qu’avez-vous fait pendant les années 1970, 1980, 1990 et 2000, soit quatre longues décennies qui vous auraient permis de numériser lentement votre fond, comme l’a fait patiemment le modeste Projet Gutenberg aux Etats-Unis ?

• Pourquoi le rapport Albanel prévoit-il que la BnF (en d’autres termes l’argent public) assure la numérisation des « œuvres orphelines » qui sont, dans bien des cas, vos œuvres, celles sur lesquelles vous revendiquez si bruyamment votre propriété intellectuelle ?

• Comment se fait-il que la « révolution numérique » vous prenne de court alors que le texte a été le premier média numérisé ?

• Pourquoi l’offre francophone sur liseuse est-elle si pauvre, minable même, alors que le succès des liseuses date de plusieurs années déjà ?

• Le chiffre d’affaire annuel de 2,83 milliards d’euros de votre profession (Ministère de la Culture, mars 2010), en croissance régulière depuis 30 ans, vous laisse-t-il des marges si faibles que vous ne pouviez réinvestir la moindre somme dans la numérisation progressive de votre fonds ?

Comprenez bien, chers éditeurs, que ces questions sans réponse font planer un sérieux doute sur votre honnêteté intellectuelle. Votre défense procédurière du droit d’auteur paraît une préservation à courte vue de vos profits, de sorte que dans le cas Google, le couplet de l’exception culturelle face à l’ogre américain ne trompe personne – pas même vous, sans doute. Le meilleur moyen de défedre la culture de langue française serait de la rendre abondamment disponible en accès numérique : vous avez failli dans cette tâche, c’est à l’initiative publique (Gallica) ou privée mais étrangère (Google) que l’on doit aujourd’hui les ressources les plus abondantes.

Rien dans vos actes ne témoigne ainsi d’une vision ancienne, ample et généreuse du livre à l’âge numérique, tout démontre la précipitation et l’affolement. L’expression inadéquate de « droit d’auteur » masque de plus en plus difficilement sa réalité, à savoir un monopole de copie, et un monopole dont vous n’avez pas su user pour rendre en temps et en heure ces copies disponibles au public numérique.

Vous pouvez bien sûr continuer dans cette voie, estimant que la loi vous protège et ne vous oblige à aucun devoir vis-à-vis du public. Vous pouvez continuer à revendiquer le droit d’auteur que lorsqu’il vous est profitable et à ne surtout pas exploiter cette propriété intellectuelle quand elle vous coûte. Mais cette pratique si manifestement centrée sur vos intérêts n’aura que des conséquences néfastes : dégradation supplémentaire de votre image, éloignement des auteurs lucides, déception de vos lecteurs. Et pour finir piratage de vos best-sellers, car le respect de la propriété intellectuelle est proportionné au respect qu’inspire le propriétaire.

Je ne doute cependant pas, chers éditeurs, que vous aurez l’obligeance de répondre à mes questions et, surtout, de garantir aux lecteurs francophones que votre fonds sera prochainement et intégralement disponible sur les liseuses, à des prix et des formats accessibles pour le grand nombre.

De la pornographie sur l'iPad

Nul doute qu’avec un titre pareil, je vais faire exploser la popularité de mon blog sur les moteurs de recherche, bien plus efficacement que par mes considérations sur l’information quantique. La lecture d’un article du Monde a éveillé mon attention sur le sujet. On sait que la firme de Steve Jobs opère une censure sévère sur toute application pornographique ou érotique. Le quotidien allemand Bild en a déjà fait l’expérience, et le magazine Dazed&Confused qualifie sa propre déclinaison iPad de « version iranienne ».

Dans un échange de mail avec Ryan Tate de Gawker, Steve Jobs explique sa position : « Vous ferez plus attention à la pornographie quand vous aurez des enfants (…) Cela ne concerne pas la liberté, cela concerne Apple qui tente d’adopter une position juste pour ses utilisateurs (…) Vous pouvez être en désaccord avec nous, mais nos intentions sont pures ». Cette pureté revendiquée définit en effet le puritanisme, attitude assez rare et incompréhensible de ce côté-ci de l’Atlantique. Des producteurs de X se sont amusés à développer des versions non-Flash de leur site afin que celles-ci apparaissent sans difficulté sur iPhone ou iPad, malmenant la garantie 100% pur-de-cul de la communication d’Apple à destination des enfants terrorisés et des parents concernés.

Une chose est certaine : Apple fait ce qu’il veut sur ses supports et applications propriétaires. Le point le plus étonnant est que les médias européens tressent les lauriers de la tablette d’Apple alors que cette menace permanente de censure les ferait hurler si elle était exercée par quelque régime tyrannique. Il faut croire que les mêmes médias acceptent l’idée d’une information à deux niveaux : leurs abonnés sur l’iPad seront privés de ce qui déplaît à Steve Jobs (aujourd’hui le cul, demain autre chose), les autres non. Curieuse conception de la cohérence éthique pour une profession qui met si souvent en avant sa déontologie…

Pour comprendre la position de Jobs-le-quaker, du moins son arrière-plan, on lira avec profit le dernier essai de Marcela Iacub, De la pornographie en Amérique. On sait que les États-Unis sont la terre d’élection de la liberté d’expression grâce au Premier Amendement de leur constitution – et pour le coup, on regrette de vivre sur la rive liberticide de l’Atlantique. Mais cette liberté connaît une exception de taille : l’obscénité. Par un arrêt de 1973, la Cour suprême des États-Unis a considéré que l’obscénité constitue un message à ce point dégradé et dégradant qu’elle ne peut être considérée comme une expression ou une opinion normale. Elle serait une injonction à la lascivité, relevant du faire plutôt que du dire, donc de la sexualité elle-même et non de la parole. Par exemple, il est interdit de prononcer « fuck » sur une télévision ou une radio non câblée. Cette correction politique du langage public limite donc la liberté selon une certaine conception fonctionnelle de la langue (pas de mauvais esprit dans la lecture de cette dernière phrase SVP).

Le problème est que cette vision fonctionnelle reste mystérieusement centrée sur le sexe. Ainsi, selon l’approche pragmatique d’Austin, on peut penser que parfois « dire c’est faire » et donc que certaines paroles relèvent effectivement de l’action. Si je dis « tuez-le » en désignant une victime à une foule en colère,  j'agis plus que je ne parle. Mais la même Cour suprême considère, dans un arrêt de 1969, l’appel au lynchage des Noirs par le Ku-Klux-Klan comme relevant du régime commun de la liberté d’expression. Or, il est tout de même difficile de penser que cette incitation à l’acte violent par un propos haineux diffère ontologiquement d’une incitation à l’acte sexuel par un propos obscène. Cette aporie manifeste la nature profondément religieuse de l’imaginaire américain… dont la censure du X sur l’iPhone et l’iPad est un écho.

Mais on ne doit évidemment pas sous-estimer des arrière-pensées bien moins puritaines et bien plus publicitaires dans la stratégie de Jobs. Comme le relève Tristan Nitot sur le Standblog, le dernier gadget d’Apple n’est absolument pas le synonyme de la geek-attitude technophile et bidouilleuse (au contraire, il est conçu pour limiter au maximum l'appropriation), mais avant tout un terminal mainstream pour ceux qui veulent naviguer sans se prendre la tête. On a moqué l’Ipad comme un Minitel 2.0, mais sa philosophie se rapproche plutôt dans mon esprit de la télévision : le joli écran qui crache sans difficulté des images, du son et un peu de texte quand même, le tout en consommation plutôt passive. Passive mais non lascive, donc, car les braves gens ne consommeront que des contenus estampillés « corrects » par les « intentions pures » de Jobs et ses employés.

Référence citée : Iacub M (2010), De la pornographie en Amérique. La liberté d’expression à l’âge de la démocratie délibérative, Fayard, 332 p.

Darwinisme quantique et physique de l’information

L’humanité évolue par transfert, modification et sélection de l’information socioculturelle. La vie évolue par transfert, modification et sélection de l’information biologique. Se pourrait-il que l’univers évolue par transfert, modification et sélection de l’information quantique ? C’est, en substance, l’hypothèse que défend depuis quelques années le groupe du physicien Wojciech Hubert Zurek et dont une expérience récente suggère la validité (Burk et al, Phys. Rev. Lett. 104, 176801, voir aussi le commentaire sur PhysOrg). Ce modèle est connu sous le nom de « darwinisme quantique ».

Je vais tâcher d’introduire ces notions… en espérant rester compréhensible ! Comme le faisait remarquer Feynman avec son humour célèbre, ceux qui affirment avoir compris la physique quantique manifestent ainsi que ce n’est pas décidément le cas. Je crains de ne pas échapper à la règle… (Pour des synthèses plus fiables sur le darwinisme quantique par l’auteur de cette hypothèse, voir Zurek 2008, Zurek 2009)

Petit rappel. En physique quantique, le comportement des particules diffère considérablement de ce que nous observons des corps en physique classique, c’est-à-dire à l’échelle macroscopique. Ces particules sont les électrons, photons, bosons, quarks formant les protons et neutrons, des dizaines d’autres dont l’existence est très courte. Ce sont des quantifications discrètes de la matière, de l’énergie et des forces, d’où leur nom de quanta (singulier quantum) : ce qui nous apparaît comme continu est discontinu. Les particules ne peuvent être décrites à proprement parler comme des ondes, ni comme des corpuscules (ponctuels). Il est impossible de connaître simultanément leur position et leur vitesse. L’observation dans un appareillage ad hoc va « figer » leur comportement. La description adéquate du niveau quantique de l’univers est mathématique et se fait le plus souvent dans un espace vectoriel (un espace euclidien de nature complexe, où l’on calcule le comportement d’une fonction). L’approche déterministe de la physique classique laisse place à une estimation probabiliste (évaluation des amplitudes de probabilité représentées par une matrice, c’est-à-dire la probabilité qu’a la particule considérée de se trouver dans un état particulier) : il ne s’agit pas d’une carence de la théorie ou de l’expérimentation, mais du comportement réel des particules élémentaires. « Le vieux » joue bel et bien aux dés, selon une formule célèbre de la correspondance d’Einstein à Max Born.

Tout cela est éminemment contre-intuitif, pas seulement pour le commun des mortels mais aussi bien pour les plus grands physiciens. Einstein, dont un des articles de 1905 fut pourtant à l’origine de l’approche quantique de l’électromagnétisme (photon de lumière), passera les dernières années de sa vie à tenter sans succès de conjurer l’étrangeté quantique au profit d’une vision plus « réaliste » supposant des « variables locales » que nous ignorerions. On a expérimentalement démontré depuis que les réserves du père de la relativité n’étaient pas fondées (inégalités de Bell et expériences conséquentes), que l’infiniment petit est bel et bien infiniment étrange pour nos sens, évolutivement adaptés pour vivre dans un autre niveau de la réalité. La superposition quantique indique par exemple que les différents observables (comme la quantité de mouvement, la position) peuvent avoir des valeurs différentes au même instant t. L’intrication quantique signale que deux particules liées mais spatialement séparés communiquent instantanément car elles forment un seul système, au sens où la modification de l’une (par exemple une observation) entraîne instantanément celle de l’autre, même à des années-lumière de distance. Tout cela ne relève plus de la spéculation (comme dans la période des fondateurs, 1900-1930), mais de l’expérimentation depuis que l’on peut manipuler des particules isolées ou assemblées dans des conditions ad hoc (que ce soit des photons monochromes, des électrons, des atomes froids, des condensats de Bose-Einstein, etc.).

Parmi les nombreuses questions qui intéressent les physiciens se trouve celle de la transition d’un ensemble infini d’états quantiques plus ou moins probables vers un état classique « certain », localisé et familier, celui que la physique newtonienne décrit, où la superposition, l’intrication et autres propriétés étonnantes ont disparu. La théorie dominante est celle de la décohérence : toute interaction avec un élément de l’environnement E (y compris bien sûr un appareillage d’enregistrement) rend les fonctions d’ondes du système incohérentes (déphasées ou orthogonales), ce qui signifie que la probabilité de superposition de ces fonctions devient nulle, en d’autres termes que le système prend un « état pur » (observable et cohérent du point de vue macroscopique) par « effondrement de la fonction d’onde » (aussi appelée « réduction du paquet d’onde », cette image venant de la mécanique ondulatoire de Broglie et Schrödinger). C’est ici qu’intervient le « darwinisme quantique » de Zurek.

Zurek repart principalement de trois postulats de la physique quantique (un peu plus, mais on simplifie ici en allant à l’essentiel) : (i) il y a des états quantiques superposés (représentables dans un espace vectoriel), (ii) leur évolution est unitaire (évolution dans le temps de l’équation de Schrödinger, pour un système non relativiste), (iii) les mesures mènent aux mêmes résultats (nous observons tous une même réalité objective, dans un labo ou dans la rue). Il ajoute un autre axiome évident, mais ignoré des manuels : (o) L’univers est fait de systèmes.

Comme nous l’avons dit, on a mis en avant l’idée que toute observation (iii) provoque un « effondrement de la fonction d’onde » et réduit un système quantique au seul état observable. Zurek suggère une formulation différente de la question : dans les états quantiques possibles, certains sont plus résistants à l’environnement que d’autres. Il les nomme des « pointer states » (que l’on pourrait traduire par « états accessibles à une observation »). Par exemple si vous regardez un arbre, et que cette expérience classique doit être traduite en termes quantiques, vous observez plutôt l’interaction du rayonnement (en lumière visible) sur la matière de l’arbre, c’est-à-dire en dernier ressort un « environment-induced state » de l’arbre (« état induit par l’environnement ») résultant lui-même d’une « einselection » (« sélection par l’environnement » dans les états possibles, aussi appelée « supersélection » par Zurek). Pour le dire autrement, si l’on prend un système quantique (S) et son environnement (E), les états de S vont plus ou moins modifier E (ou des sous-ensembles de E, des fragments F) et ce sont les états les plus robustes qui finissent par dessiner les observables de E. Cela mène Zurek à parler de « l’environnement comme témoin ».

Comment s’opère cette empreinte d’un système quantique sur son environnement ? Zurek propose une relecture de la théorie des probabilités sur laquelle je ne m’étendrai pas ici. En deux mots, l’approche « subjective » et familière de Laplace (nous ne savons pas quel côté de la pièce sera sélectionné) est remplacée par une approche objective déduite de la symétrie des états intriqués (décomposition de Schmidt des produits tensoriels d’un vecteur en deux ensembles orthogonaux). Cela permet de retrouver la règle de Born mais en évitant l’hypothèse initiale ad hoc de l’additivité des probabilités.

Physiquement, Zurek donne à l’information un statut assez nouveau dans notre vision du réel puisque l’environnement devient un « canal de communication » des états quantiques les plus redondants. C’est en cela que le darwinisme quantique est une théorie de l’information.

Comme le note Zurek (2008 23), « le spectre de l’information hantait et hante encore la physique ». Un état classique est « réel », doté d’une existence objective au sens où des observateurs ignorants les uns des autres parviennent aux mêmes observations indépendantes. Mais l’information ne paraît pas « réelle » de la même manière : elle désignait ce que l’observait connaît subjectivement, « un simple reflet de l’état réel, non pertinent pour la physique ».

Cette vision est appelée à être dépassée, nous dit Zurek. « Dans une approche quantique, l’information et l’existence deviennent interdépendants. L’état réel est défini et rendu objectif parce que nous savons de lui – par l’information. » Il cite mot célèbre de son professeur, John Archibald Wheeler : « it from bit » (Wheeler, élève d’Einstein, fut aussi le professeur de Feynman quand celui-ci formalisa la quantique en intégrales de chemin, à la base de ses futurs diagrammes, et de quelques autres pointures de la physique quantique, voir Misner et al 2009). Et un autre de Landauer : « L’information est physique ». Ces auteurs sont parvenus à la même conclusion par des approches différentes – l’analyse des trous noirs chez Wheeler, de l’entropie et du démon de Maxwell chez Landauer (voir Leff et Rex 2003).

Hugh Everett est célèbre pour avoir mené la physique quantique à son terme logique, en portant sur elle un autre regard que celui de la génération des fondateurs : au lieu de chercher d’une manière ou d’autre autre à interpréter le monde quantique par le monde classique (de nos sens), libérons notre esprit et faisons plutôt des hypothèses novatrices sur le monde classique depuis l’évidence du monde quantique. La conclusion d’Everett sur les « mondes parallèles » est néanmoins restée très obscure, bien qu’un certain nombre de physiciens la défendent (voir par exemple Deutsch 2003, Lepeltier 2010 pour une introduction vulgarisée) : le chercheur défendait l’idée que chaque état quantique définit un univers et que les univers se divisent en permanence. Le paradoxe du chat de Schrödinger devenait : dans un univers le chat est mort, dans un autre il est vivant. Et nous-mêmes existons dans un grand nombre de mondes parallèles.

L’approche élégante de Zurek reprend la première intuition d’Everett (partir du quantique et trouver la meilleure explication du classique, fut-ce au détriment de nos catégories familières) en évitant soigneusement la seconde, qui est contre-intuitive, peu testable et induit des complications inutiles. Il parle d’une « interprétation existentielle » : « Son essence est une définition opérationnelle de l’existence objective des états physiques : pour exister, un état doit, au grand minimum, persister ou évoluer de manière prédictible malgré l’immersion du système dans son environnement. La prédictabilité est la clé de la sélection induite par l’environnement (einselection) ».

Toutes ces considérations – si vous avez eu le courage de les suivre jusqu’ici ! – paraissent bien abstraites et lointaines Pourtant, la physique quantique sous-tend un nombre croissant de nos réalisations : transistor et semi-conducteurs, laser, ensemble des nanotechnologies appelées à modifier nos manipulations de l’énergie, de la matière et à l’information, états mésoscopiques, etc. Sans la compréhension quantique de l’électron, vous ne seriez pas en train de me lire. Toutes ces révolutions de la vie quotidienne induites par la technoscience forment un moteur prépondérant d’évolution des sociétés, mais nous y sommes généralement aveugles – au sens où l’on observe une sous-information chronique concernant la technique et la science, de sorte que les débats concernent des enjeux souvent plus futiles.

L’information quantique apportera son lot de bouleversements concrets – le travail est par exemple avancé sur des solutions de cryptographie quantique inviolable, car fondées sur le spin des particules et leur modification d’état en cas d’interception par un tiers, ou bien inversement sur la factorisation rapide de nombres très grands permettant de casser aisément des codes réputés inviolables en calcul classique. (Quand on sait la place du secret dans tout édifice politique, ce genre d’innovation ne sera pas neutre.) On peut se représenter ces questions d’information quantique à partir du démon de Maxwell. Dans une expérience de l’esprit, le père de l’électromagnétisme conçoit un être imaginaire (le démon) qui commande le sas entre deux compartiments d’une boite contenant un gaz. Ce démon laisse passer les molécules les plus rapides du sas B vers le sas A. Comme la température est fonction de la vitesse moyenne des molécules, il parvient ainsi à violer les lois de la thermodynamique. Si Landauer (et non Brillouin comme l’écrit Wikipedia) a exposé l’impossibilité physique du démon (en raison du travail nécessaire à l’effacement intermédiaire de sa mémoire), il n’en reste pas moins que cette expérience de pensée trace une voie de recherche, celle de la manipulation de l’information à son niveau le plus pertinent par les moyens les plus efficaces (moindre action, moindre temps et moindre énergie).

Un certain nombre d’observateurs pensent ainsi que l’accélération du savoir, c’est-à-dire la croissance de plus en plus rapide des explications du réel et des applications sur le réel, ouvre une ère qui rendra caduque bon nombre de nos questionnements « classiques ». Car il ne s’agira plus de s’adapter à la nature des hommes et des choses, mais bien de réécrire cette nature dans son langage intime, celui de l’information. On peut ainsi laisser divaguer son imagination. Par exemple, l’information étant définie comme le contraire de l’entropie – et l’irréversibilité de cette dernière comme la base physique de la flèche du temps –, penser un monde où l’information tend vers la préservation d’un présent éternel…

Références citées : Deutsch D (2003, 1997), L’étoffe de la réalité, Cassini ; Leff HS, Rex AF (2003), Maxwell’s Demon 2. Entropy, classical and quantum information, computing, Institute of Physics Pub ; Lepeltier T (2010), Univers parallèles, Seuil ; Misner CW et al (2009), John Wheeler, relativity, and quantum information, Physics Today 62 (4) 40-46 ; Zurek WH (2008), Relative states and the environment: Einselection, envariance, quantum Darwinism, and the existential interpretation, arXiv:0707.2832 ; Zurek WH (2009), Quantum Darwinism (arXiv:0903.5082), Nature Physics 5, 181-188.

Plateformes et liseuses numériques: la revanche des indépendants?

En contrepoint des déclarations récentes des éditeurs français, Actualitté révèle qu’Apple vient de lancer sur l’iBookstore son offre en auto-édition. Plus exactement, une méthode simplifiée par laquelle un auteur propose son livre (déjà maquetté en ePub) dans les pays de son choix. Amazon comme Barnes & Nobles ont déjà des offres similaires. Il serait douteux que Google Editions et Sony ne développent pas ce marché dans les mois à venir.

Gallimard, Nourry et compagnie raisonnent dans le domaine numérique comme ils raisonnaient dans le domaine papier : la concentration de l’édition industrielle, les moyens importants de production, de diffusion et de promotion y permettaient une politique arrogante de l’offre. L’auteur se mettait à genoux pour obtenir un contrat léonin lui concédant 8 % de droits en moyenne, pour huit semaines d'espérance de vie en librairie (et en moyenne aussi). Le lecteur devait accepter les prix des étals de libraire, où 80 % des titres provenaient de 20 % des producteurs. Tout cela était vanté comme un modèle de diversité, de qualité et d'équité... par ceux qui avaient intérêt à entretenir cette légende.

Le livre numérique change la donne. Les contrats directs de diffusion proposés aux auteurs par Apple, Amazon et autres distributeurs accordent 70 % de royalties sur les ventes, soit huit fois plus que le contrat d’éditeur standard dans le monde papier. De surcroît, comme les éditeurs français développent des usines à gaz en diffusion, ils ne garantissent même pas à leurs auteurs d’être présents sur toutes les grandes plateformes existantes ou à venir dans l’année, dont celle de Google en procès avec plusieurs d’entre eux.

En 2011, un primo-auteur pourra donc sans grande difficulté* placer son livre numérique directement sur les vitrines d’Apple, d’Amazon, de Google, de Sony, et de celles des librairies françaises en ligne (type Fnac, Decitre ou autre) qui accepteront les ouvrages auto-édités. Comme il recevra 70 % du montant des ventes, il pourra proposer un prix bien plus attractif que celui des grandes maisons et bénéficier ainsi d’un avantage non négligeable sur ses compétiteurs. Car le lecteur ne peut lire tous les romans : il ira vers ceux qui proposent une large part du contenu en découverte gratuite, et la suite à un prix minime.

Des petites maisons d’édition ont également compris tout l’intérêt de la période présente. Publie.net de François Bon propose ainsi sur l’iBoookstore des textes entre 0,49 et 5,99 euros, quand la plupart des éditeurs sont au-dessus de 15 euros. Ainsi, sur l'iPad, Autre monde 3 - Le coeur de la terre de Maxime Chattam (Albin Michel) est proposé à 15,99 euros... quand on le trouve en papier et en neuf à 15,84 euros sur Amazon. 

A ceux qui objectent qu’Amazon, Apple et consorts ne sont que des multinationales avides de profits, on répondra : que la plupart des libraires sont d’ores et déjà devenus des vendeurs de papier, et qu’il en va de même pour les industriels de l’édition ; que les librairies en ligne font une part importante de leurs chiffres d’affaires sur la longue traîne, donc qu’elles ont tout intérêt à accueillir les « petits » contrairement aux librairies physiques qui privilégient les « gros » pour survivre ; qu’à défaut d’une licence globale doublée d’un site universel de téléchargement gratuit, les auteurs indépendants doivent chercher tous les moyens de diffusion de leurs œuvres ; qu’Amazon, Apple et consorts sont effectivement de simples dépôts géants et que l’auteur indépendant doit les utiliser comme tels, en développant par ailleurs une politique de lien direct avec ses lecteurs par tous les outils du web 2.0 (blog, microblogging, réseaux sociaux, etc.).

Empêtrés dans une chaîne du livre qu’ils avaient bâtie pour contrôler le marché papier, les dinosaures de Gutenberg abordent donc cette décennie décisive dans une position difficile et défensive. Comme ils n’ont pas bien pris la mesure de ce que signifie la numérisation, et conservent le ton hautain des dominants sûrs de leur fait à la manière des Nourrymard, il va de soi que j’encourage les auteurs comme les lecteurs à prendre leur indépendance.

D’autant que cette édition industrielle ne peut même plus se prévaloir d’une garantie de qualité dans les livres qu’elle propose au public, vu qu’elle a multiplié depuis trois décennies les sorties à seule fin d’occuper les étalages et de faire tourner la trésorerie. Qui n’a jamais terminé un roman ou un essai publié par une « grande » maison d’édition en se demandant comment cette œuvre insignifiante, et oubliée le lendemain, pouvait encore valoir 15 ou 20 euros ? Et qui, au contraire, n’a jamais découvert une perle publiée par une maison d’édition confidentielle ?

(*) Sous réserve que certaines plateformes ne réclament pas l'exclusivité, comme le vieux monde de l'édition. L’auteur numérique devra par ailleurs assurer deux étapes : produire en ePub un livre de bonne qualité ; assurer sa promotion sur l’Internet. Pour l’une et l’autre de ces tâches nécessaires, nous travaillons précisément avec des amis à une offre gratuite ayant pour but de faciliter la vie des auteurs comme celle des lecteurs. Des nouvelles bientôt…

Arnaud Nourry dans le texte

Après Gallimard, Arnaud Nourry (Hachette) donne sa vision de l’iPad et du livre numérique dans un entretien au Nouvel Observateur. Mes lecteurs connaissent mon ami Nourry dont j’ai critiqué la politique de prix, ainsi que le chiffrage bizarroïde du bilan carbone du livre papier comparé aux liseuses… Comment son discours a-t-il évolué ?

« L'information est facilement substituable d'un site à l'autre, donc difficile à faire payer. Nous, éditeurs, avons la chance de vendre des contenus exclusifs et donc irremplaçables. Quand vous voulez acheter un livre, c'est celui-là et pas un autre. Cette exclusivité protège notre modèle économique et nous a permis de résister à la pression des distributeurs américains quand ils ont voulu casser les prix des livres numériques. »
Commentaire. L’argument est connu : les méchants Apple, Amazon et Google veulent casser les prix et vendre à perte, les valeureux éditeurs maintiennent le cap pour sauver les auteurs et les libraires. (Le lecteur est une vache à lait, il fait vivre tout ce beau monde et doit accepter ces débats sans moufter). Cette rhétorique repose sur un déni initial : le livre numérique est nettement moins coûteux à produire et surtout à distribuer que le livre papier. Les éditeurs industriels tentent de faire croire que le livre numérique est coûteux ce qui est faux (voir l’étude récente du MOTIf) : les surcoûts inutiles viennent de leurs DRM, de leur refus de proposer un simple contenu homothétique pour les livres qui s’y prêtent (les deux-tiers du marché), et surtout de leur volonté de contrôler la distribution (ce qui impose tous les frais d’une étape supplémentaire entre l’auteur et le lecteur, comme la plateforme Numilog pour Hachette). Enfin, dans nombre de domaines (guides, essais, beaux-livres et même roman contemporain), il est faux que l'on veut acheter tel livre en particulier : à côté des auteurs auxquels on est fidèle, de nombreuses lectures relèvent de l'opportunité et de la découverte. Les auteurs dont les éditeurs imposent un prix élevé pour la version numérique doivent s'attendre à une rude concurrence du gratuit ou du très bas prix. 

« Notons le plus important : le marché du numérique n'a pas cannibalisé celui du papier. Les ventes de nos auteurs n'ont pas baissé en librairie depuis deux ans. Ce ne sont pas les mêmes acheteurs. Peut-être y aura-t-il un effet sur les ventes des livres de poche ? »
Commentaire. Cet argument n’a guère de portée : le numérique représente actuellement moins de 5 % du marché global du livre aux États-Unis et au Royaume-Uni, moins de 0,5 % en France selon Serge Eyrolles (SNE). Même sur le Kindle Store ou l’iBookStore, l’offre éditoriale numérique reste très faible par rapport à l’offre papier, qu’il s’agisse des livres nouveaux et plus encore du fond des livres anciens. La « cannibalisation » est inévitable à mesure que l’équipement en liseuse et la disponibilité en numérique progressent.

« Les coûts de fabrication sont inférieurs et (…) la lecture électronique n'est pas naturelle : à prix égal, la plupart des gens préfèrent le papier. Il faut donc consentir un avantage au lecteur pour déclencher l'achat. En France, il faut que nous visions pour le numérique des tarifs de 20 % à 25 % inférieurs aux tarifs des livres traditionnels. »
Commentaire. Numilog va devoir faire un effort : quand j’ai testé les prix de leur vitrine le mois dernier, la décote sur les dix livres mis en avant était de… 7,7%. Et un ouvrage comme Les Fourmis de Werber, disponible en poche depuis de nombreuses années, était initialement proposé sur iPhone à 17,99 euros soit une hausse de 300 % par rapport au prix papier ! Je n’ai pas revérifié ces données depuis, mais nous sommes pour le moment loin des 25 %. Le problème est surtout que les enquêtes lecteurs montrent une attente à 50 % de ristourne minimum, et celle-ci est parfaitement justifiée.

« Pour l'instant, la loi Lang sur le prix unique ne concerne pas les livres numériques. Nous sommes cependant favorables à l'extension de la loi Lang à ce marché, car nous ne voulons pas que nos livres et nos auteurs deviennent la proie de bagarres commerciales entre les différents revendeurs numériques ou un simple produit d'appel pour pousser les ventes de lecteurs numériques au prix fort. »
Commentaire. L’extension de la loi Lang serait probablement une erreur, comme je l’avais exposé ici, après avoir écouté l’intervention de Françoise Benhamou au Sénat. L’objectif principal du prix unique (papier) de cette loi Lang était de soutenir le maillage territorial des librairies : cela n’a pas de sens pour les livres numériques puisque l’Internet sera désormais le lieu virtuel de leur circulation. En revanche, le prix unique signifie un livre artificiellement cher, ce qui est socialement et culturellement contreproductif. La révolution du poche doit être achevée par le numérique, avec des livres contemporains rapidement accessibles à quelques centimes ou quelques euros, s’ils ne sont pas gratuits. Le prix n’est certes pas le seul facteur d’incitation ou de désincitation à la lecture, mais il est absurde d’en faire encore une barrière socio-économique alors que nous avons la possibilité d’un accès universel et quasi-gratuit.

« Les libraires se préparent à cette évolution et nous allons les y aider : ils pourront profiter du catalogue numérique commun des trois principales plates-formes des éditeurs français pour vendre eux-mêmes nos livres sous forme numérique. Ainsi, les clients attachés aux conseils de leur libraire habituel pourront-ils acheter et télécharger sur place ou sur le site de ce libraire (…) Cela va plus vite que nous ne l'imaginions mais, comme nous étions prêts et que nous avions réussi à créer un écosystème vertueux, je suis plutôt optimiste pour la suite. Cette mutation est passionnante une fois qu'on est dedans. Et je le répète aux libraires français : ils ne doivent avoir aucun doute. Tous les acteurs français du livre tiennent au maintien du réseau de librairies indépendantes. »
Commentaire. Contrairement à Gallimard, Hachette sera présent sur l’iPad. Raison pour laquelle une bonne moitié des propos d’Arnaud Nourry est consacrée (implicitement ou explicitement) à rassurer les libraires, qui sont encore indispensables à Hachette (et aux autres) pour le marché papier. Je ne peux que répéter ce que je disais hier en commentant Gallimard : cette idée que le libraire sera un intermédiaire incontournable du livre numérique est une absurdité pure et simple, au mieux un aveuglement et au pire une hypocrisie. C’est un peu comme si l’on prétendait en 2000 que le disquaire est indispensable pour aider le client à choisir dans l’offre pléthorique de musique. Ou que le magasin de vidéo en DVD sera irremplaçable pour aider le pauvre spectateur face à l’abondance de la VOD. Matériellement, le libraire est incapable de lire les 60.000 nouveautés annuelles (ou 600.000 livres disponibles), ce qui rend la valeur de son conseil très relative. Ce n’est pas le cas de la communauté des internautes prise dans son ensemble : celle-ci peut et pourra au contraire produire des commentaires, des conseils et des critiques sur tous les livres, même les plus confidentiels. C’est une des conséquences très intéressantes de la révolution numérique du livre : les lecteurs prennent la parole, se libèrent des « experts » ou des « intermédiaires », permettent éventuellement de faire connaître des auteurs n'ayant pas le chance de plaire aux médias centraux (ou... aux libraires).

Conclusion : Nourry comme Gallimard n’ont pas un mot pour le lecteur, et à peine un demi pour l’auteur, qui sont pourtant l’alpha et l’omega de l’édition. La « chaîne du livre » mérite son nom : si elle n’a d’autre discours que la défense de ses profits parasites, elle doit être brisée. 

Antoine Gallimard dans le texte

Dans les Echos, Antoine Gallimard (pdg du groupe éponyme) précise sa position sur la tablette d’Apple et sur le livre numérique. Comme d’habitude, la langue de bois sous les mots de velours. Quelques commentaires.

« Dès sa sortie cette semaine, des ouvrages des Editions Gallimard seront présents sur la tablette d'Apple au travers d'une application gratuite, Edenreader(…). L'internaute pourra ainsi télécharger - moyennant finance -un livre sous format numérique, chez un libraire, par exemple, puis transférer son fichier sur l'iPad. En revanche, nos livres ne seront pas proposés dans la librairie virtuelle d'Apple, l'iBookstore. »
Commentaire. Comme c’était prévisible, le grand cafouillage commence chez les industriels de l’édition : chacun y va de son application afin de maîtriser la commercialisation de ses livres sur les supports numériques, comme il les maîtrisait dans la chaîne papier concentrée à souhait. Résultat : le lecteur ne sait pas quelle offre il trouvera sur quelle liseuse.

« Apple envisage de bâtir une grille tarifaire avec six catégories de prix de vente fixes imposées à l'éditeur. Cela perturberait le jeu. Dans ce schéma, l'éditeur perd la maîtrise de son prix de vente (…) De ce fait, le passage au numérique risque, pour lui, de s'accompagner d'une dégradation de la valeur. Ensuite, Apple veut imposer au livre numérique un niveau de décote calculé à partir du prix de vente du livre papier. Ce n'est pas tant ce principe ou le niveau de la décote que je trouve gênant, mais son caractère automatique et subi par l'éditeur. »
Commentaire. Traduction en clair : Apple veut baisser nettement les prix du numérique par rapport au papier, les éditeurs n’y ont aucun intérêt. Les premiers prix annoncés par ces éditeurs sont élevés en France : entre 5 et 25 % de décote seulement pour des romans homothétiques, quand le public attend au minimum 50 %. Les éditeurs refusent une évidence, à savoir que le prix d’un roman traditionnel (qui forme une bonne part du chiffre d’affaires Gallimard) sera nécessairement très bas pour son format numérique, dans la mesure où les lecteurs attendent en tout et pour tout le texte, si possible chapitre par chapitre (le livre étant un bien d’expérience, autant que cette expérience ne continue pas si l’on est clairement déçu par les cinquante premières pages).

« Le risque de position de monopole d'Apple sur le marché du livre est préoccupant. L'édition ne doit pas se retrouver dans la situation de la musique, où le groupe américain est à la fois le premier constructeur de lecteurs avec l'iPod et le premier vendeur de morceaux. C'est précisément la raison pour laquelle les éditeurs français cherchent à rendre les trois principales plates-formes de distribution de livres numériques - Eden Livres, ePlateforme et Numilog -interopérables. »
Commentaire. Cette position est incompréhensible. Il y a déjà quatre acteurs mondiaux de diffusion du livre numérique ayant chacun sa boutique : Apple, Kindle, Sony, Google Edition en juillet. Par ailleurs, les grandes librairies ou les chaînes de détaillant culturel ont également des sites de vente au public : Fnac, Decitre, Gibert, etc. Il n’y a aucun monopole et cet argument fallacieux sert à brouiller inutilement les esprits.

« C'est vrai, le Kindle d'Amazon existe. Mais les conditions commerciales qu'Amazon propose à l'heure actuelle aux éditeurs français ne nous conviennent pas. Quant à Google, il ne représente pas grand-chose aujourd'hui dans la vente de livres (…) Le moteur de recherche fait actuellement le tour des éditeurs français, mais il n'est pas venu voir le groupe Gallimard, car nous avons décidé de déposer contre lui une plainte pour violation du droit d'auteur. »
Commentaire. Gallimard se contredit donc d’une question l’autre. Le soi-disant « monopole » est créé par son refus de traiter avec certains distributeurs. Le rôle d’un éditeur est de produire un livre numérique aux plateformes qui souhaitent le diffuser : telle est du moins la perception commune. En réalité, ces éditeurs industriels ne veulent pas sacrifier le nœud stratégique de leur puissance dans la chaîne papier, à savoir la distribution et diffusion (pour Gallimard, ces structures se nomment SODIS, Centre de diffusion de l’édition, France Export Diffusion). Être « simplement » éditeur représente une perte de maîtrise sur le marché qu’ils n’acceptent pas. La mise en avant de grands principes – nous défendons la diversité, nous défendons la propriété – masque difficilement cette quête de profit et de contrôle.

« Une maison comme Gallimard a toujours misé sur les libraires pour l'exploitation de son fonds. Dans l'univers du livre imprimé, ils jouent le rôle précieux de prescripteurs. Nous ne pourrons pas nous passer d'eux dans le monde numérique. »
Commentaire. A nouveau, cette position est incompréhensible : tout le monde sait, à commencer par les principaux intéressés, que le libraire traditionnel (papier) ne sera plus un intermédiaire du livre numérique. Il l’est déjà de moins en moins : combien de points de vente sont devenus de simples étalagistes qui vendent le livre au kilo ? Sur l’Internet, les meilleurs conseillers deviennent les lecteurs eux-mêmes ; en laissant leurs commentaires et notes sur les plateformes de vente, en nourrissant les blogs de critiques, en s'exprimant sur les réseaux sociaux. Il est artificiel de prétendre le contraire, et c’est surtout très hypocrite : tant que le papier représente l’essentiel du marché, les éditeurs ont besoin des libraires ; c’est notamment pour les caresser dans le sens du poil qu’ils montent des usines à gaz de diffusion du livre totalement inadaptées à l’Internet.

Conclusion. Le lecteur français est prévenu : il sera dans un premier temps la victime du livre numérique, au profit d’une chaîne papier qui refuse de revoir son modèle économique, qui veut conserver toutes ses marges, qui pour cela retarde et complexifie inutilement le développement de l’offre en ligne. Les livres numériques seront éparpillés d’une plateforme l’autre, d’un format l’autre, d’un DRM l’autre. Difficiles d’accès, ils seront en outre plus chers qu’ils ne pourraient l’être. Les éditeurs sont bien partis pour reproduire la même erreur que les maisons de disque : ils favoriseront le développement d’une offre gratuite (légale ou non) et ne feront qu’abaisser ainsi le futur consentement à payer pour un livre numérique. Quant aux auteurs, ils seront en numérique comme en papier prisonniers des diktats de leurs éditeurs, qui les priveront des plus importantes plateformes de distribution si tel est leur bon-vouloir.

«L’erreur historique» de la gratuité…

Didier Quillot, président du directoire de Lagardère Active, expose ses convictions dans un entretien accordé aux Echos. On peut y lire : «La bonne nouvelle, c'est que l'écosystème d'Apple repose sur un ‘business model’ basé sur le payant, à l'inverse d'Internet. Il faut installer sur les tablettes un écosystème vertueux et profitable pour accompagner la mutation de la presse vers le numérique et ne pas renouveler l'erreur historique commise sur Internet avec la gratuité des contenus.» Bel exemple de charabia pour école de commerce...

Ainsi, dans l’esprit d’un industriel du contenu, la gratuité d’Internet se résume à une «erreur historique». Et Steve Jobs le messie vient corriger cette erreur en restaurant le payant et le propriétaire. Mon conseil aux Internautes – pardon, aux consommateurs : n’achetez surtout pas l’iPad hors de prix, et soumis au bon-vouloir tyrannique d’Apple et de ses amis industriels, attendez Noël pour choisir une tablette conçue sur des systèmes ouverts et continuez bien sûr de surfer gratuitement.

Marielle Gallo ou Lady Gaga?

En début de semaine prochaine (1er juin), la commission des affaires juridiques de l’Union européenne doit examiner le rapport de la députée française Marielle Gallo sur le renforcement de la propriété intellectuelle (voir ici le préprojet en pdf, ici et ici des analyses de ce rapport). Il s’agit d’une consternante synthèse des diktats de tous les lobbies industriels, où le piratage de musique par un collégien est mis au même niveau que la contrefaçon d’une marque de luxe ou la fabrication clandestine de médicaments. Et où la France essaie d’étendre son Hadopi à toute l’Europe.

Le premier considérant de ce projet de rapport annonce la couleur : «les infractions des droits de propriété intellectuelle (…) constituent une menace réelle pour la santé, la sécurité des consommateurs, mais aussi pour notre économie et nos sociétés». Je me demande si les auteurs de ces lignes les relisent, s’ils prennent le temps de penser au sens et à la portée des mots, s’ils envisagent un moment qu’ils en font peut-être un peu trop, s’ils réfléchissent aux «menaces» pesant sur l’économie et sur la société en évaluant la place réelle de la propriété intellectuelle parmi ces risques. Je crains que non.

Il est vrai que Marielle Gallo est porte-parole d’un mouvement appelé «Gauche moderne» tout en étant membre de la majorité présidentielle sarkozyste, de sorte qu’invoquer la notion de «sens des mots» paraît vain. Cet improbable groupuscule se réclame dans son manifeste d’«une politique pragmatique, attentive aux résultats, à ce qui marche et à ce qui répond à la demande sociale» : comme d’un point de vue «pragmatique», la répression du piratage ne donne aucun «résultat», ne «marche» pas et qu’elle réprime une forte «demande sociale» au lieu de lui répondre, je pense que cette bouillie lexicale traduit une grande confusion mentale.

Bien moins langue de bois, deux artises viennent d’exprimer leur doute sur ces menées industrielles.

Mike Jagger déclare à la BBC qui l’interroge sur Internet et le p2p : «Les gens n’ont fait de l’argent sur leur disque que pendant une toute, toute petite période. Quand les Rollings Stones ont décollé, on ne se faisait pas d’argent parce que les compagnies de disque ne vous payaient pas ! Elles ne payaient personne ! Et puis il y a une période, entre 1970 et 1997, où les gens ont été payés, et cela très très correctement, chacun se faisait de l’argent. Mais cette période est désormais achevée. Donc si vous regardez l’histoire de la musique de 1900 à nos jours, il y a une période de 25 ans où les artistes gagnaient très bien, mais le reste du temps cela n’a pas été le cas».

Lady Gaga, qui n’a pu accumuler une fortune pendant cette période atypique de 25 ans, n’en partage pas moins le point de vue de son aîné, comme elle l’a expliqué au Times : «Je déteste ces gros groupes qui balancent juste un album, genre ‘achète-le enculé !’ C’est minable pour les fans. Vous devez sortir et faire des tournées en Inde, au Japon, au Royaume-Uni. Je ne crois pas à la manière dont l’industrie musicale se comporte aujourd’hui. Je crois à ce qu’elle était en 1982». 

L'unique et le numérique

Au Centre Iris de Paris, on peut voir jusqu’au 19 juin les très beaux travaux en collodion humide de Quinn Jacobson. Depuis environ un an, on a vu apparaître en magasin photo des Stenoflex, un sténopé (camera obscura très simple) prêt à l’emploi. L’Impossible Project lancé par des passionnés de Polaroïd a repris la production de ces films magiques à développement instantané et couleurs douces ayant enchanté plusieurs générations.

La photographie, comme tous les autres modes de capture, stockage et transfert d’information, a connu la révolution numérique. Celle-ci s’est accélérée depuis le début des années 2000. Le moindre smartphone produit des images (comme celles qui agrémentent ce blog), les appareils professionnels en moyen format ou capteur 24x36 parviennent à des résultats très honorables. Et pourtant, non seulement l’argentique ne disparaît pas, mais toutes sortes de procédés ressurgissent comme en témoignent les trois actualités sélectionnées ci-dessus. Bien sûr, ce ne sont plus des marchés de masse. Mais certainement des productions de niche, ou des choix artistiques, appelées à durer. Elles n’empêcheront pas la progression continue de la qualité numérique, et sa démocratisation.

Il me semble que ce phénomène ne traduit pas une simple nostalgie : j’y vois plutôt l’attrait de l’unique, de l’objet non-réplicable. Pour l’homme, ce qui est abondant a peu de valeur, ce qui est rare est recherché, l’unique est la forme la plus rare. L’incroyable spéculation dont le marché de l’art est l’objet tient notamment à cela : au-delà des effets de mode sur tel artiste, qui produit les bulles, et de la relativisation générale de la valeur esthétique dans l’art contemporain, ce marché tient d’abord à ce qu’il propose des pièces uniques ou à tirages très limités. On peut pronostiquer que la réplication virtuelle, générique et numérique de toute information rendra son inscription matérielle, singulière et originale plus recherchée. Ceux qui redoutent la valeur zéro de l’information numérique devraient réfléchir à cette voie, lorsqu’elle est possible pour leur art. 

L’information, c’est la vie. Et le code, c’est la loi

Le biologiste américain Craig Venter et son équipe ont mis au point la première bactérie dotée d’un génome synthétique, c’est-à-dire d’un génome assemblé pièce par pièce (Gibson et al 2010). Cette découverte, attendue depuis quelques années, a été abondamment commentée. Elle ouvre des horizons immenses, que certains jugeront enthousiasmants et d’autres inquiétants.

Côté enthousiasme, on peut par exemple imaginer la conception de bactéries ou d’algues synthétiques conçues pour capter le CO2 atmosphérique ou pour produire du biocarburant. Côté inquiétude, et si la méthode est efficacement généralisée à des organismes complexes, il n’y aurait pas d’obstacle de principe à produire un être humain dont les gènes ont été sélectionnés un par un sur odinateur avant implantation dans un ovocyte énucléé. De manière moins grandiloquente (car le fantasme ne sert pas à grand chose), et comme l’observe d’une heureuse formule George Church, la biologie synthétique en pleine expansion devra éviter deux scénarios : « la bio-erreur et la bio-terreur » (Church 2010).

Le point sur lequel j’aimerais insister, dans le cadre de ce blog, c’est le triomphe de la conception informationnelle de la vie représentée par l’avancée de Craig Venter et de ses collègues. Ceux-ci l’expriment d’ailleurs clairement dans leur papier : « Notre approche par génomique synthétique se distingue très clairement d’un autre type d’ingénierie génétique qui modifie les génomes naturels en introduisant de multiples insertions, substitutions ou délétions. Ce travail produit une preuve de principe pour la production de cellules fondée sur des séquences génomiques conçues par ordinateur. Le séquençage ADN du génome cellulaire permet le stockage des instructions génétiques de la vie comme fichier numérique ».

Quand Schrödinger formule l’hypothèse d’un cristal apériodique comme support de l’hérédité, il dit en parlant des chromosomes où se trouvent les gènes : « ils contiennent d’une certaine manière le code-script du processus entier du futur développement de l’individu et de son fonctionnement à un état mature » (Schrödinger, 1994, 1992, 21). Quand quelques années plus tard Watson et Crick déchiffrent la structure en double hélice de l’ADN (l’un d’entre eux ayant réfléchi à partir de Schrödinger), ils soulignent que l’organisation proposée produit « un mécanisme de copie du matériel génétique » (Watson et Crick 1953). Et depuis lors, les images du code, de l’information et la copie sont attachées à la génétique.

Il va de soi que six décennies de biologie moléculaire et cellulaire ont complexifié le tableau de l’expression des gènes et de leur rôle relatif dans la développement de l’organisme, mais tout cet édifice emploie néanmoins les mêmes métaphores : les éléments du vivant transmettent de signaux chimiques et physiques par lesquels la vie produit son organisation et ses propriétés émergentes, esprit compris. La bactérie à génome synthétique de Craig Venter représente un aboutissement victorieux de cette méthode d’analyse en même que le commencement prévisible de son extension : la communication entre flux d’information génétique et numérique, avec conception du premier par le second.

« Le code, c’est la loi », a écrit Lawrence Lessig en 2000 à propos de la régulation et de la liberté sur l’Internet. Il me paraît intéressant de réfléchir à cette perspective dans l’ensemble plus vaste du vivant.

Références citées : Church G. (2010), Now let’s lower costs, in Life after the synthetic cell, Nature, doi : 10.1038/465422a (pdf, anglais) ; Gibson DG et al (2010), Creation of a bacterial cell controlled by a chemically synthesized genome, Science, doi : 10.1126/science.1190719 ;
Schrödinger E (1944, 1992),What is life?: the physical aspect of the living cell, Cambridge University Press ; Watson JD, FHC Crick (1953), Molecular structure of nucleic acids: A structure for deoxyribose nucleic acid, Nature, 171, 737-738. 

Interdire l'anonymat: la mauvaise idée du sénateur Masson

Le sénateur Jean-Louis Masson vient de déposer une proposition de loi au Sénat à « faciliter l'identification des éditeurs de sites de communication en ligne et en particulier des blogueurs professionnels et non professionnels ». Son objectif : que tous les blogueurs soient obligés de mentionner « leurs nom, prénoms, domicile et numéro de téléphone s'il s'agit de personnes physiques », en accord avec l'article 6-III de la loi du 21 juin 2004 impose aux personnes dont l'activité est d'éditer un service de communication au public.

On imagine aisément les nombreux cas où cette position sera problématique. Par exemple, vous faites un blog très acide sur votre travail, ou votre famille, ou n’importe quelle expérience personnelle, et voilà que vous êtes obligé de divulguer vos coordonnées et données nominatives. Nul doute que votre patron sera ravi de pouvoir découvrir que vous moquez (avec des noms d’emprunt) son incompétence notoire et idem si vous débinez votre famille, si vous évoquez votre orientation sexuelle et plein d’autres choses sur lesquelles vous avez envie de vous exprimer tout en n’ayant pas envie de subir un regard social souvent réactionnaire ou un rapport de force économique souvent défavorable. Mon précédent billet évoquait par exemple les pressions que subissent les laïcs de la part des extrémistes religieux : demain, un blog athée avec nom, adresse et numéro de téléphone  permettrait à tous les intégristes de la Terre de persécuter l’auteur. On peut imaginer qu’une jeune fille subissant le voile et tenant un blog où elle exprime ses pensées hostiles à l’ordre familial sera aisément repérée par cette famille et devra en subir les conséquences. (Et d’ailleurs, on peut raisonner dans l’autre sens, des athées peuvent persécuter un religieux comme cela se fait couramment en Chine).

Le seul argument de Masson est : « il convient de mieux protéger les éventuelles victimes de propos inexacts, mensongers ou diffamations qui sont, hélas, de plus en plus souvent colportés sur la toile. » Or c’est faux, le droit actuel protège les personnes : il suffit d’entamer une procédure auprès de l’hébergeur et/ou du fournisseur d’accès concernant l’information litigieuse. Et dans la plupart des cas, la fonction «commentaires» d'un blog permet aux intéressés de réagir à une information les concernant. Quand Marie Trauman, secrétaire général du Comité développement durable de Hachette Livre, a souhaité répondre à mes propos qu’elle jugeait injustement suspicieux, elle n’a eu aucune difficulté à le faire en commentaire et j’ai publié un addendum dans l’article principal reprenant ses arguments.

Bref, ce projet de loi contre l’anonymat est une machine de guerre supplémentaire dans la volonté de contrôle de l’Internet. Il bénéficiera aux puissants souhaitant user de leur pouvoir d’intimidation contre des individus isolés et il entraînera un déclin de l’écriture dans tous les domaines où ces individus sont susceptibles de subir des persécutions, pressions, harcèlements, menaces en raison de leur orientation philosophique, politique, religieuse, sexuelle ou autre.

A lire également : l'analyse de Numérama.

La liberté de pensée à l'âge des réseaux numériques

Facebook devient décidément le lieu de toutes les controverses ces temps-ci. Dans le monde musulman, la version tunisienne du réseau social est l’occasion d’une guerre civile d’un genre nouveau entre les extrémistes musulmans et les modérés ou les agnostiques. Les premiers ont profité que des informations privées soient devenues progressivement publiques (grâce aux extensions insidieuses d’exploitation publicitaire des données personnelles par les propriétaires de FB) pour identifier des laïcs, des homosexuels, des femmes hostiles au voile, etc. Et ils ont utilisé massivement la fonction « signalement d’un faux profil » pour obtenir la désactivation automatique des comptes.

Quant au Pakistan, il vient de fermer purement et simplement l’accès à Facebook et à YouTube. Motif : le 20 mai a été désigné par certains utilisateurs comme « journée des dessins de Mahomet ». Tout est parti d’une réaction à chaud d’une dessinatrice américaine (Molly Norris) : elle avait été exaspérée de la censure par Comedy Channel d’un épisode de South Park mettant en scène Mahomet (avec d’autres figures religieuses), cela suite à des menaces d’intégristes. Norris avait alors lancé l’idée d’un concours de dessin de Mahomet, idée qui est devenue un groupe très actif de 100.000 membres. Désolée par l’ampleur de l’affaire, Molly Norris s’en est désolidarisée. On se demande pourquoi : le « respect » d’un dogme ou d’un symbole religieux quel qu’il soit ne concerne que les croyants, et l’irrespect n’est pas encore un crime. Les démocraties seraient cependant plus cohérentes dans leur attitude de principe si elles ne toléraient pas elles-mêmes diverses censures ou menaces (par exemple quand le drapeau, l’hymne, les droits de l’homme, tel épisode historique, etc. sont l’objet d’attitudes irrespectueuses).

Ces épisodes illustrent les stratégies des adversaires de la liberté de pensée et d’expression : soit ils utilisent le réseau pour identifier des cibles (ce qui se fait aussi en Chine), soit ils bloquent purement et simplement son accès. La réponse des partisans de cette liberté est simple : nul ne doit être privé du droit d’exprimer ce qu’il pense. Cette liberté restait formelle quand les moyens d’expression étaient coûteux, à l’âge où seuls les puissants forgeaient l’opinion du grand nombre ; elle est devenue réelle sur le réseau numérique, un site ou un clip pouvant aisément gagner un immense public. Que les puissants utilisent la répression politique (en dictature) ou la menace judiciaire (en démocratie), et que les haineux pratiquent le harcèlement de groupe contre les individus indemnes des préjugés de ce groupe, indique que cette liberté d’opinion et d’expression n’a rien perdu de son pouvoir corrosif au XXIe siècle.

Vers les réseaux quantiques

Une équipe chinoise vient de faire dans Nature Photonics l’annonce d’une téléportation quantique réussie sur plus de 16 km et dans le vide. Plus de 89% des états quantiques fondamentaux des particules ont été corrélés. Le canal utilisé par les chercheurs est un laser bleu, diffracté par un cristal BBO, émettant 32.600 paires de photons intriqués et polarisés par seconde. La preuve de concept de la téléportation quantique avait été apportée en 1997 et 1998 par des groupes de chercheurs travaillant à Innsbruck et à Rome. Mais jusqu’à présent, on n’était parvenu qu’à communiquer par photons interposés sur un réseau de fibre optique de quelques centaines de mètres. Le tour de force de Xian-Min Jin et de ses collègues ouvre la voie d’une communication quantique à l’échelle globale et satellitaire, puisque l’épaisseur de l’atmosphère varie de 5 à 10 km.

La téléportation quantique ne concerne pas les objets ou les personnes, comme dans la science-fiction, mais les particules élémentaires : photons, ions et autres constituants du rayonnement et de la matière. Elle tire partie d’une propriété de l’échelle quantique : après émission, deux particules intriquées conservent la « mémoire » de leurs caractéristiques communes et la modification de l’une entraîne automatiquement la modification de l’autre (non pas à la vitesse de la lumière, mais instantanément). Elles forment en réalité un seul système quantique. Or, ces particules possèdent des traits (comme le moment angulaire de leur spin) qui permettent de procéder à des calculs, car ils correspondent aux 0 et 1 des portes logiques « classiques ». En fait, ces qubits (bits quantiques) devraient à terme d’accélérer considérablement les temps de calcul, notamment procéder en parallèle plutôt qu’en série. Par ailleurs, la cryptographie quantique est potentiellement inviolable : toute interception d’un message par un tiers non autorisé entraîne sa modification, en vertu du principe de décohérence (quand un observateur interagit avec un système quantique, ici pour intercepter un message en qubits, il le modifie définitivement).

Comme j’aurais l’occasion de le préciser dans un prochain article sur les travaux de Zurek, un nombre croissant de chercheurs considèrent qu’au niveau quantique, l’univers peut être décrit comme un processeur permanent d’information : ce que nous en percevons (au niveau classique familier, celui des objets macroscopiques et de la physique newtonienne) serait simplement le résultat le plus robuste de cette communication quantique permanente et sous-jacente. Autant dire que « l’ère de l’information » ne fait que commencer et que nos réalisations actuelles, pourtant déjà surprenantes en l’espace de trois générations, ont de bonnes chances de paraître à nos descendants aussi rudimentaires que la machine à calculer de Blaise Pascal. Nos réseaux électroniques dépendent déjà de la physique quantique dans leur conception, mais ils restent prisonniers des contraintes classiques pour le calcul et la transmission.

Référence : Jin XM et al. (2010), Experimental free-space quantum teleportation, Nature Photonics, online pub, doi:10.1038/nphoton.2010.87