Fondée en avril 1997 par des chercheurs du Media Lab du MIT (Massachusetts Institute of Technology), la société E Ink met au point un support utilisant l’encre électronique. Prises entre deux feuilles de plastique souple, des millions de microcapsules contiennent chacune des particules noires et blanches (ou une autre combinaison de couleurs) en suspension dans un fluide clair. Un champ électrique positif ou négatif permet de faire apparaître le groupe de particules souhaité à la surface du support, afin d’afficher, de modifier ou d’effacer des données. En juillet 2002, E Ink présente le prototype du premier écran couleur utilisant cette technologie, un écran de haute résolution à matrice active développé en partenariat avec les sociétés Toppan et Philips. La commercialisation de cet écran est prévue en 2004, pour équiper des assistants personnels (PDA), des appareils de communication mobile et des livres électroniques (appareils de lecture). Dans un deuxième temps seront envisagés des livres et journaux électroniques sur support souple.
Parallèlement, des chercheurs de PARC (Palo Alto Research Center), le centre Xerox de la Silicon Valley, travaillent depuis 1997 à la mise au point d’une technique d’affichage dénommée gyricon. Le procédé est un peu différent de celui d’E Ink. Prises entre deux feuilles de plastique souple, des millions de micro-alvéoles contiennent des microbilles bicolores en suspension dans un liquide clair. Chaque bille est pourvue d’une charge électrique. Cette fois, c’est une impulsion électrique extérieure qui permet la rotation des billes, et donc le changement de couleur, permettant ainsi d'afficher, de modifier ou d'effacer les données. Intitulé SmartPaper, le matériau correspondant sera produit en rouleaux, tout comme le papier traditionnel. Sa commercialisation sera assurée par la société Gyricon Media, créée en décembre 2000 dans ce but. Le marché pressenti est d’abord celui de l’affichage commercial, qui utilise le système SmartSign, développé par Gyricon Media en complément du SmartPaper. La vente d’affichettes fonctionnant sur piles devrait débuter en 2004. Viendront ensuite les panneaux de signalisation, puis le papier électronique et le journal électronique.
Christian Vandendorpe, professeur à l’Université d’Ottawa et spécialiste des théories de la lecture, résume les développements probables de ces dix prochaines années. "Le livre électronique va accélérer cette mutation du papier vers le numérique, surtout pour les ouvrages techniques, écrit-il en mai 2001. Mais les développements les plus importants sont encore à venir. Lorsque le procédé de l’encre électronique sera commercialisé sous la forme d’un codex numérique plastifié offrant une parfaite lisibilité en lumière réfléchie, comparable à celle du papier - ce qui devrait être courant vers 2010 ou 2015 -, il ne fait guère de doute que la part du papier dans nos activités de lecture quotidienne descendra à une fraction de ce qu’elle était hier. En effet, ce nouveau support portera à un sommet l’idéal de portabilité qui est à la base même du concept de livre.
Tout comme le codex avait déplacé le rouleau de papyrus, qui avait lui-même déplacé la tablette d’argile, le codex numérique déplacera le codex papier, même si ce dernier continuera à survivre pendant quelques décennies, grâce notamment au procédé d’impression sur demande qui sera bientôt accessible dans des librairies spécialisées. Avec sa matrice de quelques douzaines de pages susceptibles de permettre l’affichage de millions de livres, de journaux ou de revues, le codex numérique offrira en effet au lecteur un accès permanent à la bibliothèque universelle. En plus de cette ubiquité et de cette instantanéité, qui répondent à un rêve très ancien, le lecteur ne pourra plus se passer de l’indexabilité totale du texte électronique, qui permet de faire des recherches plein texte et de trouver immédiatement le passage qui l’intéresse. Enfin, le codex numérique permettra la fusion des notes personnelles et de la bibliothèque et accélérera la mutation d’une culture de la réception vers une culture de l’expression personnelle et de l’interaction."
9. BIENTOT DES LIVRES MULTILINGUES?
[9.1. Les systèmes de codage / 9.2. Des communautés linguistiques / 9.3. L’importance de la traduction]
En 1998 et 1999, la nécessité d’un web multilingue occupe tous les esprits. Au début des années 2000, le web, devenu multilingue, permet une très large diffusion des textes électroniques sans contrainte de frontières, mais la barrière de la langue est loin d’avoir disparu. En 2003, la priorité semble être la création de passerelles entre les communautés linguistiques pour favoriser la circulation des écrits dans d’autres langues, en augmentant fortement les activités de traduction. Les technologies numériques facilitant grandement le passage d’une langue à l’autre, il reste à créer ou renforcer la volonté culturelle et politique dans ce sens.
9.1. Les systèmes de codage
Le premier système de codage informatique est l’ASCII (American standard code for information interchange), créé en 1963 par l’American National Standards Institute (ANSI). L’ASCII est un code standard de 128 caractères traduits en langage binaire sur sept bits (A=1000001, B=1000010, etc.). Les 128 caractères comprennent 26 lettres sans accent, les chiffres, les signes de ponctuation et les symboles. L’ASCII permet donc uniquement la lecture de l’anglais. Il ne permet pas de prendre en compte les lettres accentuées présentes dans bon nombre de langues européennes, et à plus forte raison les systèmes non alphabétiques (chinois, japonais, coréen, etc.).
Ceci ne pose pas de problème majeur les premières années, tant que l’échange de fichiers électroniques se limite essentiellement à l’Amérique du Nord. Mais le multilinguisme devient bientôt une nécessité vitale. Solution provisoire, les alphabets européens sont traduits par des versions étendues de l’ASCII codées sur huit bits, afin de pouvoir traiter un total de 256 caractères, dont les lettres avec accents. L’extension pour le français est définie par la norme ISO-Latin-1 (ISO-8859-1:1998). Mais le passage de l’ASCII à l’ASCII étendu devient vite un véritable casse-tête, y compris au sein de l’Union européenne, les problèmes étant entre autres la multiplication des systèmes d’encodage, la corruption des données dans les étapes transitoires, ou encore l’incompatibilité des systèmes entre eux, les pages ne pouvant être affichées que dans une seule langue à la fois.