John Mark Ockerbloom crée l'Online Books Page en 1993. Il écrit en 1998: "Je me suis passionné pour l’énorme potentiel qu’a l’internet de rendre la littérature accessible au plus grand nombre. (…) Je suis très intéressé par le développement de l’internet en tant que médium de communication de masse dans les prochaines années. J’aimerais aussi rester impliqué dans la mise à disposition gratuite de livres sur l’internet, que ceci fasse partie intégrante de mon activité professionnelle, ou que ceci soit une activité bénévole menée sur mon temps libre." (entretien du NEF)
Voici le voyage virtuel que nous allons suivre:
1968: Le code ASCII est le premier système d'encodage informatique. 1971: Le Projet Gutenberg est la première bibliothèque numérique. 1974: L'internet prend son envol. 1977: L'UNIMARC est créé en tant que format bibliographique commun. 1984: Le copyleft est une adaptation du copyright pour les logiciels. 1990: Le web fait ses débuts. 1991: L'Unicode est un système d'encodage universel pour toutes les langues. 1993: L'Online Books Page est le premier répertoire de livres gratuits. 1993: Le format PDF est lancé par Adobe. 1994: Le premier site de bibliothèque est mis en ligne. 1994: Les éditeurs utilisent le web comme outil de marketing. 1995: Amazon.com est la première grande librairie en ligne. 1995: La grande presse se met en ligne. 1996: Le Palm Pilot est le premier assistant personnel. 1996: L'Internet Archive est créée pour archiver le web. 1996: De nouvelles méthodes d'enseignement sont à l'étude. 1997: L'édition en ligne commence à se généraliser. 1997: Des dictionaires sont mis en ligne gratuitement. 1997: La convergence multimédia est le sujet d'un colloque. 1998: Gallica est le secteur numérique de la Bibliothèque nationale de France. 1998: Le web devient multilingue. 1998: Les bibliothécaires numériques font carrière. 1999: L'Open eBook (OeB) sera le format standard des livres numériques. 1999: Certains auteurs se mettent au numérique. 2000: yourDictionary.com est créé en tant que portail pour les langues. 2000: La Bible de Gutenberg est mise en ligne. 2000: Distributed Proofreaders oeuvre pour le Projet Gutenberg. 2000: La Public Library of Science (PLoS) lancera des revues scientifiques gratuites. 2001: Wikipedia est la première grande encyclopédie collaborative. 2001: La licence Creative Commons rénove le droit d'auteur sur le web. 2003: Le MIT OpenCourseWare met les cours du MIT à la disposition de tous. 2004: Le Projet Gutenberg Europe débute une bibliothèque multilingue. 2004: Google Print laisse la place à Google Books. 2005: L'Open Content Alliance (OCA) lance une bibliothèque universelle publique. 2006: Le catalogue collectif WorldCat devient gratuit. 2007: Citizendium promeut une encyclopédie collaborative "fiable". 2007: L'Encyclopedia of Life répertoriera toutes les espèces végétales et animales.
[La plupart des citations sont des extraits des Entretiens du NEF.]
1968: ASCII
[Résumé]
Publié par l’ANSI (American National Standards Institute) en 1968, aux débuts de l'informatique, avec actualisation en 1977 et en 1986, le code ASCII (American standard code for information interchange) est un code standard de 128 caractères traduits en langage binaire sur sept bits (A est traduit par "1000001", B est traduit par "1000010", etc.). Les 128 caractères comprennent 33 caractères de contrôle (qui ne représentent donc pas de symbole écrit) et 95 caractères imprimables: les 26 lettres sans accent en majuscules (A-Z) et minuscules (a-z), les chiffres, les signes de ponctuation et quelques symboles, à savoir les touches du clavier anglais ou américain. L'ASCII permet donc uniquement la lecture de l’anglais et du latin. Par la suite, des variantes de l’ASCII (norme ISO-8859 ou ISO-Latin) prennent en compte les caractères accentués de quelques langues européennes. La variante pour le français est définie par la norme ISO 8859-1 (Latin-1).
[En détail]
Le premier système d'encodage informatique est l’ASCII (American standard code for information interchange). Publié par l’American National Standards Institute (ANSI) en 1968, avec actualisation en 1977 et 1986, l'ASCII est un code standard de 128 caractères traduits en langage binaire sur sept bits (A est traduit par "1000001", B est traduit par "1000010", etc.). Les 128 caractères comprennent 33 caractères de contrôle (qui ne représentent donc pas de symbole écrit) et 95 caractères imprimables: les 26 lettres sans accent en majuscules (A-Z) et minuscules (a-z), les chiffres, les signes de ponctuation et quelques symboles, le tout correspondant aux touches du clavier anglais ou américain.
L'ASCII permet uniquement la lecture de l’anglais et du latin. Il ne permet pas de prendre en compte les lettres accentuées présentes dans bon nombre de langues européennes, et à plus forte raison les systèmes non alphabétiques (chinois, japonais, coréen, etc.). Ceci ne pose pas de problème majeur les premières années, tant que l’échange de fichiers électroniques se limite essentiellement à l’Amérique du Nord. Des variantes de l’ASCII (norme ISO-8859 ou ISO-Latin) prennent en compte les caractères accentués de quelques langues européennes. La variante pour le français est définie par la norme ISO 8859-1 (Latin-1). Mais le passage de l’ASCII original à ses différentes extensions devient vite un véritable casse-tête, y compris au sein de l’Union européenne, les problèmes étant entre autres la multiplication des variantes, la corruption des données dans les échanges informatiques ou encore l’incompatibilité des systèmes, les pages ne pouvant être affichées que dans une seule langue à la fois.