Produced by Al Haines

EL EBOOK TIENE 40 AÑOS (1971-2011)

Marie Lebert

Project Gutenberg News, 2011

INTRODUCCIÓN

El ebook, también llamado libro digital, tiene ya 40 años. Tras unos comienzos humildes, ahora ya está firmemente establecido junto al libro impreso. Hoy en día se puede leer un libro en un ordenador, en una PDA, en un teléfono móvil, en un smartphone o en una tableta de lectura.

“El ebook tiene 40 años” se presenta bajo la forma de una cronología en 46 episodios que van desde 1971 hasta 2011. Salvo que se indique lo contrario, las citas son fragmentos de las Entrevistas del NEF <www.etudes-francaises.net/entretiens/>, de la Universidad de Toronto, y también de las entrevistas que se han proseguido para completarlas. Gracias a todas las personas que están citadas aquí, por su tiempo y por su amistad.

Marie Lebert, investigadora y periodista, se interesa por las tecnologías referentes al mundo del libro y a los idiomas. Sus libros están disponibles gratuitamente en el Proyecto Gutenberg <www.gutenberg.org>, en varios formatos electrónicos.

Muchas gracias a Alicia Simmross para la revisión de este libro en su versión española y a Anna Álvarez por su ayuda en la traducción de varias páginas del francés al español.

Copyright © 2011 Marie Lebert

ÍNDICE

1971 > El Proyecto Gutenberg, un proyecto visionario 1974 > Los inicios del internet 1986 > Variantes del ASCII para más idiomas 1990 > La invención de la web 1991 > El Unicode, para codificar todos los idiomas 1992 > Lugares para textos electrónicos 1993 > La Online Books Page, listado de libros en línea 1993 > El formato PDF, lanzado por Adobe 1994 > El internet, una herramienta de marketing 1995 > La prensa impresa en línea 1995 > Amazon, pionero del cibercomercio 1996 > El Internet Archive, para las generaciones futuras 1996 > Hacia un saber digital 1996 > El proyecto @folio, un lector portátil de textos 1997 > La convergencia multimedia 1997 > Un portal para las bibliotecas nacionales europeas 1997 > E Ink, tecnología de tinta electrónica 1998 > Cantidad de libros digitalizados 1998 > La Encyclopédie de Diderot en línea 1998 > 00h00, una editorial en línea 1998 > Libros con una extensión en la web 1998 > Un endurecimiento del copyright 1998 > Las primeras tabletas de lectura 1999 > Del bibliotecario al cibertecario 1999 > El sitio web de la librería Ulysse 1999 > El internet como un personaje de novela 2000 > Un formato estándar para el libro digital 2000 > Cotres.net, obras de literatura digital 2000 > Experiencias de autores de best-sellers 2000 > La Biblia de Gutenberg en línea 2001 > Wikipedia, una enciclopedia colectiva 2001 > Otras tabletas de lectura 2001 > La licencia Creative Commons 2003 > Handicapzéro, el internet para todos 2003 > La Public Library of Science 2003 > El material de enseñanza del MIT 2004 > La web 2.0, comunidad y reparto 2005 > De la PDA al smartphone 2005 > Google Print y Google Libros 2005 > La Open Content Alliance, biblioteca universal 2006 > El catálogo colectivo WorldCat en la web 2007 > ¿Cuál es el futuro del ebook? 2007 > Citizendium, enciclopedia experimental 2007 > La Encyclopedia of Life, proyecto global 2010 > Del Librié al iPad 2011 > El libro digital en diez puntos

1971 > EL PROYECTO GUTENBERG, UN PROYECTO VISIONARIO

[Resumen] El primer libro digital es el eText #1 del Proyecto Gutenberg, creado en 1971 por Michael Hart con el fin de distribuir gratuitamente las obras literarias por vía electrónica y de difundirlas en el mundo entero. En el siglo 16, Gutenberg había hecho posible, para todos, el tener libros impresos por un precio relativamente módico. En el siglo 21, el Proyecto Gutenberg va a permitir a cada persona disponer de una biblioteca digital gratuita. Considerado al principio como completamente irreal, este proyecto cobra un nuevo aliento y alcanza una difusión internacional con la invención de la web en 1990, lo que facilita el envío de los libros y los intercambios con los voluntarios, y luego con la creación de Distributed Proofreaders (Revisores Distribuidos) en el año 2000, lo que permite compartir la revisión de los libros entre centenares de voluntarios. En julio de 2011, para su 40º aniversario, el Proyecto Gutenberg cuenta con 36.000 libros digitales, decenas de miles de descargas al día, cuatro sitios web en los Estados Unidos, en Australia, en Europa y en Canadá, y 40 sitios espejo en toda el planeta.

***

El primer libro digital es el eText #1 del Proyecto Gutenberg, creado en 1971 por Michael Hart con el fin de distribuir gratuitamente las obras literarias por vía electrónica y difundirlas en el mundo entero.

En el siglo 16, Gutenberg había hecho posible, para todos, el tener libros impresos por un precio relativamente módico. En el siglo 21, el Proyecto Gutenberg va a permitir a cada persona disponer de una biblioteca digital gratuita.

# Los primeros pasos

¿Cuáles son las raíces del proyecto? Cuando Michael Hart estudia en la
Universidad de Illinois (Estados Unidos), el laboratorio informático
(Materials Research Lab) de su universidad le asigna 100 millones de
dólares de “tiempo de ordenador”.

El 4 de julio de 1971, día de la fiesta nacional estadounidense, Michael digita en el teclado de su ordenador "The United States Declaration of Independence" (Declaración de independencia de los Estados Unidos, firmada el 4 de julio de 1776), en mayúsculas, pues las letras minúsculas aún no existían. El texto electrónico representaba 5 kB (kilobytes).

Michael difunde un mensaje a las cien personas que forman la red de la época para indicar dónde se almacena el texto –aún sin enlace hipertexto, pues tenemos que esperar unos veinte años más para la web– y entonces seis personas descargan este archivo.

Sobre la marcha, Michael decide dedicar ese crédito de tiempo de unos millones de dólares a la búsqueda de obras literarias disponibles en bibliotecas, a la digitalización de éstas y al almacenamiento de dichos textos en su versión electrónica.

Poco después, Michael define así la misión del Proyecto Gutenberg: poner a disposición de todos, por vía electrónica, el mayor número posible de obras literarias.

Este proyecto alcanza una difusión internacional con la invención de la web en 1990, lo que facilita el envío de los textos electrónicos y los intercambios con los voluntarios.

Michael explica más tarde, en agosto de 1998: "Nosotros consideramos el texto electrónico como un nuevo medio de comunicación, sin verdadera relación con el papel. La única semejanza es que ambos difundimos las mismas obras, pero en cuanto la gente se haya acostumbrado, no veo cómo el papel podría aún competir con el texto electrónico, sobre todo en las escuelas."

El conjunto de páginas encuadernadas, forma tradicional del libro, se convierte en un texto electrónico que se puede desplegar de par en par, en formato ASCII (el formato más sencillo y más usado), con letras mayúsculas para los términos escritos en cursiva o en negrita y para los términos subrayados en la versión impresa, para que el texto pueda ser leído sin ningún tipo de problema desde cualquier ordenador, plataforma y programa.

# Distributed Proofreaders

Este proyecto cobra nuevo aliento con la creación de Distributed Proofreaders (Revisores Distribuidos) en 2000, lo que permite compartir la revisión de los libros entre centenares de voluntarios.

Creado en octubre de 2000 por Charles Franks para ayudar a digitalizar libros del dominio público, Distributed Proofreaders se convierte rápidamente en la principal fuente de libros del Proyecto Gutenberg.

Los libros impresos son en primer lugar escaneados y después convertidos en “formato texto” con un software OCR (Optical Character Recognition), que tiene una fiabilidad de un 99%, lo que implica la necesidad de una relectura en pantalla para corregir el texto comparándolo con las imágenes escaneadas de las páginas impresas.

El método utilizado para la relectura consiste en fragmentar los libros digitales en páginas, para así repartir la corrección entre los voluntarios; los cuales eligen el libro que prefieren para releerlo y corregir determinadas páginas. Cada cual trabaja a su ritmo. A título indicativo, se aconseja repasar una página al día. Representa poco tiempo en un día, pero mucho para el proyecto.

Distributed Proofreaders se afilia oficialmente al Proyecto Gutenberg en 2002. Éste se convierte en una entidad separada en mayo 2006, aunque sigue manteniendo una estrecha relación con el Proyecto Gutenberg.

Distributed Proofreaders cuenta con 10.000 libros digitalizados y corregidos en diciembre de 2006 y 20.000 libros en abril de 2011. Se crea Distributed Proofreaders Europe (DP Europe) en enero de 2004, y Distributed Readers Canada (DP Canada) en diciembre de 2007.

# La filosofía del proyecto

La estructura administrativa y financiera del Proyecto Gutenberg se limita estrictamente a la mínima. El objetivo es garantizar la perennidad del proyecto, sin depender de créditos y cortes de créditos, ni de las prioridades culturales, financieras y políticas del momento. De este modo, no puede ejercerse ninguna forma de presión por el poder o por el dinero. Además, esto significa respeto para los voluntarios, quienes pueden estar seguros de que verán su trabajo utilizado durante muchos años, o incluso durante muchas generaciones. En cuanto a la supervisión regular del proyecto, ésta es garantizada gracias a noticieros semanales y mensuales, foros de discusión, wikis y blogs.

En julio de 2011, para su 40º aniversario, el Proyecto Gutenberg cuenta con 36.000 libros digitales, decenas de miles de descargas al día, cuatro sitios web en los Estados Unidos, en Australia, en Europa y en Canadá, y 40 sitios espejo en todo el planeta.

40 años después de la creación del Proyecto Gutenberg, Michael Hart se define aún como un adicto al trabajo que sigue dedicándose completamente a su proyecto, proyecto que en su opinión está al origen de una revolución neoindustrial. Se define también a sí mismo como altruista, pragmático y visionario. Tras haber sido tildado de chiflado durante años, ahora suscita respeto.

Michael precisa a menudo en sus escritos que, así como en su tiempo Gutenberg había permitido a cualquier persona poseer sus propios libros –hasta entonces exclusivos para una élite–, el Proyecto Gutenberg permite a todos disponer de una biblioteca completa –que hasta ahora estaba reservada sólo a un colectivo– en un soporte de bolsillo. Las colecciones del Proyecto Gutenberg tienen el tamaño de una biblioteca pública de barrio, pero esta vez disponible en la web, para ser descargada por cualquiera.

Con el pasar de los años, la misión del Proyecto Gutenberg sigue siendo la misma, a saber, la de cambiar el mundo mediante el ebook gratuito indefinidamente repetible, y favorecer así la lectura gratis y la cultura para todos.

1974 > LOS INICIOS DEL INTERNET

[Resumen] El internet se crea en 1974, después de la instauración del protocolo TCP/IP (Transmission Control Protocol/Internet Protocol) por Vinton Cerf y Bob Kahn, para el intercambio de datos, quince años antes de la invención de la web. El internet pone en contacto, en primer lugar, a los organismos gubernamentales, las universidades y los centros de investigación de los Estados Unidos, antes de tener un desarrollo internacional a partir de 1983. El internet cobra, en 1990, nuevo aliento con la invención de la web por Tim Berners-Lee y con el lanzamiento del primer navegador público, Mosaic, en 1993. Vinton Cerf funda la Internet Society (ISOC) en 1992 para promover el desarrollo del internet. En enero de 1998, en una entrevista con el diario francés Libération, explica: "La red permite dos cosas (…): como los libros, permite acumular conocimientos. Pero sobre todo presenta este conocimiento de manera de relacionarlo con otra información. Mientras que en un libro, la información se queda aislada."

***

El internet se inicia en 1974, después de la creación del protocol
TCP/IP (Transmission Control Protocol/Internet Protocol) por Vinton
Cerf y Bob Kahn, para el intercambio de datos, quince años antes de la
invención de la web.

# La expansión

El internet pone en contacto, en primer lugar, a los organismos gubernamentales, las universidades y los centros de investigación de los Estados Unidos, antes de tener un desarrollo internacional a partir de 1983. Cobra, en 1990, nuevo aliento con la invención de la web por Tim Berners-Lee y con el lanzamiento del primer navegador público, Mosaic, en 1993.

Vinton Cerf funda la Internet Society (ISOC) en 1992 para promover el desarrollo del internet. En enero de 1998, en una entrevista con el diario francés Libération, explica: "La red permite dos cosas (…): como los libros, permite acumular conocimientos. Pero sobre todo presenta este conocimiento de manera de relacionarlo con otra información. Mientras que en un libro, la información se queda aislada."

Como la web es de uso fácil, gracias a los hipervínculos que permiten ir de un documento a otro, el internet, en los años 1990, se puede utilizar por todos, y no sólo por los informáticos. Hay 100 millones de usuarios del internet en diciembre de 1997, con un millón de nuevos usuarios al mes, y 300 millones de usuarios en diciembre de 2000.

# En Europa no es nada fácil

Conectarse al internet no es nada barato en muchos países. En varios países europeos, el precio de la conexión se calcula por minuto, con una tasa alta durante el día y una tasa más barata por la noche, obligando así a los internautas a navegar por la noche para evitar que no sea muy alto el “presupuesto internet”. A finales de 1998 y a principios de 1999, se ponen en marcha huelgas en Francia, en Italia y en Alemania para presionar a los proveedores del internet, para que reduzcan sus precios y ofrezcan “paquetes internet”, lo que hacen en los siguientes meses.

La conexión al internet resulta más fácil con un alto ancho de banda. Jean-Paul, webmaster del sitio hipermedia cotres.net, resume la situación en enero de 2007: "Tengo la impresión de que estamos viviendo un periodo 'flotante', situado entre los tiempos heroicos, en los que se trataba de avanzar esperando a que la tecnología nos alcanzara, y el futuro, en el que el muy alto ancho de banda liberará fuerzas que aún solamente se han desencadenado para los juegos."

# El futuro del internet

La próxima generación del internet sería una red "pervasiva" –es decir, una red única y omnipresente– que permitiría conectarse en cualquier lugar y en cualquier momento a través de cualquier tipo de aparato.

Rafi Haladjian, fundador de la compañía Ozone, explica en 2007 en su sitio web: "La nueva ola afectará en cualquier momento nuestro mundo físico, nuestro entorno real, nuestra vida cotidiana. Ya no accederemos a la red, sino que viviremos en ella. Los futuros componentes de esta red (cables, operadores, etc.) serán completamente transparentes para el utilizador final. La red estará siempre abierta, posibilitando así una conexión permanente en cualquier lugar. También será agnóstica en términos de aplicaciones, ya que estará fundada en los mismos protocolos del internet."

En cuanto al contenido del internet, el filósofo Timothy Leary lo describe así en "Chaos & Cyber Culture" (Caos y cibercultura), libro publicado en 1994: "Toda la información del mundo está en el interior. Y gracias al ciberespacio, todo el mundo puede tener acceso a ella. Todas las señales humanas contenidas hasta ahora en los libros han sido digitalizadas. Han sido guardadas y están disponibles en estos bancos de datos, sin contar todos los cuadros, todas las películas, todos los programas de televisión, todo, absolutamente todo." En 2011, este objetivo aún no se ha alcanzado, pero se puede decir que las cosas van por buen camino.

1986 > VARIANTES DEL ASCII PARA MÁS IDIOMAS

[Resumen] El primer sistema de codificación informática es el ASCII (American Standard Code for Information Interchange – Código Estadounidense Estándar para el Intercambio de Información), publicado en 1963 por el ANSI (American National Standards Institute – Instituto Estadounidense Nacional de Normas). El ASCII es un código de 128 caracteres traducidos en el lenguaje binario, en siete bits (A se traduce por "1000001", B se traduce por "1000010", etc.). El ASCII no permite más que la lectura del inglés (y del latín). Con el desarrollo del internet, se vuelve insuficiente comunicar sólo en inglés con el ASCII, de ahí la necesidad de las variantes del ASCII para tener en cuenta los caracteres acentuados de otros idiomas europeos. Las variantes del ASCII en ocho bits son publicadas desde 1986, por ejemplo la norma ISO 8859, también llamada ISO Latin. La variante para el español, el francés y el alemán es la norma ISO 8859-1 (Latin-1).

***

Con el desarrollo del internet, se vuelve insuficiente comunicar sólo en inglés con el ASCII, de ahí la necesidad de las variantes del ASCII para tener en cuenta los caracteres acentuados de otros idiomas europeos.

# El ASCII en siete bits

El primer sistema de codificación informática es el ASCII (American Standard Code for Information Interchange – Código Estadounidense Estándar para el Intercambio de Información), publicado en 1963 por el ANSI (American National Standards Institute – Instituto Estadounidense Nacional de Normas). El ASCII es un código de 128 caracteres traducidos en el lenguaje binario, en siete bits (A se traduce por "1000001", B se traduce por "1000010", etc.). Los 128 caracteres incluyen 33 caracteres de control (que no representan símbolos escritos) y 95 caracteres imprimibles –las 26 letras, sin acento, en mayúsculas (A-Z) y en minúsculas (a-z), las cifras, los signos de puntuación y algunos símbolos–, lo que corresponde a las teclas del teclado inglés o estadounidense.

# El ASCII en ocho bits

El ASCII no permite más que la lectura del inglés (y del latín). No permite tomar en cuenta las letras acentuadas presentes en varias lenguas europeas, idiomas con alfabetos diferentes (árabe, griego, ruso, etc.), y aún menos los idiomas no alfabéticos (chino, japonés, coreano, etc.). Esto no plantea ningún problema realmente importante en los primeros años, cuando el intercambio de archivos electrónicos se limita esencialmente a Norteamérica. Pero el plurilingüismo pronto se convierte en una necesidad vital. Variantes del ASCII en ocho bits son publicadas desde 1986, por ejemplo la norma ISO 8859, también llamada ISO Latin. La variante para el español, el francés y el alemán es la norma ISO 8859-1 (Latin-1).

# Un rompecabezas

El paso del ASCII original a sus diversas variantes no tarda en convertirse en un verdadero rompecabezas, incluso en la Unión Europea, donde se plantean problemas como la multiplicación de las variantes, la corrupción de los datos durante los intercambios informáticos o la incompatibilidad de los sistemas, ya que las páginas web sólo pueden visualizarse en un idioma a la vez.

Olivier Gainon, creador de CyLibris, una editorial literaria electrónica, explica en diciembre de 2000: "La primera etapa es el respeto de los particularismos a nivel técnico. Es preciso que la red respete las letras acentuadas, las letras específicas, etc. Me parece muy importante que los futuros protocolos permitan una transmisión perfecta de estos aspectos –y eso puede que no resulte sencillo (en las evoluciones futuras del HTML, o de los protocolos IP, etc.)–. Por lo tanto, es necesario que cada uno pueda sentirse a gusto con el internet y que esto no se limite a los individuos que dominen (más o menos) el inglés. No parece normal que actualmente la transmisión de los acentos plantee problemas en los correos electrónicos. Por eso me parece que el primer trámite es de orden técnico."

# El Unicode

Publicado por primera vez en enero de 1991, el Unicode es un sistema de codificación universal en 16 bits, que asigna un número único a cada carácter. Este número es legible desde cualquier plataforma, con cualquier programa y en cualquier idioma. El Unicode puede codificar 65.000 caracteres únicos y tomar en cuenta todos los sistemas de escritura del planeta. Pero integrar este nuevo sistema de codificación en todos los software y navegadores es un trabajo titánico. Hay que esperar hasta diciembre de 2007 para que el Unicode suplante el ASCII en el internet.

1990 > LA INVENCIÓN DE LA WEB

[Resumen] Tim Berners-Lee inventa la World Wide Web en 1990, del CERN (Centre Européen pour la Recherche Nucléaire – Centro Europeo para la Investigación Nuclear), en Ginebra (Suiza). En 1989, crea un sistema de hipertexto para relacionar documentos. En 1990, crea el primer servidor HTTP (HyperText Transfer Protocol) y el primer navegador de la web. En 1991, la web ya está operativa y revoluciona la consulta del internet (que existe desde 1974). Vínculos hipertexto permiten enlazar textos e imágenes. La información se vuelve interactiva, y por lo tanto resulta más atractiva, lo que favorece el desarrollo exponencial de la red. Más tarde, vínculos hipermedia permiten enlazar textos o imágenes con imágenes animadas, vídeos, bandas sonoras y archivos de música. El World Wide Web Consortium (W3C) es fundado en octubre de 1994 para definir los protocolos comunes de la web.

***

Tim Berners-Lee inventa la World Wide Web en 1990. Gracias a la web, el internet se hace accesible para todos y éste empieza su desarrollo exponencial.

# Los inicios de la web

Tim Berners-Lee es un investigador del CERN (Centre Européen pour la Recherche Nucléaire – Centro Europeo para la Investigación Nuclear), en Ginebra (Suiza). En 1989, crea un sistema de hipertexto para relacionar documentos. En 1990, crea el primer servidor HTTP (HyperText Transfer Protocol) y el primer navegador de la web. En 1991, la web ya está operativa y revoluciona la consulta del internet (que existe desde 1974). Vínculos hipertexto permiten enlazar textos e imágenes. La información se vuelve interactiva, y por lo tanto resulta más atractiva, lo que favorece el desarrollo exponencial de la red. Más tarde, vínculos hipermedia permiten enlazar documentos textuales o imágenes con imágenes animadas, vídeos, bandas sonoras y archivos de música.

Mosaic, el primer navegador público de la web, es desarrollado por el NCSA (National Center for Supercomputing Applications – Centro Nacional de Aplicaciones de Supercomputación) en la Universidad de Illinois (Estados Unidos). Distribuido gratuitamente desde noviembre de 1993, contribuye mucho al desarrollo rápido de la web. A principios de 1994, parte del equipo de Mosaic emigra hacia la Netscape Communications Corporation para desarrollar un nuevo software bajo el nombre de Nescape Navigator. En 1995, Microsoft lanza su propio navegador, Internet Explorer. Otros navegadores son Opera y Safari, el navegador de Apple.

El World Wide Web Consortium (W3C) es un consorcio internacional fundado en octubre de 1994 para definir los protocolos comunes de la web. Su director es Tim Berners-Lee. En 1997, una sección Internacionalización/Localización presenta los protocolos útiles para una web multilingüe: HTML (HyperText Markup Language), mapas (básicos) de caracteres, nuevos atributos, HTTP (HyperText Transfer Protocol), "negociación" del idioma, URL (Uniform Resource Locator), otros identificadores para incluir caracteres non-ASCII, y consejos prácticos para crear un espacio multilingüe.

# El sueño de Tim Berners-Lee

En diciembre de 1997, siete años después de la invención de la web, Pierre Ruetschi, periodista del diario suizo “Tribune de Genève”, pregunta a Tim Berners-Lee: "Han pasado siete años. ¿Está Usted satisfecho de la manera en que la web ha evolucionado?". Él contesta que, si bien se alegra de que la información disponible sea tan rica y tan variada, la web aún no ha alcanzado la potencia prevista en su concepción original. Le gustaría "que la web fuera más interactiva, que la gente pudiera juntar esfuerzos para crear información", en vez de limitarse a consumir la que se le ofrece. La web tiene que convertirse en “un medio de comunicación colaborativo, en un mundo de conocimientos que compartimos".

En un ensayo publicado en abril de 1998 en su propia página web (en el sitio del World Wide Web Consortium), Tim Berners-Lee escribe que "el sueño que se esconde detrás de la web es un espacio de información común en donde comuniquemos compartiendo la información. Su universalidad es esencial, es decir, que los vínculos hipertexto puedan enlazar con cualquier tipo de datos, personales, locales o mundiales, tanto esbozos como documentos sofisticados. La segunda parte de este sueño es que el acceso a ésta se generalizaría hasta tal punto que acabaría convirtiéndose en un espejo realista (o, de hecho, en la encarnación más directa) de la manera en que trabajamos, jugamos y tramamos relaciones sociales. Una vez que estas interacciones estén en línea, podríamos utilizar los ordenadores para ayudarnos a analizarlas, dar sentido a lo que hacemos, y ver cómo cada uno encuentra un lugar que le corresponda y cómo podemos trabajar mejor juntos." (Fragmento de "The World Wide Web: A very short personal history" – El World Wide Web: una muy corta historia personal–.)

# La web 2.0

La empresa Netcraft, especializada en las estadísticas del internet, da el número de un millón de sitios web en abril de 1997, diez millones de sitios en febrero de 2000, 20 millones de sitios en septiembre de 2000, 30 millones de sitios en julio de 2001, 40 millones de sitios en abril de 2003, 50 millones de sitios en mayo de 2004, 60 millones de sitios en marzo de 2005, 70 millones de sitios en agosto de 2005, 80 millones de sitios en abril de 2006, 90 millones de sitios en agosto de 2006 y 100 millones de sitios en noviembre de 2006; un aumento rápido debido a la creación de muchos sitios personales y blogs.

Con la web 2.0, basada en las nociones de comunidad y reparto, comienza quizás a realizarse el sueño de Tim Berners-Lee.

La noción de web 2.0 es acuñada por primera vez en 2004 por Tim O'Reilly, fundador de la editorial O'Reilly Media, quien escoge este título para una serie de conferencias que organiza.

Quince años después de la creación de la web, la revista Wired (California) observa en su número de agosto de 2005 que "sólo menos de la mitad de la web es comercial, y el resto funciona con la pasión". En cuanto al internet, unos treinta años después de su lanzamiento, el diario “Le Monde” (Francia) observa en su edición del 19 de agosto de 2005 que "gracias a sus tres poderes –ubicuidad, variedad e interactividad– su potencial de uso es casi infinito".

Robert Beard, creador de sitios de diccionarios en línea, escribe en septiembre de 1998: "La web será una enciclopedia del mundo, hecha por el mundo y para el mundo. Ya no habrá información o conocimientos útiles que no estén disponibles, de manera que se eliminará la barrera principal para la comprensión internacional e interpersonal, y para el desarrollo personal e institucional. Hará falta tener una imaginación más desbordante que la mía para predecir el efecto de este desarrollo sobre la humanidad."

1991 > EL UNICODE, PARA CODIFICAR TODOS LOS IDIOMAS

[Resumen] Con el desarrollo del internet en el mundo entero, no se puede usar sólo el ASCII, que codifica el inglés y las variantes para algunos idiomas más. Se necesita un sistema de codificación para todos los idiomas. Publicado por primera vez en enero de 1991, el Unicode es un sistema de codificación universal en 16 bits que asigna un número único a cada carácter. Este número es legible desde cualquier plataforma, con cualquier programa y en cualquier idioma. El Unicode puede codificar 65.000 caracteres únicos y tomar en cuenta todos los sistemas de escritura del planeta. El Unicode se hace uno de los componentes de las especificaciones del World Wide Web Consortium (W3C), el organismo internacional encargado del desarrollo de la web. La utilización del Unicode se generaliza a partir de 1998, por ejemplo para los archivos de texto bajo plataforma Windows, que hasta entonces estaban en ASCII. Pero se debe esperar hasta diciembre de 2007 para que el Unicode suplante el ASCII en el internet.

***

A diferencia del ASCII, que codifica el inglés y las variantes para algunos idiomas más, el Unicode es un sistema de codificación universal que tiene en cuenta todos los idiomas del planeta. Su primera versión es publicada en enero de 1991.

# Del ASCII al Unicode

El primer sistema de codificación informática es el ASCII (American Standard Code for Information Interchange – Código Estadounidense Estándar para el Intercambio de Información), publicado en 1963 por el ANSI (American National Standards Institute – Instituto Estadounidense Nacional de Normas). Con el desarrollo del internet en el mundo entero, se internacionaliza cada vez más el intercambio de datos. Uno ya no puede conformarse con utilizar sólo el inglés y algunos idiomas europeos más, traducidos a través de un sistema de codificación de caracteres que data de los inicios de la informática.

Publicado por primera vez en enero de 1991, el Unicode es un sistema de codificación de caracteres universal en 16 bits que asigna un número único a cada carácter. Este número es legible desde cualquier plataforma, con cualquier programa y en cualquier idioma. El Unicode puede reconocer 65.000 caracteres únicos y tomar en cuenta todos los sistemas de escritura del planeta. Para gran satisfacción de los lingüistas, gradualmente el Unicode va sustituyendo el ASCII, con variantes UTF-8, UTF-16 y UTF-32 (UTF: Unicode Transformation Format) según el número de bits utilizados para la codificación. El Unicode es mantenido por el Unicode Consortium. Es uno de los componentes de las especificaciones del W3C (World Wide Web Consortium), el organismo internacional encargado del desarrollo de la web.

# No es tan fácil

Patrick Rebollar es profesor de francés y de literatura francesa en Japón, así como también moderador de la lista de difusión LITOR (Literatura e Informática). Destaca en enero de 2000: "El primer problema es un problema de software. Como se ve con Netscape o Internet Explorer, es posible fijar múltiples idiomas en la web. Pero no hay compatibilidad entre esos navegadores y otros software (el Office de Microsoft, por ejemplo). La adopción del Unicode debería resolver muchos problemas, pero esto supone volver a escribir la mayor parte de los software, lo que los productores de éstos se muestran renuentes a hacer debido a los gastos, para un rendimiento que no está garantizado, ya que estos software multilingües tienen menos interés para sus clientes que los software de navegación."

La utilización del Unicode se generaliza en 2000, por ejemplo para los
archivos de texto bajo plataforma Windows (Windows NT, Windows 2000,
Windows XP y siguientes versiones), que hasta entonces estaban en
ASCII.

Luc Dall’Armellina, coautor y webmaster de oVosite –un espacio de escritura hipermedia–, subraya en junio de 2000: "Los sistemas operativos se van dotando de fuentes Unicode capaces de representar todos los idiomas del mundo. Ojalá sigan el mismo rumbo todas las aplicaciones, desde el procesamiento de texto hasta el navegador web. Las dificultades son inmensas: nuestro teclado, con sus ± 250 teclas, deja ver sus insuficiencias siempre que es necesario digitalizar unos Katakana o Hiragana japoneses, y resulta aún peor con el chino. La gran variedad de los sistemas de escritura del mundo y el número de caracteres que abarcan constituyen un freno potente. Sin embargo, los obstáculos culturales no son menos importantes, pues son vinculados con los códigos y las modalidades de representación propios de cada cultura o etnia." De hecho, se debe esperar hasta diciembre de 2007 para que el Unicode supere al ASCII en el internet.

1992 > LUGARES PARA TEXTOS ELECTRÓNICOS

[Resumen] Los primeros textos electrónicos son inventariados en los Etext Archives, fundados en 1992, y en la E-Zine-List (una lista creada en 1993). Los primeros títulos estrictamente electrónicos son textos cortos, a menudo políticos, seguidos por zines electrónicos (e-zines), a menudo culturales, redactados por una persona o un pequeño grupo de personas, sin publicidad ni fines comerciales. Los Etext Archives son creados en 1992 por Paul Southworth y hospedados en el sitio web de la Universidad de Michigan (Estados Unidos). Son “un lugar para los textos electrónicos de todo tipo”, sin juzgar su contenido. La E-Zine-List es una lista creada en el verano de 1993 por John Labovitz. En cinco años, entre 1993 y 1998, ya no se trata de decenas sino de centenas de e- zines (3.045 títulos en noviembre de 1998). El campo del e-zine se hace más amplio para referirse a cualquier tipo de publicación que haya sido editada por vía electrónica.

***

Los primeros textos electrónicos son inventariados en los Etext Archives, fundados en 1992 por Paul Southworth, y en la E-Zine-List (una lista creada en 1993 por John Labovitz).

Los primeros títulos estrictamente electrónicos son textos cortos, a menudo políticos, seguidos por zines electrónicos (e-zines), a menudo culturales, redactados por una persona o por un pequeño grupo de personas.

"Zine" es la abreviatura de "fanzine" o "magazine". En cuanto al e- zine, se difunde por FTP (File Transfer Protocol), por gopher (un sistema de información basado en menús textuales a varios niveles), por correo electrónico o por la web. No suele contener publicidad, no tiene fines de lucro ni se dirige a una audiencia de masas.

# Los Etext Archives

Los Etext Archives son creados en 1992 por Paul Southworth y hospedados en el sitio web de la Universidad de Michigan (Estados Unidos). Son “un lugar para los textos electrónicos de todo tipo, desde los sagrados a los profanos, y desde los políticos a los personales”, sin juzgar su contenido.

Cinco años después, los Etext Archives tienen ya seis secciones: (a) una sección “E-zines”, que incluye textos electrónicos; periódicos que van desde los profesionales a los personales; (b) una sección “Politics”, que incluye zines políticos, ensayos y páginas de grupos políticos; (c) una sección “Fiction”, que incluye publicaciones de autores aficionados; (d) una sección “Religion”, que incluye textos religiosos para el público corriente o no; (e) una sección “Poetry”, que es una mezcla ecléctica de poesía aficionada en su mayoría; y (f) una sección “Quartz”, que incluye archivos anteriormente hospedadas en quartz.rutgers.edu.

Como se indica en el sitio web de la época, “la web era nueva [en 1992], el gopher era la nueva tecnología y el FTP era todavía el protocolo estándar de extracción de la información para la gran mayoría de los usuarios. El origen del proyecto ha llevado a muchas personas a asociarlo con la Universidad de Michigan, a pesar de que no ha existido en realidad ninguna relación formal y que el proyecto es sólo el hecho del trabajo de los voluntarios y de donaciones. El equipo es la propiedad exclusiva de los responsables del proyecto. El proyecto fue lanzado en respuesta a la falta de un archivo organizado de los documentos políticos, de los periódicos y de los debates difundidos por Usenet en newsgroups como alt.activism, misc.activism.progressive y alt.society.anarchy. El grupo alt.politics.radical-left se unió al proyecto más tarde y también fue una fuente importante de documentos y de contribuidores regulares. Poco tiempo después, los zines electrónicos (e-zines) empezaron su proliferación rápida en el internet, y quedaba claro que estos materiales tampoco eran almacenados de manera coordinada ni preservados, por no mencionar el hecho que la frontera era borrosa entre los e-zines (que en ese momento se relacionaban sobre todo al hacking, al phreaking y al anarquismo internet), y los documentos políticos disponibles en el internet. Entonces, la mayoría de los e-zines estaban en línea con el propósito original de los Etext Archives. Una cosa llevando a la otra, e-zines de todo tipo –incluidos muchos títulos sobre diversos temas culturales no relacionados con la política– han invadido nuestros archivos en un volumen significativo.”

# La E-Zine-List

La E-Zine-List es creada en el verano de 1993 por John Labovitz para hacer el inventario de los e-zines que circulan por el mundo y están accesibles por FTP, gopher, el correo electrónico, la web y otros servicios. La lista es actualizada una vez al mes.

¿Cómo nace la E-Zine-List? En el historial del sitio web, John relata que, al principio, su objetivo era dar a conocer Crash, un zine en versión impresa del cual deseaba hacer una versión electrónica. Se pone a buscar unos directorios, pero sólo encuentra el grupo de discusión alt.zines, y archivos como The Well y The Etext Archives. Es entonces que decide crear un directorio organizado. Empieza con doce títulos clasificados manualmente en un programa de tratamiento de textos. Después, redacta su propia base de datos.

En cinco años, entre 1993 y 1998, ya no se trata de decenas, sino que de centenas de e-zines, y el mismo significado de la palabra e-zine se hace más amplio, para referirse ahora a cualquier tipo de publicación que haya sido editada por vía electrónica, aunque, según John, "exista aún un grupo original e independiente, minoritario, que sigue publicando lo que le dicta el corazón, más allá de los límites de lo que solemos llamar un e-zine". La E-Zine-List hace el inventario de 3.045 títulos en noviembre de 1998. John continúa la lista durante algunos años antes que otros tomen el relevo.

1993 > LA ONLINE BOOKS PAGE, LISTADO DE LIBROS EN LÍNEA

[Resumen] John Mark Ockerbloom crea la Online Books Page en enero de 1993 para hacer el inventario de los libros de dominio público en lengua inglesa que están en acceso libre en la web, y ofrecer así al lector un punto de acceso común. Por esas fechas, John Mark es estudiante de doctorado en la Universidad Carnegie Mellon (Estados Unidos). En 1999, empieza a trabajar en la Universidad de Pensilvania en el departamento de investigación y desarrollo (Research & Development) de la biblioteca digital. En la misma época, también transfiere allí la Online Books Page, conservando la misma presentación, muy sobria, y prosigue con su trabajo de inventario en la misma línea. El directorio hace el inventario de 12.000 libros en línea en 1999, 20.000 libros en 2003 (de los cuales 4.000 son publicados por mujeres), 25.000 libros en diciembre de 2006, 30.000 libros en 2007 (de los cuales 7.000 títulos del Proyecto Gutenberg) y 35.000 libros en 2010.

***

John Mark Ockerbloom crea la Online Books Page en enero de 1993 para hacer el inventario de los libros de dominio público en lengua inglesa que están en acceso libre en la web, y ofrecer así al lector un punto de acceso común.

Por esas fechas, John Mark es estudiante de doctorado en la Universidad Carnegie Mellon (Estados Unidos). Cinco años después, en septiembre de 1998, relata: "Yo era uno de los webmasters del Departamento de informática del CMU [Carnegie Mellon University], y empecé nuestro sitio web local en 1993. Éste comprendía páginas con enlaces hacia recursos disponibles localmente, entre las que figuraba al principio la Online Books Page con enlaces hacia libros puestos en línea por personas de nuestro departamento (por ejemplo Robert Stockton, quien realizó versiones web de algunos textos del Proyecto Gutenberg). Después, los usuarios empezaron a pedir enlaces hacia libros disponibles en otros sitios web. Me di cuenta de que muchos sitios web (y no solamente en los del Proyecto Gutenberg o Wiretap) proponían libros en línea, y que podría ser útil tener una lista completa que permitiera descargar o leer libros dondequiera que se encontraran en la red. Fue así como empezó mi catálogo.

Dejé mi actividad de webmaster en 1996, pero mantuve la gestión de la Online Books Page porque entretanto me apasioné por el enorme potencial que representaba el internet para poner la literatura al alcance de mucha gente. Ahora se han puesto en línea tantos libros que resulta difícil para mí mantenerme al día. Pero pienso seguir con esta actividad de una manera u otra. Me intereso mucho por el desarrollo del internet como medio de comunicación de masas durante los próximos años. También me gustaría seguir comprometido de un modo u otro con la difusión gratuita de libros para todo el mundo en el internet, ya sea que esta tarea forme parte integrante de mi actividad profesional, o bien que me dedique a una actividad voluntaria similar durante mi tiempo libre."

En 1998, un índice de 7.000 libros en línea está disponible por autor, por título y por tema. También hay una lista de directorios y archivos de textos en línea, así como una lista de directorios de publicaciones periódicas (diarios, revistas y periódicos científicos), y una página web dedicada a la legislación de los derechos de autor en muchos países.

A finales de 1998, John Mark Ockerbloom obtiene su doctorado en informática. En 1999, empieza a trabajar en la Universidad de Pensilvania, en el departamento de investigación y desarrollo (Research & Development) de la biblioteca digital. En la misma época, transfiere allí la Online Books Page, conservando sin embargo la misma presentación, muy sobria, y prosigue con su trabajo de inventario en la misma línea.

La Online Books Page hace el inventario de 12.000 libros en línea en 1999, 20.000 libros en 2003 (de los cuales 4.000 publicados por mujeres), 25.000 libros en diciembre de 2006, 30.000 libros en 2007 (de los cuales 7.000 títulos del Proyecto Gutenberg) y 35.000 libros en 2010.

1993 > EL FORMATO PDF, LANZADO POR ADOBE

[Resumen] Desde California, la empresa Adobe lanza en junio de 1993 el formato PDF (Portable Document Format) con los software Acrobat Reader (gratuito, para leer los archivos PDF) y Adobe Acrobat (de pago, para crear los archivos PDF). El formato PDF permite guardar los documentos digitales conservando un diseño determinado, con los tipos de letra, los colores y las imágenes del documento original, sin que importe la plataforma utilizada para crearlo y leerlo. El formato PDF se convierte con los años en un estándar de difusión de los documentos. El Acrobat Reader está disponible en varios idiomas y para varias plataformas en varios aparatos electrónicos (ordenador, PDA o smartphone). En mayo de 2003, el Acrobat Reader (versión 5) se fusiona con el Acrobat eBook Reader (versión 2) para convertirse en el Adobe Reader, que empieza con la versión 6 y permite leer tanto los archivos PDF estándar como los archivos PDF seguros de los libros sometidos a derechos de autor.

***

Desde California, la empresa Adobe lanza en junio de 1993 el formato PDF (Portable Document Format) con los software Acrobat Reader (gratuito, para leer los archivos PDF) y Adobe Acrobat (de pago, para crear los archivos PDF).

El formato PDF permite guardar los documentos digitales conservando un diseño determinado, con los tipos de letra, los colores y las imágenes del documento original, sin que importe la plataforma utilizada para crearlo y leerlo. El formato PDF se convierte con los años en un estándar de difusión de los documentos. El Acrobat Reader está disponible en varios idiomas y para varias plataformas (Windows, Mac, Linux).

Adobe anuncia en agosto de 2000 la adquisición de Glassbook, una compañía especializada en software para editoriales, librerías, distribuidores y bibliotecas. En la misma fecha, Adobe firma también un acuerdo con Amazon.com y Barnes & Noble.com para que propongan títulos legibles en el Acrobat Reader y el Glassbook Reader.

# Dos nuevos software

En enero de 2001, Adobe lanza dos nuevos software.

El primer software (gratuito) es el Acrobat eBook Reader, que permite leer archivos PDF de los libros digitales sometidos a derechos de autor. Los derechos se gestionan mediante el Adobe Content Server. El software permite añadir notas y marcadores, escoger la disposición de lectura de los libros (en páginas individuales o en “modo libro” –o sea, con páginas opuestas–), y también visualizar las cubiertas en una biblioteca personal. El software utiliza la técnica de visualización CoolType y contiene un diccionario integrado.

El segundo software (de pago) es el Adobe Content Server, destinado esta vez a las editoriales y a los distribuidores. Este software es un servidor de contenido que garantiza el acondicionamiento, la protección, la distribución y la venta segura de libros digitales en formato PDF. Este sistema de gestión de los derechos digitales (también llamado DRM: Digital Rights Management) permite controlar el acceso a los libros digitales sometidos a derechos de autor, y por lo tanto gestionar los derechos de un libro según las consignas dadas por el gestor de éstos, autorizando o no, por ejemplo, la impresión o el préstamo. El Adobe Content Server será sustituido por el Adobe LiveCycle Policy Server en noviembre de 2004.

En abril de 2001, Adobe firma un acuerdo con Amazon, poniendo a la venta 2.000 libros digitales legibles con el Acrobat eBook Reader: títulos de grandes editoriales, guías de viaje, libros para niños, etc.

El Acrobat Reader puede utilizarse en una PDA, en primer lugar en el Palm Pilot, en mayo de 2001, y luego en el Pocket PC en diciembre de 2001.

# El Adobe Reader

En diez años, entre 1993 y 2003, se estima que el Acrobat Reader ha sido descargado 500 millones de veces. En 2003, este software está disponible en muchos idiomas y para todas las plataformas (Windows, Mac, Linux, Palm OS, Pocket PC, Symbian OS, etc.). Se estima que el 10% de los documentos presentes en el internet están en formato PDF. Millones de archivos PDF se pueden leer o descargar en la web o son enviados por correo electrónico. El formato PDF también es el formato de libro digital más difundido.

En mayo de 2003, el Acrobat Reader (5ª versión) se fusiona con el Acrobat eBook Reader (2ª versión) para convertirse en el Adobe Reader, que empieza con la versión 6 y permite leer tanto los archivos PDF estándar como los archivos PDF seguros de los libros sometidos a derechos de autor.

A finales de 2003, Adobe estrena su librería en línea, Digital Media Store, con los títulos en formato PDF de las grandes editoriales (HarperCollins Publishers, Random House, Simon & Schuster, etc.), así como con las versiones electrónicas de diarios y revistas como el New York Times y Popular Science. Adobe lanza también Adobe eBooks Central, un servicio que permite leer, publicar, vender y prestar libros digitales, y la Adobe eBook Library, un prototipo de biblioteca de libros digitales.

Después de ser un formato propietario, el formato PDF se convierte en un estándar abierto en julio de 2008 y es publicado como norma ISO (Organización Internacional de Normalización) bajo el nombre ISO 32000- 1:2008.

1994 > EL INTERNET, UNA HERRAMIENTA DE MARKETING

[Resumen] Las editoriales ponen libros digitales de acceso libre en la web para favorecer las ventas de los mismos libros impresos, por ejemplo, lo hacen la National Academy Press (NAP) en 1994 y la MIT Press en 1995. La NAP decide en 1994 poner en acceso libre el texto integral de cientos de libros, con el acuerdo de sus autores, para que los lectores los puedan hojear en pantalla, igual que lo harían en una librería. La presencia de estos libros en la web provoca un aumento en las ventas de los mismos libros impresos. La solución por la que opta la NAP también es adoptada a partir de 1995 por la MIT Press (MIT: Massachusetts Institute of Technology – Instituto de Tecnología de Massachusetts), con el mismo éxito. Las demás editoriales siguen dudando en lanzarse también a la aventura por tres motivos: los gastos excesivos generados por la puesta en línea de miles de páginas, los problemas de los derechos de autor, y el miedo a una "competencia" entre libros digitales gratis y libros impresos de pago, que juzgan perjudicial para las ventas.

***

Las editoriales ponen libros digitales de acceso libre en la web para favorecer las ventas de los mismos libros impresos, por ejemplo, lo hacen la National Academy Press (NAP) en 1994 y la MIT Press en 1995.

# La apuesta de la NAP

La cuestión es saber si la publicación gratuita de un libro perjudica o no las ventas de su versión impresa. La NAP es la primera editorial en tomar semejante riesgo, ya en 1994, y acaba ganando la apuesta.

"A primera vista, eso no parece lógico", escribe Beth Berselli, una periodista del Washington Post, en un artículo de noviembre de 1997. "Una editorial de Washington, la National Academy Press (NAP), publicó en el internet 700 títulos de su catálogo actual, permitiendo así a cualquier persona leer gratuitamente sus libros, y vio sus ventas aumentar en un 17% el año siguiente. ¿Quién dijo que ya nadie compraría la vaca si la leche se distribuía gratuitamente?"

La NAP es una editorial universitaria que publica unos 200 libros al año, esencialmente libros científicos y técnicos, y manuales de medicina. En 1994, la NAP decide poner en acceso libre en la web el texto integral de cientos de libros, con el acuerdo de sus autores, para que los lectores los puedan hojear en pantalla, igual que lo harían en una librería.

Los autores de los mismos piden que sus libros aparezcan en el sitio web, para dar a conocerlos, lo que provoca un aumento en las ventas de los mismos libros impresos. Para la editorial, el internet es un nuevo instrumento de marketing para hacer frente a las 50.000 obras publicadas cada año en los Estados Unidos. Se concede un descuento del 20% sobre cualquier pedido hecho en línea. La presencia de estos libros en la web provoca también un aumento de las ventas telefónicas. En 1998, el sitio web de la NAP ofrece unos mil títulos en versión integral.

# La MIT Press sigue este camino

La solución por la que optó la NAP también es adoptada a partir de 1995 por la MIT Press. En estas fechas, la MIT Press publica unos 200 libros al año y 40 periódicos, sobre ciencia y tecnología, ciencias sociales, economía, ciencia cognitiva y sobre informática. Muchos libros están en acceso libre en el sitio web, como “compromiso a largo plazo para el uso eficaz y creativo de las nuevas tecnologías”. En poco tiempo se duplican las ventas de los títulos disponibles en versión integral en la web.

Las demás editoriales aclaman estas iniciativas, aunque sin embargo siguen dudando en lanzarse también a la aventura por tres motivos: los gastos excesivos generados por la puesta en línea de miles de páginas, los problemas de derechos de autor, y el miedo a una "competencia" entre libros digitales gratis y libros impresos de pago, que juzgan perjudicial para las ventas, aún si las experiencias de la NAP y de la MIT Press demuestran lo contrario.

1995 > LA PRENSA IMPRESA EN LÍNEA

[Resumen] El paso, desde 1995, de la prensa impresa a la prensa en línea prefigura el paso del libro impreso al libro digital en los años siguientes; de ahí el interés de este capítulo. A principios de los años 1990, se pueden consultar las primeras ediciones electrónicas de diarios a través de servicios comerciales como America Online (AOL) o CompuServe. Tras el lanzamiento del primer navegador a finales de 1993 y al rápido crecimiento de la web que resulta de esto, los órganos de prensa impresa empiezan a crear sus propios sitios web en 1995, por ejemplo el Wall Street Journal, el New York Times o el Washington Post, que proponen en su sitio las noticias del día y numerosos artículos archivados. En el Reino Unido, el Times y el Sunday Times deciden crear un sitio web común llamado Times Online, el que ofrece incluso la posibilidad de generar una edición personalizada. El diario El País se pone en línea en España, así como los diarios Le Monde y Libération o el semanario Le Monde diplomatique en Francia, y los semanales Focus y Der Spiegel en Alemania.

***

El paso de la prensa impresa a la prensa en línea desde 1995 prefigura el paso del libro impreso al libro digital en los años siguientes; de ahí el interés de este capítulo.

A principios de los años 1990, se pueden consultar las primeras ediciones electrónicas de diarios a través de servicios comerciales como America Online (AOL) o CompuServe. Tras el lanzamiento del primer navegador a finales de 1993 y al rápido crecimiento de la web que resulta de esto, los órganos de prensa impresa empiezan a crear sus propios sitios web en 1995 y 1996.

# En los Estados Unidos

En los Estados Unidos, la versión en línea del Wall Street Journal (de pago) logra atraer a 100.000 suscriptores en 1998. La suscripción es gratuita para leer en línea el New York Times. El sitio web del Washington Post propone las noticias del día en línea y numerosos artículos archivados. Pathfinder (rebautizado más adelante Time) es el sitio web del grupo Time-Warner, que edita las revistas Time Magazine, Sports Illustrated, Fortune, People, Southern Living, Money, Sunset, etc. En el sitio web se pueden leer artículos de estas revistas, realizando una búsqueda por fecha o por tema. Y por supuesto también está presente en la web la revista Wired, la primera revista impresa completamente dedicada a la cibercultura, lanzada en California en 1992.

# En Europa

En el Reino Unido, el Times y el Sunday Times deciden crear un sitio web común llamado Times Online, el que ofrece incluso la posibilidad de generar una edición personalizada. El diario El País se pone en línea en España, así como los semanales Focus y Der Spiegel en Alemania.

En febrero de 1995 se inaugura el primer sitio web de un periódico impreso francés, el del mensual Le Monde diplomatique. Este sitio facilita el acceso al conjunto de los artículos desde enero de 1994, clasificados por fecha, por tema y por país. La totalidad del último número publicado se puede consultar gratuitamente durante las dos semanas después de su fecha de publicación. Un foro de discusión permite al periódico mantener un diálogo con sus lectores. Otros sitios de prensa siguen este ejemplo en Francia, por ejemplo, el sitio web del diario Libération a finales de 1995, los sitios del diario Le Monde y del diario L'Humanité en 1996, así como el sitio del diario Ouest- France, un diario regional del oeste de Francia, y otros sitios para la prensa regional.

# El internet, “una amenaza y una suerte a la vez”

¿Cuáles son las repercusiones que tiene el internet para los periodistas? Bernard Boudic, responsable editorial del sitio web del diario Ouest-France (un sitio lanzado en julio de 1996), escribe en junio de 1998: “Todavía son leves. Algunos utilizan el internet para la mensajería electrónica (correo interno o externo, recepción de textos de los corresponsales desde el extranjero, envío de diversos archivos) y como fuente de información. Pero esta práctica aún necesita extenderse y generalizarse. Por supuesto, reflexionamos también sobre la escritura multimedia y su retroacción sobre la escritura impresa, discutimos de los cambios en las costumbres de nuestros lectores, etc. (…) El internet es a la vez una amenaza y una suerte. Una amenaza que pesa sobre el diario impreso, no cabe duda: el internet capta la publicidad y los anuncios por palabras, influye en los reflejos de los lectores, provoca un progresivo desinterés del público por las versiones impresas. También es peligroso por la competencia que representa un medio de comunicación gratis, y a disposición de cualquier persona deseosa de difundir información propia… Pero también es una oportunidad para aceptar retos, y para rejuvenecer la prensa impresa."

Estos temas vuelven a surgir unos años después, cuando nace el libro digital: la relación más tenue entre autor y lectores, la versión de pago y/o la versión gratuita, la versión digital y/o la versión impresa, etc.

1995 > AMAZON, PIONERO DEL CIBERCOMERCIO

[Resumen] En julio de 1995, Jeff Bezos funda en Seattle (Estados Unidos) la librería en línea Amazon, que comienza con diez empleados y con tres millones de libros a la venta. Sus ventanas están en su sitio web, con todas sus transacciones a través del internet. Los libros son ubicados en grandes almacenes antes de ser enviados a los clientes por correo postal. En noviembre de 2000, Amazon cuenta con 7.500 empleados, 28 millones de artículos, 23 millones de clientes y cuatro filiales, una en el Reino Unido (inaugurada en octubre de 1998), una en Alemania (inaugurada en la misma fecha), una en Francia (inaugurada en agosto de 2000) y una en Japón (inaugurada en noviembre de 2000). La quinta filial abre sus puertas en Canadá (en junio de 2002), y la sexta, Joyo, en China (en septiembre de 2004). Presente en siete países y habiéndose convertido ya en una referencia mundial para el cibercomercio (junto con eBay), Amazon celebra sus diez años de existencia en julio de 2005, con 41 millones de clientes y 9.000 empleados.

***

Nuevas librerías nacen directamente en la web, con todas sus transacciones a través del internet, como Amazon en 1995.

Amazon abre sus puertas "virtuales" en julio de 1995 bajo la batuta de Jeff Bezos, con un catálogo de tres millones de libros –es decir, toda la producción impresa disponible a la venta en los Estados Unidos– y diez empleados en Seattle, en la costa oeste del país. Los libros son ubicados en grandes almacenes antes de ser enviados a los clientes por correo postal.

# Los primeros pasos

Quince meses antes, en la primavera de 1994, Jeff Bezos hace un estudio de mercado a fin de determinar cuál es el mejor producto para poner a la venta en el internet. Su lista incluye veinte productos mercantiles, entre los cuales figuran la ropa y las herramientas de jardinería. Los cinco primeros productos del listado resultan ser los libros, los CD, los vídeos, los software y el material informático.

Jeff Bezos relata en 1997, en el kit de prensa de Amazon: "He utilizado una serie de criterios para evaluar el potencial de cada producto. El primer criterio fue el tamaño de los mercados existentes. Me he percatado de que la venta de libros representaba un mercado global de 82 millares de dólares US. El segundo criterio fue el tema del precio. Yo quería un producto barato. Mi razonamiento era el siguiente: ya que ésta sería la primera compra que la gente iba a realizar en línea, el precio debía ser módico. El tercer criterio fue la variedad de artículos que se podría proponer a los clientes: había tres millones de títulos para los libros mientras que sólo había 300.000 títulos para los CD, por ejemplo."

# Los “asociados”

Durante la primavera de 1997, Amazon decide inspirarse en el sistema de "asociados" en línea, lanzado unos meses antes por la librería británica Internet Bookshop, que es la mayor librería europea en línea. Cualquier persona que posea un sitio web puede vender libros que pertenecen al catálogo de Amazon cobrando un porcentaje de 15% sobre las ventas. El asociado selecciona los títulos del catálogo que le interesan en función de sus centros de interés, y redacta sus propios resúmenes. Amazon recibe los pedidos por su intermedio, envía los libros, redacta las facturas, y envía al asociado un informe semanal de actividad junto con el pago correspondiente. La red de Amazon cuenta con más de 30.000 sitios asociados en la primavera de 1998 y 60.000 sitios asociados en junio de 1998, lo que permite tener muchos nuevos “escaparates” para la librería en línea. Los asociados también son empresas como Adobe, InfoBeat, Kemper Funds, PR Newswire, Travelocity, Virtual Vineyards y Xoom.

# La expansión

Además de libros, es posible encontrar en Amazon CD, DVD, juegos informáticos, etc. Se puede consultar el catálogo en la pantalla, leer los resúmenes de los libros o incluso fragmentos de éstos, y luego hacer un pedido en línea. El contenido editorial del sitio cambia a diario y pretende ser una revista literaria en línea, con consejos sobre lectura, artículos de fondo redactados por periodistas (quienes anteriormente han trabajado para la prensa impresa), entrevistas con autores y comentarios de lectores. En julio de 1998, Amazon cuenta con 1,5 millones de clientes en 160 países; la gente se va acostumbrando a realizar compras en línea.

En noviembre de 2000, Amazon cuenta con 7.500 empleados, 28 millones de artículos, 23 millones de clientes y cuatro filiales, una en el Reino Unido (inaugurada en octubre de 1998), una en Alemania (inaugurada en la misma fecha), una en Francia (inaugurada en agosto de 2000) y una en Japón (inaugurada en noviembre de 2000). La quinta filial abrirá sus puertas en Canadá (en junio de 2002), y la sexta, Joyo, en China (en septiembre de 2004).

# El eBookStore

Amazon estrena su librería digital, llamada eBookStore, en noviembre de 2000, con un catálogo de 1.000 libros digitales. Antes de este lanzamiento, Amazon firma dos acuerdos en agosto de 2000: un acuerdo con Microsoft para vender libros legibles en el Microsoft Reader, tanto para el Pocket PC como para toda plataforma Windows, y otro acuerdo con Adobe para vender libros legibles en el Acrobat Reader y el Glassbook Reader (Adobe ha comprado la compañía Glassbook y su software). Amazon firma un segundo acuerdo con Adobe en abril de 2001 para vender 2.000 libros digitales legibles en el Acrobat eBook Reader, el nuevo software de Adobe para la gestión de libros bajo derechos de autor. Estos libros son títulos de grandes editoriales, guías de viaje, libros para niños, etc.

Presente en siete países y habiéndose convertido ya en una referencia mundial para el cibercomercio (junto con eBay), Amazon celebra sus diez años de existencia en julio de 2005, con 41 millones de clientes y 9.000 empleados.

# Barnes & Noble

El mayor competidor de Amazon es Barnes & Noble, que lanza su librería
en línea en mayo de 1997, en cooperación con el gigante de los medios
Bertelsmann. Barnes & Noble acabará recomprando la porción detenida por
Bertelsmann (36,8%) en julio de 2003 por 164 millones de dólares US.

A diferencia de Amazon, una librería exclusivamente "virtual ", Barnes & Noble.com se apoya en una cadena de 480 librerías diseminadas en 48 de los 50 Estados del país (Estados Unidos). Se lanza en una guerra de precios contra Amazon, su principal rival en los Estados Unidos, para gran alegría de los clientes, que aprovechan esta carrera de rebajas para ahorrar entre 20 y 40% del precio de algunos libros.

Barnes & Noble.com abre su eBookStore en agosto de 2000, tres meses antes que Amazon, después de un primer acuerdo con Microsoft en enero de 2000 para la venta de libros digitales legibles con el Microsoft Reader, y de un segundo acuerdo con Adobe en agosto de 2000 para proporcionar títulos legibles con el Acrobat Reader.

1996 > EL INTERNET ARCHIVE, PARA LAS GENERACIONES FUTURAS

[Resumen] Fundado en abril de 1996 por Brewster Kahle en San Francisco (California), el Internet Archive se propone constituir, almacenar, preservar y administrar un archivo del internet, salvando la totalidad de la web cada dos meses, con el fin de proporcionar un instrumento de trabajo a los estudiosos, investigadores e historiadores, y de preservar un historial del internet para las generaciones presentes y futuras. En octubre de 2001, el Internet Archive pone sus archivos en acceso libre en la web gracias a la Wayback Machine, que permite consultar el historial de un sitio web –es decir, su contenido y su presentación en varias fechas–. Los archivos de la web representan 30 millones de páginas web en 1996, 65 millares de páginas web en diciembre de 2006, 85 millares de páginas web en mayo de 2007 y 150 millares de páginas web en marzo de 2010. El Internet Archive también lanza en octubre de 2005 la Open Content Alliance (OCA – Alianza para un Contenido Abierto), para constituir una biblioteca universal de libros digitales y documentos multimedia.

***

El Internet Archive es fundado en abril de 1996 por Brewster Kahle, en
San Francisco (California), para preservar un historial del internet.

El Internet Archive se propone constituir, almacenar, preservar y administrar un archivo del internet, salvando la totalidad de la web cada dos meses, con el fin de proporcionar un instrumento de trabajo a los estudiosos, investigadores e historiadores, y de preservar un historial del internet para las generaciones presentes y futuras.

# La importancia de un archivo

Como se explica en el sitio web, a lo largo de la historia, las sociedades han tratado de preservar sus culturas y herencias para las generaciones presentes y futuras, y así las bibliotecas han tenido la vocación de conservar los trazos escritos de estas culturas y herencias y de facilitar su acceso al público y a los investigadores. Por lo tanto, parece esencial que extiendan su misión a las nuevas tecnologías. Paradójicamente, la tarea no se ha hecho bien al comienzo del siglo 20. Muchas películas han sido recicladas –y por lo tanto, perdidas para siempre– para recuperar la capa de plata sobre la película. Muchos programas de radio y televisión han sido perdidos. Entonces, es importante no repetir el mismo error para el internet, especialmente para la web, un nuevo medio del que no se conoce todavía el enorme alcance que tiene para el futuro. Ésta es la razón de ser del Internet Archive.

# La Wayback Machine

En octubre de 2001, cinco años después de su fundación, el Internet Archive pone sus archivos –30 millares de páginas web– de acceso libre en la web con la Wayback Machine, que permite consultar el historial de un sitio web; es decir, su contenido y su presentación en varias fechas, en teoría cada dos meses desde abril de 2006, fecha de la creación del Internet Archive.

Los archivos de la web representan 300 TB (terabytes) con fecha de 2004, con un crecimiento de 12 TB por mes. Representan 65 millares de páginas web (de 50 millones de sitios web) en diciembre de 2006, 85 millares de páginas web en mayo de 2007 y 150 millares de páginas web en marzo de 2010.

# Colecciones digitales

El Internet Archive empieza también a constituir colecciones digitales, por ejemplo el Million Book Project (10.520 libros en abril de 2005), archivos de películas del periodo 1903-1973, archivos de conciertos en vivo recientes, archivos de software, sitios sobre el 11-S (11 de septiembre de 2001), sitios sobre las elecciones de 2000 (presidenciales) y de 2002 (elecciones del Congreso y de los gobernadores de los Estados), etc. Todas estas colecciones están en acceso libre en el sitio web.

¿Qué es exactamente el Million Book Project? El Million Book Project (El Proyecto "un millón de libros") es creado en enero de 2000 por la Universidad Carnegie Mellon (Pensilvania, Estados Unidos) para digitalizar un millón de libros en varios idiomas, incluso en la India y en China. En 2007, un millón de libros está disponible en el sitio web de la universidad, en forma de archivos en formatos TIFF y DjVu, con tres sitios espejo en el norte de China, en el sur de China y en la India.

En octubre de 2005, el Internet Archive lanza la Open Content Alliance (Alianza para un Contenido Abierto), una iniciativa cuyo objetivo es crear una biblioteca digital pública universal de libros digitales y documentos multimedia.

1996 > HACIA UN SABER DIGITAL

[Resumen] Vinton Cerf, "el padre del internet" y el fundador de la Internet Society (ISOC), explica en enero de 1998, en una entrevista, que "la red permite dos cosas (…): como los libros, permite acumular conocimientos. Pero sobre todo, los presenta bajo una forma que los relaciona con otra información. Mientras que en un libro la información se queda aislada." Además, la información contenida en los libros sigue siendo la misma, mientras que el internet privilegia la información más reciente y regularmente actualizada. Eso cambia nuestra relación con respecto al saber. Durante una conferencia organizada en septiembre de 1996 por la IFIP (International Federation of Information Processing – Federación Internacional del Tratamiento de la Información), Dale Spender, profesora e investigadora, destaca los cambios aportados por el internet en la adquisición del saber y en los métodos de enseñanza.

***

La información contenida en los libros sigue siendo la misma, mientras que el internet privilegia la información más reciente y regularmente actualizada. Eso cambia nuestra relación con respecto al saber.

Vinton Cerf, "el padre del internet" y el fundador de la Internet Society (ISOC), explica en enero de 1998, en una entrevista con el diario francés Libération, que "la red permite dos cosas (…): como los libros, permite acumular conocimientos. Pero sobre todo, los presenta bajo una forma que los relaciona con otra información. Mientras que en un libro la información se queda aislada."

# Cambios en la enseñanza

Durante una conferencia organizada en septiembre de 1996 por la IFIP (International Federation of Information Processing – Federación Internacional del Tratamiento de la Información), Dale Spender, profesora e investigadora, destaca los cambios aportados por el internet en la adquisición del saber y en los métodos de enseñanza. He aquí un resumen de su argumentación en dos párrafos.

Durante los últimos quinientos años, la enseñanza se ha basado principalmente en la información contenida en los libros. Ahora bien, las costumbres vinculadas con el documento impreso no se pueden transferir al mundo digital. La enseñanza en línea ofrece posibilidades tan novedosas que ya casi no es posible efectuar las distinciones tradicionales entre docente y alumno. El paso de la cultura impresa a la cultura digital exige reconsiderar enteramente el proceso de enseñanza, ya que ahora tenemos la oportunidad, sin precedente, de poder influir sobre el tipo de enseñanza que deseamos.

Con la cultura impresa, la información contenida en los libros seguía siendo la misma durante bastante tiempo, lo que nos ha incitado a pensar que la información era estable. La misma naturaleza de lo impreso es vinculada a la noción de verdad, que también es estable. Esta estabilidad y el orden que engendra han sido uno de los fundamentos de la era industrial y de la revolución científica. Las nociones de verdad, de leyes, de objetividad y de pruebas, han sido los elementos de referencia de nuestras creencias y de nuestras culturas, pero la revolución digital lo cambia todo. De repente la información en línea suplanta la información impresa para convertirse en la más fiable y la más útil y, en consecuencia, el usuario está dispuesto a pagarla. Es esta transformación radical en la naturaleza de la información la que debe estar en el centro del debate sobre los métodos de enseñanza.

# Tres experiencias

Así lo demuestra la experiencia de Patrick Rebollar, profesor de francés y de literatura francesa en Tokio (Japón), quien escribe en julio de 1998: “Mi trabajo de investigación es diferente, mi trabajo como profesor es diferente, mi imagen como profesor-investigador de lengua y de literatura está totalmente ligada al ordenador, lo que tiene sus lados buenos y sus lados malos (sobre todo en la alta jerarquía académica, que se compone de personas de edad avanzada y tecnológicamente recalcitrante). He dejado de interesarme en algunos colegas cercanos geográficamente pero que no tienen nada en común con mis ideas, para entrar en contacto con personas desconocidas y ubicadas en varios países (y con las que a veces me encuentro en París o en Nueva York, con ocasión de las vacaciones o de las conferencias de los unos o los otros). La diferencia es sobre todo un ahorro de tiempo para todo, luego un cambio del método de documentación, un cambio del método en la enseñanza que hace hincapié en la adquisición de métodos de investigación por mis estudiantes a expensas de los contenidos (pero eso depende de los cursos). Poco a poco, el paradigma reticular es más importante que el paradigma jerárquico.”

Robert Beard, profesor en la Universidad Bucknell (Estados Unidos), destaca en septiembre de 1998: "Como profesor de lengua, creo que la web tiene una plétora de nuevos recursos disponibles en el idioma estudiado, nuevas herramientas de aprendizaje (ejercicios interactivos Java y Shockwave) y de tests, que están disponibles para los estudiantes cuando tienen tiempo o les apetece hacerlos, 24 horas al día y 7 días a la semana. Tanto para mis colegas como para mí, y por supuesto para nuestra institución, el internet también nos permite publicar prácticamente sin límite. (…) El internet nos proporcionará todo el material pedagógico con el que podamos soñar, incluso notas de lectura, ejercicios, tests, evaluaciones y ejercicios interactivos más eficaces que antes, por estar éstos más basados en el concepto de comunicación."

Russon Wooldridge, profesor en el Departamento de Estudios Franceses de la Universidad de Toronto (Canadá), relata en febrero de 2001: "Mis actividades de investigación, llevadas a cabo anteriormente en una torre de marfil, se hacen ahora casi exclusivamente por colaboraciones locales o remotas. (…) Todo mi método de enseñanza aprovecha al máximo los recursos del internet (la web y el correo electrónico): los dos lugares comunes son el aula de clase y la página web del curso, en la cual coloco todo el material didáctico. Pongo a disposición en la web todos los datos de mi labor de investigación de los últimos veinte años (reedición de libros, artículos, textos integrales de diccionarios antiguos en bases de datos interactivas, de tratados del siglo 16, etc.). Publico actas de coloquios, edito un periódico, colaboro con colegas franceses, poniendo en línea en Toronto lo que ellos no pueden publicar en línea en su país. (…) Me doy cuenta de que sin el internet mis actividades serían mucho más limitadas, o al menos serían muy diferentes de lo que son en la actualidad. Luego, no me imagino el futuro sin el internet.”

1996 > EL PROYECTO @FOLIO, UN LECTOR PORTÁTIL DE TEXTOS

[Resumen] Pierre Schweitzer, arquitecto diseñador en Estrasburgo (Francia), concibe en octubre de 1996 el proyecto @folio, un lector portátil de textos para leer los que se han sacado del internet. De tamaño pequeño, este lector portátil quiere imitar, en forma electrónica, el dispositivo técnico del libro, para así proporcionar una memoria de facsímiles, unidos a hipervínculos para que resulten más fáciles de hojear. Pierre también es el autor de Mot@mot (Palabra@Palabra), un software que "corta" las páginas escaneadas del libro, palabra por palabra, hasta obtener una serie "líquida" de imágenes-palabras, es decir; cadenas de caracteres para adaptar el texto a una pantalla pequeña. Para desarrollar su proyecto @folio y su software Mot@Mot, Pierre registra una patente internacional en abril de 2001 y crea la start-up francesa iCodex en julio de 2002.

***

Pierre Schweitzer concibe en octubre de 1996 el proyecto @folio, un lector portátil de textos para leer textos sacados del internet.

De tamaño pequeño, este lector portátil quiere imitar, en forma electrónica, el dispositivo técnico del libro, para así proporcionar una memoria de facsímiles unidos a hipervínculos, para que resulten más fáciles de hojear.

# Los inicios del proyecto

Pierre, que es un arquitecto diseñador en Estrasburgo (Francia), explica en enero de 2001: “@folio es un lector portátil de textos, simple, ligero, autónomo, que el lector alimenta con textos que elige en la web, para leerlos en cualquier lugar. También puede imprimir documentos personales o profesionales desde un CD-ROM. Los textos son guardados de manera más rápida que en una impresora, y no usa ni tinta ni papel. Los enlaces hipertexto se mantienen a nivel de una encuadernación táctil. (…)

El proyecto nació en el taller de diseño de la École d’Architecture de Strasbourg [Escuela de Arquitectura de Estrasburgo], donde yo era estudiante. Se desarrolla en la École Nationale Supérieure des Arts et Industries de Strasbourg [Escuela Nacional Superior de Artes e Industrias de Estrasburgo], con el apoyo del ANVAR de Alsacia [un organismo regional que ayuda proyectos tecnológicos nuevos]. Hoy en día participo con otros en su formalización, en los prototipos, en el diseño, en los software, en la industrialización, en el entorno técnico y cultural, etc., para transformar este concepto en un objeto para el público.”

# El software Mot@mot

Pierre también es el autor de Mot@mot (Palabra@Palabra), un software que "corta" las páginas escaneadas del libro, palabra por palabra, hasta obtener una serie "líquida" de imágenes-palabras, es decir; cadenas de caracteres para adaptar el texto a una pantalla pequeña.

Pierre explica en la misma fecha: “La mayor parte del patrimonio escrito queda fijado en los libros, sobre el papel. Para poner estas obras en acceso en la web, la digitalización en modo imagen es muy efectiva. El proyecto Gallica [la biblioteca digital de la Biblioteca National de Francia] es la prueba de esto. Pero sigue existiendo el problema de adaptar los facsímiles de origen a nuestras pantallas de lectura actuales. Cuando son reducidos brutalmente al tamaño de una pantalla, los facsímiles se hacen ilegibles. (…) La solución propuesta por Mot@Mot consiste en ‘cortar’ el libro, palabra por palabra, de principio a fin (bueno, las páginas escaneadas del libro…). De esta manera, estas palabras quedan como imágenes, no hay reconocimiento de caracteres y entonces no hay error posible. Se obtiene una cadena ‘liquida’ de imágenes-palabras, que se pueden poner de nuevo en forma de página tan fácilmente como una cadena de caracteres. A continuación se hace posible adaptarla a una pequeña pantalla, sin perder ninguna legibilidad del texto. La tipografía de origen se mantiene, y las ilustraciones también.”

# La start-up iCodex

Para desarrollar su proyecto @folio y su software Mot@Mot, Pierre registra una patente internacional en abril de 2001 y crea la start-up francesa iCodex en julio de 2002.

Pierre escribe de nuevo en diciembre de 2006: "La suerte que compartimos todos es la de estar viviendo desde dentro, aquí y ahora, esta fantástica transformación. Cuando yo nací, en 1963, en la memoria de los ordenadores cabían apenas algunas páginas de caracteres. Hoy en día, en mi lector portátil caben miles de millones de páginas; una verdadera biblioteca de barrio. Mañana, por el efecto combinado de la ley de Moore y de la omnipresencia de las redes, el acceso instantáneo a las obras y al saber será algo corriente. El soporte de almacenamiento en sí ya ni siquiera presentará mucho interés. Sólo importarán las comodidades funcionales de uso y la poética de esos objetos."

1997 > LA CONVERGENCIA MULTIMEDIA

[Resumen] La convergencia multimedia es la convergencia de todos los sectores vinculados con la información (la impresión, la edición, la prensa, la concepción gráfica, las grabaciones sonoras, las películas, la radiodifusión, etc.) tras el uso de las técnicas de digitalización, con una aceleración del proceso de producción. La convergencia multimedia tiene muchos reveses, por ejemplo, la proliferación de contratos precarios para los empleados, la inexistencia de sindicatos para los teletrabajadores o el maltrato de los derechos de autor en detrimento de los periodistas y de los escritores. ¿Conlleva la convergencia multimedia nuevos puestos, como lo aseguran los sindicatos, o conlleva la convergencia multimedia despidos? Éste es el tema del Simposio sobre Convergencia Multimedia organizado en enero de 1997 por la Organización Internacional del Trabajo (OIT), con otros debates que continuarán en los años siguientes.

***

La convergencia multimedia es la convergencia de todos los sectores vinculados con la información (la impresión, la edición, la prensa, la concepción gráfica, las grabaciones sonoras, las películas, la radiodifusión, etc.) tras el uso de las técnicas de digitalización.

También se puede definir como la convergencia de los sectores de la informática, de la telefonía y de la radiotelevisión en una industria de la comunicación y de la distribución que utiliza las mismas autovías de la información, con la aceleración del proceso de producción.

# ¿De qué se trata concretamente?

La digitalización permite generar, guardar, combinar, almacenar, buscar y transmitir textos, sonidos e imágenes, mediante medios sencillos y rápidos. Procedimientos similares permiten el procesamiento de la escritura, de la música y de las películas, mientras que antes se necesitaban soportes variados (como el papel para la escritura, la cinta magnética para la música o el celuloide para el cine). Además, sectores distintos como la edición (que produce libros) y la industria musical (que produce discos) trabajan conjuntamente para producir CD- ROM.

Cada contenido es ahora sistemáticamente digitalizado para permitir su traslado por vía electrónica y para acelerar el procedimiento material de producción. En el mundo editorial por ejemplo, el redactor, el diseñador artístico y el diseñador gráfico suelen trabajar simultáneamente sobre la misma obra. En la prensa, los periodistas envían directamente sus textos para la maquetación, mientras que antes el personal de producción tenía que dactilografiar los textos del personal de redacción. Gradualmente asistimos a la convergencia de todos los sectores vinculados con la información.

# Un simposio internacional

Aunque en algunos sectores este fenómeno pueda generar nuevos empleos – por ejemplo, en el campo de la producción de películas o de los productos audiovisuales–, otros sectores padecen inquietantes reestructuraciones. Estos problemas son tan preocupantes como para haber sido objeto de un Simposio sobre Convergencia Multimedia organizado en enero de 1997, en Ginebra (Suiza), por la Organización Internacional del Trabajo (OIT).

Peter Leisink es profesor asociado de Ciencias Sociales en la Universidad de Utrecht (Países Bajos). Explica que la redacción de los textos y la corrección de pruebas suele realizarse a domicilio, lo más a menudo por trabajadores que se han hecho empresarios individuales tras haber sido despedidos, o tras la deslocalización o la fusión de su empresa. Precisa que, "ahora bien, esta forma de empleo se parece más a un trabajo precario que a un trabajo autónomo, pues las personas que la adoptan sólo gozan de una autonomía reducida, y generalmente dependen de una sola editorial."

Michel Muller es secretario general de la FILPAC (Fédération des Industries du Livre, du Papier et de la Communication – Federación de las Industrias del Libro, del Papel y de la Comunicación) de Francia. Explica que las industrias gráficas francesas han perdido 20.000 empleos en diez años, desde 1987 hasta 1996, con efectivos que han pasado de 110.000 a 90.000 empleados. Las empresas elaboran planes sociales costosos para favorecer la recolocación de los empleados despedidos, creando empleos que suelen ser artificiales, mientras que hubiera sido preferible costear estudios fiables sobre el modo de equilibrar creaciones y supresiones de empleos antes de que fuera demasiado tarde.

Walter Durling, director del gigante de las telecomunicaciones AT&T (Estados Unidos), insiste en el hecho de que las nuevas tecnologías no cambiarán fundamentalmente la situación de los empleados en sus empresas. La invención de las películas no mató al teatro, y la invención de la televisión tampoco acabó con el cine. Las empresas deberían crear empleos vinculados con las nuevas tecnologías y proponérselos a aquellos trabajadores que se ven obligados a abandonar sus puestos porque éstos se han vuelto obsoletos.

# Masivas supresiones de empleos

Éstos son argumentos muy teóricos, mientras que el problema es más bien una cuestión de proporción. ¿Cuántos puestos se han creado, y a cuántos trabajadores se ha despedido?

Aparte de algunos casos aislados que las organizaciones de empleadores suelen realzar, la convergencia multimedia provoca masivas supresiones de empleos. En el mundo entero, muchos puestos de baja cualificación técnica son sustituidos por puestos que requieren personal muy cualificado. Los trabajadores poco cualificados son despedidos. Otros reciben una formación profesional complementaria, teniendo a veces que autofinanciarla y que cursarla en su tiempo libre, aunque al final de la formación profesional ni siquiera puedan estar seguros de que los vuelvan a contratar.

Por su parte, los sindicatos preconizan la creación de empleos mediante la inversión, la innovación, la formación para las nuevas tecnologías, la reconversión de los trabajadores cuyos empleos han sido suprimidos, una negociación colectiva justa, la defensa de los derechos de autor, una mejor protección de los trabajadores del sector artístico, y por último, la defensa de los teletrabajadores hasta que sean considerados como trabajadores de pleno derecho.

1997 > UN PORTAL PARA LAS BIBLIOTECAS NACIONALES EUROPEAS

[Resumen] El portal Gabriel –acrónimo de “Gateway and Bridge to Europe’s National Libraries” (Puerta y puente hacia las bibliotecas nacionales de Europa)– ofrece un punto de acceso común a los servicios internet de las bibliotecas nacionales europeas. La idea de un portal común nace en 1994, durante la reunión anual de la Conferencia de Directores de Bibliotecas Nacionales (CENL: Conference of European National Librarians), en Oslo (Noruega). En marzo de 1995, una nueva reunión reúne a los representantes de la bibliotecas nacionales de los Países Bajos, del Reino Unido y de Finlandia, que perfilan un proyecto piloto al que se unen luego las bibliotecas nacionales de Alemania, de Francia y de Polonia. Un primer sitio Gabriel es lanzado en septiembre de 1995. Durante la reunión anual de la CENL en 1996, en Lisboa (Portugal), Gabriel se convierte en un sitio oficial de la CENL, con un nuevo portal trilingüe (en alemán, inglés y francés) lanzado en enero de 1997.

***

Lanzado en enero de 1997, Gabriel es un portal trilingüe que ofrece un punto de acceso común a los servicios internet de las bibliotecas nacionales europeas.

# El sitio web de Gabriel

Gabriel es el acrónimo de “Gateway and Bridge to Europe’s National
Libraries” (Puerta y puente hacia las bibliotecas nacionales de
Europa).

Se lee en el sitio que, la elección del nombre Gabriel, “también recuerda las obras de Gabriel Naudé, cuya ‘Advis pour dresser une bibliothèque’ [Aviso para establecer una biblioteca –París, 1627–], es el primer trabajo teórico en Europa sobre las bibliotecas y constituye, por lo tanto, un punto de partida sobre las bibliotecas de investigación modernas. El nombre Gabriel también se utiliza en muchos idiomas europeos y viene del Antiguo Testamento, Gabriel siendo uno de los arcángeles, o un mensajero celestial. También está presente en el Nuevo Testamento y en el Corán.”

En 1998, el sitio ofrece enlaces hipertexto hacia los servicios
internet de las 38 bibliotecas nacionales participantes (Austria,
Bélgica, Bulgaria, Dinamarca, Estonia, Finlandia, Francia, Grecia,
Hungría, Irlanda, Islandia, Italia, Letonia, Liechtenstein, Lituania,
Luxemburgo, Macedonia, Malta, Noruega, Países Bajos, Polonia, Portugal,
Reino Unido, República Checa, República Eslovaca, Rumania, San Marino,
Suecia, Suiza, Turquía y el Vaticano).

Los servicios internet son muy diferentes de una biblioteca a otra, con una lista completa por biblioteca. Estos servicios son, por ejemplo, catálogos en línea también llamados OPAC (Online Public Access Catalogs), bibliografías nacionales, catálogos colectivos nacionales, índices de periódicos, servidores web y gophers (es decir, sistemas de información basados en menús textuales a varios niveles). Una sección específica proporciona información sobre proyectos conjuntos en varios países. Una búsqueda es posible por país o por tipo de servicio.

# El historial de Gabriel

¿Cómo se ve a Gabriel hoy en día ? La idea de un proyecto común a las bibliotecas nacionales europeas nace durante la reunión anual de la Conferencia de Directores de Bibliotecas Nacionales (CENL: Conference of European National Librarians), en 1994, en Oslo (Noruega). El proyecto se inicia con un boletín electrónico común actualizado con los proyectos internet en curso.

En marzo de 1995, una nueva reunión reúne a los representantes de las bibliotecas nacionales de los Países Bajos (Koninklijke Bibliotheek), del Reino Unido (British Library) y de Finlandia (Helsinki University Library), los que perfilan un proyecto piloto al que se unen luego las bibliotecas nacionales de Alemania (Die Deutsche Bibliothek), la de Francia (Bibliothèque Nationale de France) y la de Polonia (Biblioteka Narodowa). Gabriel describiría sus servicios y colecciones en un intento de influir en otras bibliotecas nacionales para participar en el proyecto.

Lanzado en septiembre de 1995, el primer sitio Gabriel es gestionado por la British Library, que es la responsable de actualizar su contenido, con dos sitios espejo en los servidores de las bibliotecas nacionales de los Países Bajos y de Finlandia.

La segunda etapa tiene lugar entre octubre de 1995 y septiembre de 1996. Se invita a las bibliotecas nacionales que no han participado en la fase piloto a unirse al proyecto, porque entretanto han lanzado sus propios sitios web y sus catálogos en línea. Por lo tanto, aumenta el número de bibliotecas que utilizan Gabriel como portal común.

Durante su reunión anual en septiembre de 1996 en Lisboa (Portugal), la CENL decide tomar Gabriel bajo su mando y crear un portal oficial trilingüe (en alemán, inglés y francés) a partir de enero de 1997. Este portal es gestionado por la biblioteca nacional de los Países Bajos (Koninklijke Bibliotheek), con cuatro sitios espejo en los servidores de las bibliotecas nacionales del Reino Unido, de Finlandia, de Alemania y de Eslovenia.

Mucho más tarde, en el verano de 2005, Gabriel se une a otro proyecto, el sitio web de la Biblioteca Europea (lanzado por la CENL en enero de 2004), para proponer un portal común único para las 43 bibliotecas nacionales europeas. Europeana, la biblioteca digital europea, aparece tres años más tarde, en noviembre de 2008.

# Las bibliotecas públicas

¿Qué pasa con las bibliotecas públicas en Europa? En el sitio web de la Unión Europea, el documento “Internet and the Library Sphere” (Internet y la esfera de las bibliotecas) estima aproximadamente en 1.000 el número de bibliotecas públicas que tienen un sitio web en noviembre de 1998. Estas bibliotecas pertenecen a 26 países. Los países más representados son Finlandia (247 bibliotecas), Suecia (132 bibliotecas), Alemania (102 bibliotecas), los Países Bajos (72 bibliotecas), Lituania (51 bibliotecas), España (56 bibliotecas) y Noruega (45 bibliotecas). Rusia tiene un sitio web común para 26 bibliotecas públicas. Los nuevos países representados son la República Checa (29 bibliotecas) y Portugal (3 bibliotecas). Los sitios son muy heterogéneos; algunos se contentan con dar la dirección postal de la biblioteca y sus horas de operación, mientras que otros ofrecen una amplia gama de servicios que incluyen un acceso directo a su catálogo en línea.

1997 > E INK, TECNOLOGÍA DE TINTA ELECTRÓNICA

[Resumen] Las investigaciones sobre el papel electrónico están ya en curso en 1997. Varios equipos trabajan sobre diferentes proyectos, por ejemplo, sobre el proyecto E Ink y el proyecto Gyricon. En abril de 1997, los investigadores del Media Lab del MIT (Massachusetts Institute of Technology – Instituto de Tecnología de Massachusetts) crean la compañía E Ink para desarrollar una tecnología de tinta electrónica. Muy brevemente, así es la tecnología: atrapadas entre dos láminas de plástico flexible, millones de microcápsulas contienen cada una partículas blancas y negras suspendidas en un líquido claro. Un campo eléctrico positivo o negativo permite indicar el grupo de partículas deseado en la superficie del soporte, para así ver, modificar o borrar datos. La primera pantalla con esta tecnología está disponible en julio de 2002, y se comercializa en 2004. Siguen otras pantallas para varias tabletas de lectura (Librié, Sony Reader, Cybook, Kindle, Nook, etc.), y prototipos de las primeras pantallas flexibles que anuncian el verdadero papel electrónico. El proyecto Gyricon, con una tecnología diferente, es desarrollado por la misma fecha por un equipo de Xerox.

***

Las investigaciones sobre el papel electrónico están ya en curso en 1997. Varios equipos trabajan sobre proyectos diferentes, por ejemplo sobre el proyecto E Ink y el proyecto Gyricon.

Se trata de un sustrato flexible, con una densidad comparable a la del papel plastificado o a la del plástico transparente. Se podrá utilizar este soporte flexible indefinidamente y modificar el texto a voluntad por medio de una conexión sin cable al internet. Si el concepto es revolucionario, el producto en sí mismo es el resultado de la fusión entre tres ciencias: la química, la física y la electrónica.

# La tecnología E Ink

En abril de 1997, los investigadores del Media Lab del MIT
(Massachusetts Institute of Technology – Instituto de Tecnología de
Massachusetts) crean la compañía E Ink para desarrollar una tecnología
de tinta electrónica.

Muy brevemente, así es la tecnología: atrapadas entre dos láminas de plástico flexible, millones de microcápsulas contienen cada una partículas blancas y negras suspendidas en un líquido claro. Un campo eléctrico positivo o negativo permite indicar el grupo de partículas deseado en la superficie del soporte, para así ver, modificar o borrar datos.

En julio de 2002, E Ink presenta el prototipo de la primera pantalla con esta tecnología, una pantalla de alta resolución con matriz activa desarrollada en colaboración con las empresas Toppan y Philips. Se comercializa esta pantalla en 2004. Siguen otras pantallas para varias tabletas de lectura (Librié, Sony Reader, Cybook, Kindle, Nook, etc.), y prototipos de las primeras pantallas flexibles que anuncian el verdadero papel electrónico.

Pantallas utilizando la tecnología E Ink sustituyen poco a poco a las pantallas LCD. La primera tableta con una pantalla E Ink de 6 pulgadas es la Librié, que Sony lanza en abril de 2004 en Japón. Sigue el Sony Reader, disponible en octubre de 2006 en los Estados Unidos, con una pantalla que utiliza una tecnología E Ink más avanzada, es decir, “una pantalla que ofrece una experiencia de lectura excelente, muy próxima a la del verdadero papel, y que no fatiga los ojos” (Mike Cook, autor del sitio epubBooks.com). Una pantalla E Ink también está disponible en el CyBook Gen3, lanzado por la compañía Bookeen en julio de 2007, así como en el Kindle, lanzado por Amazon en noviembre de 2007 y en el Nook, lanzado por Barnes & Noble en noviembre de 2009.

# La tecnología Gyricon

En las mismas fechas se desarrolla también otro proyecto. El centro
Xerox de la Silicon Valley (California), llamado PARC (Palo Alto
Research Center), trabaja desde 1997 en una tecnología de tinta
electrónica llamada gyricon.

En pocas palabras, esta tecnología es así: atrapadas entre dos láminas de plástico flexible, millones de microcélulas contienen microbolas de dos tonos, blanco y negro, en suspensión en un líquido claro. Cada bola tiene una carga eléctrica. Un impulso eléctrico permite la rotación externa de las bolas, con un cambio de color para mostrar, modificar o borrar datos. Se producirá este papel electrónico, llamado SmartPaper, en rollos, como el papel tradicional.

En diciembre de 2000, algunos investigadores de PARC crean la compañía Gyricon Media para desarrollar y comercializar el SmartPaper. El mercado del futuro es, primero, la señalización comercial con el sistema SmartSign, que Gyricon Media desarrolla además del SmartPaper. La venta de pequeños carteles que funcionan con baterías empieza en 2004. Vienen luego signos electrónicos y prototipos de papel electrónico y de diario electrónico. La compañía Gyricon Media termina con sus actividades en 2005 y la investigación y el desarrollo continúan dentro de Xerox.

1998 > CANDIDAD DE LIBROS DIGITALIZADOS

[Resumen] En 1998, se dice que el libro digital quiere decir digitalización, ya que la mayoría de los libros existe sólo en su versión impresa. Para que un libro pueda ser consultado en pantalla, sólo hace falta digitalizarlo en modo imagen o en modo texto. Los dos modos son complementarios. Digitalizar en modo imagen consiste en escanear el libro, y equivale a fotografiar el libro página a página. Como se conserva la presentación original, luego es posible “hojear” el texto en pantalla. La versión informática es el facsímil digital de la versión impresa. Este modo es más barato, pero no permite la búsqueda textual. Digitalizar en modo texto implica la necesidad de escanear el libro en modo imagen y luego convertirlo en modo texto con un software OCR (Optical Character Recognition). La versión informática del libro no conserva la presentación original del libro o de la página, pero, lo que resulta muy importante, sí permite la búsqueda textual.

***

En 1998, se dice que el libro digital quiere decir digitalización, ya que la mayoría de los libros existe sólo en su versión impresa.

Para que un libro pueda ser consultado en pantalla, sólo hace falta digitalizarlo en modo imagen o en modo texto. Los dos modos son complementarios.

# La digitalización en modo texto

Durante los primeros años, la digitalización en modo texto consiste en digitar el libro, con paciencia, en el teclado, página a página. Ésta es la solución que se suele adoptar al constituirse las primeras bibliotecas digitales, o bien cuando los documentos originales carecen de claridad, por ejemplo en el caso de los libros antiguos.

Con los años, la digitalización en modo texto consiste en escanear el libro en modo imagen, y luego en convertirlo en modo texto con un software OCR (Optical Character Recognition). Se supone que un buen software OCR tiene una fiabilidad de un 99%, y después basta con una relectura en la pantalla para corregir el texto.

En este caso, la versión informática del libro no conserva el diseño original de los libros, ni tampoco el de las páginas. El libro se convierte en texto; es decir, en un conjunto de caracteres que aparecen con continuidad en la pantalla. Por el tiempo que se necesita para procesar cada libro, este modo de digitalización resulta más largo y, por lo tanto, más costoso que la digitalización en modo imagen. Pero en muchos casos es preferible, ya que permite la indexación, la búsqueda y el análisis textual, así como los estudios comparativos entre varios textos o varias versiones del mismo texto.

Éste es el método utilizado, por ejemplo, por el Proyecto Gutenberg, fundado en 1971, que propone hoy en día la biblioteca digital más larga en formato texto, con libros corregidos dos veces pare ser fiables a 99,95% en comparación con sus versiones impresas.

# La digitalización en modo imagen

Digitalizar en modo imagen equivale a escanear el libro, lo que corresponde a fotografiar el libro página a página. Como se conserva la presentación original, luego es posible "hojear" el texto en pantalla. La versión informática es un facsímil digital de la versión impresa. Éste es el método empleado a finales de los 1990 para digitalizaciones a gran escala, por ejemplo para la biblioteca digital Gallica de la Biblioteca Nacional de Francia (BNF: Bibliothèque Nationale de France). Sin embargo, el índice, los sumarios y los corpus de documentos iconográficos son digitalizados en modo texto, a fin de facilitar la búsqueda textual.

¿Por qué no se digitaliza todo en modo texto? La BNF contesta a esta pregunta en el año 2000 en el sitio web de Gallica: "El modo imagen permite conservar el aspecto inicial del documento original, e incluso los elementos no textuales. En cuanto al modo texto, permite efectuar búsquedas más amplias y precisas en un documento, y reducir sustancialmente el volumen de los archivos tratados, pero supone un coste de procesamiento más o menos diez veces superior al de una simple digitalización [en modo imagen]. Se pueden utilizar estas técnicas si el volumen es limitado, pero no podría justificarse a nivel económico tratándose de los 50.000 documentos (o sea, casi 15 millones de páginas) que se han puesto en línea."

En los años siguientes, Gallica convierte, sin embargo, muchos libros del modo imagen al modo texto para permitir la búsqueda textual.

# Ambos modos de digitalización son útiles

Pierre Schweitzer es el diseñador del software Mot@mot, que adapta los facsímiles digitales al tamaño de la pantalla. Insiste en la utilidad de ambos métodos de digitalización. Explica en enero de 2001: "El modo imagen permite digitalizar deprisa y con costes muy reducidos. Esto es importante porque la tarea de digitalización del domino público es inmensa. Hay que tomar en cuenta también las diferentes ediciones: si se digitaliza el patrimonio, es para facilitar el acceso a las obras. Por lo tanto, sería paradójico focalizarse en una sola edición, dejando de lado el acceso a otras ediciones. Cada uno de los dos modos de digitalización conviene a un tipo de documentos: antiguo/frágil o reciente, libre o no de derechos (para el autor o para la edición), parca o abundantemente ilustrado. Los dos métodos también tienen estatutos bastante distintos: en modo texto puede tratarse de la nueva edición de una obra, mientras que en modo imagen se trata más bien de una 'edición de otra edición'. En la práctica, la elección depende del tipo de fondo que se quiere digitalizar, del presupuesto disponible y de los objetivos que hay que alcanzar. Sería difícil prescindir de una de las dos técnicas."

1998 > LA ENCYCLOPÉDIE DE DIDEROT EN LÍNEA

[Resumen] El Proyecto ARTFL (American and French Research on the Treasury of the French Language – Investigación Americana y Francesa sobre el Tesoro de la Lengua Francesa) provee el acceso en línea en 1998 a la base de datos del primer volumen de la “Encyclopédie” de Diderot (1751). Este experimento en línea es un primer paso hacia la versión en línea completa de la primera edición (1751-1772) de la "Encyclopédie ou Dictionnaire raisonné des sciences, des métiers et des arts" (Enciclopedia o Diccionario razonado de las ciencias, artes y oficios) de Diderot y d'Alembert, es decir, 17 volúmenes de texto y 11 volúmenes de láminas. Diseñada para recoger y difundir los conocimientos del Siglo de las Luces, la “Encyclopédie” lleva la marca de las corrientes intelectuales y sociales de ese tiempo. Gracias a ella fue cómo se difundieron las nuevas ideas que inspirarían la Revolución Francesa, en 1789.

***

El Proyecto ARTFL provee acceso en línea, en 1998, a la base de datos del primer volumen de la “Encyclopédie” de Diderot (1751).

Este experimento es un primer paso hacia la versión completa en línea de la edición completa (1751-1772) de la “Encyclopédie”, es decir, de los 17 volúmenes de texto y 11 volúmenes de láminas.

El ARTFL (American and French Research on the Treasury of the French
Language – Investigación Americana y Francesa sobre el Tesoro de la
Lengua Francesa) es un proyecto conjunto del CNRS (Centre National de
la Recherche Scientifique – Centro Nacional de la Investigación
Científica) en Francia y de la Universidad de Chicago en Illinois
(Estados Unidos).

La primera edición (1751-1772) de la "Encyclopédie ou Dictionnaire raisonné des sciences, des métiers et des arts" (Enciclopedia o Diccionario razonado de las ciencias, artes y oficios) de Diderot y d'Alembert, cuenta con 72.000 artículos escritos por 140 autores, incluidos Voltaire, Rousseau, Marmontel, d'Holbach, Turgot, etc. Diseñada para recoger y difundir los conocimientos del Siglo de las Luces, la “Encyclopédie” lleva la marca de las corrientes intelectuales y sociales de ese tiempo. Gracias a ella fue cómo se difundieron las nuevas ideas que inspirarían la Revolución Francesa, en 1789. Los 17 volúmenes de texto representan 18.000 páginas y 21,7 millones palabras, que se completan con 11 volúmenes de láminas.

En la “Encyclopédie”, Diderot escribió él mismo que “el propósito de una enciclopedia es reunir los conocimientos dispersos sobre la superficie de la tierra, exponer el sistema general a los seres humanos con quienes vivimos y transmitirlo a los seres humanos que vendrán después de nosotros, de manera (…) que nuestros sobrinos, cada vez más educados, lleguen a ser más virtuosos y más felices, y que no muramos sin haber merecido agradecimiento del género humano.” Este bello texto figura también sobre la pared de la Allée de l’Encyclopédie (Callejón de la Encyclopédie), uno de los callejones más importantes de la Biblioteca Nacional de Francia, en París.

La base de datos del primer volumen de la “Encyclopédie” (1751) está disponible en línea en 1998. La búsqueda es posible hacerla por palabra, por parte del texto, por autor o por categoría, o al combinar estos criterios. Enlaces hipertexto permiten ir de una lámina a un texto o de un texto al facsímil de la página original.

Se corrigen luego los errores tipográficos y los errores de identificación debidos a la automatización del proceso de digitalización. La búsqueda de imágenes también se hace posible más adelante.

Otros proyectos del Proyecto ARTFL son las bases de datos en línea para el “Dictionnaire de l’Académie française”, con varias ediciones, desde 1694 hasta 1935, el “Dictionnaire historique et critique” de Philippe Bayle en su edición de 1740, el “Roget's Thesaurus” de 1911, el “Webster's Revised Unabridged Dictionary” de 1913, el “Thresor de la langue française” de Jean Nicot impreso en 1606, y un proyecto bíblico multilingüe incluyendo “La Bible française” de Louis Segond publicada en 1910. Como se puede ver, la tecnología se pone al servicio de la literatura.

1998 > 00H00, UNA EDITORIAL EN LÍNEA

[Resumen] Jean-Pierre Arbon y Bruno de Sa Moreira fundan en mayo de 1998 la editorial 00h00 ("zéro heure", en francés), que es la primera editorial en línea. Su actividad consiste en fabricar y vender libros digitales vía el internet –y no libros impresos–. En 2000, el catálogo cuenta con 600 títulos, con un 85% de las ventas para las versiones digitales (en formato PDF) y un 15% para las versiones impresas a petición del cliente. En el sitio web, los usuarios/lectores pueden crear su espacio personal para redactar ahí sus comentarios, participar en foros, suscribirse al noticiero de 00h00 o ver los videoclips literarios que la editorial produce para presentar sus novedades. En septiembre de 2000, la empresa estadounidense Gemstar-TV Guide International procede a la recompra de 00h00. Gemstar decide poner fin a su experiencia con libros digitales en julio de 2003.

***