2000: L'INFORMATION DEVIENT MULTILINGUE

= [Résumé]

De pratiquement anglophone à ses débuts, le web, devenu multilingue en 2000, permet une large diffusion des textes électroniques sans contrainte de frontières. Mais la barrière de la langue est loin d’avoir disparu. Que préconise Olivier Gainon, fondateur des éditions CyLibris? «Première étape: le respect des particularismes au niveau technique, explique-t-il en décembre 2000. Il faut que le réseau respecte les lettres accentuées, les lettres spécifiques, etc. Je crois très important que les futurs protocoles permettent une transmission parfaite de ces aspects - ce qui n’est pas forcément simple (dans les futures évolutions de l’HTML ou des protocoles IP, etc.). Donc il faut que chacun puisse se sentir à l’aise avec l’internet et que ce ne soit pas simplement réservé à des (plus ou moins) anglophones. Il est anormal aujourd’hui que la transmission d’accents puisse poser problème dans les courriers électroniques. La première démarche me semble donc une démarche technique. Si on arrive à faire cela, le reste en découle: la représentation des langues se fera en fonction du nombre de connectés, et il faudra envisager à terme des moteurs de recherche multilingues.»

= Premiers pas

A tort ou à raison, on se plaint souvent de l’hégémonie de l’anglais sur l’internet. Celle-ci était inévitable au début, puisque le réseau se développe d’abord en Amérique du Nord avant de s'étendre au monde entier. En 1997, on note déjà la présence de nombreuses langues, cette présence dépendant du dynamisme de chaque communauté linguistique. En décembre 1997, Tim Berners-Lee, inventeur du web, déclare à Pierre Ruetschi, journaliste à la Tribune de Genève, un quotidien suisse: «Pourquoi les Francophones ne mettent-ils pas davantage d’informations sur le web? Est-ce qu’ils pensent que personne ne veut la lire, que la culture française n’a rien à offrir? C’est de la folie, l’offre est évidemment énorme.» C’est chose faite dans les années qui suivent.

Consultant en marketing internet de produits et services de traduction, Randy Hobler écrit en septembre 1998: «Comme l’internet n’a pas de frontières nationales, les internautes s’organisent selon d’autres critères propres au médium. En termes de multilinguisme, vous avez des communautés virtuelles, par exemple ce que j’appelle les "nations des langues", tous ces internautes qu’on peut regrouper selon leur langue maternelle quel que soit leur lieu géographique. Ainsi la nation de la langue espagnole inclut non seulement les internautes d’Espagne et d’Amérique latine, mais aussi tous les Hispanophones vivant aux Etats- Unis, ou encore ceux qui parlent espagnol au Maroc.»

En 1998 et 1999, la nécessité d’un web multilingue occupe tous les esprits. Au début des années 2000, le web, devenu multilingue, permet une large diffusion des textes électroniques sans contrainte de frontières, mais la barrière de la langue est loin d’avoir disparu. La priorité semble être la création de passerelles entre les communautés linguistiques pour favoriser la circulation des écrits dans d’autres langues, en améliorant notamment les outils de traduction.

Au cours de l'été 2000, les usagers non anglophones dépassent la barre des 50%. Ce pourcentage continue ensuite d'augmenter, comme le montrent les statistiques de la société Global Reach, mises à jour à intervalles réguliers. Le nombre d’usagers non anglophones est de 52,5% en été 2001, 57% en décembre 2001, 59,8% en avril 2002, 64,4% en septembre 2003 (dont 34,9% d’Européens non anglophones et 29,4% d’Asiatiques) et 64,2% en mars 2004 (dont 37,9% d’Européens non anglophones et 33% d’Asiatiques).

Bruno Didier, webmestre de la Bibliothèque de l’Institut Pasteur, écrit en août 1999: «Internet n’est une propriété ni nationale, ni linguistique. C’est un vecteur de culture, et le premier support de la culture, c’est la langue. Plus il y a de langues représentées dans leur diversité, plus il y aura de cultures sur internet. Je ne pense pas qu’il faille justement céder à la tentation systématique de traduire ses pages dans une langue plus ou moins universelle. Les échanges culturels passent par la volonté de se mettre à la portée de celui vers qui on souhaite aller. Et cet effort passe par l’appréhension de sa langue. Bien entendu c’est très utopique comme propos. Concrètement, lorsque je fais de la veille, je peste dès que je rencontre des sites norvégiens ou brésiliens sans un minimum d’anglais.»

Dès décembre 1997, le moteur de recherche AltaVista lance Babel Fish Translation, un logiciel de traduction automatique de l’anglais vers cinq autres langues (allemand, espagnol, français, italien, portugais), et vice versa. Alimenté par un dictionnaire multilingue de 2,5 millions de mots, ce service gratuit est l’oeuvre de Systran, société pionnière en traitement automatique des langues. Le texte à traduire doit être de trois pages maximum. La page originale et la traduction apparaissent en vis-à-vis à l’écran. La traduction étant entièrement automatisée, elle est évidemment approximative. Si cet outil a ses limites, il a le mérite d’exister et il préfigure ceux des années suivantes, développés entre autres par Systran, Alis Technologies, Globalink ou Lernout & Hauspie.

= De l'ASCII à l'Unicode

Communiquer dans plusieurs langues implique d’avoir des systèmes de codage adaptés à nos alphabets ou idéogrammes respectifs.

Le premier système d'encodage informatique est l’ASCII (American standard code for information interchange). Publié en 1968 aux Etats- Unis par l’American National Standards Institute (ANSI), avec actualisation en 1977 et 1986, l'ASCII est un code standard de 128 caractères traduits en langage binaire sur sept bits (A est traduit par «1000001», B est traduit par «1000010», etc.). Les 128 caractères comprennent 33 caractères de contrôle (qui ne représentent donc pas de symbole écrit) et 95 caractères imprimables: les 26 lettres sans accent en majuscules (A-Z) et minuscules (a-z), les chiffres, les signes de ponctuation et quelques symboles, le tout correspondant aux touches du clavier anglais ou américain.

L'ASCII permet uniquement la lecture de l’anglais et du latin. Il ne permet pas de prendre en compte les lettres accentuées présentes dans bon nombre de langues européennes, et à plus forte raison les langues non alphabétiques (chinois, japonais, coréen, etc.). Ceci ne pose pas de problème majeur les premières années, tant que l’échange de fichiers électroniques se limite essentiellement à l’Amérique du Nord. Mais le multilinguisme devient bientôt une nécessité vitale. Des variantes de l’ASCII (norme ISO-8859 ou ISO-Latin) prennent en compte les caractères accentués de quelques langues européennes. Par exemple, la variante pour le français est définie par la norme ISO-8859-1 (ISO-Latin-1). Mais le passage de l’ASCII original à ses différentes extensions devient vite un véritable casse-tête, y compris au sein de l’Union européenne, les problèmes étant entre autres la multiplication des variantes, la corruption des données dans les échanges informatiques ou encore l’incompatibilité des systèmes, les pages ne pouvant être affichées que dans une seule langue à la fois.

Avec le développement du web, l’échange des données s’internationalise de plus en plus. On ne peut plus se limiter à l’utilisation de l’anglais et de quelques langues européennes, traduites par un système d’encodage datant de 1968.

Publié pour la première fois en janvier 1991, l’Unicode est un système d'encodage «universel» sur 16 bits spécifiant un nombre unique pour chaque caractère. Ce nombre est lisible quels que soient la plateforme, le logiciel et la langue utilisés. L’Unicode peut traiter 65.000 caractères uniques et prendre en compte tous les systèmes d’écriture de la planète. A la grande satisfaction des linguistes, il remplace progressivement l’ASCII. L’Unicode dispose de plusieurs variantes en fonction des besoins, par exemple UTF-8, UTF-16 et UTF-32 (UTF: Unicode transformation format). Il devient une composante des spécifications du W3C (World Wide Web Consortium), l'organisme international chargé du développement du web.

L’utilisation de l’Unicode se généralise en 1998, par exemple pour les fichiers texte sous plateforme Windows (Windows NT, Windows 2000, Windows XP et versions suivantes), qui étaient jusque-là en ASCII. Mais l’Unicode ne peut résoudre tous les problèmes, comme le souligne en juin 2000 Luc Dall’Armellina, co-auteur et webmestre d’oVosite, un espace d’écriture hypermédia: «Les systèmes d’exploitation se dotent peu à peu des kits de langues et bientôt peut-être de polices de caractères Unicode à même de représenter toutes les langues du monde; reste que chaque application, du traitement de texte au navigateur web, emboîte ce pas. Les difficultés sont immenses: notre clavier avec ses ± 250 touches avoue ses manques dès lors qu’il faille saisir des Katakana ou Hiragana japonais, pire encore avec la langue chinoise. La grande variété des systèmes d’écriture de par le monde et le nombre de leurs signes font barrage. Mais les écueils culturels ne sont pas moins importants, liés aux codes et modalités de représentation propres à chaque culture ou ethnie.»

Que préconise Olivier Gainon, fondateur de CyLibris et pionnier de l’édition littéraire en ligne? « Première étape: le respect des particularismes au niveau technique, explique-t-il en décembre 2000. Il faut que le réseau respecte les lettres accentuées, les lettres spécifiques, etc. Je crois très important que les futurs protocoles permettent une transmission parfaite de ces aspects - ce qui n’est pas forcément simple (dans les futures évolutions de l’HTML ou des protocoles IP, etc.). Donc il faut que chacun puisse se sentir à l’aise avec l’internet et que ce ne soit pas simplement réservé à des (plus ou moins) anglophones. Il est anormal aujourd’hui que la transmission d’accents puisse poser problème dans les courriers électroniques. La première démarche me semble donc une démarche technique. Si on arrive à faire cela, le reste en découle: la représentation des langues se fera en fonction du nombre de connectés, et il faudra envisager à terme des moteurs de recherche multilingues.»

Yoshi Mikami est informaticien à Fujisawa, au Japon. En décembre 1995, il lance le site "The Languages of the World by Computers and the Internet", communément appelé Logos Home Page ou Kotoba Home Page. Son site donne un bref historique de chaque langue, ses caractéristiques, son système d'écriture, son jeu de caractères et enfin la configuration du clavier dans la langue donnée. Yoshi Mikami est également co-auteur (avec Kenji Sekine et Nobutoshi Kohara) de "Pour un web multilingue", publié en août 1997 en japonais par les éditions O'Reilly avant d'être traduit en anglais, en allemand et en français (version française parue en septembre 1998).

Yoshi explique en décembre 1998: «Ma langue maternelle est le japonais. Comme j'ai suivi mes études de troisième cycle aux Etats-Unis et que j'ai travaillé dans l'informatique, je suis devenu bilingue japonais/anglais américain. J'ai toujours été intéressé par différentes langues et cultures, aussi j'ai appris le russe, le français et le chinois dans la foulée. A la fin de 1995, j'ai créé sur le web le site "The Languages of the World by Computers and the Internet" et j'ai tenté de donner - en anglais et en japonais - un bref historique de toutes ces langues, ainsi que les caractéristiques propres à chaque langue et à sa phonétique. Suite à l'expérience acquise, j'ai invité mes deux associés à écrire un livre sur la conception, la création et la présentation de pages web multilingues, livre qui fut publié en août 1997 sous le titre "The Multilingual Web Guide", le premier livre au monde sur un tel sujet.»

Comment voit-il l'évolution vers un web multilingue? «Il y a des milliers d'années de cela, en Egypte, en Chine et ailleurs, les gens étaient plus sensibles au fait de communiquer leurs lois et leurs réflexions non seulement dans une langue mais dans plusieurs. Dans notre monde moderne, chaque Etat a adopté plus ou moins une seule langue de communication. A mon avis, l'internet verra l'utilisation plus grande de langues différentes et de pages multilingues (et pas seulement une gravitation autour de l'anglais américain) et un usage plus créatif de la traduction informatique multilingue. 99% des sites web créés au Japon sont en japonais!»

= De l'anglais au plurilinguisme

Après avoir été anglophone à pratiquement 100%, l’internet est encore anglophone à plus de 80% en 1998, un pourcentage qui s’explique par trois facteurs: (a) la création d’un grand nombre de sites web émanant des Etats-Unis, du Canada et du Royaume-Uni; (b) une proportion d'usagers particulièrement forte en Amérique du Nord par rapport au reste du monde; (c) l’usage de l'anglais en tant que principale langue d’échange internationale.

L’anglais reste en effet prépondérant et ceci n’est pas près de disparaître. Comme indiqué en janvier 1999 par Marcel Grangier, responsable de la section française des services linguistiques centraux de l’Administration fédérale suisse, «cette suprématie n’est pas un mal en soi, dans la mesure où elle résulte de réalités essentiellement statistiques (plus de PC par habitant, plus de locuteurs de cette langue, etc.). La riposte n’est pas de "lutter contre l’anglais" et encore moins de s’en tenir à des jérémiades, mais de multiplier les sites en d’autres langues. Notons qu’en qualité de service de traduction, nous préconisons également le multilinguisme des sites eux- mêmes. La multiplication des langues présentes sur internet est inévitable, et ne peut que bénéficier aux échanges multiculturels.»

Professeur en technologies de la communication à la Webster University de Genève, Henk Slettenhaar insiste lui aussi sur la nécessité de sites bilingues, dans la langue originale et en anglais. «Les communautés locales présentes sur le web devraient en tout premier lieu utiliser leur langue pour diffuser des informations, écrit-il en décembre 1998. Si elles veulent également présenter ces informations à la communauté mondiale, celles-ci doivent être aussi disponibles en anglais. Je pense qu’il existe un réel besoin de sites bilingues. (…) Mais je suis enchanté qu’il existe maintenant tant de documents disponibles dans leur langue originale. Je préfère de beaucoup lire l’original avec difficulté plutôt qu’une traduction médiocre.»

Henk ajoute en août 1999: «A mon avis, il existe deux types de recherches sur le web. La première est la recherche globale dans le domaine des affaires et de l’information. Pour cela, la langue est d’abord l’anglais, avec des versions locales si nécessaire. La seconde, ce sont les informations locales de tous ordres dans les endroits les plus reculés. Si l’information est à destination d’une ethnie ou d’un groupe linguistique, elle doit d’abord être dans la langue de l’ethnie ou du groupe, avec peut-être un résumé en anglais.»

Philippe Loubière, traducteur littéraire et dramatique, dénonce pour sa part la main-mise anglophone sur le réseau. «Tout ce qui peut contribuer à la diversité linguistique, sur internet comme ailleurs, est indispensable à la survie de la liberté de penser, explique-t-il en mars 2001. Je n’exagère absolument pas: l’homme moderne joue là sa survie. Cela dit, je suis très pessimiste devant cette évolution. Les Anglo-saxons vous écrivent en anglais sans vergogne. L’immense majorité des Français constate avec une indifférence totale le remplacement progressif de leur langue par le mauvais anglais des marchands et des publicitaires, et le reste du monde a parfaitement admis l’hégémonie linguistique des Anglo-saxons parce qu’ils n’ont pas d’autres horizons que de servir ces riches et puissants maîtres. La seule solution consisterait à recourir à des législations internationales assez contraignantes pour obliger les gouvernements nationaux à respecter et à faire respecter la langue nationale dans leur propre pays (le français en France, le roumain en Roumanie, etc.), cela dans tous les domaines et pas seulement sur internet. Mais ne rêvons pas…»

Richard Chotin, professeur à l’Ecole supérieure des affaires (ESA) de Lille, rappelle à juste titre que la suprématie de l’anglais a succédé à celle du français. «Le problème est politique et idéologique: c’est celui de l’"impérialisme" de la langue anglaise découlant de l’impérialisme américain, explique-t-il en septembre 2000. Il suffit d’ailleurs de se souvenir de l’"impérialisme" du français aux 18e et 19e siècles pour comprendre la déficience en langues des étudiants français: quand on n’a pas besoin de faire des efforts pour se faire comprendre, on n’en fait pas, ce sont les autres qui les font.»

Guy Antoine, créateur de Windows on Haiti, site de référence sur la culture haïtienne, croit en la nécessité de l'anglais en tant que langue commune. Il relate en novembre 1999: «Pour des raisons pratiques, l'anglais continuera à dominer le web. Je ne pense pas que ce soit une mauvaise chose, en dépit des sentiments régionalistes qui s'y opposent, parce que nous avons besoin d'une langue commune permettant de favoriser les communications à l'échelon international. Ceci dit, je ne partage pas l'idée pessimiste selon laquelle les autres langues n'ont plus qu'à se soumettre à la langue dominante. Au contraire. Tout d'abord l'internet peut héberger des informations utiles sur les langues minoritaires, qui seraient autrement amenées à disparaître sans laisser de traces. De plus, à mon avis, l'internet incite les gens à apprendre les langues associées aux cultures qui les intéressent. Ces personnes réalisent rapidement que la langue d'un peuple est un élément fondamental de sa culture. De ce fait, je n'ai pas grande confiance dans les outils de traduction automatique qui, s'ils traduisent les mots et les expressions, ne peuvent guère traduire l'âme d'un peuple. Que sont les Haïtiens, par exemple, sans le kreyòl (créole pour les non initiés), une langue qui s'est développée et qui a permis de souder entre elles diverses tribus africaines transplantées à Haïti pendant la période de l'esclavage? Cette langue représente de manière la plus palpable l'unité de notre peuple. Elle est toutefois principalement une langue parlée et non écrite. A mon avis, le web va changer cet état de fait plus qu'aucun autre moyen traditionnel de diffusion d'une langue. Dans Windows on Haiti, la langue principale est l'anglais, mais on y trouve tout aussi bien un forum de discussion animé conduit en kreyòl. Il existe aussi des documents sur Haïti en français et dans l'ancien créole colonial, et je suis prêt à publier d'autres documents en espagnol et dans diverses langues. Je ne propose pas de traductions, mais le multilinguisme est effectif sur ce site, et je pense qu'il deviendra de plus en plus la norme sur le web.»

Bakayoko Bourahima, bibliothécaire de l'Ecole nationale supérieure de statistique et d’économie appliquée (ENSEA) à Abidjan, écrit en juillet 2000: «Pour nous les Africains francophones, le diktat de l’anglais sur la toile représente pour la masse un double handicap d’accès aux ressources du réseau. Il y a d’abord le problème de l’alphabétisation qui est loin d’être résolu et que l’internet va poser avec beaucoup plus d’acuité, ensuite se pose le problème de la maîtrise d’une seconde langue étrangère et son adéquation à l’environnement culturel. En somme, à défaut de multilinguisme, l’internet va nous imposer une seconde colonisation linguistique avec toutes les contraintes que cela suppose. Ce qui n’est pas rien quand on sait que nos systèmes éducatifs ont déjà beaucoup de mal à optimiser leurs performances, en raison, selon certains spécialistes, des contraintes de l’utilisation du français comme langue de formation de base. Il est donc de plus en plus question de recourir aux langues vernaculaires pour les formations de base, pour "désenclaver" l’école en Afrique et l’impliquer au mieux dans la valorisation des ressources humaines. Comment faire? Je pense qu’il n’y a pas de chance pour nous de faire prévaloir une quelconque exception culturelle sur la toile, ce qui serait de nature tout à fait grégaire. Il faut donc que les différents blocs linguistiques s’investissent beaucoup plus dans la promotion de leur accès à la toile, sans oublier leurs différentes spécificités internes.»

Tôt ou tard, le pourcentage des langues sur le réseau correspondra-t-il à leur répartition sur la planète? Rien n’est moins sûr à l’heure de la fracture numérique entre riches et pauvres, entre zones rurales et zones urbaines, entre régions favorisées et régions défavorisées, entre l’hémisphère nord et l’hémisphère sud, entre pays développés et pays en développement.

Selon Zina Tucsnak, ingénieur d’études au laboratoire ATILF (Analyse et traitement informatique de la langue française), interviewée en octobre 2000, «le meilleur moyen serait l’application d’une loi par laquelle on va attribuer un "quota" à chaque langue. Mais n’est-ce pas une utopie de demander l’application d’une telle loi dans une société de consommation comme la nôtre?»

A la même date, Emmanuel Barthe, documentaliste juridique, exprime un avis contraire: «Des signes récents laissent penser qu’il suffit de laisser les langues telles qu’elles sont actuellement sur le web. En effet, les langues autres que l’anglais se développent avec l’accroissement du nombre de sites web nationaux s’adressant spécifiquement aux publics nationaux, afin de les attirer vers internet. Il suffit de regarder l’accroissement du nombre de langues disponibles dans les interfaces des moteurs de recherche généralistes.»

= Langues minoritaires

De plus, l’«impérialisme» dénoncé plus haut ne concerne pas seulement les Etats-Unis et la langue anglaise. La France elle aussi n’est pas sans exercer pression pour imposer la suprématie de la langue française sur d’autres langues, comme en témoigne Guy Antoine, créateur du site Windows on Haiti. Il relate en juin 2001: «J’ai fait de la promotion du kreyòl (créole haïtien) une cause personnelle, puisque cette langue est le principal lien unissant tous les Haïtiens, malgré l’attitude dédaigneuse d’une petite élite haïtienne - à l’influence disproportionnée - vis-à-vis de l’adoption de normes pour l’écriture du kreyòl et le soutien de la publication de livres et d’informations officielles dans cette langue. A titre d’exemple, il y avait récemment dans la capitale d’Haïti un Salon du livre de deux semaines, à qui on avait donné le nom de "Livres en folie". Sur les 500 livres d’auteurs haïtiens qui étaient présentés lors du salon, il y en avait une vingtaine en kreyòl, ceci dans le cadre de la campagne insistante que mène la France pour célébrer la Francophonie dans ses anciennes colonies. A Haïti cela se passe relativement bien, mais au détriment direct de la Créolophonie.

En réponse à l’attitude de cette minorité haïtienne, j’ai créé sur mon site web Windows on Haiti deux forums de discussion exclusivement en kreyòl. Le premier forum regroupe des discussions générales sur toutes sortes de sujets, mais en fait ces discussions concernent principalement les problèmes socio-politiques qui agitent Haïti. Le deuxième forum est uniquement réservé aux débats sur les normes d’écriture du kreyòl. Ces débats sont assez animés, et un certain nombre d’experts linguistiques y participent. Le caractère exceptionnel de ces forums est qu’ils ne sont pas académiques. Je n’ai trouvé nulle part ailleurs sur l’internet un échange aussi spontané et aussi libre entre des experts et le grand public pour débattre dans une langue donnée des attributs et des normes de la même langue.»

En septembre 2000, Guy Antoine rejoint l’équipe dirigeante de Mason Integrated Technologies, dont l’objectif est de créer des outils permettant l’accessibilité des documents publiés dans des langues dites minoritaires. «Etant donné l’expérience de l’équipe en la matière, nous travaillons d’abord sur le créole haïtien (kreyòl), qui est la seule langue nationale d’Haïti, et l’une des deux langues officielles, l’autre étant le français. Cette langue ne peut guère être considérée comme une langue minoritaire dans les Caraïbes puisqu’elle est parlée par huit à dix millions de personnes.»

Autre expérience, celle de Caoimhín Ó Donnaíle, professeur d’informatique à l’Institut Sabhal Mór Ostaig, situé sur l’île de Skye, en Ecosse. Caoimhín dispense ses cours en gaélique écossais. Il est aussi le webmestre du site de l’institut, qui est bilingue anglais- gaélique et se trouve être la principale source d’information mondiale sur le gaélique écossais. Sur ce site, il tient à jour la page "European Minority Languages", une liste de langues européennes minoritaires elle aussi bilingue, avec classement par ordre alphabétique de langues et par famille linguistique. Interviewé en mai 2001, Caoimhín raconte: «Nos étudiants utilisent un correcteur d’orthographe en gaélique et une base terminologique en ligne en gaélique. (…) Il est maintenant possible d’écouter la radio en gaélique (écossais et irlandais) en continu sur l’internet partout dans le monde. Une réalisation particulièrement importante a été la traduction en gaélique du logiciel de navigation Opera. C’est la première fois qu’un logiciel de cette taille est disponible en gaélique.»

En février 2000, Robert Beard co-fonde yourDictionary.com en tant que portail de référence pour toutes les langues sans exception, avec une section spécifique consacrée aux langues menacées (Endangered Language Repository). «Les langues menacées sont essentiellement des langues non écrites, écrit-il en janvier 2000. Un tiers seulement des quelque 6.000 langues existant dans le monde sont à la fois écrites et parlées. Je ne pense pourtant pas que le web va contribuer à la perte de l’identité des langues et j’ai même le sentiment que, à long terme, il va renforcer cette identité. Par exemple, de plus en plus d’Indiens d’Amérique contactent des linguistes pour leur demander d’écrire la grammaire de leur langue et de les aider à élaborer des dictionnaires. Pour eux, le web est un instrument à la fois accessible et très précieux d’expression culturelle.»

Caoimhín Ó Donnaíle indique pour sa part en mai 2001: «En ce qui concerne l’avenir des langues menacées, l’internet accélère les choses dans les deux sens. Si les gens ne se soucient pas de préserver les langues, l’internet et la mondialisation qui l’accompagne accéléreront considérablement la disparition de ces langues. Si les gens se soucient vraiment de les préserver, l’internet constituera une aide irremplaçable.»

= Traductions

L’internet étant une source d’information à vocation mondiale, il semble indispensable de favoriser les activités de traduction. Auteur des Chroniques de Cybérie, une chronique hebdomadaire en ligne des actualités du réseau, Jean-Pierre Cloutier déplore en août 1999 «qu’il se fasse très peu de traductions des textes et essais importants qui sont publiés sur le web, tant de l’anglais vers d’autres langues que l’inverse. (…) La nouveauté d’internet dans les régions où il se déploie présentement y suscite des réflexions qu’il nous serait utile de lire. À quand la traduction des penseurs hispanophones et autres de la communication?»

Professeur d’espagnol en entreprise et traductrice, Maria Victoria Marinetti écrit à la même date: «Il est très important de pouvoir communiquer en différentes langues. Je dirais même que c’est obligatoire, car l’information donnée sur le net est à destination du monde entier, alors pourquoi ne l’aurions-nous pas dans notre propre langue ou dans la langue que nous souhaitons lire? Information mondiale, mais pas de vaste choix dans les langues, ce serait contradictoire, pas vrai?»

Une solution résidera peut-être dans l'utilisation à grande échelle des logiciels de traduction automatique, dont on nous promet l'amélioration d'ici quelques années. Il va sans dire que, pour le moment, la traduction automatique n’offre pas la qualité de travail des professionnels de la traduction, et qu’il est préférable de faire appel à ces derniers lorsqu'on a le temps et l’argent nécessaires. Mais qui a l’argent nécessaire pour faire traduire des centaines sinon des milliers de pages web et, qui plus est, en plusieurs langues? Les logiciels de traduction sont donc très pratiques pour fournir un résultat immédiat et à moindres frais, sinon gratuit, même si celui-ci est très imparfait. Depuis 1998, des logiciels sont en accès libre sur le web - par exemple ceux de Systran, d'Alis technologies ou de Google - et permettent de traduire en quelques secondes une page web ou un texte court, avec plusieurs combinaisons de langues possibles.

Le but d’un logiciel de traduction est d’analyser le texte dans la langue source (texte à traduire) et de générer automatiquement le texte correspondant dans la langue cible (texte traduit), en utilisant des règles précises pour le transfert de la structure grammaticale. Comme l’explique l’EAMT (European Association for Machine Translation) sur son site, «il existe aujourd’hui un certain nombre de systèmes produisant un résultat qui, s’il n’est pas parfait, est de qualité suffisante pour être utile dans certaines applications spécifiques, en général dans le domaine de la documentation technique. De plus, les logiciels de traduction, qui sont essentiellement destinés à aider le traducteur humain à produire des traductions, jouissent d’une popularité croissante auprès des organismes professionnels de traduction.»

La tâche est immense. Comme le souligne en février 2001 Pierre-Noël Favennec, expert à la direction scientifique de France Télécom R&D, «les recherches sur la traduction automatique devraient permettre une traduction automatique dans les langues souhaitées, mais avec des applications pour toutes les langues et non les seules dominantes (ex.: diffusion de documents en japonais, si l’émetteur est de langue japonaise, et lecture en breton, si le récepteur est de langue bretonne…). Il y a donc beaucoup de travaux à faire dans le domaine de la traduction automatique et écrite de toutes les langues.»