Ulysses Saloff-Coste

Accueil du site > 05. Thèmes > Informatique > Internet : un réseau planétaire

Internet : un réseau planétaire

mercredi 20 octobre 2004, par Ulysses Saloff-Coste, Zoum


Par Mazouer et Saloff-Coste - sujet d’ECJS, TS.

Introduction

Un peu plus de 200 ans séparent le premier télégraphe d’aujourd’hui. Durant cette période, la vitesse de transmission des messages a augmenté de manière phénoménale, passant de quelques mots à la minute à plusieurs gigabits d’information par seconde. Cela est possible grâce au réseau des réseaux : Internet.

Comment Internet s’est-il constuit ? Quelles sont les caractéristiques de ce mode de communication à grande échelle ? Quelles en sont les conséquences ? Qu’est-ce que la ""fracture numérique"", et comment Internet y contribue-t-il ?

Nous commencerons par présenter un bref historique d’Internet (entre 1969 et 1995), nous verrons ensuite quelles sont ses caractéristiques majeures, puis nous nous intéresserons à ce qu’est la ""fracture numérique"".

I- Histoire d’Internet

Les origines d’Internet sont à chercher dans ARPANET, le réseau d’ordinateurs constitué par l’ARPA en septembre 1969. C’est en 1958 que l’Advanced Research Projects Agency - Agence des projets de recherche de pointe - avait été créée au sein du département américain de la Défense : au lendemain du lancement de Spoutnik (1957). Sa mission consistait à mobiliser les ressources de la recherche, en particulier universitaire, pour assurer aux Etats-Unis la supériorité sur l’Union soviétique en matière de technologie militaire. Pour édifier ce réseau d’ordinateurs, l’IPTO eut recours à une technologie de transmission révolutionnaire : la ""commutation par paquets"", mise au point indépendamment par Paul Baran à la Rand Corporation et par Donald Davies au National Physical Laboratery britannique. Baran avait conçu l’idée d’un réseau de communication flexible et décentralisé, la Rand Corporation proposant au département de la Défense de construire un système de communications militaires capable de survivre à une attaque nucléaire. Dans la conception de ce réseau, l’IPTO utilisa la notion de ""commutation par paquets"". Ses premiers noeuds (voir partie II), en 1969, se trouvaient à l’Université de Californie Los Angeles, au SRI (Stanford Research Institute), à l’université de Californie Santa Barbara et à l’université de l’Utah ; En 1971, on en dénombrait quinze dont la plupart étaient des centres de recherche universitaires. La réalisation concrète d’ARPANET fut confiée à BBN (Bolt, Beranek and Newman) : cette firme bostonienne de génie acoustique reconvertie dans l’informatique appliquée avait été fondée par des professeurs du MIT et de Harvard. En 1972, la première démonstration d’ARPANET, au cours d’une conférence internationale à Washington, fut un succès.

L’étape suivante consistait à rendre possible la connexion d’ARPANET avec d’autres réseaux de communication par ordinateurs, à commencer par ceux qui étaient gérés par l’ARPA, PRNET et SATNET. D’où l’introduction d’un nouveau concept : le réseau des réseaux. En 1973, deux experts en théorie informatique, Robert Kahn, de l’ARPA, et Vint Cerf, alors à Stanford, publient un article exposant dans ses grandes lignes l’architecture fondamentale d’Internet. Pour que les réseaux d’ordinateurs puissent se parler, il leur fallait des protocoles d’échanges normalisés (note : un protocole est un ensemble de conventions qui permettent à des entités distantes d’établir et d’entretenir des échanges d’information). Mission en partie accomplie en 1973, lors d’un séminaire à Stanford, par un collectif dirigé par Cerf, Gérard Lelann et Robert Metcalfe ; il élabore la TCP (Transmission Control Protocol, protocole de contrôle des transmissions). En 1978, Cerf, Postel et Cohen, travaillant à l’université de Californie du Sud, scindent le TCP en deux en mettant un protocole inter-réseaux (Inter-network Protocol, IP) : ils créent ainsi le protocol TCP/IP (note : le TCP/IP, qui gère la circulation des données sur Internet et leur bon échange entre deux points du réseau, rassemble plus d’une centaine de protocoles), celui sur lequel repose Internet aujourd’hui. En 1975, ARPANET est transféré à la Defense Communication Agency (DCA). Pour permettre la communication par ordinateurs entre diverses composantes des forces armées, celle-ci interconnecte plusieurs réseaux qui se trouvent sous son contrôle. Ainsi, naît la Defense Data Network (réseau des données de la Défense), qui utilise le protocole TCP/IP. Mais en 1983, inquiet de possibles manquements à la sécurité, le département de la Défense décide de créer pour les usages proprement militaires un réseau distinct, MILNET. Quant à ARPANET, il devient ARPA_INTERNET et est consacré à la recherche.

En février 1990, ARPANET, technologiquement obsolète, est démilitarisé. Ayant affranchi Internet de l’armée, le gouvernement des Etats-Unis charge alors la NSF (National Science Foundation, fondation nationale des sciences des Etats-Unis) de le gérer. Mais la Fondation ne restera pas longtemps aux commandes. Puisque la technologie des réseaux informatiques est désormais dans le domaine public et que les télé-communications sont en pleine déréglementation, elle procède rapidement à la privatisation d’Internet. Le département de la Défense avait déjà décider de longue date de commercialiser cette technologie : dans les années 1980, il avait subventionné les fabricants d’ordinateurs américains pour qu’ils incluent le TCP/IP dans leurs protocoles. C’est ainsi qu’en 1990 la plupart des ordinateurs d’Amérique étaient équipés pour la mise en réseau (*) : les bases étaient donc posées pour la diffusion d’Internet. En 1995, NSFNET est arrêté, ouvrant la voie à la gestion privée d’Internet. Au début des années 1990, plusieurs fournisseurs d’accès construisent leur propre réseau et créent à des fins commerciales leurs propres passerelles (note : c’est un équipement capable d’effectuer la conversion de certains protocoles pour permettre la communication entre deux réseaux) de connexion à Internet. A partir de là, Internet se développe vite en tant que réseau planétaire de réseaux d’ordinateurs. Ce développement est rendu possible grâce au concept initial d’ARPANET, fondé sur une architecture décentralisée en couches multiples et sur les protocoles d’échanges ouverts. Dans ces conditions, Internet pouvait s’étendre par adjonction de nouveaux noeuds et reconfiguration continuelle du réseau en fonction des besoins de communication.

En 1977, deux étudiants de Chicago, Ward Christensen et Randy Suess, écrivent un programme permettant le transfert de fichiers entre leurs PC (ils l’appellent modem) ; en 1978, un autre programme, le Computer Bulletin Board System, donne aux ordinateurs personnels la possibilité de mettre en mémoire et de transmettre les messages. Tous deux sont mis dans le domaine public, et sont aujourd’hui largement utilisés (connexion à internet en utilisant la ligne téléphonique grâce aux modems, et courriel).

Pour finir, voici une chronologie du nombre de machines connectées, ainsi que le nombre de sites web (moyenne des différents chiffres que l’on peux trouver) :

  • 1969 : 4 machines
  • 1981 : une nouvelle machine toutes les 3 semaines en moyenne
  • 1984 : 1000 machines
  • 1987 : 10 000 machines, 60 000 sites
  • 1992 : plus d’un million de machines, 376 000 sites
  • 1996 : 10 millions de machines, 4 millions de sites
  • 2002 : 450 millions d’internautes (autant de machines ?), 9 millions de sites, 500 milliards de pages. 7,7 millions d’abonnés en France.

(*) Ceci ne s’applique évidemment pas aux PCs, fonctionnant sous MS-DOS puis sous MS Windows, lequels ne sauront pas gerer les réseaux avant 1995... !

II - Fonctionnement

Nous allons maintenant nous interesser, sans rentrer dans les détails, au fonctionnement d’Internet, ce qui nous permettra de montrer les atouts et les limites de ce réseau mondial.

Internet fonctionne grâce à des noeuds, répartis tout autour du globe. Un noeud est un point d’un réseau de réseaux où les différents réseaux interconnectés s’échangent les messages transitant de l’un à l’autre. Des connections très haut-débit (plusieurs Gbits/s) permettent de relier les différents noeuds, notamment les célèbres cable sous-marins, composés de fibres optiques (voir annexe A.2).

Chaque message qui transite sur le réseau va passer de noeuds en noeuds, jusqu’à ce qu’il soit arrivé à destination.

Afin de s’en persuader, nous demandons à un logiciel de nous afficher tous les noeuds par lequel il va passer pour aller vers un serveur (annexe A.3). Il part des USA (Englewood, CO) pour arriver en France (le lieu du serveur n’as pas été localisé). On observe que 10 noeuds ont été franchis aux USA, puis le message a traversé l’atlantique, est arrivé sur le backbone COLT (fournisseur européen de solutions télécoms et Internet intégrées pour les entreprises ), puis traverse encore trois noeuds avant d’atteindre le réseau FR-MAIRIE-PARIS, hébergeur du site www.paris.fr. Le parcours semble normal. Voyons un autre exemple : 2 traceroutes de Honk-Kong à New-York (annexe A.4). On observe que le parcours n’a pas été le même les deux fois, et que le premier semble bizarre : Japon -> USA -> Australie -> USA.

Bref, ces explications quelque peu techniques nous permettent de tirer les conclusions (provisoires) suivantes :

  • Internet n’appartient à personne, dans le sens où chacun peux monter son propre réseau, puis le raccorder sur le réseau des résaux : Internet
  • Internet fonctionne même si des noeuds sont hors d’usage (puisque plusieurs chemins sont toujours possibles)
  • Internet est accessible à tous
  • Il est impossible de contrôler ce qui passe sur le réseau, puisque n’importe qui peux s’y joindre facilement

Mais ces conclusions ont certaines limites, que nous allons développer maintenant.

III - La fracture numérique, planétaire

Les conclusions que nous venons de faire font partie d’une utopie du réseau des réseaux. La réalité est légèrement différente. On observe en effet une « fracture numérique » assez marquée entre les différents pays. Cette fracture prend naissance au coeur même de l’économie des pays. Nous allons voir tout d’abord les fractures au niveau des populations, des villes, puis au niveau des pays, en ce qui concerne l’accès au réseau. Puis, nous allons voir que se posé également le problème matériel et logiciel. Enfin, nous allons voir ce qui pourrait aider ces pays à réduire la « fracture numérique ».

Voyons pour commencer quelques statistiques du pays proposant le plus de sources statistiques à ce niveau : les Etats-Unis. En 2000, 44,4 % des individus avaient accès à Internet dans ce pays. La communication numérique n’abolit pas la barrière ethnique : 50,3 % des blancs et 49,9 % des américains d’origine asiatique ont accès à Internet, mais seulement 29,3 % des afro-américains et 23,7 % des hispano-américains. Les ménages asiatiques ont le taux d’accès à Internet le plus élevé : 56,8 %, bien au-dessus des 46,1 % des ménages blancs. Cette avance des ménages asiatiques peut être expliquée par la valorisation de l’éducation des enfants asiatiques. Le revenus des familles ont une importance pour la diffusion d’Internet chez les enfants américains. En 1996, 15 % seulement des enfantrs âgés de 2 à 17 ans avaient accès à Internet. Malgré ce faible accès des enfants, entre décembre 1998 et août 2000, le pourcentage d’utilisateurs est passé de 26,2 à 41,5 % des ménages. La concurrence, même si étouffée par Microsoft, a permis la chute des prix des ordinateurs, et donc l’augmentation du nombre de connexion dans les foyers aux revenus modestes. Une autre évolution a eu lieu. La multiplication des accès à Internet dans les bibliothèques, écoles, etc. a ouvert des opportunités jusqu’alors absentes (il ne faut pas oublier que Internet est né en grande partie dans les universités). Mais avant de s’interesser aux accès dans les villes, il faut d’abord que celles-ci soient connectées au réseau.

Au niveau des villes, il n’y a pas de secrets : moins il y a de chances de faire de bons bénéfices, moins les villes ont des accès Internet évolués. En France, une bonne partie de la population, rurale, et donc trop éloignée de centraux téléphoniques gérant l’ADSL, n’a aucun moyen de surfer à plus de 56 K, malgré la multiplication des technologies de connexion à haut débit. Selon une étude menée par l’Observatoire des télécommunications dans la ville, la France est divisée en trois zones : des “zones blanches”, qui couvrent 10 % du territoire et 65 % de la population, où l’offre haut débit est plutôt pléthorique, des “zones grises”, représentant 10 % de la population et 10 % du pays, dont le salut réside uniquement dans l’ADSL et, enfin, des “zones noires” (80 % de la superficie, 25 % de la population) pour lesquelles le haut débit est encore un doux rêve... Ces “zones noires” représentent 30 000 sur les quelque 36 000 communes françaises, communes oubliées des opérateurs de télécommunications, évidemment attirés par des régions à plus fort potentiel de profit. On remarque la même tendance aux Etats-Unis, où les fournisseurs d’accès se sont tout d’abord installés dans les régions les plus peuplées (et rentables) : cf cartes A.5.

Mais le problème de la « fracture numérique » ne s’arrête pas aux villes ou régions : il faut également que le pays soit connecté. Ce problème ne se pose évidemment pas pour les Etats-Unis, puisqu’ils sont à l’origine d’Internet. Les pays Européens sont également imunisés contre ce problème. Par contre, si l’on observe la carte mondiale des principaux backbones (A.1.0), on observe que l’Afrique en est dépourvue.... ! (Attention, ce n’est pas parcqu’elle est dépourvue de backbones importants, qu’elle n’est pas connectée (cf carte A.2)). Les cartes A.1.5 et A.1.6 nous montrent également que, à part le Japon, les pays Asiatiques sont peu reliés au reste du monde. Le planisphère ci-dessous montrant les connections à Internet en juillet 2000 montre bien le fort contraste entre les pays du nord et du sud. Mis à part l’Australie, l’Afrique du Sud et quelques pays d’Amérique du Nord, la « fracture numérique » est bien présente.

Mais la connection Internet n’est pas le seul facteur de la « fracture numérique ». En effet, il faut aussi que les pays puissent s’équiper en matériel ainsi qu’en logiciel. Or ces coûts sont également assez élevés. Sans capital, il devient impossible d’équiper le pays.

Comment résoudre ces problèmes ? Pour ce qui est de la connexion, les choses avancent, et des liaisons s’établissent progressivement. (cf A.5.1). Pour ce qui est du matériel, des solutions voient le jour, comme celle du Simputer, qui est un ordinateur conçu pour être utilisé facilement par des personnes ne sachant ni lire, ni écrire (cf A.5.3)

Un problème majeur reste celui des logiciels. En effet, en occident la pluspart des gens utilisent des systèmes de l’entreprise Microsoft, et il est, au fur et à mesure du temps, devenu « normal » d’utiliser ces systèmes, qui sont pourtant peu performants, surtout au regard de leur prix. Microsoft multiplie depuis quelques années les interventions médiatisées dans des pays comme l’Inde, offrant des millions de dollars de licences de logiciel (offre qui fait économiser de l’argent à l’Inde, mais qui ne coûte rien à l’éditeur) et en matériel. Sous des apparences généreuses, il s’agit bien sûr de s’imposer sur ce marché avant ses concurrents. En effet, un utilisateur du système d’exploitation Windows® de Microsoft aura tendance à rester sous ce système aussi longtemps que possible. De fait, utilisant la suite bureautique du même éditeur, il incitera ses correspondants à acheter les mêmes produits, pour pouvoir lire les documents qu’il envoie. L’intérêt pour l’éditeur est donc de s’implanter le plus vite possible, quitte à offrir des licences dans un premier temps.

La solution est donc à chercher du côté des logiciels libres, c’est à dire des logiciels modifiables par l’utilisateur, et le plus souvent gratuits et redistribuables à volonté. Le Simputer, pour reprendre cet exemple, fonctionne grâce au système d’exploitation libre qu’est GNU/Linux.

Conlusion

Nous avons vu qu’il y a bien une « fracture numérique » planétaire, grossierement entre les pays du nord et ceux du sud. Cette fracture est essentiellement due aux problèmes économique, aussi bien des fournisseurs d’accès (manque de rentabilité) que des pays (manque de moyens). Afin de diminuer cette fracture numérique, il faudrait encourager le développement des logiciels libres, qui peuvent permettent (et l’on déjà fait) à des pays moins développés d’acquérir tout de même ce dont ils ont besoin.

Encore faudrait-il qu’Internet reste une chose libre, ce qui n’est pas sûr : politique de Microsoft, filtres demandés par le gouvernement Chinois, Loi sur l’Economie Numérique (LEN) en France, ...

  • Bibliographie :
    • Manuel Castells, La galaxie internet
    • Éric Guichard, La « fracture numérique » existe-t-elle ?
  • Liens :
    • http://www.michelcartier.com/
    • http://www.branchez-vous.com/actu/02-11/06-336902.html (Problème de structure du net)
    • http://zabra.l2ti.univ-paris13.fr/ fourmaux/meea/RTD7/img43.htm
    • http://www.vnunet.fr/svm/doss/svm/hautdebit.htm
    • http://www.cybergeography-fr.org/

Portfolio

Image de garde - internet Les réseaux dans le monde entier

Répondre à cet article


Suivre la vie du site RSS 2.0 | Plan du site | Espace privé | SPIP | squelette