Les réseaux informatiques

Les réseaux informatiques

La notion de réseau est née lorsque le besoin s’est fait sentir d’interconnecter des ordinateurs au sein d’un même bâtiment. Le plus simple des réseaux est constitué d’une simple liaison poste à poste entre deux ordinateurs. Dans la réalisation d’un réseau, l’objectif premier est le partage des ressources matérielles et logicielles entre plusieurs postes de travail sur un même site ou sur des sites éloignés. Le second est un environnement où le papier aurait disparu.

Durant les années 1970, les mini- et les micro-ordinateurs se sont considérablement répandus, et leurs applications se sont diversifiées. Tous les secteurs de l’entreprise furent touchés par ce phénomène. Il est très vite devenu nécessaire de partager des fichiers, des programmes et des périphériques. Le premier réseau, Ethernet, est le fruit de recherches entreprises par le centre Xerox Parc en Californie, dès 1972, en vue de développer un réseau local commercialisable, et utilisable sous le système d’exploitation Unix. La première version, apparue en 1979, fut modifiée à la suite de l’association de Xerox avec Intel et DEC.

Depuis, de nombreuses sociétés ont développé leurs propres réseaux, plus ou moins proches d’Ethernet, avec des protocoles plus ou moins compatibles.

Le réseau local

Un réseau est composé d’un serveur, de plusieurs postes de travail, de périphériques de stockage et d’impression, reliés entre eux par des câbles. Pour brancher ces câbles, chaque ordinateur est équipé d’une carte de communication, ou carte réseau. Un programme gestionnaire de réseau gère le dialogue entre les différents postes de travail.

La diversification des structures a donné naissance à différentes catégories de réseaux. On distingue les réseaux locaux, ou LAN (local area networks), se situant dans des bâtiments proches, et les réseaux répartis sur de grandes distances, ou WAN (wide area networks). Les LAN se subdivisent en DAN (departmental area networks), qui correspondent aux réseaux capillaires et sont chargés de conduire les données jusqu’à la prise utilisateur, et en BAN (building area networks), ou réseaux d’établissement, qui représentent la composante centrale du réseau local d’entreprise. Ils permettent toutes les interconnexions à l’intérieur d’un bâtiment. Les CAN (campus area networks) acheminent les données sur des distances importantes sans l’intermédiaire d’un réseau public, au contraire du MAN (metropolitan area networks), qui, lui, fait appel à l’infrastructure publique.

Tout réseau local se caractérise par des débits binaires élevés (de 10 à 100 Mbits/s pour Ethernet, et de 4 à 16 Mbits/s pour Token Ring), une étendue géographique limitée (jusqu’à 10 km de rayon) et des informations variées (textes, voix, images…).

Les réseaux locaux d’entreprise sont privés, ils possèdent un support physique commun aux différentes applications. Ils supportent divers services et doivent permettre des débits importants dans l’acheminement des données. La solution «poste de travail» permet d’éviter la multiplication d’unités de stockage de faible capacité, et de les remplacer par des unités de disques de grande capacité montées sur le serveur et partagées par tous). Il n’est plus nécessaire de courir après la dernière version de tel logiciel qu’utilise le collègue du bureau voisin, une mise à jour unique sur le serveur suffit. De même, il n’est plus nécessaire d’effectuer la saisie et la mise à jour de données communes à plusieurs services. Des logiciels centralisés de gestion permettent de maintenir l’inventaire du parc, et de mettre à jour à distance tous les postes de travail sans aucune intervention des utilisateurs. Cette technique permet de réduire les coûts de fonctionnement et de s’assurer que les collaborateurs d’une même entreprise travaillent tous avec des logiciels de même niveau.

Les objectifs du réseau local

L’objectif premier du réseau local est le raccordement entre plusieurs postes de travail d’un même site afin de permettre le partage des ressources matérielles (imprimantes, disques…) et logicielles (messageries, bases de données…). Le coût global d’équipement est fort réduit: les utilisateurs ne sont plus contraints d’acquérir individuellement leurs périphériques. De même, pour les logiciels, une seule version réseau d’un programme remplacera plusieurs versions monopostes. Est-ce à dire que chacun peut accéder aux données de tous? Certes non, car à ces avantages s’ajoutent la personnalisation et la protection des fichiers et des logiciels par des mots de passe ou des autorisations d’accès, la gestion du temps de connexion et le dialogue en temps réel, ou messagerie.

 

La normalisation

Disposer d’un réseau de machines et de logiciels exige une compatibilité absolue à tous les niveaux de l’architecture informatique. Dans cette optique, l’ISO (International Organization for Standardization), Organisation internationale de normalisation, a créé en 1977 un comité chargé d’unifier l’interconnexion des systèmes ouverts (open systems interconnection). L’architecture OSI, qui est le fruit de cette volonté de normalisation, permet à des systèmes différents de communiquer.

La transmission s’effectue entre deux couches du même niveau par l’intermédiaire d’un protocole de communication. Au-delà de la couche liaison, les protocoles sont nombreux. Les architectures MAP (manufacturing automation protocol) et TOP (technical and office protocols) sont des réseaux complets à sept couches. Lancé par Boeing, TOP est un réseau de bureautique. Il permet la transmission d’images numériques obtenues par la CAO (conception assistée par ordinateur), et la connexion au réseau extérieur de télématique, en l’occurrence le RNIS (réseau numérique à intégration de services).

Les sept couches du modèle ISO

La première couche constitue le support physique (câbles, connecteurs…) qui assure le transport des données. La couche liaison contrôle la mise en forme, selon le protocole de transmission, puis la transmission des données, sans erreur, au niveau des cartes de communications. La couche réseau active la transmission logique en fonction de la topologie installée et des adresses de départ et d’arrivée. La couche transport joue un rôle essentiel: elle interface une demande de communication avec les couches supérieures, et ce que le protocole soit identique ou différent. C’est également à ce niveau que sont détectées et corrigées les erreurs de transmission ou de format. La couche session a une fonction de gestion et de coordination entre les différents postes de travail. La couche suivante, dite de présentation, prépare l’information en un format compréhensible pour la dernière couche. Dans la couche applications sont réalisées les tâches demandées par l’utilisateur: lancement d’un logiciel, activation d’une messagerie

Découvrir :  Avantages et inconvénients Ordinateurs remis à neuf

 

Les topologies


La structure des connexions des postes de travail d’un réseau définit sa topologie. Celle-ci est choisie en fonction de la disposition des lieux, de la vitesse de travail, du type de câble que l’on souhaite utiliser… Les principales topologies sont le bus, l’étoile et l’anneau.

 

La topologie de type bus

Il s’agit d’une topologie où chaque machine est reliée au même câble. De type coaxial, celui-ci fait office de conducteur principal. Le serveur peut se trouver à un endroit quelconque sur le câble. Les extrémités comportent des bouchons-impédances appelés terminateurs. L’information émise par un poste circule dans les deux sens à partir de n’importe quelle liaison (appelée nœud). Les stations étant passives, elles ne risquent pas de paralyser le réseau en cas de défection de l’une d’elles.

Pour agrandir le réseau, il suffit d’enlever un terminateur, d’ajouter les postes nécessaires puis de replacer le bouchon terminateur. La limite théorique est de 255 stations. Cependant, plus le nombre de stations connectées augmente, plus le temps de réponse croît.

La topologie en étoile

Dans cette topologie, le serveur occupe une position centrale. Tout message entre deux stations passe obligatoirement par ce point. Tout le réseau est généralement bloqué en cas de problème ou d’anomalie. Si l’on veut rajouter un poste, il faut installer une nouvelle ligne. Habituellement, le câble utilisé est du type paire torsadée. Le serveur doit posséder autant de connexions que de postes souhaités, leur nombre étant limité à vingt-quatre. Pour accroître ce nombre, on place des boîtiers de raccordement. Ces derniers permettent en outre de détecter des pannes et d’isoler la partie défectueuse du réseau sans paralyser le reste de la structure ramifiée.

 

La topologie en anneau


Cette topologie est du type bus en boucle fermée, choisi par IBM pour son réseau Token Ring. Le serveur peut prendre la place de n’importe quel poste. L’information circule dans un sens prédéterminé sur l’anneau. Chaque poste doit reconnaître son adresse et se comporter comme un répéteur, en vue de l’amplification du signal. Une défaillance de l’un des postes peut entraîner l’arrêt du réseau.

 

La topologie pour les unités de stockage : le SAN

Selon une étude réalisée en 1999, les opérations de sauvegarde constituent 60 % du trafic des données observé sur un réseau informatique. Une sauvegarde étant faite généralement en mode continu, toutes les ressources sont utilisées au maximum, et l’échange est généralement fait à la vitesse de la bande passante, ce qui pénalise les échanges de données en mode interactif. Les grandes entreprises ont généralement une organisation hiérarchisée à deux ou trois niveaux, ce qui nécessite de nombreux échanges pour la synchronisation des différentes bases de données. Cette gestion est complexe, coûteuse et comporte des risques de pertes de données.

L’architecture SAN (Storage Area Network) apparue chez les clients en début 2000, a pour but de réduire les inconvénients cités ci-dessus. C’est une technologie non propriétaire qui s’adresse aux produits de stockage de tous les intervenants du marché quel que soit le système d’exploitation utilisé (Unix, NT, SE des sites centraux, main frames).

Le SAN est un réseau réservé aux unités de stockage, constitué d’un serveur centralisateur et administrateur de tous les types de supports existants: lecteurs de bandes magnétiques, de cartouches, de disques durs, robots Le réseau SAN est constitué physiquement de fibres optiques (fiber channel), et utilise le protocole FCP (Fiber Channel Protocol). C’est un protocole destiné au transfert rapide dans les deux sens de données volumineuses entre serveurs avec une grande fiabilité. La technologie fibre optique autorise des débits de 100 Mbps dans les deux sens et par session. Il est possible de multiplier les sessions et, avec quatre sessions par exemple, la bande passante sera de 400 Mbps. La distance maximum (avec répéteurs) entre deux unités de stockage peut être portée à plus de soixante kilomètres, distance particulièrement intéressante pour les sociétés multisites.

Les avantages de la mise en place d’une solution SAN sont multiples : une seule personne peut administrer ce type de réseau, les coûts de fonctionnement sont réduits, la fiabilité de l’ensemble et la fluidité des données sont notoirement renforcées.

L’architecture matérielle d’un réseau

L’interconnexion des réseaux nécessite un équipement constitué de supports physiques d’interconnexion (câbles, fibre optique, ondes) et de cartes réseau.

 

Les supports physiques

Ils constituent le support de circulation de l’information dans le réseau. Pour câbler un réseau, il faut tenir compte de la vitesse de transmission souhaitée, de la distance à couvrir, de la disposition des lieux, de la topologie retenue et, enfin, de la sécurité des données à transmettre.

La paire de fils torsadés ressemble au câble utilisé en téléphonie, mais avec un blindage permettant une protection contre les interférences. Elle est très utilisée à cause de son faible prix et de sa facilité d’installation. On atteint actuellement des vitesses de transmission de 10 Mbits/s. La distance autorisée, sans taux d’erreur important, ne dépasse pas les 100 m, mais l’emploi de répéteurs permet d’atteindre le kilomètre.

Le câble coaxial est composé d’un fil conducteur entouré d’un blindage, comme le câble pour antennes de télévision. Ce support est très utilisé dans les réseaux locaux car la connexion est simple. Sur un câble coaxial de 1 km, on peut atteindre des débits de 100 Mbit/s. Cependant, l’atténuation du signal augmentant avec la fréquence, on ne peut dépasser certaines limites.


La fibre optique est une technologie nouvelle promise à un bel avenir. Alors que dans les fils métalliques on transmet les informations par l’intermédiaire d’un courant électrique modulé, avec la fibre optique on utilise un faisceau lumineux modulé. Ce type de transmission n’a pu se développer qu’avec la découverte du laser. Le faisceau lumineux est guidé dans une fibre optique dont le diamètre est compris entre 10 et 300 Ym. Outre son faible volume et sa légèreté, la fibre optique présente aussi l’intérêt de posséder une bande passante de l’ordre de 1 GHz pour 1 km, ce qui permet le multiplexage de nombreux canaux sur un même support. De plus, la faible atténuation permet d’envisager un espacement important, de l’ordre de 10 km, des points de régénération des signaux transmis sur le réseau. La fibre optique est particulièrement adaptée aux réseaux industriels, car elle est insensible aux bruits électromagnétiques. Elle présente encore quelques difficultés d’emploi, notamment pour le raccordement et la dérivation, qui seront rapidement résolues.
Comme on l’a dit ci-dessus, un nouveau type de réseau local, le SAN, réservé aux unités de stockage, a fait son appartition en 2000. Le support physique est un réseau de fibres optiques; avec l’installation de répéteurs, deux unités du réseau peuvent être éloignées de plus de 60 km.

Découvrir :  Comment Faire une Capture d'Écran sur PC : Méthodes et Conseils

Les cartes réseau

Chaque poste doit être équipé d’une carte d’interface de communication. De manière générale, les cartes servent au codage/décodage des informations circulant sur le câble, gèrent la quantité d’informations transmises et reçues, détectent les erreurs Elles doivent correspondre au type de câble utilisé et être adaptées au bus de la machine   bus ISA (Industrial Standard Architecture) ou PCI (Peripheral Component Interconnect)  , cela afin de ne pas ralentir la vitesse du réseau. Les cartes doivent comporter une mémoire RAM afin de rentabiliser au maximum les délais d’envoi et de réception des données. Si la vitesse de transmission est un critère de sélection, le flux d’informations que la carte peut traiter ainsi que la distance permise sans répéteur sont primordiaux.

Intel et AMD proposent des circuits Ethernet intégrables sur la carte mère d’un micro. Les PC équipés pourront alors disposer d’une prise Ethernet d’origine. On pourra les raccorder très simplement entre eux, comme cela se fait sur Macintosh.

Le logiciel

Une partie du gestionnaire de réseau (network operating system) est installée sur l’ensemble des stations connectées. Il gère le dialogue entre un poste quelconque et les autres postes, à travers la carte réseau, et propose l’accès aux ressources partagées, disques ou imprimantes, ou aux ressources locales.

 

Les utilisateurs

Les premiers produits n’intégraient pas la notion d’utilisateur. Il fallait alors nommer les différents postes afin que l’utilisateur sache quelle ressource était disponible sur quel poste, tout utilisateur pouvant exploiter les ressources d’un poste quelconque. Les produits actuels, plus performants, impliquent l’affectation d’un identificateur par machine ou par utilisateur. Cette méthode renforce la confidentialité et la protection des données de l’entreprise. L’utilisateur souhaite de plus en plus une intégration des possibilités que lui offre le monde de l’informatique; ainsi, les différents moyens de communication que sont la voix et l’image conduisent à des applications multimédias. Une difficulté réside dans les débits associés à ces services, qui nécessitent des transmissions de l’ordre de 2 Mbit/s.

Si le développement de l’informatique permet d’utiliser des superserveurs dotés de processeurs aux capacités sans cesse étendues, rares sont les modèles qui disposent de réels systèmes de sécurité. L’intégrité des données et la fiabilité des systèmes restent donc une préoccupation majeure de la gestion d’un réseau.

La sécurité du serveur

Tout serveur doit disposer de systèmes de sécurité aux niveaux de l’alimentation électrique, de la gestion de la mémoire vive et des données. L’alimentation électrique se trouve secondée par un onduleur. Au niveau de la gestion RAM, le contrôle de parité laisse la place à des mémoires autocorrectives fiables. La sécurité physique des données s’appuie sur la technologie RAID (redundant array inexpensive disks), développée par des chercheurs de l’université de Berkeley. Elle propose plusieurs niveaux de sécurité, de la double écriture complète de données sur deux disques distincts au contrôle de parité sur un bloc de données permettant la reconstitution de celles-ci sur l’ensemble des disques.

 

Les droits d’accès

Le partage de matériels, imprimantes ou disques durs, ou de données conduit au respect de certaines règles. Tous les utilisateurs n’ont pas nécessairement le droit d’effectuer des traitements sur les données (mise à jour, création d’enregistrement, suppression). Aussi, les gestionnaires de réseau attribuent des droits d’accès à ces fonctions. Chaque utilisateur, selon ses responsabilités ou ses fonctions, au besoin chaque poste, bénéficiera d’autorisations ou se verra imposer des restrictions d’accès sur certaines ressources. La création de lien entre deux postes permet de disposer de ressources propres à ces postes, comme la création d’un disque logique sur l’un des postes ou l’attribution d’un port imprimante. Ces liens sont transparents pour l’utilisateur et réalisés automatiquement au démarrage du poste.

 

Les différents types de machines

On distingue les postes clients et les postes serveurs. Les postes clients sont ceux qui utilisent les ressources mises en commun mais qui ne peuvent partager leur propre disque dur ou leur imprimante. Les postes serveurs peuvent exploiter l’ensemble des ressources du réseau. On réserve quelquefois un serveur à une fonction, par exemple un serveur d’imprimantes. Les serveurs sont des machines rapides, correctement pourvues en mémoire afin de créer des mémoires caches. Cette méthode accélère l’accès aux données et libère de la place en mémoire conventionnelle pour une utilisation locale. Afin de garantir les données contre toute perturbation (coupure de courant malencontreuse, par exemple), les serveurs sont branchés sur des alimentations de secours, ou UPS (uninterrupted power supply).

Pour nommer les communications entre réseaux de topologie identique ou différente utilisant le même protocole de communication, on parle de bridge, ou pont; et pour désigner celles entre systèmes utilisant des protocoles de communication différents, on parle alors de gateways, ou passerelles. Les ponts à distance, ou remote bridges, utilisent les télécommunications.

Les gateways permettent la communication entre les réseaux locaux, ou les stations de travail isolées, et le système hôte, miniframes ou mainframes (petit et gros systèmes). Dans ce cas, ce sont les programmes ou les logiciels qui se chargent de faire l’interface entre les deux protocoles.

Découvrir :  Deep web et dark web : quelle est la différence et comment y accéder ?

Les applications du réseau local

Les applications qui peuvent tourner sur un réseau local sont, en premier lieu, les applications monopostes. Cependant, il est préférable d’installer une version réseau de l’application. De nombreux éditeurs proposent leurs logiciels dans les deux versions. La version réseau est installée sur une station serveur, et le logiciel peut être utilisé par tous les postes de travail connectés.

L’utilisation du réseau passe par un logiciel d’exploitation. Novell Inc. a pu s’imposer par la qualité de son logiciel Netware, qui est indépendant du type de réseau et peut donc être utilisé sur différentes offres de supports physiques. L’un des inconvénients d’Ethernet est le coût du support de transmission.


De nombreux utilisateurs optent pour un petit réseau de quelques postes dits peer to peer, ou d’égal à égal. Il s’agit souvent de partager des fichiers texte ou des bases de données, des plans, une imprimante, un traceur. Les établissements d’enseignement sont également une cible des réseaux poste à poste. Si simple soit-il, le réseau nécessite un minimum de temps et de connaissances pour l’installation, la configuration et la formation. Les constructeurs font des efforts de simplification. Ainsi, le logiciel Windows pour Workgroup reconnaît la carte installée et ses paramètres. L’utilisateur pourra s’abstenir d’ouvrir son ordinateur pour configurer à l’aide des switches de la carte réseau les adresses mémoires et l’attribution d’une interruption IRQ (interrupt request).
Un réseau : représentation avec ou sans NumérisLa liaison de réseaux géographiquement éloignés, dans une même ville mais sur des sites différents, dans des pays, voire des continents différents, fait appel aux télécommunications. En effet, la communication entre de tels réseaux nécessite la connexion d’un modem (modulateur-démodulateur) sur la sortie série des ordinateurs, à chaque extrémité de la ligne. Le modem s’occupe de la modulation des données émises et de la démodulation des données reçues. Pour communiquer d’un réseau vers plusieurs autres, on fait appel au protocole X25, qui permet l’accès au réseau public de données. Ce service payant, très performant, permet d’envoyer des données sur le réseau par la technique de commutation de paquets. Il prend le nom de Transpac en France, Infoswitch au Canada, Telepac en Suisse… Transpac est un service proposé par France Télécom. À l’inverse d’une ligne téléphonique ordinaire, Transpac offre un service spécialisé d’une grande fiabilité pour la transmission des données. Cette méthode permet un taux d’erreur très réduit et une vitesse de transmission élevée: 48 000 bauds (1 baud = 1 bit/s), contre 9 600 en ligne ordinaire. Les règles de transmission constituent le protocole X25 élaboré par le CCITT (Consultative Committee on International Telegraph and Telephone). Ce protocole concerne le niveau physique (les caractéristiques mécaniques et électriques), le niveau liaison (transmission entre le terminal et le nœud Transpac, détection d’erreurs) et le niveau réseau (format des paquets, échange de données entre équipements variés). Une autre possibilité pour accéder à Transpac est d’exploiter le RNIS, qui permet une vitesse de transmission de 64 000 bauds. De plus, jusqu’à 16 utilisateurs peuvent être multiplexés sur cette entrée. Des connexions avec les réseaux étrangers Euronet, Telenet, Datapac sont possibles. Enfin, les tarifs de Transpac sont attractifs, car la taxation ne prend pas en compte la distance mais le volume des données transmises.

Bientôt les ordinateurs se brancheront sur le câble. Intel, numéro-un du microprocesseur, et General Instrument, leader de la compression vidéo et pionnier de la télévision numérique TVHD, annoncent de nouveaux modems ultrarapides pour la transmission de données par le câble, et non plus par le réseau téléphonique. Il deviendra alors possible de transmettre les données à des millions de bits par seconde.

De nombreuses villes françaises sont aujourd’hui équipées du câble pour la télévision. Les opérateurs proposent également des abonnements au câble pour l’Internet. Dans un premier temps, le débit proposé était de 2 Mbits/s, mais il a été ramené à 500 Kbits/s.

Les réseaux satellites

La transmission de données à grande distance et à haut débit fait penser aux satellites. Les satellites de télécommunication sont géostationnaires, ce qui permet une exploitation permanente. Il faut un temps important (de l’ordre de 0,27 s) au signal pour effectuer un aller-retour (72 000 km). Le signal reçu par le satellite dans une fréquence donnée est retransmis vers la Terre avec une autre fréquence. Mis à part les délais de propagation, on retrouve, comme dans les réseaux locaux, l’accès multiple et la diffusion. La bande passante élevée permet des débits de plusieurs dizaines de Mbit/s. Le satellite comprend des répéteurs accordés sur des fréquences différentes. En raison du nombre de stations terrestres, il faut, comme en radiodiffusion, une politique d’allocation des bandes de fréquences et des répéteurs. Les politiques d’accès aux canaux satellites doivent permettre une utilisation maximale du canal sans perte par collision de messages, compte tenu de l’important délai de propagation. Plusieurs politiques sont utilisées: de réservation, d’accès aléatoire et de réservation par paquet.

 

Le réseau de télédiffusion

Le réseau de télédiffusion est constitué par un ensemble de faisceaux hertziens émettant en bandes de fréquences étendues mais de portée limitée. Des tours-relais assurent la continuité de la transmission, comme les nœuds dans un réseau. L’utilisation de tels réseaux pour la transmission numérique permet d’atteindre des débits élevés. Cependant, le nombre de bandes de fréquences utilisables est limité et réservé en priorité à la télévision.

 

Les réseaux vidéomatiques

Les réseaux vidéomatiques doivent pouvoir diffuser des images animées et du son. Le nombre élevé d’informations oblige à des débits de l’ordre de 140 Mbit/s. Sur les réseaux traditionnels à faible débit, on utilise des techniques de compression qui provoquent des dégradations de l’image en rapport avec le taux de compression. Le développement des transmissions par fibres optiques et, en particulier, la multiplication du nombre de canaux par fibre devraient à terme représenter la solution pour les réseaux vidéomatiques.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *