Synthèse sur les réseaux

Ce projet de veille technologique portant sur les protocoles de transmission sans-fil aura été l’occasion, à la fois pour nous-mêmes en tant qu’auteur et pour vous lecteurs (du moins nous l’espérons) de démystifier certains aspects liés aux technologies sans fil. Dès le départ, nous avons choisi d’articuler notre présentation en partant du plus général dans un premier article, où nous avons décidé de passer en revue les différentes technologies sans fil utilisées dans les médiums d’information connus telles la radio, télévision et satellite. Le cas des technologies mobiles, utilisant le réseau mobile, a ensuite été traité dans notre second article, explicitant notamment le GSM et les concepts 2G/2.5G/3G/4G. Devant l’extrême popularité du Wi-fi, nous avons dédié nos troisième et quatrième articles à la présentation (normes, sécurité, architectures envisageables) puis l’approfondissement (lien Wi-fi et modèle OSI, étude de trames) de cette technologie, en faisant notamment le point sur les notions de protocoles associés et modes de mise en réseau. Dans notre dernier article, nous avons jugé qu’il était intéressant, pour ouvrir de nouvelles perspectives, d’évoquer les évolutions potentielles vers lesquelles les liaisons sans-fil pourraient converger d’ici les prochaines années. Nul doute que parmi les solutions présentées, certaines pourront trouver leur place moyennant un certain investissement de la part des acteurs technologiques et industriels principaux, et s’intégreront dans une logique plus globale (dont les contours restent à définir). Il sera notamment intéressant, dans une optique d’approfondissement, d’étudier le devenir du monde IP qui reste en lien étroit avec toutes les notions présentées au cours de cette veille.

Fidèles à notre plan initial, nous avons choisi de nous conformer aux points successivement abordés afin d’établir notre structure finale :

    1. Médiums de communication sans-fil
      • La radio
      • La télévision analogique et numérique
      • Les systèmes satellitaires
        • protocoles de la boucle satellite
        • gestion des handover
    2. Générations de normes des réseaux mobiles
      • Petit historique des générations de réseaux mobiles
      • La 2G : architecture et mobilité
      • Les années 2000 : évolution vers la 3G
      • Vers la 3G+ – 4G
    3. La technologie Wi-fi
      • Les normes à connaître
      • Et la sécurité dans tout ça ?
      • Éléments d’architecture et modes de mise en réseau : ad hoc, infrastructure
      • Gestion des associations et de la mobilité
      • Étude de protocole
        • Contexte et intérêt du modèle OSI : historique, les couches, transmission des données via OSI
        • Wi-fi et le modèle OSI
          • Les technologies de transmission et la couche physique
          • La couche liaison Wi-fi :
            • La méthode d’accès CSMA/CA
            • Somme de contrôle et fragmentation
            • Étude de la trame Wi-fi
      • Utilisation du matériel
    4. Quel futur pour les liaisons sans-fil ?
      • le “multi-gigabit communication module”
        • Vers une révolution du transfert de données ?
        • Réduire au maximum le temps de traitement
      • L’OAM, l’avenir des réseaux sans fil ?
        • La capacité des réseaux sans fil va-t-elle exploser ?
        • Quelques éléments de compréhension
      • Virtualisation de réseau
        •  Présentation
        • Avantages et utilisations potentielles
      • Autres perspectives : réseaux autonomiques, systèmes multiagents…

Lien du rapport : Rapport – protocoles de transmission sans-fil

Rédacteurs

DEPERIERS Vincent et EON Kevin élèves à l’École Centrale de Nantes, encadrés par SERVIERES Myriam, Maître de Conférences à l’École Centrale de Nantes.

Licence Creative Commons
Cette œuvre est mise à disposition selon les termes de la Licence Creative Commons Attribution – Pas d’Utilisation Commerciale – Pas de Modification 3.0 France.

La technologie Wi-fi (1)

Introduction:

Dans ce troisième article de notre longue épopée descriptive des protocoles de communication sans-fil, nous allons parler Wi-fi. Savant mélange d’informatique et de radio, le Wi-fi, comme nul ne peut l’ignorer aujourd’hui, a marqué de son empreinte l’espace que nous occupons, au point que nous devrions nous retirer au fin fond d’une forêt pour ne plus capter la moindre de ses ondes, et encore… On nous vend aujourd’hui du Wi-fi à tour de bras, ordinateurs, consoles de jeu, téléphones portables… jusqu’à des chaussures qui détectent les réseaux sans-fils! Mais qu’est ce que le Wi-fi exactement ?


Le Wi-fi et les normes à connaître… :

A l’origine, le terme technique désignant la transmission de données informatiques par onde radio est IEEE 802.11 (Institute of Electrical and Electronics Engineers). Lors de la sortie de la norme IEEE 802.11b, le terme “Wi-fi” a été choisi pour remplacer le nom barbare de IEEE 802.11b, afin de faciliter la popularisation de cette norme. On pense généralement que le terme Wi-fi signifie wireless fidelity, ce qui est malheureusement faux pour vous, lecteurs, qui l’aviez pensé tout bas. Le terme Wi-fi n’avait à la base aucune signification particulière, il avait été choisi pour sa consonance qui semblait plaire et susciter la confiance, car phonétiquement proche de “Hi-fi” (évoquant la haute fidélité, ce qui est un plus sur le plan commercial).
Le protocole Wi-fi est donc un moyen de transmettre des données informatiques par le biais d’émetteurs et de récepteurs radio spécialement conçus à cet effet. Ainsi, nos périphériques Wi-fi préférés ne sont en fait rien d’autre que de simples émetteurs/récepteurs radio, ayant la capacité de communiquer avec notre ordinateur. Tout périphérique Wi-fi est donc soumis aux lois élémentaires de la physique liées à la propagation des ondes radio. C’est la raison pour laquelle l’utilisation de matériel de qualité couplé à une antenne de qualité est nécessaire pour mettre en place un réseau Wi-fi pleinement fonctionnel.

Wi-fi ne signifie pas obligatoirement internet, la transmission de données sans fil fonctionne également très bien sur un réseau local. Les normes Wi-fi (correspondant au protocole IEEE 802.11) sont les suivantes :

Protocole Fréquence Débit maximum théorique
IEEE 802.11a de 5.15 à 5.875 GHz 54 Mbits/s
IEEE 802.11b de 2.40 à 2.50 GHz 11 Mbits/s
IEEE 802.11g de 2.40 à 2.50 GHz 54 Mbits/s
IEEE 802.11n de 2.40 à 5.0 GHz 540 Mbits/s

Aujourd’hui, la norme Wi-fi la plus répandue est le 802.11b, la norme 802.11g tendant aujourd’hui à se démocratiser tandis que la norme 802.11n est toute récente.
Ainsi, la majorité des points d’accès Wi-fi (appelés PA par la suite) tels que nos bonnes vieilles Freebox, Neufbox ou autres LiveBox utilisent la norme 802.11.g. En fait, cette norme a une compatibilité ascendante avec la première norme Wi-fi la plus répandue (802.11b), ce qui signifie concrètement que des matériels conformes à la norme 802.11g peuvent fonctionner en 802.11b. Cette aptitude permet aux nouveaux équipements de proposer le 802.11g tout en restant compatibles avec les réseaux existants qui sont souvent encore en 802.11b. Pour la note technique, le principe est le même que celui de la norme 802.11a où l’on utilise 52 canaux de sous-porteuses radio mais cette fois dans la bande de fréquences des 2,4 GHz. Ces sous-porteuses permettent une modulation OFDM (voir article précédent) autorisant de plus hauts débits que les modulations classiques utilisées par la norme 802.11a.

Et la sécurité dans tout ça ?

Comme on l’a vu, le principe même du Wi-fi est de propager des données dans les airs sous la forme d’ondes radio, et un simple récepteur pourrait permettre à n’importe qui de récupérer toutes les données transmises, rendant le Wi-fi très dangereux pour ses utilisateurs. Afin de sécuriser la transmission de données informatiques par transmission d’ondes radio (les différents protocoles IEEE 802.11), des normes de cryptage ont été adoptées afin de protéger les utilisateurs. Pour résumer, deux normes de cryptage se sont succédées:

  • Le WEP (pour Wired Equivalent Privacy, signifiant “aussi sécurisé qu’un réseau filaire”), s’avère à présent totalement dépassé car très vulnérable. Des outils tels qu’Aircrack-ng ou Aircrack-ptw permettent aujourd’hui de cracker la clé, et ainsi vaincre le cryptage en quelques minutes.
  • Le WPA, qui a évolué depuis sa création vers le WPA2. La seule faille connue à ce jour permettant de cracker une clé WPA est une attaque de type « brute-force » par dictionnaire. Ainsi, en choisissant de manière judicieuse son mot de passe (longueur suffisante, utilisation de caractères alphanumériques), le crack de la clé devient irréalisable, car selon la longueur de la clé il peut prendre jusqu’à plusieurs millions d’années. Pour être en sécurité avec le WPA, le choix du mot de passe est déterminant.

En conclusion de cette partie, le Wi-fi est INUTILE (par rapport à l’Ethernet) si vous avez un modem-routeur situé à coté de votre tour. Bien au contraire, il n’apporte que des désagréments:

  • investissement supplémentaire dans du matériel, paramétrages réseaux à prendre en compte
  • débit inférieur : 100 Mo/s max pour l’Ethernet contre 54 Mo/s maximum pour l’IEEE 802.11g
  • risque de “sniff” des données avec des outils comme Wireshark ou attaques MITM par exemple

En revanche, l’absence de câbles s’avère très pratique, et permet de mettre des machines en réseau en quelques secondes, de prendre son ordinateur portable pour surfer sur internet partout; Le Wi-fi devient indispensable pour pouvoir bénéficier d’une connexion internet lors de vos déplacements (surtout depuis avènement de la norme 802.11f qui propose à un utilisateur itinérant de changer de point d’accès de façon transparente lors d’un déplacement, et ce quelles que soient les marques des points d’accès présentes dans l’infrastructure réseau).

Parlons architecture :

Après avoir abordé un descriptif général de la technologie Wi-fi, il faut savoir qu’il existe plusieurs biais d’utilisation de celle-ci. On entend généralement parler du terme “mode” pour définir les configurations d’architectures cellulaires existantes. La norme 802.11 offre deux modes de fonctionnement, que l’on l’appelle mode infrastructure et mode ad-hoc.

Dans le mode infrastructure, on se base sur une station spéciale appelée Point d’Accès (PA). Ce mode permet à des stations Wi-fi de se connecter à un réseau via un point d’accès. Il permet à une station Wi-fi de se connecter à une autre station Wi-fi via leur PA commun. Une station Wi-fi associée à un autre PA peut aussi s’interconnecter. L’ensemble des stations à portée radio du PA forme un BSS (Basic Service Set). Chaque BSS est identifié par un BSSID (BSS Identifier) de 6 octets qui correspond à l’adresse MAC du PA, de la forme ab:cd:ef:gh:ij:kl, où chaque lettre est codée sur 4 bits.

Au contraire, le fonctionnement du mode ad-hoc est totalement distribué, il n’y a pas d’élément structurant hiérarchiquement la cellule ou permettant de transmettre les trames d’une station à une autre. Ce mode permet la communication entre deux machines sans l’aide d’une infrastructure. Les stations se trouvant à portée de radio forment un IBSS (Independant Basic Service Set).

Bien sûr, on peut composer un réseau avec plusieurs BSS. Ceux-ci sont reliés entre eux par un système de distribution (appelé DS par la suite) connecté à leurs points d’accès. Ce DS est généralement le réseau Ethernet sur lequel le PA se connecte mais il peut correspondre à autre chose (Token Ring, FDDI ou un autre réseau 802.11). Ces différents BSS interconnectés via un DS forme un ESS (Extended Service Set). Un ESS est identifié par un ESSID (abrégé en SSID) qui est constitué d’un mot de 32 caractères qui représente le nom du réseau. On peut associer un IBSS au sein d’un ESS.

Illustration du mode infrastructure pour le Wi-fi
Illustration du mode infrastructure

Plus en profondeur dans la technique – Gestion des associations et de la mobilité

Maintenant que nous avons vu les deux modes majoritaires de mise en réseau, pourquoi ne pas aller plus loin et savoir COMMENT une station “s’intègre” au sein d’une cellule ?

En fait, lorsqu’une station rentre dans le rayon d’action d’un ou plusieurs points d’accès (elle se joint à un BSS ou un ESS), elle choisit l’un de ces PA constitutifs en fonction de la puissance du signal, du taux d’erreur ou la charge du réseau. Le processus d’association se déroule en plusieurs étapes :

  1. ÉCOUTE DU SUPPORT (afin de découvrir les points d’accès):
    • Écoute active : lorsque la station rentre dans un ESS ou BSS, elle envoie une trame de requête (Probe Frame Request), contenant sa configuration (SSID auquel elle appartient, débit…), sur chaque canal et enregistre les caractéristiques des points d’accès (possédant le même SSID) qui y répondent et choisit le point d’accès offrant le meilleur compromis de débit et de charge. Si elle ne reçoit aucune réponse elle passe en écoute passive.
    • Écoute passive : la station scanne tous les canaux et attend de recevoir une trame balise (Beacon Frame) du point d’accès.

     

  2. AUTHENTIFICATION
    • Open System Authentication : c’est le mode par défaut, il n’y a pas de réelle authentification, puisque n’importe quelle station se connectant est authentifiée.
    • Shared Key Authentication : c’est le mode d’authentification basé sur un partage de clé secrète entre la station et le point d’accès, si la station utilise une clé différente du PA, il y a rejet par ce dernier. Ce mécanisme ne peut être activé qu’avec le protocole de sécurité WEP abordé plus haut.

     

  3. ASSOCIATION

La station envoie une requête d’association au PA (Assocation Request Frame), qui lui répond par une trame de réponse. Dans cette réponse, le PA génère un identificateur d’association ou AID (Association ID), il est plus généralement nommé SSID (Service Set ID): c’est en fait le nom du réseau. Une fois acceptée, la station règle son canal sur le PA. Périodiquement, la station scanne les canaux pour déterminer si un autre PA n’est pas meilleur en terme de performance.

4.  RÉ-ASSOCIATION

Le mécanisme de ré-association est similaire au mécanisme précédent. Les ré-associations se produisent lors de l’éloignement de la station de sa base ou lors d’un trafic trop important sur un point (fonction d’équilibrage des charges).

Et que se passe-t-il en cas de mobilité ?

Contrairement aux réseaux mobiles téléphoniques, il n’existe pas de gestion de handover (article 3) pour des appareils Wi-fi en cours de transmission. Si une station se déplace, elle cherchera le meilleur point d’accès pour s’associer avec lui, mais toute communication sera interrompue et non reprise par le nouveau point d’accès. Certains constructeurs, tels Lucent, ont pallié ce problème en développant un protocole propriétaire appelé IAPP (Inter-Acces Point Protocol) apportant la mobilité au Wi-fi. IAPP est un protocole de niveau 4 fonctionnant sur UDP (User Datagram Protocol), il permet de faire communiquer les points d’accès entre eux à travers le système de distribution (DS). IAPP doit donc être implémenté dans le firmware des points d’accès. Ces PA établissent un dialogue entre eux et s’échangent leurs configurations.

Afin de sécuriser les handovers, IAPP définit l’utilisation du protocole RADIUS. Avant tout handover, une authentification est nécessaire. La station fait une association au nouveau PA, ce PA relaie l’authentification de la station à un serveur RADIUS, qui vérifie les informations et authentifie la station auprès du nouveau PA. Une fois authentifié, le nouveau PA passe en phase de handover avec l’ancien PA. Ce protocole a été retenu par le groupe IEEE802.11 pour être standardisé sous l’appellation 802.11f.

Quelques architectures possibles:

Pour terminer en beauté, voici quelques schémas illustrant des architectures applicables à la Wi-fi.

  • Load balancing : trois canaux recouvrent la même zone et augmentent ainsi le débit. La station va déterminer le meilleur point d’accès suivant le signal et la charge existante du PA.
Architecture de partage de charge
Architecture de partage de charge
  • Interconnexion à distance de réseaux privés : ici la norme Wi-fi permet d’interconnecter deux bâtiments.
Interconnexion distante

Il existe également d’autres architectures envisageables, tels les PA en mode répéteur, en mode pont… Plus d’infos sur Wikipédia, la bible en la matière!

La semaine prochaine, nous irons plus en loin dans la technologie Wi-fi où nous étudierons un protocole de couche Physique employé par cette technologie, ce afin de réellement comprendre comment le codage de l’information se passe au niveau physique. Nous présenterons en détail les trames de communication, des échanges entre PA et stations etc…
Merci de votre lecture et n’hésitez pas à nous faire part de vos retours !
Excellente année 2013 à tous !

Rédacteurs
DEPERIERS Vincent et EON Kevin élèves à l’École Centrale de Nantes, encadrés par SERVIERES Myriam, Maître de Conférences à l’École Centrale de Nantes.

Licence Creative Commons
Cette œuvre est mise à disposition selon les termes de la Licence Creative Commons Attribution – Pas d’Utilisation Commerciale – Pas de Modification 3.0 France.

Générations de normes des réseaux mobiles

Image

Fidèles à notre plan initial, nous allons cette semaine évoquer les différentes générations de normes s’affiliant aux réseaux mobiles. Nous présenterons le GSM et l’UMTS, c’est à dire la 2G et le début de la 3G. Nous nous intéresserons ensuite à la 3G+ et à la 4G. La 3G+ démarre réellement le passage vers la transmission de données et donc l’intégration des réseaux de mobiles aux réseaux Internet.

Petit historique:

Les communications entre utilisateurs mobiles se développent rapidement aujourd’hui et représentent un énorme marché pour cette première décennie du XXIème siècle. Quatre générations de réseaux mobiles se sont succédé, qui se distinguent par la nature de la communication transportée :

  • 1G : communication analogique
  • 2G : communication numérique sous forme circuit : cette technique a été abandonnée car le gros défaut de la commutation circuit est la monopolisation d’un circuit lors d’une liaison logique et ce même s’il n’y a pas de transfert de données (il existe en moyenne plus de 60% de blancs lors d’une conversation).
  • 3G : communication sous forme paquet (sauf la parole téléphonique) : avec cette technique, on découpe les données à transmettre afin d’en accélérer le transfert.
  • 4G : communication multimédia sous forme paquet à très haut débit.

Pour résumer, les services fournis par la première génération de réseaux mobiles sont quasi inexistants en dehors de la téléphonie analogique. Son succès est resté très faible en raison du coût des équipements, qui n’ont pas connu de miniaturisation. La deuxième génération est passée au circuit numérique. La suivante repose sur la technologie paquet mais garde le circuit pour la parole. Enfin, la quatrième génération est totalement paquet et ressemble à un réseau Internet hertzien.

La 2G:

La 2G ou GSM représente réellement le démarrage des réseaux mobiles. Nous détaillerons l’architecture de ce système car elle a été reprise par les générations suivantes sous une terminologie en grande partie différente.

Architecture:

Chaque cellule dispose d’une station de base, ou BTS (pour Base Transceiver Station), qui assure la couverture radio. Une station de base comporte plusieurs porteuses, qui desservent les canaux de trafic des utilisateurs, un canal de diffusion, un canal de contrôle commun et des canaux de signalisation. Chaque station de base est reliée à un contrôleur de station de base (ou BSC pour Base Station Controller). Le BSC et l’ensemble des BTS qui lui sont raccordés constituent un sous-système radio, ou BSS (pour Base Station Subsystem). Les BSC sont tous raccordés à des commutateurs du service mobile, appelés MSC (Mobile Service Switching Center), chargés du routage dans le réseau et de l’interconnexion avec les autres. Les MSC sont reliés eux mêmes au système téléphonique fixe de l’opérateur (PSTN). On utilise un protocole d’accès multiple à répartition dans le temps (AMRT ou TDMA) ou en fréquence (FDMA) pour permettre à plusieurs utilisateurs d’être connectés sans saturer le réseau.

"GSM network"Architecture globale du GSM

En pratique, si l’on reçoit un appel d’un poste fixe, celui-ci sera acheminé jusqu’au MSC puis transmis à la BSC et enfin à la BTS sur laquelle l’utilisateur est connecté. Il y a environ 30,000 BTS pour un opérateur en France. Lors d’une réception d’appel, il est nécessaire de savoir sur quelle BTS le terminal est “connecté”. Afin de transférer l’appel vers le bon commutateur (MSC), une base de données (nommée VLR) est associée à chaque commutateur MSC. Ainsi, si l’on appelle, on cherche dans quelle VLR/MSC le terminal est enregistré. Le MSC soumet ensuite l’appel à la BSC et une procédure de recherche (nommée paging) permet de définir avec exactitude les BTS avec lesquelles il est possible de communiquer.En ce qui concerne l’enregistrement au niveau de la VLR, si le mobile est allumé, il communique périodiquement avec la BTS. Si celui-ci est éteint, le VLR conserve sa position.

Une autre base de données existe, elle s’appelle la HLR (pour Home Location Registry); elle constitue un espace protégé, qui contient toutes les informations du mobile et du client (numéro de mobile, numéro de la carte SIM, le téléphone, …) et qui pointe vers la MSC où le terminal est enregistré. Ainsi, quand on reçoit un appel, la première étape consiste à lire au niveau du HLR dans quelle VLR le mobile a été “vu” pour la dernière fois.

Prise en compte du VLR et HLR

La mobilité dans les réseaux 2G:

La mobilité est une notion essentielle des réseaux de mobiles. Elle donne, comme on l’a vu dans notre précédent article, la possibilité de se déplacer dans la zone de couverture sans que la communication soit coupée, et donc de changer de cellule, voire de réseau.
La gestion de la mobilité revêt deux aspects :

  • La gestion de la localisation, qui permet au réseau de connaître à tout instant l’emplacement du terminal, des utilisateurs et du point d’accès au réseau avec suffisamment de précision pour acheminer les appels aux utilisateurs appelées là où ils se trouvent.
  • Le transfert intercellulaire (handover – <a > cf. article 1 </a>), qui, comme on l’a vu, permet d’assurer une continuité des appels lors d’un changement de cellule.

La mobilité requiert une gestion qui s’effectue généralement à l’aide des deux bases de données VLR et HLR mentionnées ci-dessus, le VLR (Visitors Location Register), gérant le client là où il se trouve.
Pour résumer, le GSM a connu un énorme succès et a permis de susciter le besoin de téléphoner en tout lieu avec la possibilité d’émettre des mini-messages.
Devant un tel succès, il a fallu proposer de nouvelles fréquences aux opérateurs pour acheminer toutes les communications, et de nouveaux services sont aussi apparus, comme le MMS. Le débit de 9.6 kbit/s proposé par le GSM était également insuffisant, et de nouvelles techniques de modulations et de codages ont permis d’accroitre le débit; en outre, les premières connexions IP sont apparues (GPRS, EDGE).

Les années 2000 :

L’évolution de normes de téléphonie vers la troisième génération s’appuie essentiellement sur l’amélioration de solutions techniques fondées sur le réseau fixe du GSM que nous avons présenté en détail dans la partie précédente. Elle est représentée principalement par les normes de l’UMTS (crée à partir d’un regroupement d’organismes de normalisation régionaux) et CDMA2000, permettant des débits bien plus rapides (384 kbit/s en moyenne contre 9.6 kbit/s concernant la 2G). Le passage de la 2G à la 3G est néanmoins davantage perceptible dans la famille CDMA/CDMA2000 que dans la famille GSM/UMTS.
Les premières applications grand public de la 3G sont l’accès à Internet, le visionnage de vidéos voire d’émissions de télévision et la visiophonie.Cette évolution consiste simplement en la migration de technologies propres à la 2G vers de nouvelles technologies 3G. Par exemple, on peut citer la technologie PDC (pour Personal Digital Cellular), technique basée sur le TDMA, qui, omniprésente dans la téléphonie mobile de seconde génération, s’est vue remplacée par le CDMA.

Quelle différence ?

TDMA est un mode de transmission numérique sans fil qui permet à un grand nombre d’utilisateurs de transmettre sur le même canal. On utilise pour cela le multiplexage temporel, dont le principe est de découper le temps disponible entre les différentes connexions utilisateurs. Par ce moyen, une fréquence peut être utilisée par plusieurs abonnés simultanément. Un inconvénient de cette technique est qu’il faut transmettre une synchronisation (horloge) qui soit la meilleure possible pour que chaque utilisateur puisse récupérer ses données.

CDMA est différent de TDMA/FDMA en cela qu’il n’attribue pas de fréquence ou de temps dans les emplacements des utilisateurs, mais donne droit à utiliser à la fois à tous les utilisateurs simultanément. Pour ce faire, il utilise une technique connue sous le nom d’étalement de spectre. En effet, chaque utilisateur se voit attribuer un code récupérable pour le récepteur.L’utilisation de cette technologie ainsi que la prise en compte des migrations GSM vers E-GPRS, IS 136 vers UWC-136 etc… ont rendu possible une plus rapide transmission des données, incluant le streaming de vidéos et une rapidité accrue en upload/téléchargement.

Vers la 3G+ – 4G :

Si les premières générations de réseaux de mobiles se préocuppaient en priorité de la téléphonie, l’avènement de la 3G+ et 4G ont totalement changé la donne. Avec ces deux nouvelles normes, l’important devient la transmission de données et l’intégration des réseaux de mobiles dans l’environnement IP. En particulier, la 4G marque la convergence totale avec le réseau Internet fixe; les clients ne verront plus aucune différence entre une connexion mobile et une connexion fixe (arrivée début 2013 en France).On considère souvent, et à raison, que la génération 3G+ correspond aux hauts débits de données, c’est à dire de plus de 1 Mbit/s. La 3G+ introduit une véritable rupture avec le standard LTE au niveau de l’interface radio puisque le CDMA est abandonné pour être remplacé par l’OFDMA.

OFDM pour les nuls :

Voici un petit exemple qui illustre cette technique de répartition des données.” Supposons que nous souhaitions transporter une cargaison de verres d’un point A à un point B. Les verres sont rangés dans des cartons de taille identique, dans chaque carton on peut mettre 1 à 6 verres.

On nous propose deux options :

  1. transporter notre cargaison dans un véhicule de 10 m de large, 10 m de long
  2. transporter notre cargaison dans 10 véhicules de 2 m de large, 5 m de long, chaque véhicule empruntera un chemin.

Supposons de plus, que notre concurrent place 3 objets sur le parcours (trous, barre de fer, …). Dans le cas de l’option 1, les 3 objets déposés par notre concurrent abîmeront la cargaison en entier. La cargaison subira 3 impacts, elle sera donc dégradée. Dans le cas de l’option 2, si le concurrent a placé les 3 objets sur 3 routes différentes, sept cargaisons arriveront intactes au point B et 3 cargaisons arriveront légèrement détériorées (moins abîmées que dans l’option 1).”

L’OFDM permet donc de transporter les données (ici le verre) entre deux points en utilisant des fréquences (routes) pour ne pas dégrader entièrement le message (la cargaison entière).
Le LTE regroupe un bloc de données à transmettre en 12 bandes de 15 kHz (technique OFDM). Un bloc élémentaire en LTE utilise donc un spectre de 12*15kHz=180 kHz. On appelle Bloc Ressource ou RB, les 12 bandes de 15 kHz.La norme LTE-Advanced, (aussi denommée 4G) permet d’améliorer les performances d’une communication radio-mobiles comparativement à la 3G notamment en terme de :

  • Débits (montant et descendant)
  • Interactivité : réduction de la latence
  • Meilleure efficacité spectrale : L’opérateur peut couvrir une plus grande densité de population en exploitant une bande de fréquence identique à la 3G.
  • Optimisation automatique du réseau : Les équipements 4G se configureront automatiquement pour améliorer la qualité de service offerte au particulier.

Devant l’extrême popularité du Wi-Fi, nous dédierons notre prochain article à la présentation de cette technologie, en faisant le point sur les notions de normes, protocoles associés et modes de mise en réseau.
Merci de votre lecture ! N’hésitez pas à mettre en commentaires vos retours et suggestions concernant cet article.

Rédacteurs
DEPERIERS Vincent et EON Kevin élèves à l’École Centrale de Nantes, encadrés par SERVIERES Myriam, Maître de Conférences à l’École Centrale de Nantes.

Licence Creative Commons
Cette œuvre est mise à disposition selon les termes de la Licence Creative Commons Attribution – Pas d’Utilisation Commerciale – Pas de Modification 3.0 France.

Médiums de communication sans-fil

introduction:

Dans ce premier article, nous avons choisi de passer en revue les différentes technologies sans fil utilisées dans les médiums d’information connus : radio, télévision et satellite. Le cas des technologies mobiles, utilisant le réseau mobile, sera abordé dans notre second article.

Avant d’entrer dans le vif du sujet, il nous a paru important de définir l’expression réseau hertzien. En réalité, les réseaux hertziens concernent aussi bien les réseaux de mobile que les réseaux sans fil. Les réseaux mobiles se diffèrent des sans-fil par la gestion des handovers (voir schéma ci-dessous), qui consistent simplement à attribuer à l’utilisateur final une nouvelle station émettrice lorsque la cellule dans laquelle il était initialement présent ne peut plus assurer la réception/émission des données. Nous traiterons ici le cas des réseaux sans-fil.

La radio:

L’un des premiers protocoles sans fil a été l’émission de voix par ondes radio.
A l’époque, l’information que l’on voulait émettre était une voix: le problème était que si l’on tentait d’émettre une onde à la même fréquence que la voix, il était nécessaire d’avoir une antenne de 15 km environ; ceci était in-envisageable. Pour résoudre ce problème, on a modulé l’onde d’information avec une onde haute fréquence. La taille de l’antenne dans cette situation n’est alors que de l’ordre du mètre. De plus, on voit qu’à l’aide de ce procédé il devient possible d’émettre des informations différentes sur des longueurs d’ondes différentes. C’es ainsi que le concept même de radio est né.

On a ensuite défini différents groupes de longueurs d’ondes, répartis en bandes:

  • LF: bande GO “Grandes Ondes” (30 à 300 kHz)
  • MF: bande PO “Petites Ondes” (300kHz à 3MHz), utilisé pour des systèmes de collision à longues distance
  • HF: bande OC “Ondes Courtes” (3 à 30 MHz), Radiodiffusion
  • VHF: bandes I, II et III (30 à 300MHz), radio FM et télévision
  • UHF: bandes IV et V (300MHz à 3GHz), GPS, Wi-fi, télévision, 4G

Occupation des canaux d'information suivant les bandes de fréquence
Plus d’information sur le sujet concernant la répartition des ondes :
répartition des bandes de fréquence

La télévision analogique:

Nous avons donc vu comment moduler une voix et une onde. Mais comment moduler une image ?

On peut diviser une image en noir et blanc en 625 lignes. Chaque ligne possède donc une courbe représentant l’intensité lumineuse. Afin de synchroniser les lignes et le spot lumineux, on insère un “top” de µs au début de chaque ligne. Le spot lorsqu’il reçoit ce signal a 5µs pour retourner au début de la ligne. Les problèmes d’affichage sont ensuite traités dans l’article d’A. Ducros

La télévision analogique a principalement utilisé en France la bande I pour la diffusion. Cependant elle a engendré de nombreux problèmes de réceptions. C’est pourquoi, les chaines Françaises ont décidé de modifier leurs fréquences vers la Bande III.

De nos jours, la télévision analogique tend à disparaitre et les bandes IV et V sont alors utilisées pour la télévision numérique. Les canaux restants de la bande IV sont réalloués pour les protocoles de communication mobiles de 4ème génération que nous aborderons dans notre article suivant.

La télévision numérique:

La TNT est largement inspirée de la télévision classique dite analogique. En fait, les deux systèmes de diffusion ont cohabité jusqu’en 2010 avant que la TNT ne prenne définitivement le relai. Contrairement à la télévision analogique, la TNT utilise uniquement la bande de fréquence UHF.
Alors que la télévision analogique transmet un seul programme par canal, la télévision numérique permet d’en diffuser six. Le chemin numérique “emprunté” par un film ou une émission est le suivant :

  1. création de la source audiovisuelle
  2. codage numérique de la source
  3. compression de la source
  4. multiplexage et transformation en analogique
  5. émission des chaînes en analogique
  6. réception des chaînes en analogique
  7. séparation des chaînes en numérique
  8. restitution de la source audiovisuelle

De nombreux procédés techniques, mis en lumière par ces différentes étapes, tels le multiplexage ou la compression (via la norme MPEG-2) permettent aujourd’hui à la TNT de se différencier de son ancêtre. Ces améliorations peuvent être de différents types :

  1. améliorations de l’offre visuelle
  2. améliorations techniques

L’amélioration de l’offre visuelle et sonore est due aux nouvelles techniques qui sont utilisées pour transmettre et compresser les programmes.
Les améliorations techniques sont reliées à la compression et au multiplexage, accroissant le nombre de chaines pouvant être diffusées tout en diminuant le spectre d’encombrement des fréquences. La compression vidéo utilise la norme MPEG-2, qui, pour schématiser, ne prend en compte que les zones modifiées par rapport à l’image de référence. On essaie ainsi de factoriser le plus possible l’information en s’affranchissant de redondances existant entre plusieurs images successives.
L’avantage est donc double : tout en augmentant l’offre audiovisuelle, on améliore l’utilisation des fréquences.

Avant de passer au tout numérique sur la télévision, il éxistait un protocole permettant de recevoir des chaines à l’aide de paraboles. Celles-ci permettaient de recevoir les informations depuis un satellite (Atlantic Bird 3 pour le réseau francais). Le système d’envoi de l’information reste le même que celui utilisé pour le TNT. Seuls les medium d’envoi et de réception sont différents.

Les systèmes satellitaires

Il existe trois grandes catégories de systèmes satellitaires définis sous les noms de LEOS, MEOS et GEOS (pour Low, Medium et Geostationary Earth Orbital Satellite). Les satellites sont situés respectivement à environ 1000, 13 000 et 36 000 km de la Terre.
Les deux premières catégories de satellite concernent les satellites défilants, et la dernière les satellites qui semblent fixes par rapport à la Terre géostatinnaires).

——————————————————
Pourquoi défilants ?

En réalité, l’orbite LEO est une orbite circulaire de basse altitude (entre 500 et 2 000 km). Cette proximité offre deux avantages : un temps de latence (temps que met à parcourir un signal) très court et une puissance réduite pour entrer en contact avec eux. (à l’inverse des satellites géostationnaires, où la puissance d’émission des terminaux doit être forte).
La période d’un satellite est de l’ordre de quelques centaines de minutes. Comme l’orbite est basse, la vitesse de défilement doit être très élevée afin de compenser l’attraction terrestre. Un satellite fait le tour de la Terre environ 14 fois par jour et sa couverture varie entre 3 000 à 4 000 km : un observateur terrestre n’aura la possibilité d’apercevoir le satellite que pendant environ 20 minutes : il défile alors sous l’observateur terrestre.

—————————————————–

La boucle locale satellite concerne l’accès d’un utilisateur, que ce soit par exemple une entreprise ou un particulier, au commutateur d’un opérateur employant un réseau terrestre. En d’autres termes, le satellite joue le rôle de boucle locale pour permettre à un utilisateur de se connecter à un opérateur.

Avantage : cette boucle locale est destinée aux clients isolés qui n’ont pas la possibilité d’utiliser une boucle locale terrestre. Les trois catégories de systèmes satellitaires peuvent jouer le rôle de boucle locale.

Les protocoles de la boucle locale satellite:

Les communications par l’intermédiaire d’un satellite ont des propriétés différentes de celles des réseaux terrestres. Par exemple, les erreurs se produisent de façon fortement groupée en réponse à des phénomènes physiques comme les éclairs magnétiques sur les antennes d’émission ou de réception.
Malgré ces particularités, ni les protocoles de niveau trame (couche 2), ni ceux de niveau paquet (couche 3) ont été normalisés pour l’utilisation dans le domaine satellite : il a fallu reprendre ceux existant pour les réseaux locaux et les adapter aux contraintes physiques propres au système satellite.

La boucle locale satellite exige des trames pour permettre aux récepteurs de retrouver les débuts et les fins des paquets transportés. Les paquets sont aujourd’hui de type IP, encapsulés dans des trames qui peuvent être de type ATM ou Ethernet : on parle alors de réseau satellite ATM ou Ethernet.

Une particularité des boucles locales satellite vient du défilement des satellites lors de l’utilisation d’un satellite basse altitude. Le client doit en effet changer de satellite au fur et à mesure du passage des satellites au dessus de sa tête. Ce changement s’appelle un handover satellite.
Il est également possible que les satellites défilants aient plusieurs antennes et que le terminal de l’utilisateur ait à effectuer un handover intrasatellite.
Ces handovers peuvent être de différents types, appartenant à deux grandes catégories : les soft-handover et les hard-handover. Le permier consiste à se connecter à la fois sur le satellite qui disparait et sur celui qui apparait; le passage se fait alors “en douceur”. Au contraire, dans le cas du hard-handover, le passage s’effectue brutalement, la communication devant ici passer d’un satellite à l’autre sans recouvrement.

Rédacteurs
DEPERIERS Vincent et EON Kevin élèves à l’École Centrale de Nantes, encadrés par SERVIERES Myriam, Maître de Conférences à l’École Centrale de Nantes.

Licence Creative Commons
Ce(tte) œuvre est mise à disposition selon les termes de la Licence Creative Commons Attribution – Pas d’Utilisation Commerciale – Pas de Modification 3.0 France.

Les protocoles de transmission sans fils

Ce projet a pour but d’étudier les différents protocoles sans fils d’aujourd’hui et de demain. Pour traiter ce sujet, nous allons rédiger cinq articles portant sur quelques aspects que nous avons jugés utiles et pertinents avant de conclure sur une synthèse et un rapport en fin de projet.

Nous sommes de nos jours entourés d’ondes électromagnétiques. Téléphone portable, satellite ou encore radio, depuis la fin du XIXèmesiècle, l’échange d’information sans fils est omniprésente et ne cesse de gagner en popularité, nomadisme des consommateurs oblige. Aujourd’hui, de nombreuses technologies sans fils standardisées ont fait leur apparition, sans qu’aucune d’entre elles ne soit réellement parfaite. Bien souvent, les technologies présentes sur le marché sont toujours caractérisées par un équilibre entre différents facteurs telles la portée, le débit ou encore la fiabilité. De plus, celles-ci utilisent des bandes de fréquences différentes; par exemple, la radiodiffusion concerne la bande de fréquences 88-108 MHz alors que la technologie de guidage par satellite (GPS) est centrée autour de 1.6 GHz : consulter les gammes de fréquences.

Bien souvent, lorsque l’on parle de transmission sans fils, l’inconscient collectif pense tout de suite à la technologie Wi-Fi. La TECHNOLOGIE Wi-Fi (n’est en fait qu’un ensemble de PROTOCOLES régi par des NORMES de groupe (IEEE 802.11 dans ce cas) qui permet la création d’un réseau sans fils.
Bien que le sujet porte sur l’étude des protocoles sans fils, nous avons choisi, dans une optique de présentation de ceux-ci, d’élargir le sujet aux technologies sans fils. Par exemple, il sera davantage aisé d’expliquer le fonctionnement du protocole DSSS sur couche Physique en présentant la technologie Wi-Fi qui lui est associée.

Afin de couvrir un ensemble suffisamment important de domaines inhérents au concept du “wireless”, nous avons décidé, dans un premier article, de passer en revue toutes les technologies sans fils s’appliquant aux medium d’information existants : Typologie des réseaux sans fils .
Dans un second article, nous nous focaliserons sur les technologies s’appliquant aux mobiles : GSM, 2G/2.5G/3G/4G, Bluetooth et technique de communication en champ proche (NFC).
Devant l’extrême popularité du Wi-Fi, nous dédierons notre troisième article à la présentation de cette technologie, en faisant le point sur les notions de normes, protocoles associés et modes de mise en réseau.
Nous irons plus en profondeur dans un quatrième article où nous étudierons un protocole en particulier sur couche physique ou sur la couche de liaison des données. Nous pourrons par exemple aborder les différents types de codage de l’information au niveau physique. Nous tenterons alors d’incorporer le protocole décrit au sein du modèle OSI (d’un point de vue théorique). A cette partie théorique sera associée une partie “physique” où nous présenterons les différents matériels mis en jeu dans la pleine compréhension de la technologie Wi-Fi.
Dans un dernier article, nous verrons, aussi bien au travers de l’amélioration de technologies déjà connues telles le Bluetooth qu’au travers de l’emergence de nouveaux concepts comme la virtualisation de réseau que les solutions demeurent nombreuses dans le domaine des technologies sans fil et des réseaux en général.

Plan d’attaque :

1. Les technologies de l’information

  • La radio
  • La télévision Hertzienne + TNT
  • Le satellite

2. Les technologies pour mobiles

  • GSM, technologies 2G/2.5G/3G et 4G, Bluetooth
  • Communication en champ proche : NFC

3. la technologie Wifi

  • Normes, protocoles
  • modes de mise en réseau : ad hoc, infrastructure

4. Étude d’un protocole

  • Couche physique ou couche de liaison (à décider)
  • Implémentation dans le modèle OSI
  • Types de matériels mis en jeu

5. Quel futur pour les liaisons sans-fil ?

  • Exemple d’amélioration du transfert des données : le “multi-gigabit communication module”
  • L’OAM, l’avenir des réseaux sans fil ?
  • Virtualisation de réseau
  • Les réseaux autonomiques

Rédacteurs
DEPERIERS Vincent et EON Kevin élèves à l’École Centrale de Nantes, encadrés par SERVIERES Myriam, Maître de Conférences à l’École Centrale de Nantes.

Licence Creative Commons Continue reading