Quel futur pour les liaisons sans-fil ?

Dans ce dernier article de notre étude portant sur les protocoles de transmission sans fil, nous avons choisi d’évoquer les innovations, technologies et concepts qui feront, potentiellement, les réseaux de demain. Nous allons en premier lieu évoquer un exemple d’amélioration de transfert des données à travers la technologie Bluetooth. Nous parlerons ensuite d’une petite révolution scientifique qui risque, si elle aboutit, d’apporter une importante plus-value dans la transmission des informations par radio, permettant d’exploiter sur une même fréquence une multitude de canaux. Nous terminerons notre étude par un bref tour d’horizon de la technique de virtualisation appliquée aux réseaux, qui, touche aujourd’hui une multitude de secteurs et concerne un grand nombre d’acteurs tels les entreprises de télécommunication, les FAI, les SSII, les sociétés de e-commerce ou encore les sociétés de maintenance.

Attention toutefois! nous présentons ici des innovations qui, pour certaines, relèvent du domaine de l’actualité récente, et qui par conséquent sont susceptibles de ne pas aboutir !

Vers une révolution du transfert de données ?

Aujourd’hui, si les caméras numériques sont capables d’enregistrer des contenus vidéo de plusieurs gigaoctets (films en haute définition), les transferts de données (via Bluetooth ou USB par exemple) ne sont pas la hauteur. Quel est alors l’intérêt d’avoir des outils d’acquisition de plus en plus performants si la capacité pour transmettre ces données demeure insuffisante ?

Afin de pallier cette carence, des chercheurs de l’institut de Fraunhofer (Dresde – Allemagne) ont étudié et envisagé une alternative intéressante.

Au travers des articles précédents, nous avons vu que les connexions sans fil telles le Wi-fi (idem pour le Bluetooth), bien que très répandues, ne permettent pas de transférer des fichiers lourds, sinon en un temps qui pourrait sembler rédhibitoire. Nous avons même avancé que l’alternative Wi-fi par rapport au câble est une solution à modérer (en terme de performance notamment) si la possibilité d’utiliser une connexion Ethernet était envisageable. Las de cet état de fait, les chercheurs ont présenté devant leurs pairs un module infrarouge baptisé “Multi-Gigabit Communication Module” (MGCM), permettant un transfert de données à 1Go/s, vitesse jusque là inégalée par une technologie sans-fil. Ce transfert de données permet en outre de dépasser le débit traditionnel affiché par le câble USB2, allant jusqu’à six fois plus vite.

Réduire au maximum le temps de traitement

L’idée, bien que secrète, réside dans la construction du module infrarouge. En effet, dans un transfert de données, la nécessité de coder puis de décoder l’information (cf. votre cours de réseau) ralentit toujours l’opération. Le challenge consiste donc à élaborer un petit module infrarouge dont le hardware comme la base logicielle soient extrêmement rapides, afin de pouvoir coder puis décoder les données en signaux infrarouges. Dans cette quête d’optimisation, les chercheurs se sont notamment basés sur l’utilisation d’un émetteur-récepteur optique, capable d’émettre et de recevoir des signaux lumineux simultanément. Afin d’éviter la multiplication des erreurs, la proximité de l’émetteur et du receveur est primordiale.

Cette trouvaille technologique, bien que prometteuse, est désormais entre les mains des fabricants qui doivent accepter cette technologie comme technologie de référence.

Source : http://www.techniques-ingenieur.fr/actualite/informatique-electronique-telecoms-thematique_193/revolutionner-le-transfert-de-donnees-article_75789/?utm_source=ABO&utm_medium=alerte&utm_campaign=tiThematique_193

Grâce à l’OAM, la capacité des réseaux sans fil va-t-elle exploser ?

Comme vous le savez tous, il suffit d’essayer d’envoyer plusieurs SMS à minuit le 1er Janvier pour se rendre compte du problème de l’engorgement des bandes de fréquence. En outre, la multiplication des smartphones, la mise en place de la TNT (article 2) et autres contribuent à une saturation grandissante des bandes de fréquences radio. Or, la seule possibilité pour augmenter la capacité de transmission aujourd’hui consiste à élargir les bandes de fréquence! La méthode, on l’a vu, trouve ses limites, quand, à force d’inflation, ces bandes réservées à différents utilisateurs (3G, militaire, aéronautique…) menacent de se superposer.

Depuis quelque temps, des scientifiques planchent sur un autre procédé pour moduler des ondes radio, un peu comme si l’on exploitait une dimension supplémentaire. Longtemps restée une possibilité théorique, les chercheurs ont réalisé une véritable transmission radio. Cette innovation permettrait, entre autres, de rendre possible le visionnage de vidéos en 3D et HD sur smartphones.

Comment ont-ils fait ?

En fait, la forme de l’onde est générée par une antenne hélicoïdale parabolique. L’onde est enroulée autour de son axe plusieurs fois dans le sens des aiguilles d’une montre et représentées en 3D, ces ondes ressemblent fortement à des pâtes de blé torsadées, comme des fusilli. Les chercheurs précisent en réalité que la technique envisagée n’est pas difficile en soit, mais repose sur une conception, une vision différente du regard porté sur les lois physiques de base. Cette technique repose sur un phénomène de physique quantique appelé moment angulaire. Les photons, vecteurs des ondes électromagnétiques, peuvent en effet présenter un moment angulaire (Moment cinétique orbital) supplémentaire appelé moment angulaire orbital (OAM), outre leur moment intrinsèque, communément appelé spin. Les ondes paraissent en fait tourner sur elles-mêmes.

Dans un même faisceau, de fréquence unique f, plusieurs photons peuvent présenter des OAM différents. Si on parvient à moduler indépendamment plusieurs ondes présentant des OAM différents, on peut encoder autant de signaux. Il devient alors possible de créer plusieurs canaux sur une même bande de fréquence. La clef du système repose donc sur l’exploitation de cette notion découverte dans les années 1930 sur le plan théorique, mais longtemps restée hors de portée des technologies. Depuis quelques années, les chercheurs commencent à savoir le maîtriser et donc à le moduler.

Pour expérimenter cette théorie, les chercheurs ont effectué une démonstration publique devant 2.000 personnes… à Venise, une ville idéale pour présenter une multiplication des canaux. L’endroit a été choisi pour des raisons historiques : c’est là que Guglielmo Marconi a effectué plusieurs expériences de radio-transmission entre Venise et son yacht, l’Elettra.

Franchissant 442 mètres, l’émission a transmis un faisceau d’« ondes fusilli » sur une unique bande de fréquence étroite, à 2,414 GHz mais avec deux canaux. L’une des ondes était « tordue » et l’autre présentait un OAM nul. Entre l’île de San Giorgio et le palais des Doges, l’antenne de réception a pu capter les deux flux d’ondes, l’une transportant l’image de barres colorées, l’autre de la baie. Il a suffi, pour passer de l’une à l’autre, de bouger la petite antenne du récepteur : voir la vidéo de l’expérience.

Lorsqu’on l’interroge sur l’avenir de cette découverte, Fabrizio Tamburini, (l’auteur de cette trouvaille) dit y croire vraiment. Il indique même qu’un brevet a déjà été déposé et que plusieurs entreprises souhaitent investir dans le développement de ces recherches.

Source : http://iopscience.iop.org/1367-2630/14/3/033001/article

Virtualisation de réseau

Dans cette partie, nous allons examiner la virtualisation de réseau, qui tend à se généraliser après la virtualisation des serveurs ou encore le Cloud. Les raisons de la révolution en cours vers l’après IP proviennent des faiblesses actuelles du monde IP concernant la sécurité, la consommation énergétique et les communications avec les mobiles. La virtualisation, dans cette politique de révolution, est sans conteste le premier atout de cette nouvelle génération.

La virtualisation n’est pas une technique neuve, puisqu’elle a été introduite sur les premiers gros ordinateurs, qui utilisaient une mémoire virtuelle. Un certain nombre de mécanismes ont été implémentés avec cette solution afin que l’utilisateur ait l’impression que les services dont il a besoin sont situés sur une machine à proximité, alors qu’ils se trouvent en réalité sur une machine distante.

La virtualisation de serveurs a connu un gros succès en permettant de regrouper plusieurs serveurs sur une machine unique, l’utilisateur, une nouvelle fois, ayant l’impression de ne disposer que d’un seul serveur. La virtualisation de réseau tient en réalité du même principe : plusieurs réseaux virtuels se partagent une même infrastructure physique.

La virtualisation de réseau a été lancée par un projet américain appelé GENI dans lequel Intel proposait de construire un routeur uniquement constitué de sa partie matérielle, sans aucun système d’exploitation réseau. Ainsi, les éditeurs de logiciel n’avaient plus qu’à implémenter leurs OS respectifs sur une même machine à l’aide d’un hyperviseur :

Structure routeur virtuel

Source: http://www.lemagit.fr

Un routeur virtuel n’est donc qu’uns instance d’un routeur physique (au même titre qu’un processus est une instance de programme) et l’analogie peut se poursuivre car plusieurs routeurs, à l’image des processus, peuvent s’éxécuter en même temps sur un même routeur physique. Il est alors possible de déployer plusieurs réseaux (appelés réseaux virtuels) sur un même réseau physique.

Un réseau virtuel A peut être réalisé à partir des routeurs virtuels avec l’OS A, idem pour un réseau virtuel B … L’idée se cachant derrière est que chaque instance d’un même routeur physique peut employer des protocoles différents, et ainsi générer autant de réseaux différents (à l’image des processus qui ont tous un PCB distinct les uns des autres).

Quels en sont les avantages et les utilisations potentielles ?

En réalité, ils sont nombreux! Le premier auquel on pense est qu’il est, par définition, tout à fait possible de faire tourner sur le même réseau physique des réseaux virtuels utilisant des technologies complètement différentes. (il est aussi possible de faire tourner plusieurs “releases” différentes d’un même système d’exploitation réseau!).

Le second avantage de la virtualisation réseau réside dans l’utilisation des ressources. En effet, les ressources peuvent être largement mieux utilisées en mettant en marche et en arrêtant des routeurs virtuels ou encore en les déplaçant pour en désengorger un; si un routeur est trop chargé, il est ainsi possible de déplacer un ou plusieurs routeurs virtuels vers d’autres routeurs physiques.

Deux types d’utilisation peuvent être faits de la virtualisation de réseaux:

  • plusieurs réseaux virtuels à l’intérieur d’une même entreprise peuvent coexister, ce qui permettrait de créer un réseau virtuel pour la téléphonie, un autre pour la télésurveillance, les vidéoconférences…
  • plusieurs réseaux virtuels d’opérateurs différents peuvent aussi se partager les mêmes ressources physiques et permettre une baisse des coûts.

La technologie de virtualisation, bien que très intéressante au niveau réseau, est également envisageable pour virtualiser d’autres équipements et logiciels que les seuls routeurs. En fait, les points d’accès (cf. article 3) eux-mêmes peuvent être virtualisés. Il suffit, comme pour les routeurs, d’introduire un hyperviseur soutenant plusieurs OS. Chaque point d’accès virtuel possède ainsi ses propres logiciels de gestion et de contrôle et est indépendant: il peut donc représenter un opérateur!

Il est aussi possible de virtualiser les antennes 2G et 3G (BTS et NodeB) et de partager les antennes virtuelles entre différents opérateurs.

Conclusion

On l’a vu, la virtualisation est une technique importante qui permet d’introduire de nouvelles technologies sans douleur sous forme de réseaux virtuels particuliers. Elle reste intéressante car il devient possible de tester sur un réseau de nouvelles architectures sans prendre de risque.

Il existe aujourd’hui d’autres innovations/concepts associés au monde du réseau qui commencent à émerger, notamment l’intelligence. Cette intelligence englobe la communication, le raisonnement et la décision. Les systèmes multiagents fournissent le socle principal de cette intelligence qui permet de prendre des décisions de contrôle ou de gestion lorsqu’il en est temps. Nous n’en sommes qu’aux prémices, et pourtant l’intelligence est omniprésente depuis le début des années 2010. La sécurité est un des premiers bénéficiaires de cette intelligence. Par exemple, un composant intelligent, de type réseau de neurones, est capable d’analyser la saisie d’une personne sur un clavier et d’arrêter la communication en cas de saisie non reconnue.

L’intelligence dans les réseaux est donc un vaste champ de recherche, qui devrait déboucher sur l’implémentation de beaucoup plus d’intelligence dans les équipements de réseau tels que routeurs, pare-feu et autres équipements intermédiaires.

Rédacteurs

DEPERIERS Vincent et EON Kevin élèves à l’École Centrale de Nantes, encadrés par SERVIERES Myriam, Maître de Conférences à l’École Centrale de Nantes.

Licence Creative Commons
Cette œuvre est mise à disposition selon les termes de la Licence Creative Commons Attribution – Pas d’Utilisation Commerciale – Pas de Modification 3.0 France.

Les protocoles de transmission sans fils

Ce projet a pour but d’étudier les différents protocoles sans fils d’aujourd’hui et de demain. Pour traiter ce sujet, nous allons rédiger cinq articles portant sur quelques aspects que nous avons jugés utiles et pertinents avant de conclure sur une synthèse et un rapport en fin de projet.

Nous sommes de nos jours entourés d’ondes électromagnétiques. Téléphone portable, satellite ou encore radio, depuis la fin du XIXèmesiècle, l’échange d’information sans fils est omniprésente et ne cesse de gagner en popularité, nomadisme des consommateurs oblige. Aujourd’hui, de nombreuses technologies sans fils standardisées ont fait leur apparition, sans qu’aucune d’entre elles ne soit réellement parfaite. Bien souvent, les technologies présentes sur le marché sont toujours caractérisées par un équilibre entre différents facteurs telles la portée, le débit ou encore la fiabilité. De plus, celles-ci utilisent des bandes de fréquences différentes; par exemple, la radiodiffusion concerne la bande de fréquences 88-108 MHz alors que la technologie de guidage par satellite (GPS) est centrée autour de 1.6 GHz : consulter les gammes de fréquences.

Bien souvent, lorsque l’on parle de transmission sans fils, l’inconscient collectif pense tout de suite à la technologie Wi-Fi. La TECHNOLOGIE Wi-Fi (n’est en fait qu’un ensemble de PROTOCOLES régi par des NORMES de groupe (IEEE 802.11 dans ce cas) qui permet la création d’un réseau sans fils.
Bien que le sujet porte sur l’étude des protocoles sans fils, nous avons choisi, dans une optique de présentation de ceux-ci, d’élargir le sujet aux technologies sans fils. Par exemple, il sera davantage aisé d’expliquer le fonctionnement du protocole DSSS sur couche Physique en présentant la technologie Wi-Fi qui lui est associée.

Afin de couvrir un ensemble suffisamment important de domaines inhérents au concept du “wireless”, nous avons décidé, dans un premier article, de passer en revue toutes les technologies sans fils s’appliquant aux medium d’information existants : Typologie des réseaux sans fils .
Dans un second article, nous nous focaliserons sur les technologies s’appliquant aux mobiles : GSM, 2G/2.5G/3G/4G, Bluetooth et technique de communication en champ proche (NFC).
Devant l’extrême popularité du Wi-Fi, nous dédierons notre troisième article à la présentation de cette technologie, en faisant le point sur les notions de normes, protocoles associés et modes de mise en réseau.
Nous irons plus en profondeur dans un quatrième article où nous étudierons un protocole en particulier sur couche physique ou sur la couche de liaison des données. Nous pourrons par exemple aborder les différents types de codage de l’information au niveau physique. Nous tenterons alors d’incorporer le protocole décrit au sein du modèle OSI (d’un point de vue théorique). A cette partie théorique sera associée une partie “physique” où nous présenterons les différents matériels mis en jeu dans la pleine compréhension de la technologie Wi-Fi.
Dans un dernier article, nous verrons, aussi bien au travers de l’amélioration de technologies déjà connues telles le Bluetooth qu’au travers de l’emergence de nouveaux concepts comme la virtualisation de réseau que les solutions demeurent nombreuses dans le domaine des technologies sans fil et des réseaux en général.

Plan d’attaque :

1. Les technologies de l’information

  • La radio
  • La télévision Hertzienne + TNT
  • Le satellite

2. Les technologies pour mobiles

  • GSM, technologies 2G/2.5G/3G et 4G, Bluetooth
  • Communication en champ proche : NFC

3. la technologie Wifi

  • Normes, protocoles
  • modes de mise en réseau : ad hoc, infrastructure

4. Étude d’un protocole

  • Couche physique ou couche de liaison (à décider)
  • Implémentation dans le modèle OSI
  • Types de matériels mis en jeu

5. Quel futur pour les liaisons sans-fil ?

  • Exemple d’amélioration du transfert des données : le “multi-gigabit communication module”
  • L’OAM, l’avenir des réseaux sans fil ?
  • Virtualisation de réseau
  • Les réseaux autonomiques

Rédacteurs
DEPERIERS Vincent et EON Kevin élèves à l’École Centrale de Nantes, encadrés par SERVIERES Myriam, Maître de Conférences à l’École Centrale de Nantes.

Licence Creative Commons Continue reading