Lorsqu’on évoque les enjeux liés à la 5G, on cite généralement l’implantation d’un grand nombre d’antennes ou la nécessité de disposer de terminaux compatibles. Mais on oublie souvent un aspect crucial des réseaux mobiles : l’infrastructure de fibre optique sur laquelle ils reposent. À l’instar des précédentes générations, la 5G ne peut s’affranchir d’une connexion filaire dans la plupart des cas. En effet, la technologie intervient également au niveau du « dernier kilomètre ». Elle permet ainsi de relier les antennes aux équipements du cœur de réseau, qui fait le lien avec l’ensemble des machines connectées dans le monde. Elle peut également servir à relier divers dispositifs au sein d’un même site antennaire.
En réalité, la 5G dépend plus fortement encore de cette infrastructure que ses aînées. Car la technologie de nouvelle génération s’accompagne de nouvelles exigences, liées notamment aux nouveaux usages, tels que l’Internet des objets (IoT). Par exemple, une application comme la voiture autonome nécessite une disponibilité élevée, une fiabilité irréprochable, une latence très faible, etc. Autant de contraintes qui pèsent sur l’ensemble de l’architecture, y compris sur la fibre optique. Si dans le dernier kilomètre, celle-ci ne parvient pas à s’adapter aux nouvelles demandes, c’est donc toute la promesse de la 5G qui sera remise en cause. Et les nouveaux services (industrie 4.0, ville connectée, téléchirurgie…) ne pourront simplement pas être fournis de façon fiable et sécurisée.
Faciliter le pilotage des réseaux grâce à une meilleure interopérabilité
Aujourd’hui, le réseau optique est généralement surdimensionné par rapport aux besoins moyens actuels en débit. Il est en effet conçu pour pouvoir absorber les pics de charge en 4G, et n’est donc ni optimisé, ni capable de s’adapter intelligemment à une demande variable. La nouvelle donne, induite par la 5G, représente alors aussi bien une menace sur l’infrastructure quant à sa capacité à répondre aux nouveaux enjeux, qu’une opportunité de revoir sa gestion.
Isabel Amigo et Luiz Anet Neto, chercheurs à IMT Atlantique en télécommunications, mènent des travaux dans ce domaine, conjointement avec une équipe de chercheurs et de doctorants. Leur objectif : rendre les réseaux optiques plus flexibles, intelligents et indépendants des systèmes propriétaires imposés par les constructeurs. Une tendance dans laquelle s’inscrivent de plus en plus les opérateurs. « Chez Orange, auparavant, il était courant de rencontrer des spécialistes des syntaxes de configuration et de la gestion d’équipements propres à un ou deux équipementiers uniquement », explique Luiz Anet Neto, qui a travaillé pendant cinq ans au sein du groupe français. « À présent, les équipes commencent à mettre en place une « couche de traduction », transformant les différentes configurations, spécifiques à chaque fabricant, en un langage commun, plus simple et abstrait. »
Cette « couche de traduction », sur laquelle travaillent conjointement les chercheurs, porte le nom de SDN, pour Software-Defined Networking. Traduction : réseau défini par le logiciel. Ce modèle, déjà utilisé sur la partie sans fil du réseau, consiste à décharger de certaines fonctions les équipements réseau. Traditionnellement, ceux-ci assurent plusieurs missions : le traitement des données (réception et renvoi des paquets vers la destination), mais aussi une série de tâches de contrôle (protocoles de routage, interfaces de transmission…). Avec le SDN, les équipements se voient exemptés de ces tâches de contrôle, qui sont centralisées au sein d’une entité « chef d’orchestre », capable de contrôler plusieurs dispositifs à la fois.
Une telle approche possède de multiples bénéfices. Elle offre ainsi une vision globale du réseau, alors plus facile à piloter, tout en permettant de contrôler tous les équipements, quel que soit leur fabricant, sans avoir besoin de connaître un quelconque langage propriétaire. « Pour bien comprendre l’apport d’un SDN, on peut procéder par analogie avec les ordinateurs », avance Isabel Amigo. « Aujourd’hui, il paraîtrait inconcevable d’avoir un ordinateur qui ferait tourner uniquement des applications utilisant un langage spécifique. Les machines possèdent donc une couche supplémentaire, le système d’exploitation, qui s’occupe de « traduire » les différents langages, mais aussi de gérer les ressources, la mémoire, les disques… Le SDN vise ainsi à agir à la façon d’un système d’exploitation, mais pour le réseau. » De la même manière, il s’agit donc de pouvoir y installer des applications, en mesure de fonctionner sur tout équipement, quel que soit le fabricant du matériel. Ces applications pourraient, par exemple, répartir la charge en fonction de la demande.
S’affranchir de la dépendance aux constructeurs de matériel
Le SDN va souvent de pair avec un autre concept, inspiré de la virtualisation dans les data centers : la NFV (Network Functions Virtualization, ou « Virtualisation des fonctions réseau »). Son principe : pouvoir exécuter toute fonctionnalité réseau (pas uniquement de contrôle) sur des serveurs génériques, via des applications logicielles. « Habituellement, ces fonctions nécessitent d’avoir un équipement dédié », décrit la chercheuse d’IMT Atlantique. « Par exemple, si on souhaite disposer d’un pare-feu, il faut acheter un appareil spécifique chez un fournisseur. Avec la NFV, ce n’est plus nécessaire : on peut implémenter la fonction sur n’importe quel serveur, via une application. »
Au même titre que le SDN, l’apparition de la virtualisation dans les réseaux optiques encourage une meilleure interopérabilité. Les constructeurs peuvent moins imposer leurs systèmes propriétaires, liés à leurs équipements. Le marché tend ainsi à évoluer, en laissant davantage de place aux développeurs de logiciels. « Il reste cependant du chemin », tempère Luiz Anet Neto. « Les éditeurs peuvent, eux aussi, chercher à rendre leur clientèle captive, via des systèmes fermés. Ce sera aux opérateurs de rester vigilants et de proposer de plus en plus d’interopérabilité. »
C’est notamment dans cet objectif que ces acteurs collaborent avec le monde académique. Ils bénéficieraient en effet pleinement d’une normalisation, qui simplifierait la gestion de leurs réseaux optiques. Les tests réalisés en laboratoire par les chercheurs d’IMT Atlantique, en partenariat avec Orange, leur donnent ainsi des éléments techniques et des pistes à explorer, en vue de leurs échanges avec les fabricants et les organismes de standardisation.
La 6G déjà en point de mire
Du côté des équipes de recherche, les axes de développement sont nombreux. En premier lieu, les scientifiques visent à renforcer la démonstration de l’utilité de leurs travaux, via des tests autour d’un service spécifique 5G (jusqu’ici, les expérimentations ne s’appliquaient pas à une application en particulier). Avec l’objectif d’aboutir à des préconisations sur le dimensionnement des liens optiques connectant les équipements du réseau mobile.
Ensuite, il s’agirait de se rapprocher d’une optimisation intelligente des réseaux optiques. Aujourd’hui, à titre d’exemple d’application des résultats obtenus par les chercheurs d’IMT Atlantique, il est possible d’ajouter une « sonde » qui détermine si un chemin est surchargé et de basculer certains services vers un autre lien, le cas échéant. L’idée serait désormais d’approfondir la modélisation mathématique des phénomènes rencontrés, afin d’automatiser la résolution d’incidents, via des algorithmes d’intelligence artificielle.
Enfin, il est déjà temps de se tourner vers l’avenir de la technologie. « Les réseaux mobiles se renouvellent à un rythme effréné, les générations se succédant tous les dix ans », note Luiz Anet Neto. « Il faut donc déjà réfléchir à la façon de répondre aux futures exigences de la 6G ! »