Pourquoi la 5G gonflera notre consommation d’énergie

Shanghai Chine

Shanghai, Chine. ©Yann Arthus-Bertrand
Les nouveaux usages de la 5G vont nécessiter de traiter beaucoup de données – en plus de les transmettre.
Sashkin / Shutterstock

Alain CAPPY, Université de Lille

Les débats autour de l’attribution des fréquences de la cinquième génération de téléphonie mobile (5G) inondent les pages de nos journaux, mais les conséquences de son introduction sur la consommation d’énergie ne sont pratiquement pas discutées. Les nouveaux usages permis par la 5G, comme les communications de masse entre machines, par exemple la « maison intelligente » ou la « ville intelligente », vont de facto augmenter les flux de données transmis.

L’analyse de la consommation énergétique ne doit donc pas être restreinte à celle de la 5G elle-même qui ne concerne que la partie transmission des informations : elle doit prendre en compte le traitement des données qui sont transmises.

La 5G : transmission et traitement des informations

La 5G est un standard de communication qui permet la transmission d’informations entre un émetteur et un récepteur, qui peuvent être mobiles, grâce à des ondes électromagnétiques radiofréquences. Un standard définit à la fois les aspects matériels (antennes, terminaux) et logiciels (modulation, mode d’accès au réseau) qui permettent ce transfert. À ce standard sont associés un certain nombre de critères de performances, comme le débit des informations qu’il est possible d’échanger, ou la vitesse à laquelle un terminal se connecte au réseau. Ces critères sont sensiblement améliorés lorsque l’on passe de la technologie 4G à la 5G avec, par exemple, des débits attendus d’information de plusieurs gigabits par seconde.

Mais la transmission des données est toujours associée, dans l’appareil émetteur et dans l’appareil récepteur, à leur traitement. Quand nous prenons une photo ou une vidéo avec un téléphone, les images sont codées et transmises par le téléphone, via différents modes de communication (radio, fibre optique…), vers un récepteur. Le récepteur, par exemple le serveur d’un réseau social, va lui-même traiter les images pour les insérer dans une page web, ou les mémoriser, ou encore les renvoyer vers d’autres utilisateurs. L’augmentation des débits possibles permis par de nouveaux canaux de communication va donc inévitablement s’accompagner d’une augmentation du nombre des données qui devront être traitées.

Alors que la question de la consommation d’énergie des terminaux fixes (ordinateurs, serveurs…) ou mobiles (téléphones, tablettes) qui effectuent ce traitement n’est que peu abordée, elle représente bien plus de 50 % de la consommation d’énergie.

Le traitement électronique de l’information

Alan Turing vers 1938.
Wikipedia

Quel que soit l’appareil utilisé, c’est un (micro)processeur qui effectue la fonction de traitement. Tous ont la même architecture et tous fonctionnent selon le même principe, proposé par le génial mathématicien Alan Turing en 1936 (c’est-à-dire bien avant l’invention des ordinateurs) et adapté aux dispositifs électroniques par John Von Neumann en 1945.

Les premiers processeurs sont apparus au début des années 70, et pendant près de 40 ans, la progression de leurs performances a été extraordinaire, avec un doublement tous les 18 mois environ. Cette progression exponentielle, quelquefois appelée loi de Moore, a permis l’« électronisation » de la société et l’avènement de l’internet. Cependant, pour des raisons physiques assez fondamentales, cette progression est aujourd’hui terminée et la fin de la « loi de Moore » est aujourd’hui bien admise. Les performances des processeurs ont donc atteint leurs limites et nous ne pouvons pas nous attendre à une amélioration sensible dans les années futures de la rapidité de calcul ou de la consommation d’énergie. Cette limitation des performances s’applique à tous les processeurs, que ce soient ceux de nos ordinateurs, de nos téléphones portables ou des serveurs des géants de l’internet.

L’inefficacité énergétique des processeurs

Le problème est que l’efficacité énergétique actuelle de nos processeurs est très mauvaise, et ceci pour deux raisons fondamentales.

La première est que les bits, c’est-à-dire les 0 et les 1 qui codent les informations, sont représentés dans le processeur par des charges électriques. Or ces charges se déplacent sans cesse pour produire des courants électriques entre les différentes parties du circuit. Or ce mouvement ne peut se faire sans dissipation de chaleur : c’est la fameuse loi de Joule.

Un microprocesseur
Un microprocesseur Athlon de la compagnie AMD.
David W. Smith/Wikimedia, CC BY

La seconde résulte d’une caractéristique des machines de Turing, et donc de nos ordinateurs, qui est le traitement en « série » des informations. Comme le processeur ne traite qu’une opération à la fois, la vitesse du traitement doit être très rapide. Or, les dispositifs électroniques constituant le processeur ne peuvent à la fois travailler vite et consommer peu. Ce dilemme rapidité-puissance est similaire à la vidange d’un réservoir : pour le vider très vite, il faut un grand débit. C’est la même chose dans un circuit électronique : il faut un courant important et la chaleur générée par effet Joule augmente. Les processeurs consomment donc une puissance électrique variant de quelques dizaines à plus d’une centaine de watts. Cette puissance se transforme essentiellement en chaleur : un processeur est avant tout un radiateur électrique.

Pour illustrer la mauvaise efficacité énergétique de nos processeurs, prenons deux exemples emblématiques.

En 2016, le programme AlphaGo a battu le champion du monde du jeu de Go, Lee Sedol. De façon assez remarquable, AlphaGo ne contient au départ aucune connaissance spécifique sur le Go, son algorithme repose sur des réseaux de neurones et ses coups résultent essentiellement d’un apprentissage. Cette victoire impressionnante d’AlphaGo repose sur une formidable puissance de calcul constituée de près de 1400 processeurs, nécessitant une puissance électrique de plusieurs centaines de kilowatts. À l’inverse, Lee Sedol n’a utilisé qu’environ 20 ou 30 watts pour réfléchir et jouer, soit 10 000 moins qu’AlphaGo. D’un point de vue énergétique, la compétition était donc assez, injuste, un peu comme celle d’une course de vitesse entre un humain et une voiture de Formule 1.

Un autre exemple est celui du véhicule autonome, technologie qui, selon certains, serait « boostée » par la 5G. Rendre autonome un véhicule nécessite une puissance de calcul considérable, constituée de plusieurs dizaines de processeurs qui nécessitent pour leur fonctionnement, une puissance électrique de plusieurs kilowatts (de 3 à 5 kilowatts). Ainsi, un véhicule électrique autonome utilise une part significative de l’énergie de ses batteries pour traiter de l’information alors que ce traitement est « gratuit » lorsque le véhicule est conduit par un humain. Par exemple, pour faire avancer une voiture sur 100 km, il faut environ 12-15kWh. Si le véhicule parcourt cette distance en deux heures, la puissance nécessaire au calcul sera de 6 à 10 kWh. Plus la vitesse de la voiture est basse, plus la puissance de calcul prend de l’importance, proportionnellement. C’est assez paradoxal !

Favoriser une technologie énergivore comme celle des véhicules autonomes à grande échelle constitue donc un non-sens écologique et va à l’encontre des engagements de sobriété énergétique et d’émission de CO2 prévus dans l’accord de Paris.

« Intelligence » et énergie

Nous voyons donc bien que toutes les applications gourmandes en calculs et en particulier toutes celles se réclamant « intelligentes » (intelligence artificielle, ville intelligente, capteurs intelligents, etc.) sont en fait des gouffres énergétiques, car le caractère « intelligent » de ces applications ne résulte en fait que d’une grande puissance de calcul. Il y a aujourd’hui une profonde confusion entre « intelligence » et « puissance de calcul » comme l’ont montré Jeff Hawkins et Sandra Blakeslee dans « Intelligence : comment une compréhension nouvelle du cerveau conduira à la création de machines véritablement intelligentes ». La communauté scientifique commence d’ailleurs à s’intéresser à la question de la consommation énergétique de l’intelligence artificielle, en particulier dans le cas des nombreuses applications utilisant l’apprentissage profond ou deep learning.

Ainsi, la multiplication des usages et des données à traiter, permise avec une nouvelle technologie de communication comme la 5G, ne peut donc qu’augmenter la consommation électrique globale de la chaîne « transmission + traitement » en raison de l’inefficacité énergétique de la partie traitement.

Que faire ? Face à la mauvaise efficacité énergétique actuelle de nos systèmes de traitement, nous pouvons agir dans deux directions : à court terme, encourager l’innovation frugale ou parcimonieuse, c’est-à-dire ajouter la contrainte d’une utilisation limitée de ressources matérielle et énergétique lors de tout processus d’innovation, ce qui de facto limite les applications qui génèrent le traitement de grandes quantités de données, et, à plus long terme proposer de nouveaux paradigmes du traitement de l’information, plus efficaces en énergie, par exemple ceux s’inspirant du fonctionnement du cerveau.The Conversation

Alain CAPPY, Professeur émérite en électronique, Université de Lille

Cet article est republié à partir de The Conversation sous licence Creative Commons. Lire l’article original.

Pour en lire davantage sur la 5G : Nicolas Bérard, auteur de 5G mon amour : « les ondes sont un danger très facile à oublier : elles ne se voient pas, elles ne s’entendent pas, elles ne se sentent pas et elles ne se touchent pas »

4 commentaires

Ecrire un commentaire

    • Bousquet

    Bonjour, Pour information, mon I Phone est un vieux téléphone en bakélite avec une tête d’ail posée dessus. Je n’ai pas de portable ou autre mobile et, encore moins de tablette. Mon seul « ami » (non piratable, non observable à distance comme vos Huwei chers à ce président chinois) est un stylo-plûme de marque que m’ont offert mes deux enfants.
    Et lorsque je l’utilise – si j’éternue – j’ai l’assurance que Mr Poutine ne me dira pas  » à vos souhaits », Mr chinois (il a un nom inécrivable) ne dira pas « merci » et Mr Macron ne m’offrira de mouchoir.
    Là, ma liberté d’expression , ma liberté d’observer la nature et ce monde qui nous entoure, ne feront pas l’objet de critiques de la part de sinistres inconnus du bout du monde.

    • Bousquet

    Ah ? J’oubliais : Etes vous sûr que votre 5G ne va pas émettre d’ondes sur-dimensionnées pour le cerveau des utilisateurs et ? Au-delà des gogols comme moi qui ne demandent rien à personne et ? SERONT POLLUéS ? Si tel est les cas (recrudescence de cancers ) vous aurez à répondre de vos actes.

    • Grossmann

    L’accroissement du NB de transistors contenus dans les microprocessors dans la période de 30 ans allant de 1975 à 2005 montre que le Pentium 4 est sensiblement 10 000 fois plus puissant que le premier 4004 de 1975
    Cela correspond à 10 000 fois plus de transistors en 30 ans. On voit que la loi de Moore est respectée et l’on comprend au travers de propos de Goodplanet qu’il y a une fin à tout et que la croissance à l’infinie n’est pas recevable. Ne serait-ce comme le fait justement remarquer Goodplanet par le fait qu’il y va y avoir un tel accroissement de températures au niveau des microprocesseurs afin de s’adapter à la 5G que les pertes d’énergie thermique et les dispositifs de refroidissement associés pourraient bien devenir extrèmement préoccupants

    • Mona

    Vive le LiFi qui utilise les lumières Led du réseau électrique urbain : moins de dépenses énergétiques, pas d’ondes nocives, aucun piratage des données …et bien plus rapide que la 5G !!!

Iran: la centrale nucléaire de Bouchehr à l'arrêt après une "défaillance technique"

Lire l'article

Dorothée Moisan, auteure des Plastiqueurs, enquête sur les industriels qui nous empoissonnent : « Je dénonce le discours de l’industrie du plastique qui affirme que le recyclage fonctionne »

Lire l'article