Avis d'expert

Adieu le PUE, bonjour l'efficacité complète d’informatique

par Babak Falsafi, SDEA

Les équipements IT sont aujourd’hui les plus grands consommateurs d’électricité dans les datacenters. Pourtant, nous nous appuyons sur des indicateurs d’efficacité datés ne tenant compte que des surplus d’électricité pour l'infrastructure d'hébergement et non l'informatique. Il est temps de développer de nouvelles métriques. Une contribution de Babak Falsafi, professeur à l'EPFL et président de la Swiss Datacenter Efficiency Association.

(Source: ekostsov / Fotolia.com)
(Source: ekostsov / Fotolia.com)

Avec l'appétit insatiable pour la numérisation, la croissance exponentielle du stockage et le traitement des données, nous dépendons de plus en plus de la croissance des datacenters. Ceci génère des économies d'échelle grâce à des serveurs et stockage de masse logés ensemble dans une infrastructure commune afin de réduire les coûts. Selon une étude de la Commission européenne, la demande totale d'électricité des datacenters dans l'UE passant de 2,7 % en 2018 à 3,2 % de l'électricité totale en 2030.

Plusieurs tendances accélèrent encore cette croissance. Tout d'abord, les puces à base de silicium dans toutes les plateformes numériques qui avaient l'habitude de doubler en densité tous les deux ans. Un phénomène appelé loi de Moore (du nom de Gordon Moore, le cofondateur d'Intel) qui a duré pendant cinq décennies depuis les années 1970. Ce doublement atteint désormais des limites physiques. Ensuite et selon un article du MIT Technology Review, avec l'émergence de l'IA, la demande de traitement de données dans les serveurs a augmenté 4x plus vite par an que cette loi. Enfin, les Edge datacenters émergent pour permettre des applications qui nécessitent une proximité avec la source de données, une prise de décision rapide ou un traitement dans une sphère de confidentialité des données.

Il est temps de dire adieu au PUE!

Bien que les datacenters prolifèrent, les mesures et les normes d'efficacité n'ont pas suivi. Aujourd'hui, l'industrie et les gouvernements s'appuient sur une mesure vieille de plusieurs décennies appelée PUE, qui tient compte de l'électricité excédentaire dépensée dans l'infrastructure d'hébergement, notamment les sous-systèmes de refroidissement et d'électricité, en plus de l'électricité fournie aux équipements informatiques. Nombreux sont ceux qui, depuis des années, soulignent que le PUE peut-être trompeur, car des équipements et des technologies informatiques plus anciens donneraient un meilleur PUE global. Mais, avec les nouvelles technologies d’hébergement et le recyclage de la chaleur, même les datacenters de taille moyenne et de pointe nouvellement construits visent des taux PUE supérieurs (moins de 1,15) par rapport aux recommandations gouvernementales (1,30 par l'UE). Pour 115 MW d'électricité fournis à un PUE de 1,15, 100 MW vont à l'équipement informatique. Le PUE ne dit rien sur l'efficacité avec laquelle ces 100 MW sont utilisés.

Tout est question d'efficacité informatique

L'efficacité informatique peut être quantifiée de plusieurs manières. Il est largement reconnu que les plateformes numériques ne sont pas proportionnelles à l'énergie ; le taux de consommation d'électricité des équipements informatiques n'est pas proportionnel à leur activité. Par conséquent, pour bien caractériser l'efficacité informatique, il faut en caractériser l'utilisation.

La technologie peut également jouer un rôle majeur dans l'efficacité. Les CPU, (éléments fondamentaux du calcul), peuvent exploiter tous les logiciels, mais sont 10 à 100 fois moins efficaces pour créer des modèles d'IA que les accélérateurs matériels plus coûteux. De la même manière, la mémoire flash est plus chère mais réduit la consommation d'énergie par rapport au disque dur pour le stockage. Les liens en cuivre du réseau sont moins chers mais consomment plus d'énergie que les liens fibres optiques. Les mesures de l'efficacité informatique doivent tenir compte de la technologie.

Finalement, l'efficacité informatique exige une quantification de l'électricité utilisée pour produire un résultat souhaité pour une application (la reconnaissance d'images, la recherche). La complexité algorithmique ou l'environnement de programmation peuvent avoir un impact considérable sur l'efficacité des logiciels. Les serveurs comprennent également de nombreuses couches logicielles pour héberger plusieurs clients du cloud partageant des ressources matérielles. Une bonne efficacité informatique signifie que nous tenons compte de l'électricité globale consommée pour effectuer une tâche pour un client dans le serveur.

A propos de l'auteur

Babak Falsafi est professeur à la faculté des sciences de l'informatique et de la communication de l'EPFL, et président de la Swiss Datacenter Efficiency Association (SDEA), une alliance académique et industrielle qui offre une certification complète de l'efficacité et des émissions des centres de données.

Tags
Webcode
DPF8_261885