Vidéos, réseaux sociaux, emails... Le numérique se consomme aujourd’hui avec avidité. Ultra-disponible, ultra-rapide, peu coûteux, il nous permet de travailler, de nous déplacer, de communiquer, de nous divertir. Mais derrière ce confort, une véritable pollution est générée.
Si l’on assimile souvent le numérique au " virtuel ", il est en réalité bien matériel. Pour fabriquer les terminaux (téléphones, ordinateurs, serveurs, écrans…) par exemple, il faut d’abord extraire des minéraux et matériaux rares, bien souvent à l’autre bout du monde, en Chine, au Congo ou en Bolivie. Un téléphone nécessite plusieurs dizaines de minerais différents, à faibles coûts financiers mais à grands coûts écologiques. Or, cuivre, nickel, zinc, étain, mais aussi yttrium, lanthanum, terbium, neodymium… : ces métaux sont aujourd’hui encore mal collectés et mal recyclés. Ils sont bien souvent extraits du sous-sol en utilisant des techniques particulièrement énergivores et des produits nocifs pour l’environnement comme l’acide sulfurique, le mercure ou le cyanure. Pour autant, insérés dans les composants électroniques, ces minerais dopent les performances de nos processeurs et batteries et accélèrent la miniaturisation de nos appareils.
Vient ensuite la fabrication des terminaux, dans des usines asiatiques bien souvent, puis le transport des produits finis jusqu’à leurs utilisateurs. Cette première phase de production représente la plus grande partie de la pollution générée par l’industrie numérique : elle pèse pour environ 70% de l’empreinte carbone du numérique français.
Piliers du cloud, les datacenters
La consommation énergétique du numérique se divise en trois grandes parties : les réseaux, les datacenters et les terminaux. Les réseaux, autoroutes des données, font transiter les informations à la vitesse de la lumière et doivent être alimentés en énergie, tout comme les terminaux eux-mêmes (téléphones, etc) que nous chargeons chaque jour. Les datacenters, ces grandes usines du numérique qui stockent les données des internautes, alignent des milliers d’ordinateurs qui fonctionnent jour et nuit pour nous assurer une disponibilité de contenus et d’activités 24h/24, 7j/7, sans aucune faille.
Les datacenters sont devenus des infrastructures ultra-sensibles, pièces maîtresses de nos vies numérisées et du "cloud" , que personne ne voudrait voir tomber en panne. Tant et si bien que la sécurité y est renforcée, les systèmes de redondances énergétiques multipliés - via des batteries et moteurs alimentés au fuel -, les réseaux électriques et fibres doublés.
Intelligence artificielle, simulations, modélisations : place au calcul intensif
Au-delà du stockage des données, les datacenters hébergent des ordinateurs qui offrent des capacités de calcul informatique extrêmement performantes. Concrètement, il s’agit de déléguer la réalisation d’opérations complexes à des ordinateurs, et cela dans des domaines variés. Aussi appelé calcul intensif, le High Performance Computing (HPC) est présent dans de nombreux secteurs : films d’animation, analyse bancaire, intelligence artificielle, aérodynamisme, génétique… De puissants processeurs installés dans des datacenters effectuent des algorithmes complexes qui intègrent des milliers de paramètres fluctuants.
À titre d’exemple, l’analyse de risques dans le secteur bancaire - rendue obligatoire par les banques centrales - implique de simuler plusieurs scénarios, qui nécessitent plus d’un million d’heures de calcul par jour. Le rendu d’images 3D requiert, lui aussi, une grande puissance de calcul pour simuler les formes, textures et rayons de lumière présents sur une image. Chaque image peut demander jusqu’à 120 heures de calcul. Quand on sait qu’un film d’animation compte 24 images par seconde et 5400 secondes… Problème : ces calculs intensifs carburent à l’électricité, de quoi provoquer un gouffre énergétique sans précédent. Face à ce phénomène, certains imaginent alimenter les datacenters grâce aux énergies renouvelables, notamment géothermiques ou hydrauliques. Pour Johan Falk, chercheur au Stockholm Resilience Centre, le passage aux seules énergies renouvelables permettrait à l’industrie numérique de réduire de moitié ses émissions de gaz à effet de serre. Autre piste à considérer : le " free cooling ", une méthode qui consiste à utiliser l’environnement extérieur pour refroidir naturellement les datacenters. Certaines entreprises ont d’ailleurs choisi de délocaliser leur centre de données dans des pays froids ou en immergeant leurs serveurs sous l’eau.
La chaleur dans l'informatique, une fatalité ?
De la même manière, l’intelligence artificielle, le machine learning, le big data, qui ont pénétré tous les secteurs d’activité, reposent principalement sur des calculs haute-performance. Toutes ces opérations complexes impliquent une consommation énergétique colossale qui alourdissent le bilan environnemental du numérique. Les processeurs doivent être alimentés, et refroidis puisqu’un ordinateur en fonctionnement dégage de manière inhérente de la chaleur, suivant le principe de l’effet Joule.
Une chaleur dont on ne fait rien d’un côté, de l’énergie pour maintenir à basse température les serveurs de l’autre : le paradoxe est malheureux, surtout si l'on ajoute que de l'énergie va encore être dépensée pour chauffer des bâtiments. C’est à partir de ce constat que l’entreprise francilienne Qarnot a été fondée en 2010 par Paul Benoit et Miroslav Sviezeny, avec un défi : pourquoi ne pas tenter de réduire l’empreinte environnementale du calcul en valorisant la "chaleur fatale" , la chaleur générée par l’activité des serveurs informatiques ?
Depuis sa création en 2010, Qarnot propose en effet un changement complet de paradigme en disséminant les serveurs directement dans les bâtiments ayant besoin de chaleur, sous forme de chaudières numériques (et auparavant de radiateurs numériques).
La chaleur dégagée par les serveurs embarqués dans les chaudières est ainsi valorisée à plus de 96% et réutilisée pour chauffer de l’eau, utilisée pour les douches des logements, les piscines, les réseaux de chaleur ou pour chauffer des serres agricoles ou des industries. Un projet lancé avec le groupe Casino a, en outre, permis de chauffer des entrepôts grâce à la chaleur des serveurs.
En cours de certification ISO 27001, ce modèle décentralisé prouve que l’on peut changer les règles du jeu sans pour autant renoncer à la performance et à la sécurité. Un constat partagé par les clients de Qarnot issus de secteurs exigeants en la matière comme la banque (Société Générale, Natixis, BNP Paribas ou Amundi) ou l’animation 3D (Illumination, Fortiche ou encore Substance by Adobe).
L'économie circulaire numérique, un déchet et une ressource ?
Ce modèle d’économie circulaire numérique fait du problème des uns la solution des autres. La chaleur, que l’informatique doit à tout prix évacuer, devient une ressource précieuse dans le bâtiment. Qarnot traite donc avec deux types de clients : les clients de calcul en premier lieu, de grandes banques, laboratoires de recherche, studios d’animation 3D, industries ; et les clients de chauffage, des bailleurs sociaux, promoteurs immobiliers, collectivités territoriales…
Qarnot a entrepris des démarches pour mesurer finement les économies environnementales liées à ce modèle vertueux. Les Carbon facts, en cours de certification, ont permis d’évaluer à 80% en moyenne la réduction de l’empreinte carbone du calcul et du chauffage.
Mais au-delà de la réduction de l’empreinte du calcul informatique haute-performance, d’autres initiatives comme Green IT doivent être encouragées pour s’attaquer de front à la pollution numérique. Parmi lesquelles, des téléphones réparables, des datacenters conçus pour consommer moins d’énergie, des logiciels moins lourds, des ordinateurs plus durables dans le temps… Au problème complexe de la pollution numérique, toutes les solutions seront les bienvenues, qu’elles soient visibles ou invisibles, physiques ou virtuelles.
Maddyness, partenaire média de Qarnot computing