Free cookie consent management tool by TermsFeed
C'est pas mon idée !

dimanche 24 juillet 2011

Syntec publie son livre vert "data center et développement durable"

Syntec Numérique
Poursuivant sa série de livres verts dédiés au "Green IT", le Syntec Numérique, chambre professionnelle des métiers du numérique, vient de publier son nouvel opus, consacré aux centres de production informatique ("data centers"). Ce document constituera une référence utile pour tous les DSI, grâce à une couverture relativement exhaustive du sujet, bien que quelques-uns des arguments développés soient contestables.

Après un bref rappel des enjeux, autant économiques qu'écologiques, du développement durable dans les data centers (raréfaction des ressources énergétiques vs. croissance des besoins de puissance de calcul), le livre vert présente l'état de l'art et les perspectives à moyen terme du centre de production moderne (organisation, caractéristiques...), afin de replacer la réflexion dans le contexte des contraintes (capacités, performances, fiabilité, disponibilité...) auxquelles doit faire face le DSI.

Outre un chapitre consacré aux exigences réglementaires qui pèsent sur les installations et les équipements, la plus grande partie du document est consacrée à des recommandations pratiques destinées aux responsables de data centers. Rien de révolutionnaire, mais le panorama proposé a le mérite de rassembler en quelques pages tous les leviers d'action disponibles, de la nécessité de mesurer l'empreinte environnementale aux optimisations de l'aménagement et des équipements. Parmi ces conseils, citons notamment :
  • La mise en place d'une cartogprahie des composants (CMDB),
  • La définition d'indicateurs de suivi de la consommation énergétique,
  • L'implication de tous les acteurs, notamment DSI et Immobilier,
  • La politique de réduction de la consommation des composants (extinction, mise en veille...),
  • Le renouvellement des équipements anciens,
  • L'urbanisation (thermique) des installations,
  • L'option du free cooling,
  • L'augmentation de la température moyenne du centre,
  • Le choix de matériels éco-responsables,
  • La gestion de la fin de vie des équipements,
  • La consolidation et la virtualisation des serveurs et du stockage...

Les rédacteurs montrent cependant leurs limites lorsqu'ils traitent de l'optimisation des logiciels. En effet, lorsqu'ils "accusent" l'empilement de composants et de frameworks d''être responsable de perte d'efficacité, je suis sceptique. Ces couches logicielles sont certes consommatrices de ressources mais il serait un peu rapide de croire qu'elles n'ont pas d'utilité "fonctionnelle"... Et il vaut certainement mieux, pour l'environnement aussi, réutiliser des composants éprouvés plutôt que de tout redévelopper à chaque nouveau projet. Plus précisément, le "procès" fait aux frameworks Java et .Net me semble particulièrement déplacé et, quitte à donner des exemples, il aurait été plus approprié de pointer du doigt les langages de script (de type PHP)...

Enfin, le court paragraphe consacré au cloud computing est, à mon avis, à oublier rapidement car les critiques qui lui sont adressées font preuve d'un manque d'objectivité flagrant. Ainsi, la plupart d'entre elles sont applicables à tous les contextes (par exemple, le décommissionnement des serveurs "remplacés" touche tous les nouveaux projets, comme rappelé par ailleurs dans le document) ou tiennent du procès d'intention (par exemple, la facilité d'allocation des ressources qui favoriserait les excès). Selon moi, le seul point cité méritant effectivement une attention particulière dans un contexte cloud (externe) est celui du réseau (qui peut être source de sur-consommation d'énergie), et encore concerne-t-il toutes les stratégies d'externalisation.

Sur ces deux sujets de désaccord, je recommanderais, pour ma part, d'appliquer le premier conseil donné par le Syntec : mesurer ! Ce n'est en effet qu'en suivant régulièrement l'impact environnemental des data centers qu'on peut effectivement s'assurer d'aller dans la bonne direction. Or, il est vrai que dans le cas du cloud computing, cette mesure est difficile, voire impossible (faute d'information de la part des fournisseurs).

Que ces réserves, qui ne concernent que quelques dizaines de lignes, ne vous empêchent pas de lire ce livre vert [PDF], hautement recommandé.

2 commentaires:

  1. Sur l'optimisation de la couche logicielle, l'objectif est de tirer une sonnette d'alarme.

    Exemple : Facebook a divisé par 2 ses besoins en ressources matérielles (mémoire vive, cycles CPU, etc.) et donc libéré la moitié de ses capacités serveurs en compilant son code PHP en C.

    Le livre vert ne remet pas en cause l'intérêt en terme de productivité des frameworks. Mais pose cette question : face aux enjeux économiques et écologiques : faut-il continuer à courir après le mythe de la portabilité.

    RépondreSupprimer
  2. Frédéric,

    L'erreur est justement de parler de portabilité : ce n'est clairement plus, depuis longtemps, l'enjeu du choix de Java ou .Net (les exemples cités).

    Par ailleurs, je cite bien les langages de script (tels que PHP) car leur inefficacité est effectivement largement pire que celle de ces deux "frameworks" : le coefficient de surconsommation de puissance de calcul est de 10 ou 20 dans un cas et de 1,1 ou 1,2 dans l'autre...

    Je ne suis pas contre l'optimisation de code pour limiter la consommation électrique mais il me semble que le Syntec lance le débat dans la mauvaise direction.

    RépondreSupprimer

Afin de lutter contre le spam, les commentaires ne sont ouverts qu'aux personnes identifiées et sont soumis à modération (je suis sincèrement désolé pour le désagrément causé…)