Mardi 12 décembre 2017
NASDAQ : 0.0 0   nasdaq0 %
RECHERCHE
OK
 
NEWSLETTER
newsletter
Abonnez-vous gratuitement
à notre newsletter
hebdomadaire - Cliquez ICI
Indexel
  • DOSSIERS
  • PRATIQUE
pub Publicité
 

INFRASTRUCTURE

Physicalisation : l’anti-virtualisation

Imprimer Envoyer à un ami Contacter la rédaction
Par Alain Bastide le 07/03/2012 - indexel.net
 
Physicalisation-anti-virtualisation

Pour réduire la consommation électrique des serveurs, il existe une approche diamétralement opposée à la virtualisation : assembler des milliers de processeurs à basse consommation dans une seule baie.

 

La Commission de régularisation de l'énergie (CRE) s'attend à une hausse moyenne du prix de l'électricité de 6 % par an jusqu'en 2016. Dans quatre ans, le prix du kWh électrique aura bondi de 30 %. Face à cette augmentation structurelle du coût de l'énergie, les exploitants de data centers et les entreprises qui possèdent une salle informatique tentent de réduire la consommation de leurs serveurs. Si la virtualisation répond en partie à cette attente, une autre approche semble possible : la physicalisation. « Il s'agit d'utiliser massivement des processeurs à basse consommation plutôt que de puissants processeurs multi-cœurs énergivores » explique Jérémie Bourdoncle, président-fondateur de Hedera Technology, entreprise spécialisée dans la conception et la gestion dynamique d'infrastructures informatiques.

Les fabricants jouent sur deux tableaux pour réduire les coûts

Jeremie-Bourdoncle-Hedera-TechnologyEn multipliant les processeurs à basse consommation dans les serveurs, les fabricants jouent sur deux tableaux pour réduire les coûts. D'une part, ils augmentent l'efficience énergétique des serveurs : il faut ainsi moins de kWh pour effectuer le même nombre de traitements informatiques qu'avec des processeurs énergivores (Xeon d'Intel par exemple). D'autre part, comme les processeurs consomment moins d'énergie, ils en dissipent moins. L'entreprise ou l'exploitant de data center économise donc aussi sur les coûts de refroidissement. « Au prix actuel du m2, il ne faut pas non plus minimiser l'intérêt d'une diminution radicale de l'espace nécessaire » estime Jérémie Bourdoncle (photo).

Un concept, plusieurs architectures

La physicalisation ne se limite pas à une seule architecture technique. Certains fournisseurs comme Dell et Supermicro s'appuient sur plusieurs serveurs indépendants à basse consommation, reliés par un lien Gigabit. D'autres comme Seamicro et HP s'appuient sur des cartes filles et des cartes mères spécifiques. La plate-forme RedStone de HP rassemble par exemple quatre processeurs sur une carte fille qui est ensuite connectée à une carte mère spéciale. HP parvient ainsi à regrouper 2 800 processeurs dans un seul serveur (notre article). Toutes les cartes mères et filles partagent la même alimentation électrique.

Jusqu'à présent, les fabricants s'appuyaient sur des processeurs x86. Mais « on voit désormais arriver des architectures basées sur les processeurs ARM ayant une consommation radicalement basse » note Jérémie Bourdoncle. Ces processeurs offrent un très bon ratio performances par watt-heure car ils ont été développés initialement pour les terminaux mobiles : smartphones, tablettes numériques, etc. La dernière version des processeurs ARM 64 bits intègre même des instructions propres aux serveurs. Dans la plupart des cas, le processeur est un composant tout en un (ou SoC pour System on Chip en anglais) qui intègre toutes les fonctions d'un serveur : processeur, bus Ethernet, etc. C'est notamment le cas de l'EnergyCore ARM de Calxeda auquel il ne manque que la mémoire et le contrôleur d'accès aux données. Ces deux fonctions (slots DIMM et contrôleur S-ATA) sont déportées sur la carte fille baptisée EnergyCard.

Plus récemment, Tilera a présenté son processeur 36 cœurs Tile-GX36 qui propose une approche hybride entre la physicalisation et les serveurs traditionnels. Avec cette architecture multi-cœurs basse consommation (24 watts de TDP), Tilera veut concurrencer les processeurs Xeon d'Intel pour l'hébergement des applications web.

Un impact sur la couche logicielle

Olivier-Philippot-Green-Code-LabTrès efficace, la physicalisation n'est malheureusement pas adaptée à tous les usages. Elle est particulièrement recommandée pour les architectures du web, du cloud computing et du Big Data. « Ces couches applicatives ont la particularité de pouvoir monter en charge de façon linéaire. On parle de scale out » explique Olivier Philippot, consultant en efficience énergétique du parc informatique et fondateur du Green Code Lab. Jérémie Bourdoncle confirme : « Une base Oracle ou une application SAP ne seront pas adaptées, alors qu'une base NoSql ou une application LAMP tireront le meilleur parti de ce type d'infrastructure. C'est pour répondre à ces problématiques d'optimisation des ressources informatiques que nous avons conçu Kanopya Private Cloud, solution open source d'administration dynamique faisant monter les rendements des serveurs de 40 à 80 % ».

Evidemment, la multiplication des serveurs physiques (un processeur = un serveur) nécessite des outils de gestion qui automatisent les phases de déploiement pour simplifier l'administration. Au-delà de l'architecture matérielle, c'est dans ce domaine que les spécialistes de la physicalisation devront proposer des outils efficaces pour convaincre les entreprises et les hébergeurs.

LIRE AUSSI
 
Partager :
LIRE AUSSI
 
pub Publicité

CloudStack by IkoulaCloudStack by Ikoula

Cloud Computing : Atouts et freins, acteurs du marché, conseils et témoignages