Mardi 12 décembre 2017
NASDAQ : 0.0 0   nasdaq0 %
RECHERCHE
OK
 
NEWSLETTER
newsletter
Abonnez-vous gratuitement
à notre newsletter
hebdomadaire - Cliquez ICI
Indexel
  • DOSSIERS
  • PRATIQUE
pub Publicité
 

INFRASTRUCTURE

Grid Computing : de la virtualisation aux réseaux P2P

Imprimer Envoyer à un ami Contacter la rédaction
Par David Thévenon le 24/11/2004 - indexel.net
 

Evoluant vers le concept de la virtualisation, le "grid computing" pourrait trouver son essor dans les PME grâce aux technologies de peer-to-peer. Ou comment se doter à moindre coût d'un "super ordinateur".

 

Depuis sa médiatisation au début 2000, le concept de "grid computing" a évolué en de multiples déclinaisons techniques pour apporter des services concrets aux entreprises de toutes tailles. Selon le cabinet IDC, ce marché représentera 12 milliards de dollars en 2007. Le concept de "grille informatique" désigne autant la virtualisation des ressources (stockage, puissance de calcul, etc.) que le calcul et le stockage distribué. Il s'étend parfois à celui "d'utility computing" et "d'informatique à la demande". État des lieux.

Virtualiser l'accès à la puissance de calcul dormante

Dans sa vision la plus ambitieuse, le grid computing consiste à virtualiser les ressources informatiques de l'entreprise pour optimiser leur utilisation, c'est-à-dire à représenter un ensemble de ressources dispersées et hétérogènes comme un seul et unique "super ordinateur". Il s'agit "de rendre l'accès aux ressources informatiques aussi transparent que l'électricité", explique Jean-Pierre Prost (photo), expert au Grid Design Center d'IBM à Montpellier. Cette approche s'appuie sur un constat simple : les entreprises n'exploitent en moyenne que 20 % de la puissance de calcul de leur parc informatique. Plutôt que de racheter de nouveaux serveurs, il serait plus judicieux de fédérer la puissance de calcul dormante de l'entreprise et la mettre à disposition des utilisateurs. Un concept dont s'inspire la stratégie "On Demand" d'IBM.

Pour atteindre cet objectif, les entreprises peuvent s'appuyer sur l'offre d'éditeurs tels que GridExpert, Platform, Avaki, et bien d'autres. Leurs outils listent l'ensemble des ressources disponibles et gèrent de façon presque transparente la distribution des tâches sur les différents ordinateurs constituant la "grille". Les technologies actuelles permettent d'adapter automatiquement entre 40 et 60 % des applications existantes. Pour le reste, l'entreprise devra découper ses logiciels de façon à faciliter la distribution des calculs.

En plein processus de standardisation, ces technologies reposeront à terme sur des services Web. C'est du moins l'objectif de Web Service Resource Framework (WSRF), une infrastructure de grille normalisée par Globus Alliance et IBM. "Le but de WSRF est de standardiser l'accès aux ressources et de présenter chaque élément de la grille - microscope électronique, stockage, cluster, etc.- de façon homogène. Lorsque cela sera fait, des solutions de plus haut niveau fonctionnel pourront alors être mises en oeuvre", explique Frédéric Desprez (photo), directeur de recherches à l'Institut national de recherche en informatique et en automatique (Inria). Encore immatures, ces technologies restent pour le moment réservées aux grandes entreprises et aux centres de recherche.

Distribuer les calculs

La distribution massive de calculs unitaires simples est en revanche opérationnelle et accessible à n'importe quelle entreprise, quelle que soit sa taille. "Ces outils sont plus faciles à déployer car ils reposent sur une architecture technique relativement simple. Il suffit d'installer un exécutable sur le poste client. Les particuliers qui participent au Decrypthon y arrivent tout seuls. Des moyens plus sophistiqués sont disponibles pour faciliter le déploiement en entreprise", estime Franck Cappello (photo), directeur de recherches à l'INRIA.

Le calcul distribué repose sur une architecture client-serveur traditionnelle. Un PC "pilote" alimente les clients qui se chargent d'exécuter les calculs. Pour contourner les erreurs liées à l'indisponibilité du réseau ou d'un PC, un même calcul unitaire est envoyé sur différentes machines. Le pilote agrège ensuite les calculs intermédiaires pour recomposer le résultat final. Des projets tels que Seti@home ont largement contribué à vulgariser cette approche. Facile à mettre en oeuvre, elle nécessite cependant de prévoir une structure de programme spécifique et s'applique à des calculs simples et faciles à découper. Les solutions d'Entropia, GridSystems et consorts s'échelonnent de 250 euros par processeurs à 50 000 euros pour un nombre illimité de processeurs.

Unifier les ressources de stockage 

Par extension, la logique de "grille informatique" s'applique également aux "grilles de stockage des données" (ou data grids). Les SAN (Storage Area Networks) sont la première implémentation concrète de data grids au sein de l'entreprise. Ils masquent l'hétérogénéité des machines servant à stocker les données dans une logique similaire aux grilles de calcul. Les solutions existantes sont néanmoins encore chères et immatures. "Malgré les réelles promesses du concept, les clients ont perdu confiance devant l´absence de solutions simples et fiables", constate Geoffroy Allaire (photo), ingénieur avant-vente chez l´intégrateur APX Computer.

Le peer-to-peer des particuliers adapté aux entreprises

Le succès des réseaux peer-to-peer tels que Kazaa et eMule a fait prendre conscience aux entreprises que les modèles appliqués aux oeuvres d'un réseau peer-to-peer au sein d'une entreprise permet de constituer à moindre frais un "super disque dur" à partir de l'ensemble des disques durs des PC de la société. Encore peu pratiquée, cette approche pourrait connaître un essor important. D'autant qu'au-delà de sa capacité de virtualisation, cette architecture de stockage distribuée garantit la disponibilité des données : si un disque dur d'un PC tombe en panne, les données sont forcément présentes sur un autre disque dur. Cette approche nécessite en revanche plus de capacités de stockage car les données sont dupliquées sur plusieurs machines. Mais le rapport entre le prix du Go et le coût de la perte d'une donnée stratégique est sans commune mesure pour l'entreprise. Autre intérêt : la majorité des logiciels sont gratuits et disponibles en open source.

Trois éditeurs ont déjà investi ce marché. 312 Inc propose un service baptisé LeanOnMe. L'accès à ce gigantesque réseau de stockage professionnel destiné aux entreprises ne coûte que 46 euros. Pionnier des applications professionnelles peer-to-peer, Groove Networks propose de son côté un bureau virtuel baptisé Groove Virtual Office for Small Business. Ce dernier facilite la collaboration entre entités géographiques distinctes autour d'un bureau virtuel qui permet de partager des fichiers, de synchroniser des contacts, de s'échanger des messages, de gérer des projets, etc. En France, Symetrx propose des applications verticales (Distribution, Transport, etc.) basées sur des technologies peer-to-peer.

LIRE AUSSI
 
Partager :
LIRE AUSSI
 
pub Publicité

CloudStack by IkoulaCloudStack by Ikoula

Cloud Computing : Atouts et freins, acteurs du marché, conseils et témoignages