Dimanche 22 octobre 2017
NASDAQ : 6629.0532 23.9863   nasdaq0.36 %
RECHERCHE
OK
 
NEWSLETTER
newsletter
Abonnez-vous gratuitement
à notre newsletter
hebdomadaire - Cliquez ICI
Indexel
  • DOSSIERS
  • PRATIQUE
pub Publicité
 

ACTUALITES

2012, année du Big Data

Imprimer Envoyer à un ami Contacter la rédaction
Par Alain Bastide le 28/11/2011 - indexel.net
 
Big-data-2012

L'analyse et l'exploitation de grandes masses de données bouleverse le secteur IT. Les cabinets IDC et Forrester prédisent d’importantes évolutions dans les stratégies de stockage, tant au niveau matériel qu’applicatif.

 

En 2011, l'humanité a créé environ deux zetta octets (Zo) de données numériques, soit deux millions de To. Aussi étourdissant soit-il, ce chiffre n'est qu'un début. Après avoir été multiplié par neuf entre 2005 et 2010, l'étude Digital Universe d'IDC s'attend à ce que ce volume soit encore multiplié par sept dans les cinq ans à venir. En cause, l'équipement des pays de la zone BRIC (Brésil, Russie, Inde et Chine), les formats de données dont la taille explose, et surtout le machine-to-machine (M2M) qui devrait fortement se développer.

Au-delà du coût exorbitant du stockage et du transfert de ces données, les approches habituelles pour les manipuler ne sont plus adaptées. Pour IBM, 90 % des données des entreprises sont déjà inexploitables (notre article). Il va donc falloir revoir complètement leurs architectures techniques. Analyste au cabinet IDC, Matt Oostveen prédit que 2012 ne sonnera pas la fin du monde, mais plutôt l'avènement du Big Data.

Cette approche consiste à « dé-normaliser » complètement l'architecture actuelle dans laquelle les bases de données SQL représentent un goulot d'étranglement en termes de performances. Elles sont même parfois déjà incapables de gérer les To qu'on leur demande de manipuler. L'approche Big Data consiste à s'appuyer sur un modèle linéaire dans lequel on parallélise les traitements sur un nuage informatique. Au-delà de l'architecture technique, il faut pour cela dé-normaliser le modèle de données, les stocker et les manipuler avec de nouveaux logiciels dits « noSQL » tels que Hadoop, BigTables, etc.

Selon les cabinets d'études IDC et Forrester, l'infrastructure matérielle va également s'adapter à cette problématique. La chute du prix des mémoires RAM et NAND MLC va permettre d'envisager de nouvelles architectures. IDC estime que les bases de données en mémoire vont connaître un véritable essor à partir de 2012.

Forrester prédit de son côté que les entreprises vont abandonner progressivement les trois tiers actuels des architectures de stockage (cache SSD, disques rapides, disques lents) pour un dispositif 100 % SSD. Si le coût de la mémoire NAND est actuellement dix fois plus élevé que celui des disques durs (17 dollars par Go contre moins de deux dollars pour un support magnétique), cet écart va se réduire pour atteindre cinq dollars par Go SSD en 2015.

LIRE AUSSI
 
Partager :
LIRE AUSSI
 
pub Publicité

CloudStack by IkoulaCloudStack by Ikoula

Cloud Computing : Atouts et freins, acteurs du marché, conseils et témoignages