Mercredi 18 octobre 2017
NASDAQ : 6623.6567 0.3477   nasdaq0.01 %
RECHERCHE
OK
 
NEWSLETTER
newsletter
Abonnez-vous gratuitement
à notre newsletter
hebdomadaire - Cliquez ICI
Indexel
  • DOSSIERS
  • PRATIQUE
pub Publicité
 

ACTUALITES

Big Data : un marché plus mature

Imprimer Envoyer à un ami Contacter la rédaction
Par Marie Varandat le 20/06/2012 - indexel.net
 
Big-data-montee-maturite-marche

Tandis que la communauté Hadoop organise son cinquième sommet, Cap Gemini sort une étude mettant en évidence l’importance de la donnée dans les stratégies d’entreprise.

 

"Pour neuf dirigeants sur dix, les données représentent le quatrième facteur de production et elles sont tout aussi importantes pour leur entreprise que la propriété, la main d'œuvre et le capital." Issu de l'étude "The Deciding Factor: Big Data & Decision making", réalisée pour Capgemini par l'Economist Intelligence Unit, ce constat n'a rien de surprenant ni même de révolutionnaire. Depuis des lustres, les entreprises, certaines plus que d'autres certes, ont pris conscience de l'importance de la donnée et ont investi massivement dans les outils pour l'agréger, la nettoyer, la transformer et la publier avec des outils de restitution plus ou moins élaborés.

La pénurie de spécialistes freine les entreprises

C'est d'ailleurs un des autres constats de cette étude : "Disposer d'un outil d'analyse des grands volumes de données stockés dans le système d'information représente donc une opportunité d'améliorer les performances des entreprises." Un message que les spécialistes du décisionnel martèlent depuis des années. Les cadres interviewés estiment toutefois que l'analyse de données ralentit la prise de décision tout en précisant que le problème provient moins des outils et de la volumétrie à traiter que de l'absence de talents et de spécialistes. Des spécialistes en effet mis à rude épreuve car, de fait, les éditeurs ont anticipé depuis longtemps les problèmes de volumétrie et de données non structurées associés au Big Data.

Hadoop, la solution à tous les problèmes ?

Les trois grands éditeurs du domaine, IBM, Microsoft et Oracle, ont en effet investi lourdement dans le développement de leurs bases. Capables de traiter de grands volumes, elles ont évolué pour intégrer la gestion des données non structurées. Mais ces bases de données, conçues pour le transactionnel à l'origine, n'arriveront surement jamais à rivaliser avec le projet Hadoop, spécialement créé pour répondre à la problématique du Big Data. Née en 2005 pour analyser les grosses quantités de logs générés par le trafic Web, la plate-forme Hadoop est de plus en plus utilisée pour l'analyse des masses de données non structurées. Souvent dénommées Big Data, ces données sont trop volumineuses pour être entassées dans une base de données relationnelle ou dans un data warehouse.

Soutenu par des poids lourds de l'IT, comme Cisco, Facebook, IBM, Microsoft, et VMware, le cinquième sommet de la communauté, qui s'est tenu la semaine dernière à San José en Californie (US), a été l'occasion d'annonces majeures concernant les trois principales distributions d'Hadoop : Cloudera, Hortonworks et MapR. Teradata, spécialiste du décisionnel avec une base conçue pour traiter d'importantes volumétries, et Pentaho, éditeur Open Source d'une suite logicielle de Business Intelligence, ont également sorti des produits Hadoop.

Big Data : encore un faux phénomène de mode ?

Quels que soient les efforts fournis par ces éditeurs – et ne doutons pas qu'ils porteront leur fruits – ces solutions ne résolvent en rien le problème soulevé par les cadres interrogés par l'étude de Cap Gemini. Si la capacité de traitement des outils du décisionnel est un frein à la gestion du Big Data, nul doute que tôt ou tard, la solution technique idéale finira par aboutir. Mais en décisionnel, les grands échecs proviennent toujours ou presque d'une mauvaise analyse en amont, rarement de l'outil. Par quel bout prendre la donnée ? Que cherche-t-on à savoir ? Quelles données prendre en compte et comment les agréger ? ... autant de questions auxquelles chaque entreprise doit répondre en s'appuyant sur de vrais spécialistes du décisionnel avant de se frotter au problème, certes important mais finalement secondaire, de l'outil. De fait, Big Data ou pas, pouvoir entasser des données et paralléliser les traitements pour optimiser les performances n'a jamais été le fond de la question. Avoir une stratégie d'analyse, en revanche, si.

LIRE AUSSI
 
Partager :
LIRE AUSSI
 
pub Publicité

CloudStack by IkoulaCloudStack by Ikoula

Cloud Computing : Atouts et freins, acteurs du marché, conseils et témoignages