Home » Technologie » Big Data » Le sujet brûlant du stockage froid

Le sujet brûlant du stockage froid

Tech Page One

Confrontées à la croissance exponentielle du volume de données à sauvegarder, les entreprises privilégient de nouveaux supports de stockage à froid pour les informations les moins souvent consultées. L’objectif : optimiser les coûts de stockage. Sans pour autant renoncer à exploiter les gisements de données !

Le sujet brûlant du stockage froid

Les archivistes conseillent depuis bien longtemps aux entreprises de trier les documents papier à conserver en trois grands groupes : les archives courantes, régulièrement consultées, sont stockées sur des linéaires à proximité ; les archives intermédiaires, à faible consultation, sont remisées un peu plus loin ; et les archives mortes (ou dormantes), qui ont peu de chance d’être lues de nouveau, sont palettisées et filmées avant d’être expédiées vers des entrepôts situés dans des localités où le prix du foncier est très bas…

En ce qui concerne le stockage des données numériques, les processus sont pour l’heure un peu moins rodés. Mais au rythme où croissent les volumes de données, structurées et non-structurées, les entreprises se montrent de plus en plus intéressées par les technologies de stockage à froid. Le but est d’identifier les données « inactives » afin de les isoler sur des supports de stockage moins coûteux (disques durs capacitifs, bandes magnétiques…) que les baies de serveurs primaires (où sont stockées les données les plus « chaudes », très souvent consultées). Le « cold storage » permet aussi de libérer ces baies primaires particulièrement réactives (solutions flash, clusters de stockage…) du poids des données inactives. Et ainsi de les rendre plus performantes pour les traitements les plus fréquents.

Stockage « hyperscale » ou appliances ?

Comment ces données froides sont-elles identifiées ? Soit « manuellement », par un administrateur des systèmes de stockage. Soit par le biais d’un logiciel de classement automatique des informations en plusieurs niveaux de stockage – les informations qui nécessitent des extractions rapides et régulières vont sur le niveau 1, tandis que les plus rarement consultées rejoignent des baies de niveau 2 ou 3 ou des « clouds » privés de sauvegarde en ligne…

Car à l’heure du big data, les données doivent rester à portée de mains, si possible dans de grands réservoirs de données pouvant être sondés grâce à des outils open source conçus pour le stockage massif et l’analyse, comme Hadoop ou Elastic Search par exemple. Pour ce faire, l’entreprise a le choix entre deux possibilités. La première – peu chère mais aussi peu performante puisque les temps d’accès aux données peuvent être très longs – consiste à stocker les données froides sur les espaces de stockage « hyperscale » des fournisseurs de cloud public. La seconde – plus sécurisée et nettement plus en vogue actuellement – consiste à les rassembler dans une ou plusieurs « appliances » (boîtiers) de stockage massivement distribuées. Et ce, en consolidant virtuellement toutes les ressources mises à disposition pour le stockage froid en une seule et unique capacité de stockage distribuée massive.

 

Denis Montillet

Denis Montillet

Actuellement en charge du marketing B2B chez Dell France, Denis Montillet pilote les initiatives stratégiques autour de la gestion des données, de la convergence, des technologies « software-defined » et du cloud.

Derniers articles:

 

Tags: Big Data, Technologie,  Datacenter