Home » Technologie »  Datacenter » Les prochaines transformations du datacenter

Les prochaines transformations du datacenter

Tech Page One

Des développeurs citoyens, du calcul en périphérie du réseau, des infrastructures hyperconvergées, le datacenter n’a pas fini de se transformer.

Les prochaines transformations du datacenter

A l’époque du boom du PC et de la révolution « client-serveur », dans les années 1980 et 1990, nul ne pouvait penser que nous allions assister un jour à l’émergence de sites d’actualité entièrement dédiés au datacenter. C’est pourtant ce qu’il s’est passé avec la naissance de médias qui suivent au plus près l’évolution des centres de données et du rôle accru qu’ils ont vocation à jouer dans le monde moderne.

Les datacenters ne sont pas les seuls à nous avoir réservé des surprises. L’essor fulgurant des smartphones et des tablettes était difficilement envisageable, de même que celui du cloud, ou même du « world wide web » il y a quelques années.

Un terreau propice aux optimisations

Le datacenter moderne offre aujourd’hui aux responsables IT la capacité d’optimiser tous les traitements. Des technologies telles que les réseaux software-defined ou la virtualisation des fonctions de réseau (« Network Function Virtualization » ou NFV) ont eu un fort impact, de même que l’émergence des conteneurs ou des microservices.

Les compagnies peuvent maintenant s’appuyer sur leur datacenter pour gagner en efficacité. La technologie est un différenciateur qui va permettre à l’organisation d’être plus agile et de s’adapter plus rapidement aux évolutions rapides du marché.

Place aux « développeurs citoyens »

Quelle sera désormais la prochaine étape ? Si l’optimisation énergétique et l’amélioration du PUE (indice d’efficacité énergétique) restent une préoccupation majeure, l’horizon 2020 laisse entrevoir une autre transformation plus technique : l’hyperconvergence. « L’hyperconvergence définit un nouveau type d’infrastructure IT s’appuyant sur le logiciel et où la puissance de calcul, le stockage, le réseau et les outils de virtualisation arrivent packagés dans un boîtier, sur du matériel de commodité et livré avec des outils d’administration », écrit Forbes.

’hyperconvergence est l’exemple type de ce qui arrivera lorsque les techniques d’abstraction seront déployées de façon généralisée dans des datacenters de nouvelle génération.

Nous verrons dans le même temps un nombre important de nouvelles parties prenantes, ne disposant pas de compétences techniques spécifiques, s’intéresser aux arcanes des datacenters. C’est la vague des « développeurs citoyens » (« citizen developers », en anglais) ces utilisateurs d’un genre nouveau qui sont enclins à venir s’approprier les données pour en retirer de nouvelles applications.

Enfin, nous assisterons au développement de l’internet des objets et de l’« edge computing », qui implique de distribuer les capacités de calcul sur les équipements aux extrémités du réseau, plutôt que de tout faire peser sur un datacenter centralisé. Le phénomène devrait contribuer à faire naître des micros centres de calcul, géographiquement plus rapprochés des endroits des sources de données.

Réglages de précision

Après une décennie d’ajustement du datacenter, nous nous apprêtons à dédier les dix prochaines années aux réglages de précision des opérations. L’objectif : rendre plus efficace le traitement des données, améliorer le rapport coût-efficacité et optimiser les contrôles. Ceux-ci seront rendus plus simples et intuitifs grâce à l’apparition de nouveaux tableaux de bord (« dashboards ») et de consoles d’administration dédiées.

Concrètement, il s’agira moins de rendre possible les entrées et sorties (Input/Output ou « I/O ») que de s’assurer que celles-ci peuvent être réalisées de façon optimale en empruntant tous les chemins qui mènent au datacenter et de veiller à optimiser la résilience des infrastructures associées. En somme, faire évoluer le datacenter actuel, qui ressemble à une citadine spacieuse, pour le transformer en Formule 1 !

 

Adrian Bridgwater

Adrian Bridgwater

Avec plus de vingt ans d’expérience dans la presse, Adrian est un journaliste spécialisé dans la technologie. Principalement, il rédigeait des analyses des nouvelles technologiques portant sur le développement de l’application logicielle « beat ». Il est présent dans le monde des médias également en tant qu’analyste, évangéliste technologique et consultant en matière de gestion de contenu. Il a passé une grande partie de ces dix dernières années en se concentrant sur l'open source, l'analyse de données et la business intelligence, le cloud, les appareils mobiles et la gestion de données.

Derniers articles:

 

Tags: Technologie,  Datacenter