"Gérer la croissance des données, un enjeu majeur", une tribune d'Evan Powell
"Gérer la croissance des données, un enjeu majeur", une tribune d'Evan Powell
En 1999, la population mondiale a dépassé les 6 milliards d'individus. Il a fallu 12 ans de plus pour passer la barre des 7 milliards. Imaginez qu'elle atteigne 70 milliards en 2013 ! Comment les gérer ? Cette comparaison avec la population donne une idée de la vitesse à laquelle a augmenté la quantité de données au cours de ces deux dernières années au niveau mondial. Non seulement nous créons environs 2,5 quintillions d'octets de données chaque jour, mais au cours des deux dernières années, nous avons généré environ 90 % des données qui existent actuellement dans le monde !
Cette explosion est le fruit des médias sociaux, des GPS, des équipements médicaux, des fichiers numériques, de l'échange de photos et de vidéos, des téléphones portables, et des transactions financières. Sans oublier les informations gouvernementales et militaires, celles des émetteurs de cartes bancaires, des transactions en ligne, les données climatiques, les données des fournisseurs de services de télécommunication, les e-mails, l'usage croissant de Google et Facebook.
Derrière « Big data » se cache un sur-ensemble qui contient tout ce qui précède, et plus encore. Au travers de ces « Big Data», les entreprises cherchent à obtenir des analyses révolutionnaires. Mais elles sont souvent confrontées à la difficulté de stocker d'énormes quantités de données brutes, non structurées, et d'en extraire le maximum de valeur.
Aujourd'hui, de nombreuses organisations doivent conserver de grandes quantités de données pour soutenir et développer leur activité, ou pour se conformer aux réglementations.
Les entreprises qui hébergent des téraoctets, voire des pétaoctets, d'informations critiques doivent apprendre à les stocker intelligemment. Or les produits et les architectures classiques peuvent se révéler incapables d'évoluer suffisamment, que ce soit d'un point de vue technique ou financier. Dans bien des cas, les solutions de type « silo de données » n'auront pas la souplesse et l'évolutivité nécessaire.
Pourtant les données deviennent de plus en plus vitales et il est donc essentiel de stocker correctement toutes les informations collectées, tout en les gardant aisément accessibles pour tous les utilisateurs, quel que soit leur emplacement. Préserver l'intégrité des données est tout aussi crucial, car elles peuvent se dégrader avec le temps (« bit rot » ou « corruption des données »). De nombreux acteurs utilisent des processus de back-end pour nettoyer les données, chercher des erreurs et les corriger si possible. Bien entendu, lorsque le processus de nettoyage porte sur d'énormes quantités de données, il réduit notablement les performances des systèmes et la disponibilité des informations.
Par conséquent, les solutions de stockage qui sont incapables de détecter et corriger la dégradation invisible des données représentent une menace à long terme pour la viabilité de l'entreprise. En outre, les solutions classiques de stockage, conçues pour un déploiement depuis un seul emplacement, ne peuvent répondre aux exigences immédiates pour les données, pas plus qu'elles ne peuvent répondre aux normes de sécurité les plus élevées.
Le stockage est le ciment des Big Data
Les entreprises sont contraintes de gérer l'explosion des données critiques en les sécurisant et les conservant accessibles. Korean Telecom (KT) devait, par exemple, gérer à la fois de grandes quantités de données et rester capable de faire évoluer ses services de cloud public d'une manière rentable. L'entreprise avait besoin d'une solution évolutive capable de faire face à la croissance explosive des données et de progresser en performances.
De son côté, la société viaForensics, spécialisée dans la criminalistique pour iPhone et Android, avait besoin d'un environnement spécifique de stockage pour extraire de manière sécurisée et fiable les grandes quantité de données exigées par les réglementations.
Face au problème des Big Data, toutes deux ont opté pour des solutions de stockage open source afin d'augmenter et de gérer leur capacité de stockage au meilleur coût, tout en garantissant la sécurité de toutes leurs informations, aujourd'hui comme à l'avenir.
Il est acquis que la gestion des données volumineuses engendre de nombreuses difficultés. Avec un nombre de fichiers qui se calcule désormais en milliards, il faut améliorer les performances du stockage, de la réplication et de la reprise après sinistre, ainsi que la possibilité d'utiliser un matériel en interne afin de limiter les coûts. Il faut aussi réduire au minimum les interruptions de service, et maintenir les données aisément accessibles, tout en préservant leur intégrité sur le long terme. Enfin, le système doit pouvoir évoluer à l'échelle des téraoctests et pétaoctets.
Les solutions OpenStorage facilitent la mise en œuvre d'un stockage de données haute performance mais néanmoins économique, en tirant pleinement parti de fonctions telles que la déduplication en ligne, les snapshots et le clonage illimités, des solutions matérielles agnostique et de la haute disponibilité. Dans bien des cas, ceci permet de réduire de 70 à 80 % les coûts liés au stockage.
La gestion de l'explosion des données est un défi sérieux, et de plus en plus difficile à relever. À défaut d'y arriver, bien des entreprises seront incapables de tirer profit des avantages qu'elle pourrait offrir à leur activité. S'orienter vers une approche ouverte est un moyen de gérer la croissance de manière confortable et sécurisée, tout en réalisant des économies. Et aujourd'hui plus que jamais, il convient de l'envisager.
Service de maintenance informatique
Email : contact@aaai.fr
Ajouter un commentaire