Cinq tendances technologiques sur l’évolution des données
Nombreux sont ceux qui nous ont entendu récemment parler de la façon dont le monde change fondamentalement et rapidement : la transformation numérique est une priorité qui devrait être en tête de liste de la stratégie informatique de toute entreprise. Les données sont au cœur de cette priorité. À mesure que les données sont de plus en plus distribuées, dynamiques et variées, les infrastructures informatiques, les architectures applicatives et les stratégies de provisionnement, doivent s’adapter aux nouvelles réalités du Cloud hybride. C'est dans ce contexte que nous avons envisagé nos cinq prévisions de 2018 pour les DSI.
Vidéo - Live du NetApp Insight Berlin 2017
N° 1 : Les données prennent conscience d’elles-mêmes
Nous avons aujourd’hui des processus qui agissent sur les données et déterminent comment elles sont déplacées, gérées et protégées. Mais que se passerait-il si les données se définissaient elles-mêmes ?
Au fur et à mesure que les données prennent conscience d’elles-mêmes et deviennent encore plus diversifiées qu'elles ne le sont aujourd'hui, les métadonnées permettront aux données de se déplacer, se catégoriser, s'analyser et se protéger elles-mêmes de manière proactive. Les flux entre les données, les applications et les éléments de stockage seront mappés en temps réel, à mesure que les données fourniront les informations exactes dont l'utilisateur a besoin au moment exact où il en a besoin. Cela permettra également aux données de s'auto-gouverner. Les données elles-mêmes détermineront qui a le droit d’y accéder, de les communiquer et les utiliser, ce qui pourrait avoir des implications étendues sur la protection, la confidentialité, la gouvernance et la souveraineté des données externes.
Par exemple, si vous êtes impliqué dans un accident de voiture, différentes entités pourraient souhaiter ou exiger l'accès aux données de votre voiture. Un juge ou une compagnie d'assurance pourrait en avoir besoin pour déterminer la responsabilité, alors qu'un fabricant d'automobiles pourrait souhaiter optimiser les performances des freins ou d'autres systèmes mécaniques. Les données qui ont conscience d’elles-mêmes peuvent être balisées afin de contrôler qui en voit quelle partie et quand, sans délai supplémentaire ni intervention humaine potentiellement sujette à erreurs, pour subdiviser, approuver et diffuser ces données précieuses.
N° 2 : Les machines virtuelles deviennent des machines partagées
Il sera plus rapide, plus économique et plus pratique, de gérer des données de plus en plus distribuées à l'aide de machines virtuelles, qui seront provisionnées sur une infrastructure à l’échelle du web, plutôt que sur des machines réelles.
L’analogie est l'achat d'un véhicule plutôt que sa location, ou l’utilisation d’un service de covoiturage tel qu’Uber ou Lyft. Si vous transportez de lourdes charges tous les jours, il serait logique d’acheter un véhicule utilitaire. Quelqu'un d'autre ne pourrait avoir besoin que d'un certain type de véhicule pendant une période donnée, et donc s’orienterait vers la location. Et puis, il y a ceux qui n’ont seulement besoin d'un véhicule que pour aller du point A au point B, une seule fois. Le type de véhicule n'a pas d'importance. Seuls l‘aspect pratique et la vitesse importent. Un service de covoiturage est donc la meilleure option.
Cette même réflexion s'applique au contexte des instances de machines virtuelles et physiques. Le matériel personnalisé peut être coûteux, mais pour des charges de traitement régulières et intensives, il peut être plus judicieux d'investir dans une infrastructure physique. Une instance de machine virtuelle dans le Cloud, traitant des charges variables, est similaire à la location : les utilisateurs peuvent accéder à la machine virtuelle sans la posséder ni avoir besoin de connaître les détails la concernant. En fin de « bail », elle disparaît. Les machines virtuelles provisionnées sur une infrastructure à l’échelle du web (c'est-à-dire sans serveur) sont comme un service de covoiturage, dans lequel l'utilisateur spécifie simplement la tâche devant être exécutée. Le reste des détails est laissé aux soins du prestataire de Cloud. Ce modèle est plus pratique et plus facile à utiliser que les modèles traditionnels pour certains types de charges de traitement.
N° 3 : Les données vont croître plus rapidement que la capacité de les transporter. Ce sera tout à fait normal !
Les données sont devenues incroyablement dynamiques et sont générées à un rythme sans précédent, qui dépassera largement la capacité de les déplacer. Cependant, au lieu de déplacer les données, les applications et les ressources chargées de les traiter seront rapprochées des données. Cela aura des implications sur les nouvelles architectures de type Edge, Core et Cloud. À l'avenir, la quantité de données ingérées par les architectures Core sera toujours inférieure à la quantité générée par les architectures Edge. Cela ne se produira pas par accident, mais sera implémenté délibérément ainsi pour garantir que seules les bonnes données soient conservées à des fins de prise de décision.
Par exemple, les constructeurs de véhicules autonomes ajoutent des capteurs qui génèrent tellement de données qu'il n'existe pas de réseau assez rapide entre les véhicules et les datacenters pour les transférer. Historiquement, les appareils de périmètre ne créaient pas beaucoup de données, mais avec des capteurs désormais intégrés dans des véhicules, des thermostats, des appareils portables et autres, la quantité de données générées au niveau du périmètre augmente si vite qu'elle dépassera la capacité des connexions réseau du Core. Les voitures autonomes et autres appareils de périmètre nécessitent des analyses en temps réel au niveau du périmètre afin de prendre des décisions critiques en temps réel. Par conséquent, nous allons rapprocher les applications des données.
N° 4 : L'évolution du « big data » vers le « huge data » nécessitera de nouvelles architectures
À mesure que les besoins en analyse d'énormes ensembles de données augmentent toujours plus rapidement, nous devons rapprocher les données des ressources de traitement. La mémoire persistante permettra un temps de latence ultra-faible sans perte de données, et ces exigences en latence forceront finalement les architectures logicielles à se transformer pour apporter aux entreprises de nouvelles opportunités reposant sur les données. La technologie Flash est un sujet brûlant. Cependant, les logiciels qui y sont hébergés n’ont pas vraiment changé. Ils sont simplement devenus plus rapides.
Cela est motivé par l'évolution du rôle de l'informatique dans l’entreprise. Dans le passé, la principale fonction de l'informatique était d'automatiser et d'optimiser les processus de commande, de facturation, de créances et autres. Aujourd'hui, l'informatique est essentielle à l’enrichissement des relations clients, et pour proposer des services toujours disponibles, des applications mobiles et des expériences web enrichies. L'étape suivante consistera à monétiser les données collectées à l'aide des différents capteurs et appareils, afin de créer de nouvelles opportunités commerciales. Cette étape nécessitera de nouvelles architectures applicatives reposant notamment sur de la mémoire persistante.
N° 5 : Émergence de mécanismes décentralisés immuables pour gérer les données
Des mécanismes permettant de gérer les données de manière fiable, immuable et réellement distribuée (sans autorité centrale) verront le jour et auront un impact profond sur le datacenter. La blockchain en est un excellent exemple.
Des mécanismes décentralisés tels que la blockchain défient le sens traditionnel de la protection et de la gestion des données. Sans point de contrôle central, tel qu'un serveur centralisé, il est impossible de modifier ou de supprimer les informations contenues dans une blockchain, et toutes les transactions sont irréversibles.
Cela ressemble à un système biologique comprenant une multitude de petits organismes. Chacun sait ce qu'il est censé faire sans avoir à communiquer avec quoi que ce soit d'autre ni recevoir d’instructions. Vous ajoutez ensuite des nutriments, à savoir dans ce cas, des données. Les nutriments savent ce qu’ils doivent faire et tout commence à fonctionner de manière coopérative, sans aucun contrôle central. Comme un récif de corail.
Les applications et les datacenters actuels fonctionnent comme des fermes, avec un point de contrôle central (l'agriculteur) gérant l'environnement. Les mécanismes immuables décentralisés de gestion des données proposeront des microservices que les données pourront utiliser pour remplir les fonctions nécessaires. Les microservices et les données coopéreront ensemble, sans contrôle centralisé.
NetApp est la référence en matière de données dans le Cloud hybride. Nous fournissons une gamme complète de services de données dans le Cloud hybride qui simplifient la gestion des applications et des données dans les environnements sur site et dans le Cloud pour accélérer la transformation numérique. En collaboration avec nos partenaires, nous donnons la possibilité aux entreprises de maximiser le potentiel de leurs données afin d'étendre les points de contact avec les clients, encourager l’innovation et optimiser leurs activités. Pour plus d'informations, consultez www.netapp.com/fr. #DataDriven
Contact Presse :
NetApp France - Agence Oxygen
netapp@oxygen-pr.com
Tel : 01 84 02 11 41
OXYGEN | Partenaire de votre réputation | www.oxygen-rp.com