Quel rapport entre Newton et les données ?

Il n’y a pas si longtemps, de nombreuses entreprises stockaient leurs données et exécutaient leurs applications exclusivement sur site. La révolution du cloud a changé la donne. C’est l’occasion pour la fameuse loi de Newton de faire à nouveau parler d’elle.

En voyant l’ampleur de la transition des données et des applications vers une infrastructure cloud, Dave McCrory, qui s’est spécialisé très tôt dans le cloud, a compris que la loi de Newton sur la gravitation ne s’appliquait pas uniquement aux corps physiques. C’est ce qu’il désigne par gravitation des données. Il a adapté la formule de la loi universelle sur la gravitation en appliquant les concepts aux données :
Pour simplifier : les données, les applications et les services ont leur propre force gravitationnelle, mais ce sont les données qui possèdent la masse, et donc la force gravitationnelle, la plus forte.
La fameuse « pomme de Newton » tombe de l’arbre car la Terre possède une masse supérieure à celle de la pomme et attire donc cette dernière par le phénomène de gravitation. De la même manière, les données attirent les autres technologies, notamment les applications et les services logiciels

Les effets de la force gravitationnelle sur les analyses

Pourquoi ces deux facteurs sont-ils importants en matière d’analyse ?
La latence et le débit sont des facteurs fondamentaux de la gravitation des données. Contrairement à une pomme, les données ne disposent pas d’une masse physique pour attirer les objets qui l’entourent. Ce sont ici la latence et le débit qui jouent le rôle d’accélérateurs pour le processus analytique.
En matière d’analyses, la latence est le temps pendant lequel votre requête transite de l’application vers la base de données, puis de la base de données vers l’application.
Dans ce même exemple, le débit est le nombre de fois que l’application peut interroger la base de données dans un temps donné.

La vitesse

Les données trouvent leur utilité lorsqu’elles nous aident à répondre à nos questions. Pour qu’elles aient un réel impact, vous devez pouvoir y accéder rapidement. Les requêtes qui prennent plusieurs heures ou jours créent une rupture dans le flux analytique et empêchent d’obtenir des réponses. En réduisant la latence et en augmentant le débit, vous pourrez accélérer vos requêtes, et ainsi analyser vos données et obtenir des réponses plus rapidement.
Bien que de nombreuses variables influent sur la latence et le débit de votre système, l’emplacement de stockage des données est une constante. Lorsque des entités, par exemple des données, des applications ou des services, sont à proximité les unes des autres, la latence baisse et le débit augmente.
En suivant ce concept, les données exercent une attraction gravitationnelle sur les applications et les services qu’elles alimentent. Lorsque vous recherchez la vitesse, l’emplacement de stockage des données joue un rôle important pour déterminer l’emplacement des applications qui serviront à les collecter, les stocker et les analyser.

La transition vers le cloud

Il existe cependant plusieurs manières d’opérer cette transition.
Certaines entreprises déplacent uniquement leurs données stockées sur site, alors que d’autres transfèrent leur infrastructure entière vers des plates-formes cloud. Bien souvent, elles font les deux. Nombre d’entre elles sont même nées à l’ère du cloud et fonctionnent exclusivement avec des applications Web et des données dans le cloud.

Données, gravitation et le cloud

Gartner prévoit que les entreprises vont consacrer une part toujours plus importante de leurs dépenses informatiques à des services cloud. Pour les logiciels, le montant total de la transition est estimé à 36 milliards $. Toujours selon Gartner, le taux de conversion atteindra 37 % d’ici 2020.
Pour garantir la rapidité de votre expérience analytique, il est important de prendre la gravitation des données en considération pour planifier le déploiement des analyses.
Ce n’est pourtant pas une mince affaire, à l’heure où chaque entreprise semble adopter une stratégie de transition différente. Pour avoir l’assurance que vos services et applications resteront proches de vos données, vous devez opter pour des outils d’analyse et de visualisation prenant en charge un modèle hybride. Ainsi, vous n’aurez pas à changer de plate-forme à mesure des évolutions de votre environnement.

Les multiples visages des modèles d’analyse hybrides

Lorsque vous planifiez votre infrastructure analytique, la gravitation des données n’est pas le seul élément à prendre en considération. Vous devez également tenir compte de l’utilisation actuelle et future de vos applications.
Le fait de déplacer des données et de modifier des processus bien établis peut constituer un véritable défi, et vos applications analytiques doivent vous aider à chaque étape de cette transition.
Et surtout, vous devez tenir compte du comportement de tous vos utilisateurs, des administrateurs système aux utilisateurs finaux analysant leurs données. Disposez-vous d’une équipe dédiée pour surveiller le matériel et les logiciels sur site, ou vos utilisateurs professionnels exigent-ils d’accéder facilement à des applications cloud entièrement gérées ?
Un modèle hybride prend en charge à la fois les technologies sur site et dans le cloud pour vos données, votre infrastructure et vos applications. Il vous donne la flexibilité de choisir où déployer vos analyses aujourd’hui, et prendra en charge les évolutions futures de votre environnement

Les multiples visages des modèles d’analyse hybrides

SUR SITE. Les bases de données et les applications analytiques sont hébergées et gérées par l’entreprise elle-même, sur site. Cela signifie qu’elle a la responsabilité de mettre en service des ressources matérielles suffisantes et de veiller à les faire évoluer en fonction de la demande. Elle est également chargée de gérer activement les ressources logicielles.

Au lieu d’investir dans des ressources matérielles, vous pouvez louer des infrastructures auprès de prestataires de services cloud publics comme AWS, GCP ou Microsoft Azure, et déployer votre base de données ou vos analyses dans le cloud. L’utilisation d’une infrastructure ou d’une plate-forme en tant que service (IaaS ou PaaS) présente souvent des avantages en matière de coûts, d’évolutivité et de flexibilité.

SOLUTION SAAS ENTIÈREMENT HÉBERGÉE. Les analyses basées sur le Web peuvent également être proposées sous forme de logiciel en tant que service (SaaS). Vous n’aurez ainsi plus à vous soucier de la maintenance du matériel et des logiciels.
Gardez à l’esprit que les données ont la masse la plus importante, et les déplacer peut se révéler coûteux, en temps et en ressources. Un modèle analytique hybride vous permet de vous connecter à vos données peu importe le type de base de données ou de l’infrastructure qui les héberge.