Petit lexique du BigData

Avec l’importance grandissante des technologies BigData, les entreprises se sont retrouvées confrontées à une multitude de nouvelles notions, qu’elles ont dû appréhender.

Voici donc un petit lexique du BigData, car la maîtrise de ces nouveaux domaines commence par la compréhension de ces notions parfois complexes.

 

— 3V —

Cette notion désigne les trois variables résumant le BigData qui sont le Volume, la Variété et la Vitesse.
Le volume et la variété sont une conséquence directe de la digitalisation. En effet, ces deux notions impliquent fortement une mise en place d’un système BigData, induisant de ce fait la troisième, qui est la vélocité.
Par la suite, certains acteurs ont vu le besoin d’ajouter deux autres indicateurs qui sont la Véracité et la Valeur. La fiabilisation de la donnée et sa valeur ajoutée pour l’entreprise sont des facteurs qui entrent en compte lorsque l’on parle de BigData.

Ces notions seront définies plus précisément plus bas.

 

— API —

Les Application Programming Interface sont des solutions informatiques regroupant un ensemble de méthodes, de fonctionnalités et de routines qui vont s’intercaler entre un logiciel et d’autres logiciels afin de permettre aux seconds (consumer) d’utiliser les fonctionnalités du premier (producer). Une API est en quelque sorte une porte, qui, tout en masquant la complexité d’un système, ouvre l’accès à un certain nombre de ses fonctions standard.

 

— Crowdsourcing —

Faire appel à la collectivité, aux utilisateurs d’une application pour le développement et l’enrichissement de celle-ci. On pourra citer comme exemple, la base de connaissance Wikipédia ou l’application de guidage en temps réel Waze. Les informations sont recueillies auprès des utilisateurs finaux, qui ajoutent eux-mêmes les informations utiles.

 

— Data gouvernance —

La data gouvernance vient aider à contrôler la disponibilité, l’interprétabilité, l’intégrité, la fiabilité et la sécurité des données qui transitent dans l’entreprise. L’importance économique que prend la data nécessite le besoin d’en encadrer les usages.

 

— Data privacy —

Jusqu’où les entreprises peuvent-elles aller quant à l’exploitation des données personnelles récoltées ? L’un des enjeux du BigData est de trouver la limite à ne pas franchir, entre l’utilisation des données pour fidéliser le client et lui permettre un service de qualité, tout en conservant sa confiance quant à la sécurité des informations personnelles qu’il confie.

 

— Machine Learning —

Ce processus d’automatisation de l’apprentissage fait appel à des logiques d’Intelligence Artificielle pour mettre une machine en capacité d’assimiler elle-même des modèles à partir des données auxquelles elle a accès. Avec le Machine Learning, certains systèmes vont pouvoir améliorer leur performance prédictive, optimiser leur fonctionnement général et gagner en clarté dans leur mode de représentation de la donnée.

 

— Map Reduce —

Map Reduce est un modèle d’architecture et de développement informatique qui permet de procéder à des calculs parallèles sur des masses de données. En distribuant celles-ci dans un cluster de machines, il va permettre le traitement de volumétries importantes.

 

— Master Data Management —

Le MDM est un référentiel ayant la capacité à gérer efficacement des données références qui peuvent être de plusieurs types (clientes, produits, etc.), de manière à ce que celles-ci soient complètes, cohérentes et exactes.

 

— Objets connectés —

La hausse du nombre de systèmes et d’équipements branchés sur le réseau internet génère des quantités de plus en plus massives d’informations. Avec l’internet des objets, des opportunités business importantes s’offrent aux entrepreneurs, mais également une multitude de défis pour réussir à tirer partie des flux de données échangés entre les systèmes.

 

— Smart Data —

Si la notion de Big Data sert à qualifier les technologies autour du traitement de volumes de données de plus en plus important, la notion de Smart Data désigne, quant à elle, la capacité à adresser un use case précis en collectant les données les plus pertinentes et celles qui seront facilement exploitables. Ce terme est davantage tourné vers l’efficacité du ciblage que vers l’importance de la volumétrie.

 

— Temps réel —

Le temps réel est l’une des principales caractéristiques du Big Data. La donnée n’est plus figée à un instant T, au contraire, elle est captée en temps réel. Cette notion de temps réel ne signifie pas toujours l’instantanéité, et peut renvoyer à différentes temporalités en fonction de la réalité du business.

 

— Valeur —

Il est important de déterminer quelle donnée apportera le plus de valeur ajoutée à l’entreprise afin de ne pas stocker tout et n’importe quoi. On pourra, par exemple, prendre l’exemple du stockage des données de navigation et des données de serveur dans un cadre d’amélioration de l’expérience utilisateur pour une application ou un site web.

 

— Variété —

Qu’elles soient structurées ou non, les données que doivent traiter au quotidien les entreprises se caractérisent par une grande hétérogénéité de formats et de sources. Cependant, travailler avec des données structurées de manières différentes que celles provenant des systèmes internes à l’entreprise nécessite une nouvelle façon de penser et de travailler pour exploiter toutes les sources de datas.

 

— Véracité —

La véracité de la donnée, sa précision, sa pertinence vont avoir une importance cruciale, obligeant les entreprises à une très grande rigueur dans la collecte des données exploitées, mais également dans la manière dont elles vont les croiser, les enrichir. Plus la donnée sera fiable, plus les communications et les actions envers les clients finaux seront pertinentes.

 

— Vélocité —

La hausse du volume de données impacte forcément le débit de traitement de ces dernières. Capturer et traiter de façon la plus efficace possible ces flux de données est un véritable défi pour les entreprises. C’est pour répondre à ce problème, que la mise en place de flux en temps réel devient indispensable.

 

— Volume —

La volonté de collecter un volume important de données fait émerger de nouvelles questions : comment stocker ces données efficacement ? Comment les traiter pour en tirer de la valeur ? C’est ce volume grandissant de données qui va pousser les entreprises à se tourner vers des solutions d’architecture Big Data adéquates.

 

Source : L’encyclopédie du BigData 2016