infrastructure data

La qualité de la donnée au cœur de la modernisation des infrastructures

Transformation digitale, cloud, IA, IoT, blockchain, cybersécurité... les grandes tendances IT ont toutes un point commun : la donnée. 

Et une démarche imposée : la modernisation des infrastructures pour la supporter. Cependant, toutes les données n’apportent pas de valeur ni ne se prêtent à l’analyse !

Sans parler du temps perdu à rendre quelques données exploitables...  Le traitement de cette masse d’informations s’impose avant de parler d’efficacité et de prise de décision. 
 

La donnée est aujourd’hui au cœur de l’entreprise et participe à sa croissance. Certains n’hésitent d’ailleurs pas à assimiler la donnée à un nouvel ‘or noir’. Mais ce qui fait sa richesse, c’est aussi notre capacité à l’exploiter. Une part importante des investissements technologiques - stockage, BI Big Data et analytiques, IA (et aussi Machine Learning et Deep Learning), IoT, etc. - consiste à se doter des moyens d’exploiter ces données et à leur apporter plus de valeur. Et plus stratégiquement encore à accompagner la prise de décision...
Pour autant se cache une autre réalité, celle que toute donnée n’est pas bonne à exploiter ! Ainsi 66% des DSI (1) indiquent que seule la moitié des ressources de leur entreprise est digitalisée ! Pire, en plus d’accumuler des données souvent inexploitables, ces dernières peuvent polluer les travaux et analyses qui s’appuient sur elles, et nuire à l’automatisation et à la prise de décision.

Trop de temps consacré au nettoyage de la donnée

A quoi les responsables de la donnée, les analystes et les data scientists consacrent-ils une bonne partie leur temps ? Logiquement, la réponse devrait être à la modélisation et à l’analyse des données. Or, ces tâches ne représentent que réciproquement 12% et 14% de leur temps. L’essentiel de leurs activités est consacré au nettoyage, à la préparation et à la gestion des données (29%), au produit et au dépannage (20%), à l’intégration, à l’ETL (Extract, Transform, Load) et à la construction des pipelines (18%) (2).
Il s’avère également que 84% des entreprises ont déjà exploité des données erronées (3). Et 43% d’entre elles constatent que l’exploitation de données non fiables a un impact direct sur leur chiffre d’affaires. La fragmentation massive des données vient perturber le travail des équipes IT, qui dans 73% des entreprises françaises passent entre 10 et 50% de leur temps à gérer des données et des applications secondaires (4).

La qualité de la donnée s’impose

L’usage des données incorrectes réduit le temps utile des professionnels, ralentit les processus analytiques et relativise les résultats. L’entreprise doit procéder au nettoyage proactif des données inutiles, à la source comme dans les sauvegardes, et à la mise en place de processus de révision et d’approbation. Elle doit également mettre en place une analyse des risques avec la détection des données personnelles et sensibles sur les bases non structurées.
Pour aider les métiers et la DSI à améliorer et à accélérer l’analyse et la prise de décision, il faut prendre conscience que la qualité de la donnée exploitée est la réponse à ces problématiques. L’entreprise doit adopter ou redéployer les ressources et dépenses consacrées à la gestion, l’automatisation, la sélection et au nettoyage des données, vers des actions IT plus stratégiques, visant à mettre à disposition des données qualifiées et actualisées, qui pourront ainsi avoir un impact positif sur sa productivité et ses résultats.

Notes : 

1 - Rapport “The Future of Enterprise Data: Democratized and Optimized” de ASG Technologies
2 - Etude “The Definitive Data Operation Report” by Nexla.
3 - Etude “Les secrets du Tag Management” by Netvigie
4 - Vanson Bourne study pour Cohesity