NB : le billet qui suit est une tribune libre rédigée par Yves de Montcheuil, de Talend
La majorité des entreprises s’accorde à penser que la bonne qualité de leurs données est source d’efficacité et de performance, et que leur capacité à gérer et à contrôler ces données tout en garantissant leur intégrité est vitale pour leur réussite à long terme.
Il est ainsi inquiétant de découvrir dans une enquête réalisée par Computing, que plus de 40 % des décideurs informatiques du Royaume-Uni acceptent pourtant que les données qu’ils exploitent ne soient pas fiables et ne répondent pas à leurs besoins métiers.
Malgré ce constat, le même pourcentage admet ne pas avoir pris les mesures nécessaires pour nettoyer et corriger leurs données stratégiques lorsque des erreurs ont été trouvées. Déjà en 2002, The Data Warehouse Institute évaluait à 600 M$ le coût annuel de la non qualité des données et plus récemment en 2011, une enquête a dévoilé que ce coût représentait 26 M€ par an pour le seul secteur de la distribution en Belgique.
Bien que ces enquêtes ne couvrent pas directement notre pays, on peut penser que les chiffres Français se situent au même niveau. Dans une étude de 2011 réalisée par le CXP pour DataFlux, 13 % des entreprises interrogées (principalement des grandes sociétés) admettent ne pas avoir clairement établi et mis en œuvre de stratégie de gouvernance des données. Et 51 % des organisations qui n’ont pas développé une telle stratégie ont révélé que leurs données étaient gérées par les utilisateurs finaux, plutôt que par des responsables données ou des data stewards.
Une minorité significative des entreprises semble entretenir une certaine suffisance ou tout au moins une réticence à prendre soin des données stratégiques.
Selon l’enquête de Computing, 14 % des DSI et responsables informatiques du Royaume-Uni déclarent à propos des erreurs trouvées dans les données de référence (« master data ») : « ce n’est pas mon problème », attitude surprenante de la part de professionnels impliqués au quotidien dans la gestion de données. De plus, 7 % d’entre eux déclarent « ne pas avoir voulu ouvrir la boite de Pandore » et 5 % prétendent qu’ils ne voient pas où est le problème : « c’est juste un enregistrement douteux ». Consolidés, ces chiffres démontrent qu’un quart des DSI ne prennent pas les problématiques de gestion de données au sérieux.
Comme le remarque l’enquête : « dans certains cas, un enregistrement inexact, incohérent ou non-standard n’aura aucun impact métier ou financier. Mais quelle entreprise peut assumer ce risque ? Quelle entreprise peut se permettre de parier que les erreurs ne concernent que des informations peu importantes ? ».
En vérité, ce qui pourrait apparaître au premier coup d’œil comme une erreur anodine peut potentiellement avoir un impact négatif sur une entreprise à long terme. Par exemple, deux opérateurs d’un centre d’appels saisissent la même adresse, mais l’un des deux commet une erreur (« 25 Avenue du Miane » au lieu de « Avenue du Maine ») ; cette erreur peut avoir des incidences non seulement sur la capacité de l’entreprise à commercialiser efficacement ses produits ou services à ce client, à respecter les réglementations (liste rouge…) et à conserver des enregistrements fiables des transactions du client, mais également sur les coûts de mailing et la satisfaction des clients.
Au final, les problématiques de qualité de données peuvent avoir un impact sur les revenus de l’entreprise. Sans données précises sur ses clients, aucune entreprise n’est en mesure d’atteindre de manière consistante ses objectifs commerciaux. Une faible qualité de données affecte la capacité à contacter les clients, à leur proposer des offres de ventes croisées ou additionnelles, et à satisfaire leurs besoins ou désirs.
L’efficacité de l’entreprise peut également être mise à mal : des données peu dignes de confiance débouchent sur un gaspillage certain en termes de temps et de ressources, puisque l’entreprise est forcée de vérifier et revérifier des chiffres et des informations avant de prendre des décisions.
La mauvaise qualité des données interdit en outre le partage avec d’autres collègues de l’entreprise.
Enfin une faible qualité de données empêche de respecter les réglementations industrielles et les lois locales – Sarbanes Oxley, Bâle, Listes rouges et HIPAA. Et cette absence de conformité peut aboutir à des amendes et des taxes inutiles.
En résumé, à l’heure où les données sont devenues le nouveau pétrole (le carburant du développement économique), vecteur d’un avantage concurrentiel certain, préserver leur intégrité est devenu critique. Le fait que les entreprises soient de plus en plus proches de leurs clients grâce aux réseaux sociaux, est à double tranchant : cette proximité est à la fois une opportunité et un danger, puisqu’une donnée de mauvaise qualité peut remettre en cause des années de relation.
L’enquête de Computing conclut : « les entreprises ne peuvent se permettre de se montrer aussi désabusées en matière de MDM (Master Data Management) qu’elles semblent l’être. Déployer des pratiques et technologies de MDM est essentiel. Une approche agile, à travers laquelle la qualité des données est intégrée aux tactiques de management de données utilisées au quotidien, est aussi importante pour permettre aux équipes de régler une part considérable du problème. Une plate-forme unifiée autorise non seulement la réutilisation à travers les différents silos de données, mais démarre par la définition d’un mode standard de résolution des problèmes, quel que soit l’endroit où sont stockées les données. »
Les systèmes de MDM les plus efficaces garantissent que l’ensemble des informations circulant dans l’entreprise – depuis les données clients jusqu’aux informations produits – puissent être collectées, consolidées, de bonne qualité et distribuées à travers l’ensemble de l’organisation.
Le MDM fournit la boite à outils, les règles et les processus nécessaires à la définition et à la gestion de ces données. Et la qualité des données doit être un composant essentiel de ce processus.
Pour cela des outils très efficaces permettent d’assurer des opérations de profiling de données, de normalisation, de parsing et de matching. Ils permettent aussi de développer des algorithmes aidant à localiser des doublons ou des erreurs.
Ensemble, ces outils participent à la prise de conscience des entreprises : elles doivent désormais assumer la responsabilité de garantir à leurs données une qualité optimale.
Et vous ?
Gérez-vous la qualité des données de votre entreprise ? Et comment ?
« Un quart des DSI ne prennent pas la gestion des données au sérieux »,
Par Talend
« Un quart des DSI ne prennent pas la gestion des données au sérieux »,
Par Talend
Le , par Gordon Fowler
Une erreur dans cette actualité ? Signalez-nous-la !