Data Management
20/2/2024

Qualité des données : enjeux, définition et critères d’évaluation

Photo de Marie de Vesvrotte
Marie de Vesvrotte
Responsable Marketing
Ensemble de flux réunis

Quelles que soient les causes, les conséquences de données erronées sont multiples. Or si le département financier est rarement le propriétaire des données, il est invariablement tenu responsable de la qualité des données. 

Pour fiabiliser les prévisions, accélérer les cycles d’analyse ou encore pour aller vers plus de prédictif, il est nécessaire de disposer de données qualifiées, mises à jour et sécurisées.

Le coût de la non-qualité des données dans le processus budgétaire

Vous êtes-vous déjà demandé combien pouvait coûter la non-qualité des données ? Gartner l’a fait pour nous ! 12,9 millions de dollars, c’est le prix que coûterait aux organisations des données de mauvaise qualité chaque année pour des entreprises de la taille du Fortune 500.

Pour prendre un exemple concret (quoique ancien), en 2017, une erreur comptable au sein de l’entreprise Uber a entraîné des dizaines de millions de compensations sous-payées. Née d’une mise à jour de leurs conditions de service, Uber a évité de soustraire les taxes et les frais avant de percevoir une commission de 25%. Le résultat de cette erreur, un coût de 900$ par chauffeur.

Manque de productivité des collaborateurs, violation de conformité, baisse de compétitivité, décisions bancales... : au-delà de l’impact financier, des données approximatives engendrent inévitablement des erreurs stratégiques.

Vous l’aurez compris, soigner vos données n’est plus une option, non seulement pour éviter des coûts élevés mais également pour apporter une valeur durable à l’organisation.

Mais alors qu’est-ce qu’une donnée de mauvaise qualité ?

Indisponible, non-conforme, inexacte, incomplète, obsolète, incohérente, non-sécurisée... Les adverbes sont longs pour définir la non-qualité d’une donnée. Ce que nous pouvons retenir c’est que la qualité des données peut se dégrader à deux niveaux. Sur la description de ces dernières, des conflits entre noms d’objets par exemple, et sur la donnée elle-même : doublons, valeurs nulles, données obsolètes...

Les critères de la non-qualité des données

  • Inexacte : informations manquantes, incomplètes, chiffres incorrects... 
  • Non-conforme : par sa nature ou sa forme, elle ne respecte pas la législation ou les normes en vigueur.
  • Non-contrôlée : suivi insuffisant pouvant entraîner des doublons ou une détérioration au fil du temps.
  • Non-documentée : l’absence de documentation sur la provenance, le sens et la méthode de collecte de la donnée qui rend son interprétation difficile, compromettant la transparence et la compréhension.
  • Hétérogène : les formats différents, les structures variables ou les unités de mesures incohérentes impactent les capacités d’intégration et d’analyse.
  • Déconnectée : l’absence de cohérence entre les données d’une source à une autre peut entraîner une fragmentation des informations, compromettant la vue holistique nécessaire à la prise de décision.
  • Non-traçable : l’incapacité à suivre l’historique des modifications d’une donnée peut rendre difficile la résolution des incohérences ou des erreurs.
  • Dormante : sans actualisation, la donnée est passive et devient un coût pour l’organisation.
  • Statique : elle n’est pas mise à jour régulièrement, devenant obsolète et perd en pertinence.

Vous pourriez dire “C’est la faute du service comptabilité !”, malheureusement cela serait trop facile. Une donnée de mauvaise qualité est la résultante de plusieurs facteurs : interventions humaines (saisie, transcription ou manipulation), problème de compatibilité lors de l’intégration des données, utilisation de systèmes d’informations multiples conduisant à un manque d’homogénéité des données collectées...

Définition et caractéristiques de mesure de la qualité des données

Qu’est-ce que la qualité des données ?

Avant de rentrer dans le vif du sujet, redéfinissons ce qu’est une donnée de qualité. C’est avant tout chose une donnée accessible et intègre, conforme, complète, fiable, à jour, sécurisée et dont on connaît l’origine.

Vous me direz : facile ! Mais adapté au processus budgétaire, c’est une tout autre affaire. Votre donnée doit répondre à des qualités à satisfaire des exigences internes (pilotage, prise de décision) et externes (réglementations) à l’organisation.

La liste des critères de mesure de la qualité des données est nombreuse, mais une chose est sûre, il vous faudra les mettre en perspective à l’usage et à l’exploitation qui en sont faits. Il faut toujours se poser la question : comment les utilisateurs pourront exploiter au mieux la donnée pour gagner en précision dans leurs prévisions budgétaires ?

12 critères d’évaluation de la qualité des données

Maintenant que nous avons posé les bases, revenons sur 12 critères de mesure de la qualité des données adaptés au département financier : 

  • L’unicité : c’est certainement le critère le plus important, puisqu’il s’agit ici de doublon! Il permet de s’assurer que chaque donnée réponde à un identifiant unique. Deux méthodes s’offrent à vous : la création de règles spécifiques pour détecter, signaler et fusionner les enregistrements en double ou l’utilisation d’algorithmes de rapprochement exacte ou probabiliste reposant sur les fréquences et approximations.
  • La complétude : cela permet d’évaluer si toutes les données nécessaires sont présentes au niveau de l’objet ou d’un attribut plus spécifique. 
  • L’exactitude : il s’agit de déterminer si les données sont correctes et exemptes d’erreurs. 
  • La conformité : permet de mesurer le degré de conformité aux normes comptables et aux réglementations en vigueur. 
  • La cohérence : évalue si les données sont cohérentes à travers différentes sources et périodes. Dans votre cas, une incohérence des données peut résulter de variations inexplicables dans les chiffres, telles que des écarts significatifs entre les prévisions et les résultats réels, des fluctuations inhabituelles dans les marges bénéficiaires, ou des changements brusques dans les indicateurs financiers clés. 
  • La sécurité : dans le milieu financier, cette mesure prend tout son sens. Vous devez garantir que vos informations sensibles sont protégées contre tout accès non autorisé et que des mesures de sécurité appropriées sont en place. 
  • L’intégrité : mesure si les données restent intactes et non altérées malgré les liaisons faites entre les données ou un objet. Cela permet entre autre de prévenir la manipulation frauduleuse. Un outil de gestion de référentiel sera opportun pour identifier et recréer les liaisons manquantes. 
  • La fraîcheur : cela évalue la pertinence temporelle des données. Ce n’est pas à vous que nous allons l’apprendre, mais travailler son budget avec des données obsolètes complexifie et fausse les prévisions. 
  • L’accessibilité : mesure la facilité d’accès aux données. Ce critère est particulièrement important dans un contexte d’élaboration budgétaire pour savoir quel est le point de vérité de la donnée au sein du SI. Par ailleurs, il est important d’ajuster cette accessibilité en tenant compte du volume des bases et de l’usage qui est fait de la donnée. Il faudra rendre la donnée accessible soit à chaque mise à jour (mode événement, particulièrement utile pour un accès immédiat et en temps réel), ou à la demande de l’utilisateur via des requêtes, ou pour terminer en mode batch pour les synchronisations en masse (souvent automatisé, ce module réduit l’intervention humaine et donc le risque d’erreur). 
  • La pertinence : évalue si les données sont utiles pour vos objectifs. La donnée doit être calibrée de manière à fournir une information suffisamment détaillée pour répondre aux exigences opérationnelles sans pour autant générer de complexités inutiles. Il faut trouver une juste adéquation entre la nature de la donnée et son utilisation pour contribuer à maximiser son impact opérationnel. Pour assurer sa pertinence, la donnée doit être ajustée et alignée de manière adéquate avec son usage. 
  • La compréhensibilité : la donnée doit être compréhensible par l’ensemble des utilisateurs, et pas seulement des personnes qui réalisent l’élaboration budgétaire. Ce critère mesure la clarté et la facilité de compréhension des données. Pour y parvenir, la documentation est la clé (glossaire métier, dictionnaire de données, inventaires des traitements et usages liés aux données...). 
  • La traçabilité : cette mesure, proche de la compréhensibilité, consiste à suivre et à documenter les modifications apportées aux données au fil du temps. Pour des raisons d’audit et de conformité, vous comprendrez que celle-ci est particulièrement importante. 

Nous avons passé en revue les 12 mesures de qualité des données les plus couramment utilisées dans le cadre d’une amélioration du processus budgétaire. Chaque organisation étant unique, vous devrez certainement adapter ces indicateurs clés de performance ou en créer de nouveaux.

Attention, toutes les données n’ont pas la même importance. N’hésitez pas à faire un audit de vos données en amont pour prioriser celles dont la mise à jour aura le plus de valeur ajoutée.

Exemple de modèle de plan d’amélioration de la qualité des données

Pour vous accompagner dans votre démarche de qualité des données, vous trouverez ci- après un schéma reprenant les étapes clés pour fiabiliser vos données sur l’ensemble du processus. 

Modèle pour améliorer la qualité des données
Rond violet avec fleche vers le haut