Sans données fiables, aucune analyse ne tient, aucune automatisation ne fonctionne et aucune décision n’est pleinement éclairée. C’est pourquoi l’audit de qualité des données s’impose comme une étape incontournable de toute stratégie data mature.
Mais auditer ses données ne suffit pas : encore faut-il mesurer objectivement leur fiabilité. C’est ici qu’interviennent les KPI de qualité des données, de véritables indicateurs de pilotage qui permettent d’évaluer, suivre et améliorer la qualité dans la durée.
Un audit de qualité des données vise à évaluer l’état de santé du patrimoine informationnel d’une entreprise. Il ne s’agit pas simplement de détecter des erreurs, mais d’analyser les causes, les impacts et les leviers de correction.
Il répond à des questions simples, mais structurantes :
L’audit combine donc des analyses techniques (profiling, règles d’intégrité, contrôle des doublons…) et des analyses métier (pertinence, usage, valeur). Pour être efficace, il doit s’inscrire dans une démarche continue, soutenue par des indicateurs de performance stables et partagés.
Mesurer la qualité des données, c’est transformer une perception en fait objectif. Trop souvent, les organisations se reposent sur une intuition — “nos données ne sont pas fiables” — sans savoir réellement pourquoi. Les KPI viennent objectiver cette intuition et orienter les priorités.
Les KPI de qualité des données permettent de :
Un audit de qualité bien mené ne vise donc pas à pointer les erreurs, mais à instaurer un processus continu de fiabilisation.
Le taux de complétude indique dans quelle mesure les champs essentiels d’une base sont renseignés. Une donnée incomplète (adresse client sans code postal, facture sans date, etc.) peut compromettre une décision ou fausser une analyse.
Pourquoi c’est important :
Une donnée partielle perd sa valeur opérationnelle. Le taux de complétude permet de savoir si les équipes alimentent correctement les systèmes et si les processus garantissent une collecte exhaustive.
Comment le mesurer :
Taux de complétude = (Nombre de valeurs renseignées / Nombre total de valeurs attendues) × 100
Un taux inférieur à 95 % sur des données critiques doit alerter : il traduit un défaut de saisie, de collecte ou de gouvernance.
Le taux d’exactitude mesure le pourcentage de données correctes par rapport à une source de référence fiable. Par exemple, une base client peut contenir 10 % d’adresses obsolètes, ou un ERP peut référencer des produits à des prix dépassés.
Pourquoi c’est important :
Des données inexactes entraînent des erreurs opérationnelles, des campagnes marketing inefficaces ou des décisions financières biaisées.
Comment le mesurer :
Taux d’exactitude = (Nombre de valeurs correctes / Nombre total de valeurs vérifiées) × 100
L’objectif est d’atteindre une exactitude proche de 100 % sur les données critiques, comme les identifiants uniques, les prix ou les informations de contact.
Le taux d’unicité reflète la proportion de données non dupliquées dans un jeu de données. C’est un indicateur clé pour la qualité des référentiels (clients, produits, fournisseurs…).
Pourquoi c’est important :
Les doublons entraînent des erreurs d’interprétation, gonflent artificiellement les volumes et faussent les indicateurs de performance.
Comment le mesurer :
Taux d’unicité = (Nombre d’enregistrements uniques / Nombre total d’enregistrements) × 100
Un audit de qualité efficace doit intégrer un processus de déduplication automatisé et documenté, souvent piloté par le Data Steward.
Le taux de cohérence évalue si les relations entre les données respectent les règles métier définies. Par exemple, une commande ne peut pas être datée avant son enregistrement, un employé ne peut appartenir à deux départements à la fois.
Pourquoi c’est important :
Des incohérences nuisent à la crédibilité des systèmes d’information et peuvent masquer des anomalies graves.
Comment le mesurer :
Taux de cohérence = (Nombre de valeurs cohérentes / Nombre total de valeurs testées) × 100
Les outils de data profiling ou de contrôle d’intégrité (comme KNIME, Talend ou Informatica) permettent de détecter automatiquement ces incohérences.
Le taux d’actualité mesure la proportion de données récentes, c’est-à-dire dont la date de mise à jour est encore valide au regard du cycle de vie métier.
Pourquoi c’est important :
Une donnée juste mais obsolète reste inutile. Ce KPI est crucial dans les domaines où les informations changent rapidement (tarifs, effectifs, stocks…).
Comment le mesurer :
Taux d’actualité = (Nombre de données à jour / Nombre total de données) × 100
Une actualisation régulière des données — via des processus automatisés ou des rappels de mise à jour — garantit la pertinence des analyses.
Ces cinq KPI ne doivent pas être lus isolément. Ils composent une vision d’ensemble qui révèle les forces et faiblesses du système d’information.
Un bon audit de qualité des données s’appuie sur :
Les entreprises les plus matures intègrent ces indicateurs dans un tableau de bord de qualité des données, partagé entre métiers, IT et Data Office.
Ces cinq indicateurs prennent tout leur sens lorsqu’ils sont regroupés dans un tableau de bord de qualité. Celui-ci permet de :
Les meilleurs tableaux de bord intègrent également une dimension temporelle : distinguer les erreurs historiques (héritées du passé) des anomalies récentes permet de mesurer l’efficacité des actions correctrices.
Le Data Steward est le chef d’orchestre de la qualité des données.
C’est lui qui définit les règles de mesure, conçoit les contrôles, documente les anomalies et anime la démarche d’amélioration continue.
Il collabore étroitement avec le Data Owner pour traduire les exigences métiers en critères mesurables, et avec le Data Custodian pour s’assurer que les règles sont techniquement implémentées dans les systèmes.
Dans les organisations avancées, les KPI de qualité ne sont plus de simples métriques, mais de véritables leviers de gouvernance. Ils alimentent les comités data, orientent les budgets d’amélioration et favorisent la responsabilisation des métiers vis-à-vis de la donnée.
Mesurer la qualité des données n’est pas une fin en soi. C’est le point de départ d’une transformation durable.
Une entreprise qui suit ses KPI de qualité des données apprend à :
La qualité des données est un investissement continu, mais c’est aussi le socle de toute stratégie data ambitieuse. Une gouvernance efficace commence par un diagnostic précis. Et un diagnostic précis commence toujours… par de bons indicateurs.