Infosessions Data Quality
Gestion Intégrée des anomalies
En novembre 2010, le Data Quality Competence Center a présenté une actualisation des résultats de ses recherches et consultances antérieures dans une session d'information intitulée "Gestion intégrée des anomalies".
Gestion intégrée des anomalies (4587 kB)
Data Quality best practices
La qualité d’une base de données désigne son adéquation relative aux objectifs qui lui sont assignés. Cette question est aujourd’hui considérée comme un facteur stratégique. Elle revêt en effet des enjeux considérables lorsque l’information est un instrument d'aide à la décision ou d’action sur le réel (domaines scientifiques, militaires, administratifs,...).
Après un bref historique de la notion de "qualité" de l'information, la signification globale de cette notion dans le contexte administratif de "l'e-government" est précisée. Les symptômes, les coûts et les causes de la "non qualité" sont ensuite présentés.
La “qualité totale” n’existe pas car le concept est relatif: sur la base d’un arbitrage de type “coûts-bénéfices”, les dimensions de la qualité les plus pertinentes (fraîcheur de l’information, rapidité de transmission des données, précision,…) devront être retenues dans un contexte donné. On parle de “fitness for use”, d’adéquation aux usages. Dans une seconde partie, le concept de "donnée administrative" est analysé de manière plus approfondie de façon à spécifier les indicateurs de qualité les mieux adaptés à ce type d'information.
Sur cette base, dans un dernier point, plusieurs méthodes d'amélioration de la qualité de l'information sont examinées et ce, dans le contexte d'un cycle continu: examen et amélioration des concepts et processus de base ("master data management"), production d'informations en vue du déploiement de stratégies de gestion et, enfin, documentation des bases de données et formations.
L'exposé est donné par Isabelle Boydens (français), consultant Recherches, Smals.
L'ensemble de l'exposé est illustré de cas concrets issus de travaux de consultance menés dans le domaine des sytèmes d'information administratifs et en particulier, des bases de données de la sécurité sociale et des répertoires d'entreprise.
Cette session d'information est suivie par une seconde partie complémentaire consacrée aux "outils et techniques" (Data Quality Tools) destinés à traiter, a posteriori, des ensembles de données "imparfaites" présentes dans une base de données (algorithmes de “dédoublonnage”, de “matching”, de “data cleansing”,…). La présentation reposera également sur un "case study".
Cette présentation a été rédigée dans la langue de l'auteur.
Data Quality Best Practices (1608 kB)
Data Quality Tools
La qualité des données représente pour beaucoup d’organisations un défi de taille. Elle est considérée par les bureaux d’analystes Gartner et Butler Group comme un point critique pour le succès des initiatives SOA, la mise en place de systèmes de Business Intelligence, de Customer-Relationship Management, entre autres. Pour des administrations, des données de mauvaise qualité mettent en danger le traitement des dossiers des administrés, les décisions stratégiques, les initiatives d’échanges de données entre administrations ou la construction de sources authentiques.
Dans ce contexte, un marché d’outils dédiés à l’analyse et à l’amélioration de la qualité des bases de données s’est fortement développé depuis plusieurs années. Il a d’ailleurs été reconnu comme un marché à part entière par le groupe de recherche Gartner, qui lui a consacré un "Magic Quadrant" en Avril 2006.
Cet exposé, qui fait suite à la session d’information "Data Quality: Best Practices" d’Isabelle Boydens, présente les apports de ces outils. L’exposé se structure en deux parties.
La première partie présente les outils d’un point de vue fonctionnel: quelles sont les grandes familles de fonctions offertes par ces outils? Quels aspects méthodologiques président à leur mise en œuvre? Quel est l’impact des différentes techniques employées sur les fonctions offertes?
La seconde partie est orientée vers la pratique et présente l’état du marché des outils de Data Quality ainsi que l’apport de ces outils par rapport à un développement in house. Ces aspects sont illustrés par une étude de cas représentative basée sur le répertoire des employeurs de l’ONSS.
Enfin, ces outils sont replacés dans le contexte général des différentes activités qui interviennent dans une approche d’amélioration de la qualité des données.
L'exposé est donné par Yves Bontemps (français), consultant Recherches, Smals.
Cette présentation a été rédigée dans la langue de l'auteur.
Data Quality Tools (1544 kB)