Aller au contenu
Logo Skeepers
Open mobile menu button
Data quality management : entretien avec Benjamin, Skeepers
Customer Data Activation Humaniser ses parcours clients

Data quality management : entretien avec Benjamin, Skeepers

Savoir récolter de la donnée c’est une chose. Savoir la rendre pertinente c’en est une autre. Et c’est tout le travail des personnes attachées au service du Data quality management. Le point avec Benjamin, team leader data analyst chez Skeepers, pour la solution Insight Activation.

Comprendre le Data quality management : Entretien avec Benjamin, data analyst chez Skeepers

« Il est essentiel de disposer d’une donnée « clean ». C’est à cela que sert le Data quality management. Si vous avez une donnée propre, précise, vous pouvez mettre en place des actions marketing efficaces … »  Benjamin, Team Leader Data Analyst chez Skeepers, (PMA).

Quelle est votre définition du Data quality management ?

C’est le contrôle de la donnée. C’est s’assurer de sa qualité, de sa cohérence et de sa pertinence. Quand on récolte de la donnée chez un client, je dirais qu’il y a d’abord un travail de data management : gestion de la base de données des clients, harmonisation de ces données … Puis un travail de data quality : s’assurer de la pertinence de la donnée qu’on remonte, vérifier qu’il n’y a pas d’incohérence.

Par exemple ?

Je vois qu’il y a eu une transaction un dimanche dans une enseigne physique, or le magasin est fermé ce jour là. C’est une anomalie. La data remontée est donc erronée. On regarde alors chaque jour de près les données pour vérifier qu’il n’y a pas d’erreurs. Avant, un grosse partie du travail était réalisée humainement mais aujourd’hui on élabore des algorithmes de machine learning qui visent à détecter automatiquement ces anomalies.

Notre différenciation passe par notre expertise à la création de ces algorithmes !

Est-ce que le Data quality management prend du temps ?

Oui ! J’ai pour habitude de dire qu’on nettoie la donnée, et le nettoyage c’est chronophage. Par exemple, la civilité des cartes de fidélité peut être complexe à gérer. Un client nous envoie « Monsieur » avec un « M » ; un autre écrit « Mr », un autre encore remonte « monsieur » en toute lettre… Il faut harmoniser tout cela, et ça passe par la mise en place d’une ontologie (définir un schéma fixe à nos bases de données) et normaliser la data. Et ça prend beaucoup de temps. C’est 80% de notre travail ! Mais c’est primordial. Plus la donnée est « propre », plus nos rapports, nos statistiques, nos prévisions sont fiables.

A quoi sert le Data quality management ?

Au sein de la solution Insight Activation, nous avons décidé de faire du marketing écologique, durable. Cela peut surprendre mais c’est bien le cas. Plutôt que de recevoir de la part d’une enseigne 2 mails par jour, nos outils, associés à la data, aident nos clients à cibler les bonnes personnes, au bon moment, avec le bon support et le bon contenu. Et avec la montée de l’intelligence artificielle, tout cela tend à se faire automatiquement. Le pré-requis essentiel est de disposer d’une donnée « clean ». C’est à cela que sert le Data quality management. Si vous avez une donnée propre, précise, vous pouvez mettre en place des actions marketing efficaces.

Quelles actions par exemple ?

Vous pouvez par exemple cibler sur Facebook toutes les personnes étant détectées par nos modèles comme « intentionnistes » à l’achat. Nous devons alors avoir la certitude que les données sur lesquelles s’appuie notre modèle sont correctes pour  le rendre pertinent et robuste dans le temps. D’où l’importance d’avoir une donnée qualitative, propre, nettoyée.

Quelles sont, selon vous, les clés d’un bon Data quality management ?

En premier lieu, c’est d’avoir une bonne qualité de données entrantes. Nous accompagnons pour cela les entreprises dans l’élaboration des spécifications des données que l’on souhaite recevoir. On s’assure ensuite que la data collectée est cohérente avec leurs propres métriques (panier moyen, temps passé, pages vues…).

Ensuite, je pense qu’il est essentiel de mettre en place des process rigoureux avec des algorithmes qui tournent en temps réel. Car quand il y a une anomalie, on doit le savoir le plus vite possible pour ne pas intégrer de données erronées.

Enfin, être entouré d’experts en statistiques capables d’élaborer des stratégies est primordial.