Logiciels de Data Quality et IA : l’ajout de fonctionnalités ne suffit pas à créer de la valeur
L’intelligence artificielle devient un levier structurant dans l’évolution des logiciels, portée par une adoption rapide et les attentes croissantes du marché. Selon le rapport Top 250 Numeum-EY, 83 % des éditeurs la placent désormais parmi leurs priorités technologiques, tandis que plus de 60 % ont déjà intégré des fonctionnalités d’IA générative dans leurs solutions. Cette accélération marque un basculement : les logiciels ne se contentent plus d’exécuter des règles, ils tendent à apprendre, analyser et assister les décisions.
Cependant, l’intégration de l’IA, souvent superficielle, reste abordée sous l’angle de l’accumulation fonctionnelle. Dès lors, comment transformer cette capacité technologique de l’IA en valeur réellement opérationnelle et maîtrisée dans le temps ? Dans des domaines comme la Data Quality, où la fiabilité et la cohérence des traitements sont centrales, l’enjeu consiste à hybrider l’IA avec les mécanismes existants afin d’en maîtriser la valeur.
Plus qu’intégrer l’IA, transformer la valeur du logiciel
Aujourd’hui, l’IA redéfinit les standards du marché du software et impose de repenser la manière dont les logiciels créent de la valeur. Dans les faits, la tentation reste forte de l’intégrer comme une couche supplémentaire, visible mais peu structurante, sans réel lien avec les usages métier.
Au-delà de cette approche, un changement plus profond s’opère. Les logiciels évoluent d’une logique d’exécution vers une capacité à orchestrer des traitements plus complexes, combinant règles, analyse et assistance. C’est pourquoi intégrer l’IA ne consiste ni à multiplier les fonctionnalités, ni à remplacer les logiques applicatives existantes, mais à enrichir les processus par des capacités ciblées. L’enjeu : créer une valeur maîtrisée, fondée sur une articulation cohérente entre ces différentes briques.
Dans une solution de Data Quality, cette logique vise à articuler l’IA avec des traitements existants garantissant la fiabilité des données. Les processus de normalisation, de validation ou de déduplication restent fondés sur les logiques explicables et maîtrisées de la solution logicielle. L’IA vient les compléter en apportant une capacité d’analyse et de contextualisation, notamment pour interpréter des données hétérogènes ou non structurées. Elle intervient là où les règles atteignent leurs limites — données ambiguës, saisies non structurées ou situations nécessitant une interprétation. L’intégration repose sur un principe simple : cibler les points où l’IA apporte une valeur que les traitements classiques ne peuvent pas fournir.
L’hybridation : augmenter l’existant plutôt que remplacer
Intégrer l’IA dans un logiciel existant ne relève pas d’un choix unique, mais d’une série d’arbitrages guidés par les usages métier. Une erreur fréquente consiste à réduire cette intégration aux seuls modèles génératifs, sans tenir compte de leurs limites. Or, leur inconstance potentielle et leur manque d’explicabilité les rendent inadaptés à certains traitements critiques, notamment dans des contextes de conformité ou de qualité des données. En pratique, le choix technologique doit répondre à une logique simple : mobiliser le bon moteur pour le bon usage, en fonction des exigences de fiabilité, d’explicabilité ou d’interaction.
Cette approche conduit à mobiliser plusieurs familles de modèles, de manière complémentaire. D’un côté, des approches explicables, souvent fondées sur des modèles probabilistes, particulièrement adaptées aux traitements structurés, où la robustesse et la traçabilité des résultats sont essentielles. De l’autre, des modèles de deep learning, utilisés dans des contextes d’interaction avec l’utilisateur, notamment pour traiter des
requêtes en langage naturel ou accompagner des actions en temps réel. Ainsi, plutôt que de privilégier une technologie unique, il s’agit d’orchestrer ces briques selon les besoins.
Dans le domaine de la Data Quality, cette hybridation se traduit comme suit :
- Les traitements structurants — normalisation, validation ou déduplication — reposent sur des règles déterministes et des algorithmes métiers éprouvés, propres au logiciel, conçus pour garantir la constance, la traçabilité et la reproductibilité des résultats, notamment sur des volumes importants.
- Les modèles d’IA viennent s’y intégrer en complément, sur des cas où leur valeur est différenciante : interprétation de données en langage libre, analyse des causes d’anomalies ou assistance à la configuration des règles.
Cette articulation permet d’introduire une forme d’intelligence opérationnelle dans les processus existants. L’IA ne se limite plus à détecter des erreurs, mais contribue à en analyser les origines, à suggérer des actions correctives ou à accompagner l’utilisateur dans ses décisions. Elle peut également apporter un éclairage complémentaire sur les résultats produits, en les replaçant dans un contexte d’usage. Ce faisant, elle agit comme un levier d’augmentation ciblée, sans remettre en cause les traitements qui garantissent la qualité des données.
Structurer une IA durable dans le logiciel
Au-delà de son intégration, l’IA pose une question de durabilité dans le temps. Tous les usages ne se valent pas, et leur pertinence ne se mesure pas uniquement à court terme. Pour un éditeur, l’enjeu consiste à inscrire l’IA dans une trajectoire produit cohérente, capable de délivrer une valeur continue sans dégrader la maîtrise du logiciel.
Dans la continuité de l’orientation métier et de l’hybridation, l’approche préconisée par DQE repose sur un triptyque structurant, intégrant également une exigence de responsabilité dans l’usage de l’IA :
- Une IA orientée métier : intégrer des capacités répondant à des problématiques précises, directement liées aux usages, et non à une logique de vitrine technologique. Dans le domaine de la Data Quality, cela implique de cibler des cas d’usage où l’IA améliore réellement la qualité des données, sans fragiliser les traitements existants.
- Une hybridation pragmatique : combiner les technologies en fonction des besoins, en mobilisant le bon moteur pour le bon usage plutôt qu’en généralisant des modèles uniques. Cette approche permet d’articuler les modèles d’IA avec des logiques applicatives éprouvées, afin de préserver la fiabilité et l’explicabilité des résultats.
- Une conception responsable : intégrer dès l’origine des contraintes de performance, de coût et de sobriété. Dans les faits, cela se traduit par une logique de frugalité numérique : limiter le recours à des modèles coûteux ou instables sur des traitements critiques, privilégier des approches adaptées aux volumes et aux exigences opérationnelles, et éviter toute surconsommation inutile de ressources.
Ainsi, à l’échelle du logiciel, l’enjeu n’est pas seulement d’intégrer l’IA, mais d’en maîtriser l’usage dans la durée. C’est pourquoi l’éditeur de logiciel n’est pas un utilisateur d’IA comme les autres. Il est plutôt l’orchestrateur de son usage, afin d’en garantir la fiabilité et d’en encadrer les effets. Structurer une IA durable revient ainsi à arbitrer entre innovation et maîtrise, pour en assurer la pertinence, la stabilité et l’indépendance vis-à-vis des modèles.
À propos de DQE
Parce que la qualité des données est essentielle à la connaissance client et à la construction d’une relation pérenne, depuis 2008 DQE met à la disposition de ses clients des solutions innovantes et complètes facilitant la collecte de données fiables.
18
Années
d'expertise
800
Clients tous
secteurs
10Md
Requêtes par
an
240
Référentiels
internationnaux
Nos dernières ressources