Pourquoi de bons processus priment sur des données parfaites
La qualité des processus a toujours été un sujet central pour les organisations, mais elle a particulièrement gagné en importance à partir des années 1980 et 1990 avec l'avènement des systèmes de gestion de la qualité et des normes internationales. Par la suite, des méthodologies telles que Lean et Six Sigma ont révolutionné la façon dont les entreprises optimisaient leurs opérations, voyant en des processus bien conçus la clé de l'efficacité et de la compétitivité.
Aujourd'hui, avec l'essor du Big Data, de l'intelligence artificielle et de l'analyse avancée, l'attention des équipes SI et des utilisateurs s'est déplacée vers la qualité des données. Les entreprises collectent et analysent d'énormes volumes de données pour orienter leurs décisions stratégiques et opérationnelles. Les données sont devenues le moteur de la transformation digitale, souvent au détriment de l'optimisation des processus.
Tout comme le dilemme de l'œuf et de la poule, il peut être difficile de déterminer ce qui prime : la qualité des processus ou celle des données ?
Exemple de flux de processus antique (source : Département des Antiquités égyptiennes du Louvre)
« Que cherche-t-on à faire ? » : le processus comme base
Documentés ou non, les processus existent. Les entreprises les appliquaient déjà avant l'invention de diagrammes de flux et l'existence des systèmes d'information !
La révolution des normes et de la qualité, et des méthodologies
Dès les années 1980 et 1990, les systèmes de gestion de la qualité et les normes internationales telles que ISO 9000 ont joué un rôle crucial en standardisant et en améliorant les pratiques organisationnelles. Ces initiatives ont permis de définir des standards élevés, assurant ainsi la cohérence et la qualité dans les opérations quotidiennes. En tant que jeune consultante dans le milieu des années 1990, j'ai personnellement mené de nombreuses missions consistant à documenter et optimiser les processus existants de mes clients. Cette documentation permettait non seulement de clarifier les étapes et responsabilités, mais aussi de mettre en lumière des inefficacités et des opportunités d'amélioration.
L'avènement des méthodologies Lean et Six Sigma a marqué une étape décisive dans cette évolution. Inspiré par le système de production de Toyota, le Lean se concentre sur l'élimination des gaspillages et l'optimisation des flux de travail, offrant ainsi une fluidité et une efficacité accrues. Le Six Sigma, quant à lui, utilise des outils statistiques avancés pour réduire la variabilité et éliminer les défauts, ce qui permet d'atteindre une meilleure performance opérationnelle. Ensemble, ces méthodologies ont redéfini les standards de l'excellence opérationnelle.
L'avènement des ERP et de l'informatique décisionnelle
La transformation numérique a ensuite amplifié l'importance des processus Métiers en intégrant des technologies avancées. Au départ, les entreprises se sont concentrées sur l'automatisation des tâches répétitives, ce qui a non seulement amélioré l'efficacité, mais également permis de redéployer les ressources vers des activités à plus forte valeur ajoutée. Avec l'essor des systèmes ERP dans les années 1990, les diverses fonctions Métiers ont pu être centralisées et intégrées au sein d'une plateforme unique, standardisant ainsi les processus à grande échelle et réduisant les erreurs.
L'intégration des outils d'informatique décisionnelle et des entrepôts de données, a rendu plus facile et plus rapide l'identification des tendances et des opportunités d'amélioration grâce à l'analyse des données historiques. En fournissant une base solide pour la prise de décision stratégique, ces analyses ont permis aux entreprises de mieux anticiper les besoins du marché et de s'adapter rapidement aux évolutions.
Ainsi, l'optimisation des processus métiers a toujours été un enjeu majeur pour les entreprises, garantie d'efficacité et de compétitivité. Mais le traitement de la question : « Que cherche-t-on à faire, quel résultat cherche-t-on à obtenir ? » s'accompagne de cette autre question : « De quelles données avons-nous besoin ? ».
La donnée, star indiscutable
L'importance des données au sein des SI a évolué de manière significative au fil des décennies et se retrouve maintenant au cœur de la majorité de nos activités qu'elles soient professionnelles ou personnelles.
Flux de processus "moyenâgeux" - DALL.E - Généré à partir d'un prompt et surtout des milliers de données documentées !
Des bases de données aux ERP : une nouvelle ère de gestion des données
Les premières utilisations de l'informatique dans les entreprises se concentraient principalement sur l'automatisation des tâches administratives et comptables dans les années 1950. Ces premiers systèmes permettaient de rationaliser les opérations quotidiennes et d'améliorer l'efficacité, mais la gestion des données en elle-même n'était pas encore perçue comme un atout stratégique. Dans les années 1980, avec l'émergence des bases de données relationnelles, les entreprises ont commencé à percevoir les données comme une ressource stratégique. Les systèmes de gestion des bases de données, tels qu'Oracle et IBM DB2, ont facilité l'organisation et l'analyse des informations cruciales, permettant ainsi des décisions plus éclairées.
Dans les années 1990, l'essor des systèmes ERP a marqué une nouvelle étape. En intégrant diverses fonctions métiers au sein d'une même plateforme, ces systèmes ont permis une vue unifiée des opérations et une meilleure gestion des ressources. Parallèlement, l'informatique décisionnelle a émergé, offrant des outils pour analyser les données historiques et générer des rapports détaillés, guidant ainsi les décisions stratégiques.
Big Data et IA : la quête de la qualité au milieu de l'abondance
Le tournant décisif est survenu avec l'explosion d'Internet et du commerce en ligne dans les années 2000. Les entreprises ont commencé à collecter des volumes massifs de données, donnant naissance au concept de Big Data. Les technologies de stockage et d'analyse ont évolué pour traiter ces quantités de données, offrant des informations précieuses.
L'intégration de la Data dans le « Golden Triangle » de Harold Leavitt (source : Alan D. Duncan, Gartner©)
Aujourd'hui, avec l'essor de l'intelligence artificielle, les données sont devenues un actif stratégique essentiel. Cependant, si historiquement, l'accent était mis sur la qualité des données (exactes, complètes et fiables, mais aussi à jour), car les premières applications informatiques cherchaient surtout à assurer l'efficacité des processus administratifs et comptables. À mesure que les technologies ont évolué, l'attention s'est progressivement déplacée vers la quantité de données, particulièrement avec l'essor du Big Data dans les années 2000 et de l'IA ensuite. Un volume croissant de données améliore la capacité d'apprentissage et d'adaptation de l'IA, la rend plus efficace, ce qui accroît la capacité de traitement et d'analyse des données, ce qui lui permet de traiter un volume plus important de données, etc. Toutefois, si la quantité est importante, la qualité l'est tout autant.
Des données de mauvaise qualité peuvent entraîner des biais dans les algorithmes d'intelligence artificielle, conduisant à des décisions erronées et potentiellement préjudiciables pour l'entreprise. Les entreprises doivent s'attacher à équilibrer les deux, afin de garantir des analyses précises et donc des décisions fiables.
Pourquoi il est préférable d'avoir de mauvaises données avec de bons processus plutôt que de bons processus avec de mauvaises données
Être en capacité d'absorber des données de mauvaise qualité
Des processus métiers bien conçus et robustes (et implémentés !) peuvent tolérer les éventuels défaut de qualité des données. En effet, ils sont capables de gérer les erreurs ou les incohérences dans les données, par exemple en incorporant des mécanismes de validation, de vérification et de correction des données, ce qui permet de minimiser l'impact des données de mauvaise qualité sur les résultats finaux.
Ils assurent également une standardisation et une cohérence dans l'exécution des tâches, ce qui réduit les variations et les erreurs, même si les données d'entrée ne sont pas parfaites. Les processus standardisés facilitent également l'identification et la correction des anomalies.
Proposer une amélioration continue
Si des mécanismes pour surveiller et améliorer continuellement la qualité des données sont inclus, les sources de données de mauvaise qualité peuvent être facilement et rapidement identifiées et des actions correctives peuvent être mises en place pour améliorer la qualité des données au fil du temps.
Ainsi, des processus robustes et bien conçus peuvent absorber les perturbations causées par des données de mauvaise qualité, continuer à fonctionner efficacement et produire des résultats fiables, même en présence de données imparfaites et participer à l'amélioration de ces données. À l'inverse, de mauvais processus peuvent entraîner des inefficacités et des problèmes importants, même avec des données de haute qualité.
Les limites des processus de mauvaise qualité
Un processus mal conçu peut entraîner des goulots d'étranglement, des pertes de temps et de ressources voire même générer des résultats erronés ; dans ce cas, une donnée en entrée de qualité peut même se transformer en donnée médiocre (pas à jour, non pertinente, non exacte, …). De même, même s'il ne les dégrade pas, un mauvais processus peut ne pas être capable d'exploiter correctement les données, ce qui signifie que les informations contenues dans les données ne seront pas utilisées efficacement et pénalisera la prise de décision.
Par ailleurs, des processus mal conçus augmentent le risque d'erreurs, de non-conformité et de problèmes de sécurité. Les données peuvent être mal gérées ou interprétées de manière incorrecte, ce qui peut entraîner des conséquences négatives pour l'entreprise, telles que des décisions erronées ou des violations de la réglementation. Des problèmes de coordination et de communication entre les différentes parties prenantes peuvent également survenir, provoquant des malentendus, des doublons d'efforts et des conflits.
Ainsi, la qualité des données ne peut compenser un processus médiocre. Plutôt que de mettre la Data au centre du Golden Triangle, peut-être faudrait-il y faire figurer les processus ?
Golden Triange et Data - Mettre les Processus au centre
Comment améliorer les processus métiers
Cartographier, analyser, simplifier, standardiser, automatiser
On l'a vu, la qualité des processus est primordiale. Pour les améliorer, il est crucial de commencer par une analyse et une cartographie détaillée des étapes actuelles, en utilisant des outils comme les diagrammes de flux pour visualiser chaque interaction et dépendance. Cette évaluation permet de mesurer les performances en utilisant des indicateurs clés de performance, afin d'identifier les points faibles et les opportunités d'amélioration.
La simplification et la standardisation des processus sont également essentielles. En éliminant les étapes inutiles ou redondantes et en standardisant les pratiques, on assure la cohérence et on réduit les variations. L'automatisation des tâches répétitives et manuelles grâce aux technologies modernes permet de diminuer les erreurs, d'accélérer les processus et de libérer du temps pour des activités à plus forte valeur ajoutée.
Les utilisateurs, des partenaires indispensables
Enfin, une gestion du changement efficace est nécessaire pour accompagner la transition vers les nouveaux processus, en incluant une communication, une formation et un support adéquats pour les employés, afin de minimiser les résistances. Former les utilisateurs aux meilleures pratiques et aux nouvelles technologies est également primordial pour leur permettre de contribuer efficacement à l'optimisation des processus. Encourager une culture d'amélioration continue (avec des méthodologies telles que le Kaizen, Lean ou Six Sigma), où chacun est impliqué dans cette démarche et solliciter régulièrement des retours d'expérience de la part des utilisateurs et des clients aide ainsi à identifier les problèmes et les opportunités d'amélioration.
Le beurre et l'argent du beurre
Dans un monde dominé par les données, l’excellence des processus offre le meilleur des deux mondes : des opérations efficaces et une amélioration continue de la qualité des données. À l’inverse, des processus défaillants, même avec des données parfaites, limitent leur impact et leur valeur.
Pour obtenir « le beurre et l’argent du beurre », les entreprises doivent équilibrer technologie et optimisation des processus, tout en impliquant les utilisateurs dans une démarche d’amélioration continue. En plaçant les processus au centre de leur stratégie, elles se donnent les moyens d’exploiter pleinement les opportunités offertes par l’ère numérique.