Comme nous le voyons depuis le début de cette série d'articles (DRH, (re)trouvez la maitrise de vos données ! (adp.com)), les directions des ressources humaines sont de plus en plus confrontées à une masse de données sans cesse croissante sans pour autant avoir toutes les compétences ou les moyens pour les traiter et les analyser.
Dans ce contexte, la création et le suivi d'indicateurs divers et variés a permis aux DRH et aux fournisseurs de données internes ou externes de trouver une base commune d'analyse qui a servi pendant longtemps de support au suivi des activités RH et à la prise de décision.
Cette "culture des indicateurs" est devenue omniprésente dans la sphère RH, conduisant parfois (souvent) à une surabondance qui n'équivaut pas pour autant à une augmentation de la connaissance, voire elle peut s'avérer contre-productive lorsque les décideurs sont submergés par des données contradictoires ou non pertinentes.
Historiquement, c'est l'évolution des outils de Reporting/pilotage dits de "Business Intelligence" depuis les années 2000 (Du SIRH à la Data RH (adp.com)) qui a guidé les méthodes d'accès aux données RH et les capacités à les manipuler, souvent limitées à des spécialistes techniques.
Ces experts étant chargés de recueillir, de nettoyer et d'analyser les données, parfois sans une compréhension profonde des questions opérationnelles ou stratégiques auxquelles ces données étaient censées répondre.
D'un autre côté, les décideurs et les professionnels des ressources humaines, qui avaient une compréhension claire des enjeux stratégiques, manquaient souvent des compétences techniques nécessaires pour manipuler directement les données dans les bases complexes (et lentes).
Les indicateurs ont donc émergé comme une solution pertinente pour combler le fossé entre ces deux mondes. En condensant des ensembles complexes de données en chiffres simples ou en pourcentages, les indicateurs permettent en effet de communiquer des insights de manière compréhensible pour ceux qui n'ont pas la capacité, le temps, le besoin ou même l'envie de traiter directement les données.
Préférez-vous avoir 100 indicateurs faux ou 10 indicateurs fiables ?
Aujourd'hui encore, l'abondance d'indicateurs RH reste perçue comme un gage de maîtrise des données.
Pour autant dans les faits… la plus grande partie de ces indicateurs sont faux (ou du moins de qualité aléatoire), arrivent soit trop tôt, soit trop tard, sont trop nombreux, mal documentés, partiels, "retravaillés", obsolètes… et finalement, la plupart se révèlent tout simplement inutiles.
Ainsi, il n'est pas rare de constater une dichotomie absurde qui consiste à passer beaucoup de temps à produire et corriger des indicateurs à partir de données "pas très fiables" pour les livrer à des équipes qui de toutes façons ne vont pas leur faire confiance.
D'autant que l'indicateur en lui-même n'est pas porteur d'information, c'est même une façon de réduire l'information disponible d'un set de données. En ce sens, l'indicateur éloigne de l'information initiale, l'appauvrit.
Cette simplification excessive peut d'ailleurs induire en erreur, car elle masque la complexité et les nuances essentielles à une compréhension approfondie des données sous-jacentes.
Les indicateurs pastèque et l'Illusion de la Maîtrise
Les "indicateurs pastèque" – ou Watermelon Effect : rouge dedans et vert dehors, est une image couramment employée pour illustrer un phénomène que chacun a pu déjà vérifier : la qualité perçue des données varie le long de la chaîne hiérarchique.
Plus on monte dans les échelons de décision, plus les indicateurs semblent fiables, principalement parce qu'ils ont été filtrés, corrigés, voire parfois même un peu "arrangés" pour correspondre à une certaine réalité attendue.
Nous avons développé dans notre précédent article Le cycle de vie de la donnée RH (adp.com) les dangers et les coûts induits de corriger les données à l'étape de valorisation plutôt qu'à la collecte. Cela amplifie d'autant plus l'apparition d'indicateurs pastèque.
Enfin, un tableau de bord bien conçu et esthétiquement plaisant peut facilement créer une fausse impression de précision et de contrôle sans pour autant n'avoir d'intérêt stratégique réel.
Ainsi, l'intérêt des indicateurs comme unique vecteur d'information s'avère souvent incomplet (voire néfaste) et tend à laisser la place à des modes d'analyse et d'exploration plus modernes et plus simples.
Alors faut-il jeter tous les indicateurs ?
Évidemment non, mais il s'agit de leur redonner leurs lettres de noblesse en insistant sur leur qualité et non la quantité : autrement dit, se focaliser sur les "KPI" (Key Performance Indicator).
En premier lieu, il est impératif de mettre en place des indicateurs de qualité des données brutes. Cela pour plusieurs raisons évidentes mais en particulier parce que ça va induire toute la valeur des analyses et conclusions des utilisateurs finaux.
Ensuite, un indicateur devrait toujours être accompagné de sa définition (compréhensible à la fois par les équipes techniques que par les équipes métier), son périmètre, la datation des données et leur fiabilité. Sans toutes ces informations, votre indicateur ne peut être utilisé de façon optimale.
Enfin, l'emploi d'indicateurs doit répondre à des enjeux stratégiques et il faut repousser la tentation de présenter des indicateurs "juste parce qu'ils sont disponibles" au risque de diluer l'information.
Nous avons dressé une liste non exhaustive de questions à se poser pour valider la valeur d'un indicateur.
Pertinence : Cet indicateur est-il directement lié à un objectif stratégique clair de l'organisation ? Comment ?
Compréhensibilité : Les équipes métier et les décideurs peuvent-ils facilement comprendre cet indicateur sans explication technique approfondie ?
Mesurabilité : Disposons-nous des données nécessaires pour mesurer cet indicateur de manière fiable et régulière ?
Actionnabilité : Les résultats de cet indicateur peuvent-ils conduire à des actions concrètes ? Peut-on influencer cet indicateur par des actions spécifiques ?
Temporalité : Cet indicateur fournit-il des informations en temps opportun pour la prise de décision ? Est-il trop tardif ou trop précoce par rapport aux cycles de décision ?
Comparabilité : Peut-on comparer cet indicateur au fil du temps ou avec d'autres unités/business pour évaluer les performances relatives ?
Sensibilité : L'indicateur est-il suffisamment sensible pour refléter les changements sans être trop volatil ?
Simplicité : L'indicateur est-il simple à calculer et à interpréter, ou nécessite-t-il des manipulations complexes qui pourraient introduire des erreurs ?
Impact : Cet indicateur a-t-il un impact significatif sur la performance globale ou sur les résultats clés de l'organisation ?
Intégrité : Est-on assuré de l'intégrité des données sous-jacentes à cet indicateur ? Les processus de collecte et de traitement des données sont-ils robustes et fiables ?
Innovation : L'indicateur encourage-t-il l'innovation et l'amélioration continue, ou favorise-t-il le statu quo ?
Durabilité : L'indicateur est-il durable à long terme, ou risque-t-il d'être rapidement obsolète en raison de changements technologiques ou de marché ?
Et pour tout le reste ?
La grande évolution des 10 dernières années est la démocratisation des outils d'analyse, de data visualisation (Tableau Software, Microsoft Power BI, QlikView, Spotfire, MicroStrategy, Toucan Toco…
Mais également la maturation des méthodes : "Design Thinking", travail sur l'expérience utilisateur "UX", "Data Storytelling", les approches itératives AGILE… ces évolutions ont été porteuses de véritables innovations dans la façon de présenter et manipuler les données.
Les outils apportent aujourd'hui simplement, avec des interfaces ergonomiques et puissantes, les moyens de manipuler, analyser, visualiser et même interpréter des données de façon intuitive et fiable.
Depuis 1 an maintenant, avec la popularisation des intelligences artificielles génératives, type ChatGPT, les outils vont encore plus loin en prenant en charge les étapes de manipulation et d'analyse complexes demandées en langage naturel.
L'idée de ces outils, et c'est le sens de l'histoire, est d'offrir à l'utilisateur final un accès immédiat à l'information utile au moment où il en a besoin, encourageant une approche plus riche et nuancée de l'analyse des données, telles qu'elles sont.
Il s'agit donc d'une certaine manière de réconcilier les RH avec leurs données brutes en leur donnant les moyens de les explorer par eux-mêmes, et beaucoup sont partie prenante !
Cela implique en revanche de travailler à une gouvernance des données efficace, comprise et partagée par tous pour offrir un cadre d'exploration sécurisé et des droits d'accès maîtrisés selon les périmètres (Voir La gouvernance de la donnée RH (adp.com))
Vers une Compréhension Plus Profonde des Besoins Utilisateurs
La clé pour dépasser la culture des indicateurs et aborder une approche plus "Data Driven" réside de toutes façons dans une compréhension approfondie des besoins réels des utilisateurs finaux.
Il est toujours essentiel de se rapprocher des décideurs et des opérationnels pour saisir quelles informations leur sont véritablement utiles, à quel moment et sous quelle forme.
Cette démarche requiert un dialogue constant et une écoute active, permettant d'ajuster les outils et les analyses en fonction des retours terrain.
Enfin, au-delà des outils et des méthodes, il est important d'insuffler au sein des équipes une "Culture Data" partagée, que nous aborderons dans un prochain article de cette série.
Newsletter RH info
INSCRIVEZ-VOUS !