Advanced Analytics : s'adapter à son public !

damien.carlhian@solution-bi.com 4 avril 2024

Par Charles Parat, Directeur Conseil Data

& Emma Damitio, Data Scientist

 

ADVANCED ANALYTICS :

quelle que soit la culture du destinataire de l’information,

s’assurer que la présentation est adaptée à l’usage

et que l’information est pertinente

 

Dès lors qu’on a dépassé le cadre de la transmission de données brutes (cf notre article précédent), on bascule vers la présentation d’informations et donc dans un monde de « design ». C’est-à-dire que l’agrément d’utilisation et l’adaptation au•à la consommateur•trice du « data product » sont mis sur un pied d’égalité avec la pertinence des données fournies.

Et comme nous allons souvent l’évoquer, précisons ce qu’on entend par Data Product.
Au sens strict, c’est l’interface qui va présenter l’information métier pertinente pour l’analyse ou la prise de décision. Il s’agit du produit, présenté au « consommateur d’information », qui va lui procurer l’éclairage métier basé sur l’utilisation des données (le business insight anglo-saxon).

Au sens élargi, le data product est non seulement l’interface mais aussi l’ensemble de la chaîne plus ou moins longue de traitements successifs qui a amené la donnée brute jusqu’à cette information prête à être « consommée ».

On parlera ici souvent de conception basée sur l’« expérience utilisateur B.I. » ou encore d’« UX Design » (UX, pour User eXperience) : l’adaptation de la présentation aux usages en prenant en compte le profil-type de celui ou celle à qui s’adresse le data product.

Ce schéma montre comment le data product va se sourcer sur un modèle d’exposition des données et par quel canal technico-fonctionnel le plus adapté on va choisir de présenter ce fameux « business insight ».

Tous les termes de ce schéma ont été choisis pour permettre de balayer ici les compréhensions de tous ces moyens d’analyse et de présentation qui sont souvent mélangés dans le langage marketing ambiant.
Nous allons explorer cette liste de bas en haut, pratiquement dans le sens de ce qui nécessite le plus d’accompagnement technique d’abord et jusqu’à des concepts où les utilisateurs finaux doivent gagner en autonomie vis-à-vis des spécialistes techniques.

Nous utiliserons les termes anglais (littérature dominante sur ces sujets) en tentant de leur redonner un sens en français.

Predictive/Prescriptive AI/ML

C’est le domaine dit de la Data Science, dans lequel l’enjeu est de trouver ou de mettre au point des algorithmes qui créent de l' information en s'appuyant sur les données récoltées.  La donnée doit être de qualité et avec un historique pour pouvoir prédire les informations pertinentes.  

La Data Science permet surtout de créer de nouvelles informations et des façons de prévoir ou prédire les situations futures à partir de données pas forcément structurées et de plus en plus « massives ».
Le « datamining » (forage de données) a été la 1ere marche de la création de donnée. Désormais, la Data Science permet d’aller encore plus loin. Grâce à sa démarche structurée, la Data Science permet une optimisation des solutions business développés grâce à une amélioration de performance ou de détermination et de limitation des risques.  

Il faut un enjeu business précis à la démarche et donc pas seulement des capacités de codage en Python (langage le plus populaire chez les data scientists). Il faut une parfaite compréhension de la problématique et des équipes métiers : bien traduire en solution data et savoir bien restitué l’informations pour ce que soit utilisé.  

Les 4 compétences importantes :  

  • Compréhension business 
  • Data Engineer  
  • Data Science  
  • Business Analyste pour restituer l’info  

C’est d’ailleurs lorsqu’on réunit ces quatre compétences autour d’un objectif d’entreprise qu’on maximise les chances de succès : qualifier rapidement l’opportunité et la faisabilité du projet, puis trouver une solution algorithmique et s’assurer de sa pertinence dans le temps. Distinguer ici les techniques d'Intelligence Artificielle dont celles du Machine Learning (ML ou prédiction par l’apprentissage) voire de l’AutoML (auto-apprentissage) nous semble hors de propos.

On peut tout de même préciser que de tous ces canaux, la DataScience est sans doute le canal de transformation des données qui se sert de tous types de supports sources, internes comme externes, en s’affranchissant des modèles déterminés par l’IT et qu’elle contribue à créer de nouvelles informations, dont il faut alors choisir, soit de les stocker, soit de les présenter, soit de les intégrer à des applications business.

 

Embedded BI

La « B.I. embarquée ». C’est la manière d’enrichir des applications transactionnelles par incrustation de présentations analytiques, pour permettre à l’utilisateur de prendre une décision éclairée au bon moment.
Dans les métiers de services (banque, assurance, social, maintenance, …) ces embedded B.I. sont souvent proposés à des conseiller•es de guichet car elles leur permettent d’avoir une connaissance client à 360°

Les éditeurs de logiciels ont pris conscience des vrais besoins des fonctions commerciales ; à savoir de transformer leur outil CRM/GRC (Gestion de la relation clients) en véritable cockpit de pilotage de prise de décision et d’action.

Leurs outils qu’ils appelaient auparavant CRM analytique vont un cran plus loin et permettent désormais de prendre en compte les données au niveau individuel. Il est donc possible de renseigner l’environnement de travail du•de la commercial•e pour l’aider par exemple à :

• Visualiser l’état de sa prospection ou le niveau de son pipeline,

• Sélectionner ses cibles et déterminer ainsi la prochaine action la plus efficace dans son agenda ou dans sa tournée

• Comprendre les leviers de sa performance individuelle et collective

 

C’est une illustration du caractère très opérationnel de la « B.I. embarquée » dans les applications.
Dans des métiers de logistique ou de fabrication ils documentent des postes très opérationnels pour prédire des pannes, des rebuts, suivre des conditionnements, des expéditions, … dans des environnements souvent peu propices à la manipulation d’une solution B.I. sur un laptop, mais avec des solutions de « push/pull » de l’information adaptées au contexte d’utilisation.

En résumé, l’« embedded B.I. » contribue à rendre l’opérateur•trice plus apte à percevoir des informations non perceptibles humainement. On parle alors d’une certaine forme de « réalité augmentée ».

 

Formatted reporting

Ce sont toutes les présentations créées pour un besoin répétitif régulier et qui éviteront toute discussion sur leur pertinence et leur documentation.
La plupart du temps ces rapports et leur mode de publication sont précisément spécifiés et le data product est réalisé par l’équipe IT pour assurer l’intégrité, la performance et la sécurité du résultat.
Plus le métier interagit avec l’IT tout au long de la mise au point du produit et plus on assurera une réception du data product avec le plus niveau de pertinence UX. Bien sûr, cela ne signifie pas que ces rapports n’évolueront pas dans le temps. Mais on prendra alors la précaution de vérifier que leur évolution correspond au besoin de tous•tes les utilisateur•trices recensé•es et que la nouvelle version bénéficiera des mêmes garanties de validation fonctionnelle et technique que la version antérieure. Cette version antérieure deviendra alors expressément obsolète et sera retirée du portefeuille des data products.

Le formatted reporting est un élément de patrimoine B.I. fort de l’entreprise. C’est sous cette forme que devraient aboutir tous les travaux innovants provenant des métiers (self-service, bureautique… voire de shadow-IT) pour devenir des vérités d’entreprises diffusables.

Le formatted reporting doit faire l’objet de révisions fréquentes (Métier et IT) pour s’assurer de la permanence de sa Qualité de Service (pertinence, performance, conformité, sécurité…)

 

BI applications

Ce sont en général des data products qui présentent des interfaces « scenarisées » voire des workflows et qui permettent des interactions avec leurs utilisateur•trices. On peut donc dire que les applications BI sont des applications de pilotage autour de tableaux de bord (dashboards) qui permettent de comprendre l’évolution des indicateurs en présentant des points de vue « cascadés ».

Comme toutes les applications, l’UX Design est important mais la navigation et les chemins explicatifs le sont tout autant.

 

Ad Hoc Analysis

Obtenir instantanément une réponse à une question qu’on n’a jamais posée, en toute autonomie, c’est la promesse de l’analyse ad hoc. Une promesse qui implique donc que l’utilisateur•trice accède directement à des données ou des présentations, à partir desquelles il pourra construire ou dériver sa propre analyse dans le contexte du moment.
L’Ad Hoc Analysis est donc un moyen de réagir à des questions urgentes, et pour lesquelles le contenu est essentiel, mais la présentation est accessoire.

La B.I. des années 80 a été pensée pour cela : permettre à des métiers d’accéder à des données par l’intermédiaire de “couches sémantiques” pour nommer des objets et les rassembler dans des requêtes.

Cela permet ensuite d’obtenir des résultats qu’on affine par itérations successives tant pour le contenu (filtres, croisement d’axes, éclatement/regroupement,  …) que pour une présentation à la fois rapide et pertinente (graphiques, tableaux, extractions bureautiques…).

L’ad hoc analysis est du domaine du document de travail, de l’exploration jetable. Mal gérée par ses auteurs, pas documentée et sortie du contexte, l’analyse ad hoc peut à la fois encombrer les espaces de travail et devenir dangereuse si elle n’est pas contrôlée. Au contraire, travaillée en collaboration avec une communauté métier, elle peut devenir le commencement d’un reporting pérennisé qui apportera de la valeur.

 

Data Visualization

Faire de la « dataviz » c’est faire en sorte que le choix du format visuel d’une présentation de données devienne une information à part entière, immédiatement compréhensible et qui met en valeur l’information-clé qui va amener à la réflexion ou la prise de décision.

Des grilles d’aide au choix sont régulièrement publiées ou relayées pour classer les visuels en fonction de l’objectif poursuivi : comparaison, classement, saisonnalité, écarts, progressions … Le propre même d’un outil de Datavisualization est de proposer « naturellement » les représentations visuelles les plus adaptées à l’analyse en cours, selon les indicateurs et les dimensions utilisées. Les dimensions de temps et de géographie deviennent un pré-requis mais la nature même de l’analyse et de la dépendance des données entre elles sont de plus en plus prise en compte, voire même les habitudes d’analyse de l’utilisateur•trice (ou de tous les utilisateurs) que le logiciel aura systématisé par apprentissage.

 

Dashboards

C’est un système de tableaux de bord. Le principe est de rassembler toutes les informations indispensables dont a besoin l’utilisateur•trice au moment clé d’un processus de décision.

Le tableau de bord peut prendre la forme d’un rapport avec un mise en forme adapté à chaque utilisateur•trice ou alors être formatté car utilisé par plusieurs métiers au sein d’une entreprise.

Mais de plus en plus, le tableau de bord tend à devenir un outil personnel qui permet à chacun•e d’organiser ses « points de vue » sur les informations utiles par thématique ou par moment-clé. Dans ce cas, l’équipe IT ne développera évidemment pas tous les tableaux de bord individuels mais il faut permettre à chaque utilisateur•trice de concevoir son propre dashboard, par agrégation de visuels communs ou de visuels spécifiques.

On rejoint alors une fonctionnalité de Dashboard en self-service … qui fait la transition avec le sujet suivant !

 

Self Service B.I.

Ce sont toutes les solutions data mise à disposition d’un•e utilisateur•trice et qui le•la rende autonome au quotidien dans l’accès à l’information utile au bon moment.

Il faut donc que le point de vue des données présenté lui soit familier et le plus clair possible. Il faut également que le logiciel d’intégration et de présentation corresponde à sa culture et à son poste de travail. En bref, que l’outil lui soit adapté et qu’il en ait une bonne maîtrise pour assurer cette autonomie. Il y a donc un vrai enjeu d’acculturation, de formation et d’accompagnement.

Mais le self-service couvre aussi le besoin de maîtrise de tous les supports d’information qui permettent l’autonomie et évitent la perte de temps et de qualité. Disposer en toute autonomie de rapports et d’analyses fiables pour les adapter à un besoin ponctuel, est le niveau de self-service vers lequel chaque entreprise devrait tendre. Cela évite la multiplication de rapports existants autour d’un même contexte.

Une organisation lisible et documentée des contenus B.I. de l’entreprise est donc nécessaire. Tout comme la communication autour des assets B.I. disponibles par catégorie de métiers ou d’utilisateur•trices est essentielle. C’est pour cette raison que la constitution de communautés métiers suivies et animées est capitale pour faire connaitre et maitriser le patrimoine B.I.

Le self-service remplit donc son rôle s’il permet de construire des analyses qui s’ajoutent aux analyses existantes, que ce soit pour le besoin de son auteur•trice ou en vue d’une diffusion à plus grande échelle au sein de l’entreprise.
Le self-service doit donc s’accompagner d’une organisation lisible et documentée des contenus B.I. de l’entreprise. Pour ce faire, la mise en œuvre du self-service doit s’accompagner d’une acculturation et d’une responsabilisation forte des utilisateur•trices qui transformeront alors des données en information d’entreprise.
On rejoint alors les sujets de gouvernance des données et des restitutions que nous avons abordés lors d’un chapitre précédent : vouloir instaurer le self-service B.I. dans l’entreprise revient souvent à mettre en place une gouvernance avec des rôles et des process qui manquaient précédemment.

 

Story Telling

C’est la façon d’amener son auditoire à une conclusion évidente au bout d’une « histoire » souvent illustrée par l’évolution de KPIs (indicateur-clés) au cours d’une période choisie. Par exemple, révéler les évènements saisonniers ou coupler des indicateurs apparemment décorrélés pour comprendre leur simultanéité ou leur causalité immédiate.

Ce sont bien entendu les techniques de DataVisualisation qui rendent l’exercice visuellement impactant, mais le choix du scenario et la pertinence des enchainements au cours du temps sont le véritable atout d’une Data Story réussie.

Le suédois Hans Rosling a rendu très explicite le storytelling en mettant en scène les histoires racontables par les données, comme la compréhension de l’émancipation de la femme au cours des derniers siècles ou la vision de l’histoire contemporaine de l’espérance de vie. Sa présentation de 2010 à la BBC a eu un retentissement dont les éditeurs se sont emparés alors pour amener ce concept au sein des entreprises pour magnifier la valorisation des données. (https://www.youtube.com/watch?v=Z8t4k0Q8e8Y)

Toutefois la technique est peu souvent utilisable au quotidien dans les entreprises et ces mises en scènes sont plus souvent utilisées par les équipes de communication que dans les comités de direction ou de pilotage.

Voilà balayés pour l’essentiel à la fois les termes usuels et ce qu’ils recouvrent.

Nous sommes donc à la tête d’un patrimoine de data products divers à un moment donné, et se pose alors le problème de qualifier systématiquement la valeur de vérité partageable que revêt chacun de ces produits.
On avait parlé de Data Governance pour assurer la qualité et la valeur de la Data présentée aux usages, il va falloir faire face à un autre challenge épineux pour beaucoup d’organisations : l’Information Governance et en particulier la Gouvernance des Restitutions qui concerne plus particulièrement la B.I. Ce sont des sujets qui touchent à l’ownership, l’accessibilité, la validation, la diffusion et sa sécurité, le versioning, la communication, …

 

On peut illustrer l’utilité de la Data Science à travers un business case réel.

par Emma Damitio, Data Scientist Solution BI Canada : 

 

Notre client, une fondation dont la mission est de soutenir les jeunes du Québec depuis 2009 via 3 canaux de discussion (Appels – clavardage – textos), fait face à une double problématique : un temps d’attente trop long pour les jeunes en demande et un personnel pas assez nombreux pour répondre à toutes les interventions.

La pénurie de main d’œuvre est une vraie problématique, la solution data science proposée ici pour pallier aux 2 problématiques est d’optimiser au maximum les ressources disponibles afin de les placer aux meilleurs moments.

Pour apporter une optimisation concrète et durable, notre équipe de Data Scientists a d’abord exploré les schémas d’organisation de notre client pour les comprendre parfaitement.

Une fois cette 1ere phase obligatoire de compréhension atteinte, nous avons pu développer un modèle prédisant le nombre de demandes de contacts par canal, pour chaque heure, pour les 3 prochains mois afin de placer le nombre nécessaire d’intervenant•es.

L’association de ces 2 résultats nous a permis de créer un outil d’aide à la planification complet avec 2 dashboards qui permet à notre client d'anticiper :

• le nombre d’interventions sur les 3 prochains mois, et comment elle se répartissent

• le nombre de salarié•es à positionner selon le créneau sur les 3 prochains mois

• le besoin en ressources humaines sur les 3 prochains mois

 

À ce jour, les avantages sont nombreux :

• Augmentation du taux d’intervention du service : diminution de 7 % des abandons de demande de contact

• Réduction du temps et d’effort de planification : 10h de temps sauvé toutes les 4 semaines

• Meilleure visibilité sur les besoins en ressources : pouvoir appuyer une demande d’embauche sur une preuve de besoin

 

 

 

Lire également nos autres articles sur les offres Solution BI 

La Business Intelligence en 3 étapes 

Process Intelligence : comprendre comment les données circulent

Data Intelligence : rendre la data disponible

Performance Management : choisir les bons KPI

Agile transformation : accompagner la transformation data-driven de l'entreprise

Partagez cet article

Nos Actus

Actualité Business Intelligence
25 mai 2018
Étapes à suivre pour améliorer la rapidité de mise en valeur de la BI et de l'analytique

Il est bien connu depuis des lustres qu’une décision prise sur la base d’informations erronées peut avoir des conséquences dramatiques sur l’aspect...

Actualité Business Intelligence
6 juillet 2018
La capture intelligente pour la transformation numérique

La capture intelligente d’informations sur des documents papiers représente sans conteste le présent, mais aussi et surtout l’avenir de la gestion de...

BI communication interne informatique décisionnelle business analyse de données analytics marketing Business Intelligence Actualité Business Intelligence consulting B2B consultant Big Data
2 février 2018
Comment présenter vos informations BI en 5 étapes

Communication, collaboration et coopération sont les trois mots qui sont au centre de toutes les entreprises qui veulent réussir. Ainsi, les échanges...