Self-service Analytics

Artificial Intelligence, Business Intelligence, Data Governance, Data Marketing, Data visualisation, Machine Learning, Self-service Analytics, Technology

DATA : les 7 pièges à éviter. Ep 3/7 – Erreurs mathématiques : comment sont calculées les données ?

Nous avons tous un jour exprimé notre incrédulité quant à l’intérêt des mathématiques dans notre vie quotidienne. A quoi ce sujet dense et complexe pouvait bien servir ? Et bien, dans un monde où les données sont présentes partout et infusent chaque décision stratégique des organisations, les mathématiques sont d’une importance vitale (nda : elles l’ont toujours été !)

Dans nos projets d’analyse de données, les erreurs mathématiques peuvent arriver dès lors qu’un champ calculé est créé pour générer des informations supplémentaires à partir de notre jeu de données initial. Ce type d’erreur peut être retrouvé par exemple lorsque :

  • On réalise des agrégations (somme, moyenne, médiane, minimum, maximum, comptage, comptage distinct etc.) à différents niveaux de détail
  • Nous faisons des divisions pour produire des ratios ou des pourcentages
  • Nous travaillons avec des unités différentes

Il s’agit évidemment d’une infime partie des types d’opérations où des erreurs peuvent se glisser. Mais au regard de notre expérience, ce sont les causes principales de problème que nous rencontrons.

Et, dans chacun de ces cas, il ne faut pas être un ingénieur ou scientifique de génie pour les corriger. Un peu d’attention et pas mal de rigueur sont nécessaires !

1. Les erreurs de traitement d’unité

Dans cet article, nous n’allons pas trop nous attarder sur cette erreur fréquente. En effet, il existe un nombre important d’articles et d’anecdotes qui illustrent parfaitement et en détail ce type de problématique (dont nous avons également parlé dans l’article précédent).

L’exemple le plus fameux, et coûteux, est le crash de la sonde « Mars Orbiter ». Si vous voulez en savoir plus alors cela sera par ici : Mars Climate Orbiter – Wikipedia

Vous pouvez arguer qu’aucun d’entre nous ne fait partie de la NASA et doit poser une sonde sur une planète lointaine et donc ne pas être concerné. Et bien, vous pouvez à votre mesure, vous retrouver nez à nez avec ce type d’erreur lorsque vous manipulez des données temporelles (heures, jours, secondes, minutes, années), financières (différentes devises), ou que vous gériez des stocks (unités, kilos, palettes, barres etc.).

2. Aggravation des agrégations

Nous agrégeons des données lorsque nous regroupons des enregistrements qui ont un attribut en commun. Il y a toutes sortes de regroupements de ce genre que nous traitons dans notre monde dès lors que nous pouvons établir des liens hiérarchiques ; le temps (jour, semaine, mois, années), la géographie (villes, région, pays), les organisations (employés, équipes, sociétés) etc.

Les agrégations sont un outil puissant pour appréhender le monde, mais attention, elles comportent plusieurs facteurs de risque :

  • Les agrégations résument une situation et ne présentent pas les informations détaillées. Tous ceux qui ont participé à une formation sur la datavisualisation avec nos équipes sont familiers du quarter d’Anscombe :

Le résumé statistique est un exemple typique de ce que peuvent masquer des agrégats. Dans cet exemple les quatre jeux de données ont exactement les mêmes sommes, moyennes et déviation standards sur les deux coordonnées (X,Y). Lorsque l’on représente chacun des points sur des courbes, il est aisé de constater que les 4 histoires sont significativement différentes.

Dès lors que des données sont agrégées, nous essayons de résumer une situation. Il faut toujours se rappeler que ce résumé masque les détails et le contexte qui l’expliquent. Alors soyez prudent lorsque, lors d’une discussion, vos interlocuteurs ne parlent que de valeurs moyenne, de sommes ou de médiane sans entrer dans le détail de ce qui a pu engendrer ce scénario précis.

  • Les agrégations peuvent également masquer les valeurs manquantes et induire en erreur. En effet, selon la façon dont nous représentons des informations, il est possible que le fait que des données soient manquantes ne soit pas clairement visibles de prime abord.

Prenons par exemple un jeu de données dans lequel nous observons pour une compagnie aérienne le nombre d’impacts d’oiseaux sur des avions.

Notre objectif est de déterminer le (ou les) mois de l’année où le plus d’incidents ont été relevés. Cela donne :

Le mois de juillet semble être le mois où le nombre d’impacts décomptés a été le plus important. Toutefois, si nous regardons le détail par année, nous nous rendons compte que l’agrégation choisie pour répondre à notre interrogation ne permettait pas de déterminer que les saisies pour l’année 2017 s’arrêtaient lors de ce fameux mois de juillet :

La réponse à notre question était donc le mois d’Août si nous excluons les données de l’année pour laquelle nous n’avions pas tous les enregistrements.

  • Totaux et agrégations :

Dernier exemple de problématiques liées aux agrégations que nous allons découvrir dans cet article. Il s’agit d’une des erreurs « favorites » de l’auteur de cet article. D’aucun pourrait même parler de spécialité !

Elle intervient lorsqu’il est nécessaire de compter les individus distincts dans une population donnée. Mettons que nous regardons notre base client et cherchons à savoir combien d’individus uniques sont présents dans celle-ci.

Le comptage des id distincts pour l’ensemble de la société nous donne un décompte de nos clients uniques :

Mais si l’on regarde par ligne de produit et affichons une somme sans y prêter attention :

Nous trouvons 7 clients de plus !

Cela arrive simplement car il existe dans la clientèle de la société étudiée des clients qui prennent à la fois des prestations ET des licences, et qui finissent par être comptés deux fois dans le total !

Il s’agit d’un problème ayant des solutions simples dans tous les logiciels modernes de datavisualisation et de BI mais celui-ci à tendance à se cacher au détour d’une série de calculs et d’agrégations, causant des écarts parfois surprenants en bout de chaîne.

3. Panique à bord, un ratio !

Nous allons illustrer ce point avec un exemple sorti de l’un des dashboards que nous avons fait pour un de nos clients. Avec toute notre expertise, il nous arrive aussi de sauter à pieds joints dans ce type d’erreurs :

Et oui, il s’agit d’un taux d’occupation qui excède « légèrement » les 100% !

Comment est-ce possible ? Un simple oubli !

La somme des divisions n’est pas égale à la division des sommes…

En effet, dans ce cas précis, nous avions un jeu de données similaire à celui ci-dessous :

Est-ce que le taux d’occupation est égal à :

  • La somme des taux d’occupation individuels ? FAUX !

Cela nous donne un total de 30 % + 71 % + 100 % + 50 % + 92 % +70 % soit 414 %.

Et c’est exactement l’erreur que nous avons faite sur un jeu de données encore plus vaste…

  • Ou le ratio du total des passagers sur le total de la capacité disponible ? 125/146 = 86%. C’est plus juste !

Remarque : la moyenne des taux d’occupation individuels serait également fausse.

En résumé, dès lors que l’on manipule un ratio, il s’agit de diviser le total des valeurs du numérateur et du dénominateur pour éviter ce type de soucis.

Il s’agit dans ce cas précis d’un seul exemple d’erreur liée au ratio. Des mentions honorables peuvent être attribuées au traitement des valeurs NULL dans un calcul, ou à la comparaison de ratios qui ne sont pas calculés avec les mêmes dénominateurs.

Dans le prochain article, nous allons explorer le 4ème type d’obstacle que nous pouvons rencontrer lorsque nous utilisons les données pour éclairer le monde qui nous entoure :

Les dérapages statistiques. (Spoilers : « There are lies, damned lies and statistics » B.Disraeli)

Cet article est inspiré fortement par le livre ” Avoiding Data pitfalls – How to steer clear of common blunders when working with Data and presenting Analysis and visualisation” écrit par Ben Jones, Founder and CEO de Data Litercy, édition WILEY. Nous vous recommandons cette excellente lecture!

 Pour retrouver l’intégralité des sujets qui seront abordés au cours de cette série par ici : https://www.datanalysis.re/blog/business-intelligence/data-les-7-pieges-a-eviter-intro/

Business Intelligence, Company, CRM, Data Governance, Data Marketing, Data Mining and Data Integration, Data Quality Management, Data visualisation, Data Warehouse, Machine Learning, Self-service Analytics

DATA: les 7 pièges à éviter. Ep 2/7 – Erreurs techniques : comment sont créées les données?

Après avoir défini quelques concepts primordiaux au regard de la donnée, nous pouvons nous plonger dans les sujets techniques qui peuvent être source d’erreur. Cet article traite des problématiques liées au process permettant d’obtenir les données qui seront par la suite exploitées. Il s’agit de la construction des fondations de nos analyses.

Et il est évident que nous ne souhaitons pas bâtir un château de cartes sur du sable !

Pour rester dans cette métaphore de la construction, si des problèmes de cette nature existent, ceux-ci seront cachés et peu visibles dans l’édifice final. Il est donc nécessaire d’apporter un soin particulier lors des étapes de collecte, de traitement, de nettoyage des données. Ce n’est pas pour rien que l’on estime que 80% du temps passé sur un projet de data science est consommé sur ce type de tâches. 

Afin d’éviter de tomber dans ce piège et de limiter la charge nécessaire à la réalisation de ces opérations qui peuvent être fastidieuses, il faut accepter trois principes fondamentaux :

  • Virtuellement tous les jeux de données ne sont pas propres et doivent être nettoyés et mis en forme
  • Chaque transition (formatage, jointure, liaison, etc.) lors des étapes de préparation est source potentiel d’une nouvelle erreur
  • Il est possible d’apprendre des techniques pour éviter la création des erreurs issues des deux premiers principes.

Accepter ces principes n’enlève pas l’obligation de passer par ce travail préalable à toute analyse mais, bonne nouvelle : savoir identifier ces risques et apprendre au fur et à mesure de nos projets, permet de limiter la portée de ce deuxième obstacle.

1. Le piège des données sales.

Les données sont sales. Je dirais même plus, toutes les données sont sales (voir premier principe énoncé précédemment), problématique de formatage, de saisie, d’unités incohérentes, de valeurs NULL etc.

Quelques exemples de ce piège sont très connus

Nous pouvons citer le crash de la sonde Mars Climate Orbiter de la NASA en 1999, par exemple. Une erreur à 125 millions de dollars qui a été causée par un double système d’unité : unités impériales et unités issues du système métriques. Cela a occasionné un calcul erroné qui a joué sur la puissance envoyée aux propulseurs de la sonde et à la destruction de celle-ci.

Heureusement, toutes les erreurs de cette nature ne vont pas nous coûter autant d’argent ! Mais elles auront malgré tout des impacts significatifs sur les résultats et le ROI des analyses que nous sommes amenés à mener.

Ainsi, chez DATANALYSIS, nous menons actuellement plusieurs projets spécifiquement sur la qualité de données dans le cadre de sujet de DATA Marketing et nous faisons face à deux types de sujet :

  • La validation des données qui visent à essayer d’améliorer la qualité de celle-ci grâce aux traitements des données, en :

-Normalisant les champs (numéro de téléphone, email etc.) : +262 692 00 11 22 / 00262692001122 / 06-92-00-11-22 correspondent à la même ligne et nous pouvons grâce à des traitements adaptés automatiser une grande partie de ce travail ;

– Complétant des champs vides grâce aux autres données présentes dans la table. Nous pouvons par exemple déduire le pays de résidence à partir des indicatifs téléphoniques, des codes postaux, des villes etc.

 

  • La déduplication, en :

-Cherchant à identifier grâce à des règles adaptées des lignes potentiellement identiques. Deux enregistrements ayant le même mail, ou le même numéro de téléphone, ou le même identifiant pour les entreprises ;

-Cherchant grâce à des algorithmes de calcul de distance à définir les valeurs proches en termes d’orthographe, de prononciation, de caractères communs etc.

Au regard de ces quelques exemples et de nos propres expériences, il est possible de constater que ce type d’erreur provient principalement des processus de saisie, de collecte ou de « scrapping » des données qu’ils soient mis en œuvre automatiquement ou par des humains. Ainsi outre les solutions que l’on peut mettre en œuvre dans les traitements de préparations de données, l’amélioration de ces étapes préalables permettra également d’améliorer grandement la qualité des données à traiter, et cela passe par l’éducation, la formation et la définition de règles et de normes clairement connues et partager (la data gouvernance n’est jamais loin).

Enfin, il convient également de se demander au regard de cette étape, quand nous pouvons considérer comme suffisamment propre. En effet, nous pouvons toujours faire plus et mieux, mais souvent les coûts engendrés peuvent dépasser les retours espérés.

2. Le piège des transformations des données

Dans le monde informatique, il existe une image visant à résumer ce type de problématique :

Souvent l’erreur se situe entre l’écran et le siège !

Et oui, même les meilleurs data scientists, data analysts ou data engineers peuvent se tromper dans les étapes de nettoyage, de transformation et de préparation des données.

Fréquemment, nous manipulons plusieurs fichiers issus de différentes sources, de différentes applications, ce qui multiplie les risques liés aux problématiques de données sales et les risques lors de la manipulation des fichiers en eux-mêmes :

  • Niveaux de granularités différents
  • Jointure sur des champs dont les valeurs ne sont pas exactement identiques (ST-DENIS vs SAINT DENIS par exemple)
  • Périmètre couverts différents sur les fichiers.

Et ce problème peut être également rendu plus complexe en fonction des outils utilisés dans le cadre de nos analyses :

  • Dans Tableau par exemple nous pouvons faire des jointures, des relations ou des liaisons de données pour lier plusieurs jeux de données entre eux. Chaque type d’opération a ses propres règles, contraintes.
  • Dans Qlik, il est nécessaire de bien comprendre comment fonctionne le moteur associatif et les règles de modélisation associées qui diffèrent de celles d’un modèle décisionnel traditionnel.

Il s’agit dans ce cas souvent de contraintes techniques liées au métier même de préparation de données et prendre le temps d’appréhender les risques et les processus en place permettra de gagner un temps important sur la mise à disposition d’analyse de données fiables et performantes.

Dans le prochain article, nous allons explorer le 3ème type d’obstacle que nous pouvons rencontrer lorsque nous utilisons les données pour éclairer le monde qui nous entoure : Les Erreurs Mathématiques

Cet article est inspiré fortement par le livre ” Avoiding Data pitfalls – How to steer clear of common blunders when working with Data and presenting Analysis and visualisation” écrit par Ben Jones, Founder and CEO de Data Litercy, édition WILEY. Nous vous recommandons cette excellente lecture!

 Pour retrouver l’intégralité des sujets qui seront abordés au cours de cette série par ici : https://www.datanalysis.re/blog/business-intelligence/data-les-7-pieges-a-eviter-intro/

Business Intelligence, Change and Project Management, Data Marketing, Data Mining and Data Integration, Machine Learning, Self-service Analytics, Technology

OFFRE D’EMPLOI-CONSULTANT SÉNIOR BI & DATA VISUALISATION H/F – CDI

En recherche d’un nouveau challenge ?

Votre mission :

Accompagner nos clients dans leurs projets de transformation numérique et d’analyse de données.
Partenaires majeurs des entreprises de l’océan Indien pour leurs projets autour de la données, DATANALYSIS dans le cadre de son expansion recrute un Consultant Sénior BI & Data Visualisation.

Véritable actif stratégique des entreprises, la donnée est aujourd’hui au cœur des enjeux de performance économique et concurrentielle. Nos équipes maîtrisent parfaitement son cycle de vie et les leviers pour que cette donnée devienne une information précieuse. Pour nous aider à aller encore plus loin et pour offrir une expertise additionnelle à nos clients, nous recherchons un profil alliant expertises technologiques et savoir-faire métier pour participer à la réalisation des projets de Business Intelligence de nos clients.

Intégré à une équipe de 8 consultants sénior spécialisés en BI Self-Service, en Data visualisation, Machine Learning et IA, votre poste vous amènera à :
• Participer au cadrage des besoins des entreprises,
• Être force de proposition quant à la réalisation de solutions décisionnelles, en mode Agile,
• Proposez des analyses visuelles claires et génératrices de valeur pour leurs utilisateurs,
• Exploiter vos compétences techniques dans le traitement et la valorisation des données.

Vous aimez relever les nouveaux défis et vous savez faire preuve d’engagement pour réussir et évoluez aisément dans un environnement dynamique.

Vous vous intéressez naturellement à vos clients pour savoir dans quelle mesure vous pouvez les aider à résoudre leurs problèmes.

Vous possédez un bon esprit d’analyse et de synthèse, un excellent relationnel.

Skills incontournables :
  • Dataviz (Tableau ou Power BI ou Qlik)
  • Base de données
  • ETL (Talend, SSIS, etc)

 

VOUS PROFITEREZ PLEINEMENT DE CE POSTE SI…

• Vous disposez d’une forte appétence pour les nouvelles technologies.
• Vous avez des compétences avancées dans l’une ou plusieurs des technologies suivantes :
o 3-5 ans d’expérience minimum sont attendus en développement sur Qlikview/Qliksense
o Des compétences Tableau Software sont un vrai plus
• Vous faites également preuve également de capacités de gestion de projet, de recueil de besoin,
La curiosité, l’intérêt pour le monde de la donnée, de la data visualisation et de l’IA sont des vraies plus.

Enfin, et surtout, vous êtes chaleureux, souriant, dynamique et vous avez un bon esprit d’équipe. Vous aimez rendre service en apportant du soin à la qualité de votre travail.

 

OÙ TRAVAILLEREZ-VOUS ?

Le poste est basé à la Saline, commune de Saint Paul, la Réunion. Des déplacements sur toute l’île, et potentiellement sur l’île Maurice et Madagascar sont à prévoir.

 

POURQUOI REJOINDRE DATANALYSIS ?

We are data people and we rock, like you !

Business Intelligence, Data Governance, Data Marketing, Data Mining and Data Integration, L'entreprise, Machine Learning, Self-service Analytics

Quand trop de Data tue la Data // S2E4

Alors ne nous méprenons pas, chez DATANALYSIS nous sommes de vrais DATA enthousiastes et nous vous aiderons à créer les meilleures solutions pour votre organisation et votre équipe ! Aujourd’hui, nous allons parler d’un écueil en particulier auquel vous pouvez faire face à toute étape de votre projet d’analyse de données : la « surrogation » ! (Surprise, nous ne parlerons pas cette fois-ci de biais cognitif ou de visualisations trompeuses ; chaque chose en son temps…).  
La « surroga-quoi » ??

Il s’agit d’un anglicisme, introduit en 2012, dérivé du verbe « To surrogate » (qui signifie « se substituer ») et qui indique la tendance à remplacer la stratégie par…des indicateurs. Il s’agit d’une pratique malheureusement assez répandue et qui peut être évitée en mettant en œuvre les outils de la gouvernance et de l’approche DATA DRIVEN que nous décrivons dans nos différents articles.

N’hésitez pas à aller checker ça si vous n’êtes pas encore à jour !

Toujours un peu obscur ? Voyons ensemble un exemple de « surrogation » :

1. Le cas emblématique de la surrogation : Wells Fargo

Au milieu des années 2010, la grande banque américaine Wells Fargo a été prise dans un scandale majeur lorsque les autorités se sont rendu compte (et ont sanctionné) l’ouverture de 3,5 millions de comptes de dépôts et de cartes de crédits réalisées sans le consentement des clients. Cette pratique frauduleuse a été mise en œuvre par les salariés de la banque dans le cadre de la « stratégie de ventes croisées ».

Concrètement, un programme de rémunération incitative mise en place pour améliorer les ventes croisées (« 8 is great », l’objectif étant de vendre 8 produits de la banque à chaque client) a été à l’origine des dérives et des problèmes de la Wells Fargo et a été soutenu par le système de mesure mise en œuvre pour évaluer le déploiement de cette stratégie. Dès lors que la banque a décidé de suivre activement les chiffres quotidiens des ventes croisées, les salariés se sont efforcés logiquement de maximiser leur score personnel pour obtenir les meilleures primes possibles. Evidemment, comme l’histoire nous l’a appris : sans se soucier des règles à suivre.

Outre le coût exorbitant des sanctions, les remboursements réalisés auprès de clients lésés, cela a terni l’image de l’entreprise et sa réputation pendant de très longues années et la confiance n’a pu être rétablie qu’au prix de lourds efforts et d’importants changements.

Toutes les situations de « surrogation » ne résultent pas toujours sur des scénarios aussi graves et catastrophiques. Si vous attendez d’obtenir le nouveau superbe dashboard de vos consultants avant de définir votre politique commerciale, alors vous êtes dans ce cas !

2. Que faire pour ne pas tomber dans ce piège ?

Avant toute chose, ne jetez pas tous vos indicateurs à la poubelle. Ils sont utiles lorsqu’ils sont utilisés à bon escient ! Ce qui est important ici, c’est d’évoquer l’importance d’une stratégie d’entreprise clairement définie et assimilée par tous les membres de l’organisation ; et d’aligner la stratégie DATA avec cette stratégie d’entreprise.

Daniel Kahneman, Prix Nobel d’Economie, indique qu’il existe 3 conditions pour que la « surrogation » opère :
  1. La stratégie est définie en des termes abstraits
  2. L’indicateur de mesure de la stratégie est concret et visible (et incitatif comme dans l’exemple de la Wells Fargo)
  3. L’indicateur étant plus simple à comprendre que la stratégie globale, les membres de l’organisation préfèrent se référer au premier qu’au second.
Dès lors que l’on sait ce qui peut déclencher cette problématique, il suffit de travailler sur chacune de ces sources potentielles pour que le piège disparaisse.

En tout premier lieu, il s’agit de rendre la stratégie de l’entreprise lisible et claire pour toutes les parties prenantes. Il ne s’agit pas de multiplier uniquement les sessions d’informations et les ateliers de présentation mais d’associer au maximum les responsables de son exécution à sa définition.

Pour éviter que l’indicateur soit le graal à atteindre par les employés, il est également nécessaire de limiter le lien entre celui-ci et les incitations. En effet, un indicateur aussi bien construit et défini soit il n’est que le reflet imparfait d’une réalité. Le simple fait de le mettre en lumière peut ainsi le faire varier positivement ou négativement.

Une définition plus claire de la stratégie d’entreprise permettra alors de définir plusieurs critères de succès permettant l’élaboration d’une série d’objectifs qualitatifs et quantitatifs, sur différentes temporalités et qui permettront de mieux suivre l’exécution de la stratégie (et limitera automatiquement la mise en œuvre de méthode de contournement par les employés).

3. Pourquoi est-ce important dans le cadre de la mise en œuvre de ma plateforme d’analyse ?

On a pu voir dans les articles précédents que le succès d’un projet analytique ne découle pas uniquement des performances technologiques des solutions mises en œuvre mais s’appuie sur la capacité de tous les membres de l’organisation à les utiliser pleinement afin d’atteindre LES objectifs stratégiques de l’organisation.

Remplacer la stratégie par des indicateurs ne rendra pas la plateforme analytique caduque. En effet, celle-ci fournira les résultats des dits indicateurs. Mais celle-ci ne permettra pas la génération de valeur ajoutée et pourra parfois, comme le cas de la Wells Fargo l’a démontré, être la source de sérieuse déconvenue pour celle-ci.

Il est donc crucial de se doter des bonnes méthodologies de travail pour profiter pleinement du potentiel de ses données, pour développer les bonnes solutions techniques, et doter vos équipes des atouts et des clés pour qu’elles puissent les utiliser dans le long terme et dans le cadre de votre stratégie d’entreprise. Notre offre DATA GOVERNANCE est là pour vous accompagner dans toutes les étapes de vos projets d’analyse de données.

Dans le prochain épisode, nous conclurons cette série avec un livre blanc : « L’analytique en self-service, le graal d’une organisation DATA-DRIVEN».
Cet article vous a inspiré ?
Business Intelligence, Data Governance, Data Marketing, Data Mining and Data Integration, L'entreprise, Machine Learning, Self-service Analytics

Période incertaine : comment engager ses clients grâce aux données ? // S2E3

La façon dont vous engagez les clients commence par l’écoute. Il est fort probable qu’après une période aussi complexe que la pandémie mondiale, leurs attentes, leurs envies et leurs besoins aient évolué drastiquement. Investissez dans la compréhension des nouvelles réalités de vos clients, cela sera à coût sûr un investissement payant alors que l’on n’a jamais été aussi proches d’une réouverture plus complète de l’économie.

Et comment mieux les écouter que de développer des plateformes analytiques mettant à disposition de tous les opérateurs des données fiables et disponibles simplement (et évidemment dans le respect de la RGPD) ?

Avant la COVID-19, l’un des objectifs majeurs pour les organisations était de devenir « Customer-Centric » (organisé autour des besoins, des enjeux, des attentes et des contraintes du client). Cet objectif est devenu d’autant plus critique. Il est nécessaire de penser son entreprise en repensant les processus, et donc les flux de données et les outils d’analyses associées autour de vos clients, et non en silos ou en département.

La clé sera de personnaliser vos expériences et communication et d’associer pleinement les différents départements et services à cet effort de changement. Pour ce faire, nous vous donnons quelques éléments clés autour de deux axes sur lesquels orienter votre réflexion :

1. Comprenez parfaitement les besoins changeants des clients

L’objectif principal ici est de savoir si vous disposez de toutes les informations qui vous permettent de comprendre vos clients. Avez-vous accès aux données externes à votre entreprise ? Savez-vous les récupérer ? Savez-vous les croiser avec les données dont vous disposez déjà ? Un investissement dans de nouvelles sources d’informations pour votre organisation sera probablement nécessaire pour atteindre vos clients et tâter leur pouls sur toutes les plateformes où ils peuvent discuter de vos produits.

Une fois que les données sont obtenues, traitées, intégrées et exploitables (de manière éthique et respectueuse de la vie privée) avec celles issues de vos outils traditionnels, il est important de pouvoir les utiliser simplement grâce à votre plateforme self-service d’analyse. Votre objectif sera d’identifier et comprendre les nouveaux besoins de vos clients : est-ce que vos segmentations ont bougé ? Est-ce que les comportements d’achats ont évolué (fréquence, montant, panier, remise, produits etc.) ? Comment est-ce que j’adapte mes opérations pour répondre à mon nouvel environnement ?

Cela vous donnera les moyens d’offrir une expérience optimale et personnalisée à vos clients et reconstruire un nouveau lien avec eux :
  • Capturez les besoins des clients grâce à l’acquisition de données extérieures à votre organisation (réseau Sociaux, sites de notations etc.). Intégrez ces nouvelles données à vos analyses marketing pour déterminer les nouvelles attentes de vos clients
  • Faites évoluer la stratégie de données en fonction des nouvelles exigences en matière de données pour garantir une expérience client optimale
  • Mettre en place un conseil consultatif sur l’utilisation éthique et des lignes directrices pour régir la santé et l’utilisation d’autres données sensibles
  • Adapter les propositions de valeur et les offres pour répondre à la demande du marché à court terme
  • Etablissez à nouveau la confiance grâce à des expériences personnalisées

2. Exploitez tout le potentiel de votre entreprise

Vous avez à disposition toutes les données vous permettant de comprendre les nouvelles attentes de vos clients, c’est très bien ! Mais il ne faut pas oublier d’organiser vos méthodes de travail et vos outils pour arriver à exploiter parfaitement ce nouveau gisement d’information.

Nous l’avons vu dans la série précédente sur la Data Governance, la clé pour qu’une solution d’analyse de données soit réellement efficiente, vous offre un véritable retour sur investissement, et permette à votre organisation d’exploiter son plein potentiel est de prévoir une organisation adaptée :

  1. Adéquation de votre stratégie DATA et votre stratégie d’entreprise
  2. Rôles et processus de tous les acteurs interagissant avec les données
  3. Environnement de Data Governance : DATA Catalogue, DATA Lineage, Compliance
  4. Solution analytique : Traitement des données, stockage, analyse visuelle, Machine Learning et IA
  5. Formation et établissement d’une DATA Communauté
Investir dans la mise en œuvre d’une vraie politique de Data Governance est la seule solution pour réellement engager ses clients dans le long terme. En clair et spécifiquement à cet enjeu :
  • Redéfinissez les processus métier pour qu’ils soient centrés sur le client
  • Créez une source unique de vérité client pour mettre toutes les équipes sur la même page en agrégeant plusieurs sources de données
  • Auditez systématiquement les moments clients en fonction du « travail à faire » pour identifier les points faibles et les opportunités de différenciation
  • Développer des processus et des composants réutilisables (ensembles de données, API) pour accélérer le développement d’applications grâce à une réutilisation maximale
  • Tirez parti des données de cas de service pour identifier les améliorations et les investissements les plus prioritaires

Comme souvent, on en revient toujours à une conclusion similaire. La clé pour pouvoir exploiter parfaitement les données et engager ses clients est à la fois dans l’établissement des capacités (construire la plateforme analytique et l’alimenter en données) et dans le développement des méthodes de travail (stratégie, rôles, processus, et formation) qui permettront de les exploiter et prendre les bonnes décisions.

Se concentrer sur un des aspects du problème et oublier le second est le meilleur moyen de ne pas être dans les « starting blocks » pour la réouverture prochaine et laisser ces concurrents prendre une avance non négligeable !

« Quand trop de DATA tue la DATA ? Quels sont les écueils à éviter ? ».

Rendez-vous dans notre prochain épisode !

Cet article vous a inspiré ?
Business Intelligence, Data Governance, Data Marketing, Data Mining and Data Integration, L'entreprise, Machine Learning, Self-service Analytics

Organisation Data-Driven : Quoi ? Comment ? // S2E2

Lors du premier épisode de cette mini-série, nous avons vu les avantages concurrentiels des organisations DATA DRIVEN dans une période complexe et incertaine comme celle que nous vivons actuellement.

Mais, qu’est ce qui caractérise une entreprise DATA-DRIVEN ?

Après avoir défini ce terme et nous allons vous partager quelques questions que vous pouvez vous poser pour savoir si votre organisation/votre équipe profitent pleinement du nouveau pétrole de l’économie.

1. Etre Data-Driven : kezako ?

Déf.

Être DATA DRIVEN cela veut dire qu’au sein d’une organisation les données sont utilisées ACTIVEMENT, par tous, tous les jours et pour répondre à la majorité des questions opérationnelles et stratégiques qui peuvent être posées pour découvrir de nouvelles informations et prendre des décisions. Cela implique donc d’avoir les outils, les compétences, les processus et les rôles qui permettent à tous de naviguer dans les données sans idées préconçues pour générer de nouvelles informations éclairées.

Eléments clés d’une organisation DATA DRIVEN :

  1. Ceux qui ont besoin d’utiliser les données dans leur tâche pour prendre de meilleures décisions peuvent le faire par eux-mêmes en ayant accès aux bonnes données et aux bons outils
  2. Les outils mis à disposition doivent être suffisamment simples et ergonomiques pour permettre des usages adaptés au rôle, profil et niveau de compétences des opérateurs métiers
  3. C’est par l’exploration et l’analyse des données que l’on identifie les bonnes informations et les bonnes décisions à prendre, même si cela peut être parfois contre-intuitif
  4. Les informations générées peuvent être communiquées rapidement et simplement aux managements et aux autres parties prenantes
  5. L’organisation des équipes permet un fonctionnement agile et l’utilisation quotidienne des outils analytiques
  6. De nouvelles données peuvent être rendues simplement accessibles pour valider leur intérêt, réaliser des analyses et des études, en attendant qu’elles soient intégrées à une plateforme transverse sur leur intérêt est confirmé.

Ce qu'une organisation DATA DRIVEN n'est pas :

Ce type de fonctionnement s’oppose aux organisations qui travaillent de manière empirique : j’ai une hypothèse sur mon activité, mon environnement, mes clients et j’espère trouver une réponse dans les rapports qui me sont fournis de façon hebdomadaire et mensuelle. Le cas échéant, je peux demander à une équipe dédiée de créer un nouveau reporting pour tenter d’affirmer ou d’infirmer mes hypothèses.

Ingrédients d'une organisation empirique :

  1. L’organisation des équipes est très verticale. L’accès aux données (souvent limité par les compétences techniques nécessaires) se concentre au niveau d’un seul service ; centre de compétence BI, DSI etc.
  2. Les opérateurs métiers doivent donc définir des hypothèses avant de soumettre une demande de création d’un rapport adapté pour vérifier la validité de celles-ci ; et attendre la construction de la solution pour commencer à prendre des décisions
  3. Les équipes analytiques recevant des demandes de toutes parts, les temps de réponses sont souvent très longs et les problématiques métiers deviennent obsolètes au moment où les développements sont achevés
  4. Les équipes opérationnelles développent des solutions de contournement pour trouver des réponses à leur problématiques (souvent par l’entremise de rapports manuellement générés sous Excel)
  5. La mise à disposition de nouvelles données pour répondre aux questions sur de nouveaux périmètres demande de passer par un processus lent, lourd et complexe de validation et de développement avant d’être enfin effectif.

2. Votre organisation est-elle DATA-DRIVEN ?

Votre équipe / votre entreprise utilise-t-elle les données de la manière la plus efficiente ? Rassurez-vous, cela ne nécessite pas (obligatoirement) de forts investissements dans de nouvelles technologies. Il s’agit d’avoir une organisation adaptée, des équipes aculturées aux données et des processus afin de prendre des décisions éclairées dès qu’une information pertinente est générée.

Et sur le terrain ?

1.Vous menez vos réunions avec vos équipes, votre management en argumentant vos décisions majoritairement par des exemples issus de votre entourage proche ou d’informations récoltées dans des publications extérieures à votre organisation?

  • Votre approche est donc plutôt empirique. En effet, si votre cousine est fan d’un certains types de produits ou que vous avez vu un article (même d’une source de référence) décrivant le comportement des millénials dans certaines circonstances, cela ne veut pas dire qu’il s’agit d’éléments valides au regard de l’activité de votre organisation. Il est même possible que parfois ce type d’exemple ou d’anecdote ne soit pas du tout représentatif de votre marché, de votre public ou de votre environnement.

2. Vos services marketing, financiers, ventes, logistiques ne communiquent pas les données relatives à leurs activités entre eux ?

  • Malheureusement vous êtes face à des silos organisationnels et cela est clairement un des signes attestant que votre organisation n’est pas DATA DRIVEN. Être DATA DRIVEN cela implique (dans le respect de certaines règles d’accès et de sécurité bien entendu) de partager les informations entre les services pour avoir toutes les cartes en main et prendre ainsi les meilleures décisions possibles.

3. Une majorité de vos employés sont capables d’accéder aux bonnes données et de faire les analyses qui sont nécessaires à leur travail ; par exemple :

  • Le responsable d’un rayon saura à tout moment explorer les données pour vérifier quels sont les produits les mieux vendus pour chaque catégorie dont il a la charge et ainsi réorganiser son espace commercial
  • Un directeur de magasin pourra déclencher une promotion pour augmenter le trafic dans son magasin en accédant simplement à une analyse des horaires de ventes et des meilleures actions commerciales à mettre en œuvre pour augmenter la fréquence d’achat

Si vous êtes dans cette situation ou proche de celle-ci, bravo ! Votre organisation est probablement DATA DRIVEN. Vos équipes à tous les niveaux de l’organisation sont capables de travailler efficacement avec les données nécessaires à la prise de décision.

Ainsi, on dit qu’une organisation est DATA DRIVEN si elle s’est dotée des outils, des processus, des rôles qui lui permettent de prendre les bonnes décisions, rapidement, sans à priori ou hypothèses préconstruites. Ces décisions s’appuient sur l’environnement réel (contraintes, partenaires, clients, etc.) de l’organisation et permettent donc un meilleur retour sur investissement comparativement à des méthodologies empiriques.

L’épisode 3 portera sur une notion d’engagement, et pas des moindres :

« Comment engager ses clients grâce aux données en des temps incertains ? »

Cet article vous a inspiré ?
Self-service Analytics

Manage your Hospitality using Tableau Software

Data and analytics are playing an increasingly critical role in hotel and leisure operators’ understanding of their customers’ behaviour, so that swift actions can be taken to really satisfy their needs and wants.

At the same time, hotel operators have multiple datasets lying in various locations – customer profiles, customer feedback, occupancy rates, F&B sales etc. – creating data silos, from which the fullest potential cannot be tapped until they are integrated to gain a single version of truth.

Your teams could use Tableau to develop weekly and monthly reports that they could share with the entire company. The reports could feature sales figures and updates from top management and country managers, marketing and financial data, along with other growth updates. The comprehensive dashboards make sharing complex information with the rest of the company a much easier task.

With weekly reporting that details KPIs and shows how booking patterns are changing, details on revenue, commission and conversion rates but to name a few, allows you to extract the best insights for the team.

Tableau helps you stay competitive by making the time to develop and deliver insightful analysis and reports significantly shorter.

A business, which is highly metric-driven, is optimized with Tableau’s rapid-fire data analytics and drag-and-drop functions as period-on-period metric can be compared.

Tableau is a powerful tool because of its cross-platform adaptability. Tableau’s beautiful dashboards can be mobile-optimized, which makes it easy for everyone to access the findings even on the go. Tableau basically has the power to give you any insights you are looking for from the data that you can get your hands on.

Tableau can be a huge game-changer. So instead of having to wait for something to already happen and then try to figure out why it happened, you can now proactively look out and see what’s going to happen before it happens and then prepare for that or maybe change it.

 

Self-service Analytics

My World 2030 – Harness data to drive sustainability and corporate responsibility

Over the past couple of months if not years we have seen headline grabbing scandals in various sectors of the economy worldwide.  The public trust is being hugely impacted with regards to the competence of executive leadership, integrity and transparency.

Earning trust requires the utmost attention to demonstrating ethical leadership, responsible (and responsive) business practices, transparency, and a genuine commitment to an organisation’s mission.

Companies are being encouraged to put their increased profit into programs that give back to society in terms of environmental, social, and governance (ESG) aspects More than ever before, there’s growing expectations that organisations will continue to play a very active role in solving social problems such as poverty or discrimination. It’s important that organisations set standards of ethical behaviour for its peers, competition and industry.

So how can data drive sustainability and corporate responsibility? The writing is on the wall!  With the rapidly evolving technology and high velocity and volume of data flooding organisations, it becomes imperative to provide users with an ultimate analytics experience, one with zero discernible latency when interacting with data. By giving users the right tools, they will explore avenues to use data to solve real world problems.

As data becomes more available and analytic literacy more pervasive, it is crucial that companies continue to focus on how their business operations are impacting the value chain, from the farm to the factory to the boardroom.

With the advent of sensors and devices in mobile objects, companies can now leverage spatial data for powerful geospatial analysis for environmental risk assessments. The better the data sets available to assess these risks, the more informed the decisions about adaptation are likely to be.

Energy and Resources give modern society its high standard of living and produce vast quantities of data, from the energy used to the resources needed to make many of these things that help us in business and our everyday lives.

Without a deep understanding that energy is finite and that energy transformations impact not just individuals but also the environment., companies and society at large won’t be able to make informed decisions about the future. With an efficient platform for gaining insights across geographies, products, services, and sectors, companies can maximize downstream profits and minimize upstream costs.

It is the era of data-driven environmental policy-making. Governments can now harness data to effective policy making. Data analytics and visualisation give the opportunity to make the invisible visible, the intangible tangible, and the complex manageable. A data driven government calls for strong leadership and investment. This is highly feasible.  A data driven government would make it easier to identify problems, track trends, highlight policy successes and failures, identify best practices, and optimize the gains from investments in environmental protection. A responsive government would work in close collaboration with businesses, NGOs and the academic community for more conscientious environmental decision-making.

Data alone will not help us achieve the UN SDGs. What we need is strong leadership both from businesses and governments, transparency , integrity and a genuine commitment to the UN 17 SDGs. These combined with modern data analytics will provide collaborative, multilateral solutions to global challenges.

This is My World 2030!!

Self-service Analytics

Track profit, loss with an intuitive CFO dashboard

This CFO dashboard combines complex profit-and-loss data into one page that’s anything but. The top two views provide an overall picture of quarterly and yearly performance over the past three years. The views include key financial measures such as net sales, net profit, and net profit margin. Whether you want to view your numbers according to region, channel, customer segment, or product category, the results are right at your fingertips.

Click on the link below and be amazed by this dashboard . It’s just a click  away!!

https://www.tableau.com/solutions/workbook/cfos-overview-business

 

Happy to have a chat with you to share ideas, discuss opportunities or even prepare a demo for you . Contact us on info@businesslab.mu.

Self-service Analytics

4 ways visual analytics can be additive to improve financial analysis

What if financial professionals had a faster way to complete all of their reporting and scale ad-hoc question and answer cycles? What if the finance department could improve the communication of insights to the entire enterprise—even within existing tech stacks, and large disparate databases?

Modern financial departments are adding self-service, visual analytics to their existing processes to deliver richer and more actionable insights to the business faster.

4 ways visual analytics can be additive to improve financial analysis and save significant time across many use cases and finance teams:

  1. Unify and use all of your data
  2. Scale and repeat analysis faster
  3. Interactive, ad-hoc analytics reveal data outliers
  4. Improve organisational communication if insights

 

1.Unify and use all of your data

Regardless of the size of your organization, there’s financial data everywhere—and a lot of it. Whether you want to analyze live enterprise resource planning (ERP) data living in a warehouse, or transactional data living in the cloud, or still dump HR and CRM data into different spreadsheets, you can combine any and all of it within a single, visual analytics platform, and blend it on a common field to see more accurate, holistic views of your data.

Once you have your data connected and unified with a visual analytics platform, not only will you be able to select specific data sets on-the-fly, and choose which metrics to work with, you’ll spend way more time doing deeper analysis in a visual setting.

 

2.Scale and repeat analysis faster

Whether you’ve been filling your spreadsheets to the breaking point, working with smaller data sets, or running sophisticated macros and calculations in spreadsheets, you’re often left waiting and miserable. You just need to iterate your existing analysis more quickly— you need to be able to ask and answer your data questions without having to start over every time. Once you’ve

unified your data, you’re ready to take your analysis to the next level with visual analytics.

 

3.Interactive, ad-hoc analytics reveal data outliers

Visual analytics are not chart wizards—they’re interactive, can connect to live data sources, and offer an ever-changing analysis of what’s happening now, not last week or last month. Visual analytics can take static reports and turn them into automated and interactive dashboards that anyone can access for the most accurate insights at any time. Everyone in the finance department will spend less time dealing with broken formulas, human error, and more time interacting with data in a dynamic way to explore and reveal critical insights coming from data outliers.

 

4.Improve organisational communication of insights

With visual and interactive dashboards, collaboration is built in as an integral step in the organization’s cycle of analytics. There are no additional configurations or add-ons required to share or collaborate with data, and because users can ask and answer their own questions directly in the dashboard, there are fewer redundant emails and requests to run more numbers. Finance users can simply publish and share dashboards online, to a server, or directly with the people with whom they want to collaborate, and they can immediately see how often reports are being viewed and used. And with live data connections, reports aren’t instantly out of date.

 

Source:Tableau Software