Data Insights : Kathleen Desveaud (Head of the Data & Digital Marketing research lab, Kedge BS)

Data Analytics

publication du 25/09/2023

« Data Insights : À la découverte des experts de la science des données », Kathleen Desveaud (Head of the Data & Digital Marketing research lab au Kedge Business School) a accepté de faire un point sur l’année écoulée et sur les grands enjeux du secteur de la data. 

Intelligence-Artificielle.Com : Pouvez-vous vous présenter ?

Je suis Kathleen Desveaud, professeure spécialisée en Data & AI Marketing au sein de la Kedge Business School. Mon parcours académique a débuté avec une classe préparatoire ECS, suivi d’un master PGE à Toulouse Business School.

J’ai ensuite poussé ma passion pour le domaine en décrochant un doctorat en sciences de gestion de l’université de Toulouse Capitole.

Pendant ma thèse à dominante méthodologique, j’ai eu le privilège d’être chercheuse invitée à la National University of Singapore, dans le département de psychologie quantitative. Actuellement, je suis en charge des enseignements liés au Big Data, à l’IA, au Machine Learning et à la data visualization pour le programme PGE (programme grande école) de KEDGE BS.

Je conduis des recherches en marketing avec une passion pour la psychologie, les statistiques et la data science. Mes travaux de recherche m’ont conduit à explorer des sujets tels que la perception des marques et l’adoption de l’IA par les consommateurs, avec une prédilection pour les approches quantitatives et l’analyse des données.

Quelles sont les tendances émergentes dans le domaine de l’analyse des données en 2023, et comment ces tendances transforment-elles les stratégies et les opérations des entreprises ?

C’est une question intéressante, mais très vaste… Selon moi, nous sommes dans un monde de plus en plus axé sur les données. Et clairement en 2023, on peut dire que l’IA et le machine learning aident de façon considérable les entreprises à extraire des informations pertinentes et exploitables. Ces technologies ont augmenté notre capacité à prédire, détecter des tendances et dégager des insights exploitables à partir de vastes ensembles de données.

Je dirais que dans cet objectif, l’une des tendances majeures est le passage massif des entreprises vers le cloud. Le cloud offre une flexibilité et une scalabilité qui permettent aux entreprises de s’adapter rapidement aux besoins changeants du marché. Une autre évolution notable est l’accent mis sur la formation dans le domaine de l’analyse des données. On forme toujours plus de personnes aux métiers de la donnée, ce qui renforce l’importance du data-driven decision-making au sein des entreprises. Ceci transforme aussi profondément les métiers du marketing, qui sont amenés à devenir de plus en plus techniques, avec des avancées majeures dans des domaines comme la segmentation ultraprécise des consommateurs, la personnalisation à un niveau inédit, l’analyse prédictive et la surveillance des réseaux sociaux.

Et la nouveauté, selon moi, c’est la rapidité et la précision avec lesquelles ces outils peuvent anticiper les désirs des consommateurs. On ne parle plus simplement de recommander un produit basé sur des habitudes d’achat, mais d’anticiper les besoins avant même qu’ils ne soient exprimés et de proposer des expériences presque sur mesure. Avec l’émergence des IA génératives et des modèles à grande échelle (LLM), nous constatons également une transformation dans la création et gestion du contenu (qui est au cœur du métier de marketeur).

Ces avancées facilitent la génération rapide de contenus personnalisés et la mise en place de publicités générées par des IA, créant ainsi de nouvelles frontières pour l’engagement client. Néanmoins, et je le dis souvent à mes étudiants, j’aimerais tout de même ajouter que ces innovations, aussi prometteuses soient-elles, soulèvent des questions éthiques majeures. Le défi pour les entreprises sera d’intégrer ces outils tout en respectant la vie privée, la transparence et l’intégrité, garantissant ainsi la confiance des consommateurs.

Comment les technologies émergentes, telles que l’intelligence artificielle (IA) et l’apprentissage automatique (machine learning), ont-elles un impact sur les capacités d’analyse des données et les possibilités d’innovation ?

Comme je le disais, l’intelligence artificielle et le machine learning ont profondément transformé notre capacité à analyser des données et à en extraire des insights pertinents pour la stratégie des marques et des entreprises.

En effet, alors que nous étions autrefois limités à des données structurées, le deep learning learning nous permet aujourd’hui d’interpréter des données variées, telles que des images ou des vidéos. Ceci a vraiment permis d’enrichir la quantité de données exploitables et d’améliorer la compréhension du comportement et des préférences des consommateurs. Cette compréhension approfondie se traduit par des expériences client améliorées, car les entreprises peuvent offrir des interactions plus pertinentes et personnalisées.

Évidemment l’IA a également permis d’automatiser et d’accélérer des processus d’analyse qui autrefois étaient manuels et chronophages, ce qui je pense, va permettre de plus en plus aux professionnels du marketing de se consacrer à la stratégie et l’interprétation de ces données. Par exemple, l’IA peut aujourd’hui scruter et analyser des milliers de critiques de consommateurs en un temps record, identifiant des tendances et des retours spécifiques sans intervention humaine. Auparavant, analyser des données pouvait prendre des jours, voire des semaines.

Aujourd’hui, avec l’IA et le machine learning, nous pouvons obtenir des analyses presque en temps réel. Ceci est crucial pour les campagnes de marketing dynamiques où les décisions doivent être prises rapidement. L’analyse peut également être enrichie grâce aux performances folles de l’IA : l’une des beautés de l’apprentissage automatique, en particulier de l’apprentissage non supervisé, est sa capacité à déceler des patterns inattendus dans les données. Cela ouvre la voie à de nouvelles avenues d’innovation, en permettant aux entreprises de découvrir des segments de marché ou des opportunités qu’elles n’avaient pas envisagés auparavant. Pour vous donner un exemple concret, j’avais personnellement participé à un challenge Big Data, visant à aider une entreprise dans sa stratégie marketing à l’aide de l’exploitation de ses données.

Pour cela, nous avions utilisé du machine learning pour identifier des segments de consommateurs nouveaux et identifier des opportunités de nouveaux produits et services à lancer pour cibler ces segments prometteurs. Le machine learning peut aussi rendre l’expérimentation marketing plus efficace. Au lieu de se baser uniquement sur l’intuition, les marketeurs peuvent désormais utiliser l’IA pour lancer des AB Testing plus sophistiqués. Mais encore une fois, il faut vraiment être conscient des limites liées à l’utilisation de ces technologies.

Comme je le mentionnais précédemment, l’IA peut certes permettre d’identifier des patterns inattendus, mais il est essentiel de comprendre que les IA peuvent être fortement influencées par les biais présents dans les données sur lesquelles elles ont été entraînées. Une approche responsable de l’analyse des données exige donc une vigilance constante pour assurer que les insights et les innovations demeurent équilibrés et éthiques.

Quels conseils donneriez-vous aux entreprises qui souhaitent exploiter pleinement le potentiel de leurs données et tirer parti de l’analyse des données pour prendre des décisions stratégiques informées ?

C’est une question compliquée. Je pense qu’il est difficile de fournir un ensemble exhaustif de conseils aux entreprises en matière d’exploitation des données, tant les aspects à considérer sont nombreux et variés. Si je devais néanmoins résumer les éléments cruciaux pour tirer le meilleur parti de ses données, je soulignerais l’importance de la formation des équipes. Vous vous doutez bien qu’en tant que professeur dans le domaine, il me tient à cœur de sensibiliser et former les managers de demain à ces sujets.

Prenons l’exemple d’une entreprise de e-commerce : disposer de données sur le comportement d’achat des clients ne suffit pas. Il est essentiel de former les équipes à utiliser des outils d’analyse sophistiqués pour comprendre, par exemple, le parcours d’achat d’un client et identifier les points de friction. En parallèle, il est fondamental d’instaurer une culture profondément orientée vers les données au sein de toute l’organisation, et pas seulement au sein des équipes data ou des équipes marketing.

Lorsque chaque département, qu’il s’agisse des ventes, des opérations, de la finance ou des ressources humaines, intègre cette mentalité axée sur les données, cela garantit une cohérence dans la prise de décision à travers l’organisation.

Cette uniformité permet non seulement d’aligner les objectifs et les stratégies, mais aussi d’exploiter les synergies pour maximiser la capacité à exploiter, archiver et traiter ces données. Recruter des rôles transverses et spécialisés, tels que des « Data Managers », intégrés directement dans chaque service, permet de renforcer cette approche centrée sur la donnée. Je dirais aussi que collaborer avec des experts externes peut enrichir la perspective et introduire des méthodologies d’analyse et de gestion des données avancées.

Enfin, face à l’évolution constante de l’analyse des données et des technologies associées, il me semble évident que les entreprises doivent faire preuve d’agilité, réévaluer régulièrement leurs méthodes, apprendre de leurs expériences, et surtout, rester informées des dernières avancées en se demandant systématiquement comment elles peuvent être bénéfiques à leur activité.

Quels sont les principaux défis auxquels sont confrontées les entreprises en matière de gestion et d’analyse des données, et quelles sont les meilleures pratiques pour les surmonter ?

Avec cette explosion du Big Data à laquelle nous assistons depuis plusieurs années, les entreprises font face à de multiples défis. Voici quelques exemples qui me viennent en tête.

Tout d’abord, il y a la question de savoir gérer une volumétrie grandissante des données, qui nécessite des infrastructures solides et évolutives. D’ailleurs, plus que la simple question de volume, le véritable enjeu est la gestion de la diversité croissante des types de données, des sources variées aux formats hétérogènes, qui pose un défi technique et stratégique à surmonter. On doit aussi s’assurer de la qualité des données utilisées, ce qui exige une attention particulière, avec des processus de nettoyage et de validation bien rodés.

La sécurité également est tout à fait centrale, surtout quand il s’agit de donnée de clients potentiellement sensibles, d’où la nécessité de mettre en œuvre des accès strictement contrôlés. L’adoption croissante du cloud rend ces défis encore plus prégnants. L’IA, tout en étant une bénédiction, introduit aussi des risques tels que les arnaques et les tentatives de manipulation par ce que l’on appelle le « social engineering ». Une autre préoccupation majeure est la capacité à intégrer ces données venues de tous les coins de façon cohérente, propre et efficace, ce qui nécessite donc des solutions technologiques sophistiquées et surtout une capacité pour les data scientists à gérer un certain niveau de complexité.

Face à ces enjeux, une collaboration avec des experts en data science est devenue incontournable. Et, dans un monde de réglementations en évolution et qui tend à se durcir, la conformité est elle aussi essentielle à considérer dans tout projet data. Mais elle doit aussi, selon moi, être complétée par une forte orientation éthique, en priorisant le respect, la transparence, mais aussi en étant capable de se questionner sur les impacts du traitement et de l’analyse de ces données sur la société. Pour les entreprises qui veulent vraiment exploiter leur potentiel de données, il faut une vision qui combine technologie, méthodologie, expertise et éthique.

Quels sont les avantages et les limites des différentes plateformes et outils d’analyse des données, tels que les entrepôts de données, les data lakes ou les outils de visualisation des données ?

Si je dois reprendre les outils que vous mentionnez, voici mon point de vue. Les data warehouses sont excellentes pour traiter rapidement des requêtes complexes sur des données structurées et de haute qualité, mais leur rigidité peut les rendre moins adaptés aux données non structurées.

Par contre, les data lakes offrent une flexibilité sans précédent pour stocker une variété de données, mais sans une gestion appropriée, ils peuvent devenir chaotiques, nécessitant des compétences spécialisées pour l’extraction et l’analyse.

Enfin, les outils de visualisation transforment les données en insights accessibles, mais leur puissance repose sur une combinaison correcte de données et de bonnes pratiques de visualisation.

Dans l’ensemble, le défi pour les entreprises est de naviguer judicieusement dans ces outils, maximisant leurs avantages tout en étant vigilant face à leurs limites. Face à cette panoplie d’outils, le véritable enjeu pour les entreprises est de rester à la pointe d’un environnement technologique qui évolue rapidement. De nouvelles solutions émergent continuellement, et avec elles, une multiplication des cas d’usages.

Quels sont les nouveaux rôles et compétences nécessaires pour réussir dans le domaine de l’analyse des données en 2023, et comment les professionnels de l’analyse se préparent-ils à ces évolutions ?

Quand je pense à l’analyse des données en 2023, je vois vraiment une mosaïque de compétences et de rôles. Les Data Engineer et Data Scientists, bien sûr, restent au cœur de tout cela.

Ils sont en quelque sorte les gardiens des infrastructures et des méthodes, veillant à ce que tout fonctionne et soit analysable. Mais il y a eu ce tournant intéressant avec le développement des IA génératives. Nous voyons maintenant l’arrivée de « prompt engineers », qui sont des personnes qui ont développées des compétences d’interaction avec ces IA pour les guider vers des réponses pertinentes. D’ailleurs, je parlais de l’importance croissante des compétences techniques dans les métiers du marketing.

C’est vrai, c’est ce que l’on constate de plus en plus ces dernières années. Mais le développement des IA génératives comme le fameux chatGPT par exemple, montre qu’une des compétences clés de demain sera de savoir travailler main dans la main avec ces IA, d’être capable de rédiger des prompts pertinents, contextualisés et efficaces, de problématiser, de réfléchir à l’automatisation des tâches de collecte et d’analyse des données, etc. Dans la data, les compétences requises ne se limitent donc absolument pas à la technique.

Il y a aussi tout un art à donner du sens aux données, à les rendre humaines, tangibles. C’est là qu’on parle de narration des données (data storytelling). L’idée est de transformer cette masse d’informations en histoires, en insights qui guident les décisions des entreprises. Pour rester à jour dans ce monde qui bouge si vite, la clé, c’est la formation selon moi. Les professionnels de ce domaine doivent constamment chercher à se perfectionner et à explorer. C’est autant une question de maîtriser les outils et technologies qui impactent le métier que de comprendre l’impact de notre travail sur la société.

A lire aussi sur lebigdata.fr