Archives du mot-clé IA

Le dashboard de demain : data visualisation et storytelling

« Un bon croquis vaut mieux qu’un long discours ». L’adage napoléonien semble s’appliquer aussi au traitement des données. En la matière, le tableau de bord intelligent (appelé Dashboard) s’est imposé comme l’outil de prédilection de tout décideur marketing averti.

Fini les semaines d’attente pour obtenir un simple rapport ! Les Directions Marketing les plus habiles ont recours à ces nouveaux tableaux de bord intelligents et partagés pour suivre et évaluer en temps réel l’efficacité de leurs campagnes et de leurs enquêtes d’études.

Datamining, dataviz, rapports infographiques : les nouvelles technologies n’ont pas fini de révolutionner les usages…

 

Quelle est l’utilité des dashboards pour le marketing et les études ?

Le marché de la data a profondément évolué. Les informations et les données marketing sont de plus en plus stockées dans des machines qui souffrent de cet effet « boite noire » et demeurent finalement assez illisibles par l’humain. Or le nombre de données ne cesse de croitre : qu’il soit question d’achat en ligne ou en magasin, d’échanges sur les réseaux sociaux, de dispositifs d’écoute client ou de l’envoi d’un simple email. Les professionnels du marketing ressentent plus que jamais le besoin d’accéder de façon autonome à toutes les données qui les concernent ou qui pourraient leur être utiles.

Dans ce contexte, si l’on devait citer un métier « disrupté », il s’agirait probablement du marketing. Le métier connait de profonds changements dans ses pratiques. Par exemple, la tendance pour les études il y a quelques années était l’outsourcing. Le client payait un institut ou un cabinet d’études pour analyser et restituer ses données d’enquêtes.

Aujourd’hui l’approche semble dépassée au regard du nombre d’outils analytiques à disposition du Responsable Marketing. Le marketeur peut désormais réaliser une partie des études lui-même.

Les outils « Tableau de bord » permettent justement de se connecter facilement à toutes les bases de données et systèmes applicatifs afin d’explorer et manipuler l’information stockée avec des fonctions aussi simples que le glisser-déposer (drag-and-drop). Les technologies des dashboards et d’analyse visuelle permettent littéralement d’aider les marketeurs à visualiser et à comprendre les données.

 

Les outils « dashboards » révolutionnent le marché des études :

Ces nouveaux outils permettent d’explorer toutes les données sans définir à l’avance les critères de requêtes. Pour les études marketing, c’est particulièrement utile pour découvrir des corrélations entre les données que l’on n’aurait pas pu imaginer lors de la phase amont de conception de l’enquête.

Les nouvelles générations de dashboards permettent également de croiser les résultats d’enquêtes avec d’autres données internes ou externes, ce qui permet là aussi d’enrichir l’interprétation.

Les services marketing manipulent aujourd’hui un grand nombre de données, certains acteurs disent même qu’ils deviennent « les services de renseignement de l’entreprise ».

Si de plus en plus de marketeurs ont accès aux outils dashboards, l’exploitation des données reste encore limitée. Il faut pour cela développer leur appétence pour l’analyse des données, et c’est ce que font les « Chief Data Officers » dans les entreprises : ils organisent des ateliers pour que les utilisateurs « jouent » avec leurs données, et découvrent des gisements de valeur à partir de l’utilisation de la dataviz.

Les business modèles évoluent de cette façon, en découvrant des utilisations nouvelles de la data, ce qui se trouve de fait au cœur de la transformation digitale de l’entreprise. C’est ce qu’affirme plus de la moitié des directeurs marketing interrogés dans le cadre du dernier baromètre Qlik sur « l’entreprise data-driven ». Le même baromètre révèle que les utilisateurs métiers sont de plus en plus autonomes en ce qui concerne la gestion de leurs données. Et de nouveaux outils leur permettent d’exploiter facilement et concrètement les données qu’ils possèdent.

 

Demain, à quoi ressemblera une restitution des résultats ?

Tendance venue de l’univers du digital, l’infographie en dit long sur notre façon actuelle d’appréhender l’information. Elle permet de représenter de manière synthétique et esthétique une information en cherchant à attirer la curiosité du lecteur et lui donner envie de « Partager ».

Habitués à présenter de l’information statistique à leurs clients, les instituts et les cabinets d’études marketing ont vu émerger cette réalité au fil du temps. Ils ont dû s’adapter, parfois dans la douleur, sur « comment restituer des résultats d’études de manière optimale ? ». Et si les dashboards intelligents étaient un moyen pour répondre à cette question ?

 

Historiquement…

Pendant des années, l’industrie des études s’est contentée de servir des tableaux complexes en recherchant l’exhaustivité systématique de l’information jusqu’à plus soif. Avec pour corollaire des rapports d’études qui n’en finissaient pas de grossir.

Il y a 20 ans, les équipes de chargés d’études et directeurs d’études ne se déplaçaient jamais chez leurs clients sans leurs lourds exemplaires imprimés et fraichement reliés de rapports à remettre, comme preuve de travail intense à leurs clients.

A cette époque, les responsables marketing avaient de leur côté plus de temps à leur consacrer et s’ensuivaient de longues réunions de présentation des résultats.

Puis, les instituts d’études ont réalisé qu’ils passaient à côté de l’essentiel : transmette la voix des clients, prendre de la hauteur sur les résultats et les rendre digestes, et surtout prendre le temps de réfléchir avec le client. Car l’urgence jusqu’à il y a quelques années dans le domaine des études c’était de retrouver une place de choix auprès de ses clients. Si hier, les instituts étaient passeurs de résultats, on attend de la profession d’accompagner la stratégie marketing par des approches plus opérationnelles et plus réactives et par des nouveaux dashboards intelligents offrant des nouveaux usages grâce à leurs technologies : logiciels d’analyse IA, KPIs, rapports infographiques, et vidéos de reporting.

 

Présenter différemment…

Cette prise de conscience « présenter différemment » se traduit par un changement d’attitude profond au sein même des équipes marketing. Nous vous partageons quelques bonnes pratiques pour des restitutions impactantes :

– Faire vivre la parole du répondant/participant :

Les verbatims issus des remontées clients et des études qualitatives sont des mines d’or pour les Directions Marketing, mais rien de plus soporifique qu’une lecture de ces derniers en présentation orale. Insérer des extraits de verbatims clients (audios, vidéos) viendra donner vie aux résultats par la voix du client lui-même et renforcer le message.

– Une image vaut mieux qu’un tableau !

Si aujourd’hui la data visualisation est au centre des débats, c’est parce que nous sommes confrontés à l’explosion du big data dans notre quotidien : 90% des données mondiales actuelles ont été créées au cours des deux dernières années selon McKinsey. Face à cette overdose de chiffres, il convient d’aller à l’essentiel. Parfois, une image aura plus d’impact qu’un tableau de chiffres.

– Le storytelling : une histoire vaut mieux qu’un discours

Trop souvent, une présentation de résultats se contente de suivre de manière linéaire le plan du questionnaire ou du guide d’entretien. Raconter une histoire pour communiquer les résultats, une méthode très en vogue par les professionnels du marketing.

Le monde des études s’approprie aussi le storytelling à la fois au niveau de l’architecture des projets que de la communication des résultats.

Intégrer de l’émotion au cœur des restitutions est la meilleure façon d’engager et de captiver le public. Nous accueillons une histoire bien mieux qu’un discours rationnel, et l’information transmise est bien mieux mémorisée. C’est un atout non négligeable dans un monde inondé de données d’intégrer cette technique dans les méthodes de restitution des résultats pour délivrer les informations utiles aux clients.

C’est un enjeu important auquel les dashboards de demain gagneraient à répondre, fournir des chiffres utiles et le sens que cela présente que ce soit au travers du data-design, vidéo ou du storytelling. La charge cognitive de l’individu est limitée. Pour pallier la surcharge d’informations, le storytelling se révèle comme un moyen efficace.

Les histoires ont la capacité unique de lier l’information avec l’émotion, le contexte et le sens. Les clients veulent comprendre rapidement et facilement les principaux enseignements, et savoir ce qu’ils doivent faire.

Dans ce cadre, le storytelling est un moyen qui peut être utilisé dans les dashboards de demain. Combiner la technique de storytelling avec de la dataviz, des rapports infographiques, et des vidéo-reportings permettront de faire « vivre » davantage les données et de leur donner du sens. Bring data to life, le défi des dashboards de demain !

FacebookTwitterGoogle+Partager

La co-création et le Machine Learning pour innover dans la Food : le pari réussi de SEB et de la FoodTech !

La co-création souffle un vent de liberté sur le monde quelque peu figé des études et de la recherche en marketing. Enquêtes, réunions qualitatives, baromètres et consort sont désormais chahutées par ces nouvelles stratégies marketing fruits de la co-création portées par le numérique qui érigent le mot « participation » en étendard.

Etude participative online, communauté en ligne, crowdsourcing : tous découlent du concept de la co-création. Mais quelle valeur ajoutée dans les études ?

 

Une stratégie payante pour améliorer la connaissance client :

La co-création compte de nombreux avantages pour les marques. D’abord, elle impacte directement les pratiques et les processus d’innovation plus traditionnels. En effet, elle remet en cause les processus créatifs en externalisant la partie génération d’idées par exemple. Les propositions généralement faites en interne proviennent de l’extérieur stimulant ainsi la créativité.

Cette méthode peut améliorer les connaissances que la marque a de ses clients. Grâces aux interactions générées avec les parties prenantes, les marques ont dès lors la possibilité de comprendre les réels besoins de leurs cibles.

D’un point de vue commercial, la co-création permet d’accroitre l’acceptation des nouveaux produits et services sur le marché puisqu’ils auront fait l’objet d’un dialogue avec la communauté. Le succès commercial étant davantage assuré, les coûts liés aux modifications éventuelles du produit suite à son lancement voire au taux d’échec au lancement seront ainsi limités.

 

Collecter des données de meilleure qualité et créer de l’engagement :

Ces outils d’un nouveau genre qui déclassent les habituels baromètres et questionnaires ont un trait fondamental en commun : une profonde et intrinsèque dimension collaborative. Cet aspect participatif au cœur du réacteur induit bien évidemment de nombreux et récurrents échanges entre la marque et les consommateurs participants.

Cette itération permise par l’approche co-créative offre un habitacle d’observation riche idéal pour la marque ou l’annonceur qui se trouve alors au plus près du cœur de cible.

Le rôle de producteur endossé par le consommateur dans l’évolution de l’offre servicielle et produit a montré une incidence non négligeable sur la qualité des réponses et la véracité des propos tenus par les sondés. En effet, le client fait état d’un engagement plus fort une fois plongé dans un univers de marque total et paramétrable permis par les nouvelles technologies du web. La marque parvient ainsi à améliorer ses connaissances client grâce au rôle privilégié de producteur octroyé au consommateur qui partage et échange volontiers sur ses perceptions et comportements dans ce contexte cadré et perçu comme valorisant.

Les plateformes de co-création semblent porter la Voix du client plus haut que les outils traditionnels n’aient jamais pu le faire. Elles ont permis de fédérer des communautés en ligne et de contribuer aux études participatives online. La relation client s’enrichit considérablement et ce dans les deux sens.

 

Conjuguer différentes approches d’études qualitatives et quantitatives :

La co-création révèle des usages intéressants dans la possibilité de coupler une variété d’études traditionnelles entre elles. Elle ouvre la voie à une démarche globale dans les études marketing. Aux workshops et focus groups réalisés en présentiel s’ajoutent désormais les communautés en ligne tel un socle supportant d’autres méthodes de recueil de données. Questionnaires et enquêtes de satisfaction en ligne de mire, cette occasion d’alternance fait des émules côté instituts d’études.

Au sein des annonceurs, la co-création et les études appellent au rapprochement. Des exercices de co-création ont montré que cet effort d’ouverture permet d’identifier au sein des annonceurs de nouvelles parties prenantes enclines à participer aux études qui se révèlent à haut potentiel en raison de leurs profil et parcours dans un cadre de réflexion dédié à l’innovation.

C’est le choix qu’ont fait le Groupe SEB et la FoodTech de miser sur les solutions que propose la startup Française FANVOICE afin d’innover dans l’univers de la Food. Il s’agit précisément de conjuguer les outils de co-création et de Machine Learning de FANVOICE pour contribuer à la construction du système alimentaire de demain.

 

Co-créer avec les consommateurs dans la Food : Le pari réussi du Groupe SEB et de la FoodTech sur la plateforme FANVOICE !

Dans le cadre d’un projet d’innovation visant à construire un système alimentaire durable dans les prochaines années, le Groupe SEB et la FoodTech en partenariat avec la Métropole de Dijon souhaitent innover avec une approche d’écosystème en mettant le consommateur au centre de la décision et de la collaboration avec les bons acteurs (citoyens, startups, entreprises, chercheurs, etc).

Ce projet vise à construire une première base communautaire et à faire émerger des idées de nouveaux produits et services digitaux pour accompagner les consommateurs dans leur alimentation, à partir du moment où ils achètent leurs produits bruts jusqu’au moment où ils les cuisinent en fonction de leurs besoins, préférences et régimes.

C’est dans ce contexte que le Groupe SEB et la FoodTech ont lancé une campagne d’idéation sur la plateforme FANVOICE. L’appel à idées a été construit autour d’une question centrale posée « Mieux manger, et si on en parlait ? ».

Le questionnement a été organisé en cinq grande catégories : la signification du « mieux manger », ce qui compte le plus, ce qui est préoccupant, les services qui simplifient la vie, et les contributions pour mieux manger demain.

La campagne a permis d’engager une communauté de consommateurs autour d’une discussion sur l’alimentation durable.

Une campagne très conversationnelle et réussie, qui a permis de fédérer un noyau communautaire de 110 contributeurs et de récolter 708 idées et commentaires.

 

L’analyse des données textuelles grâce au Machine Learning chez FANVOICE :

Tous les verbatims récoltés ont été analysés via un algorithme d’analyse sémantique et statistiques qui s’appuie sur une technologie d’Intelligence Artificielle (Machine Learning), développé par la startup française FANVOICE.

L’algorithme de FANVOICE procède à l’apprentissage automatique de ce corpus et génère un modèle appelé « insights Map » comme premier niveau d’analyse.

Ce modèle permet de catégoriser et de quantifier l’ensemble des verbatim en clusters abordant des sujets, il identifie les zones de convergence formant les principales thématiques avec leurs poids et les corrélations entre elles, et il détecte les signaux faibles porteurs d’informations pertinentes.

Une analyse complétée par nos experts des Insights pour construire une cartographie de l’alimentation durable de demain, s’appuyant sur les niveaux de perception, d’attentes, et de besoins de la communauté. Une étape cruciale pour identifier les insights marketing.

Ainsi, l’algorithme d’analyse sémantique & statistiques de FANVOICE permet d’être plus agile dans la manière d’exploiter les données, ce qui accélère le processus de production d’insights. De plus, il représente un gain de temps considérable pour le traitement des données par rapport à un usage hier encore manuel. Mais la pertinence des insights suscités devient l’avantage premier grâce à une utilisation concomitante d’analyses de nature sémantique et statistiques.

L’analyse de cette cartographie a aidé les équipes du Groupe SEB et de la FoodTech à valoriser les principales thématiques émergentes (avec leurs poids et les corrélations entre elles) et à les interpréter au prisme de la problématique adressée. Elle a aussi confirmé l’appétence de ce premier noyau communautaires à l’égard de la démarche participative et sa volonté de continuer à participer à d’autres projets autour de l’alimentation durable.

En somme, un bilan très positif pour le Groupe SEB et la FoodTech avec une première base communautaire engagée autour de l’alimentation durable et une campagne à fort potentiel, qui a permis de faire émerger des opportunités de sujets et de projets à venir…

Fanvoice-IA-Machine-Learning-Data-Intelligence-Insights

 

La voix, ce nouveau canal de la relation marques-consommateurs : découvrez un PoC R&D entre SEB et la startup française FANVOICE !

Smartphones, objets et enceintes connectés… Les consommateurs emploient de plus en plus la voix. Depuis le développement de Siri, Google Home ou encore Alexa d’Amazon, les assistants vocaux s’immiscent progressivement dans tous les secteurs et transforment la relation marques-consommateurs. Pas de doute, nous entrons dans l’ère de la voix !

La voix, ce nouveau canal de la relation marques-consommateurs

Une disruption dans la relation homme-machine :

Par leur fonctionnement naturel, les assistants vocaux s’imposent facilement comme de nouvelles interfaces, plus intuitives, et apportent de nombreux usages et fonctionnalités.

Ils s’inscrivent dans les grandes tendances technologiques de fond (montée des plateformes online, IA, personnalisation, multiplication de terminaux, etc) et dans la lignée des transformations d’interfaces homme-machine, ce qui ne laisse aucun doute sur leur potentiel à modifier profondément les comportements et les usages.

Une étude récente de Dashbot révèle la cristallisation de quatre grande catégories d’usages des assistants vocaux : smart home, divertissement, information, et shopping.

Ce nouveau canal colle aux réelles attentes des consommateurs, friands de simplicité et de personnalisation. Parler est bien plus rapide qu’écrire et permet donc de gagner un temps considérable dans une journée. Parler facilite le quotidien et permet de réaliser plusieurs tâches en même temps. Parler est surtout accessible à tous.

Ainsi, la voix devient le premier canal digital qui touche autant les digital natives, les enfants que les populations plus éloignées du digital comme les seniors.

Un enjeu crucial pour les marques :

Les marques s’interrogent aujourd’hui sur la place des assistants vocaux dans leur marketing mix. Est-ce un medium publicitaire, une interface de vente, un nouveau canal de distribution, un point d’achat, un point de contact après-vente ou une intimité inédite avec leur client ? La réponse est peut-être tout à la fois.

En effet, l’interaction vocale avec les assistants personnels se fait toujours plus immédiate et personnalisée. Elle va permettre l’éclosion de nouveaux services utilisant le canal-voix.

Déjà de nouvelles stratégies multicanales apparaissent positionnant le vocal sur des étapes clés du parcours (order with voice and pay on-line, Talk & Collect, Voice Queuing, Voice delivery tracking, etc).

Au-delà des enjeux stratégiques, les marques devront comprendre l’impact du vocal sur les expériences et parcours clients. L’enjeu majeur des marques consiste alors à comprendre le comportement d’usage des utilisateurs afin d’activer de vrais leviers d’utilité et des promesses clients pertinentes (commodité, simplicité, confiance, etc) au travers de leurs applications vocales, notamment pour ne pas tomber dans le piège de la gadgetisation.

Ce principe sera à l’origine de l’évolution profonde des métiers du Marketing dans les entreprises, qui devront répondre à une question majeure : comment faire pour amener le client à spécifier la marque lorsqu’il commandera via son assistant ?

Un enjeu crucial pour les marques

Un bouleversement du Marketing et l’E-commerce :

Les assistants vocaux sont amenés à révolutionner la façon dont les marques et les consommateurs interagissent. Selon une étude réalisée par Capgemini auprès de plus de 5 000 consommateurs aux États-Unis, au Royaume-Uni, en France et en Allemagne : environ un quart (24%) des personnes interrogées privilégieraient volontiers l’assistance vocale plutôt qu’un site Internet. Ce chiffre pourrait grimper à 40% dans les trois prochaines années.

Aujourd’hui, les assistants vocaux offrent de nouveaux points de contact vers les clients. Et de nombreuses marques ont déjà sauté le pas en France, et proposent différentes utilisations de ces assistants vocaux :

  • Podcast et rendez-vous : Sephora a créé son skill (interface vocale interactive) pour Google Home, il suffit de dire « OK Google, parler à Sephora », pour fixer un rendez-vous de mise en beauté dans un magasin, répondre à un quizz beauté, ou encore écouter des podcasts d’influenceurs beauté qui livrent leurs conseils.
  • Actualités à la demande : Radio France s’interrogeait sur le futur de la radio et le rôle des assistants, et a pris les devants. Elle est déjà disponible sur Google Home : « OK google : quelles sont les dernières actualités » et permet de lancer le dernier flash de France Info.
  • Ou encore, service client express : l’enseigne Boulanger a développé son application vocale pour Google Home pour faciliter la vie de ses clients. Il suffit de dire : « quels sont les horaires du magasin le plus proche ? » ou encore « je souhaite contacter le service client ».

Ainsi, la voix devient un véritable vecteur d’innovation, de création de valeur et surtout de différenciation. Toutefois, on constate que la phase la plus critique pour préparer les marques à la voix consiste à identifier et renseigner les différents points permettant d’entrer en contact avec les clients. Un défi à relever pour les maques afin de proposer une expérience notable et singulière.

Développer une stratégie vocale : un projet de R&D entre SEB et la startup française FANVOICE 

Dans le cadre d’un projet européen en Recherche & Développement sur la stratégie vocale (les assistants vocaux et la relation marques-consommateurs), la startup Française FANVOICE et le Groupe SEB collaborent sur un PoC appelé « Voxana » pour intégrer le vocal dans leurs parcours clients respectifs.
Il s’agit pour FANVOICE de proposer une solution analytique pour produits connectés à commande vocale.

Lancé en début 2019, ce PoC sera actif jusqu’en 2020 et intègre plusieurs phases et cas d’usage dans une logique itérative. Nous vous partageons quelques facteurs clés de succès pour accompagner les marques qui souhaitent développer une stratégie vocale :

  1. Comprendre les attentes utilisateurs : l’intégration du vocal dans un parcours client doit apporter une utilité (commodité, simplicité, confiance, etc) et proposer une expérience à valeur ajoutée. Pour cela, il est nécessaire de comprendre les attentes, les frustrations et le comportement d’usage des clients. La phase de co-création avec les clients se révèle déterminante pour comprendre leurs besoins et détecter leurs attentes.
  2. Sélectionner un nombre limité de cas d’usage : il s’agit de travailler en profondeur un nombre de cas d’usage limité où le « Voice First » est pertinent plutôt que de vouloir vocaliser l’ensemble de l’expérience pour répondre à une attente ou à une frustration.
  3. Viser la récurrence d’usage : privilégier un cas d’usage impliquant une utilisation récurrente de l’application vocale.
  4. Penser multi-canalité : éviter les parcours 100% voix, notamment lorsqu’il est nécessaire de rassurer le client dans le parcours selon le cas d’usage envisagé et le contexte d’utilisation de l’application.
  5. Test & Learn : travailler les cas d’usage de manière itérative afin d’acculturer les équipes, notamment via des PoC en cycle court, avant d’envisager un déploiement à l’échelle.

Les facteurs clés de succès d'un projet vocal

Une première étape de co-création réussie sur la plateforme FANVOICE !

Un des cas d’usage du PoC Voxana consiste à embarquer une communauté d’utilisateurs/bêta-testeurs dans une démarche de co-création couvrant trois phases : idéation, co-conception, et bêta-test.

Une première campagne d’idéation a été lancée par SEB et FANVOICE sur la plateforme FANVOICE. L’appel à idées avait pour objectif de comprendre l’expérience que la voix aurait à offrir demain aux consommateurs, et comment les potentiels utilisateurs intègreraient la voix dans leur quotidien, leurs usages, notamment en cuisine.

Il a été construit autour d’une question centrale posée « la voix en cuisine, dites-nous tout ! ». Le questionnement a été organisé en cinq grandes catégories : les usages et scénarii, les moments, les bénéfices, les préoccupations, et les attentes futures.

Une campagne très conversationnelle et réussie, qui a permis de fédérer un noyau communautaire de 112 contributeurs et de récolter au total 1141 idées et commentaires.

Une première étape de co-création réussie sur la plateforme FANVOICELes verbatims récoltés ont été analysés via un algorithme d’analyse sémantique & statistiques qui s’appuie sur une technologie d’Intelligence Artificielle (Machine Learning) développé par FANVOICE.

Une analyse complétée par nos experts des Insights pour construire une cartographie de l’expérience vocale de demain, permettant d’identifier les principaux thèmes convergents et de détecter les signaux faibles.

L’analyse de cette cartographie a aidé les équipes SEB et FANVOICE : à valoriser les principales thématiques émergentes (avec leurs poids et les corrélations entre elles) et à les interpréter au prisme de la problématique adressée, mais aussi à construire une segmentation des profils utilisateurs/personas selon les usages attendus.

Une approche de co-création par l’usage confirmée pour développer la suite du projet qui s’annonce prometteuse dans les prochains mois…

Fanvoice-IA-Machine-Learning-Data-Intelligence-Insights

IA & Marketing : la promesse de la data intelligence ! (Part 1)

Dans le domaine du marketing, la data intelligence peut être sollicitée à tous niveaux, de la gestion des campagnes au suivi de la relation client, en passant par la veille concurrentielle, l’innovation et la gestion de l’e-réputation. Parallèlement, les consommateurs s’informent différemment et adoptent de nouveaux modes de consommation et d’achat, ils deviennent maîtres de leur consommation.

Dans ce contexte, l’enjeu pour les marques est de toujours mieux cerner les tendances, les profils, les habitudes de consommation, pour d’une part anticiper les comportements par une connaissance plus fine, et d’autre part améliorer l’engagement client en répondant de manière plus ciblée et donc plus efficace, aux attentes. L’Intelligence Artificielle apparait clairement comme un élément disruptif majeur pour y répondre.

Fanvoice-Cocréation-MachineLearning-IA-DataIntelligence 

Mais d’où vient l’IA ?

Le terme « Intelligence Artificielle » a été utilisé pour la première fois en 1956, lors d’une conférence organisée à l’université de Dartmouth par un jeune professeur de Mathématiques, John McCarthy, qui réunit une poignée de chercheurs dont des futurs ténors de la discipline (Marvin Minsky, Claude Shannon). L’idée de base consistait à modéliser l’intelligence humaine pour simuler son fonctionnement sur des machines capables d’apprendre et de s’améliorer.

L’intelligence artificielle s’impose aujourd’hui sur le devant de la scène scientifique et médiatique. C’est plus qu’un retour en grâce, plutôt une déflagration qui s’étend à toutes les sphères économiques, politiques, marketing, sociales, etc. Il ne se passe pas un jour sans qu’on ne parle de l’IA dans les médias.

Fanvoice-IntelligenceArtificielle-MachineLearning-Origines

 

L’IA suscite aujourd’hui un réel engouement

La notoriété de cette technologie s’est accrue partout dans le monde. En France, une étude de Médiamétrie réalisée en novembre 2017 a révélé que 85% des personnes interrogées avaient déjà entendu parler d’Intelligence Artificielle (même si le niveau de compréhension sur les usages de l’IA était encore plutôt faible).

Cette même étude a décelé un niveau de soutien surprenant pour l’IA, qu’on aurait pu imaginer à la source de nombreuses défiances et peurs diffuses. 86% des personnes interrogées ont considéré que le développement des technologies d’intelligence artificielle allait avoir des effets positifs pour la société dans son ensemble.

Fanvoice-IA-MachineLearning-AI-études

 

Comment expliquer l’emballement général pour l’IA ? cette idée vieille de plus d’un demi-siècle…

En effet, pourquoi l’Intelligence Artificielle semble aujourd’hui si prometteuse et si disruptive alors même que les travaux actuels se basent sur des méthodes et concepts forgés il y a au moins 30 ans ?

En réalité, l’univers de l’IA profite aujourd’hui d’un véritable alignement favorable des planètes :

  • Tout d’abord, l’augmentation exponentielle de la vitesse des microprocesseurs et des capacités de stockage ont, en tout cas, ouvert d’extraordinaires possibilités de calcul dont bénéficie l’IA aujourd’hui.
  • Ensuite, l’arrivée du Big Data qui produit désormais d’énormes masses de données, très utiles aux algorithmes d’apprentissage de l’IA. Ainsi, les millions de textes, d’images et de vidéos disponibles sur le net servent aujourd’hui de matière première pour mettre au point, entrainer, perfectionner et évaluer les systèmes de reconnaissance automatique en tout genre. Des bibliothèques d’images ont ainsi vu le jour et ont été constituées grâce à cette technologie (ex : ImageNet, projet piloté par les universités de Stanford et de Princeton).
  • Enfin, les méthodes de deep learning elles-mêmes en ont logiquement profité et se sont beaucoup perfectionnées. L’augmentation de la puissance des machines a permis de mettre au point et d’expérimenter des modèles complexes et plus puissants que ceux conçus auparavant.

Fanvoice-IA-DeepLearning-BigData-Etudes-Marketing-Algorithme

En somme, c’est la conjugaison des évolutions technologiques, de la disponibilité de matière première pour l’apprentissage (Big Data) et des progrès théoriques ont permis des avancées spectaculaires qui ont remis l’IA sur le devant de la scène, et ainsi accélérer l’analyse de données. La promesse de la data intelligente devient-elle une réalité ? à suivre…

Fanvoice-IA-Machine-Learning-Data-Intelligence-Insights

IA & Marketing : la promesse de la data intelligence ! (Part 2)

L’Intelligence Artificielle fait partie comme le Big Data ou la Blockchain de ces concepts technologiques que l’on évoque bien plus qu’on ne comprend vraiment. Les notions à la base de l’IA restent très floues, et on a encore du mal à comprendre comment cela fonctionne concrètement.

Fanvoice-IA-MachineLearning-BigData-Blockchain-Analyse

 

Comprendre l’IA, oui mais…

L’intelligence artificielle est, en tout cas un concept chargé d’affect qui touche à l’essence de l’humain et soulève logiquement autant d’espoirs que de craintes. En imitant l’homme dans l’imaginaire collectif, la technologie peut pour certains, assister l’humain et le soulager, et, pour d’autres, le remplacer et l’aliéner. C’est un peu comme le problème du verre à moitié plein ou à moitié vide.

Il faut tout d’abord comprendre que la notion d’intelligence dont on parle dans l’IA est, pour l’instant du moins, focalisée sur un processus unique, qui cherche à reproduire les mécanismes du raisonnement humain sur une problématique bien précise. On parle d’IA faible par opposition à l’IA forte, consciente d’elle-même et capable de simuler les actions et raisonnements humains dans toutes leurs dimensions.

Ce qui caractérise l’IA se résume en deux mots : Machine Learning. En effet, alors qu’un programme informatique classique doit prévoir à l’avance tous les cas de figures et les combinaisons d’événements, un programme d’IA basé sur du Machine Learning est conçu pour apprendre tout seul, s’adapter aux situations nouvelles dans le contexte défini et évoluer pour mieux prendre en compte l’avenir.

Fanvoice-IA-MachineLearning-AI-études

 

Comment la machine apprend ?

Pour apprendre, un système a besoin de données en entrée qui vont lui permettre de s’entrainer pour être en mesure d’effectuer des prédictions sur des nouvelles données qui lui seraient présentées. Cet apprentissage peut être supervisé ou non supervisé.

En mode supervisé, le jeu de données fourni pour entrainer le système doit comporter la réponse pour chaque enregistrement, sur la variable à prédire. Ainsi, si vous souhaitez mettre en place un algorithme de scoring de nouveaux clients, vous devez fournir au système un jeu d’entrainement comportant des clients existants avec leurs caractéristiques (prédicteurs) et le score qui est associé à chacun d’entre eux (valeur à prédire).

L’apprentissage non supervisé fonctionne sans valeur de référence. Le jeu d’entrainement ne comporte que des caractéristiques à partir desquelles le système est chargé de constituer des groupes. Cette approche correspond aux processus de clustering connus des professionnels des études marketing. Les groupes ainsi définis en détectant des similarités entre les contenus et les individus du fichier, peuvent être étiquetés a posteriori par l’expert « humain » Data Analyst après analyse de leurs caractéristiques.

Après cette phase d’apprentissage, il est possible d’interroger le système sur des nouvelles données pour avoir un pronostic en fonction de ce qu’il a appris. Cette interrogation peut être ponctuelle ou en direct.

Le premier cas correspond à un usage analytique, où l’expert Data Analyst utilise le programme d’IA pour qualifier un fichier de données, en d’autres termes pour identifier les données pertinentes et exclure les données aberrantes qui pourraient fausser/biaiser l’analyse ou le modèle généré.

Quant au deuxième cas, il correspond à une interaction en temps réel avec l’algorithme d’IA au travers d’une interface dynamique qui permet de communiquer avec la machine. Ainsi, l’expert humain agit sur la machine par exemple pour : identifier des profils bien précis, isoler des comportements émergeants, identifier des signaux faibles, évaluer les caractéristiques de certains segments pour déterminer les actions à mener, etc. C’est le cas de l’algorithme d’IA développé par la startup française FANVOICE, qu’elle utilise pour analyser les contenus des campagnes de co-création et d’innovation menées sur sa plateforme, pour de nombreuses grandes marques dans l’énergie, Internet de l’objet, alimentaire, banque, assurance, etc.

Fanvoice-IA-MachineLearning-Apprentissage-Supervisé-NonSupervisé 

Quelles sont les clés de réussite d’un apprentissage pertinent de la machine chez FANVOICE ?

La qualité des données est bien sûr essentielle pour un apprentissage pertinent de la machine. Il est donc important de veiller à plusieurs paramètres pour concevoir un corpus de données de qualité :

  • Taille du fichier : un corpus trop petit ne permettra pas d’obtenir un modèle de qualité. Les règles classiques d’échantillonnage et de nombres utilisées en Market Research s’appliquent aussi dans ce cas.
  • Structure des campagnes : les campagnes powered by FANVOICE intègrent une cartographie d’inspiration créée à partir d’un design et d’une méthodologie marketing qui favorisent un recueil de données ciblées, en répondant à une problématique précise déclinée en thématiques. Ainsi, cette cartographie d’inspiration, bien conçue pour traduire la problématique de la marque, permet de guider les participants en les invitant à s’exprimer sur des sujet utiles qui répondent aux objectifs assignés à la campagne.
  • Animation et modération : l’animation des fils de discussion de la plateforme par un Community Manager et par un Expert projet contribue à générer des contenus riches et pertinents au regard de la problématique adressée, et donc de contribuer de prime abord à un modèle d’analyse pertinent et porteur d’insights.
  • Représentativité des données : les données en entrée doivent intégrer toutes les nuances que vous souhaitez dégager et exclure les données aberrantes qui pourraient fausser l’analyse (par exemple via une liste de stop words adaptée à la campagne).
  • Qualité des prédicteurs : les prédicteurs doivent permettre à l’algorithme de dégager un modèle d’analyse pertinent. La présence d’éléments inutiles (bruits) peut fausser le système et aboutir à une modélisation inefficace.

Fanvoice-Cocréation-IA-MachineLearning-Etudes-Analyse-Données

 

L’humain agit sur la machine et reste au cœur du processus décisionnel !

L’IA ne fait pas disparaître l’expertise humaine, bien au contraire. Les algorithmes d’intelligence artificielle basent leur fonctionnement sur ce qui leur est fourni au départ. Leur capacité de calcul rapide et de combinaisons complexes dépasse les nôtres pour gagner toujours en précision et en efficacité.

Enfin, les machines seules, aussi efficaces soient-elles, ne peuvent acquérir ni sagesse ni bon sens, propriétés – non mathématiques donc non transformables en algorithmes – propres à l’être humain. Kasparov, le précise dans sa parole : « Les machines font des calculs. Nous comprenons les choses. Les machines reçoivent des instructions. Nous avons des buts. Les machines ont pour elles l’objectivité. Nous avons la passion. Nous ne devrions pas avoir peur de ce que nos machines peuvent faire aujourd’hui. Nous devrions plutôt nous inquiéter de ce qu’elles ne peuvent toujours pas faire car nous aurons besoin de l’aide de ces nouvelles machines intelligentes pour faire de nos rêves les plus fous une réalité »

Fanvoice-Cocréation-IA-MachineLearning-DataIntelligence

La raison d’être de l’IA n’est donc pas de remplacer l’humain mais au contraire de lui simplifier la tâche, tout en le replaçant au centre de son activité. La course à la pertinence et à la performance des données pour en extraire de la data intelligence est en marche !

Fanvoice-IA-Machine-Learning-Data-Intelligence-Insights

Quand le Machine Learning devient un incontournable détecteur de tendances !

Le Machine Learning ou apprentissage automatique révolutionne la connaissance client en brassant l’immensité du big data pour en tirer des corrélations et des déductions singulières, jamais envisagées par les marketeurs. Et si le marketing devenait une science exacte ?

Fanvoice-MachineLearning-Cocréation-IA-Détecteur-Tendances

 

Le Machine Learning, détecteur de tendances :

L’un des usages réussis en marketing du Machine Learning est sa capacité à mesurer scientifiquement ce que le consommateur pense et perçoit des marques à tout moment. Il est capable d’identifier des nouveaux segments de marché, de nouvelles tendances, de percevoir l’arrivée de signaux faibles en temps réel, etc.

Au regard de ces enjeux et opportunités, les Directions Marketing investissent massivement dans l’Intelligence Artificielle. Selon un récent rapport de l’ODC (International Data Corporation), les dépenses des Directions Marketing en logiciels d’IA ont explosé dans le monde et représentent 360 millions de dollars en 2016. Ce chiffre devrait atteindre plus de 3 milliards en 2020, ce qui représente une croissance de 550%.

L’apprentissage machine donne les mains libres aux départements marketing pour passer plus de temps sur des activités à plus forte valeur ajoutée comme l’analyse, l’évaluation des segments et des opportunités stratégiques, plus que sur de la collection de données clients, l’intégration de données et la détection d’anomalies.

L’apprentissage machine est déjà présent au sein de l’écosystème des entreprises, il va être beaucoup plus souvent embarqué dans nombre voire la totalité des aspects du marketing digital au travers de l’acquisition et la rétention clients et de la gestion de la fidélité.

Le Machine Learning, pilier incontournable de l’Intelligence Artificielle, entre en scène et bouleverse le marketing.

Fanvoice-MachineLearning-IA-Détecteur-Tendances-Opportunité-Etudes-Marketing

 

Comment le Machine Learning procède concrètement ?

Le Machine Learning est idéal pour exploiter les opportunités cachées du Big Data. Cette technologie permet d’extraire de la valeur en provenance de sources de données massives et variées (réseaux sociaux, plateformes de marques, forums, programmes de fidélité, etc) pour répondre aux besoins « métier » du marketing. Elle est très efficace dans les situations où les insights doivent être découverts à partir de larges quantités de données diverses. Contrairement aux outils analytiques traditionnels, le Machine Learning se révèle plus efficace en termes de précision et de vitesse. Plus les données injectées à un système Machine Learning sont nombreuses, plus ce système peut apprendre et appliquer les résultats à des insights de qualité supérieure. Le Machine Learning permet de découvrir des patterns enfouies dans les données en moins de temps qu’un traitement manuel « humain » et donc avec plus d’efficacité.

Ainsi, le Machine Learning propose de plonger dans les méandres de l’inconscient pour faire émerger  des tendances grâce à des data toujours plus nombreuses à passer au tamis des algorithmes pour mieux comprendre les comportements, et détecter les intentions. Grâce à sa puissance d’analyse, cette avancée technologique de l’Intelligence Artificielle permet aux entreprises de tirer partie de la richesse des données qu’elles collectent.

Les algorithmes de machine learning croisent des données hétérogènes (éloignées) les unes des autres pour déterrer des corrélations jamais mises à jour. C’est notamment grâce à la baisse du coût de stockage des données, et grâce à l’augmentation continue de la puissance de calcul des systèmes informatiques que l’Intelligence Artificielle se révèle aujourd’hui prometteuse et disruptive, avec des résultats étonnants qu’un esprit humain aurait balayé d’un revers de la main. Au final, cette perception ultraprécise des comportements permet d’affiner et d’individualiser les informations et les offres présentées au client. Un exemple connu : Amazon recommande déjà à chaque internaute intéressé par un livre, des ouvrages connexes qui peuvent lui plaire. Spotify ou Netflix recommandent avec une grande précision des musiques, films et séries télévisées qui sont susceptibles de plaire aux utilisateurs à partir de leurs historiques.

Cette perception des comportements clients projette aussi les marques dans le futur en leur ouvrant une fenêtre sur les évolution probables des attitudes et des habitudes de consommation : c’est l’aspect prédictif du Machine Learning qui anticipe les besoins et les désirs des clients. Elle favorise aussi une relation client plus proche, plus pertinente et, par conséquent, plus efficace.

Fanvoice-MachineLearning-IA--Etudes-Marketing-DataIntelligence-Analyse

 

Machine Learning et Big Data : une libération pour les marketeurs ?

L’apprentissage automatique change radicalement le Big Data : la découverte de nouveaux schémas de comportement des consommateurs est rendue possible grâce à des calculs et des analyses multi-dimensionnelles. Ainsi, il peut automatiser la découverte de nouveaux sujets de préoccupation des consommateurs et comprendre la corrélation entre deux centres d’intérêt/thématiques a priori très éloigné(e)s.

Le Machine Learning permet de faire d’extraordinaires progrès en matière de segmentation dynamique, fine et opérable des cibles.

Fanvoice-MachineLearning-IA--Etudes-Marketing-DataIntelligence-BigData

Et si ces technologies apprenantes libéraient les marketeurs sur certains aspects ? Ainsi, la phase fastidieuse de collecte de data étant réduite, et son traitement devenu intelligent, permet de consacrer plus de temps à la création de valeur ajoutée : une avancée de taille ! D’autre part, le Machine Learning accroît la vitesse de perception des changements et la capacité de réactivité des marques. La révolution du Machine Learning est en marche ! Aux marketeurs de la saisir.

Fanvoice-IA-Machine-Learning-Data-Intelligence-Insights