Archives pour la catégorie Etudes

Le dashboard de demain : data visualisation et storytelling

« Un bon croquis vaut mieux qu’un long discours ». L’adage napoléonien semble s’appliquer aussi au traitement des données. En la matière, le tableau de bord intelligent (appelé Dashboard) s’est imposé comme l’outil de prédilection de tout décideur marketing averti.

Fini les semaines d’attente pour obtenir un simple rapport ! Les Directions Marketing les plus habiles ont recours à ces nouveaux tableaux de bord intelligents et partagés pour suivre et évaluer en temps réel l’efficacité de leurs campagnes et de leurs enquêtes d’études.

Datamining, dataviz, rapports infographiques : les nouvelles technologies n’ont pas fini de révolutionner les usages…

 

Quelle est l’utilité des dashboards pour le marketing et les études ?

Le marché de la data a profondément évolué. Les informations et les données marketing sont de plus en plus stockées dans des machines qui souffrent de cet effet « boite noire » et demeurent finalement assez illisibles par l’humain. Or le nombre de données ne cesse de croitre : qu’il soit question d’achat en ligne ou en magasin, d’échanges sur les réseaux sociaux, de dispositifs d’écoute client ou de l’envoi d’un simple email. Les professionnels du marketing ressentent plus que jamais le besoin d’accéder de façon autonome à toutes les données qui les concernent ou qui pourraient leur être utiles.

Dans ce contexte, si l’on devait citer un métier « disrupté », il s’agirait probablement du marketing. Le métier connait de profonds changements dans ses pratiques. Par exemple, la tendance pour les études il y a quelques années était l’outsourcing. Le client payait un institut ou un cabinet d’études pour analyser et restituer ses données d’enquêtes.

Aujourd’hui l’approche semble dépassée au regard du nombre d’outils analytiques à disposition du Responsable Marketing. Le marketeur peut désormais réaliser une partie des études lui-même.

Les outils « Tableau de bord » permettent justement de se connecter facilement à toutes les bases de données et systèmes applicatifs afin d’explorer et manipuler l’information stockée avec des fonctions aussi simples que le glisser-déposer (drag-and-drop). Les technologies des dashboards et d’analyse visuelle permettent littéralement d’aider les marketeurs à visualiser et à comprendre les données.

 

Les outils « dashboards » révolutionnent le marché des études :

Ces nouveaux outils permettent d’explorer toutes les données sans définir à l’avance les critères de requêtes. Pour les études marketing, c’est particulièrement utile pour découvrir des corrélations entre les données que l’on n’aurait pas pu imaginer lors de la phase amont de conception de l’enquête.

Les nouvelles générations de dashboards permettent également de croiser les résultats d’enquêtes avec d’autres données internes ou externes, ce qui permet là aussi d’enrichir l’interprétation.

Les services marketing manipulent aujourd’hui un grand nombre de données, certains acteurs disent même qu’ils deviennent « les services de renseignement de l’entreprise ».

Si de plus en plus de marketeurs ont accès aux outils dashboards, l’exploitation des données reste encore limitée. Il faut pour cela développer leur appétence pour l’analyse des données, et c’est ce que font les « Chief Data Officers » dans les entreprises : ils organisent des ateliers pour que les utilisateurs « jouent » avec leurs données, et découvrent des gisements de valeur à partir de l’utilisation de la dataviz.

Les business modèles évoluent de cette façon, en découvrant des utilisations nouvelles de la data, ce qui se trouve de fait au cœur de la transformation digitale de l’entreprise. C’est ce qu’affirme plus de la moitié des directeurs marketing interrogés dans le cadre du dernier baromètre Qlik sur « l’entreprise data-driven ». Le même baromètre révèle que les utilisateurs métiers sont de plus en plus autonomes en ce qui concerne la gestion de leurs données. Et de nouveaux outils leur permettent d’exploiter facilement et concrètement les données qu’ils possèdent.

 

Demain, à quoi ressemblera une restitution des résultats ?

Tendance venue de l’univers du digital, l’infographie en dit long sur notre façon actuelle d’appréhender l’information. Elle permet de représenter de manière synthétique et esthétique une information en cherchant à attirer la curiosité du lecteur et lui donner envie de « Partager ».

Habitués à présenter de l’information statistique à leurs clients, les instituts et les cabinets d’études marketing ont vu émerger cette réalité au fil du temps. Ils ont dû s’adapter, parfois dans la douleur, sur « comment restituer des résultats d’études de manière optimale ? ». Et si les dashboards intelligents étaient un moyen pour répondre à cette question ?

 

Historiquement…

Pendant des années, l’industrie des études s’est contentée de servir des tableaux complexes en recherchant l’exhaustivité systématique de l’information jusqu’à plus soif. Avec pour corollaire des rapports d’études qui n’en finissaient pas de grossir.

Il y a 20 ans, les équipes de chargés d’études et directeurs d’études ne se déplaçaient jamais chez leurs clients sans leurs lourds exemplaires imprimés et fraichement reliés de rapports à remettre, comme preuve de travail intense à leurs clients.

A cette époque, les responsables marketing avaient de leur côté plus de temps à leur consacrer et s’ensuivaient de longues réunions de présentation des résultats.

Puis, les instituts d’études ont réalisé qu’ils passaient à côté de l’essentiel : transmette la voix des clients, prendre de la hauteur sur les résultats et les rendre digestes, et surtout prendre le temps de réfléchir avec le client. Car l’urgence jusqu’à il y a quelques années dans le domaine des études c’était de retrouver une place de choix auprès de ses clients. Si hier, les instituts étaient passeurs de résultats, on attend de la profession d’accompagner la stratégie marketing par des approches plus opérationnelles et plus réactives et par des nouveaux dashboards intelligents offrant des nouveaux usages grâce à leurs technologies : logiciels d’analyse IA, KPIs, rapports infographiques, et vidéos de reporting.

 

Présenter différemment…

Cette prise de conscience « présenter différemment » se traduit par un changement d’attitude profond au sein même des équipes marketing. Nous vous partageons quelques bonnes pratiques pour des restitutions impactantes :

– Faire vivre la parole du répondant/participant :

Les verbatims issus des remontées clients et des études qualitatives sont des mines d’or pour les Directions Marketing, mais rien de plus soporifique qu’une lecture de ces derniers en présentation orale. Insérer des extraits de verbatims clients (audios, vidéos) viendra donner vie aux résultats par la voix du client lui-même et renforcer le message.

– Une image vaut mieux qu’un tableau !

Si aujourd’hui la data visualisation est au centre des débats, c’est parce que nous sommes confrontés à l’explosion du big data dans notre quotidien : 90% des données mondiales actuelles ont été créées au cours des deux dernières années selon McKinsey. Face à cette overdose de chiffres, il convient d’aller à l’essentiel. Parfois, une image aura plus d’impact qu’un tableau de chiffres.

– Le storytelling : une histoire vaut mieux qu’un discours

Trop souvent, une présentation de résultats se contente de suivre de manière linéaire le plan du questionnaire ou du guide d’entretien. Raconter une histoire pour communiquer les résultats, une méthode très en vogue par les professionnels du marketing.

Le monde des études s’approprie aussi le storytelling à la fois au niveau de l’architecture des projets que de la communication des résultats.

Intégrer de l’émotion au cœur des restitutions est la meilleure façon d’engager et de captiver le public. Nous accueillons une histoire bien mieux qu’un discours rationnel, et l’information transmise est bien mieux mémorisée. C’est un atout non négligeable dans un monde inondé de données d’intégrer cette technique dans les méthodes de restitution des résultats pour délivrer les informations utiles aux clients.

C’est un enjeu important auquel les dashboards de demain gagneraient à répondre, fournir des chiffres utiles et le sens que cela présente que ce soit au travers du data-design, vidéo ou du storytelling. La charge cognitive de l’individu est limitée. Pour pallier la surcharge d’informations, le storytelling se révèle comme un moyen efficace.

Les histoires ont la capacité unique de lier l’information avec l’émotion, le contexte et le sens. Les clients veulent comprendre rapidement et facilement les principaux enseignements, et savoir ce qu’ils doivent faire.

Dans ce cadre, le storytelling est un moyen qui peut être utilisé dans les dashboards de demain. Combiner la technique de storytelling avec de la dataviz, des rapports infographiques, et des vidéo-reportings permettront de faire « vivre » davantage les données et de leur donner du sens. Bring data to life, le défi des dashboards de demain !

FacebookTwitterGoogle+Partager

Vous avez dit Expérience Client et NPS ?

Comprendre le client, répondre à ses exigences. Quel défi pour une marque si l’on considère le paradoxe entre le besoin du client d’être satisfait et son aversion pour toute tentative de s’immiscer dans sa vie privée pour mieux combler ses attentes !

Dans un contexte d’offre pléthorique, avec des produits et des services généralement satisfaisants, la véritable clé de la loyauté n’est plus la satisfaction. C’est désormais l’économie de l’expérience…

L’économie de l’expérience marque une nouvelle étape de création de valeur. Le livrable est constitué d’émotions et de sentiments. Il s’agit de faire passer au consommateur un moment mémorable.

Pour cela les marques utilisent leurs services comme une scène et leurs produits comme des accessoires pour engager le consommateur. Les produits et les services eux-mêmes passent au second plan au profit de l’expérience, que le consommateur trouve normal de payer beaucoup plus cher…

Pourquoi mesurer la qualité de l’expérience client ?

Mesurer la qualité d’une expérience est un exercice complexe, puisque par nature, ce concept s’appuie sur des notions subjectives, et mobilise une multitude de variables, tant sur un plan rationnel, émotionnel, sensoriel, physique voire intellectuel.

Dans une perspective post-moderne de la consommation, le client achète un produit ou un service, mais sa vie doit être vue comme une série d’expériences dont il s’agit de manager la qualité. C’est dans cette philosophie que nous cherchons à mesurer l’expérience client.

C’est un facteur majeur de performance et de pérennité aujourd’hui pour les marques. On sait d’ores et déjà l’effet positif d’une expérience client réussie sur la création de valeur, la satisfaction du client et sa fidélité mais aussi sur sa capacité à diffuser un bouche à oreille positif.

Déchiffrer ce que ressent le client à travers toutes les interactions qu’il peut avoir avec une marque permet de tendre vers une identification optimale de la dynamique client-marque et, ainsi du processus de fidélisation.

Une mesure qui passe par la construction d’un système d’écoute du client :

Lorsqu’on veut mesurer quelque chose qui, par définition, est variable et multiforme, il convient au moins d’établir un cadre d’analyse. Cela passe par la formalisation des différentes composantes du parcours client.

Les entreprises habituées à analyser d’abord leur manière de servir le client et les améliorations qu’elles peuvent y apporter, doivent inverser leur mode de pensée pour chercher à regarder les choses du point de vue du client. À ce titre, la notion de « moments de vérité » se révèle essentielle.

Cette notion a été popularisée par le livre « Moments Of Truth » que le patron de la compagnie aérienne suédoise SAS, Jan Carlzon, a publié en 1987. Les moments de vérité (MOT) correspondent à toutes les interactions entre une entreprise et un client, actuel ou potentiel, et qui ont une certaine importance aux yeux de ce dernier. Ces moments, qui peuvent donc être vécus de manière positive ou négative, démarrent bien avant l’achat et se poursuivent bien au-delà. Beaucoup d’entre eux n’impliquent pas de contact direct entre le client et un représentant de l’entreprise. Ils ne correspondent donc pas, pour une bonne part, aux critères habituels que l’on évalue dans les enquêtes de satisfaction.

Il convient de préciser que chaque secteur d’activité a son contexte d’expérience client et ses moments de vérité particuliers. Ainsi, l’expérience associée à l’acquisition d’un véhicule et celle qui correspond à la réservation d’un séjour de vacances ou d’un repas à restaurant ont très peu à voir.

D’un point de vue méthodologique…

De nombreuses approches de la mesure de l’Expérience Client coexistent, qu’elles soient exploratoires ou mixtes (méthodes à la fois qualitatives et quantitatives) dans les protocoles d’études.

Une approche quantitative de l’expérience client permet aux entreprises de comparer cette nouvelle mesure avec celles déjà existantes : qu’elles soient développées en interne grâce à des outils d’évaluation de la satisfaction client ou de dérivé tel que le Net Promoter Score, ou qu’il s’agisse de comparaison avec l’extérieur (intra/intersectorielle).

Pour une compréhension plus subtile des scores observés, l’approche quantitative peut être utilement complétée d’une méthodologie d’étude qualitative afin d’approfondir les raisons d’un éventuel mauvais score sur une ou plusieurs dimensions de l’expérience client.

Cette démarche vise avant tout à être source d’amélioration pour la marque et ses clients qui attendent plus de valeur – au sens large – lors de leurs interactions.

Focus sur le Net Promoter Score (NPS) :

L’intérêt des professionnels des études est alors porté sur un indicateur : le Net Promoter Score. Ce dernier est utilisé aujourd’hui par de nombreuses grandes entreprises et consiste en la mesure de la proportion des clients à recommander un produit ou une marque avec une seule question « Recommanderiez-vous la marque X, ou l’entreprise Y à vos proches ? » sur une échelle de « pas du tout »  = 0 à « tout à fait » = 10.

Son principal intérêt est le vocabulaire employé. En effet, l’utilisation d’un verbe d’action implique le client qui n’est plus sur l’expression d’un ressenti mais sur une manifestation d’une forme d’engagement. De plus, amener le client à conseiller ses proches – des personnes qui ont confiance en lui – le pousse à se sentir très concerné par la question posée.

L’analyse s’attarde alors sur la différence entre, d’une part, le groupe des promoteurs (notes de 9 et 10) qui sont assez enthousiastes pour rester plus longtemps avec l’entreprise et parlent positivement d’elle. Et d’une part, le groupe des détracteurs (notes de 0 à 6) qui risquent de dire du mal de l’entreprise.

Mesuré à des intervalles de temps réguliers, ce score donne à l’entreprise une bonne indication du potentiel de croissance et de la fidélité client pour son produit, service ou marque.

La simplicité du NPS et le faible coût de sa mise en place l’ont popularisé notamment auprès des Directions des entreprises. L’un des gros avantages de cet indicateur est d’ailleurs d’être disponible pour beaucoup de secteurs d’activité et d’entreprises, ce qui permet des comparaisons immédiates (par exemple sur npsbenchmarks.com).

Si le NPS est attrayant, il ne suffit pas à visualiser l’ensemble des facteurs d’interaction avec la marque. Au-delà des données chiffrées, la marque se doit de savoir si l’expérience était concluante, simple, agréable, personnalisée, engageante ou stimulante pour le client, le poussant ainsi à reproduire l’acte d’achat, et adhérer par ce fait de manière proactive à ses valeurs.

Ainsi, la question du NPS permet une mesure quantitative, mais ne nous apprend pas comment faire évoluer positivement sa courbe, ni pourquoi un Détracteur a été déçu ou un Promoteur si enthousiaste.

Zoom sur d’autres indicateurs de mesure existants :

L’évaluation de l’expérience client doit donc chercher à dresser un tableau d’ensemble, à travers une consolidation des insights liés à chaque étape de cette expérience. Si beaucoup d’indicateurs reposent sur des données existantes qu’on peut réunir, d’autres peuvent être recueillies à travers un dispositif d’écoute client en continu.

Certaines étapes du parcours client ne s’accordent pas avec des indicateurs descriptifs existants mais nécessitent d’aller chercher l’information en interagissant avec le client. Chaque indicateur correspond à une formulation de question ou à un mode de questionnement particulier. Nous vous partageons quelques indicateurs très utilisés :

-Customer Satisfaction Score (CSAT) : il s’agit de la mesure classique de la satisfaction des clients, au travers d’une question simple : « Avez-vous été satisfait de… ». Le taux des clients satisfaits s’obtient directement en additionnant les pourcentages obtenus à toutes les réponses positives (très satisfait + assez satisfait). Cet indicateur de la satisfaction a été tellement utilisé qu’il semble aujourd’hui moins attirant et efficace que les indicateurs qui suivent.

-Customer Effort Score (CES) : Cet indicateur permet de mesurer le niveau d’effort que consent le client lors d’une interaction avec l’entreprise. Certaines études affirment que le CES serait mieux corrélé avec les comportements et les décisions des consommateurs que d’autres indicateurs comme le NPS, par exemple. Le CES est basé sur une question exprimée comme suit : « Quel niveau d’effort avez-vous consenti pour que votre demande soit traitée ? ». Le client répond sur une échelle de 1 (niveau d’effort négligeable) à 5 (niveau d’effort élevé).

-Customer Satisfaction Index (CSI) : Cet indicateur global couvre à la fois la réponse aux attentes du client, la fluidité du parcours client, et l’émotion vis-à-vis de la marque. La formule de calcul de cet indicateur croise trois questions posées sur une échelle de mesure de 1 à 5.

-L’intention de rachat : Le taux de rachat est un indice de la fidélisation en cours des clients d’une marque. L’intention de rachat est une marque de confiance et de satisfaction. Le client est en cours de fidélisation.

-Le taux d’attrition ou le « Churn » : indique la proportion des clients perdus sur un laps de temps donné. Bref, c’est une mesure de la fidélisation.

Notons que les indicateurs ci-dessus apportent peu de données explicatives des opinions et besoins. Le dispositif d’évaluation de l’expérience client devra donc intégrer également des approches à la fois qualitatives et quantitatives plus détaillées.

La mesure du NPS et de l’expérience client chez FANVOICE :

La mesure du NPS chez Fanvoice est un processus quantitatif qui s’accompagne d’un recueil qualitatif. Le rôle de ce recueil qualitatif sera de collecter ce qui, dans l’expérience client globale, a généré des Détracteurs ou des Promoteurs, permettant ainsi d’associer chaque expérience à une note. Il se traduit par une question ouverte que nous adressons à travers nos campagnes « Avez-vous des suggestions pour améliorer le produit/le service ? ».

Cette question ouverte nous permet de comprendre chacune des notes données et d’identifier des axes d’amélioration en phase avec les besoins des consommateurs qui participent à nos campagnes.

Intégrer une dimension qualitative aux indicateurs de mesure de l’expérience client et notamment à la question du NPS augmentera la valeur ajoutée de la méthodologie d’étude. Collecter et comparer les feedbacks et verbatim des participants liés à l’expérience client permettra de révéler des besoins parfois différents et contraires à ce que l’on imagine.

Prenons l’exemple d’une campagne FANVOICE pour le Groupe SEB qui vise à évaluer 3 concepts d’assistants vocaux en cuisine afin d’identifier le concept leader.

La campagne invite la communauté Foodle et la communauté Fanvoice à découvrir 3 assistants vocaux en cuisine (le Chef, le Coach, le Majordome) et à évaluer chaque concept en répondant à des questions de sondage (intention d’utilisation, NPS, perception détaillée, etc). Puis à partager leurs suggestions d’amélioration et remarques sur chaque concept à travers un dépôt d’idées ouvert.

Ainsi, la plateforme FANVOICE permet de croiser deux approches d’études (questions quantitatives détaillées et recueil qualitatif de verbatim) conduisant à identifier des zones d’amélioration qui contribuent à expliquer les indicateurs de l’expérience client sondés pour mieux y répondre.

Cette approche permet in fine de croiser des indicateurs quantitatifs et des insights issus des feedbacks qualitatifs afin d’identifier l’assistant vocal qui répond le mieux aux attentes des consommateurs (quel assistant vocal ? pour quelle cible ?) et qui présente le meilleur potentiel pour la marque.

L’utilisation de cette méthodologie (indicateurs quantitatifs et recueil qualitatif) en tant que mesure de l’expérience client peut être un sérieux atout pour les marques, du fait de sa simplicité, de son faible coût et qu’elle permet de disposer à la fois d’un baromètre de recommandation et aussi d’un outil de notation/recueil des expériences clients.

Co-créer avec les sociétaires pour imaginer l’avenir de l’Assurance : découvrez le LAB Matmut !


La Matmut a lancé il y a quelques mois sa plateforme de co-innovation pour permettre à ses sociétaires de rejoindre leur communauté et de contribuer à l’amélioration de ses offres, de l’expérience client, et à la création des produits et services de demain.

Adopter une approche communautaire et une démarche d’innovation collective pour créer de la valeur, c’est le pari qu’a fait la Matmut en engageant ses sociétaires à partager leurs idées sur sa plateforme « le LAB Matmut ».

Dès le lancement du LAB Matmut, le premier projet participatif affiche des résultats sans appel : les sociétaires de la Matmut sont prêts à co-créer…

Le LAB Matmut, comment ça marche ?

Afin d’améliorer l’expérience client, la Matmut invite ses sociétaires à participer à la création des produits et services de demain à travers sa plateforme participative « le LAB Matmut ».

Le LAB Matmut permet d’impliquer les sociétaires sur différentes étapes de la réflexion couvrant le cycle de l’innovation :

>Idéation : pour faire germer de nouvelles idées d’offres ou de services.

>Co-conception : pour impliquer les sociétaires dans la conception d’une offre, des parcours clients de demain.

>Bêta-test : pour faire tester un nouveau service en avant-première et l’ajuster selon les retours d’expérience.

>Amélioration & fidélisation : pour collecter l’avis des sociétaires sur un produit ou un service existant afin de le faire évoluer et l’adapter davantage à leurs besoins.

Combiner différentes approches d’études qualitatives et quantitatives :

Une démarche de co-création initiée, qui implique la participation des sociétaires à tout moment lors du processus créatif. Elle va recueillir directement les suggestions de ses parties prenantes pour les mettre en œuvre de manière opérationnelle.

En ce sens la co-création peut s’apparenter à un véritable outil d’études marketing puisqu’elle permet d’affiner en profondeur la connaissance des besoins et des attentes des participants grâce à une approche exploratoire.

Ces nouvelles stratégies marketing dites participatives qui permettent de combiner une variété d’études traditionnelles entre elles (quantitatives et qualitatives), sont de plus en plus utilisées aujourd’hui en complément des études de marché car elles sont adaptées aux enjeux marketing actuels : démarches exploratoires, compréhension de nouveaux usages, recherche de nouveaux territoires d’innovation ou de communication, identification des insights et des signaux faibles, etc. Un outil idéal pour le marketeur-explorateur confronté à des consommateurs toujours plus complexes et multiples dans un environnement qui évolue constamment.

Le LAB Matmut : une expérience USER FRIENDLY et des avantages !

Grâce à une interface simple et ludique, les sociétaires s’inscrivent en moins de deux minutes. Pour participer, ils peuvent poster des idées, « liker » ou commenter les idées des autres participants, et répondre à des sondages. Ce qui leur permet de cumuler des points et d’augmenter leurs chances d’être tirés au sort et de remporter les récompenses à la fin de chaque projet participatif.

Pour inciter les sociétaires à co-créer, il faut bien entendu les encourager à s’investir. Le LAB Matmut intègre une mécanique de gamification pour motiver la participation. Ainsi, plus les sociétaires contribuent sur la plateforme plus ils gagnent des points et plus ils augmentent leurs chances de remporter les récompenses mises en jeu.

Les récompenses mises en jeu ne sont pas les seules motivations à co-créer. Il peut être question de récompense honorifique voire altruiste ou d’ordre social comme interagir avec les membres de la communauté, se sentir au cœur du développement d’une innovation, contribuer à l’avenir de l’Assurance, renforcer ses connaissances sur un sujet, dialoguer avec la Matmut… font également partie des raisons pour lesquelles les sociétaires peuvent s’engager dans une démarche de co-création.

De cette manière, la Matmut crée un dialogue permanent avec ses sociétaires et construit un lien de proximité avec eux.

En ce sens, la co-création permet d’affiner la connaissance des sociétaires grâce aux outils de la plateforme qu’elle met à disposition des co-créateurs pour favoriser le partage d’outputs créatifs. C’est aussi une manière d’éviter l’attrition (perte des clients) en donnant la parole aux sociétaires qui participent directement à l’innovation de la Matmut.

En montrant l’intérêt pour leurs idées, la Matmut les responsabilise et les fait participer à construire l’Assurance de demain et à développer certains de ses produits et services.

Si la co-création permet de concevoir des produits au plus près des clients, elle peut ainsi s’avérer être un outil efficace pour étudier son marché.

Zoom sur le premier projet participatif :

Le premier projet participatif lancé sur le LAB Matmut porte sur un sujet d’idéation pure. Il s’agit d’impliquer un premier vivier de sociétaires et de les engager dans une dynamique communautaire sur la plateforme pour comprendre leurs besoins et leurs attentes.

Cette première prise de parole s’inscrit dans une démarche exploratoire et vise à construire une première base communautaire, et à faire émerger des idées et des insights sur de nouveaux produits et/ou services.

La question centrale posée aux sociétaires est « Comment la Matmut pourrait toujours plus vous simplifier la vie ? ».

Le questionnement a été organisé en quatre grandes thématiques : les assurances, les services, les moments de vie, et les petits plus qui changeraient la vie des sociétaires.

Une véritable dynamique communautaire et des sociétaires séduits par le LAB Matmut !

Cette première campagne a rencontré un fort succès avec des sociétaires très impliqués autour du sujet, et qui affichent un accueil très favorable à l’égard de la démarche communautaire.

Très conversationnelle, cette première prise de parole a permis d’engager un véritable noyau communautaire et de récolter plus de 850 idées et commentaires deux mois après son ouverture.

Le Machine Learning pour analyser les données et identifier les insights chez FANVOICE :

À la fin de la campagne, les verbatims récoltés ont été analysés grâce à un algorithme d’analyse sémantique et statistiques, qui s’appuie sur une technologie d’Intelligence Artificielle (Machine Learning), développé par Fanvoice.

L’algorithme de FANVOICE génère automatiquement un modèle appelé « insights Map » comme premier niveau d’analyse. Tout comme on range les pièces d’un puzzle par couleur pour finir voir apparaitre des motifs, puis un paysage complet. L’algorithme procède à l’apprentissage automatique du corpus pour regrouper et classifier les verbatims qui révèlent des proximités, puis il les structure pour pouvoir les visualiser sur une cartographie.

Une analyse complétée par nos experts en Études & Consumer Insights qui s’appuie sur les niveaux de perception, d’adhésion, et de besoins exprimés, et qui a permis de construire une cartographie de l’expérience sociétaire de demain.

L’analyse de cette cartographie a permis d’extraire des enseignements riches et a aidé les équipes marketing de la Matmut à valoriser les principaux thèmes convergents (avec leurs poids et les corrélations entre elles) et à les interpréter au prisme de la problématique adressée, mais aussi de détecter les signaux faibles qui émergent de cette consultation.

L’analyse a également permis de confirmer l’appétence des sociétaires à l’égard de la démarche communautaire et sa volonté de continuer à participer à d’autres projets sur le LAB Matmut pour innover dans l’univers de l’Assurance.

Un bilan très positif pour les équipes Matmut qui annonce de belles perspectives, avec une première communauté engagée sur le LAB autour de l’Assurance et des idées retenues, en réponse aux attentes exprimées par les sociétaires, qui constitueront de potentiels sujets et projets à venir…

La co-création et le Machine Learning pour innover dans la Food : le pari réussi de SEB et de la FoodTech !

La co-création souffle un vent de liberté sur le monde quelque peu figé des études et de la recherche en marketing. Enquêtes, réunions qualitatives, baromètres et consort sont désormais chahutées par ces nouvelles stratégies marketing fruits de la co-création portées par le numérique qui érigent le mot « participation » en étendard.

Etude participative online, communauté en ligne, crowdsourcing : tous découlent du concept de la co-création. Mais quelle valeur ajoutée dans les études ?

 

Une stratégie payante pour améliorer la connaissance client :

La co-création compte de nombreux avantages pour les marques. D’abord, elle impacte directement les pratiques et les processus d’innovation plus traditionnels. En effet, elle remet en cause les processus créatifs en externalisant la partie génération d’idées par exemple. Les propositions généralement faites en interne proviennent de l’extérieur stimulant ainsi la créativité.

Cette méthode peut améliorer les connaissances que la marque a de ses clients. Grâces aux interactions générées avec les parties prenantes, les marques ont dès lors la possibilité de comprendre les réels besoins de leurs cibles.

D’un point de vue commercial, la co-création permet d’accroitre l’acceptation des nouveaux produits et services sur le marché puisqu’ils auront fait l’objet d’un dialogue avec la communauté. Le succès commercial étant davantage assuré, les coûts liés aux modifications éventuelles du produit suite à son lancement voire au taux d’échec au lancement seront ainsi limités.

 

Collecter des données de meilleure qualité et créer de l’engagement :

Ces outils d’un nouveau genre qui déclassent les habituels baromètres et questionnaires ont un trait fondamental en commun : une profonde et intrinsèque dimension collaborative. Cet aspect participatif au cœur du réacteur induit bien évidemment de nombreux et récurrents échanges entre la marque et les consommateurs participants.

Cette itération permise par l’approche co-créative offre un habitacle d’observation riche idéal pour la marque ou l’annonceur qui se trouve alors au plus près du cœur de cible.

Le rôle de producteur endossé par le consommateur dans l’évolution de l’offre servicielle et produit a montré une incidence non négligeable sur la qualité des réponses et la véracité des propos tenus par les sondés. En effet, le client fait état d’un engagement plus fort une fois plongé dans un univers de marque total et paramétrable permis par les nouvelles technologies du web. La marque parvient ainsi à améliorer ses connaissances client grâce au rôle privilégié de producteur octroyé au consommateur qui partage et échange volontiers sur ses perceptions et comportements dans ce contexte cadré et perçu comme valorisant.

Les plateformes de co-création semblent porter la Voix du client plus haut que les outils traditionnels n’aient jamais pu le faire. Elles ont permis de fédérer des communautés en ligne et de contribuer aux études participatives online. La relation client s’enrichit considérablement et ce dans les deux sens.

 

Conjuguer différentes approches d’études qualitatives et quantitatives :

La co-création révèle des usages intéressants dans la possibilité de coupler une variété d’études traditionnelles entre elles. Elle ouvre la voie à une démarche globale dans les études marketing. Aux workshops et focus groups réalisés en présentiel s’ajoutent désormais les communautés en ligne tel un socle supportant d’autres méthodes de recueil de données. Questionnaires et enquêtes de satisfaction en ligne de mire, cette occasion d’alternance fait des émules côté instituts d’études.

Au sein des annonceurs, la co-création et les études appellent au rapprochement. Des exercices de co-création ont montré que cet effort d’ouverture permet d’identifier au sein des annonceurs de nouvelles parties prenantes enclines à participer aux études qui se révèlent à haut potentiel en raison de leurs profil et parcours dans un cadre de réflexion dédié à l’innovation.

C’est le choix qu’ont fait le Groupe SEB et la FoodTech de miser sur les solutions que propose la startup Française FANVOICE afin d’innover dans l’univers de la Food. Il s’agit précisément de conjuguer les outils de co-création et de Machine Learning de FANVOICE pour contribuer à la construction du système alimentaire de demain.

 

Co-créer avec les consommateurs dans la Food : Le pari réussi du Groupe SEB et de la FoodTech sur la plateforme FANVOICE !

Dans le cadre d’un projet d’innovation visant à construire un système alimentaire durable dans les prochaines années, le Groupe SEB et la FoodTech en partenariat avec la Métropole de Dijon souhaitent innover avec une approche d’écosystème en mettant le consommateur au centre de la décision et de la collaboration avec les bons acteurs (citoyens, startups, entreprises, chercheurs, etc).

Ce projet vise à construire une première base communautaire et à faire émerger des idées de nouveaux produits et services digitaux pour accompagner les consommateurs dans leur alimentation, à partir du moment où ils achètent leurs produits bruts jusqu’au moment où ils les cuisinent en fonction de leurs besoins, préférences et régimes.

C’est dans ce contexte que le Groupe SEB et la FoodTech ont lancé une campagne d’idéation sur la plateforme FANVOICE. L’appel à idées a été construit autour d’une question centrale posée « Mieux manger, et si on en parlait ? ».

Le questionnement a été organisé en cinq grande catégories : la signification du « mieux manger », ce qui compte le plus, ce qui est préoccupant, les services qui simplifient la vie, et les contributions pour mieux manger demain.

La campagne a permis d’engager une communauté de consommateurs autour d’une discussion sur l’alimentation durable.

Une campagne très conversationnelle et réussie, qui a permis de fédérer un noyau communautaire de 110 contributeurs et de récolter 708 idées et commentaires.

 

L’analyse des données textuelles grâce au Machine Learning chez FANVOICE :

Tous les verbatims récoltés ont été analysés via un algorithme d’analyse sémantique et statistiques qui s’appuie sur une technologie d’Intelligence Artificielle (Machine Learning), développé par la startup française FANVOICE.

L’algorithme de FANVOICE procède à l’apprentissage automatique de ce corpus et génère un modèle appelé « insights Map » comme premier niveau d’analyse.

Ce modèle permet de catégoriser et de quantifier l’ensemble des verbatim en clusters abordant des sujets, il identifie les zones de convergence formant les principales thématiques avec leurs poids et les corrélations entre elles, et il détecte les signaux faibles porteurs d’informations pertinentes.

Une analyse complétée par nos experts des Insights pour construire une cartographie de l’alimentation durable de demain, s’appuyant sur les niveaux de perception, d’attentes, et de besoins de la communauté. Une étape cruciale pour identifier les insights marketing.

Ainsi, l’algorithme d’analyse sémantique & statistiques de FANVOICE permet d’être plus agile dans la manière d’exploiter les données, ce qui accélère le processus de production d’insights. De plus, il représente un gain de temps considérable pour le traitement des données par rapport à un usage hier encore manuel. Mais la pertinence des insights suscités devient l’avantage premier grâce à une utilisation concomitante d’analyses de nature sémantique et statistiques.

L’analyse de cette cartographie a aidé les équipes du Groupe SEB et de la FoodTech à valoriser les principales thématiques émergentes (avec leurs poids et les corrélations entre elles) et à les interpréter au prisme de la problématique adressée. Elle a aussi confirmé l’appétence de ce premier noyau communautaires à l’égard de la démarche participative et sa volonté de continuer à participer à d’autres projets autour de l’alimentation durable.

En somme, un bilan très positif pour le Groupe SEB et la FoodTech avec une première base communautaire engagée autour de l’alimentation durable et une campagne à fort potentiel, qui a permis de faire émerger des opportunités de sujets et de projets à venir…

Fanvoice-IA-Machine-Learning-Data-Intelligence-Insights

 

La voix, ce nouveau canal de la relation marques-consommateurs : découvrez un PoC R&D entre SEB et la startup française FANVOICE !

Smartphones, objets et enceintes connectés… Les consommateurs emploient de plus en plus la voix. Depuis le développement de Siri, Google Home ou encore Alexa d’Amazon, les assistants vocaux s’immiscent progressivement dans tous les secteurs et transforment la relation marques-consommateurs. Pas de doute, nous entrons dans l’ère de la voix !

La voix, ce nouveau canal de la relation marques-consommateurs

Une disruption dans la relation homme-machine :

Par leur fonctionnement naturel, les assistants vocaux s’imposent facilement comme de nouvelles interfaces, plus intuitives, et apportent de nombreux usages et fonctionnalités.

Ils s’inscrivent dans les grandes tendances technologiques de fond (montée des plateformes online, IA, personnalisation, multiplication de terminaux, etc) et dans la lignée des transformations d’interfaces homme-machine, ce qui ne laisse aucun doute sur leur potentiel à modifier profondément les comportements et les usages.

Une étude récente de Dashbot révèle la cristallisation de quatre grande catégories d’usages des assistants vocaux : smart home, divertissement, information, et shopping.

Ce nouveau canal colle aux réelles attentes des consommateurs, friands de simplicité et de personnalisation. Parler est bien plus rapide qu’écrire et permet donc de gagner un temps considérable dans une journée. Parler facilite le quotidien et permet de réaliser plusieurs tâches en même temps. Parler est surtout accessible à tous.

Ainsi, la voix devient le premier canal digital qui touche autant les digital natives, les enfants que les populations plus éloignées du digital comme les seniors.

Un enjeu crucial pour les marques :

Les marques s’interrogent aujourd’hui sur la place des assistants vocaux dans leur marketing mix. Est-ce un medium publicitaire, une interface de vente, un nouveau canal de distribution, un point d’achat, un point de contact après-vente ou une intimité inédite avec leur client ? La réponse est peut-être tout à la fois.

En effet, l’interaction vocale avec les assistants personnels se fait toujours plus immédiate et personnalisée. Elle va permettre l’éclosion de nouveaux services utilisant le canal-voix.

Déjà de nouvelles stratégies multicanales apparaissent positionnant le vocal sur des étapes clés du parcours (order with voice and pay on-line, Talk & Collect, Voice Queuing, Voice delivery tracking, etc).

Au-delà des enjeux stratégiques, les marques devront comprendre l’impact du vocal sur les expériences et parcours clients. L’enjeu majeur des marques consiste alors à comprendre le comportement d’usage des utilisateurs afin d’activer de vrais leviers d’utilité et des promesses clients pertinentes (commodité, simplicité, confiance, etc) au travers de leurs applications vocales, notamment pour ne pas tomber dans le piège de la gadgetisation.

Ce principe sera à l’origine de l’évolution profonde des métiers du Marketing dans les entreprises, qui devront répondre à une question majeure : comment faire pour amener le client à spécifier la marque lorsqu’il commandera via son assistant ?

Un enjeu crucial pour les marques

Un bouleversement du Marketing et l’E-commerce :

Les assistants vocaux sont amenés à révolutionner la façon dont les marques et les consommateurs interagissent. Selon une étude réalisée par Capgemini auprès de plus de 5 000 consommateurs aux États-Unis, au Royaume-Uni, en France et en Allemagne : environ un quart (24%) des personnes interrogées privilégieraient volontiers l’assistance vocale plutôt qu’un site Internet. Ce chiffre pourrait grimper à 40% dans les trois prochaines années.

Aujourd’hui, les assistants vocaux offrent de nouveaux points de contact vers les clients. Et de nombreuses marques ont déjà sauté le pas en France, et proposent différentes utilisations de ces assistants vocaux :

  • Podcast et rendez-vous : Sephora a créé son skill (interface vocale interactive) pour Google Home, il suffit de dire « OK Google, parler à Sephora », pour fixer un rendez-vous de mise en beauté dans un magasin, répondre à un quizz beauté, ou encore écouter des podcasts d’influenceurs beauté qui livrent leurs conseils.
  • Actualités à la demande : Radio France s’interrogeait sur le futur de la radio et le rôle des assistants, et a pris les devants. Elle est déjà disponible sur Google Home : « OK google : quelles sont les dernières actualités » et permet de lancer le dernier flash de France Info.
  • Ou encore, service client express : l’enseigne Boulanger a développé son application vocale pour Google Home pour faciliter la vie de ses clients. Il suffit de dire : « quels sont les horaires du magasin le plus proche ? » ou encore « je souhaite contacter le service client ».

Ainsi, la voix devient un véritable vecteur d’innovation, de création de valeur et surtout de différenciation. Toutefois, on constate que la phase la plus critique pour préparer les marques à la voix consiste à identifier et renseigner les différents points permettant d’entrer en contact avec les clients. Un défi à relever pour les maques afin de proposer une expérience notable et singulière.

Développer une stratégie vocale : un projet de R&D entre SEB et la startup française FANVOICE 

Dans le cadre d’un projet européen en Recherche & Développement sur la stratégie vocale (les assistants vocaux et la relation marques-consommateurs), la startup Française FANVOICE et le Groupe SEB collaborent sur un PoC appelé « Voxana » pour intégrer le vocal dans leurs parcours clients respectifs.
Il s’agit pour FANVOICE de proposer une solution analytique pour produits connectés à commande vocale.

Lancé en début 2019, ce PoC sera actif jusqu’en 2020 et intègre plusieurs phases et cas d’usage dans une logique itérative. Nous vous partageons quelques facteurs clés de succès pour accompagner les marques qui souhaitent développer une stratégie vocale :

  1. Comprendre les attentes utilisateurs : l’intégration du vocal dans un parcours client doit apporter une utilité (commodité, simplicité, confiance, etc) et proposer une expérience à valeur ajoutée. Pour cela, il est nécessaire de comprendre les attentes, les frustrations et le comportement d’usage des clients. La phase de co-création avec les clients se révèle déterminante pour comprendre leurs besoins et détecter leurs attentes.
  2. Sélectionner un nombre limité de cas d’usage : il s’agit de travailler en profondeur un nombre de cas d’usage limité où le « Voice First » est pertinent plutôt que de vouloir vocaliser l’ensemble de l’expérience pour répondre à une attente ou à une frustration.
  3. Viser la récurrence d’usage : privilégier un cas d’usage impliquant une utilisation récurrente de l’application vocale.
  4. Penser multi-canalité : éviter les parcours 100% voix, notamment lorsqu’il est nécessaire de rassurer le client dans le parcours selon le cas d’usage envisagé et le contexte d’utilisation de l’application.
  5. Test & Learn : travailler les cas d’usage de manière itérative afin d’acculturer les équipes, notamment via des PoC en cycle court, avant d’envisager un déploiement à l’échelle.

Les facteurs clés de succès d'un projet vocal

Une première étape de co-création réussie sur la plateforme FANVOICE !

Un des cas d’usage du PoC Voxana consiste à embarquer une communauté d’utilisateurs/bêta-testeurs dans une démarche de co-création couvrant trois phases : idéation, co-conception, et bêta-test.

Une première campagne d’idéation a été lancée par SEB et FANVOICE sur la plateforme FANVOICE. L’appel à idées avait pour objectif de comprendre l’expérience que la voix aurait à offrir demain aux consommateurs, et comment les potentiels utilisateurs intègreraient la voix dans leur quotidien, leurs usages, notamment en cuisine.

Il a été construit autour d’une question centrale posée « la voix en cuisine, dites-nous tout ! ». Le questionnement a été organisé en cinq grandes catégories : les usages et scénarii, les moments, les bénéfices, les préoccupations, et les attentes futures.

Une campagne très conversationnelle et réussie, qui a permis de fédérer un noyau communautaire de 112 contributeurs et de récolter au total 1141 idées et commentaires.

Une première étape de co-création réussie sur la plateforme FANVOICELes verbatims récoltés ont été analysés via un algorithme d’analyse sémantique & statistiques qui s’appuie sur une technologie d’Intelligence Artificielle (Machine Learning) développé par FANVOICE.

Une analyse complétée par nos experts des Insights pour construire une cartographie de l’expérience vocale de demain, permettant d’identifier les principaux thèmes convergents et de détecter les signaux faibles.

L’analyse de cette cartographie a aidé les équipes SEB et FANVOICE : à valoriser les principales thématiques émergentes (avec leurs poids et les corrélations entre elles) et à les interpréter au prisme de la problématique adressée, mais aussi à construire une segmentation des profils utilisateurs/personas selon les usages attendus.

Une approche de co-création par l’usage confirmée pour développer la suite du projet qui s’annonce prometteuse dans les prochains mois…

Fanvoice-IA-Machine-Learning-Data-Intelligence-Insights

Co-créer avec les Calédoniens : le pari réussi de l’OPT-NC !

L’OPT-NC (Office des Postes et Télécommunications de Nouvelle-Calédonie) a lancé depuis quelques mois sa plateforme participative pour permettre aux Calédoniens de contribuer à l’amélioration de ses offres, de l’expérience client, et à la création des produits et services de demain.

Adopter une démarche d’innovation collective pour créer la valeur de l’office de demain : c’est le pari qu’a fait l’OPT-NC en engageant ses clients à partager leurs idées sur sa plateforme OPT & VOUS. Dès le lancement de celle-ci, la première campagne affiche des résultats sans appel : Les Calédoniens sont prêts à co-créer…

Comment ça marche ?

La plateforme de crowdsourcing « OPT & VOUS » invite les clients de l’OPT-NC à participer à différentes étapes de la réflexion qui couvrent le cycle de l’innovation :

Idéation : pour faire germer de nouvelles idées d’offres ou de services.
> Co-création : pour impliquer les clients dans la conception d’une offre, des parcours clients de demain.
> Bêta-test : pour faire tester un nouveau service ou un panel d’utilisateurs en avant-première et l’ajuster selon les retours d’expérience.
> Feedback et fidélisation : pour collecter l’avis des utilisateurs sur un produit ou un service existant afin de le faire évoluer et l’adapter davantage à leurs besoins.

Une véritable dynamique communautaire et des Calédoniens séduits par la plateforme « OPT & VOUS » !

Le premier appel à idées lancé par l’OPT-NC avait pour objectif de donner la parole aux Calédoniens et de recueillir leurs idées autour de l’expérience client qu’ils recherchent. Il a été construit autour d’une question centrale posée « Que pourrait- faire l’OPT-NC pour vous simplifier la vie ? »

Le questionnement a été organisé en quatre grandes thématiques : les offres, les services, le conseil, et les petits plus qui rendraient les démarches avec l’OPT-NC plus simples.

Cette première campagne a rencontré un fort succès : elle affiche un accueil très favorable à l’égard de la démarche et une forte adhésion des Calédoniens révélant un taux de contribution de plus de 80%,  avec des contributeurs actifs et très impliqués autour du sujet (99% des contributeurs ont trouvé ce premier projet participatif intéressant et souhaitent participer prochainement à d’autres projets sur la plateforme OPT & VOUS).

Une campagne très conversationnelle qui a permis de fédérer 285 contributeurs et de récolter au total 963 idées et commentaires, révélant ainsi une forte dynamique communautaire qui confirme  l’engagement des Calédoniens pour co-innover avec l’OPT-NC.

Retour sur des résultats particulièrement performants

A la fin de la campagne, les verbatim récoltés ont été analysés via un algorithme d’analyse sémantique qui s’appuie sur une technologie d’Intelligence Artificielle (Machine Learning) développé par FANVOICE.

Une analyse complétée par nos experts des Insights pour construire une cartographie  de l’expérience client de demain, permettant d’identifier les principaux thèmes convergents et de détecter les signaux faibles.

L’analyse de cette cartographie a aidé les équipes marketing de l’OPT-NC à valoriser les principales thématiques émergentes (avec leurs poids et les corrélations entre elles) et à les interpréter au prisme de la problématique adressée.

Retrouvez en image l’interview de Philippe Maillet, Directeur Général délégué à la performance économique et Eléonore Machu, Chargée de marketing Opérationnel Digital.

Ainsi, de nombreuses idées suggérées concernaient les évolutions du service 1012 et ont fait l’objet d’une construction de roadmap/feuille de route avec des actions concrètes auprès des équipes de l’OPT-NC.

En réponse aux attentes exprimées par les contributeurs, l’équipe OPT-NC a ouvert une deuxième campagne sur les nouveautés/évolutions du service 1012 (site web et application mobile) et a invité les Calédoniens à exprimer leurs feedbacks.

Grâce à cette nouvelle campagne, l’OPT-NC pourra inclure les différents retours d’expérience de ses utilisateurs dans de futures versions de l’application et du site 1012.nc, et ainsi, les faire évoluer selon les attentes des Calédoniens.

Depuis son lancement, la plateforme « OPT & VOUS » compte déjà 3 projets participatifs, riches d’enseignements et plein d’autres projets devraient suivre dans les mois à venir…

Fanvoice-IA-Machine-Learning-Data-Intelligence-Insights

IA & Marketing : la promesse de la data intelligence ! (Part 1)

Dans le domaine du marketing, la data intelligence peut être sollicitée à tous niveaux, de la gestion des campagnes au suivi de la relation client, en passant par la veille concurrentielle, l’innovation et la gestion de l’e-réputation. Parallèlement, les consommateurs s’informent différemment et adoptent de nouveaux modes de consommation et d’achat, ils deviennent maîtres de leur consommation.

Dans ce contexte, l’enjeu pour les marques est de toujours mieux cerner les tendances, les profils, les habitudes de consommation, pour d’une part anticiper les comportements par une connaissance plus fine, et d’autre part améliorer l’engagement client en répondant de manière plus ciblée et donc plus efficace, aux attentes. L’Intelligence Artificielle apparait clairement comme un élément disruptif majeur pour y répondre.

Fanvoice-Cocréation-MachineLearning-IA-DataIntelligence 

Mais d’où vient l’IA ?

Le terme « Intelligence Artificielle » a été utilisé pour la première fois en 1956, lors d’une conférence organisée à l’université de Dartmouth par un jeune professeur de Mathématiques, John McCarthy, qui réunit une poignée de chercheurs dont des futurs ténors de la discipline (Marvin Minsky, Claude Shannon). L’idée de base consistait à modéliser l’intelligence humaine pour simuler son fonctionnement sur des machines capables d’apprendre et de s’améliorer.

L’intelligence artificielle s’impose aujourd’hui sur le devant de la scène scientifique et médiatique. C’est plus qu’un retour en grâce, plutôt une déflagration qui s’étend à toutes les sphères économiques, politiques, marketing, sociales, etc. Il ne se passe pas un jour sans qu’on ne parle de l’IA dans les médias.

Fanvoice-IntelligenceArtificielle-MachineLearning-Origines

 

L’IA suscite aujourd’hui un réel engouement

La notoriété de cette technologie s’est accrue partout dans le monde. En France, une étude de Médiamétrie réalisée en novembre 2017 a révélé que 85% des personnes interrogées avaient déjà entendu parler d’Intelligence Artificielle (même si le niveau de compréhension sur les usages de l’IA était encore plutôt faible).

Cette même étude a décelé un niveau de soutien surprenant pour l’IA, qu’on aurait pu imaginer à la source de nombreuses défiances et peurs diffuses. 86% des personnes interrogées ont considéré que le développement des technologies d’intelligence artificielle allait avoir des effets positifs pour la société dans son ensemble.

Fanvoice-IA-MachineLearning-AI-études

 

Comment expliquer l’emballement général pour l’IA ? cette idée vieille de plus d’un demi-siècle…

En effet, pourquoi l’Intelligence Artificielle semble aujourd’hui si prometteuse et si disruptive alors même que les travaux actuels se basent sur des méthodes et concepts forgés il y a au moins 30 ans ?

En réalité, l’univers de l’IA profite aujourd’hui d’un véritable alignement favorable des planètes :

  • Tout d’abord, l’augmentation exponentielle de la vitesse des microprocesseurs et des capacités de stockage ont, en tout cas, ouvert d’extraordinaires possibilités de calcul dont bénéficie l’IA aujourd’hui.
  • Ensuite, l’arrivée du Big Data qui produit désormais d’énormes masses de données, très utiles aux algorithmes d’apprentissage de l’IA. Ainsi, les millions de textes, d’images et de vidéos disponibles sur le net servent aujourd’hui de matière première pour mettre au point, entrainer, perfectionner et évaluer les systèmes de reconnaissance automatique en tout genre. Des bibliothèques d’images ont ainsi vu le jour et ont été constituées grâce à cette technologie (ex : ImageNet, projet piloté par les universités de Stanford et de Princeton).
  • Enfin, les méthodes de deep learning elles-mêmes en ont logiquement profité et se sont beaucoup perfectionnées. L’augmentation de la puissance des machines a permis de mettre au point et d’expérimenter des modèles complexes et plus puissants que ceux conçus auparavant.

Fanvoice-IA-DeepLearning-BigData-Etudes-Marketing-Algorithme

En somme, c’est la conjugaison des évolutions technologiques, de la disponibilité de matière première pour l’apprentissage (Big Data) et des progrès théoriques ont permis des avancées spectaculaires qui ont remis l’IA sur le devant de la scène, et ainsi accélérer l’analyse de données. La promesse de la data intelligente devient-elle une réalité ? à suivre…

Fanvoice-IA-Machine-Learning-Data-Intelligence-Insights

IA & Marketing : la promesse de la data intelligence ! (Part 2)

L’Intelligence Artificielle fait partie comme le Big Data ou la Blockchain de ces concepts technologiques que l’on évoque bien plus qu’on ne comprend vraiment. Les notions à la base de l’IA restent très floues, et on a encore du mal à comprendre comment cela fonctionne concrètement.

Fanvoice-IA-MachineLearning-BigData-Blockchain-Analyse

 

Comprendre l’IA, oui mais…

L’intelligence artificielle est, en tout cas un concept chargé d’affect qui touche à l’essence de l’humain et soulève logiquement autant d’espoirs que de craintes. En imitant l’homme dans l’imaginaire collectif, la technologie peut pour certains, assister l’humain et le soulager, et, pour d’autres, le remplacer et l’aliéner. C’est un peu comme le problème du verre à moitié plein ou à moitié vide.

Il faut tout d’abord comprendre que la notion d’intelligence dont on parle dans l’IA est, pour l’instant du moins, focalisée sur un processus unique, qui cherche à reproduire les mécanismes du raisonnement humain sur une problématique bien précise. On parle d’IA faible par opposition à l’IA forte, consciente d’elle-même et capable de simuler les actions et raisonnements humains dans toutes leurs dimensions.

Ce qui caractérise l’IA se résume en deux mots : Machine Learning. En effet, alors qu’un programme informatique classique doit prévoir à l’avance tous les cas de figures et les combinaisons d’événements, un programme d’IA basé sur du Machine Learning est conçu pour apprendre tout seul, s’adapter aux situations nouvelles dans le contexte défini et évoluer pour mieux prendre en compte l’avenir.

Fanvoice-IA-MachineLearning-AI-études

 

Comment la machine apprend ?

Pour apprendre, un système a besoin de données en entrée qui vont lui permettre de s’entrainer pour être en mesure d’effectuer des prédictions sur des nouvelles données qui lui seraient présentées. Cet apprentissage peut être supervisé ou non supervisé.

En mode supervisé, le jeu de données fourni pour entrainer le système doit comporter la réponse pour chaque enregistrement, sur la variable à prédire. Ainsi, si vous souhaitez mettre en place un algorithme de scoring de nouveaux clients, vous devez fournir au système un jeu d’entrainement comportant des clients existants avec leurs caractéristiques (prédicteurs) et le score qui est associé à chacun d’entre eux (valeur à prédire).

L’apprentissage non supervisé fonctionne sans valeur de référence. Le jeu d’entrainement ne comporte que des caractéristiques à partir desquelles le système est chargé de constituer des groupes. Cette approche correspond aux processus de clustering connus des professionnels des études marketing. Les groupes ainsi définis en détectant des similarités entre les contenus et les individus du fichier, peuvent être étiquetés a posteriori par l’expert « humain » Data Analyst après analyse de leurs caractéristiques.

Après cette phase d’apprentissage, il est possible d’interroger le système sur des nouvelles données pour avoir un pronostic en fonction de ce qu’il a appris. Cette interrogation peut être ponctuelle ou en direct.

Le premier cas correspond à un usage analytique, où l’expert Data Analyst utilise le programme d’IA pour qualifier un fichier de données, en d’autres termes pour identifier les données pertinentes et exclure les données aberrantes qui pourraient fausser/biaiser l’analyse ou le modèle généré.

Quant au deuxième cas, il correspond à une interaction en temps réel avec l’algorithme d’IA au travers d’une interface dynamique qui permet de communiquer avec la machine. Ainsi, l’expert humain agit sur la machine par exemple pour : identifier des profils bien précis, isoler des comportements émergeants, identifier des signaux faibles, évaluer les caractéristiques de certains segments pour déterminer les actions à mener, etc. C’est le cas de l’algorithme d’IA développé par la startup française FANVOICE, qu’elle utilise pour analyser les contenus des campagnes de co-création et d’innovation menées sur sa plateforme, pour de nombreuses grandes marques dans l’énergie, Internet de l’objet, alimentaire, banque, assurance, etc.

Fanvoice-IA-MachineLearning-Apprentissage-Supervisé-NonSupervisé 

Quelles sont les clés de réussite d’un apprentissage pertinent de la machine chez FANVOICE ?

La qualité des données est bien sûr essentielle pour un apprentissage pertinent de la machine. Il est donc important de veiller à plusieurs paramètres pour concevoir un corpus de données de qualité :

  • Taille du fichier : un corpus trop petit ne permettra pas d’obtenir un modèle de qualité. Les règles classiques d’échantillonnage et de nombres utilisées en Market Research s’appliquent aussi dans ce cas.
  • Structure des campagnes : les campagnes powered by FANVOICE intègrent une cartographie d’inspiration créée à partir d’un design et d’une méthodologie marketing qui favorisent un recueil de données ciblées, en répondant à une problématique précise déclinée en thématiques. Ainsi, cette cartographie d’inspiration, bien conçue pour traduire la problématique de la marque, permet de guider les participants en les invitant à s’exprimer sur des sujet utiles qui répondent aux objectifs assignés à la campagne.
  • Animation et modération : l’animation des fils de discussion de la plateforme par un Community Manager et par un Expert projet contribue à générer des contenus riches et pertinents au regard de la problématique adressée, et donc de contribuer de prime abord à un modèle d’analyse pertinent et porteur d’insights.
  • Représentativité des données : les données en entrée doivent intégrer toutes les nuances que vous souhaitez dégager et exclure les données aberrantes qui pourraient fausser l’analyse (par exemple via une liste de stop words adaptée à la campagne).
  • Qualité des prédicteurs : les prédicteurs doivent permettre à l’algorithme de dégager un modèle d’analyse pertinent. La présence d’éléments inutiles (bruits) peut fausser le système et aboutir à une modélisation inefficace.

Fanvoice-Cocréation-IA-MachineLearning-Etudes-Analyse-Données

 

L’humain agit sur la machine et reste au cœur du processus décisionnel !

L’IA ne fait pas disparaître l’expertise humaine, bien au contraire. Les algorithmes d’intelligence artificielle basent leur fonctionnement sur ce qui leur est fourni au départ. Leur capacité de calcul rapide et de combinaisons complexes dépasse les nôtres pour gagner toujours en précision et en efficacité.

Enfin, les machines seules, aussi efficaces soient-elles, ne peuvent acquérir ni sagesse ni bon sens, propriétés – non mathématiques donc non transformables en algorithmes – propres à l’être humain. Kasparov, le précise dans sa parole : « Les machines font des calculs. Nous comprenons les choses. Les machines reçoivent des instructions. Nous avons des buts. Les machines ont pour elles l’objectivité. Nous avons la passion. Nous ne devrions pas avoir peur de ce que nos machines peuvent faire aujourd’hui. Nous devrions plutôt nous inquiéter de ce qu’elles ne peuvent toujours pas faire car nous aurons besoin de l’aide de ces nouvelles machines intelligentes pour faire de nos rêves les plus fous une réalité »

Fanvoice-Cocréation-IA-MachineLearning-DataIntelligence

La raison d’être de l’IA n’est donc pas de remplacer l’humain mais au contraire de lui simplifier la tâche, tout en le replaçant au centre de son activité. La course à la pertinence et à la performance des données pour en extraire de la data intelligence est en marche !

Fanvoice-IA-Machine-Learning-Data-Intelligence-Insights

Quand le Machine Learning devient un incontournable détecteur de tendances !

Le Machine Learning ou apprentissage automatique révolutionne la connaissance client en brassant l’immensité du big data pour en tirer des corrélations et des déductions singulières, jamais envisagées par les marketeurs. Et si le marketing devenait une science exacte ?

Fanvoice-MachineLearning-Cocréation-IA-Détecteur-Tendances

 

Le Machine Learning, détecteur de tendances :

L’un des usages réussis en marketing du Machine Learning est sa capacité à mesurer scientifiquement ce que le consommateur pense et perçoit des marques à tout moment. Il est capable d’identifier des nouveaux segments de marché, de nouvelles tendances, de percevoir l’arrivée de signaux faibles en temps réel, etc.

Au regard de ces enjeux et opportunités, les Directions Marketing investissent massivement dans l’Intelligence Artificielle. Selon un récent rapport de l’ODC (International Data Corporation), les dépenses des Directions Marketing en logiciels d’IA ont explosé dans le monde et représentent 360 millions de dollars en 2016. Ce chiffre devrait atteindre plus de 3 milliards en 2020, ce qui représente une croissance de 550%.

L’apprentissage machine donne les mains libres aux départements marketing pour passer plus de temps sur des activités à plus forte valeur ajoutée comme l’analyse, l’évaluation des segments et des opportunités stratégiques, plus que sur de la collection de données clients, l’intégration de données et la détection d’anomalies.

L’apprentissage machine est déjà présent au sein de l’écosystème des entreprises, il va être beaucoup plus souvent embarqué dans nombre voire la totalité des aspects du marketing digital au travers de l’acquisition et la rétention clients et de la gestion de la fidélité.

Le Machine Learning, pilier incontournable de l’Intelligence Artificielle, entre en scène et bouleverse le marketing.

Fanvoice-MachineLearning-IA-Détecteur-Tendances-Opportunité-Etudes-Marketing

 

Comment le Machine Learning procède concrètement ?

Le Machine Learning est idéal pour exploiter les opportunités cachées du Big Data. Cette technologie permet d’extraire de la valeur en provenance de sources de données massives et variées (réseaux sociaux, plateformes de marques, forums, programmes de fidélité, etc) pour répondre aux besoins « métier » du marketing. Elle est très efficace dans les situations où les insights doivent être découverts à partir de larges quantités de données diverses. Contrairement aux outils analytiques traditionnels, le Machine Learning se révèle plus efficace en termes de précision et de vitesse. Plus les données injectées à un système Machine Learning sont nombreuses, plus ce système peut apprendre et appliquer les résultats à des insights de qualité supérieure. Le Machine Learning permet de découvrir des patterns enfouies dans les données en moins de temps qu’un traitement manuel « humain » et donc avec plus d’efficacité.

Ainsi, le Machine Learning propose de plonger dans les méandres de l’inconscient pour faire émerger  des tendances grâce à des data toujours plus nombreuses à passer au tamis des algorithmes pour mieux comprendre les comportements, et détecter les intentions. Grâce à sa puissance d’analyse, cette avancée technologique de l’Intelligence Artificielle permet aux entreprises de tirer partie de la richesse des données qu’elles collectent.

Les algorithmes de machine learning croisent des données hétérogènes (éloignées) les unes des autres pour déterrer des corrélations jamais mises à jour. C’est notamment grâce à la baisse du coût de stockage des données, et grâce à l’augmentation continue de la puissance de calcul des systèmes informatiques que l’Intelligence Artificielle se révèle aujourd’hui prometteuse et disruptive, avec des résultats étonnants qu’un esprit humain aurait balayé d’un revers de la main. Au final, cette perception ultraprécise des comportements permet d’affiner et d’individualiser les informations et les offres présentées au client. Un exemple connu : Amazon recommande déjà à chaque internaute intéressé par un livre, des ouvrages connexes qui peuvent lui plaire. Spotify ou Netflix recommandent avec une grande précision des musiques, films et séries télévisées qui sont susceptibles de plaire aux utilisateurs à partir de leurs historiques.

Cette perception des comportements clients projette aussi les marques dans le futur en leur ouvrant une fenêtre sur les évolution probables des attitudes et des habitudes de consommation : c’est l’aspect prédictif du Machine Learning qui anticipe les besoins et les désirs des clients. Elle favorise aussi une relation client plus proche, plus pertinente et, par conséquent, plus efficace.

Fanvoice-MachineLearning-IA--Etudes-Marketing-DataIntelligence-Analyse

 

Machine Learning et Big Data : une libération pour les marketeurs ?

L’apprentissage automatique change radicalement le Big Data : la découverte de nouveaux schémas de comportement des consommateurs est rendue possible grâce à des calculs et des analyses multi-dimensionnelles. Ainsi, il peut automatiser la découverte de nouveaux sujets de préoccupation des consommateurs et comprendre la corrélation entre deux centres d’intérêt/thématiques a priori très éloigné(e)s.

Le Machine Learning permet de faire d’extraordinaires progrès en matière de segmentation dynamique, fine et opérable des cibles.

Fanvoice-MachineLearning-IA--Etudes-Marketing-DataIntelligence-BigData

Et si ces technologies apprenantes libéraient les marketeurs sur certains aspects ? Ainsi, la phase fastidieuse de collecte de data étant réduite, et son traitement devenu intelligent, permet de consacrer plus de temps à la création de valeur ajoutée : une avancée de taille ! D’autre part, le Machine Learning accroît la vitesse de perception des changements et la capacité de réactivité des marques. La révolution du Machine Learning est en marche ! Aux marketeurs de la saisir.

Fanvoice-IA-Machine-Learning-Data-Intelligence-Insights

Comment l’analyse sémantique propulse l’innovation
marketing et aide à comprendre les foules ?

Dans le domaine du marketing, la croyance en la toute-puissante Data s’affirme avec force : on veut tout automatiser, tout optimiser, tout décrypter et tout personnaliser grâce à des algorithmes et de la Big Data. Du coup, les marques font face à une explosion du volume de données “non structurées” qu’elles doivent classifier, et analyser pour visualiser ce qui les aidera à prendre les bonnes décisions. Automatiser, oui, mais sans intelligence ?

cocreation-fanvoice-data

 

Peut-on analyser efficacement les données textuelles de manière automatique ?

Dans le cadre de projet participatifs, comme des “campagnes” de co-création ou des tests de concepts, les marques récoltent des données textuelles, des images, des abréviations et émoticônes. Ces contenus non-structurés n’échappent pas au besoin d’analyse. Comment les traiter ? Le Traitement Automatique des Langages (TAL) est une solution.

Cette technique permet depuis une plus d’une quarantaines d’années d’automatiser la reconnaissance des concepts (entités nommées), la classification automatique d’un document, l’analyse du sentiment et des émotions. Toutefois, les approches classiques de TAL ont montré leurs limites avec l’accélération des données générées par les écosystèmes digitaux (forums, sites et plateformes, où les utilisateurs produisent de très grands volumes de données). En effet, ces approches (TAL) nécessitent que des experts, de profil infolinguiste, passent énormément de temps pour énumérer manuellement des “règles”. De plus, les systèmes obtenus nécessitent de privilégier soit le nombre d’annotations produites (pour lutter contre le silence), soit leur qualité (pour éviter d’avoir des résultats “bruités”). En d’autres termes, il fallait choisir entre un système produisant beaucoup de données (mais éventuellement bruitées) et un autre donnant des résultats de qualité (mais en trop petite quantité).

Pour lever ces limites, les techniques d’apprentissage automatique ou de Machine Learning ont été introduites au début des années 2005 permettant d’obtenir plus rapidement de meilleurs résultats.

cocreation-fanvoice-data-analytics

 

L’analyse des données non structurées : un enjeu majeur pour les marques

Contrairement aux données marketing structurées, facilement classifiables et quantifiables (exemple : les résultats d’une enquête de satisfaction où l’âge est une donnée structurée car les tranches d’âge sont déterminées a priori), les données non structurées (ex : données textuelles) sont complexes à analyser. Les consommateurs s’expriment à travers une multitude de canaux et produisent beaucoup de verbatim sur internet. L’homme est dépassé pour agréger ces informations et les comprendre.

Pour être au service de l’innovation marketing et aider les marketeurs à comprendre les marchés, ces données doivent être décryptées, classées, quantifiées. L’analyse sémantique se révèle très utile pour rendre cela possible, et l’intelligence artificielle vient au secours de la compréhension du langage humain puisqu’elle apporte de nouvelles opportunités pour faciliter le traitement et l’analyse de grands volumes de données non structurées. D’ailleurs, selon l’institut d’études Gartner, une entreprise sur deux s’intéresse de près aux innovations technologiques telle que le Machine Learning permettant la compréhension du comportement du consommateur via des masses de données textuelles (lien).

cocreation-fanvoice-data-analyze

 

L’intelligence artificielle au service de l’analyse sémantique

Le Machine Learning est une technologie d’intelligence artificielle permettant à la machine d’apprendre sans avoir été programmée explicitement à cet effet. Autrement dit, il s’agit de « faire apprendre » à la machine à réaliser une tâche qui nécessite classiquement de l’intelligence humaine.

Pour apprendre et se développer, la machine a toutefois besoin de données à analyser et sur lesquelles s’entraîner. De ce fait, le Big Data est l’essence du Machine Learning, et le Machine Learning est la technologie qui permet d’exploiter pleinement le potentiel du Big Data

Ainsi, le Machine Learning est idéal pour extraire de la valeur à partir de données textuelles massives et sans avoir besoin de compter sur un humain. Toutefois, dans le cadre de projets de co-création, cette approche automatisée, aussi avancée soit elle, ne remplace pas l’expertise métier des études : elle la complète et l’enrichit. La Data est un moyen et non une fin en soi. C’est son exploitation avisée et adaptée au contexte d’utilisation qui va lui conférer de la valeur. La Machine doit donc permettre à l’humain de se dédouaner des tâches automatisables pour lui permettre de se concentrer sur son expertise métier et apporter une forte valeur ajoutée.

Aujourd’hui, on parle du concept de cobot ou « collaborative robots », il s’agit de robots d’un nouveau genre qui ont une particularité ; ils travaillent en collaboration avec un humain, dopant sa productivité en le délestant des missions les plus ingrates, éprouvantes et répétitives. Ainsi, il est crucial de souligner l’importance et la valeur ajoutée de la supervision de l’humain sur la machine.

A l’ère des plateformes de co-création et des communautés de marque, les consommateurs s’expriment plus librement autour de leurs expériences sur les produits et les services, laissant libre cours à leur enthousiasme, leur mécontentement, leurs frustrations et leurs attentes, générant ainsi des grandes quantités de données (verbatim clients) qui présentent une source d’informations précieuses pour les marques.

L’enjeu pour les marques est d’analyser rapidement ces données marketing pour en tirer des vérités actionnables. L’utilisation de l’intelligence artificielle dans les solutions d’analyse sémantique aide l’humain à comprendre comment exploiter cette mine d’or livrée par les consommateurs et à en tirer des plans d’action.

cocreation-fanvoice-plateforme

 

L’analyse sémantique chez FANVOICE

Sur la plateforme FANVOICE, les membres de communautés de marques participent à l’innovation des entreprises en réalisant plusieurs actions. Ainsi, chaque membre de la communauté peut poster des idées ou des feedbacks et commenter les idées postées par les autres membres.

Ces verbatim, une fois recueillis, représentent des centaines de milliers de mots. L’analyse sémantique de ce corpus intervient pour en valoriser les contenus : quantification et qualification des résultats, détection des zones de convergence formant les principales thématiques avec leurs poids et leurs corrélations, et identification des signaux faibles porteurs d’informations pertinentes.

L’analyse aide à établir une cartographie des perceptions, attentes, et inquiétudes de la communauté et révèle d’autres enseignements que l’homme aurait difficilement identifiés dans la mesure où le signal était trop faible. La démarche permet aujourd’hui de repérer un signal faible qui nécessite une interprétation au regard de la stratégie de la marque et de ses objectifs. Cela pourrait être une opportunité de marché à saisir pour la marque, ou une zone de vigilance qui soulève des interrogations auprès de la communauté, voire une innovation de rupture.

Par exemple, dans le cadre d’une campagne exploratoire organisée par une grande entreprise dans le secteur des boissons, la communauté FANVOICE a été mobilisée pour échanger autour du « moment Bière ». Les participants ont été invités à s’exprimer sur quatre thématiques pour explorer le sujet : les éléments pour un bon moment bière, les frustrations, le dernier moment bière, les idées innovantes pour le rendre encore meilleur.

La campagne a permis de récolter un corpus très riche de plus de 2400 idées et commentaires, et la solution d’analyse sémantique a permis ensuite de construire la cartographie du « moment Bière idéal ». L’analyse de cette cartographie a aidé les chargés d’études à valoriser les principales thématiques abordées (avec leurs poids et les corrélations entre elles) et à les interpréter au prisme de la problématique adressée (les indispensables, les opportunistes, et les idées à fort potentiel).

Enfin, il en convient d’en tenir compte, la data ne parlera pas toute seule, il faut se donner les moyens humains de la faire parler. Les 1ers indicateurs seront mis en avant automatiquement sous la forme de data viz ou de clusters, intégrant de plus en plus de corrélations, mais c’est encore l’homme qui les rend compréhensibles dans un rapport d’analyse avec des décryptages. Les temps d’analyses sont divisés par 2 à 10 suivant les projets, mais l’humain reste indispensable. Il s’agit donc encore à ce jour d’une approche “cyborg” : mi-homme, mi-machine. Bref, n’ayons pas peur de nous faire remplacer trop vite par un OS, les datas, algorithmes et autres Intelligence Artificielle vont encore avoir longtemps besoin des hommes pour être utiles et pertinents.

cocreation-fanvoice-dataviz