Les commentaires de vos clients peuvent faire le succès de votre entreprise ou la mener à sa perte. Comment interpréter efficacement un grand volume de données de retours d’expérience à l’ère numérique ?
Avec l’essor des médias sociaux et l’explosion du volume de données sur le web, traiter adéquatement des données non structurées et en faire ressortir les informations pertinentes constitue un véritable enjeu pour les entreprises.
Il est communément admis aujourd’hui que la grande majorité des informations dans toute entreprise se trouve sous forme de rapports, de formulaires complétés, d’emails, de notes de service, de rapports d’incidents, de transcriptions d’échanges, sans compter les tweets et commentaires disponibles sur les différentes plateformes d’échanges et de médias sociaux. Cette immense quantité de données brutes générées quotidiennement constitue une mine d’or pour de nombreux acteurs désireux de savoir ce qui se dit sur les réseaux à propos d’une marque, d’un produit, ou pour ceux qui souhaitent dégager un profil précis de leurs clients actuels et potentiels, obtenir une meilleure compréhension des concurrents et des marchés et développer de nouvelles stratégies pour la croissance future de leur entreprise.
Comment exploiter au mieux cette mine d’informations ?
La méthode traditionnelle pour analyser ce type de données non structurées consiste en un codage essentiellement manuel. Par exemple, dans le cas d’un sondage avec des questions ouvertes, il s’agit de lire l’ensemble des réponses pour comprendre l’éventail des sujets soulevés; créer un livre de codes; lire chaque réponse; appliquer manuellement des codes pour chaque réponse pour ensuite effectuer une analyse de ces codes. Cependant, coder et analyser des milliers de commentaires à l’aide d’une approche manuelle s’avère une démarche fastidieuse et onéreuse en temps, en énergie et en moyens, d’autant plus qu’elle est souvent sujette à des erreurs de codage ou d’interprétation.
Devant la taille considérable et la complexité de données non structurées associées au Big Data, mettre en place une stratégie efficace d’analyse de ce type de données s’impose.
Le text mining : puissant et robuste
Les techniques d’analyse de texte permettent de surmonter cet obstacle et de produire rapidement des résultats à partir d’un grand volume de données textuelles.
Il est possible, en effet, d’adopter une approche exploratoire des données textuelles en appliquant une combinaison de techniques TAL (traitement automatique des langues), de statistiques et d’apprentissage machine pour extraire rapidement des informations pertinentes à partir d’un grand volume de données. Le traitement analytique permet de comprendre les préférences, les perceptions et les besoins du client. Il offre la possibilité d’identifier et d’extraire rapidement des thèmes, des opinions et des sentiments. L’analytique textuelle permet également d’associer ces données non structurées à des données structurées (ex. notes d’appréciation, données démographiques, montant dépensés, etc.) ou d’associer des données de voix du client (« voice of the customer » ou VOC) à d’autres mesures de performance.
Au-delà de l’analyse de sentiments et de l’analyse des médias sociaux
Devant l’intérêt croissant pour les outils d’analytique textuelle, de plus en plus de solutions sont proposées sur le marché, mais la majorité d’entre elles se concentrent presque exclusivement sur l’analyse de sentiments des données issues des médias sociaux. Ce champ d’application très spécifique ne rend pas justice au potentiel de cette approche d’analyse, ni à son vaste champ d’applications. Bien au-delà de l’analyse des médias sociaux, les entreprises qui bénéficieront le plus de la mise en place des outils analytiques textuels seront celles qui reconnaissent les possibilités offertes par des données non structurées déjà disponibles ou facilement accessibles au sein même de leur entreprise. L’engouement récent pour l’analyse du sentiment devrait également être tempéré par une évaluation minutieuse de son utilité et de son exactitude (souvent beaucoup moins fiable que ce que les fournisseurs de solutions magiques voudraient laisser croire).
Des analyses textuelles plus poussées et plus précises
Il faut garder à l’esprit que l’analyse du langage humain est une tâche très complexe, et l’extraction automatique d’informations pertinentes à partir de données textuelles en est encore, à bien des égards, à ses débuts. Les novices en text mining seront sans doute déçus de savoir qu’ils ne doivent pas s’attendre à obtenir des réponses complètes et précises sans un effort initial de leur part. Aller au-delà de l’évidence pour augmenter la qualité et la précision des informations obtenues nécessite souvent un travail attentif de la part de l’analyste. Cela consiste, dans bien des cas, à élaborer un dictionnaire d’analyse de contenu spécifique au domaine, que l’on désigne parfois par le nom « taxonomie » ou l’expression « modèle de catégorisation ». Un tel dictionnaire est composé de multiples catégories, chacune associée à un ensemble de mots clés, d’idiomes, d’expressions courantes et de règles de proximité. Cette tâche cruciale peut s’avérer longue à mettre en place, mais elle est souvent facilitée par l’existence d’outils d’assistance disponibles dans les bons logiciels d’analyse de texte. Une fois élaborée et validée, une telle taxonomie devient très précieuse, car elle permet d’automatiser en bonne partie, voire en totalité, l’analyse des données textuelles nouvellement obtenues ou de traiter les flux entrants de données textuelles en temps réel.
Appliquée selon les règles de l’art, l’analytique textuelle peut réellement représenter un atout précieux pour les entreprises qui sauront en tirer profit. La richesse des informations obtenues leur conférera un avantage concurrentiel issu de l’analyse de données souvent peu exploitées, mais pourtant à portée de main.
Auteur : Normand Péladeau, Président, CEO, Provalis Research
***
Lire le Dossier Marketing études 2017
(c) ill. DepositPhotos