La seconde jeunesse du quali

En réponse à la profusion des données disponibles sur le Web, les méthodes de traitement et d’analyse dites « qualitatives » connaissent une seconde jeunesse. Les techniques se précisent et les outils s’affutent...

En réponse à la profusion des données disponibles sur le Web, les méthodes de traitement et d’analyse dites « qualitatives » connaissent une seconde jeunesse. Les techniques se précisent et les outils s’affutent.

De nouvelles opportunités

L’émergence du big data offre de nouvelles opportunités et pose notamment le problème du traitement et de l’analyse d’un gros volume de données pas toujours structurées. Le web favorise la vulgarisation de nouveaux protocoles d’échange et de collecte, et provoque ainsi la multiplication des opinions émises sur les réseaux sociaux, les forums ou les communautés online. Ce contexte nous met face à de nouveaux enjeux : comprendre tout ce qui se dit et en extraire du sens, en identifiant les thèmes significatifs, mais aussi – si possible – en dégageant clairement la tonalité et les sentiments exprimés.

De nombreuses données disponibles

Les données textuelles non structurées sont traditionnellement issues de méthodes de collecte qualitatives comme des retranscriptions d’entretiens individuels ou de focus groups, des contenus narratifs ou des réponses à des questions ouvertes d’enquêtes. S’y ajoutent désormais, en immense quantité, des articles spécialisés et/ou leurs mots-clés, des résumés, des contenus de sites web, de blogs, de forums et de réseaux sociaux et des productions épistolaires de toutes sortes : lettres ou emails de réclamation etc.

Un large panel d’analyses à mobiliser

Les objectifs opératoires se regroupent en quatre catégories. On veut tout d’abord naviguer dans le texte et en prendre connaissance selon différentes séquences. Il s’agit ensuite de résumer pour comprendre et identifier rapidement le contenu principal du corpus pour le thématiser et le qualifier (repérer la polarité du texte et les sentiments évoqués). Une autre préoccupation consiste à contextualiser les résultats, à comparer les catégories de locuteurs et à repérer qui dit quoi. Enfin, le chef de projet cherchera à raconter (ou reporter) via des tableaux, des graphiques, des cartes, ou des indicateurs statistiques, qui seront illustrés grâce à la production d’extraits (verbatim) significatifs ou originaux.

Stéphane Ganassali, Conseiller scientifique, Le Sphinx

Stéphane Ganassali, Conseiller scientifique, Le Sphinx

Les différentes méthodes d’analyse sont assez nombreuses et s’opposent tout d’abord en fonction d’un objectif d’exploration ou de confirmation : a-t-on au préalable une grille de lecture et de codage prédéfinie du corpus étudié ? Les techniques diffèrent également selon qu’elles recherchent une vision plutôt synthétique ou détaillée (voir figure ci-dessus). Parmi les protocoles les plus fréquents, le praticien pourra réaliser des analyses de contenu manuelle ou mobilisant un thésaurus général, il pourra réaliser des analyses lexicales, constituer des dictionnaires thématiques ou extraire des verbatim caractéristiques.

Quelques applications

Parmi les applications récentes que nous pouvons évoquer, nous mentionnerons tout d’abord l’analyse systématique des commentaires de consommateurs postés sur des sites touristiques communautaires comme Trip Advisor ou Booking.com. L’application d’analyses textuelles permet de dégager les thématiques sensibles en fonction d’un type de destination, d’une catégorie d’hébergement ou d’une cible particulière (famille, couple, affaires par ex.). L’analyse thématique s’exécute souvent via des dictionnaires de mots-clés constitués a priori par les chargés d’étude.

Sur le thème de la consommation familiale et de sa transmission, des chercheurs de l’Université de Savoie et de l’EM Strasbourg ont eu accès à l’ensemble des emails rédigés par les enfants et leurs parents sur le site Web de la Poste dédié au Père Noël. Au-delà des cadeaux et des marques les plus commandés, l’analyse de données textuelles a permis de dégager des styles de consommation différents, qui se positionnent et s’opposent selon des dimensions quantitatives, éducatives, électroniques ou plus authentiques.

Enfin, on pourra indiquer un grand nombre d’applications liées à une étude longitudinale du traitement d’un thème d’actualité sur les réseaux sociaux comme Twitter ou Google+. Le principe consiste à récupérer systématiquement les contenus selon une fréquence régulière (hebdomadaire par exemple) puis à appliquer un schéma d’analyse fixe, selon – par exemple – un dictionnaire thématique précis.

Quels outils ?

Les outils qui permettent aujourd’hui la récupération, le traitement et l’analyse des données non structurées connaissent logiquement une deuxième jeunesse. Pour la récupération de données sur le Web et l’analyse sémantique, Sphinx Quali est un logiciel qui allie puissance et convivialité d’utilisation.

Auteur : Stéphane Ganassali, Conseiller scientifique, Le Sphinx

***

Un article de notre dossier Etudes Marketing (2014)

***

(c) ill. Shutterstock – Abstract background of pencils with extremely shallow dof

avatar
L'invité de Marketing Professionnel tient une Tribune Libre. Profil des invités et Tribunes Libres publiées.


Commentez !

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Vous pouvez utiliser ces balises et attributs HTML : <a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <strike> <strong>