Traitement Automatique du Langage Naturel (TALN) : tout savoir sur l’analyse de sentiment

En Intelligence Artificielle, le traitement automatique de la langue (TALN) est une discipline qui vise à faciliter la compréhension du langage naturel par les machines. Étape essentielle pour identifier la palette des émotions humaines exprimées dans un texte. Des premières approches lexicales aux méthodes en deep learning les plus récentes, l’analyse de sentiment n’aura bientôt plus de secrets pour vous.

Sommaire

  1. Qu’est-ce que l’analyse de sentiment ?
  2. De la polarité et de la granularité des opinions
  3. Quelles sont les applications de l’analyse de sentiment ?  
  4. Quelles sont les méthodes de classification utilisées ?
  5. L’avenir de l’analyse de sentiment

Qu’est-ce que l’analyse de sentiment ?

L’analyse de sentiment, aussi appelée fouille d’opinion (« opinion mining » en anglais), est l’étude par le machine learning des émotions exprimées par les individus à l’égard d’un produit, d’un service, d’une marque ou plus généralement d’un sujet sur lequel se porte leur attention. L’analyse de sentiment est l’une des applications du Traitement Automatique du Langage Naturel (« Natural Language Processing » ou NLP en anglais) qui regroupe, selon François Yvon, « l’ensemble des recherches et développements visant à modéliser et reproduire, à l’aide de machines, la capacité humaine à produire et à comprendre des énoncés linguistiques dans des buts de communication ».

Historiquement, l’analyse de sentiment s’appuie essentiellement sur des corpus de textes dématérialisés, extraits du web, des réseaux sociaux ou des ressources internes de l’entreprise (courrier, mails, tchats, transcription d’échanges téléphoniques, etc.). Cependant, avec le développement des technologies vidéo et vocales, l’étude des émotions s’applique désormais aussi bien à la sémantique (sens des mots) qu’aux intonations de la voix ou aux expressions faciales. On parle alors plus largement d’informatique affective (« affective computing » en anglais), soit la capacité des machines à reconnaitre, à exprimer, à synthétiser et à modéliser les émotions humaines.  

De la polarité et de la granularité des opinions

L’enjeu de l’analyse de sentiment est de réussir à déterminer dans un texte l’orientation des opinions émises à l’égard d’une « entité » (l’objet, le produit, l’évènement, la marque ou l’individu cible de l’opinion) ou à l’un de ses « aspects » (un élément ou une subdivision spécifique de l’entité). L’opinion peut être ainsi de polarité positive, négative ou neutre, et s’étudier avec différents niveaux de granularité : 

  • niveau document (« document level ») : l’analyse de sentiment s’applique à l’ensemble du texte et en fait ressortir l’opinion générale. 
  • niveau phrase (« sentence level ») : l’analyse se concentre sur la polarité de l’opinion exprimée dans chaque phrase du texte. 
  • niveau entité (« entity level ») : certains textes peuvent exprimer des avis sur différents produits, services, marques ou sujets. L’analyse de sentiment fera ressortir pour chaque entité cible la polarité correspondante.   
  • niveau aspect (« aspect level ») : il s’agit ici d’analyser la perception d’un individu sur les différentes caractéristiques (ou les différents éléments) d’une même entité. 

Prenons l’exemple d’un commentaire de cinéphile sur le film The Rental (2020), réalisé par Dave Franco : « On sent dans The Rental une application louable pour ce qui est de l’atmosphère, du casting et des personnages. Mais le film fait finalement flop en se contentant de recycler sans originalité les vieilles recettes du slasher movie ».

Au niveau document, le ressenti exprimé sur l’entité The Rental est plutôt négatif. La syntaxe du commentaire, articulé autour d’un « mais » central, renforce le sentiment de « flop » énoncé en seconde partie. En revanche au niveau phrase, l’opinion de la première est de polarité positive, tandis que la polarité de la seconde est négative. Enfin, si nous nous intéressons à la polarité des aspects de l’entité, l’opinion exprimée sur l’atmosphère, le casting et les personnages est positive, alors que l’avis sur le scénario se révèle négatif. 

Quelles sont les applications de l’analyse de sentiment ?

La détection et la classification des opinions par le machine learning connaissent de nombreux champs d’application. L’analyse de sentiment s’est ainsi étendue de l’informatique aux sciences de gestion et aux sciences sociales telles que le marketing, la finance, les sciences politiques, les communications, les sciences de la santé et même l’histoire, en raison de son importance pour les entreprises et la société dans son ensemble. Dans de nombreux contextes, connaître rapidement l’opinion des autres permet de prendre de bien meilleures décisions

Voici quelques applications fréquentes de l’analyse de sentiment par les entreprises : 

  • Étudier la satisfaction produit / service
  • Le machine learning permet de dresser la cartographie des caractéristiques produits (« aspect analysis ») les plus appréciés par les consommateurs, et d’alerter la Direction Marketing en cas de critiques négatives sur tel ou tel aspect d’un produit ou service. 

  • Surveiller la réputation de marque
  • Dans un monde informationnel, l’opinion du public à l’égard d’une marque est l’un des actifs les plus importants de l’entreprise. Si une réputation positive rassure les investisseurs et permet d’augmenter significativement les marges commerciales, une crise d’image peut avoir de lourdes conséquences sur la stabilité économique et financière d’une entreprise. 

  • Aider le SAV à adopter le bon comportement
  • L’analyse de sentiment est un outil précieux pour les collaborateurs au contact de la clientèle (Support, SAV, Relation clients, etc.). Le machine learning permet d’analyser en temps réel la nature et l’intensité des émotions exprimées par les consommateurs dans leurs interactions avec l’entreprise, et de recommander aux collaborateurs l’utilisation de tel ou tel modèle de réponse en retour.

  • Prédire les tendances marché (analyser les signaux faibles)
  • Dans certains cas, l’opinion des individus peut avoir une valeur de suggestion. La classification opérée par le machine learning peut alors faciliter l’émergence de « bonnes idées », la détection de signaux faibles ou l’anticipation de tendances marché qui pourraient donner un avantage compétitif aux entreprises.  

  • Les exemples d’Amazon et de Starbucks
  • L’avantage du machine learning, c’est qu’il permet d’obtenir rapidement une vue synthétique de l’opinion formulée dans un volume de données trop important pour être traité par l’être humain. Cependant, chaque contexte étant spécifique, l’analyse de sentiment ne portera pas sur les mêmes aspects, d’une entreprise à une autre. Ainsi Amazon voudra extraire et catégoriser la polarité des messages selon qu’ils concernent les livraisons, la facturation, les promotions en cours ou les produits disponibles à la vente. De son côté Starbucks préférera classer les messages autour de l’expérience dans tel ou tel point de vente, des nouvelles saveurs de café, de la perception sur l’hygiène, des commandes en ligne, etc.

    Quelles sont les méthodes de classification utilisées ?

    La quantité colossale de données entrantes rend l’analyse, la catégorisation et la génération d’insights de plus en plus complexes. La qualité des résultats obtenus est également étroitement liée aux avancées de la recherche en matière de traitement automatique du langage naturel (NLP). Des premières approches lexicales aux Intelligences Artificielles les plus récentes, parcourons les différentes méthodes d’apprentissage pour l’analyse de sentiment. 

  • L’approche lexicale
  • L’approche lexicale propose de déduire la polarité des opinions exprimées dans une phrase ou un document par une analyse du sens des mots. Cela suppose d’avoir qualifié et classé des instances de phrases et de mots en amont, sous forme de dictionnaires recensant à la fois les termes, leur polarité et le contexte dans lequel elle est valable. La création des lexiques peut être manuelle ou automatique, via des corpus de textes annotés et une vue statistique des mots apparaissant le plus souvent dans les documents positifs ou négatifs. 

    Cette méthode en vogue dans les premières années de l’analyse sémantique a l’inconvénient d’être gourmande en ressources « humaines » lors de la conception des dictionnaires de référence. L’approche lexicale, en agissant au niveau des « mots », atteint rapidement ses limites dès lors que l’auteur des messages analysés prend quelques libertés avec la langue (contraction, émoticone, faute d’orthographe, etc.) ou s’exprime dans un type de langage éloigné de l’alphabet latin. 

  • L’apprentissage supervisé
  • Dans une approche « supervisée », nous allons demander à un algorithme d’apprentissage automatique de prédire la polarité d’un document, d’une phrase, d’un aspect à partir d’exemples annotés manuellement ou collectés automatiquement. Il est possible de s’appuyer notamment sur le jeu de données IMDB qui associe des critiques de film aux notes attribuées par les utilisateurs. Le volume de documents annotés en fait un jeu de données particulièrement intéressant pour entrainer le modèle sur un grand nombre d’exemples. 

    Ce type de modèle apprend le plus souvent à associer des combinaisons de mots à une polarité, en s’appuyant sur une méthode de pondération du vocabulaire comme le TF-IDF (« Term frequency – inverse document frequency »). Cette méthode part du postulat que chaque mot possède un certain niveau de rareté dans un document. Plus ce mot apparait fréquemment, plus il a de l’importance. En rapprochant le poids de chaque mot à la note globale attribuée par l’utilisateur, le modèle peut alors prédire la polarité d’un nouveau document à partir de son vocabulaire. 

    Mais l’apprentissage supervisé atteint ses limites dans le cas de structures de phrases complexes, ou lorsque la polarité dépend d’une notion de « contexte ». Il faut alors passer à une approche utilisant le deep learning. 

  • L’avenir de l’analyse de sentiment : le deep learning
  • Le deep learning tient compte de l’ordre des mots et du contexte de leur utilisation dans les phrases d’un document pour en déterminer le sens et leur polarité. On parle ici d’apprentissage non supervisé, car les données ne sont pas étiquetées (ou annotées) comme dans le cas d’un apprentissage supervisé. Le modèle doit cependant avoir une certaine connaissance du langage. L’algorithme peut être entrainé en amont par des modèles de traitement automatique du langage naturel (NLP) de type GTP, BERT, XLNet ou Word2Vec pour se doter d’une connaissance généraliste de l’utilisation de la langue. 

    Il est ensuite possible d’affiner le modèle (« fine-tuning ») en concentrant son apprentissage sur une tache spécifique comme l’analyse de sentiment, avec l’étude complémentaire d’un jeu de données annoté de type IMDB. Le modèle est alors d’une redoutable efficacité, puisqu’il profite de sa connaissance acquise de façon non-supervisée pour comprendre les liens entre les mots et les phrases pour prédire la polarité des structures textuelles les plus complexes. 

  • Sans oublier la data vizualisation
  • Déterminer la polarité des opinions est une chose, présenter les résultats de l’analyse de manière synthétique, claire et pertinente en vue d’en tirer des enseignements en est une autre. C’est tout l’enjeu de la data visualisation (ou dataviz). Cette représentation visuelle de l’information peut prendre différentes formes : camemberts, infographies, animation vidéo, etc. 

    La dataviz nécessite un travail préalable d’harmonisation des formats de données, puis l’utilisation d’outils spécifiques de modélisation graphique de larges volumes de données. Elle facilite la compréhension de données complexes, la présentation des résultats à un auditoire et la prise de décision. Attention cependant à ce que cette simplification de la manipulation des données ne fasse pas oublier l’essentiel : pour avoir des résultats pertinents, le modèle utilisé doit être adapté à la forme et au domaine des documents analysés. Par exemple, un modèle entrainé sur un jeu de données IMDB sera moins pertinent pour prédire la polarité d’un tweet (forme différente) sur un smartphone (domaine différent).

    L’analyse de sentiment est encore loin d’être une science exacte, mais les récents progrès des modèles d’apprentissage tendent à réduire les erreurs d’interprétation des machines. Avec l’arrivée de modèles de connaissance plus généralistes du langage, un palier a été franchi. L’avenir du TALN est dans le deep learning, avec une approche en deux temps : d’abord un apprentissage non supervisé des structures de langues naturelles, puis une spécialisation (« fine-tuning ») de l’intelligence artificielle préentrainée sur des jeux de données annotés pour parfaire son apprentissage.