Des sentiments humains aux émotions numériques

,

Faire des machines performantes ne suffit plus. Il faut aussi qu’elles puissent se connecter socialement et émotionnellement aux humains. Cette injonction à l’efficacité accrue de l’interaction humain-machine a fait naître un champ de recherche : le social computing. Sa tâche est de comprendre, modéliser et reproduire les émotions humaines. Mais comment, à partir d’une simple piste vocale ou vidéo, ou d’un texte, peut-on extraire une émotion et la reproduire ? C’est là qu’est toute la complexité de la recherche, sur laquelle travaille notamment Chloé Clavel à Télécom ParisTech.

 

« Tous ces moments se perdront dans l’oubli, comme les larmes dans la pluie. » Nous sommes à Los Angeles en 2019, et Roy Batty prononce ces mots en sachant qu’il n’est qu’à quelques secondes de sa mort. Mélancolie, tristesse, regrets… beaucoup de sentiments transparaissent dans cette scène culte du film Blade Runner de Ridley Scott, sorti en 1982. Rien de surprenant jusqu’ici, si ce n’est que le personnage Roy Batty est un replicant : une machine anthropomorphe.

Dans notre réalité, celle de 2018, il y a peu de chances de voir l’année prochaine dans nos rues se balader un robot humanoïde capable de développer des émotions aussi complexes. Pourtant, la tendance est bien à doter nos machines d’une connexion émotionnelle et sociale avec les humains. À tel point qu’un champ de recherche est né en 1995 : l’informatique affective (affective computing). Aujourd’hui, il a donné naissance à des sous-disciplines, comme l’informatique sociale (social computing).

« Ces champs de recherche regroupent deux aspects » explique Chloé Clavel, chercheuse à Télécom ParisTech dans cette thématique. « D’abord il s’agit d’analyser automatiquement nos comportements sociaux, nos interactions et nos émotions. Ensuite, nous cherchons à modéliser ces comportements, à les simuler et à les intégrer dans les machines. » Objectif : favoriser le terrain commun et produire des similarités pour engager l’utilisateur. L’interaction humain-machine est alors plus naturelle, moins frustrante pour l’usager qui peut parfois regretter de ne pas avoir un autre humain face à lui qui comprendrait mieux ses envies et ses arguments.

Pour parvenir à ce résultat, encore faut-il savoir comment nous communiquons à autrui nos émotions. Pour cela, les chercheurs en informatique affective analysent différentes modalités d’expression de l’humain. Ils s’intéressent à notre façon de partager un ressenti par écrit sur internet, que ce soit sur des blogs, dans les avis des sites web, ou encore sur les réseaux sociaux. Ils étudient également le contenu acoustique des émotions que nous communiquons par la parole : hauteur de voix, débit, mélodie… Sans oublier la posture physique que nous adoptons, notre expression faciale, ou notre gestuelle.

Passer du signal au comportement

Toutes ces données se traduisent par des signaux : une suite de mots, une fréquence de voix, des mouvements de points sur une vidéo. « La difficulté pour nous est de passer de ces informations bas-niveau à une information riche liée au comportement social et émotionnel » souligne Chloé Clavel. En somme : quelle variation de tonalité de voix est caractéristique de la peur ? Ou quel choix sémantique dans le discours écrit témoigne d’une satisfaction ? Ce passage est complexe car il est subjectif.

La chercheuse de Télécom ParisTech prend l’exemple de l’analyse des voix pour expliquer ce critère de subjectivité. « Chaque personne a une façon différente d’exprimer des attitudes sociales par la parole, donc il faut s’appuyer sur de grands volumes de données pour construire des modèles qui intègrent cette diversité. » Une personne dominante, par exemple, s’exprimera généralement avec une voix plus grave. Pour vérifier et modéliser cette tendance, il faut plusieurs enregistrements. Et sur les multiples extraits audio, il faut une validation de plusieurs personnes tierces. « Ce qui est considéré comme une attitude dominante diffère d’une personne à l’autre. Il faut donc recueillir plusieurs annotations sur les enregistrements pour s’affranchir de cette subjectivité d’interprétation » décrit Chloé Clavel.

Il en va de même pour l’analyse des commentaires sur les plateformes en ligne. Les chercheurs utilisent des corpus de textes annotés par des personnes extérieures. « Nous récoltons plusieurs annotations sur une même donnée texte » pointe la chercheuse. Les annotations sont cadrées par les scientifiques en utilisant des guides définis à partir de la littérature en sociologie ou en psychologie. « De cette façon, nous ciblons mieux les annotations sur les parties émotionnelles, et nous pouvons mieux dégager un consensus à partir des multiples annotations. » Des méthodes de machine learning sont ensuite appliquées, sans introduire en amont d’expertise linguistique dans les algorithmes. Il en découle des classifications de signaux émotionnels les moins biaisés possible pour déterminer les structures sémantiques caractéristiques d’un mécontentement ou d’une satisfaction.

L’émotion comme médiation

Au-delà de la catégorisation binaire d’une opinion — savoir si elle est positive ou négative — l’un des grands chantiers des chercheurs est de déterminer l’objet et la nature détaillée de cette opinion. Chloé Clavel a mené un projet sur l’engagement d’utilisateurs avec un agent conversationnel. Le but était de savoir si une critique négative de l’usager avait pour source l’agent lui-même, incapable de répondre correctement à l’utilisateur ; l’interaction, c’est-à-dire que l’interface n’était pas adaptée par exemple ; ou l’utilisateur, qui pouvait être simplement de mauvaise humeur. Dans ce projet mené avec l’assistant virtuel d’EDF, il a ainsi fallu entrer dans le détail sémantique des messages écrits à l’agent conversationnel. « Le terme ‘puissance’ n’a par exemple pas le même sens ou la même connotation lorsque l’on parle de puissance souscrite avec EDF que lorsque l’on parle de puissance graphique pour les jeux vidéo » illustre Chloé Clavel. « Pour vraiment entrer dans la finesse des opinions, il faut désambiguïser chaque mot en fonction du contexte. »

À lire sur I’MTech : Bientôt de nouvelles façons d’interagir avec les machines

L’exemple de l’agent conversationnel n’illustre pas que la difficulté de comprendre la nature et le contexte d’une opinion. Il est également un bon exemple de l’intérêt qu’a ce type de recherche pour l’utilisateur final. Si la machine est capable de comprendre les raisons de la frustration de l’humain qu’elle a en face, elle est plus à même de s’adapter pour continuer d’assurer son service dans les meilleures conditions. Dans le cas d’une mauvaise humeur de l’utilisateur, l’agent conversationnel peut réagir par un ton humoristique ou apaisant. Si le problème vient de l’interaction, il peut détecter le meilleur moment pour renvoyer l’utilisateur vers un opérateur humain.

La reconnaissance des émotions et la capacité de la machine à réagir socialement lui permet ainsi de jouer un rôle de conciliation. Un aspect de l’informatique affective particulièrement exploité dans le projet H2020 Animatas qui implique Télécom ParisTech depuis janvier 2018 et pour quatre ans. « Le but est d’introduire des robots dans les écoles pour assister les professeurs et gérer les interactions sociales avec les élèves » présente Chloé Clavel. L’idée est de doter les robots de compétences sociales destinées à favoriser l’acquisition chez l’enfant. Le robot pourrait ainsi apporter un soutien personnalisé à chaque élève, pendant les cours, et en appui des leçons du professeur. Loin du mythe du robot humanoïde indétectable caché parmi les humains, un médiateur éducatif pour améliorer l’apprentissage des enfants.

 

À écouter sur I’MTech :

7 réponses
  1. Alain Coetmeur dit :

    L’article couvre bien les émotions comme état de communication, mais les émotions basiques, peur, désir, colère, joie, sont avant tout des états de notre système de décisions.
    Nous échangeons bien cet état à travers des signaux inconscients, peu falsifiables, ce qui facilite la confiance car il y a une sorte de transparence, comme la transparence compatble de sociétés cotées permet les échanges de titres.

    mais à la base les sentiments servent à optimiser nos prises de décisions vitales, selon le contexte du moment.
    Je n’ai pas de doute que des IA profondes auront besoin de « sentiments », même si selon leur pétier elles pourront ne pas avoir les mêmes catégories que moi.

    par exemple un trader robot pourra passer du sentiment de joie, à celuis de peur, colère, désir, solon l’état du marché, les dangers et opportunités.
    être rationnel pourrait lui être bénéfique, mais est-ce si certain ? être rapidement dans la peur ne serait t’il pas plus efficace que de calculer avec la même patience que quand le marché est calme?

Trackbacks (rétroliens) & Pingbacks

  1. […] Des sentiments humains aux émotions numériques […]

  2. […] Des sentiments humains aux émotions numériques […]

  3. […] Des sentiments humains aux émotions numériques […]

  4. […] Des sentiments humains aux émotions numériques […]

  5. […] Des sentiments humains aux émotions numériques […]

  6. […] Des sentiments humains aux émotions numériques […]

Laisser un commentaire

Rejoindre la discussion?
N’hésitez pas à contribuer !

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *