
Paris, le samedi 13 juin 2015 – Le développement de l’intelligence artificielle doit contribuer, entre autres, à l’élaboration de systèmes robotiques capables d’une interaction toujours plus complexe avec nous pauvres humains. Sur ce terrain, les petits génies de l’informatique n’ignorent pas que les ordinateurs se devront de dénouer le fil des émotions humaines afin de renforcer plus encore les liens. Par chance, la voix offre souvent un fidèle reflet de l’âme. Les intonations, la respiration, le débit sont autant de signes qui permettent de déceler, au-delà même du sens premier du discours, tristesse, joie ou stupéfaction. Pour permettre à un ordinateur de déceler chez son propriétaire ses sentiments tourmentés, il "suffirait" donc de lui apprendre à distinguer les principales émotions grâce à une fine analyse des changements induits dans l’élocution et/ou l'intonation sous l’influence de la peur, la colère ou l’euphorie. C’est ce à quoi se sont attelés deux jeunes chercheurs de l’université de Northeastern, Reza Asadi et Harriet Fell.
Pas de place pour la mauvaise foi ?
Les scientifiques ont utilisé un ensemble d’enregistrements présentant des "exercices" réalisés par des acteurs invités à donner de la voix à différents états émotionnels (le Linguistic Data Consortium’s Emotional Prosody and Speech Transcripts). En se concentrant sur six émotions, la colère, la peur, le dégoût, la tristesse, la joie et la neutralité, les deux étudiants ont conçu un algorithme destiné à mesurer pour chaque sentiment les spécificités en termes de vibration des cordes vocales, de flux d’air dans le conduit vocal et de nombre de "repères acoustiques" en se basant sur de précédents travaux établissant des liens entre ces différents marqueurs et des sentiments spécifiques. Et ce système s’est révélé performant : dans 91 % des cas, à partir de l’analyse de la voix, l’émotion exprimée est bien identifiée, soit un résultat supérieur à des expériences précédentes. Une telle performance (présentée le mois dernier au congrès de printemps de la société américaine d’acoustique) ouvre de nombreuses perspectives : on pourrait en effet envisager que les robots soient capables de répondre à nos frustrations pour les apaiser et éviter qu’elles n’entraînent des réactions inappropriées (par exemple nous faire entendre une musique apaisante lorsque nous nous emportons contre notre GPS !). Reste à savoir comment les systèmes robotisés géreront les conflits lorsque leur propriétaire leur rétorqueront qu’ils ne sont nullement en colère ou apeuré. Un algorithme spécifique pour débusquer la mauvaise foi s’impose probablement !
Léa Crébat