L’affective computing, kézako ?

Tout d’abord, pas d’affective computing, sans intelligence émotionnelle ! L’intelligence émotionnelle, c’est la capacité à lire et analyser les émotions d’un individu et à savoir y répondre de façon pertinente. Si notre société peine à valoriser voire reconnaître cette forme d’intelligence, il n’en est pas moins que c’en est une. Car après tout, qu’est-ce que l’intelligence sinon une « fonction mentale d’organisation du réel en pensées. » Il est donc tout à fait légitime de penser que les échanges sociaux suivent un fonctionnement codifié qui nécessite non seulement une bonne lecture, mais un bon usage des émotions.

Cependant notre société tend à valoriser l’intelligence logique, celle du raisonnement, de l’argumentation, des mathématiques et des sciences, celle qui est utilisée pour l’intelligence artificielle – on peut néanmoins donner une mention spéciale à la promotion récente des « soft skills » en entreprise qui revalorise cette intelligence émotionnelle et sociale.

Lire aussi : Le neuromarketing aura-t-il raison de nos émotions ?

L’affective computing, c’est donc l’intelligence émotionnelle artificielle ou la simulation informatique des émotions. L’une des pionnières dans le domaine, Rosalind Picard, nous démontre que l’intelligence émotionnelle et sociale sont si infiniment complexes qu’elles représentent un des plus gros défis du monde de l’informatique pour le siècle à venir.

La complexité de la tâche se mesure aussi au nombre de domaines d’expertises différents qu’impliquent l’étude et le développement de cette intelligence émotionnelle artificielle. On dénombre ainsi l’ingénierie, l’informatique, la psychologie, les sciences cognitives, les neurosciences, la sociologie, l’éducation, les sciences comportementales, l’éthique ou encore la philosophie.

Concrètement l’affective computing procède en plusieurs étapes pour décomposer le fonctionnement de l’intelligence émotionnelle. Tout d’abord il a besoin d’un outil qui détecte, c’est-à-dire qu’il peut lire et reconnaître, un schéma d’émotion. Ensuite la data est collectée puis comparée à une base de données de schéma d’émotions. Enfin, la data est interprétée en conséquence. Selon l’usage fait de cette science, il est possible ensuite de fournir la réponse adéquate à l’émotion exprimée. Et si on vous offrait maintenant une plongée dans l’affective computing ?

affective computing

À la recherche de l’émotion

Le divertissement avide d’émotions

Assis devant le teaser de 30 secondes du film d’animation Vice versa Madhumita Murgia, journaliste, se plie à l’expérience de l’affective computing via un iPad. Une fois le visionnage terminé, se pensant en pleine conscience des émotions de la journaliste, la co-fondatrice du projet Affectiva, Rana El Kaliouby observe les données récoltées et s’exclame : « Je n’ai pas vu ton visage manifester de sentiment de dégoût. Ça doit être une erreur. » La journaliste répond : « Je n’aime pas les brocolis, j’ai dû grimacer à ce moment. », faisant ainsi référence à une scène du teaser. Madhumita Murgia nous précise dans son article son étonnement ; l’application a su détecter sa micro-expression de dégoût. La co-fondatrice, en revanche, elle, est ravie. Son application de « facial tracking » a réussi à détecter toutes les émotions de la journaliste durant le visionnage, même les plus subtiles. Le « facial tracking » permet de détecter une expression faciale et d’identifier l’émotion associée. Le projet est le fruit de deux spécialistes de l’affective computing : Rana El Kaliouby, et Rosalind Picard. Rana El Kaliouby est informaticienne, a étudié les Interaction Homme Machine (IHM) et s’est spécialisée dans la détection des expressions faciales les plus subtiles et authentiques. Rosalind Picard est professeure d’Arts des médias et Sciences au MIT et directrice du Groupe de recherche en Informatique affective du MIT Media Lab. La finesse de la pertinence d’Affectiva réside dans la reconnaissance de l’expression d’émotions la plus subtile : la micro-expression. L’application permet ainsi de fournir les réactions des téléspectateurs pour le divertissement ou encore la publicité. Si l’utilisation est ici plutôt mercantile, les usages possibles d’une telle technologie sont multiples.

Pour améliorer les Interactions Homme-Homme

Rana El Kaliouby qui étudiait déjà en 1993 les IHM met en lumière que ce n’est pas seulement l’Interaction Homme-Machine (IHM) qui pourrait être améliorée, mais aussi l’Interaction Homme-Homme (IHH). On peut citer par exemple, la possibilité d’aider les personnes autistes à identifier les émotions de leurs interlocuteurs.

Lire aussi : Humain cherche robot virtuel pour relation émotionnelle

Rosalind Picard a d’ailleurs fait des recherches en collaboration avec des personnes autistes sur le sujet en utilisant une technologie similaire à Affectiva. Dans un Ted Talk, elle montre le graphique des pics d’émotions d’une petite fille selon les activités de sa journée. La mère identifie ainsi si sa fille est enthousiaste ou soumise à du stress. Un des pics de stress a d’ailleurs permis d’identifier que l’enfant subissait du harcèlement scolaire. On peut donc imaginer pouvoir étendre cette attention à des patients en hôpitaux dont il serait plus facile de détecter les besoins en soins.

Pour améliorer les Interactions Homme-Machine

Difficile de ne pas penser à l’amélioration des échanges entre Homme et Machine notamment avec l’émergence de la robotique et l’omniprésence de l’IA. Comme l’analyse le journaliste Julien De Sanctis dans son article d’Usbek &Rica, il est question de réduire le fossé dans la façon d’échanger entre l’intelligence artificielle et l’Homme, il s’agit en philosophie de « fossé ontologique ». La déclaration du philosophe Serge Tisseron semble abonder dans ce sens : « L’intelligence artificielle fait peur, l’empathie artificielle sera là pour nous rassurer. » Dans le film Moon, le robot détecte les émotions du personnage et cherche à lui répondre sur le plan émotionnel. Quand celui-ci est triste, il affiche un emoji triste, ou encore un smiley quand il cherche à lui remonter le moral. Mais y a -t-il finalement de quoi être rassuré ? Dévoiler les « secrets » d’alcôve des émotions, n’est-ce pas donner beaucoup de pouvoir aux machines, mais surtout aux personnes derrière les machines ? L’homme derrière le rideau est-il un homme de confiance ? L’affective computing est-elle fiable ?

L’avenir de nos émotions nous appartient-il ?

« Un grand pouvoir implique de grandes responsabilités. » Une lapalissade, nous direz-nous ? Certes ! Cela reste pertinent. Si chaque émotion est identifiée, analysée, décortiquée, utilisée, alors nous appartiennent-elles encore ?

L’IA : un meilleur ami que votre meilleur ami ?

L’intelligence artificielle soulève enthousiasme voire empathie chez certains d’entre nous notamment avec les robots. Mais la réciproque est-elle envisageable ? L’intelligence artificielle reste une machine, quand bien même elle maîtriserait à la perfection l’art de l’intelligence émotionnelle et sociale, il ne s’agirait que de reproduire un schéma. Copier n’est pas égaler. Et comme les spécialistes le précisent, une intelligence artificielle ne cherche pas à imiter les fonctionnements humains, mais à obtenir des raisonnements similaires. Ce n’est donc pas la résolution du problème qui compte, mais le résultat. L’intelligence artificielle demeure donc différente de l’intelligence humaine. De ce fait, l’empathie d’une intelligence artificielle ne sera que feinte. Néanmoins, puisqu’on cherche par là à mettre en confiance l’être humain, nous ne sommes pas à l’abri de dérives. À force de feindre l’interaction sociale, certains êtres humains pourraient s’attacher davantage à une intelligence artificielle qu’à leurs pairs. On peut notamment penser au film Her où le personnage principal tombe amoureux de son assistante vocale. 

Les émotions : la nouvelle data ?

D’un point de vue éthique, il y a de quoi se poser des questions sur l’observation de nos émotions et la collecte de ces données. Nous dirigeons-nous vers un monde où Big Brother observerait la moindre de nos émotions ? Impossible de mentir ou de pouvoir avoir une vie privée. L’utilisation d’une intelligence émotionnelle artificielle peut aussi servir d’outil pour manipuler les gens via leurs émotions. Les IA pourraient-elles devenir de futurs mentalistes arnaqueurs ?

Lire aussi : IA, ma belle IA, dis-moi qui est mon match idéal ?

Et que dire d’un usage entre particuliers ? Reprenons l’exemple de la mère qui observait les variations d’humeurs de sa fille au cours de la journée. Un parent inquiet pourrait vite devenir « control freak » ou surprotecteur. Dans un épisode de Black Mirror, une mère injecte une puce à son enfant qui lui permet d’observer ses pics de stress, voire de flouter ou censurer leur origine, si bien que l’enfant se retrouve avec un manque d’empathie.

Quid de la fiabilité scientifique ?

Dans un Ted talk de Rosalind Picard de 2011, elle précise avoir une base de données de 10 000 expressions faciales. Si elle n’explique pas ce qui les constitue en détail, on peut se poser la question de l’exactitude de l’interprétation de ces expressions. En effet, l’idée même d’une gamme d’expressions universelle a été remise en question. Donc, selon la culture, un haussement de sourcil pourra signifier l’indignation ou juste la surprise. Tout ça, sans compter l’importance du contexte d’une situation qui joue également sur l’interprétation. Culturellement parlant, certains visages sont aussi plus difficiles à lire. En Chine, on apprend par exemple à ne pas faire étalage de ses émotions, il est donc plus challengeant de discerner les émotions face à une expression de type « poker face ». D’autre part, l’anatomie ou la morphologie d’un visage peut parfois changer l’expression d’une émotion rendant la reconnaissance plus compliquée. Tous ces aspects démontrent que la reconnaissance et l’interprétation d’émotions sont une tâche complexe qui demande de prendre plusieurs facteurs en compte. La lecture des émotions et leur interprétation reste donc un défi qui n’est pas encore résolu.

 

L’intelligence émotionnelle et sociale sont des schémas de pensées complexes. Si la pionnière de l’affective computing, Rosalind Picard, déclare elle-même que c’est un des domaines les plus challengeant de l’informatique, ce n’est sûrement pas par hasard !

La multiplicité des appareils de captation permettra peut-être de pallier un manque de précision ou d’exactitude. Rosalind Picard a elle-même testé un gant captant l’activité electrodermique afin d’observer les signaux électriques du corps et les émotions qu’ils trahissent. Le gaze tracking quant à lui est capable de distinguer si votre pupille se dilate sous l’émotion et où votre regard se porte. Pas besoin d’être Sherlock Holmes pour émettre une certaine réserve avec un flegme des plus anglais sur les abus probables.

Il y a là un caractère très intrusif de la technologie. Et l’observation du langage corporel en plus du langage verbal rend de plus en plus difficile le choix de ne pas s’exprimer. Est-ce que la liberté, ce ne serait pas aussi d’avoir le choix de dévoiler ou non ses propres émotions, ses propres pensées profondes ? Les émotions seraient-elles le dernier rempart de la vie privée ? D’un point de vue plus optimiste, l’intelligence artificielle peut-elle conjurer le sort de la tour de Babel ? L’émotion, ce trait si « humain », peut-elle être apprivoisée par la technologie ?

Gwendoline WEBER
Gwendoline WEBER
Ménestrelle numérique
Oscillant entre galéjades giffesques, modération bienveillante, veille im-pertinente, haikus récréatifs et designs amuse-oeil. VENI VIDI SHARED