Le terme d’« Affective Computing » (ou « informatique affective ») apparaît au M.I.T. vers 1997 avec les travaux de Rosalind Picard, considérée comme la fondatrice de cette branche de recherche. Ce domaine s’intéresse très précisément à l’importance de la reconnaissance des émotions dans les relations interpersonnelles, et à l’étude des effets possibles de ce type de perception pour les robots. Les recherches de Rosalind Picard se sont ensuite assez naturellement étendues au domaine de l’autisme ainsi qu’au développement d’appareils pouvant aider les humains à reconnaître des nuances émotionnelles.
L’Affective Computing regroupe trois domaines de recherche :
La reconnaissance des émotions humaines;Le raisonnement et la prise de décision en utilisant ces informations émotionnelles;La génération d’expressions émotionnelles.
Très vite, ce vaste champ de recherche a agrégé de nombreuses professions qui s’en sont emparés, comme les psychologues, les médecins, les psychiatres, les philosophes, les sociologues et bien sûr les roboticiens, neuroscientifiques et informaticiens de tous pays. La recherche en Affective Computing est aujourd’hui mondiale.
L’idée est bien là de construire des programmes informatiques qui permettront de détecter de mieux en mieux les émotions les plus fines des humains, de renseigner ensuite un « profil émotionnel et interactionnel » de la personne pour pouvoir injecter et faire interagir ce profil dans et avec une intelligence artificielle. Celle-ci pourrait alors évidemment réagir (chatbot) ou faire réagir le robot qui l’embarque, tout ceci en temps réel et face à l’interlocuteur humain.
Les techniques utilisées sont de plusieurs ordres et adressent principalement l’ouïe et la vue, de manière complexe. Au niveau des sons émis, on s’intéressera par exemple au paralangage et à ses caractéristiques, ce que les scientifiques appellent la prosodie (la prosodie regroupe les variations d’intensité, d’accentuation, d’intonation, etc) ainsi que tout ce qui touche à la caractérisation émotionnelle contenue dans l’émission vocale (les mises en relief, les interrogations, les exclamations). D’autres données seront également récoltées pour les aspects visuels : expressions et micro-expressions du visage, gestuelle globale, position de la tête ou du corps, etc. Ces travaux ont par exemple été utilisés lors de la mise en place du contrôle facial aux aéroports (Travaux de Paul Ekman). Plus près de nous et portant de gros intérêts économiques, on retrouve les chatbots, ces agents conversationnels dont de nombreux auteurs pensent qu’ils régiront notre vie dans un futur proche.
Si l’on considère qu’effectivement, le comportement émotionnel est un attribut absolument essentiel dans une relation (pour reprendre la définition), on imagine facilement que certains robots ne seront commercialisables que s’ils savent gérer finement ces paramètres. Je pense par exemple aux robots présents dans les maisons de retraites, EHPAD et hôpitaux.
Ces robots, soutiens émotionnels à la patience infinie et doués d’humour (c’est dur, l’humour machine !), sauront détecter les moindres émotions des patients et pourront soit leur apporter les soins adéquats, soit prévenir l’humain responsable de leur santé qu’il se passe quelque chose. L’Intelligence embarquée pourra même faire un rapport documenté de l’état émotionnel du patient. Ainsi, il apparaît fort probable que la recherche dans le domaine des émotions « robotiques » se fera véritablement dans cette branche d’activité, certes portée par l’intérêt scientifique mais aussi, bien sûr par le gain économique envisagé par les industriels.
Et donc la singularité, cette fameuse et redoutée « conscience de soi » d’une machine, pourrait bien arriver tout discrètement par cette « petite » porte. L’Affective Computing est donc bien un domaine de recherche à suivre et à « éthiqueter » au mieux !
Stéphan Le Doaré
@stephanledoare
Comments