Il y a quelques jours, lors du salon international Vivatech, nous avons présenté la première brique issue de notre laboratoire de R&D en IA : la reconnaissance émotionnelle. Face à une borne interactive généreusement mise à disposition par Clear Channel, nos visiteurs ont pu afficher leur plus belles expressions pour tester notre tracking d’expression. Après s’être enregistrés auprès de notre robot animateur Pepper, le visage des utilisateurs était scanné et l’expression affichée par ceux-ci était associée à une émotion, assortie d’un « mood fact » pour apprendre quelques anecdotes liées à nos émotions. Une photo de l’expérience était ensuite envoyée au visiteur en souvenir. Pour l’occasion, quatre principales émotions étaient identifiées : la joie, la surprise, la tristesse et la colère.

 Plusieurs points clés du visage sont analysés lors de cette expérience, comme le froncement des sourcils, la position de la bouche ou l’écart pupillaire. Nos expressions faciales étant très liées à nos émotions, notre approche géométrique nous permet d’attribuer des pourcentages de probabilités sur telle ou telle émotion et, finalement, de déterminer l’émotion exprimée par l’utilisateur.

Avec cette brique d’IA, nous voulons montrer les possibilités technologiques qui s’offrent à nous en matière de communication et d’intelligence émotionnelle, communication finalement sous-exploitée dans les stratégies des entreprises à ce jour. Surtout, les retours des visiteurs ont dépassé nos espérances : c’est un défilé enthousiaste, intéressé et impressionné qui s’est déroulé tout au long des trois jours du salon, que ce soit sur les jours Entreprises ou le samedi auprès du grand public. Et si l’on peut penser tout d’abord à des applications très directes dans le retail, pour étudier par exemple la satisfaction client, il s’agit avant tout pour nous d’un premier pas vers le développement d’IA capables de comprendre l’humain et de s’en rapprocher.