Vous êtes ici : GIPSA-lab > Publications > Parutions
Parution

Nina dans Science & Vie - Mai 2019 - Dossier Robotique

Politesse, civilité...les robots en quête de savoir-vivre: leur apprendre... à échanger par le regard
Importance de la mobilité des yeux des robots sociaux.
A qui je parle ? Qu’est-ce qui retient mon attention ? Jusqu’à présent, la plupart des robots étaient dépourvus d’yeux ou possédaient des orbites fixes, ce qui rendait impossible de savoir précisément ce qu’ils regardaient… « Si on veut rendre l’interaction homme/machine plus efficace, il va falloir intégrer la dimension du regard pour voir si le robot avec lequel vous échangez fixe vos yeux, votre corps ou un objet de son environnement », explique Gérard Bailly, directeur de recherche au CNRS

«Le regard est une composante fondamentale de la théorie de l’esprit qui désigne la  capacité d’un individu à se mettre à la place d’autrui. Il devient primordial de l’embarquer dans nos robots», poursuit-il.

Pour y parvenir, lui et son équipe du Gipsa-Lab de Grenoble, travaillent depuis 9 ans, sur Nina, un spécimen avec de grands yeux et des paupières, pilotés par 4 moteurs (sur les 57 dont le robot est équipé) et cachant des caméras.

L’objectif est de rendre cet humanoïde capable de suivre et d’échanger avec le regard, comme il le fait déjà avec la parole et sa bouche articulée. Pour l’instant, la machine n’y est pas encore… Pour la faire progresser, un chercheur a été placé dans une autre pièce que Nina, coiffé d’un casque de réalité virtuelle, ce qui lui permet de voir à travers les yeux du robot tout en commandant son regard. Quand le pilote fixe un objet dans le champ proche de Nina, les yeux du robot convergent vers l’objet comme le ferait un humain ! Quand il cligne des yeux, le robot cligne aussi. Le but est de démontrer de manière immersive à Nina comment interagir, et donc quand et quoi regarder. Des techniques d’IA exploitent ensuite cette mémoire comportementale pour bâtir des modèles de comportements interactifs multimodaux (voix, regard, expression faciales, gestes, etc) en s’inspirant des interactions que le robot aura pu avoir quand il aura été piloté. Cette interaction se construit de toute pièce, en utilisant des informations venant de capteurs, et au moyen d’algorithmes d’apprentissage profond qui doivent conduire Nina à réagir de manière adaptée.

En ce moment, elle multiplie les situations de face à face avec différentes personnes (25 couples, en l’occurrence) où Nina joue le rôle d’une animatrice de jeux et cherche à en tirer des enseignements. En partenariat avec l’IIT de Gênes, l’équipe réfléchit à doter Nina de sourcils mobiles pour avoir plus encore d’expression dans son regard… Il n’y a d’ailleurs pas que ce robot qui joue avec le regard et la vision. Jaguar Land Rover a présenté l’année dernière un prototype de voiture autonome qui utilise ses yeux artificiels pour établir un contact avec les piétons et les prévenir qu’elle les a bien vus avant qu’ils traversent. Belle attention !

 

>>plus d'informations 


GIPSA-lab, 11 rue des Mathématiques, Grenoble Campus BP46, F-38402 SAINT MARTIN D'HERES CEDEX - 33 (0)4 76 82 71 31