Logo du site de la revue Cultures-Kairós

Esthétique réflexive, Quand les humains se regardent dans les yeux d’une machine

Joffrey BECKER
juillet 2014

DOI : https://dx.doi.org/10.56698/cultureskairos.883

Résumés   

Résumé

Les relations envers les humanoïdes, et en particulier l’anthropomorphisme qui leur est associé, soulèvent de nombreuses questions. À partir d’une expérience conduite au Laboratoire de Robotique de Bristol, cet article propose d’étudier la relation entre des humains et une tête robotique en cherchant à décrire les conditions d’apparition de l’autonomie du dispositif. Après avoir décrit le cadre dans lequel a lieu cette expérience, nous nous intéresserons au point de vue des participants. Nous serons progressivement conduits à nous intéresser à l’ambiguïté des relations envers la machine et à la communication particulière qu’elle instaure. Nous considèrerons enfin l’esthétique dans laquelle sont engagés les participants. Nous verrons qu’en dépit de l’ambiguïté caractérisant la relation avec le robot, un monde commun entre le corps et la machine cherche à se constituer, qui s’appuie à la fois sur la nécessité de la mesure et sur la mobilisation d’apprentissages sociaux.

Abstract

The relations toward humanoids, particularly the anthropomorphism related to them, raise many questions. Based on an experiment led at the Bristol Robotics Laboratory, this article aims to study the relationship between humans and a robotic head. It will attempt to describe the conditions for the emergence of autonomy of the device. After a short description of the environnement in which this experiment occurs, we will consider the participants’ point of view. We will gradually consider the ambiguity of the relations toward the machine and the particular kind of communication it establishes. We will then consider the aesthetics in which the participants are engaged. We will see that despite the ambiguous relation toward the robot, a common world between the body and the machine seeks to establish, based on both the necessity of measure and the mobilization of social skills.

Index   

Index de mots-clés : Anthropomorphisme, Communication, Domestication, Interaction Humain-Robot, Réflexivité.
Index by keyword : Anthropomorphism, Communication, Domestication, Human-Robot Interaction, Reflexivity.

Texte intégral   

« This records fluctuations of tension within the eye muscles. Simultaneous with the blush phenomenon there generally can be found a small but detectable movement of — »

« And these can’t be found in androids, » Rachael said.

« They’re not engendered by the stimuli-questions; no. Although biologically they exist. Potentially. »

Rachael said, « Give me the test. »

Philip K. Dick, Do Androids dream of electric sheeps, 1968.

1C’est au Laboratoire de Robotique de Bristol qu’a été conçue l’expérimentation à laquelle nous consacrons cet article. Cette expérience s’inscrit dans le cadre d’une collaboration de quatre ans entre différents laboratoires européens. Le projet, appelé CHRIS1, implique une trentaine de personnes dispersées dans de grandes institutions européenne de recherche, en France, en Italie, en Grande Bretagne et en Allemagne. Son but est de comprendre comment les humains agissent ensemble pour accomplir une tâche, afin de créer un robot capable de coopérer avec eux, en toute sécurité et aussi naturellement que possible. Les travaux effectués dans le cadre de ce projet sont d’une assez grande diversité, allant de la catégorisation d’objets à leur saisie, en passant par la reconnaissance de mouvements, la désignation de la position d’objets ou, et c’est ce cas qui nous intéressera particulièrement ici, l’apprentissage des actes de regard. Décrivons le contexte de cette expérience. Cette description nous donnera un aperçu du travail invisible qu’implique toute expérience scientifique (Leigh Star, 2010, p. 24).

Environnement et architectures

2Avant son déménagement pour un espace plus grand, le laboratoire de robotique de Bristol consistait en un vaste hangar abritant différentes aires de travail et d’expérimentation. Parmi ces aires, se trouve une sorte de cube vitré de quelques mètres de côté, la plupart du temps fermé par des rideaux noirs. C’est là qu’ont lieu les expériences menées dans le cadre du projet CHRIS, mais également une partie de la conception du robot Bert-2 qui sert de plateforme pour ces expériences. Ce cube et ses proches alentours forment l’espace de travail de deux chercheurs associés au laboratoire, Alex et Sergey.

3Alex est allemand. Sa carrière débute dans l’industrie où il est apprenti électricien. À l’âge de 21 ans, il part pour le Canada et rejoint une ville située à la frontière de l’Alaska. Il travaille alors dans le bâtiment. Il obtient ensuite un diplôme d’ingénieur en micro-électronique à l’Université des Sciences Appliquées de Trèves. Il rejoint alors l’Université de l’Ouest de l’Angleterre, à Bristol, et y obtient un Master en 2002. Il travaille ensuite pendant deux ans pour la firme allemande Siemens. En 2005, il ré-intègre le laboratoire et y poursuit une recherche doctorale sur le développement d’algorithmes de contrôle inspirés du réflexe vestibulo-oculaire. Sergey, lui, est russe. Il a été formé à l’Institut de Génie Énergétique de Moscou, d’où il ressort avec un Master de physique en 1998. Spécialisé en mathématiques appliquées, il arrive ensuite au laboratoire de robotique de Bristol où il soutient une thèse en ingénierie électrique, puis travaille dans une entreprise de développement de logiciels. Il retrouve à nouveau l’équipe du laboratoire pour le projet CHRIS, où on lui confie la tâche de concevoir l’architecture logicielle de la perception du robot, mais également d’établir les méthodes et les algorithmes qui serviront à détecter des gestes et des postures humains, pour les intégrer ensuite au robot Bert-2.

4La première étape du projet consistait donc en une sorte de domestication du corps humain. Elle visait à extraire du corps des ensembles de principes devant servir ensuite à contrôler le robot. L’expérience dont nous parlons devait ainsi permettre d’extraire des échantillons de comportements oculaires, des actes de regard, en s’appuyant sur une architecture informatique d’une assez grande complexité au centre de laquelle se trouve la tête du robot Bert-2.

img-1-small450.jpg

La tête du robot Bert-2 – Bristol Robotics Laboratory – © Joffrey BECKER, 2010.

5L’environnement de l’expérience est aménagé de la façon suivante. Au centre du cube, on a placé une table ronde sur laquelle se trouve la tête robotique. De chaque côté de la tête, on dispose cinq objets numérotés : un cylindre, un cône, un cube, un anneau et une sphère. Une chaise est placée en face de cette installation, sur laquelle doivent successivement s’installer les participants. La tête robotique sert d’interface entre les participants et le système mis en place pour l’expérience. Ce système comprend cinq ordinateurs traitant des informations provenant de deux principaux outils de mesure, contrôlant la synthèse vocale et le visage de la tête robotique.

6Un premier ordinateur est ainsi dédié à l’affichage et à l’animation du visage du robot. Il permet notamment de synchroniser les mouvements de la bouche à la voix du robot, fait cligner ses yeux, hausse et abaisse ses sourcils et les coins de sa bouche pour figurer des émotions de base empruntées aux travaux de Paul Ekman (1999). Lorsqu’un participant répond ainsi à la question qui lui a été posée par le système, le visage du robot affiche un léger sourire et remercie le participant de lui avoir donné la réponse. Un deuxième ordinateur, placé à l’intérieur du cube, est occupé à recevoir les données provenant des caméras infra-rouge cernant l’espace d’expérimentation et dont la fonction première est d’enregistrer le mouvement. Ce système de capture de mouvement est du même type que ceux employés dans le cinéma d’animation. Les caméras captent la lumière infra-rouge qui se réfléchit sur de petites billes placées sur le corps ou les objets à suivre, et elles enregistrent ainsi chacun de leur déplacement2. Ici, cet outil sert à localiser les différents éléments présents dans l’espace pour en reconstruire l’image générale. Un troisième ordinateur contrôle le système oculométrique et permet de voir, grâce à deux caméras placées de chaque côté de la tête robotique, dans quelle direction est orienté le regard de la personne située en face d’elle. Un quatrième ordinateur permet de reconstituer l’environnement en trois dimensions, fait jouer le script de l’interaction, enregistre la voix de chaque participant et assure le contrôle de la synthèse vocale. Un cinquième ordinateur permet de fusionner les informations provenant des autres ordinateurs du système. On peut considérer ainsi que c’est l’environnement de l’expérience dans son ensemble qui est robotisé. Cette complexité de l’environnement reste néanmoins inconnue des participants, auxquels on demande d’accomplir une tâche simple d’apprentissage, et ce de la manière suivante :

Dans cette expérience, notre robot (Bert-2) apprend à associer la forme des objets à la description que vous en faites. Vous vous assoirez sur une chaise en face du robot. Vous resterez dans cette position durant l’expérience. Cela ne veut pas dire que vous devrez rester immobile, mais vous ne devrez pas bouger de votre chaise. Avant que l’expérience ne commence, le chercheur devra faire une opération de calibration. Pendant l’expérience, vous ne devrez pas déplacer les objets face à vous. Cela rendrait la tâche plus compliquée pour le robot. Bert-2 vous posera des questions et votre tâche est d’y répondre. Faites une pause d’environ une demi-seconde avant de répondre aux questions posées par Bert-2. Les objets sont numérotés et votre tâche est de décrire l’objet au robot avec une phrase courte. Vous utiliserez le même nom pour chaque objet, par exemple toujours cylindre pour le cylindre (et pas tube une fois, puis cylindre la fois suivante). Cependant, les algorithmes d’apprentissage du robot sont capables de gérer les synonymes et vous n’avez pas à vous soucier de la pertinence du terme que vous choisissez.

7En réalité, si le robot Bert-2 est autonome dans la façon dont il mesure les mouvements oculaires des humains, il ne l’est en revanche qu’à un très faible degré du point de vue de l’interaction. Il peut entendre par exemple les mots « oui », « objet » ou « cube », mais ces derniers n’ont, pour lui, aucun sens. Ce sont de simples évènements sonores. Ici, le son est compris par le robot comme un signal qui déclenche, réoriente ou interrompt le script pendant l’interaction. Par exemple, si le son n’a pas été enregistré, si la personne a parlé avant ou après l’espace-temps prévu pour cela, le système indiquera qu’il n’a pas compris et demandera au participant de parler après qu’il ait terminé sa phrase. Si, malgré ces indications, le système ne parvient toujours pas à enregistrer le son de la voix du participant, il finira par interrompre l’interaction. Voici un exemple d’échange entre un humain et cette machine :

Bert-2 : Je m’initialise. Initialisation terminée. Il y vingt questions. Bonjour je suis Bert-2, êtes-vous prêt à me montrer des objets ?

Participant : Oui.

Bert-2 : Allons-y ! Qu’est-ce que l’objet cinq ?

Participant : L’objet cinq est un cube.

Bert-2 : Merci ! Êtes-vous prêt maintenant pour le prochain objet ?

Participant : Oui

Bert-2 : Qu’est-ce que l’objet trois ?

Participant : L’objet trois est un cylindre.

(…)

Bert-2 : Merci ! Êtes-vous prêt maintenant pour le prochain objet ?

Participant : Oui

Bert-2 : C’était la fin de notre jeu. Merci d’avoir été mon professeur. Au revoir.

8Un essai impliquant un doctorant italien et moi-même avait été réalisé environ un mois avant le début de l’expérience. Chose surprenante, puisque tous deux avions été mis dans la confidence, nos regards s’orientaient moins longuement sur les objets que le système nous demandait de décrire que sur le visage du robot. Les enregistrements montraient que le visage robotique concentrait l’essentiel de notre attention. Lorsque le système énonçait ainsi une question, l’attention se fixait sur le visage du robot comme dans à peu près toute interaction verbale ordinaire (Goodwin, 1980, p. 288). Cette importance de l’attention portée par l’auditeur vers le visage de l’énonciateur avait de quoi surprendre, puisqu’on savait très bien que ce dernier était un système informatique, et que le visage observé valait pour un objet bien plus complexe en réalité. La tête, bien qu’étant un périphérique de ce système, pouvait ainsi former le signe d’une présence complexe3 par la synchronisation de ses propres mouvements à la parole énoncée, mais également dans la manière dont elle nous avait engagé ce doctorant et moi-même. On aurait sans doute pu se passer de la tête du robot dans le cadre de cette interaction. Or, en ce qu’elle semblait pouvoir concentrer sur elle l’essentiel de l’attention des participants, la relation au visage du robot Bert apparaissait comme une dimension intéressante à étudier. Elle offrait de voir si les signes extérieurs d’une communication ordinaire entre pairs (comme l’attention visuelle portée à l’énonciateur), pouvaient dans le contexte particulier de l’expérience, être compris et interprétés par les participants, en terme d’attribution d’une subjectivité envers la machine.

9Je proposais donc aux membres du laboratoire de m’entretenir avec chacun des onze participants afin de chercher, à partir de leurs propres interprétations de la relation, d’éventuels indices d’une projection. Les relations entre un humain et un agent robotique ou informatique soulèvent nombres de questions, liées à la façon dont nous devons considérer ces étranges créatures, ou renvoyant à l’étude de la communication naturelle elle-même. Pouvons-nous ainsi les considérer comme des acteurs sociaux au même titre que nos partenaires habituels de communication (Nass et al., 1997) ? Devons-nous comprendre la situation même d’expérimentation pour saisir le caractère attribué à la machine par les humains qui communiquent avec elle (Friedman & Millet, 1997) ? Quel rôle occupent les indices d’un comportement social dans la projection d’une intelligence sur une machine (Bartneck et al., 2009 ; Mutlu et al., 2009) ? Ces indices suffisent-ils à confondre les participants quant à la nature de ce qu’ils observent (Gell, 1998, p. 71) ?

10Les interviews allaient s’appuyer sur l’enregistrement vidéo de l’interaction des participants avec le système. Le support vidéo était utilisé afin de faciliter la remémoration de la situation d’interaction4. L’interview, d’une durée d’environ une demi-heure, permettait d’enregistrer les descriptions subjectives de la situation générale d’interaction. Elle insistait sur quatre principaux domaines. Je demandais aux participants de décrire la tâche effectuée, en cherchant à concentrer leur attention sur le moment de l’interaction et sur leur rôle de professeur. Je leur posais également des questions sur l’interaction elle-même, en les encourageant à parler de la qualité de leur échange avec la machine. Je leur demandais de décrire le robot lui-même, en cherchant d’une part à voir quels éléments formels avaient d’abord retenu leur attention et, d’autre part, s’ils considéraient la tête robotique comme un partenaire social. Enfin, l’environnement lui-même devait être évoqué, cette description me permettant de mieux saisir les limites de l’espace mutuel créé par la mise en relation avec la machine. À la fin de chaque interview, je demandais aux participants de compléter un questionnaire, qui me donnait quelques éléments de base concernant la sociologie de ce groupe.

L’expérience du point de vue des participants

11Comme c’est bien souvent le cas lors de ce genre d’expériences, le groupe de volontaires est composé principalement d’étudiants en robotique et en informatique. Organiser une telle expérimentation est en réalité assez difficile et il est plus simple de s’appuyer sur une base de volontaires qui ont l’habitude de participer gratuitement aux différentes activités expérimentales du laboratoire. Cela n’empêche pas d’autres personnes, extérieures au laboratoire, de participer à ce type d’expérimentation. Il n’est donc pas très étonnant que le groupe qui nous intéresse paraisse assez homogène. Celui-ci est composé de quatre femmes et sept hommes. Une très large majorité des participants est originaire de pays européens. Ils sont jeunes. Le plus âgé à trente-cinq ans et la plus jeune à tout juste dix-huit ans. Mais la plupart d’entre eux ont un âge compris entre vingt et vingt-cinq ans. Au sein de ce groupe, une seule personne travaille. Toutes les autres poursuivent des études à différents niveaux, surtout en robotique et en informatique, mais aussi en chimie, ou en psychologie. Beaucoup d’entre elles sont passionnées de robotique et estiment avoir une assez bonne connaissance du domaine, mais aucune n’a encore participé à une expérience de ce genre. Une telle interaction avec le robot est quelque chose de tout à fait nouveau pour elles.

12Les onze volontaires ont été accueillis tout au long de la première semaine du mois de juin 2010. Les rendez-vous ont été pris de manière à ne jamais se chevaucher, laissant à chaque fois une à deux heures d’intervalle entre chaque personne. À leur arrivée, on explique aux participants en quoi consiste la tâche qu’ils ont consenti à remplir. Ils signent alors un document, qui donne leur accord à l’exploitation des données qui seront collectées. Après avoir été informé de la meilleure manière de parler avec le robot, chaque participant est invité à s’asseoir sur une chaise haute installée face à la machine. Alex lui accroche alors un microphone autour du cou et deux caméras sont positionnées. La première filme le visage du participant. La seconde, dans l’angle opposé, filme l’ensemble de la scène. On procède ensuite à la calibration du système d’oculométrie. Alex demande au participant de regarder le robot sans bouger. Il lui demande ensuite de regarder la caméra située à droite de la tête robotique pendant un court instant, puis celle de gauche. Alex vérifie ensuite la bonne calibration du système, en demandant au participant de regarder un des objets présents sur la table, et en contrôlant la direction indiquée à l’écran. Il signale alors au volontaire que la calibration est terminée et qu’il peut bouger à nouveau sa tête comme il l’entend. L’enregistrement vidéo est déclenché et le participant est laissé seul avec la machine. Alex démarre alors le système qui exécute le script. Chaque interaction dure entre cinq et dix minutes, selon la bonne compréhension des éléments clés de l’échange par le système. En quelques rares occasions, et malgré l’explication des règles de base de communication, il est arrivé que la machine ait interrompu la lecture du script, obligeant à recommencer l’interaction depuis le début, en augmentant par conséquent sa durée. À la fin de la procédure, on enlève le microphone du participant et celui-ci m’accompagne dans un des quelques espaces clos du laboratoire, où nous pouvons discuter.

13En s’installant dans l’espace d’expérimentation, tout le monde remarque très rapidement la tête robotique posée sur la table. Le visage de la machine forme l’élément le plus saillant de cet espace, et plus particulièrement ses yeux et sa bouche. Beaucoup de volontaires, bien que familiers de ce genre de dispositifs, n’ont ainsi même pas remarqué le matériel d’enregistrement, comme le système d’oculométrie ou de capture du mouvement. Aucun ne mentionne par ailleurs la présence d’autres objets, comme l’ordinateur présent dans l’espace, ou le mannequin dont se sert habituellement Sergey pour travailler sur le système de capture du mouvement. L’oculométrie confirme la prééminence de la tête robotique. Si entre la phase de calibration et le début de l’interaction, il est assez commun que les participants regardent ailleurs, leur regard se réoriente tout de suite vers le robot lorsqu’il prononce sa première phrase. Comme cela avait été le cas lors des essais effectués un mois plus tôt, la tête est l’élément clé de l’interaction. Lorsqu’elle parle, toute l’attention se concentre sur elle. Les objets périphériques ne sont ainsi observés que de manière très succincte. Le regard permet leur identification, et dès la fin de l’énonciation de la forme de l’objet, il revient rapidement vers la tête robotique. Un des participants a d’ailleurs choisi de mémoriser la liste d’objet et n’a regardé que le robot pendant toute la durée de l’échange. Interrogés sur l’importante de la tête robotique lors de l’interaction, les participants dont la plupart ne s’était pas posé la question, ont indiqué avoir adopté une attitude conventionnelle de communication, avoir agi par une sorte de réflexe inconscient, comme si leur interlocuteur avait été humain. C’est ce que résume un des participants de l’expérience :

E : Pouvez-vous m’expliquer pourquoi avez-vous autant regardé les yeux du robot ?

I : Je ne sais pas. Je suis partagé. Quelque fois c’est par intérêt [pour l’objet] mais c’est aussi par réflexe. Habituellement on regarde les gens dans les yeux donc... C’est un visage ! Vous devez le regarder !

14Les participants ont bien remarqué que leur relation avec le robot n’est pas une situation de communication habituelle. Bien que tous aient adopté un comportement d’attention caractéristique des situations de communication dont ils ont l’habitude, aucun n’a considéré cette machine comme un partenaire social à part entière, dont on aurait pu espérer un peu plus d’engagement et de conversation. En réalité, l’ambiguïté et l’incertitude quant aux limites de la machine caractérisent l’échange. Quelques participants n’hésitent pas ainsi à accompagner leurs réponses de gestes ; acquiesçant de la tête, ou admettant une erreur en faisant un signe des mains. Mais ces mêmes personnes savent que le robot n’est pas capable de reconnaître les signes qu’ils produisent, ni même de les voir. Lorsque le robot conclue l’interaction en saluant chaque participant, certains lui répondent, d’autres non. D’autres encore admettent avoir hésité à le faire, ne sachant pas si, à cet instant, l’enregistrement du son a été interrompu ou non. L’incertitude sur les facultés de compréhension de la machine semble également favoriser des comportements d’adaptation de l’énonciation à la situation. Il n’est pas rare, en effet, d’entendre les participants adapter le débit de leur parole aux conditions imaginées de compréhension du système. Parlant plus lentement, plus fort que d’ordinaire, détachant bien chaque mot, les participants robotisent en quelque sorte leur parole pour la rendre audible. La plupart d’entre eux affirment avoir agi de la sorte pour faciliter l’apprentissage du robot. En même temps, beaucoup ont eu le sentiment que la machine les comprenait. Ils ont pu en juger par les expressions faciales, les sourires, les haussements ou les froncements de sourcil, émis par le visage robotique lors de l’interaction, et qu’ils ont facilement interprété comme des signes de compréhension.

15L’incertitude et l’ambiguïté ne sont pas les seuls éléments entrant dans la description que donnent les participants de leur interaction avec le robot. La surprise en est également une des composantes. Le robot et les participants fondent en effet leur échange sur la répétition d’une même séquence. Le robot énonce une question, fait une courte pause, enregistre une première réponse, remercie le participant et pose une nouvelle question, fait une nouvelle pause, enregistre une seconde réponse, remercie encore son interlocuteur et recommence la séquence. Il le fait vingt fois. Cette routine dans l’interaction confère à celle-ci un caractère que les volontaires, quand ils ne finissent pas par la trouver ennuyeuse, qualifient volontiers d’hypnotisante. Dans ce contexte réglé et rythmé de manière très précise, une incompréhension de la part de la machine apparaît comme un évènement inattendu, engendrant des réactions de surprise, d’embarras, voire d’agacement. Les participants assument pourtant ce genre d’erreur, convenant qu’une machine ne peut se tromper.

16La relation envers le robot relève aussi d’un ensemble de choses allant de soi. Nombre de participants ne se demandent pas par exemple d’où peut provenir le son de sa voix, l’associant directement aux mouvements de sa bouche. Ils n’ont par ailleurs aucun doute sur les limites de l’interaction. Bien que la tête robotique reste sur la table, faisant mine de regarder droit devant elle, la focalisation des participants sur son regard ne dure que le temps de l’échange ; du moment où ils sont installés dans l’axe du regard du robot, jusqu’au moment où l’interaction est interrompue, lorsque le robot salue les participants. Ces derniers comprennent alors très bien qu’il n’y a plus rien à attendre de la machine, qui reste pourtant là, dans une même position, avec le même regard porté dans leur direction. Tout au plus esquissent-ils un sourire, de l’indifférence, ou jettent-ils un regard succinct vers l’objectif d’une des deux caméras qui les entourent.

Des comportements sociaux dans une interaction asociale

17Comment comprendre une situation aussi particulière, qui combine une forme de communication ordinaire et une conscience aiguë de ses limites ? Il semble, qu’en fait, le caractère social de la relation entre l’humain et le robot s’établisse dans la routine des actes de regard. L’observation forme ainsi une condition de la relation entre les différents acteurs dans cette expérience. Du point de vue des chercheurs d’abord, l’observation consiste en une mesure des façons dont le regard humain s’oriente vers les objets posés d’un bout à l’autre de la table. L’enregistrement, selon ce point de vue, est une délégation de la capacité d’observer des roboticiens, qui correspond à une extension artificielle du sensorium humain finalement assez caractéristique de l’exercice des sciences et des techniques. Le robot est en ce sens un instrument. Instrument de mesure, certes, il est également l’instrument d’une médiation ; l’objet du contrat passé entre l’expérimentateur et le participant, tel qu’il établit les bases d’une fiction de par les règles d’interaction qu’il impose.

18Car du point de vue des participants, la tâche autant que la manière d’y répondre consiste en un ensemble de règles définissant les principes mêmes de l’intériorité fictive du robot, et par extension, les relations qui sont entretenues avec lui. Certes, comme l’a bien souligné Alex lorsque nous avons évoqué cette question en préparant l’expérience, le robot pourrait apprendre de ses échanges avec les humains, il pourrait comprendre notre langue5. Mais dans les conditions particulières qui nous intéressent ici, il ne le fait pas. Cet apprentissage, qui forme la principale raison de la présence des participants est, on l’a souligné, un moyen de les distraire de l’enjeu réel de l’expérience, en les incitant à penser qu’ils ne sont pas l’objet de l’observation. Faire comme si le robot possède des facultés dont il ne dispose pas en réalité, soumettre les participants à un ensemble de règles de comportement précises et provisoires, la situation expérimentale s’organise ainsi à la manière d’un jeu. Cette notion, et la profondeur qui la traverse (Geertz, 2005), peut en fait nous aider à mieux comprendre l’importance de la dimension sociale dans ce contexte, mais également de mieux saisir l’ambiguïté de la communication qui traverse les relations envers la machine.

19Une première caractéristique de ce jeu repose sur la fiction. En effet, la tête robotique apparaît comme le fragment substitutif d’un corps sensible6, soumis en cela aux tensions qui traversent sa représentation, mais dont les fonctions d’observation et de communication restent comparables, malgré leurs différences visibles, à celles dont elles forment l’imitation. Le contexte expérimental admet en réalité deux genres fictionnels assez différents. Il y a d’une part la fiction élaborée par les chercheurs, qui comme on l’a vu, consiste en la confection d’un leurre, appareil méthodologique essentiellement utilitaire, dont l’objet est de se prévaloir contre certaines difficultés, en évitant que les participants sachent quelle place ils occupent réellement dans l’expérience. Cette fiction, associée au dispositif de mesure qui en quelque sorte la met en scène, engendre alors un fait particulier, un acte de regard naturel, qui est enregistré sous forme de valeurs numériques et qui, à terme, doit être transformé en un algorithme de contrôle du regard du robot. Elle engendre également une fiction d’un second ordre7, qui consiste apparemment en une forme d’acceptation tacite de la comparaison entre le robot, le corps qu’il représente et son activité perceptible, et qui se révèle à travers l’attention ordinaire accordée à la machine dans la situation de communication. Toutefois, il est nécessaire d’apporter tout de suite une réserve à cette forme d’acceptation de la continuité entre le corps et la machine.

20En effet, le partage de regards est un élément clé de la communication entre les humains, qui établit un cadre pour l’interaction en permettant à l’énonciateur d’être informé de la bonne disposition de son interlocuteur à l’écouter. On pourrait être tenté de considérer que les participants, en portant une attention polie à l’énonciation du robot, confondent en quelque sorte ce dernier avec un énonciateur ordinaire. Ce serait oublier que tous les participants ne le considèrent pas comme tel, mais plutôt comme un appareil montrant quelques signes rudimentaires d’activité sociale. Cette distinction entre les manifestations corporelles et les dispositions internes montrées par chacun pendant l’interaction doit ainsi nous encourager à la considérer pour sa dynamique. Nous déplaçons donc légèrement l’intérêt pour les questions d’acceptation des humanoïdes qui traversent habituellement le domaine des interactions humains-robots, pour nous concentrer plus spécifiquement sur les manières dont les participants considèrent le comportement mécanique auquel ils sont confrontés, s’y adaptent et tirent de cette adaptation des moyens d’évaluer la nature sociale des comportements qu’ils perçoivent. Le robot Bert-2 engage en effet les participants dans des inférences contradictoires concernant sa nature, indiquant alors combien son identité est difficile à saisir en comparaison de situations de communication impliquant des acteurs humains, et par conséquent, combien il semble important pour eux de la saisir. Une seconde caractéristique de ce jeu apparaît alors, qui repose sur l’apprentissage dans lequel s’engagent les participants.

21L’identité du robot est peut-être le principal enjeu de la relation qui s’établit ainsi à travers le dispositif expérimental. Dans ce contexte, l’écart entre l’habitus de communication des participants et les doutes qu’ils formulent intérieurement à propos du comportement de la machine formerait, outre une caractéristique de la situation de jeu8, une méthodologie permettant sinon de lever l’incertitude, au moins d’évaluer les compétences sociales du robot. L’habitus, en tant que technique du corps, mobilise un apprentissage social fondé sur l’imitation et la répétition, permettant d’accomplir des tâches d’une très grande diversité (Mauss, 2003, p. 376-383). Cette notion peut nous aider à jeter sur l’anthropomorphisme un regard particulier, en ne le considérant pas simplement comme une sorte d’erreur logique, mais comme un moyen de vérifier des hypothèses concernant les évènements comportementaux perçus ou, pour le dire autrement, comme un moyen de décoder le comportement observable. En effet, l’anthropomorphisme dont nous faisons preuve en pareil cas renvoie moins à l’incapacité à discerner entre le monde physique et le monde mental9, qu’à la manifestation de notre capacité à interagir avec les éléments d’un monde incertain, et à nous y adapter en mobilisant ce dont nous nous souvenons de nos apprentissages (Airenti, 2012, p. 48). Nous retenons ici l’idée de John Searle, selon laquelle l’intentionnalité que nous attribuons à un robot se fonde non seulement sur le programme qui le dirige, mais également sur l’idée que, si le robot se comporte suffisamment comme nous le faisons, nous pouvons supposer qu’il éprouve des états intérieurs comparables aux nôtres, et qu’il doit donc disposer d’un mécanisme interne capable de les produire (Searle, 1980 p.365). Nous retrouverions ici, à l’appui de Searle, un mouvement spéculatif caractéristique de l’esthétique de la mécanique anthropomorphe, tel qu’il a notamment été mis en valeur par les chroniqueurs du XVIIIe siècle, lorsqu’ils évoquent l’ambiguïté et les nombreuses hypothèses nées du contact avec le Turc joueur d’échecs de Kempellen (Becker, 2012a, p. 103-104). Nous pouvons par ailleurs nous rappeler des propos de Hans Vaihinger lorsqu’il écrit :

Une hypothèse concerne toujours la réalité, c’est à dire que la construction idéale qu’elle contient a la prétention ou l’espoir de coïncider avec une perception future. Elle se met à l’épreuve de la réalité et requiert une vérification, c’est à dire qu’elle veut être établie comme vraie, comme effective, comme l’expression correcte d’une réalité. (Vaihinger, 2008, p. 91-92)

22Le jeu que jouent les participants semble bien relever de ce genre de test. Tentative d’évaluer, par le corps, les limites de la communication avec la machine, il est aussi une façon pour les participants de se mettre à son niveau supposé pour se faire une idée de ce qui la constitue, et pouvoir communiquer avec elle selon des modalités partagées. C’est le cas lorsque, par exemple, le système de reconnaissance vocale n’entend pas leurs réponses, et qu’ils font l’effort de parler plus lentement, plus fort, ou en adoptant une attitude « robotique ». Ce jeu consiste alors en une façon de chercher une humanité familière dans le regard d’une machine, et s’oppose d’une manière comparable à celui pour lequel les participants ont intégré l’expérience ; les roboticiens cherchant en effet un mécanisme comportemental précis dans le regard des humains. Ce jeu consiste alors en un moyen employé par les participants pour bien communiquer avec la machine, et ainsi remplir la tâche d’apprentissage qui leur a été confiée. Il prolonge symétriquement10 celui auquel se livrent les chercheurs, lorsqu’ils mesurent le regard de chaque participant pour en extraire un acte, ou lorsqu’ils cherchent à garantir la possibilité même de la communication avec les robots dans le cadre d’une tâche impliquant la coopération d’un humain et d’un non-humain. Ainsi, ce jeu ne se joue pas seulement avec le robot. C’est aussi un jeu autour du travail de l’expérimentateur et des limites du cadre de la communication qu’impose le contexte expérimental et la nécessité de la mesure ; un jeu qui traduit alors un apprentissage généralisé et réciproque dont le robot assure la médiation.

Esthétique réflexive

23En ce sens, l’expérience menée autour du projet CHRIS est un assez bon exemple de la façon dont l’interaction avec un robot forme un espace où cherche à se constituer un univers de symboles communs. Elle montre d’abord que la confusion de la machine avec ce qu’elle représente n’est pas seulement l’enjeu d’une interaction de face à face, mais le résultat d’un échange préalable entre l’expérimentateur et le participant. Cet échange vise à faire passer un instrument de mesure pour un agent capable d’apprendre de l’échange verbal. Ensuite, et du fait du déplacement qu’induit cette fiction, l’enjeu va reposer sur la méthode employée par les participants pour faciliter l’apprentissage de la machine, et par conséquent remplir leur rôle. Ici, l’habitus communicationnel des participants est déterminant. C’est, en effet, en s’appuyant sur les ressources qu’ils mobilisent avec d’autres, que les volontaires vont pouvoir s’engager dans cette relation très singulière, et ajuster leur comportement en fonction des réactions du robot. Cette adaptation les aide non seulement à se faire une idée des capacités de la machine en matière de communication, mais elle forme également un moyen d’optimiser son apprentissage fictif. Le robot indiquant parfois aux participants leurs erreurs en matière de communication, ces derniers vont ainsi s’engager avec lui dans un jeu visant à en déterminer les règles mêmes, en ralentissant le rythme de leur parole, en parlant plus fort ou en mécanisant leur élocution. Cette expérience se construit à partir d’une forme de réflexivité, assez caractéristique de la rencontre avec les humanoïdes (Becker, 2011), mais aussi des arts de la performance11.

24Pour les participants, la réflexivité consiste en une manière d’évaluer la situation d’interaction à partir de leur expérience et de leur sensibilité. La performance de la machine consiste alors en un artifice12 à partir duquel chaque participant va normaliser son comportement en fonction de la situation, tout en permettant aux chercheurs d’accéder à un signe de la communication naturelle. Les chercheurs veulent doter leur robot de comportements extrait des habitus humains ; ce que leur offre précisément les participants, en utilisant les ressources corporelles qu’ils mobilisent pour communiquer. Toutefois, l’étendue de cette gamme comportementale va bien au delà du seul exercice du regard. Et l’on peut penser qu’elle va chercher dans l’ambiguïté même de la situation de communication avec la machine les motifs d’une identité partagée qui doit permettre de la résoudre. Cette identité fragile tire d’ailleurs ses critères sur la ressemblance et sur la dissemblance dans le temps où la machine est mise en marche. Aussi cette identité ne peut surgir que de manière très brève13. Elle est l’objet de manifestations trop superficielles pour être stabilisée, et dépend paradoxalement des limites mêmes de la communication pour se constituer. Mais en même temps, cette relation installe les conditions d’un apprentissage réciproque, mis en abîme à la fois à travers la situation expérimentale et la situation d’interaction.

25La médiation d’un robot permet ainsi de redistribuer les relations à travers l’interaction. Ce travail de construction de la coopération entre les robots et les humains participe en réalité d’une domestication du corps et de ses habitus à la fois d’un point de vue technique (on cherche à recréer un corps en imitant un modèle naturel) et du point de vue de l’interaction (où l’on cherche des éléments d’un monde partagé). À travers cette forme croisée de domestication, une individuation du corps-machine semble à l’œuvre, qui trouve dans l’esthétique réflexive induite par la mise en présence d’un humain et d’une machine, une de ses manifestations les plus singulières. Si la relation avec la machine participe bien d’une transformation des cadres ordinaires de la relation, il est toutefois nécessaire d’en nuancer les effets. On doit ainsi noter que l’adaptation de la communication aux contraintes de l’environnement de l’expérience et aux capacités supposées de la machine est temporaire et qu’elle répond à l’exigence du script. Ce faisant, elle ne participe pas d’une seule désensibilisation caractéristique de l’espace technique moderne14, mais également d’un déplacement et d’une extension de la sensibilité à des formes d’existence non-humaines (Becker, 2012b, p. 134-135), renouvelant dès lors les liens entre le corps et les machines, à travers l’attention qu’elles suscitent et l’esthétique particulière dans laquelle elles nous engagent ; au point où se rencontrent technologie et enchantement (Gell, 1992).

26On peut évidemment douter que la tentative roboticienne d’imiter mécaniquement les conditions du lien social parvienne à reproduire les formes de sociabilités inhérentes à la situation de coopération. La robotique dite sociale, du fait qu’elle imite la nature, adapte à sa manière des formes qui échappent en partie aux modèles auxquels elle emprunte les fonctions15. Et l’on peut supposer que les applications qui naitront de ces recherches seront bien éloignées des formes sur lesquelles elles prennent appui aujourd’hui. Néanmoins, on doit constater que les robots, et l’étrangeté qui les caractérise, nous contraignent à puiser dans l’imposant répertoire de nos apprentissages pour échanger avec eux, et nous adapter à ce que nous pouvons supposer de leur fonctionnement afin de les apprivoiser. Mais cette façon dont nous mobilisons notre sensibilité pour expérimenter et tenter de résoudre les problèmes que posent l’altérité n’a finalement rien d’exceptionnel.

27Nous communiquons déjà de bien des manières avec les existants qui traversent notre quotidien. Nous nous adaptons déjà à leurs mondes16. Nos animaux, nos enfants, les personnes dont nous ne partageons pas la langue, mais aussi nos dieux, nous engagent dans une modulation de nos façons de communiquer, qui participe directement de notre expérience. Aussi, la tentative de mécaniser les relations que nous entretenons les uns avec les autres peut être comprise dans l’espace de cette communication d’abord incertaine, qui s’établit progressivement, dans l’instant même où elle est rendue possible ; cet espace que la médiation des robots nous invite alors à considérer pour la complexité et la plasticité du comportement humain, et qui finalement se laisse difficilement réduire à l’imitation mécanique du corps.

Bibliographie   

AIRENTI, Gabriella, « Aux origines de l’anthropomorphisme, Intersubjectivité et théorie de l’esprit », Gradhiva, n° 15, Paris : Musée du quai Branly, mai 2012, pp. 34-53.

BATESON, Gregory, « Culture contact and schismogenesis », Man, vol. 35, Londres : Royal Anthropological Institute, décembre 1935, pp. 178-183.

BECKER, Joffrey, « Récursions chimériques : De l’anthropomorphisme des robots autonomes à l’ambiguïté de l’image du corps humain », Gradhiva, n° 13, Paris : Musée du quai Branly, mai 2011, pp. 112-129.

BECKER, Joffrey, « Le corps humain et ses doubles, Sur les usages de la fiction en robotique et dans les arts », Gradhiva, n° 15, Paris : Musée du quai Branly, mai 2012, pp. 102-119.

BECKER, Joffrey, « L’écologie prospective de la robotique », Tracés, n° 22, Lyon : ENS Éditions, mai 2012, pp. 125-137.

BARTNECK, Christoph, KANDA, Takayuki, MUBIN, Omar, AL MAHMUD, Abdullah, « Does the design of a robot influence its animacy and perceived intelligence », International Journal of social robotics, vol. 1, n° 2, Dordrecht: Springer, 2009, pp. 195-204.

EKMAN, Paul, « Basic emotions », dans DALGEISH Tim et POWER Mick (Éd.), Handbook of cognition and emotion, Sussex: John Wiley & Sons, 1999, pp. 45-60.

FRIEDMAN, Batya, MILLETT, Lynette I., « Reasoning about computers as moral agents: A research note », dans FRIEDMAN Batya (Éd.), Human values and the design of computer technology, Stanford – Cambridge: CSLI Publications – Cambridge University Press, 1997, pp. 201-205.

GEERTZ, Clifford, « Deep play: notes on the Balinese cockfight », Daedalus, vol. 134, n° 4, Cambridge: American Academy of Arts and Sciences, septembre 2005, pp. 56-86.

GELL, Alfred, « The technology of enchantement and the enchantement of technology », dans J. COOTE Jeremy et SHELTON Anthony (Éd.), Anthropology, art and aesthetics, Oxford: Clarendon Press, 1992, pp. 40-63.

GELL, Alfred, Art and agency, An anthropological theory, Oxford: Clarendon Press, 1998.

GOMBRICH, Ernst, Méditations sur un cheval de bois et autres essais sur la théorie de l’art, Paris : Phaidon, 2003 [1963].

GOODWIN, Charles, « Restard, Pause, and the achievement of a state of mutual gaze at turn-beginning », Sociological inquiry, vol. 50, n° 3-4, Syracuse: International Sociology Honor Society, juillet 1980, pp. 272-302.

GRIMAUD, Emmanuel, PARÉ, Zaven, Le jour où les robots mangeront des pommes, Conversations avec un geminoïd, Paris : Éditions Pétra, 2011.

HOUSEMAN, Michael « Vers un modèle anthropologique de la pratique thérapeutique », Thérapie familiale, vol. 24, n° 3, Paris : Médecine & Hygiène, septembre 2003, pp. 289-312.

INGOLD, Tim, « L’outil, l’esprit et la machine : Une excursion dans la philosophie de la “technologie” », Techniques et culture, vol. 2, n° 54-55, Paris : FMSH, 2010 [1988], pp. 291-311.

KIRBY, Michael, Happenings, an illustrated anthology, New-York: E. P. Dutton & Co. Inc., 1965.

LEIGH STAR, Susan, « Ceci n’est pas un objet frontière ! Réflexions sur l’origine d’un concept », Revue d’anthropologie des connaissances, vol. 4, n° 1, Paris : IRD, janvier 2010, pp. 18-35.

LEVY-BRUHL, Lucien, La mentalité primitve, Paris : Presses Universitaires de France, 1960 [1922].

MAREY, Étienne-Jules, Le mouvement, Paris : G. Masson, 1894.

MARIN, Louis, De la représentation, Paris : Gallimard – Le Seuil, 1994 [1988].

MAUSS, Marcel, Sociologie et anthropologie, Paris : Presses Universitaires de France, 2003 [1950].

MUTLU, Bilge, YAMAOKA, Fumitaka, KANDA, Takayuki, ISHIGURO, Hiroshi, HAGITA, Norihiro, « Nonverbal leakage in robots : communication of intentions through seemingly unintentional behavior », HRI’09, La Jolla : ACM, 2009, pp. 69-76.

NASS, Clifford, MOON, Youngme, MORKES, John, KIM, Eun-Young, FOGG, B. J., « Computers are social actors: A review of current research », dans FRIEDMAN Batya (Éd.), Human values and the design of computer technology, Stanford – Cambridge: CSLI Publications – Cambridge University Press, 1997, pp. 137-162.

RIX, Géraldine, BIACHE, Marie-Joseph, « Enregistrement en perspective subjective située et entretien en re-situ subjectif : un méthodologie de la constitution de l’expérience », Intellectica, vol. 1, n° 38, Paris : ARCo, janvier 2004, pp. 363-396.

SEARLE, John, « Minds, brains, and programs », The behavioral and brain sciences, vol. 3, n° 3, Cambridge: Cambridge University Press, septembre 1980, pp. 417-424.

SEVERI, Carlo, « La parole prêtée. Comment parlent les images », Cahiers d’anthropologie sociale, n° 5, Paris : Laboratoire d’Anthropologie Sociale, 2009, pp. 11-41.

TURNER, Victor, The anthropology of performance, New-York: PAJ Publications, 1987.

TYLOR, Edward Burnett, Primitive culture, vol. 1., Londres: John Murray, 1920 [1871].

UEXKÜLL, Jacob von, Mondes animaux et monde humain, suivi de la théorie de la signification, Paris : Denoël, 1965 [1934].

VAIHINGER, Hans, « La philosophie du comme si », Philosophia scientiae, Cahier spécial 8, Paris : Kimé, 2008 [1911], pp. 15-329.

VIDAL, Denis, « Vers un nouveau pacte anthropomorphique ! Les enjeux anthropologiques de la nouvelle robotique », Gradhiva, n° 15, Paris : Musée du quai Branly, 2012, pp. 54-74.

Notes   

1 Cet acronyme est composé des termes « Cooperative Human Robot Interaction Systems »

2 Des techniques de marquage des segments clés du corps en mouvement ont été utilisées dès la fin du XIXe siècle par Georges Demenÿ et Étienne-Jules Marey. Elles consistent à « [rendre] invisibles, en les noircissant, les parties qu'il n'est pas indispensable de représenter dans l'image, et [de rendre] lumineuse au contraire celles dont on veut connaître le mouvement. » (Marey, 1894, p.61)

3 Nous y retrouvons des formes d'accumulation d'identités différenciées à travers la relation. Le dispositif robotique peut en effet endosser simultanément l'identité d'un objet (appareil de mesure ou machine en situation d'apprentissage) et celle d'un agent social. Son identité, pour reprendre les mots de Carlo Severi, semble être le résultat des relations qu'elle réalise (Severi, 2009, p.37).

4 À la manière dont il est mobilisé dans le travail de Géraldine Rix et Marie-Joseph Biache (2004).

5 Cet apprentissage est d'ailleurs un des volets développés plus récemment dans le cadre du projet CHRIS, sur les robots Bert-2 et I-Cub.

6 Il ressemble en ce sens au cheval de bois dont parle Gombrich, en ce que celui-ci n'est pas « le portrait de l'idée que nous nous faisons du cheval. » (Gombrich, 2003, p.4)

7 Hans Vaihinger distingue ces deux ordres de la fiction en tant que production et produit d'une même activité. « Fictio, écrit-il, signifie premièrement l'activité de fingere, c'est à dire de construire, de former, de figurer, d'élaborer, de présenter, de modeler artistiquement ; ce terme signifie également l'acte de concevoir, de penser, d'imaginer, de supposer, d'ébaucher, d'inventer, de créer. Deuxièmement, il désigne le produit de ces activités, c'est-à-dire la supposition fictionnelle, l'invention, la création, le cas imaginé. » (Vaihinger, 2008, p.88).

8 En effet, comme le note Michael Houseman, l'écart entre les dispositions mentales et les actions, tel qu'il s'établit dans la soumission du corps à un ensemble de règles, est caractéristique des situations que rencontre le joueur (Houseman, 2003, p.299).

9 C'est notamment le caractère animique que lui prête la théorie Piagetienne du développement de l'enfant, dans le prolongement de la pensée magique décrite par Lucien Levy-Bruhl (1960), ou avant lui à travers l'animisme d'Edward Burnett Tylor (1920), comme l'a souligné Denis Vidal (2012, p.65-67).

10 Dans un sens similaire à celui que donne Gregory Bateson à ce terme, ce dernier désignant la façon dont des individus aspirent à un même but en mobilisant des comportements similaires entre eux et les uns par rapport aux autres, mais en différenciant toutefois les orientations données à leurs actes (Bateson, 1935, p.181).

11 On doit à Victor Turner d'avoir souligné le lien étroit entre réflexivité et performance. Pour lui, la performance suppose que s'y réalise une image de l'humain en acte. Plus qu'un simple animal performant, écrit-il, l'humain est un animal qui se performe (Turner, 1987, p.81).

12 Cet artifice relève d'une théâtralité de l'effet caractéristique de l'esthétique du happening, c'est-à-dire d'un espace où se perçoit la métamorphose de la personne en chose, et où les objets en s'animant, accèdent à la vitalité (Kirby, 1965, p.19).

13 Nous retrouvons ici les « quelques secondes de confusion » qu'évoquent Emmanuel Grimaud et Zaven Paré (2011, p.37).

14 Tim Ingold note que la technique moderne provoque une séparation entre l'activité de conception et sa réalisation (Ingold, 2010, p.292).

15 Elle rejoint en cela un ensemble de problèmes relevant du domaine des arts. Comme le note Louis Marin à propos de l'ambivalence du mimétisme, la peinture produit un double si fidèle de la chose qu'elle en devient la chose même ; mais parallèlement, elle consiste en la fondation d'une image plus ou moins ressemblante, qui vient ajouter au modèle jusqu'à le remplacer (Marin, 1994, p.254). Cette tension entre mimesis et techne, bien qu'elle soit d'abord liée aux continuités entre l'artiste, son travail et des modèles descriptif pré-existants de ce qu'il doit re-présenter, produit des conditions favorables à certaines formes d'ambiguïté que l'on retrouve à l'œuvre dès qu'il s'agit d'imiter la nature.

16 J'entends ici le terme au sens que lui donne Jacob von Uexküll (1965).

Citation   

Joffrey BECKER, «Esthétique réflexive, Quand les humains se regardent dans les yeux d’une machine», Cultures-Kairós [En ligne], paru dans Métamorphoses digitales : Expérimentations esthétiques et construction du sensible dans l’interaction humain-machine, mis à  jour le : 22/07/2014, URL : https://revues.mshparisnord.fr:443/cultureskairos/index.php?id=883.

Auteur   

Quelques mots à propos de :  Joffrey BECKER

Joffrey Becker est docteur en anthropologie de l’EHESS. Situés à l’interface de l’anthropologie de l’art et des sciences, ses travaux portent sur la constitution en acteur des objets de connaissance, et notamment aux dimensions performatives de leur modélisation. S’appuyant sur l’ethnographie et l’expérimentation, ces travaux ont permis d’envisager certaines questions portées par les domaines de l’interaction humains-robots et de l’intelligence artificielle, à partir d’une enquête consacrée aux transformations de l’image du corps en robotique et dans l’art contemporain.