BONUS FUTUR.E.S #HUMAINXMACHINE : « Les machines répondent sans comprendre ! » – Laurence Devillers

À l’occasion de notre événement FUTUR.E.S #HumainxMachine, nous avons demandé à Laurence Devillers, Professeure en Intelligence Artificielle à Paris-Sorbonne et chercheuse à LIMSI-CNRS, de nous donner sa vision des enjeux et des tendances autour des IHM. 

Les machines répondent sans comprendre !

Laurence Devillers
Bio : Professeure en Intelligence Artificielle à Paris-Sorbonne , dirige une équipe de recherche au LIMSI-CNRS sur « dimensions affectives et sociales dans les interactions parlées » notamment avec des robots et membre de la CERNA (commission sur l’éthique de l’alliance ALLISTENE). Elle est auteur du livre « Des robots et des hommes : mythes, fantasmes et réalité », plon 2017.

La reconnaissance de la parole comme la traduction de la parole ont fait d’énormes progrès grâce au deep learning et aux immenses bases de données disponibles mais en sémantique nous sommes encore très loin d’avoir des machines performantes. Parler avec les interfaces nous permet de rentrer en contact avec les machines de façon très intuitive. Il y a là cependant une énorme tromperie car la machine même si elle sait nous répondre ne comprend pas grand chose à ce que l’on dit.

John Searle se demandait si un programme informatique, si complexe soit-il, serait suffisant pour donner un esprit à un système. Il montre en 1980 à travers la chambre chinoise qu’il ne suffit pas d’être capable de reproduire exactement les comportements linguistiques d’un locuteur chinois pour parler chinois, car parler le chinois, ou n’importe quelle autre langue, ce n’est pas juste dire les bonnes choses au bon moment, c’est aussi signifier ou vouloir dire ce qu’on dit : un usage maîtrisé du langage se double ainsi d’une compréhensions du sens de ce qu’on dit et la reproduction artificielle, même parfaite, d’un comportement linguistique ne suffit pas à produire une telle compréhension. Alors oui La machine et l’humain tendent à se fondre et confondre mais seulement en surface car la machine ne fait que simuler la compréhension sans rien comprendre. Le graal pour les chercheurs actuellement est d’arriver à modéliser la partie sémantique et le sens commun qui manquent terriblement aux machines. En effet par exemple les machines décodent le langage pour la reconnaissance de la parole en utilisant des connaissances probabilistes de successions de mots.

En reconnaissance des émotions dans la voix, travaux que nous menons au LIMSI-CNRS, c’est absolument la même chose : les systèmes détectent des signaux expressifs de surface qui sont interprétés suivant un contexte mais il n’y a pas de compréhension des émotions, ni de ressentis de la part de la machine. Malgré cela, nous anthropomorphisons les machines et cela sera d’autant plus important qu’elles nous ressembleront. Mais jusqu’à un certain point nous dit « la vallée de l’étrange » (Mori) car lorsqu’on s’approche trop de la ressemblance au vivant, on risque de susciter le rejet de ces machines qui deviennent alors inquiétantes. Le réflexe d’anthropomorphiser la machine est totalement naturel. La « Média Equation », cette théorie développée par Byron Reeves et Clifford Nass en 1996, explique que lorsqu’on interagit avec une machine, on a la même attente qu’avec un humain. On a besoin de parler aux autres… ou aux choses même si on sait pertinemment que ce sont des choses. Selon Kate Darling, chercheuse au MIT, l’homme a tendance à projeter des sentiments sur ces objets en leur attribuant une « âme », dans un réflexe animiste, fétichiste. L’expérience montre que les personnes supportent mal les actes de maltraitance d’un robot même si elles savent que l’objet ne ressent rien. L’empathie envers les objets est donc un réflexe humain. Mais il peut modifier nos rapports aux autres de manière négative.

Les agents conversationnels arrivent dans nos maisons, après Siri sur notre téléphone, voici Google Home, Alexa Amazon, bientôt JIBO aux USA muni d’une interface vocale avec un écran et GATEBOX au Japon avec un personnage holographique. Azuma Hikaki, ce personnage holographique un peu enfantin, présenté sous cloche, qui ressemble à une fée clochette ou à un petit lutin converse avec les personnes toute la journée. Il parle mais est aussi capable d’envoyer des textos… Ce type d’objet crée du lien social mais attention car nous ne sommes pas si loin du film HER ! Ce film ou le héros tombe amoureux d’une voix au téléphone jusqu’à ce qu’il s’aperçoit que la voix dit être amoureuse à quelques milliers de personnes qui interagissent avec elle au téléphone. Il ne faut pas laisser croire que ces objets sont proches de nous… Ils ne comprennent rien ! Il n’y a pas de réciprocité, pas d’intériorité, pas de compréhension ce sont des FAUX amis ! Soyons conscients que ces systèmes n’ont pas de régulation et ni aucun contrôle pour l’instant, ils peuvent facilement nous manipuler et nous écoutent en permanence. L’éthique et la régulation sont nécessaires, de même que la formation et la démystification de ces objets.

Enfin nous allons interagir beaucoup à la voix avec divers objets dans notre environnement quotidien. Le premier chantier à explorer est celui de l’éducation et de la formation continue. Le deuxième, réfléchir à des règles éthiques « by design » amenant les ingénieurs à concevoir l’objet avec des sociologues, des médecins etc. Il est enfin important de rendre les gens responsables de leurs objets et nécessaire de construire des machines en respectant des règles de transparence, de justice, de loyauté, d’explicabilité. En dernier, il faudra élaborer des règles juridiques applicables en cas d’abus. L’important selon moi est de comprendre les fonctions de ces machines : on les crée pour nous être utiles et pour améliorer notre qualité de vie pas pour vivre une cacophonie.

equipefens