FUTUR.E.S #humainXmachine : 3 dimensions de l’interaction illustrées par nos démos

Depuis que nous vivons de façon hyper-connectée, notre environnement lui-même nous propose des modalités d’interaction multiples, et en principe, de mieux en mieux adaptées à la diversité de nos situations d’usage.

Mais si aujourd’hui nous devons encore interagir avec des dispositifs numériques variés et souvent complexes, des claviers, des souris, des écrans, …. La promesse de l’intelligence artificielle ne commence-t-elle pas par une forme d’effacement des interfaces matérielles ? Pour atteindre la fluidité et l’instantanéité souhaitée dans l’interaction avec nos services préférés, quoi de mieux que d’agir simplement avec notre corps et nos sens, en s’affranchissant des dispositifs matériels contraignants ?

En un mot, est-il plus simple et plus « naturel » de parler à une machine, de tracer un geste dans l’espace, d’exercer une simple pression sur une surface sensible, que d’utiliser nos habituels terminaux physiques ? Voir, Parler, Toucher, ce sont ces trois dimensions de l’interaction que nous nous proposons d’explorer.

# LA VISION : TOUJOURS PLUS D’IMMERSION

L’image comme représentation du réel, la réalité représentée sous de multiples formes imagées ? Toutes ces combinaisons d’images réalistes, réelles, virtuelles, interactives sont entrées dans nos usages. Réaliser ses courses en réalité virtuelle ? Amazon cherche à devenir pionnier dans cette filière. Environ un million de casques de réalité virtuelle ont d’ailleurs été vendus au troisième trimestre ; le marché se développe, les interfaces numériques s’installent dans la sphère privée.

  • Faciliter la visualisation. C’est humain : visualiser des données cartographiées permet de comprendre la globalité d’un sujet. C’est la volonté de RENKAN, outil collaboratif de cartographie des savoirs, par l’IRI. Faciliter le travail de compréhension, c’est aussi l’objectif du CNAM, qui propose un rouleau de lecture, qui permet un déroulement continu de texte : la lecture n’est jamais interrompue, l’attention du lecteur n’en est que meilleure !
  • Immersion virtuelle complète. Proposer une expérience interactive en réalité augmentée comme RealCast. L’objectif est de faire disparaître la technologie de l’expérience, pour concentrer l’attention sur la création. C’est également la proposition de Technicolor, et de ses interfaces haptiques et immersives. Enfin, gérer sa maison grâce à la réalité augmentée ? C’est l’ambition de Hayo, qui, grâce à la réalité virtuelle, transforme l’espace en télécommande pour l’intérieur de la maison.
  • Suivez mon regard. Fonder l’interaction sur le modèle du regard ? Chronocam développe la vision des machines sur l’exemple du modèle humain. Quant à Lutin Userlab, sa technologie EyeTracking permet à l’humain d’interagir avec une interface numérique, par le simple mouvement de ses yeux.

# LA PAROLE : LE DIALOGUE ENTRE HUMAIN ET MACHINE

Et si la parole remplaçait l’interface numérique ? Le développement des assistants intelligents, comme Siri depuis 2011 ou Alexa, semble démontrer que la commande vocale est particulièrement appréciée. Le contrôle par la voix s’étend, comme en témoigne l’ajout par Waze de la commande vocale, pour permettre de modifier sa trajectoire pendant la conduite. L’assistance vocale offerte par différents dispositifs intelligents pourrait atteindre jusqu’à 3,5§ de chiffres d’affaire d’après Gartner.

  • L’humain parle à la machine. Dialoguer avec une intelligence artificielle capable de gérer son environnement et centraliser plusieurs dispositifs : c’est la promesse de Snips. L’assistant vocal met au second plan simplifiant les processus. Autre démo, par Keecker, qui présente le robot assistant à commande vocale pour toute la maison.
  • La machine répond à l’humain. La réactivité de la machine entretient l’interaction. CandyVoice développe une solution de synthétisation et d’imitation de la voix. Autre option : utiliser le zoom audio pour explorer les bases de données, développée par le CNAM.
  • Raconte-moi une histoire. L’intelligence Chaï lit à voix haute les textes : une intelligence artificielle prend la suite de votre lecture, grâce à une synthèse vocale.

# LE TOUCHER ET LE MOUVEMENT : COLLABORATION ENTRE RÉEL ET VIRTUEL

L’arrivée imminente de Microsoft Hololens, référence de réalité mixte, témoigne de la volonté de développer le service en Europe. Une technologie créant un nouveau mode d’interaction avec les machines, plus moderne, plus intelligent. Une forme d’entraide émerge entre humains et machines : la première opération assistée d’Hololens a eu lieu il y a peu.

  • Le toucher de la machine. Les interfaces interactives répondent à une sollicitation, de la manière la plus humaine possible. La table de travail interactive présentée par Ubikey est quant à elle une interface pour le travail collaboratif, mettant la nouvelle technologie au service de l’intelligence collective. Le CEA Tech présente son bouton rotatif pour transmettre des informations par le toucher, une nouvelle étape de l’immersion virtuelle : l’illusion de la friction d’une matière sur le doigt.
  • Dialogue avec l’environnement. Tous les aspects du quotidien invitent à l’interactivité, comme le vêtement connecté Bioserenity, qui collecte des données médicales pour les envoyer aux hôpitaux et médecins concernés pour réaliser des diagnostics mieux documentés. Aussi, pour comprendre le numérique, APIdou propose une première approche pour les enfants, de façon totalement sécurisée.
  • Manipuler son espace. La démo de Embodme permet de composer de la musique en captant les mouvements des mains, dans un espace défini. Interagir avec l’espace, c’est aussi la proposition du CNAM avec UDock, qui permet une nouvelle manipulation de visualisations 3D.

 

Venez manipuler et dialoguer avec ces innovations à FUTUR.E.S #HumainxMachine le 7 décembre 2017, de 9h30 à 13h à Cap Digital (14 rue Alexandre Parodi, 75010 PARIS).

Liste des démos, information et inscription : ici

FUTUR.E.S #HumainxMachine est organisé avec le soutien de Huawei et en partenariat avec L’ADN.

equipefens