FUTUR.E.S #humainXmachine : à quoi ressemble(ro)nt les interfaces de demain ?

C’est le retour des événements FUTUR.E.S # : rendez-vous le 7 décembre pour, le temps d’une matinée, plonger au cœur des nouveaux modes d’interaction comme si 2018 n’était qu’un vieux souvenir. 

Disponible en un clic ? Vraiment ? Avec des termes comme l’intelligence artificielle, le smartphone ou le transhumanisme, la technologie cultive sa volonté de s’approcher de nos fonctions l’humaines. Les interfaces nous paraissent plus naturelles et rentrer en contact avec des machines n’a jamais été aussi intuitif. L’interface tactile est d’ores et déjà une norme, la voix tend à devenir un nouveau canal de contrôle pour la maison. La machine et l’humain tendent à se fondre et confondre, à s’interpeller l’un l’autre pour s’enrichir mutuellement.

Inscrivez-vous à FUTUR.E.S #HumainxMachine : une matinée pour découvrir en démo une sélection de projets transformateurs et rencontrer ceux qui les portent, avec l’esprit défricheur de Futur en Seine.

Les projets confirmés :

  • Realcast développe une technologie et des contenus interactifs en XR (Extended Reality). Son produit, In Situ eXPerience (ISXP), propose une expérience interactive & immersive à travers différents périphériques sans fil (HoloLens, smartphone).
  • Snips offre une plateforme de reconnaissance vocale « offline » qui permet aux entreprises d’embarquer de la voix dans leurs produits et services, sans avoir à sacrifier leur image de marque, leurs données, ou la vie privée de leurs utilisateurs.
  • Lutin userlab a créé eyeTracktion, un système d’interaction basé sur la technologie de l’eye tracking. Il permet à tous de contrôler diverses interfaces par le regard pour des usages multiples (informatique, jeu vidéo, smartphone, chirurgie, photographie…).
  • Ubikey conçoit des plateformes prenant la forme d’une table de travail interactive et / ou d’un paperboard multi-utilisateurs et multitouch, afin d’optimiser les réunions en entreprises et les méthodes de travail collaboratif.
  • CandyVoice propose une solution de personnalisation des Text To Speech (synthèse vocale à partir du texte) grâce à son logiciel d’imitation vocale pour les professionnels et les particuliers.
  • Embodme invente La Table, un instrument de musique électronique dont le fonctionnement repose sur la capture de micro gestes des doigts, produits dans un espace tridimensionnel, à l’aide de capteurs infrarouges.
  • APIdou est une peluche connectée livrée avec un ensemble d’applicatifs ludo-éducatifs, permettant aux enfants de 3 à 5 ans d’appréhender le numérique.
  • L’Institut de Recherche et d’Innovation présente RENKAN, un outil de production de graphes de connaissances.
  • Chaï est une application qui combine intelligence artificielle et synthèse vocale pour transformer un contenu papier en audio. Pour lire plus, et partout.
  • Bioserenity réalise des vêtements connectés permettant de faire des diagnostics à distance. Leur solution CardioNaute permet le suivi des pathologies cardiaques.
  • Chronocam propose une technologie de vision artificielle, inspirée du fonctionnement de l’œil humain qui s’adapte aux besoins d’une multitude d’applications (véhicules autonomes, dispositifs connectés, systèmes de sécurité et de surveillance…).
  • Keecker est un robot mobile et autonome, qui regroupe les fonctions de tous les appareils multimédias : diffusion du son, projection d’images et de vidéos…Il se déplace sur commande vocale ou via un smartphone.
  • Technicolor présentera deux démos : une interface en réalité augmentée, Mixed Reality for TV Mozaic, et une interface haptique, Haptic Editor.
  • CEA Tech développe un bouton rotatif qui permet de moduler la résistance au mouvement et ainsi, transmettre à l’utilisateur des informations concrètes et conscientes par le toucher.
  • Hayo est un système de réalité augmentée pour contrôler les objets connectés. Composé d’un capteur 3D et une application, le système Hayo transforme toutes surfaces et espaces en commandes virtuelles.
  • Le CNAM / CEDRIC présentera trois projets :
    – Une méthode de zoom audio. Ce nouveau mode d’interaction sonore permet de mettre en avant un objet parmi d’autres et peut servir pour l’exploration d’une base de donnée de vidéos.
    – L
    e rouleau de lecture : une liseuse ludique en forme de cylindre. La rotation animée par les mains du lecteur assure un défilement continu du texte, sans rupture attentionnelle comme avec une liseuse conventionnelle.
    – Udock qui propose une nouvelle manière d’interagir avec un couple de molécules dont on cherche à évaluer les interactions physico chimiques. Son objectif consiste à offrir une interaction ludique tout en maintenant la validité scientifique des observations et à explorer de nouvelles méthodes de visualisation et de manipulation d’objets 3D complexes.


Informations pratiques 

FUTUR.E.S #HumainxMachine
Organisé avec le soutien de Huawei.
En partenariat avec L’ADN.
Où ? Cap Digital, 14 rue Alexandre Parodi, 75010 PARIS
Quand ? Le 7 décembre 2017, de 9h30 à 13h
Restez informés : Event Facebook / #humainXmachine

 

Billetterie Weezevent