in

Google travaille sur une nouvelle technologie capable de lire votre langage corporel sans utiliser de caméras

Il ne sert à rien de le nier, mais l’automatisation est l’avenir. Imaginez un monde où votre téléviseur met en pause le film ou l’émission que vous regardez lorsqu’il détecte que vous vous êtes levé pour aller chercher un nouveau bol de pop-corn, et reprend la lecture du contenu lorsque vous revenez. Ou que diriez-vous d’un ordinateur qui détecte que vous êtes stressé au travail et commence à jouer des airs doux et relaxants ?

Google travaille sur une nouvelle technologie capable de lire votre langage corporel sans utiliser de caméras

Eh bien, aussi futuristes que ces idées semblent, la plupart de ces choses se produisent maintenant. Cependant, l’une des principales raisons pour lesquelles il n’a pas décollé avec un bang, c’est que ces systèmes utilisent des caméras pour enregistrer et analyser le comportement des utilisateurs. Le problème avec l’utilisation de caméras dans de tels systèmes est qu’elle soulève une tonne de problèmes de confidentialité. Après tout, les gens sont en fait paranoïaques à propos de leurs ordinateurs et smartphones, en gardant un œil sur eux.

Google travaille actuellement sur un nouveau système, qui enregistre et analyse les mouvements et le comportement des utilisateurs, sans utiliser de caméras. Au lieu de cela, la nouvelle technologie utilise un radar pour lire les mouvements de votre corps et comprendre votre humeur et vos intentions, puis agir en conséquence.

L’idée de base du nouveau système est qu’un appareil utilisera un radar pour créer une conscience spatiale et surveillera l’espace pour tout changement, puis enverra des instructions conformément à ce que l’utilisateur voudrait que le système fasse.

Ce n’est pas la première fois que Google joue avec l’idée d’utiliser des stimuli basés sur la conscience spatiale pour ses appareils. En 2015, Google a dévoilé le capteur Soli, qui utilisait des ondes électromagnétiques radar pour capter des gestes et des mouvements précis. Google a utilisé le capteur pour la première fois dans Google Pixel 4, lorsqu’il utilisait de simples gestes de la main pour diverses entrées, comme la répétition d’alarmes, la mise en pause de la musique, la prise de captures d’écran, etc. Google a également utilisé le capteur basé sur un radar, dans l’écran intelligent Nest Hub, pour étudier les mouvements et les schémas respiratoires d’une personne qui dort à côté.

Des études et des expériences autour du capteur Soli permettent désormais aux ordinateurs de reconnaître nos mouvements quotidiens et de faire de nouveaux types de choix.

La nouvelle étude se concentre sur la proxémie, l’étude de la façon dont les gens utilisent l’espace autour d’eux pour arbitrer les interactions sociales. Cela suppose que les appareils tels que les ordinateurs et les téléphones portables disposent de leur propre espace personnel.

Ainsi, lorsqu’il y a des changements dans l’espace personnel, le radar le détecte et envoie des instructions. Par exemple, un ordinateur peut démarrer sans que vous ayez à appuyer sur un bouton.

Google travaille sur une nouvelle technologie capable de lire votre langage corporel sans utiliser de caméras

La dernière frontière pour l’automatisation à grande échelle a été le secteur privé, les utilisateurs finaux et les ménages. Si Google est en mesure de finaliser cette technologie et de la généraliser, ce sera une victoire massive pour l’automatisation.

45secondes est un nouveau média, n’hésitez pas à partager notre article sur les réseaux sociaux afin de nous donner un solide coup de pouce. ?