Oubliez « Ok Google », l’assistant Google va vous répondre si vous le regardez

Google a présenté une nouvelle fonctionnalité qui va permettre de se passer du fameux « Ok Google », et de parler directement à son assistant vocal.

« Plus besoin de Ok Google » pour faire marcher Google Assisant. Ce n’est pas nous qui le disons, mais le moteur de recherche lui-même. Lors de sa conférence Google I/O, la firme de Mountain View a longuement présenté Android 13, mais elle a aussi eu quelques mots pour les assistants connectés.

Pour aller plus loin

Parmi les nouvelles fonctionnalités annoncées, « Look and Talk », qui sera disponible sur l’enceinte Google Nest Hub Max. La promesse est simple: grâce à « 100 signaux captés par l’appareil photo et le microphone », les assistants connectés n’auront plus besoin d’entendre la fameuse phrase pour être activés. Il suffira de parler en les regardant pour qu’ils s’allument.

La fonctionnalité Look and Talk a été annoncée par Google // Source : Google
La fonctionnalité Look and Talk a été annoncée par Google // Source : Google

Des centaines de signaux captés

Look and Talk est déjà disponible aux États-Unis, mais seulement sur les Google Nest Hub Max. Il n’y a pas de date annoncée pour le moment pour un déploiement dans le reste du monde. Il s’agit d’une option, qui est donc activable ou non en fonction des besoins des utilisateurs.

La fonctionnalité a été pensée pour garantir la vie privée des utilisateurs, explique Google, ce qui fait qu’elle ne sera utilisable que par les personnes qui y seront autorisées — pas de crainte ainsi de N qu voir aux commence d ‘elle pourrait entendre à la télévision. L’assistant connecté reconnaîtra les utilisateurs avec les fonctionnalités Face Match et Voice Match des Nest Hub Max.

Le Google Nest Hub Max // Source : Google
Le Google Nest Hub Max // Source : Google

Une fois activée, l’option Look and Talk vous permettra de simplement parler et demander des choses au Google Nest Hub Max, sans avoir besoin de dire « Ok Google ». Il faudra par contre que vous soyez proche de l’appareil (pas plus loin qu’un mètre et demi), et que vous regardiez dans sa direction. L’assistant prend en compte 100 signaux afin de confirmer que vous vous adressez à lui, comme la proximité, l’orientation de la tête et du regard, ou encore le mouvement des lèves et ce que Google appelle la « conscience du contexte ».

Surtout, tous les capteurs ont été testés et mis au point pour pouvoir fonctionner avec toutes les teintes de peau. C’est en effet un problème récurrent pour les intelligences artificielles, qui sont souvent trop entraînées avec des photos d’hommes blancs, et qui reconnaissant mal les nuances sur des peaux plus sombres.

Autre détail important, sur lequel Google insiste : toutes les vidéos issues de ces interactions seront traitées directement par l’assistant connecté, et elles ne seront pas partagées avec Google, ou qui que ce soit d’autre.

Leave a Comment