Google revela sensor que consegue controlar wearables com gestos

01/06/2015 10:37
Batizado de Project Soli, tecnologia consegue distinguir gestos para manipular dispositivos vestíveis.
 

Durante o Google I/O, a companhia revelou o seu sensor-radar que consegue capturar e interpretar os movimentos da mão, o Project Soli.

Ao invés de deslizar o dedo, por exemplo, em uma tela do smartphone, uma pessoa poderia fazer o mesmo ao replicar o movimento sobre um wearable equipado com o sensor.

O objetivo é substituir todos os comandos físicos necessários para controlar wearables com gestos manuais, disse Ivan Poupyrev, responsável pelo projeto no Google.

O sensor-radar consegue capturar movimentos sutis em 3D e funcionar durante dia ou noite, entre outros critérios, explicou.

Para o Project Soli, Google e seus parceiros encolheram as funcionalidades do radar para um chip que pode ser facilmente instalado dentro de um dispositivo vestível.

O sensor consegue distinguir distância assim como os gestos. Durante a demonstração no Google I/O, Poupyrev mudou o horário em um relógio digital mantendo sua mão em diferentes alturas. Ao aproximar sua mão perto do chip e fazer o movimento circular com os dedos, ele conseguiu mudar os ponteiros das horas enquanto ao manter sua mão mais alta, ele mudou os minutos.

O Google está construindo uma API (application programming interface) para o radar e deve lançá-la ainda no final deste ano. 

 

 
Fonte:IDGNOW