https://mail.google.com/mail/u/0/?ui=2&ik=3ab76eea9c&view=att&th=1648a6d4d6c2fa40&attid=0.1&disp=safe&zw

“EL RADAR EN LOS MÓVILES ES EL SIGUIENTE PASO”

Primero fue el teclado, luego llegó el ratón y finalmente la pantalla táctil y los lápices digitales. Todos ellos, interfaces, nos permitían interactuar con ordenadores, tabletas y teléfonos móviles. Pero siempre a través de un intermediario físico. Ahora ha llegado el paso siguiente: la relación sin intermediarios. El último modelo de smartphone de Google, el Pixel 4, tiene un pequeño chip de radar en su interior. Gracias a él y a la tecnología Motion Sense, es capaz de detectar nuestra presencia, así, sin interfaces, sin cámara, sin intermediarios. La tecnología es hija del Proyecto Soli. Esencialmente hay tres tipos de interacciones, según nos explica Brandon Barbello, director de producto de Pixel en Google. La primera de ellas es la presencia: el chip se asegura que estamos cerca y, si no es así, apaga la pantalla. La segunda interacción tiene que ver con la distancia, que puede llegar a los 6 metros. Gracias a ello el dispositivo activa los sensores de desbloqueo facial. Si suena una alarma o un tono de llamada, el teléfono se silencia automáticamente cuando ve que acercamos nuestra mano.
Y por último están los gestos. Acercar la mano y agitarla permite descartar mensajes o llamadas y hacer un movimiento hacia la izquierda o la derecha, permite por ejemplo, pasar a la canción siguiente o volver a la anterior. Es cierto que el potencial es enorme, pero Google aún no ha abierto esta capacidad a desarrolladores externos.

Entrevista con Brandon Barbello, CEO de producto de Pixel.

Si bien es verdad que muchas de estas características ya se han realizado con otros sensores, como acelerómetros o cámaras, para Barbello “hay importantes diferencias a la hora de usar un microchip como el de Motion Sense. El radar requiere mucha menos energía que una cámara y precisamente al no ser una cámara no hay problemas de identificación, uso de datos y privacidad”.  Otra ventaja es que no habría ningún obstáculo para que la tecnología siga funcionando aún si el móvil está boca abajo. “Podemos trabajar con movimientos tan precisos como las alas de una mariposa – añade Barbello –. Cuando comenzamos con el proyecto, hace tres años, conseguimos girar las agujas de un reloj virtual solo usando el pulgar y el índice. Pero para llegar hasta donde estamos ahora, tuvimos que hacer todo desde cero, ya que radares con esta dimensiones y capacidades no existían”.
Pero el problema no fue solo el tamaño: Google está limitando lo que Motion Sense puede hacer porque está creando un lenguaje de interacción completamente nuevo y necesita limitar el vocabulario al principio. De lo contrario, sería abrumador, o al menos molesto ya que no todos movemos las manos con la misma intensidad, dirección o velocidad.
“Lo que perseguimos – concluye Barbello – es que el dispositivo se convierte en algo más proactivo. La tecnología Motion Sense podría aplicarse, por ejemplo, a personas ciegas y mediante el movimiento de las manos crear un lenguaje propio. Potencialmente el radar también sería capaz de atravesar materiales y en este campo también tenemos mucho que explorar”.


quo