Nueva Dimension en la era Digital
Proyecto SOLI
Como salido del universo
cinematográfico de Marvel, el Proyecto Soli esboza una promesa por una
tecnología de interacción sutil, donde los gestos de su mano podrían ajustar el volumen de su equipo,
establecer la hora en su reloj inteligente o - por qué no- ajustar las luces o
la temperatura, todo ello sin tocar nada, al mejor estilo de
Ironman.
Una reciente decisión del regulador de telecomunicaciones en EE. UU. habilitó a Google para continuar con el desarrollo de una innovadora tecnología, que permitiría detectar gestos manuales y controlar dispositivos sin necesidad de un contacto físico directo.
Una reciente decisión del regulador de telecomunicaciones en EE. UU. habilitó a Google para continuar con el desarrollo de una innovadora tecnología, que permitiría detectar gestos manuales y controlar dispositivos sin necesidad de un contacto físico directo.
Esta semana, la Comisión Federal de Comunicaciones (FCC) anunció que Google podrá operar en la banda de frecuencia de 57 a 64 GHz para continuar con un desarrollo que "servirá al interés público", el anuncio se refiere al Proyecto Soli, que fue presentado públicamente en 2015.
En un video de su
presentación, Ivan Popurev, líder del Proyecto Soli en Google, explicaba
que el sensor es capaz de capturar movimientos en un espacio tridimensional
utilizando frecuencias del espectro para detectar movimientos manuales. Se sabe
que hasta el momento, el sistema tiene la capacidad de generar experiencias de
movimientos submilimétricos con gran precisión, como el presionar un botón
invisible entre el pulgar y el índice o el girar un dial virtual al frotar un
dedo contra el dedo índice.
No se ve
afectado por las condiciones de luz y funciona a través de la mayoría de los
materiales. Solo imagine las posibilidades. Este desarrollo plantea
amplias posibilidades de interacción, que podrían simplificar la relación de
los usuarios con múltiples dispositivos inteligentes, como sistemas de IoT o
'wearables'.
Imagine, como lo muestra el video de presentación del proyecto, lograr definir la hora de su reloj solo con un movimiento de los dedos sobre la muñeca. Incluso, yendo ya al terreno de las posibilidades, se podría cambiar la música o contestar una llamada mientras conduce sin necesidad de quitar las manos del volante, o hasta tocar un piano sin hacer mucho más que deslizar sus dedos en el aire.
El desarrollo también plantea oportunidades para
beneficiar a personas con movilidad reducida o dificultades en el habla al
simplificar las formas de interactuar con dispositivos inteligentes. Como lo dice el mismo proyecto, "Soli no tiene partes móviles,
cabe en un chip y consume poca energía. No se ve afectado por
las condiciones de luz y funciona a través de la mayoría de los materiales.
Solo imagine las posibilidades..."
¿Cómo lo hacen?
Soli es un sensor que usa un radar para capturar
el movimiento de una mano humana. Más técnicamente, es un sistema
que emite ondas electromagnéticas en niveles amplios de forma tal que los
objetos dentro del rango de la onda dispersan la energía y reflejan una parte
de ella hacia una antena del radar.
A la señal que es reflejada
se le suma la energía, el tiempo que toma el movimiento y el cambio en la
frecuencia, todo lo cual brinda información sobre el objeto y su
comportamiento. De esta manera el radar entiende cosas como el tamaño, el
material o la forma del objeto, la orientación de la mano, la distancia y la
velocidad en la que ocurre el movimiento. También entiende si una mano es más
grande que la otra y se mueve de forma diferente.
Después del mapeo del
objeto, Soli es capaz de rastrear y reconoce los gestos de la mano, incluyendo
movimientos finos de los dedos. Para lograrlo, Google creó "un nuevo
paradigma de detección de radar con hardware, software y algoritmos
personalizados".
El proyecto, además, está trabajando en la creación de un "lenguaje de interacción de gestos universal" que le permita a los usuarios, sin importar el tipo de dispositivo, controlar funcionalidades con el mismo conjunto de gestos.
El proyecto, además, está trabajando en la creación de un "lenguaje de interacción de gestos universal" que le permita a los usuarios, sin importar el tipo de dispositivo, controlar funcionalidades con el mismo conjunto de gestos.
Fuente
Bibliográfica:
No hay comentarios.:
Publicar un comentario
Tu opinion es importante y la valoramos. Opina y Comparte con nosotros.