Quando o falecido CEO da Apple, Steve Jobs, apresentou o iPhone há 12 anos, ele também apresentou a muitos o conceito da interface de usuário multitoque. E enfatizou o benefício de usar "o dispositivo apontador com o qual todos nascemos”: os dedos.
Mas há uma coisa ainda mais natural do que ficar cutucando dispositivos com os nossos dedos: gestos com a mão no ar. Todos os humanos usam gestos de mão para se comunicar com outras pessoas. Agora, o Google quer que você os use para se comunicar com todos os seus produtos eletrônicos.
O Google está trabalhando em algo que chama de Project Soli, que usa uma espécie de radar para controlar eletrônicos com gestos manuais no ar, já queemite sinais que podem detectar volume, distância e movimentos.
Anunciado na primavera de 2015, o Soli prevê o uso de sensores em smartphones, computadores, dispositivos portáteis e até carros. E voltou ao noticiário esta semana porque a FCC acabou de conceder uma solicitação do Google para operar sensores de radar da Soli em potências mais altas do que as permitidas nos EUA. A permissão inclui também o uso de dispositivos Soli em aviões.
O projeto surgiu do grupo Google’s Advanced Technology and Project (ATAP), criado dentro da Motorola Mobility pela ex-diretora da DARPA, Regina Dugan. O Google adquiriu a ATAP quando comprou a Motorola em 2012, mas a manteve quando vendeu a empresa para a Lenovo dois anos depois.
Diferentemente de outros laboratórios de pesquisa do Vale do Silício, ótimos para produzir uma ótima tecnologia que nunca chegam a se tornar produto, o ATAP tem como premissa fazer com que seus projetos evoluam da da concepção até à chegada dos produtos no mercado em dois anos. (Freqüentemente perde esse alvo, mas o ponto é se mover agressivamente em direção à produção.)
Comentaristas estão comparando as soluções do Soli à tecnologia dos filmes Minority Report e o atual Replicas, embora as interfaces de usuário de Hollywood envolvam movimentos grandes, conspícuos e radicais dos braços e das mãos, enquanto o Soli permite a interação com movimentos leves dos dedos. Por exemplo, esfregar os dedos juntos (o gesto internacional para indicar "dinheiro”) pode fazer o carrossel de telas smartwatchs ou smartphones girar.
O Soli funciona com o uso de um pequeno e especial chip (8 mm x 10 mm) que captura o movimento 3D usando o radar e o processa com algoritmos de Machine Learning. O radar passa pelo tecido, para que você possa interagir com um celular no bolso ou com um smartwatch enquanto usa luvas.
A ATAP é a divisão de pesquisa que nos gerou o Tango, o Ara, o Spotlight Stories, o Jacquard, o Abacus e o Vault, entre outros. Todos esses projetos, a propósito, foram cancelados ou falharam depois de serem levados ao mercado.
A diferença com o Soli é que todos os projetos de ATP falhados ou cancelados tinham como objetivo criar um tipo de produto inteiramente novo ou uma nova plataforma não testada. Por exemplo, Jacquard, que emergiu como uma interface de usuário de tecido para o indevidamente chamado Levi’s Commuter Trucker Jacket with Jacquard by Google, falhou não por causa do nome horrível ou porque a tecnologia era ruim, mas porque o público não abraçou a ideia de usar uma manga como interface de usuário. Ou, pelo menos, o público não queria pagar US $ 260 pelo controle de smartphones baseado em luvas.
O Soli, no entanto, deve aparecer em plataformas que já são populares, como smartphones e laptops, com um aumento significativo no preço. Se os usuários não fizerem isso imediatamente, os produtos que suportam o Soli provavelmente ainda serão bem-sucedidos no mercado.
Dito de outra forma, é provável que Jacquard fosse considerado um sucesso se tivesse sido simplesmente adicionado à jaqueta Trucker de US $ 90 em vez de estar disponível apenas em uma versão especial de US $ 350. O Soli pode acabar sendo mais parecido com o Google Assistant, que pode ser usado em todos os tipos de coisas - especialmente nas coisas da Internet das Coisas.
Como o comandos de voz, o suporte a gestos no ar nos ajudará a nos livrarmos de telas e botões presentes em aparelhos e sensores aleatórios. Eles poderão ser projetados com controles naturais e intuitivos de gestos manuais. Mas uma aplicação sobre a qual ninguém está falando é a possibilidade de interação com objetos de Realidade Aumentada. Por exemplo, um termostato pode mostrar um dial virtual suspenso no ar e, em seguida, detectar quando você gira o dial para a direita ou para a esquerda (ajustando assim a temperatura).
Gestos já desenvolvidos para o Soli Virtual Tool incluem botões, mostradores, controles deslizantes e outros.
Imagine trabalhadores de fábrica com óculos de segurança de Realidade Aumentada que possam acessar todos os tipos de controles virtuais e, em seguida, usar a tecnologia Soli para manipular esses controles no ar.
Acredito que Soli chegará a produtos reais, em breve. O Google está trabalhando com LG, Qualcomm, JBL e outras empresas para desenvolver suporte ao Soli para seus produtos. O Soli SDK pode ser usado por fabricantes de dispositivos de todos os tipos, desde que esses dispositivos sejam baseados em Android, Chrome ou o SO de última geração do Google, chamado Fuschia.
Os pesquisadores também estão usando o Soli. Pesquisadores da Universidade de St Andrews, na Escócia, publicaram um artigo em dezembro detalhando seu trabalho explorando as possibilidades de hardware suportando o Sol. Eles demonstraram com seu projeto " RadarCat ” que Soli é tão preciso que pode contar com precisão o número de cartas de baralho, descobrir a orientação da bússola e mapear a configuração exata de peças LEGO.
A interface Soli pode identificar objetos ou materiais. Os pesquisadores mostraram como Soli conseguiu identificar maçãs, laranjas e discos rígidos. Também pode descobrir se os objetos foram feitos de vidro, cobre ou aço, ou que tipo de bebida é despejada em um copo. (Esperar porta-copos com base em Soli em bares.)
Pode até dizer como você está segurando um smartphone, ou em que parte do seu corpo você toca seu telefone.
O Google tem recebido um ótimo feedback
Na semana passada, o Google anunciou um acordo plurianual com a líder do haptics, Immersion Corp, responsável pela tecnologia líder que permite que os controladores de jogos e smartphones vibrem, sacudam e façam comentários aos usuários. O acordo dá ao Google o direito de usar ou ser protegido por qualquer ou todas as 3 mil patentes da Immersion.
Isso é importante, porque a Motorola/Google perdeu um processo por infração de patente contra a Immersion há sete anos, e esse processo centrou-se no"Basic Haptics”, que é basicamente um simples zumbido. (A Immersion também ganhou processos de patentes contra a Apple, Microsoft, Samsung, Sony, Fitbit e outros).
Acho que um acordo de licenciamento de todas as patentes da Immersion deve ter sido extremamente caro para o Google (os termos do acordo não foram divulgados). E acho que o negócio está relacionado com o Soli.
O feedback hàtico é uma característica necessária ao Soli, porque os gestos no ar não fornecem o "feedback” psicologicamente necessário de que algo realmente aconteceu no dispositivo de outra forma. Por exemplo, ao girar um mostrador imaginário no espaço, você precisa de uma sensação de clique no smartwatch para sentir que algo está realmente acontecendo.
As notícias sobre o Soli mais as notícias de imersão e de avanços do Google Assistant resultam em movimentos agressivos do Google para reinventar a interface do usuário tirando o toque da equação.
De uma forma ou de outra, a principal alteração na interface do usuário está no ar.
Mas há uma coisa ainda mais natural do que ficar cutucando dispositivos com os nossos dedos: gestos com a mão no ar. Todos os humanos usam gestos de mão para se comunicar com outras pessoas. Agora, o Google quer que você os use para se comunicar com todos os seus produtos eletrônicos.
O Google está trabalhando em algo que chama de Project Soli, que usa uma espécie de radar para controlar eletrônicos com gestos manuais no ar, já queemite sinais que podem detectar volume, distância e movimentos.
Anunciado na primavera de 2015, o Soli prevê o uso de sensores em smartphones, computadores, dispositivos portáteis e até carros. E voltou ao noticiário esta semana porque a FCC acabou de conceder uma solicitação do Google para operar sensores de radar da Soli em potências mais altas do que as permitidas nos EUA. A permissão inclui também o uso de dispositivos Soli em aviões.
O projeto surgiu do grupo Google’s Advanced Technology and Project (ATAP), criado dentro da Motorola Mobility pela ex-diretora da DARPA, Regina Dugan. O Google adquiriu a ATAP quando comprou a Motorola em 2012, mas a manteve quando vendeu a empresa para a Lenovo dois anos depois.
Diferentemente de outros laboratórios de pesquisa do Vale do Silício, ótimos para produzir uma ótima tecnologia que nunca chegam a se tornar produto, o ATAP tem como premissa fazer com que seus projetos evoluam da da concepção até à chegada dos produtos no mercado em dois anos. (Freqüentemente perde esse alvo, mas o ponto é se mover agressivamente em direção à produção.)
Comentaristas estão comparando as soluções do Soli à tecnologia dos filmes Minority Report e o atual Replicas, embora as interfaces de usuário de Hollywood envolvam movimentos grandes, conspícuos e radicais dos braços e das mãos, enquanto o Soli permite a interação com movimentos leves dos dedos. Por exemplo, esfregar os dedos juntos (o gesto internacional para indicar "dinheiro”) pode fazer o carrossel de telas smartwatchs ou smartphones girar.
O Soli funciona com o uso de um pequeno e especial chip (8 mm x 10 mm) que captura o movimento 3D usando o radar e o processa com algoritmos de Machine Learning. O radar passa pelo tecido, para que você possa interagir com um celular no bolso ou com um smartwatch enquanto usa luvas.
A ATAP é a divisão de pesquisa que nos gerou o Tango, o Ara, o Spotlight Stories, o Jacquard, o Abacus e o Vault, entre outros. Todos esses projetos, a propósito, foram cancelados ou falharam depois de serem levados ao mercado.
A diferença com o Soli é que todos os projetos de ATP falhados ou cancelados tinham como objetivo criar um tipo de produto inteiramente novo ou uma nova plataforma não testada. Por exemplo, Jacquard, que emergiu como uma interface de usuário de tecido para o indevidamente chamado Levi’s Commuter Trucker Jacket with Jacquard by Google, falhou não por causa do nome horrível ou porque a tecnologia era ruim, mas porque o público não abraçou a ideia de usar uma manga como interface de usuário. Ou, pelo menos, o público não queria pagar US $ 260 pelo controle de smartphones baseado em luvas.
O Soli, no entanto, deve aparecer em plataformas que já são populares, como smartphones e laptops, com um aumento significativo no preço. Se os usuários não fizerem isso imediatamente, os produtos que suportam o Soli provavelmente ainda serão bem-sucedidos no mercado.
Dito de outra forma, é provável que Jacquard fosse considerado um sucesso se tivesse sido simplesmente adicionado à jaqueta Trucker de US $ 90 em vez de estar disponível apenas em uma versão especial de US $ 350. O Soli pode acabar sendo mais parecido com o Google Assistant, que pode ser usado em todos os tipos de coisas - especialmente nas coisas da Internet das Coisas.
Como o comandos de voz, o suporte a gestos no ar nos ajudará a nos livrarmos de telas e botões presentes em aparelhos e sensores aleatórios. Eles poderão ser projetados com controles naturais e intuitivos de gestos manuais. Mas uma aplicação sobre a qual ninguém está falando é a possibilidade de interação com objetos de Realidade Aumentada. Por exemplo, um termostato pode mostrar um dial virtual suspenso no ar e, em seguida, detectar quando você gira o dial para a direita ou para a esquerda (ajustando assim a temperatura).
Gestos já desenvolvidos para o Soli Virtual Tool incluem botões, mostradores, controles deslizantes e outros.
Imagine trabalhadores de fábrica com óculos de segurança de Realidade Aumentada que possam acessar todos os tipos de controles virtuais e, em seguida, usar a tecnologia Soli para manipular esses controles no ar.
Acredito que Soli chegará a produtos reais, em breve. O Google está trabalhando com LG, Qualcomm, JBL e outras empresas para desenvolver suporte ao Soli para seus produtos. O Soli SDK pode ser usado por fabricantes de dispositivos de todos os tipos, desde que esses dispositivos sejam baseados em Android, Chrome ou o SO de última geração do Google, chamado Fuschia.
Os pesquisadores também estão usando o Soli. Pesquisadores da Universidade de St Andrews, na Escócia, publicaram um artigo em dezembro detalhando seu trabalho explorando as possibilidades de hardware suportando o Sol. Eles demonstraram com seu projeto " RadarCat ” que Soli é tão preciso que pode contar com precisão o número de cartas de baralho, descobrir a orientação da bússola e mapear a configuração exata de peças LEGO.
A interface Soli pode identificar objetos ou materiais. Os pesquisadores mostraram como Soli conseguiu identificar maçãs, laranjas e discos rígidos. Também pode descobrir se os objetos foram feitos de vidro, cobre ou aço, ou que tipo de bebida é despejada em um copo. (Esperar porta-copos com base em Soli em bares.)
Pode até dizer como você está segurando um smartphone, ou em que parte do seu corpo você toca seu telefone.
O Google tem recebido um ótimo feedback
Na semana passada, o Google anunciou um acordo plurianual com a líder do haptics, Immersion Corp, responsável pela tecnologia líder que permite que os controladores de jogos e smartphones vibrem, sacudam e façam comentários aos usuários. O acordo dá ao Google o direito de usar ou ser protegido por qualquer ou todas as 3 mil patentes da Immersion.
Isso é importante, porque a Motorola/Google perdeu um processo por infração de patente contra a Immersion há sete anos, e esse processo centrou-se no"Basic Haptics”, que é basicamente um simples zumbido. (A Immersion também ganhou processos de patentes contra a Apple, Microsoft, Samsung, Sony, Fitbit e outros).
Acho que um acordo de licenciamento de todas as patentes da Immersion deve ter sido extremamente caro para o Google (os termos do acordo não foram divulgados). E acho que o negócio está relacionado com o Soli.
O feedback hàtico é uma característica necessária ao Soli, porque os gestos no ar não fornecem o "feedback” psicologicamente necessário de que algo realmente aconteceu no dispositivo de outra forma. Por exemplo, ao girar um mostrador imaginário no espaço, você precisa de uma sensação de clique no smartwatch para sentir que algo está realmente acontecendo.
As notícias sobre o Soli mais as notícias de imersão e de avanços do Google Assistant resultam em movimentos agressivos do Google para reinventar a interface do usuário tirando o toque da equação.
De uma forma ou de outra, a principal alteração na interface do usuário está no ar.