sábado, 11 de maio de 2019

Três recursos que a Apple deve emprestar dos anúncios de I / O do Google | Macworld

A primavera surgiu, e com isso vem o ataque de empresas de tecnologia anunciando as últimas atualizações de seus produtos. Esta semana, foi a nota-chave de E / S do Google que tomou o palco principal, pois a empresa de Mountain View catalogou todos os novos dispositivos, recursos e promessas que ele segmentou para 2019.

Muitos dos recursos sobre os quais o Google falou são uma tentativa clara de recuperar o atraso em áreas onde a Apple já se destaca: a privacidade, por exemplo, ou a distribuição de atualizações de segurança. Não pretendo sugerir que a Apple precise de alguém, mas todo o propósito da competição é impulsionar a inovação.

Com isso em mente, expusemos três áreas que o Google abordou durante sua palestra, na qual a Apple pode se beneficiar ao seguir o exemplo de um de seus frenemias mais proeminentes.

O Google introduziu alguns novos recursos impressionantes no Google Assistente.

Um lugar onde o Google concentrou muita atenção nos últimos anos é o desenvolvimento de seu assistente virtual intitulado, apropriadamente, Assistente. Durante sua palestra de E / S, o Google passou muito tempo demonstrando seu "assistente de última geração", que aumenta muito a velocidade das consultas em um smartphone.

Embora essa velocidade seja impressionante por si só, é ainda mais quando combinada com o recurso de "conversa contínua" já existente, que permite fazer várias consultas seguidas sem precisar usar a palavra de ativação "Hey Google" várias vezes. A velocidade e a falta de interrupção são cruciais quando se trata de um assistente virtual, mas também é outra escolha que o Google fez aqui: ao contrário do Siri, o Assistente do Google não coopta toda a interface do smartphone quando está em uso.

O Siri no iOS agora é modal, como aquelas caixas de diálogo antigas no Mac OS clássico. Quando a Siri está funcionando, você não pode fazer mais nada com seu dispositivo. Isso pode levar ao uso de Siri como adversário ao uso do restante de seu smartphone, já que você deve escolher um ou outro - e os usuários geralmente acabam escolhendo a tela do smartphone, porque, francamente, geralmente é mais rápido e eficiente.

Mas o futuro dos assistentes virtuais é, como acontece com assistentes humanos, multitarefa. Afinal de contas, dois cérebros são melhores do que um, e se o seu assistente virtual pode estar lidando com uma tarefa - por exemplo, como o Google demonstrou, procurando informações de voo - enquanto você continua o que estava fazendo, movemos a agulha mais para o tecnologia sendo uma ajuda e não um obstáculo.

O Google introduziu o Nest Hub Max, um hub inteligente com uma tela, no Google I / O.

Por um capricho, recentemente peguei um Hub Inicial do Google e fiquei impressionado com o dispositivo. É o primeiro alto-falante inteligente do Google com uma tela e provou ser um dispositivo bem projetado que usa sua tela com bom efeito, ao contrário de outras entradas no espaço. As exibições visuais do tempo, informações do calendário e cronômetros são geralmente uma maneira melhor de apresentar as informações e, em seu tempo livre, o Home Hub realmente cria um atraente porta-retrato digital. O Google aparentemente também concorda, já que esta semana anunciou planos para lançar uma versão maior com uma câmera nos próximos meses.

Francamente, está convencido de que a próxima versão da Apple em um dispositivo doméstico inteligente deve incluir uma tela. (A exibição ondulada na parte superior do HomePod não conta realmente.) É especialmente esse o caso se, como agora, o HomePod se recusar a responder às consultas mais complicadas que o Siri no iOS exibiria como respostas visuais. Entendo que a Apple priorizou o áudio com o HomePod, mas certamente não é o único caso de uso para a tecnologia de assistente inteligente.

Se nada mais, adicionar uma tela também ajudaria a melhorar a experiência do usuário do HomePod, que é, sem dúvida, o pior entre todos os alto-falantes inteligentes que já possuí. (E eu já tive alguns.) Para uma empresa que é tão boa em dispositivos touchscreen, o HomePod fica muito aquém da marca.

O Google Live Caption exibe legendas para qualquer vídeo que você reproduz.

A acessibilidade é um lugar que a Apple tem feito incrivelmente bem na última década, especialmente em seus dispositivos móveis. A empresa percebeu desde o início como a tecnologia pode ser transformadora para aqueles que têm desafios com visão, audição, mobilidade e assim por diante, além de fornecer recursos que realmente fazem a diferença na vida das pessoas.

Mas um lugar que o Google superou foi com o novo recurso Live Caption, que gera automaticamente legendas para qualquer vídeo que você reproduza em qualquer aplicativo, incluindo videochamadas ao vivo. A geração de legendas é feita automaticamente no seu dispositivo, o que significa que funciona mesmo quando você está no modo avião.

A Apple realmente tem um recurso como esse, mas ele está dentro do aplicativo de vídeo do Clips e funciona apenas para vídeos gravados. Nas poucas vezes em que usei esse recurso do Live Titles, tudo bem, mas não ótimo. Mas certamente seria um ponto de partida sólido para um recurso semelhante em todo o sistema operacional e seria uma boa adição às ferramentas de acessibilidade da Apple.

Texto retirado de https://macworld.com/article/3393252/three-features-apple-should-borrow-from-google-s-i-o-announcements.html

Nenhum comentário:

Postar um comentário