Para anunciar as atualizações do Google Assistente durante o Google I/O 2018, o CEO Sundar Pichai apresentou duas demonstrações de telefonemas feitas pelo robô da empresa norte-americana. Na primeira delas, foi feito o agendamento de um corte de cabelo. Tudo o que o usuário fez foi falar para o Google marcar o compromisso. O resto foi por conta do Assistente.

Com onomatopeias como mhm, interjeições como “ok” e “ótimo”, o assistente conversa com quem está do outro lado da linha naturalmente, mesmo em situações complicadas. No exemplo do agendamento do corte de cabelo, a atendente explica que o horário desejado não está disponível. A Assistente, então, pergunta sobre uma outra opção.

A tecnologia ganhou o nome de Google Duplex que traz para o robô compreensão da linguagem natural, deep learning e texto to speech (TTS).

No segundo exemplo, a reserva em um restaurante, a atendente explica para o Google Assistente que eles não fazem reservas para mesas com até quatro pessoas. Nesse caso, o Assistente, pergunta, então, qual o tempo de espera para sentar à mesa. Durante a explicação da pessoa, ele ainda lança um “Ah, ok, I gotcha” (na tradução livre, “ah, ok, entendi”).

“O Assistente entende o contexto, as nuances e lida com adversidades de forma correta e educada”, explicou Pichai. A plateia ficou impressionada com a demonstração.

Essa atualização, no entanto, ainda não está disponível.

Voz

O Google Assistente ganhará novas opções de vozes, totalizando seis. No entanto, para se criar uma voz, são necessárias centenas de horas em um estúdio de gravação. Com avanços em AI e WaveNet, da DeepMind, o Google conseguiu criar novas vozes em semanas e foi capaz de capturar sutilezas como ritmo e pausas com significados, de modo que pareçam naturais. A partir desta terça-feira, o Google Assistente ganha a voz do cantor norte-americano John Legend.

Conversa Contínua e Múltiplas Ações

Outro recurso que o Google vai disponibilizar é a possibilidade de o usuário não precisar repetir sempre Hey Google para cada solicitação. Ou seja, a pessoa fala uma primeira vez, mas o Assistente entende que as próximas perguntas são direcionadas a ele. O Conversa Contínua estará disponível nas próximas semanas.

Já o Múltiplas Ações permite que o usuário pergunte várias coisas ao mesmo tempo. Os testes realizados mostram que o Google Assistente é capaz de entender, por exemplo, quando o usuário faz duas perguntas de uma vez só, como “Como está o tempo no Rio e em São Paulo?”.

Números

Hoje em dia, o Google Assistente está disponível em 500 milhões de dispositivos, funciona com mais de 5 mil dispositivos domésticos conectados, está em carros de mais de 40 marcas e é integrado aos devices mais recentes, como Active Edge, no Pixel2, e LGG7 ThinQ. Até o final de 2018, estará disponível em mais de 30 idiomas e 80 países.