A IBM está entrando no mercado de assistentes digitais com seu próprio Watson Assistant, ativado por voz. Um sistema baseado em Inteligência Artificial que adota uma abordagem diferente dos outros players do mercado, visando aplçicações empresariais. Ao contrário do Alexa, Google Assistant, Cortana e Siri, o Watson Assistant, anunciado na semana passada, é um serviço white-label que – da perspectiva do usuário – é executado em segundo plano na IBM Cloud.
Não há nenhuma palavra de ativação, como “OK, Google”, “Hey Siri” ou “Alexa”. Também não há planos para a existência de um dispositivo da marca Watson, vendido nas lojas, como no caso do Google Home e do Amazon Echo. Isso porque a IBM está vendendo o Watson Assistant diretamente para as empresas, e não para os consumidores, disse Bret Greenstein, vice-presidente da Watson IoT. “Decidimos adotar um ponto de vista de mercado que é mais amigável para os clientes corporativos”, disse ele.
A ideia é a de que o Watson pode fornecer a tecnologia de IA do assistente, sobre a qual uma empresa pode colocar a voz da sua própria marca, personalizar seus recursos para usos específicos e implantá-los em uma variedade de dispositivos conectados.
Do ponto de vista do consumidor, as conversas serão com um negócio – seja ele um varejista, uma empresa automobilística ou qualquer outro tipo de organização – em vez de com o Watson.
“Em primeiro lugar, nós adaptamos a marca do cliente, então mesmo que tudo seja orquestrado pelo Watson, você não estará falando com o Watson, você estará falando com o seu BMW ou com o assistente de qualquer empresa”, disse Greenstein. [Aqui no Brasil, pensei imediatamente nos assistentes desenvolvidos pelo Bradesco e pelo Banco do Brasil.]
Como o Watson Assistant funciona?
A IBM já vende produtos de IA para conversação conversação em linguagem natural como parte do portfólio da Watson. O Watson Assistant combina algumas dessas tecnologias já existentes. Isso inclui o Watson Conversation, uma estrutura para criar chatbots e aplicativos que exigem processamento de linguagem natural que está sendo renomeado como Watson Assistant e o Watson Virtual Agent, que será desativado.
A IBM, em seu anúncio, ofereceu um resumo aos desenvolvedores dos novos recursos do Watson Assistant. Além de fornecer uma estrutura que permite aos desenvolvedores criar suas próprias habilidades, a IBM já construiu três habilidades específicas verticais para o Watson Assistant – para usos industriais, automotivos e de hospitalidade.
Um “perfil cognitivo” pode ser construído em torno de um usuário e usado para fazer recomendações proativas com base no comportamento e nas preferências do passado , disse Greenstein. Por exemplo, um assistente automotivo com base no Watson pode sugerir uma pausa para o café depois de três horas de condução e, em seguida, sugerir onde tomar este café nas proximidades.
Na opinião de alguns analistas, a segmentação de mercados verticais permite que a IBM comunique os benefícios do Watson Assistant aos clientes com mais eficiência.
“Um dos principais desafios da IBM é a educação de mercado; ajudar as organizações a entender os casos de uso nos quais os assistentes de IA podem ser relevantes para redução de custos, melhoria do atendimento ao cliente, automação do fluxo de trabalho etc”, disse Raúl Castañón-Martínez, analista sênior da 451 Research. “A abordagem [da IBM], que se concentra em verticais e casos de uso estritamente definidos, é uma medida inteligente que pode ajudar a companhia a superar esse desafio.”
Brandon Purcell, analista sênior da Forrester, acredita que, para as empresas automotivas, o Watson Assistant “faz todo o sentido – os fabricantes de automóveis como a BMW estão decididamente procurando dar mais autonomia aos motoristas com assistentes de voz e não querem se sentir dependentes da Amazon ou da Apple”.
Para hospitalidade, no entanto, ele acredita em “uma venda mais difícil”, já que muitos grandes hotéis já começaram a equipar os quartos com aparelhos da Apple e da Amazon.
O Watson Assistant em uso
Outros clientes em potencial do Watson Assistant incluem o fabricante de dispositivos conectados Harman, uma subsidiária da Samsung que criou um sistema de cockpit digital instalado em um Maserati GranCabrio, e o Royal Bank of Scotland, que usará o assistente de AI em chamadas do contact center.
Motorista interage com o Watson Assistant
em um “cockpit digital” da empresa de
eletrônica automotiva HARMAN
(imagem: IBM/divulgação)
Greenstein também apontou para uma implantação no aeroporto de Munique, onde o Watson Assistant está embutido em um robô da Softbank Pepper que responde a perguntas e fornece orientação para viajantes, como onde os portões estão localizados e por que um vôo pode estar atrasado.
“Eles não estão falando com Watson, estão conversando com o aeroporto de Munique e estão recebendo ajuda enquanto viajam”, disse ele. Isso torna o Watson “muito diferente dos assistentes para o mercado de consumido que insistem em sua própria marca”.
No entanto, pode haver desvantagens na abordagem da IBM. Os serviços são geralmente mais difíceis de vender do que os produtos, disse Jon Arnold, da J Arnold & Associates, “portanto, sem um endpoint físico, a IBM não tem realmente um forte apelo para os clientes finais”. Sendo assim, a adoção do Watson Assistant “dependerá, em grande parte, de como empresa dispostas e/ou capazes de colocá-lo em uso farão isso”. Com ofertas como a Echo, a proposta de valor é intuitiva – é “sua” Echo, e você a usa como quiser e, se for fã da marca Amazon, provavelmente vai querer usá-la imediatamente. A IBM não tem esse tipo de afinidade com o usuário final, portanto, impulsionar a adoção está realmente nas mãos dos compradores”.
Privacidade de dados é um foco
Outra maneira pela qual a IBM espera diferenciar o Watson de outros assistentes de IA é enfatizando a privacidade dos dados.
Greenstein disse que o Watson Assistant oferece maior controle sobre como os dados dos clientes são usados. “O modelo de negócios da IBM é o de dar aos clientes o controle sobre seus próprios dados”, disse ele. Os dados são dos clientes, não da IBM. “Nosso objetivo é ajudar nossos clientes a obter valor a partir desses dados para saber mais sobre seus usuários, mas esses dados são inteiramente deles, de modo que não monetizamos nem possuímos esses dados. A privacidade dos dados é essencial ”.
Na prática, isso significa que os usuários do Watson Assistant podem escolher se seus dados serão usados para treinar os modelos de aprendizado de máquina do Watson. Lembrando que, quanto mais dados alimenatarem o Watson, mais inteligente ele se tornará. A IBM afirma ser o único provedor que permite essa escolha. “Então, quando você treina seu modelo, você pode possuir e proteger os insights que gerou”, disse a empresa.
Embora a privacidade de dados seja uma questão fundamental para empresas e consumidores, o acesso restrito a dados também tem suas desvantagens.
“Os dados vão determinar quem ganha e perde a corrida pelos assistentes virtuais”, disse Purcell. “Alexa, Sirir, Google Assistant e Cortana já possuem enormes bases de usuários, o que significa que estão continuamente melhorando a compreensão da palavra falad . A IBM não possui a mesma magnitude de dados de treinamento para aprimorar suas habilidades de reconhecimento de fala.”
Ele argumenta que a venda da privacidade também poderia ser uma “desvantagem significativa, na medida em que impedirá o Watson Assistant de aprender no ritmo de seus concorrentes”.
Há também dúvidas sobre até que ponto o foco da IBM na privacidade de dados diminuirá a aceitação do Watson Assistant. Arnold disse que a segurança “parece ser forte para a IBM, mas que talvez ainda não seja um grande apelo de venda ou driver de adoção.
“Certamente será para empresas que desejam proteger seus dados, mas provavelmente não tanto para os usuários finais”, disse Arnold, embora tenha observado que as atitudes podem estar mudando, particularmente na esteira da recente controvérsia sobre privacidade envolvendo o Facebook e Cambridge Analytica.
Vários assistentes de voz podem coexistir
Com o Watson Assistant, a IBM está se juntando a uma série de plataformas de assistentes inteligentes mais estabelecidas. Greenstein disse que vários assistentes de IA já estão no mercado, e empresas individuais estão criando suas próprias ferramentas de marca. “Vamos ter muitos assistentes em nossas vidas”, afirma ele.
Assim, enquanto Alexa, Siri e outros podem ter uma maior conscientização entre o público, o Watson Assistant também terá um lugar, embora de forma menos visível.
Na opinião de Greenstein, o proprietário de um carro “ainda pode querer falar com um assistente de voz voltado ao consumidor, dentro do veículo, mas a experiência completa do carro e a propriedade e relação do carro devem estar com as marcas que estão vendendo o carro para você”.
Ele acrescentou que, enquanto algumas pessoas duvidam que haja espaço para vários assistentes de IA, “também acho que não poderíamos nos dar ao luxo de ter apenas um”.
Aproveitando a IA e a Internet das Coisas,
o Watson Assistant pode definir a temperatura
do quarto do hotel, oferecer recomendações de
restaurantes, acender as luzes e fechar as cortinas
(imagem: IBM/divulgação)
Na opinião de Castañón-Martínez, o mercado de assistentes de IA ainda está emergindo e não há muitos assistentes disponíveis atualmente. Embora o número possa crescer, “em muitos casos, eles serão incorporados na interface do usuário e não terão uma personalidade distinta como Siri, Alexa ou Cortana”.
Resta ainda a questão da interoperabilidade entre os vários assistentes. Greenstein disse que isso dependerá da demanda do consumidor.
“Acredito que eles vão ser integrados, considreando alguns modelos de uso”, disse ele. “Ainda há muito a fazer, porque a maioria dessas empresas não quer se abrir dessa maneira. Mas do ponto de vista do consumidor, eles esperam isso da mesma forma que temos aplicativos móveis de várias empresas em nossos telefones…. Algumas dessas empresas competem umas com as outras, mas os aplicativos estão disponíveis porque os consumidores clamaram por eles”.
Marcando presença nos escritórios
As tecnologias de reconhecimento de voz melhoraram tanto
nos últimos anos – graças à computação na nuvem e avanços em Machine
Learning (Aprendizado de Máquina) – que os assistentes virtuais criados
por Amazon, Google e Apple tornaram-se rapidamente populares entre os
usuários finais. Graças a avanços nas técnicas de Inteligência Artificial
(IA), a precisão dos sistemas de reconhecimento de voz melhorou
significativamente, com o Google e outras empresas passando da marca de
95% de precisão. Por isso, não é nenhuma surpresa o fato de também estarem a caminho do ambiente de
trabalho.
“Diria que a adoção corporativa dos assistentes voltados para o mercado de consumo está nos estágios
iniciais agora, mas certamente existem funcionalidades básicas que já se aplicam ao ambiente corporativo
hoje em dia”, explicou o executivo da J Arnold & Associates, Jon
Arnold, durante participação na conferência Enterprise Connect,
realizada no mês passado, em Miami.
Pelo menos neste primeiro momento, os usos principais para
a tecnologia de reconhecimento de voz no escritório vão girar em torno
de melhorar a produtividade dos funcionários e automatizar os fluxos de
trabalho.
Para as empresas, há quatro maneiras principais de acessar tecnologias de reconhecimento de voz, segundo Arnold:
– A tecnologia “speech-to-text” (“áudio para texto”) pode
ser usada para tarefas como ditar e-mails – e torna-se mais precisa à
medida que é mais usada.
– Já a funcionalidade “text-to-speech” (“texto para áudio”)
possui benefícios em configurações móveis, como a habilidade de criar
podcasts pessoais para revisara documentos de trabalho ou anotações
durante um trajeto – seja no táxi, ônibus ou metrô, por exemplo.
– O reconhecimento de voz permite interações
conversacionais por meio de assistentes virtuais, podendo emitir
comandos para descobrir documentos ou criar entradas na agenda, por
exemplo.
– E, por fim, a tecnologia “speech analytics” pode permitir
a chamada “análise de sentimentos” na empresa, que pode ser útil em
situações de entrevistas ou treinamentos.
Quatro marcos
Arnold apontou ainda quatro marcos tecnológicos que
ajudaram a popularizar as tecnologias de reconhecimento de fala/voz e
impulsioná-las para frente.
O primeiro foi o lançamento do Google Voice Search, há 10
anos, que usava reconhecimento de voz para acelerar buscas em aparelhos
mobile.
Então em 2011 a Apple lançou a assistente Siri, que
permitia interações mais baseadas em conversas e impulsionou a
tecnologia para um maior reconhecimento junto ao grande público. No
mesmo ano, a plataforma inteligente IBM Watson ganhou muita atenção por
conta da sua aparição no icônico programa da TV americana Jeopardy.
Em 2015, a Amazon lançou o alto-falante Echo e a sua
assistente virtual Alexa, dois lançamento que provaram muito populares
entre os usuários – até hoje, na verdade.
Amazon Echo tornou-se um produto
bastante popular nos últimos anos
(imagem: Amazon/divulgação)
E, mais recentemente, a Amazon passou a ficar de olho
também no espaço de trabalho com o lançamento da Alexa for Business. A
gigante, no entanto, não é a única a criar assistentes virtuais
especificamente para as empresas: o Spark Assistant, da Cisco, a
Cortana, da Microsoft, a Eva, da Voicera, a Nuance Dragon e o IBM Watson
também possuem usos corporativos agora.
Tecnologia disruptiva
Durante uma apresentação no Enterprise Connect, o
evangelista chefe da Amazon para o Echo e a Alexa, Dave Ibitski, afirmou
que as interfaces de voz seriam “a próxima grande disrupção na
computação”, com claras aplicações com configurações corporativas.
“É a ideia da computação ambiente, a ideia de que, a
qualquer momento, você poderia dizer algo como ‘Alexa, inicie a minha
reunião’, ‘Alexa, como estão as vendas?’, ‘Alexa, esqueci de desligar o
projetor na sala de reuniões; desligue-o para mim, por favor’. É algo
muito natural e espontâneo”, afirma o executivo da Amazon.
“E tudo isso está acontecendo por causa dos avanços que
temos visto na chamada compreensão de linguagem natural (NLU/natural
language understanding). E essa é a diferença – está entendendo o
contexto.”
O gerente geral da divisão Alexa for Business, Collin
Davis, afirmou que as assistentes virtuais já estão ajudando os
funcionários a realizarem as suas atividades. “O que estamos descobrindo é que está acontecendo uma
mudança realmente interessante, em que a voz está oferecendo quase que
outra dimensão de multitarefa, em que os profissionais sentados em suas
mesas podem usar a Alexa quase como uma assistente multitarefa para
conseguir receber informações rapidamente sem perder o foco”, explicou
Davis.
“Você pode estar trabalhando em um relatório, por exemplo,
e então precisar saber quantos negócios foram fechados no último
trimestre sem precisar pegar o smartphone no bolso ou encontrar um app
ou ficar navegando entre sites – você apenas recebe a informação que
precisa.”
Atualmente, existem mais de 30 mil habilidades da Alexa, e
Davis afirma que “uma comunidade crescente” de desenvolvedores de
habilidades está construindo habilidades para o espaço de trabalho, e
que as fabricantes de software estão habilitando aplicações existentes
para que sejam habilitadas por comandos de voz.
As decisões das companhias
As empresas que estão de olho em sistemas de
reconhecimento de voz para o ambiente de trabalho precisam considerar
várias questões antes de seguir em frente, destaca Arnold. A primeira
consiste em descobrir com qual companhia você irá fazer uma parceria. Os
principais provedores de nuvem – Amazon, Google, Microsoft e IBM –
fornecem tecnologias de reconhecimento de voz, mas cada uma possui seus
pontos fortes.
E identificar um caso de negócios forte para investimento é
algo essencial, afirma o executivo, para depois apontar algumas das
questões que as empresas devem considerar antes de adotar uma solução do
tipo.
“Qual equilíbrio você quer atingir? Quem precisa estar no
comando dessa decisão? Quais problemas de negócios você está tentando
resolver? Você está fazendo uma atualização tecnológica ou está
realmente pensando sobre transformação digital, o quadro maior e o que a
IA pode trazer?”.
Mesmo com os avanços tecnológicos recentes, Arnold lembra
que a tecnologia ainda não é perfeito. Mas ela não precisa ser para
trazer valor às empresas.
“O reconhecimento de voz não precisa chegar aos 100% de
precisão, ele já é bom o bastante atualmente”, aponta Arnold. “Por isso,
não pense que ainda temos alguns anos até que ela (a tecnologia) fique
boa o bastante. Ela não é 100% (precisa) e nunca será – e nem precisa
ser.”
Para terminar, o especialista dá a seguinte dica. “Não
mire a perfeição, foque em compreender a tecnologia e o que ela pode
fazer.”
A Pure Storage está redefinindo sua estratégia de mercado com uma abordagem que abandona o…
A inteligência artificial (IA) consolidou-se como a principal catalisadora de novos unicórnios no cenário global…
À primeira vista, não parece grande coisa. Mas foi na pequena cidade de Pornainen, na…
O processo de transição previsto na reforma tributária terá ao menos um impacto negativo sobre…
O que antes parecia uma aliança estratégica sólida começa a mostrar rachaduras. Segundo reportagem do…
O Departamento de Defesa dos Estados Unidos firmou um contrato de US$ 200 milhões com…
View Comments