GPUs, TPUs… Nada disso. Intel aposta no Xeon Phi para aprendizado de máquina

Os chips FPGAs, da Intel, junto com os processadores Xeon regulares, são bem adequados para a parte de inferência, segundo a chefe de Data Center da companhia

Author Photo
11:39 am - 02 de junho de 2016

Quer ver Diane Bryant se exaltar? Basta perguntar a ela sobre GPUs. Essa semana, durante a Computex, em Taiwan, a chefe de Data Centers da Intel tentou convencer a audiência que o mais recente processador da companhia, o Xeon Phi, é uma boa opção para aplicações de aprendizado de máquina.

Aprendizado de máquina é parte integrante da Inteligência Artificial. Se refere a uma vasta gama de algoritmos e metodologias que permitem que softwares melhorem seu desempenho a medida que processam mais e mais dados. E a chave para melhorar todos os tipos de serviços online. O Google disse recentemente que ele está repensando tudo o que faz em torno do aprendizado de máquina.

Exige enorme poder de computação, e Bryant diz que os 72 núcleos e o desempenho de ponto flutuante do processador Xeon Phi, lançado há seis meses, oferece uma excelente relação performance-per-watt-per-dollar para treinar algoritmos de aprendizado de máquina.

“É uma grande oportunidade, e haverá diferentes formas de cada negócio usar aprendizado de máquina”, disse ela em uma entrevista.

O desafio para a Intel é que os processadores mais utilizados para aprendizado de máquina hoje são as GPUs como as da Nvidia e AMD.

“Não creio que qualquer um dos Super Seven venha a utilizar Xeon Phi para treinar suas redes neurais”, disse o analista Patrick Moorhead, da Moor Insights and Strategy, referindo-se aos maiores impulsionadores do aprendizado de máquina hoje – Google, Facebook, Amazon , Microsoft, Alibaba, Baidu e Tencent.

Bryant, que é muito afável, pareceu ligeiramente exasperada quando questionada sobre como a Intel pode competir neste mercado sem uma GPU. A GPU de uso geral, ou GPGPU, é apenas mais um tipo de acelerador, disse ela, e não é especialmente adequada para a aprendizagem de máquina.

“Nós nos referimos a Knights Landing como um co-processador, mas é um acelerador para operações de ponto flutuante, e é isso que a GPGPU faz”, disse ela.

Bryant até admite que a Nvidia ganhou uma vantagem inicial no mercado de cargas de trabalho HPC aceleradas por GPU quando se posicionou suas GPUs para essa tarefa há vários anos. Mas desde o lançamento do primeiro Xeon Phi, em 2014, a Intel abocanhou 33% do mercado de cargas de trabalho HPC que utilizam um acelerador de ponto flutuante.

“Nós ganhamos share em cima da Nvidia, e vamos continuar a ganhar”, disse ela.

Parte do negócio de aprendizagem de máquina da Intel pode ser muito menor, mas Bryant é rápida ao contra-argumentar que o mercado ainda é jovem.

“Menos de 1 por cento de todos os servidores que foram fornecidos no ano passado foram aplicados ao aprendizado de máquina, de modo a ouvir que a Nvidia está nos batendo em um mercado que praticamente não existe ainda me deixa um pouco exaltada”, diz ela.

Ainda assim, 1 por cento do mercado mundial de servidores não é trivial, e a Intel continuará a evoluir Xeon Phi para torná-lo melhor em tarefas de aprendizado de máquina.

Entre clientes conhecidos do processador,  Bryant mencionado a Viscovery, que está usando o Knights Landing para treinar algoritmos de busca de vídeo.

Há dois aspectos a aprendizagem de máquina, ela observa – a formação dos modelos algorítmicos, que é a parte mais intensiva de computação, e a aplicação  desses modelos para o mundo real em aplicações front-end, muitas vezes chamado de inferência.

Os chips FPGAs, da Intel, junto com os processadores Xeon regulares, são bem adequados para a parte de inferência, segundo Bryan. Portanto, a Intel tem ambos os lados da equação coberto.

Ainda assim, a companhia pode ter dificuldade em deslocar GPUs em aplicações hyperscale. Sem falar na TPU do Google, construída especificamente para aprendizado de máquina.

GPUs da Nvidia são mais difíceis para os programadores, Moorhead disse, o que poderia trabalhar em favor da Intel, especialmente como empresas regulares começando a adotar o aprendizado de máquina. O Knights Landing é “auto-boot”, o que significa que os clientes não precisam de emparelhá-lo com um Xeon regular para inicializar um sistema operacional.

Mas o  mais novo Xeon Phi tem um desempenho de ponto flutuante de cerca de 3 teraflops, segundo Moorhead, em comparação com mais de 5 teraflops para nova GP100 da Nvidia. “Você até poderia reforçar o ponto flutuante em Knights Landing e ter algo que se parece com uma GPU”, argumentou ele.

Ainda assim, a Intel é persistente, e está determinado a ter sucesso. “Vamos continuar a desenvolver a linha de produtos em direção ao aprendizado de máquina”, disse Bryant.

Newsletter de tecnologia para você

Os melhores conteúdos do IT Forum na sua caixa de entrada.