Notícias

Machine Learning é complexo, demorado e pesado

Não há mais como negar, as organizações são, cada vez mais, impulsionadas pela velocidade em que seus dados são executados. Enquanto a Inteligência Artificial (AI) e o Machine Learning (ML) resolvem problemas tradicionais do dia a dia das companhias, a partir do reconhecimento de padrões repetitivos, por outro lado, começam a encontrar espaço no âmbito das análises de negócios. Em outras palavras, se afastam de operações mais tradicionais para impactar diretamente na vantagem competitiva e nos diferenciais das empresas.
Nos voltando ao Machine Learning, implementado nas arquiteturas da computação tradicional, vemos o desempenho e a latência determinados pela conexão entre a computação e o armazenamento. O fenômeno acontece nas mesmas redes que atendem a outras aplicações comerciais. O volume e a velocidade crescentes dos dados que chegam estão enfatizados nessas arquiteturas, seja pelo processamento em tempo real da Internet das Coisas (IoT), o reconhecimento de padrões em imagens e áudio ou ainda a mineração de dados para obter novas informações dos clientes e negócios da organização.
O que se busca, então, é descrever como as implementações atuais para aprendizagem de máquina e processamento relacionado podem ser construídas sobre novas arquiteturas de armazenamento, especialmente projetadas para fornecer dados em tempo real, com o objetivo de equipar uma solução de armazenamento otimizada, que resolva diferentes problemas da Deep Learning.

Evolução do computador
Hoje, já se sabe que é necessária uma potência computacional enorme e um grande volume de dados para processar o Machine Learning que atualmente conhecemos. Não faz muito tempo que nossos servidores eram baseados em x86, apoiados por matrizes de armazenamento tradicionais e dispositivos de armazenamento em rede (NAS), sendo bons o suficiente para executarem algoritmos de aprendizagem. Estes são, afinal, os mesmos servidores e redes de armazenamento que as empresas confiam para executarem outros aplicativos críticos de negócios.
No entanto, com a recente revolução na aprendizagem de máquinas, impulsionada pelo Deep Learning, observamos uma série de inovações convergentes. A tecnologia já pode cumprir a promessa da Inteligência Artificial e do Machine Learning de forma material. Ou seja, a indústria mudou e a tecnologia passa a ser encarada como uma arte possível.
Com isso, diferentes circunstâncias passaram a possibilitar a Transformação Digital. A redução do custo da DRAM (Dynamic random-access memory), um tipo de memória RAM de acesso direto e que armazena cada bit de dados em um condensador. Modelos de computação em memória que evoluíram rapidamente, deixando de buscar dados do armazenamento externo e passando a transmitir dados alimentados no mesmo domínio que os processadores que executam as análises.
Ao mesmo tempo, a unidade de processamento de gráficos (GPU) torna-se mais do que apenas entregar ação rápida para os principais players. Isso porque, as unidades de processamento paralelas nessas GPUs são realmente boas para executar exatamente os tipos de algoritmos necessários para as demandas da Machine Learning.
Entretanto, embora os processadores rápidos sejam ótimos, as GPUs, historicamente, sempre foram mais difíceis de serem programadas. Foi então que, empresas como a NVIDIA, trabalharam para diminuir o peso da programação de GPUs, inovando com uma linguagem chamada CUDA e uma ampla gama de ferramentas para ajudar os cientistas de dados a desenvolver algoritmos de treinamento. O ecossistema do software da GPU floresceu, tornando-se o facilitador de uma constelação de novos algoritmos Deep Learning.

O que esse cenário aponta é que o Machine Learning é complexo, demorado e pesado. Arquitetos e profissionais que implementam os sistemas com a promessa da aprendizagem de máquina tendem a concentrar-se na complexa tarefa de integrar CPUs e GPUs para suportar os algoritmos que irão tornar seus esforços bem-sucedidos.

O armazenamento e a entrega de dados podem influenciar drasticamente a eficiência de um ambiente de aprendizagem de máquinas. A inovação continua em um ritmo acelerado e é fundamental que você converse com os líderes que entendem o ambiente de Machine Learning hoje, para conseguir construir um futuro competitivamente próspero.


(*) Paulo de Godoy é gerente regional da Pure Storage no Brasil

Recent Posts

Pure Storage aposta em mudança de paradigma para gestão de dados corporativos

A Pure Storage está redefinindo sua estratégia de mercado com uma abordagem que abandona o…

3 dias ago

A inteligência artificial é mesmo uma catalisadora de novos unicórnios?

A inteligência artificial (IA) consolidou-se como a principal catalisadora de novos unicórnios no cenário global…

4 dias ago

Finlândia ativa a maior bateria de areia do mundo

À primeira vista, não parece grande coisa. Mas foi na pequena cidade de Pornainen, na…

4 dias ago

Reforma tributária deve elevar custos com mão de obra no setor de tecnologia

O processo de transição previsto na reforma tributária terá ao menos um impacto negativo sobre…

4 dias ago

Relação entre OpenAI e Microsoft entra em clima de tensão, aponta WSJ

O que antes parecia uma aliança estratégica sólida começa a mostrar rachaduras. Segundo reportagem do…

4 dias ago

OpenAI fecha contrato de US$ 200 milhões com Departamento de Defesa dos EUA

O Departamento de Defesa dos Estados Unidos firmou um contrato de US$ 200 milhões com…

4 dias ago