Esses dias, navegando pelo LinkedIn, me deparei com um artigo¹ de Cezar Taurion, um dos gurus da Transformação Digital, e o assunto tratado me intrigou tanto quanto a ele: “Um mal-entendido é que algoritmos sofisticados de IA podem, sozinhos, fornecer soluções empresariais valiosas sem um volume de dados adequado.”
Tenho percebido um interesse muito grande do mercado quando o assunto é Inteligência Artificial. Não são poucas as empresas que buscam incluir, de alguma maneira, a IA em seu portfólio. Entretanto, nem todas entendem que há um caminho a percorrer e que a base do treino dos algoritmos e da implementação da IA são os dados.
Não foi à toa que o Gartner desenhou uma pirâmide que serve bem como guia para a Transformação Digital. Nela os dados são a base de tudo e só é possível subir os degrausAnalytics, Machine Learning e alcançar o topo IA quando a base (os dados) existem em volume e consistência. Sem um volume de dados adequado, é simplesmente impossível treinar algoritmos com os dados reais da empresa e fazer análises preditivas… que dirá trabalhar Inteligência Artificial.
Por que a combustão aconteceu somente agora, se o tema já é estudado há mais de 50 anos?
Há muito tempo eu me perguntava o motivo de a Inteligência Artificial ter se tornado realidade somente agora. Felizmente encontrei a resposta para essa minha dúvida e gostaria de compartilhar com você.
Para entender melhor, é relevante lembrar que o conceito de IA surgiu em 1956, citado pelo professor e cientista John McCarthy na conferência de Dartmouth. Em 1950, o matemático inglês Alan Turing publicou o artigo “Computing Machinery and Intelligence”, que também foi um marco histórico para a área. Na década de 1980, o tema voltou à tona com o interesse em estudos e discussões a respeito de redes neurais e conexionismo, mas esfriou novamente depois de um tempo. Foi somente há poucos anos que a IA sofreu o “boom” que temos presenciado. E a pergunta que fica é: por que somente agora?
Minha pesquisa sobre o tema me levou até um artigo publicado no site da Salesforce² que explica que ainda que existam modelos teóricos a respeito da IA há muitos anos, para evoluir de computação simples para uma IA real e consistente são necessários três itens-chave que ainda não eram realidade há algum tempo: (1) Computação de grande potência, com custo acessível, para que seja possível o processamento rápido e eficiente; (2) Bons modelos de dados para classificar, processar e analisar os dados de forma inteligente; (3) Acesso a grande quantidade de dados não processados para alimentar os modelos, para que continuem a se aprimorar.
Ou seja, podemos considerar que a Inteligência Artificial finalmente se tornou realidade por conta dos seguintes avanços:
1) Um volume de dados que só é disponibilizado através do big data, que cresce a cada dia especialmente por conta da explosão de dados provenientes, por exemplo, de redes sociais, tecnologias IoT, como sensores e wearable devices, e também de empresas públicas e privadas que passaram a disponibilizar dados e informações antes não tão acessíveis assim;
2) Modelos de dados bem fundamentados que hoje estão preparados para processar e analisar um patamar de terabytes (ou mais!) por segundo e entregar insights consistentes para as estratégias de negócios;
3) Crescimento da infraestrutura, tais como processadores mais robustos, tecnologias de armazenamento e cloud computing, aliado à capacidade de virtualização, que permite um dimensionamento dinâmico capaz de suportar e tratar grandes volumes de processamento e armazenamento.
Também vale citar uma inerente interconexão com as Ciências da Complexidade que une as Ciências Exatas com as Ciências Naturais e trata, dentre outros aspectos, de modelos matemáticos e compressão da informação.
Sem oxigênio não há fogo
Tenho voltado minha atenção para o tema IA especialmente porque a empresa onde eu trabalho vem desenvolvendo o maior data lake da América Latina. Trabalhar com dados e criar a base da pirâmide que vai levar uma das maiores operadoras de telecomunicações do Brasil a alcançar o topo, por meio da Inteligência Artificial, tem sido um trabalho nada trivial, porém muito desafiador e gratificante.
Desenvolvemos, inclusive, uma ferramenta que atribui maior velocidade na ingestão dos dados para o data lake da operadora com melhor time to market e qualidade para os cientistas de dados explorarem o Analytics.
Entendo que as empresas precisam se atentar mais à base da pirâmide para que, com dados qualificados e em grande volume, consigam criar análises preditivas, trabalharmachine learning, deep learning e PLN e, então, oferecer soluções de Inteligência Artificial relevantes para seu mercado de atuação. São justamente os dados que suportam e viabilizam conclusões de padrões e previsões de comportamento, por exemplo, o que é primordial para o processo de IA.
Assim como não existe fogo sem oxigênio, não existe Inteligência Artificial bem-sucedida sem os dados. Segundo as palavras do próprio Cezar Taurion, “nenhuma sofisticação algorítmica irá superar a falta de dados”. Voltamos para a frase de Harvard que citei em um dos artigos que escrevi no ano passado: “muito em breve os dados terão para nós a mesma importância que o petróleo teve para as companhias do século 20”. Ao que tudo indica, esse “muito em breve” já chegou.
*Amanda Matos Cavalcante é gerente de Marketing da Triad Systems e especialista em Condução de Estratégias Digitais pela Harvard Business School
A Pure Storage está redefinindo sua estratégia de mercado com uma abordagem que abandona o…
A inteligência artificial (IA) consolidou-se como a principal catalisadora de novos unicórnios no cenário global…
À primeira vista, não parece grande coisa. Mas foi na pequena cidade de Pornainen, na…
O processo de transição previsto na reforma tributária terá ao menos um impacto negativo sobre…
O que antes parecia uma aliança estratégica sólida começa a mostrar rachaduras. Segundo reportagem do…
O Departamento de Defesa dos Estados Unidos firmou um contrato de US$ 200 milhões com…