Imagem: Divulgação/Google
Há uma década, o Google iniciou uma estratégia ambiciosa: desenvolver chips próprios customizados para alimentar a demanda por processamento de seus sistemas de inteligência artificial (IA).
Nesta quarta-feira (9), durante o Google Cloud Next 2025, principal evento da empresa para clientes e parceiros, que começou hoje em Las Vegas (EUA), a organização deu mais um passo importante nessa jornada com o novo Ironwood, a sétima geração dos seus TPUs (Tensor Processing Units).
Segundo a empresa, o Ironwood foi projetado para facilitar a inferência de modelos de IA em larga escala, abrindo caminho para o que chama de “era da inferência”. Essa nova fase será marcada pelo uso generalizado de agentes de IA por empresas – sistemas autônomos e inteligentes, capazes de executar tarefas sozinhos, em tempo real – alavancando a demanda por poder computacional.
Leia mais: Google Cloud aposta em plataformas abertas para ganhar espaço em ambientes multiagente
“A discussão já não gira mais em torno dos dados inseridos no modelo, mas sim em torno do que o modelo consegue fazer com os dados com os quais foi treinado”, explica Amin Vahdat, vice-presidente de Machine Learning, Sistemas e IA do Google Cloud.
O Ironwood representa um salto significativo em desempenho. Ele entrega o dobro da performance por watt em comparação com o Trillium, a geração anterior de TPUs, lançada em 2024. Se comparado ao primeiro TPU do Google, de 2018, sua eficiência energética é 30 vezes maior.
Outro destaque é a largura de banda de memória, que atinge 7,2 terabits por segundo (Tbps) por chip – mais de quatro vezes superior à geração passada. A comunicação entre os chips também evoluiu: a nova largura de banda intrachip (ICI) é 1,5 vez maior que a do Trillium, chegando a 1,2 Tbps, o que permite uma inferência de IA ainda mais eficiente.
O Ironwood estará disponível em duas configurações: 256 chips e 9.216 chips. Na configuração maior, a capacidade computacional será de 42,5 Exaflops, mais de 24 vezes superior ao El Capitan – maior supercomputador em operação da atualidade. Cada chip, individualmente, entrega 4.614 TFLOPs de performance, diz o Google. Os TPUs Ironwood têm disponibilidade prevista para o final de 2025.
A demanda por computação não é a única a ter crescido por conta do avanço da demanda por sistemas de inteligência artificial (IA) ao redor do mundo: as redes do Google também se expandiram pelo mundo para suportar o fluxo de dados necessário. Hoje, já são mais de 3,2 milhões de quilômetros de fibra e 33 cabos submarinos operados pela companhia no mundo.
Também nesta quarta, o Google anunciou o novo serviço Cloud WAN, que disponibilizará sua rede privada para companhias e governos. De acordo com o Google, o backbone oferece uma performance até 40% superior – quando comparada à “internet pública”, além de redução no custo total de propriedade (TCO).
O produtos é visto como uma nova alterativa para clientes enterprise que operam grandes redes de data centers e têm alta demanda por movimentação de dados. O Cloud WAN oferece opções de conectividade flexíveis para interligar data centers distribuídos geograficamente, funcionando como uma alternativa às soluções de capacidade limitada, alto custo operacional e menor confiabilidade.
*O jornalista viajou a Las Vegas a convite do Google Cloud
Siga o IT Forum no LinkedIn e fique por dentro de todas as notícias!
A Pure Storage está redefinindo sua estratégia de mercado com uma abordagem que abandona o…
A inteligência artificial (IA) consolidou-se como a principal catalisadora de novos unicórnios no cenário global…
À primeira vista, não parece grande coisa. Mas foi na pequena cidade de Pornainen, na…
O processo de transição previsto na reforma tributária terá ao menos um impacto negativo sobre…
O que antes parecia uma aliança estratégica sólida começa a mostrar rachaduras. Segundo reportagem do…
O Departamento de Defesa dos Estados Unidos firmou um contrato de US$ 200 milhões com…