TPUs do Google: são alternativas aos chips de IA da Nvidia?

Imagem: Ironwood TPU, do Google.

A inteligência artificial (IA) cresce cada vez mais e exige hardwares poderosos para lidar com grandes volumes de dados. Com isso, o Google desenvolveu as Unidades de Processamento Tensor (TPUs) para acelerar tarefas complexas, como o treinamento de IA. Essas unidades de processamento trabalham com o TensorFlow, um software que cria e executa tarefas em redes neurais, com estruturas que imitam o cérebro humano para uma padronização das tarefas de processamento de dados. Diferentemente das GPUs da Nvidia, que começaram como placas gráficas para jogos e agora são um dos pilares do setor de IA, as TPUs focam em eficiência para operações específicas e complexas.

Inicialmente, as TPUs usam cálculos simples, com números de baixa precisão como 8 bits, e poupam energia em multiplicações de grandes grupos de números, comuns em tecnologia de IA, para a criação de uma alternativa aos chips de IA da Nvidia. Por isso, elas conseguem fazer mais trabalhos de processamento com menos eletricidade do que chips comercializados no mercado, que são essenciais para a infraestrutura de IA. Já as GPUs, que consomem mais energia, vão melhor em redes conectadas por completo, e as CPUs ajudam em sequências como textos. Com isso, cada ferramenta tem sua funcionalidade ideal para as empresas de tecnologia, e a escolha depende do tipo de cada tarefa, como processar imagens ou gerar respostas mais rápidas. No geral, os chips da Nvidia atendem diversos casos, enquanto ainda surgem concorrentes no mercado.

Em relação ao uso das TPUs, o Google utilizou essas unidades de processamento pela primeira vez em 2015 para projetos internos da empresa. Elas ajudaram a extrair textos do Street View no Google Maps e a examinar milhões de fotos no Google Fotos, além de melhorar as buscas com o RankBrain, um sistema de IA da empresa. Posteriormente, em 2016, a Alphabet mostrou as TPUs ao público, com as fabricantes Broadcom, que ajudou no processo de design, e TSMC, com as fundições dos chips, garantindo a produção em escala do produto. A versão inicial tinha uma arquitetura compacta de 28 nanômetros – um número que representa a distância entre os transistores do chip, com os valores mais baixos representando mais espaço para colocar um número maior de transistores para resultar em chips mais rápidos -, inferior aos próprios chips que a TSMC já fabricava com 10 a 14 nanômetros no período. A mais recente versão, o Ironwood (2025), atinge 4.614 TFLOP/s, uma medida de velocidade em operações por segundo, com foco em tarefas de IA. Além disso, a empresa tem o processador Tensor TPU, usado na linha de celulares Pixel para a otimização de recursos de IA em imagens ou traduções de textos, por exemplo.

Nos serviços de nuvem, as Cloud TPUs do Google se conectam a ferramentas como PyTorch, um sistema aberto para modelos flexíveis; JAX, para contas matemáticas rápidas; e o TensorFlow, uma biblioteca de computação numérica e machine e deep learning. Elas servem para grandes projetos, como geração de textos ou sugestões personalizadas, com SparseCores que aceleram os fluxos de dados da empresa, que apresentam grupos numéricos complexos para processamento. Entretanto, as GPUs gerenciam treinamentos e aplicações paralelas com maior desempenho, em troca de um elevado gasto de energia. Agora, os chips personalizados como as TPUs custam menos e reduzem a dependência de chips externos pelas empresas que desenvolvem, com o Google possivelmente abrindo o mercado ao permitir o acesso dos chips para empresas menores, o que pode criar uma concorrência maior e pressionar diretamente os preços da Nvidia, que controla mais de 70% do mercado global de chips de IA. Além disso, em busca de unidades de processamento alternativas, a Meta deve investir bilhões de dólares em TPUs do Google até 2027, com outras empresas como Amazon, Tesla e Microsoft buscando desenvolver suas próprias “TPUs” para reduzir uma dependência total dos chips da Nvidia.

Em suma, as TPUs do Google oferecem uma alternativa mais econômica para tarefas no geral, incluindo IA, enquanto as GPUs da Nvidia atendem diferentes demandas de cada setor, com uma utilização já testada em áreas como saúde e jogos. Essa alternativa reduz o custo e a integração tecnológica, sem uma única empresa controlando todo o mercado. Entretanto, as TPUs do Google deverão ser testadas inicialmente em larga escala, e por outras empresas, para afirmar que são alternativas às GPUs da Nvidia.


Disclaimer

Este material é apenas informativo e não constitui recomendação, oferta ou sugestão de investimentos pela Dolarame. Os dados são obtidos de fontes consideradas confiáveis e públicas, mas sem garantia de precisão ou atualização recente das informações.

Sumário

Invista no exterior de forma profissional!

Tenha acesso a orientação especializada, estratégia clara e acompanhamento para construir uma carteira internacional sólida e alinhada ao seu perfil

Separamos mais esses artigos para você:

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Rolar para cima
Abrir o bate-papo
1
Posso te ajudar?
Olá, posso te ajudar?