close

Google ameaça hegemonia da Nvidia e OpenAI dispara alerta vermelho

Gemini 3.0, do Google, ameaça liderança da OpenAI, dona do ChatGPT, e da Nvidia, que fornece processadores usados nos modelos mais potentes de Inteligência artificial

3 minutos
Inteligência artificial

A receita da Nvidia cresceu 39 vezes nos últimos cinco anos, chegando aos US$ 115 bilhões em 2025 | Foto: Getty Images

A hegemonia da Nvidia (NVDC34) no fornecimento de infraestrutura para Inteligência Artificial, embora indiscutível no curto prazo, foi testada com o lançamento do Gemini 3.0, do Google.

Com uma performance e custo-benefício considerados muito competitivos (e até superiores) por especialistas, as TPUs da Google (GOGL34) se mostram uma alternativa viável às concorridas (e caras) GPUs da Nvidia, o que poderia colocar em xeque a dependência quase absoluta do setor das GPUs da Nvidia, segundo análi dos especialistas do Banco Safra.

O que são as TPUs? 

Enquanto as GPUs são processadores otimizados originalmente concebidos para proporcionar versatilidade gráfica, que foram adaptadas para IA, as TPUs (Unidades de Processamento de Tensores) são ASICs (Circuitos Integrados de Aplicação Específica) desenhadas para acelerar o processamento em redes neurais e a multiplicação de matrizes, que são chaves no deep learning. Desde 2015, essa estratégia de verticalização permitiu ao Google escalar produtos como o Google Maps e Tradutor com grande eficiência.

Custo-benefício atrativo

A vantagem das TPUs parece alta quando analisamos os custos operacionais de um cluster de alta performance. Em uma simulação por um mês (720 horas de uso), com mil chips, a disparidade de preços parece ser notável. Considerando o custo de aluguel on-demand estimado do chip Blackwell da Nvidia de US$ 4,5/hora, o gasto mensal gira em torno de ~US$ 3,24 mi.

Em contrapartida, pressupondo um custo efetivo de US$ 2,7/hora para a arquitetura Trillium (TPU) do Google, o custo para a mesma carga de trabalho cai para cerca de US$ 1,94 mi, uma  economia direta de ~40%, ou US$ 1,3 mi mensais por cluster.

A título de comparação, o recém-anunciado Trainium3, chip de IA próprio da Amazon, apresenta uma economia de 50% frente às GPUs da Nvidia, segundo a empresa.

O alerta vermelho da OpenAI

Com diversos especialistas e estudos apontando superioridade em quesitos técnicos (Figura 4), o Gemini 3.0 parece ser uma ameaça mais real ao domínio do ChatGPT.

Desprovida de hardware próprio e dependente de fornecedores terceiros, a criadora do ChatGPT enfrenta desvantagens de custo estruturais frente a um Google verticalizado, que controla desde o chip até o algoritmo.

A própria OpenAI, em um memorando interno aos seus funcionários, teria emitido um “alerta vermelho’, segundo a imprensa, por conta dos avanços da concorrência.

Análise Safra 

A história da indústria de semicondutores (e do setor de tecnologia no geral) tende a ser implacável com seus líderes.

A Intel, que já foi líder no fornecimento de chips para data centers, viu sua receita encolher de US$ 18 bilhões para US$ 16 bilhões nos últimos 5 anos, enquanto a receita da Nvidia cresceu 39x no período (para US$ 115 bi em 2025).

Portanto, ganham força os receios do mercado de que a concorrência com as TPUs podem causar impactos para a atual líder do setor.

Contudo, o diferencial da Nvidia não parece ser apenas seu hardware, mas também o seu software. Sua linguagem de programação, o CUDA, tornou-se padrão na indústria, o que faz com que custos de mudança sejam elevados e tornam uma migração no curto prazo improvável.

De todo modo, segundo os especialistas do Banco Safra, as altas margens da Nvidia no segmento (Figura 7) continuarão atraindo o interesse de rivais dispostos a capturar uma fatia, ainda que pequena, desse enorme pool de lucro.

Leia também:

Assine o Safra Report, nossa newsletter mensal

Receba gratuitamente em seu email as informações mais relevantes para ajudar a construir seu patrimônio

Invista com os especialistas do Safra