Nvidia dispara com perspectiva otimista para infraestrutura de IA

As ações da Nvidia subiram nesta quarta-feira (19), fechando em alta de 1,81%, a US$ 117, o após o diretor-presidente, Jensen Huang, dizer a analistas financeiros que as estimativas para a construção de infraestrutura associada à inteligência artificial (IA) estão muito abaixo do real.
Em uma reunião com analistas na conferência GTC em San Jose, Califórnia, Huang afirmou que as previsões atuais geralmente consideram apenas os planos de investimento em “data centers” para provedores de serviços na nuvem.
Elas não levam em conta “data centers” que serão construídos para projetos como Stargate e xAI, além de empresas que estão montando fábricas de IA para os seus próprios negócios.
Além disso, os sistemas de computação geral atuais precisarão ser atualizados para computação acelerada, disse ele.
“Teremos que modernizar a tecnologia da informação em ambientes corporativos globalmente”, completou.
Por enquanto, a Nvidia está ocupada atendendo às necessidades dos “data centers” para serviços na nuvem, afirmou Huang. Mas outras oportunidades estão a caminho.
Além de subestimarem a oportunidade da infraestrutura de IA, outra área em que as pessoas erraram foi no impacto do modelo de IA chinês DeepSeek, acrescentou o executivo.
Muitos temiam que os provedores de serviços em nuvem cortassem seus gastos em resposta à abordagem de baixo custo do DeepSeek. Isso não aconteceu, declarou ele.
Huang também minimizou a ameaça competitiva das empresas que fabricam circuitos integrados específicos para aplicações (ASICs, na sigla em inglês). Isso porque a Nvidia tem uma abordagem comprovada e completa para data centers de IA, afirmou.
“Se você está construindo um data center hoje, há apenas uma opção agora”, garantiu o diretor. “Somos a empresa que te possibilita construir sua infraestrutura de IA.”
Se uma empresa pretende investir US$ 100 bilhões para construir um data center, ela não escolherá uma opção mais arriscada, disse.
“Todos ainda estão tentando alcançar o Hopper, e ainda não vi um concorrente para ele”. Hopper é o nome da geração anterior da unidade de processamento gráfico (GPU) da Nvidia, tendo sido sucedido pelo Blackwell.
Além disso, a Nvidia detalhou o seu planejamento estratégico de produtos para os próximos três anos para que seus clientes possam se programar adequadamente, enfatizou.
Huang afirmou que a Nvidia está se preparando para fabricar seus processadores nos Estados Unidos. Segundo ele, a Taiwan Semiconductor Manufacturing (TSMC) já está produzindo silício para a Nvidia em sua fábrica no Arizona.
Os analistas de Wall Street reagiram, em geral, de maneira otimista à apresentação do diretor-presidente, dizendo que ela reforçou as previsões otimistas para os gastos com data centers.
“A demanda por unidades de processamento gráfico da Nvidia continua extremamente robusta”, disse o analista Daniel Ives, da Wedbush Securities, em nota a clientes.
“Acreditamos que a demanda está atualmente superando a oferta na proporção de 15 para 1, com mais empresas esperando sua vez para receber os chips de IA mais avançados do mercado.”
A Nvidia está prevendo que os gastos com data centers aumentem de US$ 500 bilhões em 2025 para US$ 1 trilhão até 2030.
Huang oficialmente apresentou o próximo processador de IA da Nvidia, chamado Blackwell Ultra. Os produtos baseados no Blackwell Ultra devem estar disponíveis para parceiros de hardware na segunda metade de 2025.
A empresa lançará o sucessor do Blackwell Ultra, chamado Rubin, na segunda metade de 2026. O Rubin Ultra será lançado em 2027, seguido por Feynman em 2028.
“Uma vez por ano, como um relógio”, disse o executivo sobre o ritmo de lançamento de produtos da empresa.
O analista Kevin Cassidy, da Rosenblatt Securities, reiterou sua recomendação de compra para as ações da Nvidia, com um preço-alvo de US$ 220 após o discurso principal.
“Vemos essa cadência anual como uma barreira formidável contra a concorrência, incluindo para os circuitos integrados específicos para aplicações (ASICs), além de expandir o domínio da Nvidia em IA”, disse em nota a clientes.
Huang também discutiu como a inteligência artificial está evoluindo da IA generativa para a IA agêntica. Os sistemas estão passando de simplesmente gerar respostas simples a partir de solicitações de usuários para fornecer respostas mais precisas e trabalhar em nome dos usuários.
Huang revelou um novo software de inferência chamado Nvidia Dynamo para escalonar modelos de raciocínio de IA. O software promete tempos de resposta mais rápido e a redução de custos operacionais. “É essencialmente o sistema operacional de uma fábrica de IA”, disse Huang.
A Nvidia também introduziu uma nova tecnologia de switches de rede que afirma ser uma grande economia de energia para data centers. Os produtos utilizam tecnologia de fotônica de silício.
O analista Mark Lipacis, da Evercore ISI, manteve sua classificação outperform para as ações da Nvidia, com um preço-alvo de US$ 190.
“Ninguém está investindo no ritmo ou na magnitude da Nvidia para construir um ecossistema completo de chip, hardware, rede e software para a era da computação em IA”, disse Lipacis em nota a clientes. Seus contatos em provedores de serviços de nuvem de grande escala dizem que a Nvidia tem uma vantagem de oito anos.
Com sede em Santa Clara, Califórnia, a Nvidia emitiu 37 comunicados à imprensa e posts em blogs na terça-feira, detalhando as novidades da empresa na GTC. Além disso, os vários parceiros da Nvidia postaram seus próprios anúncios.
A empresa está colaborando com a General Motors em automação fabril e veículos de próxima geração, incluindo carros autônomos.
Além disso, a Nvidia revelou uma parceria com a GE HealthCare para desenvolver máquinas de imagem autônomas, focadas em raios-X e ultrassom.
Também foi anunciada uma colaboração com líderes da indústria de telecomunicações para desenvolver redes sem fio nativas de IA para sistemas 6G. Os parceiros nesse projeto incluem T-Mobile, Cisco Systems, Mitre, Booz Allen Hamilton e Cerberus Capital Management.
*Com informações do Valor Econômico