Descubra as 10 Maiores Pagadoras de Dividendos da Bolsa
Compartilhar no LinkedinCompartilhar no FacebookCompartilhar no TelegramCompartilhar no TwitterCompartilhar no WhatsApp
Compartilhar
Home
Ações
Notícias
Trump e Nvidia: governo avalia liberar venda de chips de IA H200 para a China

Trump e Nvidia: governo avalia liberar venda de chips de IA H200 para a China

A avaliação interna, ainda em estágio preliminar, representa um potencial marco para a empresa comandada por Jensen Huang

Membros do governo de Donald Trump estão discutindo a possibilidade de autorizar a Nvidia (NVDA; NVDC34) a vender seus chips avançados de inteligência artificial H200 para a China, segundo informações obtidas pela agência Bloomberg com fontes próximas ao processo. A avaliação interna, ainda em estágio preliminar, representa um potencial marco para a empresa comandada por Jensen Huang, que se tornou a mais valiosa do mundo após ultrapassar US$ 1 trilhão em valor de mercado.

Se confirmada, a medida significaria uma flexibilização relevante na política de controle de exportações de tecnologia aplicada pelos Estados Unidos, adotada de forma mais rígida desde 2022 para limitar o avanço tecnológico chinês. No entanto, as fontes afirmam que nenhuma decisão final foi tomada e que ainda há incerteza sobre a possibilidade de aprovação das licenças necessárias, segundo matéria publicada pela Bloomberg.

O debate interno reflete um equilíbrio delicado entre os interesses comerciais da Nvidia — cujo negócio de chips de alto desempenho domina o mercado de IA — e as preocupações estratégicas do governo norte-americano. A eventual liberação pode gerar repercussões significativas tanto para a indústria de semicondutores quanto para a disputa tecnológica entre Washington e Pequim.

Trump e Nvidia: chip foi lançado em 2023

A Nvidia anunciou o lançamento da plataforma HGX H200, a mais recente atualização de sua linha de computação para inteligência artificial, baseada na arquitetura Hopper, em 2023. O novo sistema incorpora a GPU H200 Tensor Core, primeira do mercado a trazer a tecnologia HBM3e — um avanço considerado significativo em velocidade e capacidade para aplicações de IA generativa, grandes modelos de linguagem e computação científica.

Com 141 GB de memória HBM3e e largura de banda de 4,8 terabytes por segundo, a H200 praticamente dobra a capacidade e entrega 2,4 vezes mais velocidade do que a geração anterior, a A100. A tecnologia promete acelerar de maneira substancial cargas de trabalho de alto desempenho, especialmente em inferência de modelos complexos utilizados em pesquisas avançadas e aplicações corporativas de grande escala.

Publicidade
Publicidade

Segundo a Nvidia, fabricantes globais de servidores e provedores de nuvem devem começar a disponibilizar sistemas equipados com a H200 no segundo trimestre de 2024. A companhia afirma que a evolução reforça sua liderança no segmento de supercomputação voltada à IA.

Para Ian Buck, vice-presidente de hiperescala e HPC da Nvidia, o salto tecnológico atende às novas demandas da indústria.

“Para criar inteligência com IA generativa e aplicações de HPC, grandes quantidades de dados precisam ser processadas de forma eficiente e em alta velocidade usando memória de GPU grande e rápida”, afirmou.

“Com o H200, a plataforma de supercomputação de IA ficou ainda mais rápida para resolver alguns dos desafios mais importantes do mundo.”

De acordo com a Nvidia, a chegada da H200 também expande o desempenho da arquitetura Hopper, que já havia registrado ganhos expressivos com a GPU H100. A Nvidia estima que a nova plataforma será capaz de oferecer quase o dobro da velocidade de inferência no modelo Llama 2 de 70 bilhões de parâmetros, mantendo potencial de avanço com futuras atualizações de software.

O H200 será oferecido em múltiplos formatos: em placas-mãe para servidores HGX com configurações de quatro e oito GPUs, compatíveis com sistemas que utilizam o H100, e também no superchip GH200 Grace Hopper, que combina CPU e GPU em uma mesma plataforma. A empresa destaca que a solução poderá ser implementada em diferentes tipos de data center — on-premises, nuvem, ambientes híbridos e aplicações de edge.

Leia também: