Membros do governo de Donald Trump estão discutindo a possibilidade de autorizar a Nvidia (NVDA; NVDC34) a vender seus chips avançados de inteligência artificial H200 para a China, segundo informações obtidas pela agência Bloomberg com fontes próximas ao processo. A avaliação interna, ainda em estágio preliminar, representa um potencial marco para a empresa comandada por Jensen Huang, que se tornou a mais valiosa do mundo após ultrapassar US$ 1 trilhão em valor de mercado.
Se confirmada, a medida significaria uma flexibilização relevante na política de controle de exportações de tecnologia aplicada pelos Estados Unidos, adotada de forma mais rígida desde 2022 para limitar o avanço tecnológico chinês. No entanto, as fontes afirmam que nenhuma decisão final foi tomada e que ainda há incerteza sobre a possibilidade de aprovação das licenças necessárias, segundo matéria publicada pela Bloomberg.
O debate interno reflete um equilíbrio delicado entre os interesses comerciais da Nvidia — cujo negócio de chips de alto desempenho domina o mercado de IA — e as preocupações estratégicas do governo norte-americano. A eventual liberação pode gerar repercussões significativas tanto para a indústria de semicondutores quanto para a disputa tecnológica entre Washington e Pequim.
Trump e Nvidia: chip foi lançado em 2023
A Nvidia anunciou o lançamento da plataforma HGX H200, a mais recente atualização de sua linha de computação para inteligência artificial, baseada na arquitetura Hopper, em 2023. O novo sistema incorpora a GPU H200 Tensor Core, primeira do mercado a trazer a tecnologia HBM3e — um avanço considerado significativo em velocidade e capacidade para aplicações de IA generativa, grandes modelos de linguagem e computação científica.
Com 141 GB de memória HBM3e e largura de banda de 4,8 terabytes por segundo, a H200 praticamente dobra a capacidade e entrega 2,4 vezes mais velocidade do que a geração anterior, a A100. A tecnologia promete acelerar de maneira substancial cargas de trabalho de alto desempenho, especialmente em inferência de modelos complexos utilizados em pesquisas avançadas e aplicações corporativas de grande escala.
Segundo a Nvidia, fabricantes globais de servidores e provedores de nuvem devem começar a disponibilizar sistemas equipados com a H200 no segundo trimestre de 2024. A companhia afirma que a evolução reforça sua liderança no segmento de supercomputação voltada à IA.
Para Ian Buck, vice-presidente de hiperescala e HPC da Nvidia, o salto tecnológico atende às novas demandas da indústria.
“Para criar inteligência com IA generativa e aplicações de HPC, grandes quantidades de dados precisam ser processadas de forma eficiente e em alta velocidade usando memória de GPU grande e rápida”, afirmou.
“Com o H200, a plataforma de supercomputação de IA ficou ainda mais rápida para resolver alguns dos desafios mais importantes do mundo.”
De acordo com a Nvidia, a chegada da H200 também expande o desempenho da arquitetura Hopper, que já havia registrado ganhos expressivos com a GPU H100. A Nvidia estima que a nova plataforma será capaz de oferecer quase o dobro da velocidade de inferência no modelo Llama 2 de 70 bilhões de parâmetros, mantendo potencial de avanço com futuras atualizações de software.
O H200 será oferecido em múltiplos formatos: em placas-mãe para servidores HGX com configurações de quatro e oito GPUs, compatíveis com sistemas que utilizam o H100, e também no superchip GH200 Grace Hopper, que combina CPU e GPU em uma mesma plataforma. A empresa destaca que a solução poderá ser implementada em diferentes tipos de data center — on-premises, nuvem, ambientes híbridos e aplicações de edge.
Leia também:






