Nvidia: Como uma empresa focada em games virou um pilar para o boom da IA

Companhia investiu US$ 30 bilhões para aperfeiçoar sua tecnologia para a infraestrutura da inteligência artificial

7 de setembro de 2023

Nvidia: Como uma empresa focada em games virou um pilar para o boom da IA

A Nvidia estabeleceu uma posição de liderança notável na produção de chips para inteligência artificial (IA) ao longo de mais de uma década. Originariamente conhecida por sua presença no mundo dos jogos, a empresa previu precocemente o crescimento da IA e adaptou seus chips e software para essa tecnologia. Além disso, a Nvidia ofereceu aos clientes acesso a computadores especializados e serviços de computação, tornando-se uma referência no desenvolvimento de IA. Embora outras empresas como Google, Amazon, Meta e IBM também produzam chips de IA, a Nvidia domina mais de 70% desse mercado e é líder no treinamento de modelos de IA generativos. Recentemente, a empresa surpreendeu o mercado ao projetar um aumento de 64% na receita trimestral. Seus clientes estão dispostos a esperar até 18 meses para adquirir sistemas Nvidia em vez de chips de outras fontes, evidenciando sua posição de destaque no setor de IA.

Reinvenção da computação

Jensen Huang, o CEO da Nvidia, é um defensor apaixonado da inteligência artificial (IA) e acredita que estamos testemunhando a maior revolução na computação desde os primórdios da IBM. A Nvidia, originalmente uma empresa focada em chips para jogos, transformou-se em um gigante da IA ao adaptar suas GPUs para tarefas complexas de IA e introduzir o software CUDA em 2006, tornando-as versáteis para uma variedade de aplicações. A empresa investiu significativamente em pesquisa e desenvolvimento, colaborando com cientistas e startups e expandindo suas ofertas para incluir não apenas hardware, mas também software-chave, como bibliotecas pré-construídas, simplificando o desenvolvimento de aplicações de IA.

A Nvidia também se destacou na evolução do hardware, lançando chips mais rápidos regularmente e otimizando suas GPUs para cálculos específicos de IA desde 2017. Além disso, a empresa começou a vender computadores completos para tarefas de IA, incluindo sistemas do tamanho de supercomputadores com milhares de GPUs e tecnologia de rede proprietária. Essas máquinas são essenciais para o treinamento de modelos de IA avançados, embora possam levar semanas para concluir essa tarefa. No geral, a Nvidia se tornou uma figura central na revolução da IA, fornecendo tanto hardware quanto software essenciais para a comunidade de desenvolvimento de IA.

Novos chips

Em setembro do ano passado, a Nvidia lançou os chips H100, projetados para lidar com sistemas de IA conhecidos como Transformers, que são essenciais para serviços como o ChatGPT. Esses chips representam um avanço significativo e marcam o que o CEO da Nvidia, Jensen Huang, descreve como o “momento iPhone” da IA generativa. Para consolidar ainda mais sua liderança, a Nvidia estabeleceu parcerias com grandes empresas de tecnologia e investiu em startups de IA que dependem de seus chips. Um exemplo é a Inflection AI, que recebeu um investimento de US$ 1,3 bilhão da Nvidia e optou por usar os produtos da Nvidia devido à falta de alternativas viáveis por parte de concorrentes.

Disputa por chips

A Nvidia está alocando seus cobiçados chips H100 para apoiar serviços de nuvem emergentes, como o CoreWeave, que oferecem às empresas a opção de alugar poder de computação em vez de comprar hardware próprio. O CoreWeave, que opera com hardware da Inflection e possui uma extensa base de mais de 45 mil chips Nvidia, arrecadou US$ 2,3 bilhões em dívidas para adquirir mais componentes. No entanto, a crescente demanda pelos chips da Nvidia está levando a uma situação em que a empresa precisa escolher a quem fornecer e em que quantidade, o que gera preocupações entre executivos de tecnologia sobre a possibilidade de o hardware se tornar um gargalo para o desenvolvimento da IA.

Apesar das preocupações, poucos clientes estão se manifestando publicamente contra a Nvidia, mesmo gigantes como o Google, que há anos desenvolve seus próprios chips de IA. O Google reconhece a “tremenda” demanda por seus próprios chips, mas ainda mantém uma colaboração próxima com a Nvidia. A Nvidia não revela detalhes de preços ou políticas de alocação de chips, mas especialistas do setor estimam que cada chip H100 pode custar de US$ 15 mil a mais de US$ 40 mil, de duas a três vezes mais caro que seu antecessor, o chip A100. Enquanto alguns argumentam que a Nvidia deixou espaço para concorrentes nos preços, a empresa defende que o desempenho superior de seus chips economiza dinheiro para os clientes a longo prazo, reduzindo o tempo de treinamento em data centers de alto custo.

Matéria produzida pelo jornalismo do Estadão e otimizada por IA. Fonte: www.estadao.com.br