Companhia investiu US$ 30 bilhões para aperfeiçoar sua tecnologia para a infraestrutura da inteligência artificial
7 de setembro de 2023
A Nvidia estabeleceu uma posição de liderança notável na produção de chips para inteligência artificial (IA) ao longo de mais de uma década. Originariamente conhecida por sua presença no mundo dos jogos, a empresa previu precocemente o crescimento da IA e adaptou seus chips e software para essa tecnologia. Além disso, a Nvidia ofereceu aos clientes acesso a computadores especializados e serviços de computação, tornando-se uma referência no desenvolvimento de IA. Embora outras empresas como Google, Amazon, Meta e IBM também produzam chips de IA, a Nvidia domina mais de 70% desse mercado e é líder no treinamento de modelos de IA generativos. Recentemente, a empresa surpreendeu o mercado ao projetar um aumento de 64% na receita trimestral. Seus clientes estão dispostos a esperar até 18 meses para adquirir sistemas Nvidia em vez de chips de outras fontes, evidenciando sua posição de destaque no setor de IA.
Jensen Huang, o CEO da Nvidia, é um defensor apaixonado da inteligência artificial (IA) e acredita que estamos testemunhando a maior revolução na computação desde os primórdios da IBM. A Nvidia, originalmente uma empresa focada em chips para jogos, transformou-se em um gigante da IA ao adaptar suas GPUs para tarefas complexas de IA e introduzir o software CUDA em 2006, tornando-as versáteis para uma variedade de aplicações. A empresa investiu significativamente em pesquisa e desenvolvimento, colaborando com cientistas e startups e expandindo suas ofertas para incluir não apenas hardware, mas também software-chave, como bibliotecas pré-construídas, simplificando o desenvolvimento de aplicações de IA.
A Nvidia também se destacou na evolução do hardware, lançando chips mais rápidos regularmente e otimizando suas GPUs para cálculos específicos de IA desde 2017. Além disso, a empresa começou a vender computadores completos para tarefas de IA, incluindo sistemas do tamanho de supercomputadores com milhares de GPUs e tecnologia de rede proprietária. Essas máquinas são essenciais para o treinamento de modelos de IA avançados, embora possam levar semanas para concluir essa tarefa. No geral, a Nvidia se tornou uma figura central na revolução da IA, fornecendo tanto hardware quanto software essenciais para a comunidade de desenvolvimento de IA.
Em setembro do ano passado, a Nvidia lançou os chips H100, projetados para lidar com sistemas de IA conhecidos como Transformers, que são essenciais para serviços como o ChatGPT. Esses chips representam um avanço significativo e marcam o que o CEO da Nvidia, Jensen Huang, descreve como o “momento iPhone” da IA generativa. Para consolidar ainda mais sua liderança, a Nvidia estabeleceu parcerias com grandes empresas de tecnologia e investiu em startups de IA que dependem de seus chips. Um exemplo é a Inflection AI, que recebeu um investimento de US$ 1,3 bilhão da Nvidia e optou por usar os produtos da Nvidia devido à falta de alternativas viáveis por parte de concorrentes.
A Nvidia está alocando seus cobiçados chips H100 para apoiar serviços de nuvem emergentes, como o CoreWeave, que oferecem às empresas a opção de alugar poder de computação em vez de comprar hardware próprio. O CoreWeave, que opera com hardware da Inflection e possui uma extensa base de mais de 45 mil chips Nvidia, arrecadou US$ 2,3 bilhões em dívidas para adquirir mais componentes. No entanto, a crescente demanda pelos chips da Nvidia está levando a uma situação em que a empresa precisa escolher a quem fornecer e em que quantidade, o que gera preocupações entre executivos de tecnologia sobre a possibilidade de o hardware se tornar um gargalo para o desenvolvimento da IA.
Apesar das preocupações, poucos clientes estão se manifestando publicamente contra a Nvidia, mesmo gigantes como o Google, que há anos desenvolve seus próprios chips de IA. O Google reconhece a “tremenda” demanda por seus próprios chips, mas ainda mantém uma colaboração próxima com a Nvidia. A Nvidia não revela detalhes de preços ou políticas de alocação de chips, mas especialistas do setor estimam que cada chip H100 pode custar de US$ 15 mil a mais de US$ 40 mil, de duas a três vezes mais caro que seu antecessor, o chip A100. Enquanto alguns argumentam que a Nvidia deixou espaço para concorrentes nos preços, a empresa defende que o desempenho superior de seus chips economiza dinheiro para os clientes a longo prazo, reduzindo o tempo de treinamento em data centers de alto custo.
Matéria produzida pelo jornalismo do Estadão e otimizada por IA. Fonte: www.estadao.com.br
20 de dezembro de 2024
Quando você pensa em Chopp de verdade, o que vem em sua mente?
Mudança climática traz riscos à infraestrutura das metrópoles
Ciência contra o câncer: hospital brasileiro inova em pesquisas clínicas e transforma tratamentos
18 de dezembro de 2024
Propósito de Marca: Leonardo Zalcman
17 de dezembro de 2024
IA nos Negócios: André Turquetto
10 de dezembro de 2024
IA nos Negócios: Alexandre Dal Forno
Estadão Summit Imobiliário 2024: debates estratégicos marcaram a 9ª edição do evento
19 de dezembro de 2024
Fórum Estadão Reconstrução da Educação
5 de dezembro de 2024
Prêmio Estadão Finanças Mais 2024
Guia de Pós + MBA 2024
11 de dezembro de 2024
Estadão apresenta: Guia da Faculdade 2024
12 de maio de 2023
Minha Canção #12 – Marcelo D2 (Parte 01)
5 de maio de 2023
Por Aí, com Patrícia Ferraz – 10ª edição do ‘Paladar Cozinha do Brasil’
3 de maio de 2023
Som a Pino Entrevista BNegão: ‘Eu gosto da possibilidade de viver tudo’
21 de agosto de 2023
Mochila da ‘raposinha’: conheça a marca Fjällräven, que virou febre no verão europeu e na Faria Lima
19 de agosto de 2023
‘Quero ser um jogador global’, diz Neymar sobre decisão de jogar no Al Hilal, da Arábia Saudita
2 de agosto de 2023
BRADESCO SEGUROS E TADEU SCHMIDT TRAZEM ‘TADEUZINHO’ PARA CONSCIENTIZAR POPULAÇÃO SOBRE A IMPORTÂNCIA DO SEGURO AUTO