Companhia investiu US$ 30 bilhões para aperfeiçoar sua tecnologia para a infraestrutura da inteligência artificial
7 de setembro de 2023
A Nvidia estabeleceu uma posição de liderança notável na produção de chips para inteligência artificial (IA) ao longo de mais de uma década. Originariamente conhecida por sua presença no mundo dos jogos, a empresa previu precocemente o crescimento da IA e adaptou seus chips e software para essa tecnologia. Além disso, a Nvidia ofereceu aos clientes acesso a computadores especializados e serviços de computação, tornando-se uma referência no desenvolvimento de IA. Embora outras empresas como Google, Amazon, Meta e IBM também produzam chips de IA, a Nvidia domina mais de 70% desse mercado e é líder no treinamento de modelos de IA generativos. Recentemente, a empresa surpreendeu o mercado ao projetar um aumento de 64% na receita trimestral. Seus clientes estão dispostos a esperar até 18 meses para adquirir sistemas Nvidia em vez de chips de outras fontes, evidenciando sua posição de destaque no setor de IA.
Jensen Huang, o CEO da Nvidia, é um defensor apaixonado da inteligência artificial (IA) e acredita que estamos testemunhando a maior revolução na computação desde os primórdios da IBM. A Nvidia, originalmente uma empresa focada em chips para jogos, transformou-se em um gigante da IA ao adaptar suas GPUs para tarefas complexas de IA e introduzir o software CUDA em 2006, tornando-as versáteis para uma variedade de aplicações. A empresa investiu significativamente em pesquisa e desenvolvimento, colaborando com cientistas e startups e expandindo suas ofertas para incluir não apenas hardware, mas também software-chave, como bibliotecas pré-construídas, simplificando o desenvolvimento de aplicações de IA.
A Nvidia também se destacou na evolução do hardware, lançando chips mais rápidos regularmente e otimizando suas GPUs para cálculos específicos de IA desde 2017. Além disso, a empresa começou a vender computadores completos para tarefas de IA, incluindo sistemas do tamanho de supercomputadores com milhares de GPUs e tecnologia de rede proprietária. Essas máquinas são essenciais para o treinamento de modelos de IA avançados, embora possam levar semanas para concluir essa tarefa. No geral, a Nvidia se tornou uma figura central na revolução da IA, fornecendo tanto hardware quanto software essenciais para a comunidade de desenvolvimento de IA.
Em setembro do ano passado, a Nvidia lançou os chips H100, projetados para lidar com sistemas de IA conhecidos como Transformers, que são essenciais para serviços como o ChatGPT. Esses chips representam um avanço significativo e marcam o que o CEO da Nvidia, Jensen Huang, descreve como o “momento iPhone” da IA generativa. Para consolidar ainda mais sua liderança, a Nvidia estabeleceu parcerias com grandes empresas de tecnologia e investiu em startups de IA que dependem de seus chips. Um exemplo é a Inflection AI, que recebeu um investimento de US$ 1,3 bilhão da Nvidia e optou por usar os produtos da Nvidia devido à falta de alternativas viáveis por parte de concorrentes.
A Nvidia está alocando seus cobiçados chips H100 para apoiar serviços de nuvem emergentes, como o CoreWeave, que oferecem às empresas a opção de alugar poder de computação em vez de comprar hardware próprio. O CoreWeave, que opera com hardware da Inflection e possui uma extensa base de mais de 45 mil chips Nvidia, arrecadou US$ 2,3 bilhões em dívidas para adquirir mais componentes. No entanto, a crescente demanda pelos chips da Nvidia está levando a uma situação em que a empresa precisa escolher a quem fornecer e em que quantidade, o que gera preocupações entre executivos de tecnologia sobre a possibilidade de o hardware se tornar um gargalo para o desenvolvimento da IA.
Apesar das preocupações, poucos clientes estão se manifestando publicamente contra a Nvidia, mesmo gigantes como o Google, que há anos desenvolve seus próprios chips de IA. O Google reconhece a “tremenda” demanda por seus próprios chips, mas ainda mantém uma colaboração próxima com a Nvidia. A Nvidia não revela detalhes de preços ou políticas de alocação de chips, mas especialistas do setor estimam que cada chip H100 pode custar de US$ 15 mil a mais de US$ 40 mil, de duas a três vezes mais caro que seu antecessor, o chip A100. Enquanto alguns argumentam que a Nvidia deixou espaço para concorrentes nos preços, a empresa defende que o desempenho superior de seus chips economiza dinheiro para os clientes a longo prazo, reduzindo o tempo de treinamento em data centers de alto custo.
Matéria produzida pelo jornalismo do Estadão e otimizada por IA. Fonte: www.estadao.com.br
6 de dezembro de 2024
Qualidade e segurança devem nortear escolha por um bom hospital
Belo Monte: energia essencial para o Brasil
5 de dezembro de 2024
Igreja Maranata promove 4ª edição do Trombetas e Festas
23 de agosto de 2024
PERFIL: Rubens Angelo
20 de agosto de 2024
Propósito de Marca: Vico Benevides
26 de julho de 2024
PERFIL: Leonardo Aguiar
8 de novembro de 2024
Do Brasil para o Mundo: Fórum Estadão Think Discute Soluções Globais
7 de novembro de 2024
Estadão Summit Agro: o futuro do agronegócio em debate
5 de novembro de 2024
Conheça os vencedores do Prêmio Lugares Mais Incríveis para Trabalhar
28 de outubro de 2024
Marcas Mais 2024: Estadão divulga o ranking das marcas mais envolventes do Brasil
17 de outubro de 2024
Marcas Mais 2024: premiação acontecerá em São Paulo, dia 23
12 de maio de 2023
Minha Canção #12 – Marcelo D2 (Parte 01)
5 de maio de 2023
Por Aí, com Patrícia Ferraz – 10ª edição do ‘Paladar Cozinha do Brasil’
3 de maio de 2023
Som a Pino Entrevista BNegão: ‘Eu gosto da possibilidade de viver tudo’
21 de agosto de 2023
Mochila da ‘raposinha’: conheça a marca Fjällräven, que virou febre no verão europeu e na Faria Lima
19 de agosto de 2023
‘Quero ser um jogador global’, diz Neymar sobre decisão de jogar no Al Hilal, da Arábia Saudita
2 de agosto de 2023
BRADESCO SEGUROS E TADEU SCHMIDT TRAZEM ‘TADEUZINHO’ PARA CONSCIENTIZAR POPULAÇÃO SOBRE A IMPORTÂNCIA DO SEGURO AUTO