NAvegue pelos canais

PR Newswire Brasil

Hon Hai Research Institute lança um LLM em chinês tradicional com recursos de raciocínio

AGÊNCIA DE COMUNICAÇÃO Conteúdo de responsabilidade da empresa 11 de março de 2025

A primeira versão do AI Research Center tem bom desempenho em matemática e raciocínio

TAIPEI, 11 de março de 2025 /PRNewswire/ — O Hon Hai Research Institute anunciou hoje o lançamento do primeiro Grande Modelo de Linguagem (LLM) em chinês tradicional, estabelecendo outro marco no desenvolvimento da tecnologia de IA de Taiwan com um método de treinamento de modelo mais eficiente e de baixo custo concluído em apenas quatro semanas.

O instituto, que é financiado pelo Hon Hai Technology Group (“Foxconn”) (TWSE:2317), o maior fabricante de produtos eletrônicos do mundo e principal fornecedor de soluções tecnológicas, disse que o LLM – codinome FoxBrain – será de fonte aberta e compartilhado publicamente no futuro. Ele foi desenvolvido originalmente para aplicativos usados nos sistemas internos do Grupo, abrangendo funções como análise de dados, suporte a decisões, colaboração em documentos, matemática, raciocínio e solução de problemas e geração de códigos.

Além de demonstrar recursos avançados de compreensão e raciocínio, o FoxBrain também é otimizado para o estilo de linguagem dos usuários taiwaneses, apresentando excelente desempenho em testes de raciocínio matemático e lógico.

“Nos últimos meses, o aprofundamento dos recursos de raciocínio e o uso eficiente de GPUs foram se tornando aos poucos o principal desenvolvimento no campo da IA. Nosso modelo FoxBrain adotou uma estratégia de treinamento muito eficiente, concentrando-se na otimização do processo de treinamento, em vez de acumular cegamente a capacidade de computação”, afirmou o Dr. Yung-Hui Li, Diretor do Centro de Pesquisa de Inteligência Artificial do Hon Hai Research Institute. “Com métodos de treinamento cuidadosamente elaborados e otimização de recursos, criamos com sucesso um modelo de IA local com recursos avançados de raciocínio.”

O processo de treinamento do FoxBrain foi realizado com 120 GPUs H100 da NVIDIA, expandido com NVIDIA Quantum-2 InfiniBand e concluído em apenas quatro semanas. Em comparação com os modelos de inferência lançados recentemente no mercado, o método de treinamento de modelos mais eficiente e de baixo custo estabelece uma nova marca para o desenvolvimento da tecnologia de IA de Taiwan.

O FoxBrain foi desenvolvido com base na arquitetura Meta Llama 3.1 com parâmetros 70B. Na maioria das categorias do conjunto de dados de teste do TMMLU+, ele supera o Llama-3-Taiwan-70B da mesma escala, destacando-se principalmente em matemática e raciocínio lógico (para saber mais sobre o benchmark TMMLU+ do FoxBrain, consulte a Fig. 1). Seguem as especificações técnicas e as estratégias de treinamento do FoxBrain:

  • Estabeleceu métodos de aumento de dados e avaliação de qualidade em 24 categorias de tópicos usando tecnologia própria, gerando 98 bilhões de tokens de dados de pré-treinamento de alta qualidade para o chinês tradicional
  • Tamanho da janela de contexto: 128 K tokens
  • Foram utilizadas 120 GPUs NVIDIA H100 para treinamento, com um custo computacional total de 2.688 dias de GPU
  • Foi empregada uma arquitetura de treinamento paralelo de vários nós para proporcionar alto desempenho e estabilidade
  • Foi utilizada uma técnica exclusiva de Reflexão de Raciocínio Adaptativo para treinar o modelo em raciocínio autônomo
Fig. 1: Resultados do benchmark TMMLU+ do FoxBrain, Meta-Llama-3.1-70B e Taiwan-Llama-70B (PRNewsfoto/Hon Hai Research Institute)

Nos resultados dos testes, o FoxBrain apresentou grandes melhorias em matemática em comparação com o modelo básico Meta Llama 3.1. Ele apresentou um progresso significativo em testes matemáticos em comparação com o Taiwan Llama, atualmente o melhor modelo chinês tradicional de grande porte, e superou os modelos atuais do Meta da mesma classe no quesito capacidade de raciocínio matemático. Embora ainda haja uma pequena lacuna no modelo de destilação do DeepSeek, seu desempenho já está muito próximo dos principais padrões internacionais.

O desenvolvimento do FoxBrain – desde a coleta, limpeza e ampliação de dados até o pré-treinamento contínuo, o ajuste fino supervisionado, o RLAIF e a reflexão do raciocínio adaptativo – ocorreu gradualmente por meio de pesquisa independente, alcançando benefícios que se aproximam dos modelos de IA de primeira linha, apesar dos limitados recursos computacionais. Essa pesquisa de grandes modelos de linguagem demonstra que o talento tecnológico de Taiwan pode competir com seus colegas internacionais no segmento de modelos de IA.

Embora o FoxBrain tenha sido originalmente projetado para aplicativos internos do grupo, no futuro, o Grupo continuará a trabalhar em conjunto com parceiros de tecnologia para expandir os aplicativos do FoxBrain, compartilhar suas informações de código aberto e promover a IA na fabricação, no gerenciamento da cadeia de suprimentos e na tomada de decisões inteligentes.

Durante o treinamento do modelo, a NVIDIA ofereceu suporte com o Supercomputador Taipei-1 e consultoria técnica, permitindo que o Hon Hai Research Institute concluísse com sucesso o pré-treinamento do modelo com o NVIDIA NeMo. O FoxBrain também será um importante mecanismo para promover a atualização das três principais plataformas da Foxconn: Manufatura inteligente. Veículos elétricos inteligentes. Cidade inteligente.

Os resultados do FoxBrain deverão ser divulgados pela primeira vez em uma grande conferência durante o NVIDIA GTC 2025 Session Talk “Do código aberto à IA generativa: criação, personalização e ampliação de modelos fundamentais” em 20 de março.

Sobre o Hon Hai Research Institute

O instituto possui cinco centros de pesquisa. Cada centro tem uma média de 40 profissionais de P&D de alta tecnologia, todos focados na pesquisa e no desenvolvimento de novas tecnologias, no fortalecimento da tecnologia da Foxconn e no fluxo de inovação de produtos, nas iniciativas para apoiar a transformação do Grupo de “músculos” para “cérebros” e no aumento da competitividade da estratégia “3+3” da Foxconn.

Sobre a Foxconn aqui.

Foto – https://mma.prnewswire.com/media/2637733/Fig_1_TMMLU__benchmark_results_FoxBrain_Meta_Llama_3_1_70B_Taiwan_Llama_70B.jpg

Cision View original content to download multimedia:https://www.prnewswire.com/br/comunicados-para-a-imprensa/hon-hai-research-institute-lanca-um-llm-em-chines-tradicional-com-recursos-de-raciocinio-302398250.html

FONTE Hon Hai Research Institute

A OESP não é(são) responsável(is) por erros, incorreções, atrasos ou quaisquer decisões tomadas por seus clientes com base nos Conteúdos ora disponibilizados, bem como tais Conteúdos não representam a opinião da OESP e são de inteira responsabilidade da PR Newswire Ltda

Encontrou algum erro? Entre em contato

Compartilhe