{"id":107778,"date":"2025-03-11T08:12:00","date_gmt":"2025-03-11T11:12:00","guid":{"rendered":"https:\/\/bluestudio.estadao.com.br\/agencia-de-comunicacao\/prnewswire\/prnewseconomia\/hon-hai-research-institute-lanca-um-llm-em-chines-tradicional-com-recursos-de-raciocinio\/"},"modified":"2025-03-11T08:12:00","modified_gmt":"2025-03-11T11:12:00","slug":"hon-hai-research-institute-lanca-um-llm-em-chines-tradicional-com-recursos-de-raciocinio","status":"publish","type":"post","link":"https:\/\/bluestudio.estadao.com.br\/agencia-de-comunicacao\/prnewswire\/prnewseconomia\/hon-hai-research-institute-lanca-um-llm-em-chines-tradicional-com-recursos-de-raciocinio\/","title":{"rendered":"Hon Hai Research Institute lan\u00e7a um LLM em chin\u00eas tradicional com recursos de racioc\u00ednio"},"content":{"rendered":"<div class=\"xn-content\">\n<p class=\"prntac\"><i>A primeira vers\u00e3o do AI Research Center tem bom desempenho em matem\u00e1tica e racioc\u00ednio<\/i><\/p>\n<p><span class=\"legendSpanClass\"><span class=\"xn-location\">TAIPEI<\/span><\/span>, <span class=\"legendSpanClass\">11 de mar\u00e7o de 2025<\/span> \/PRNewswire\/ &#8212; O Hon Hai Research Institute anunciou hoje o lan\u00e7amento do primeiro Grande Modelo de Linguagem (LLM) em chin\u00eas tradicional, estabelecendo outro marco no desenvolvimento da tecnologia de IA de <span class=\"xn-location\">Taiwan<\/span> com um m\u00e9todo de treinamento de modelo mais eficiente e de baixo custo conclu\u00eddo em apenas quatro semanas.<\/p>\n<p>O instituto, que \u00e9 financiado pelo Hon Hai Technology Group (&#8220;Foxconn&#8221;) (TWSE:2317), o maior fabricante de produtos eletr\u00f4nicos do mundo e principal fornecedor de solu\u00e7\u00f5es tecnol\u00f3gicas, disse que o LLM &#8211; codinome FoxBrain &#8211; ser\u00e1 de fonte aberta e compartilhado publicamente no futuro. Ele foi desenvolvido originalmente para aplicativos usados nos sistemas internos do Grupo, abrangendo fun\u00e7\u00f5es como an\u00e1lise de dados, suporte a decis\u00f5es, colabora\u00e7\u00e3o em documentos, matem\u00e1tica, racioc\u00ednio e solu\u00e7\u00e3o de problemas e gera\u00e7\u00e3o de c\u00f3digos.<\/p>\n<p>Al\u00e9m de demonstrar recursos avan\u00e7ados de compreens\u00e3o e racioc\u00ednio, o FoxBrain tamb\u00e9m \u00e9 otimizado para o estilo de linguagem dos usu\u00e1rios taiwaneses, apresentando excelente desempenho em testes de racioc\u00ednio matem\u00e1tico e l\u00f3gico.<\/p>\n<p>&#8220;Nos \u00faltimos meses, o aprofundamento dos recursos de racioc\u00ednio e o uso eficiente de GPUs foram se tornando aos poucos o principal desenvolvimento no campo da IA. Nosso modelo FoxBrain adotou uma estrat\u00e9gia de treinamento muito eficiente, concentrando-se na otimiza\u00e7\u00e3o do processo de treinamento, em vez de acumular cegamente a capacidade de computa\u00e7\u00e3o&#8221;, afirmou o Dr. <span class=\"xn-person\">Yung-Hui Li<\/span>, Diretor do Centro de Pesquisa de Intelig\u00eancia Artificial do Hon Hai Research Institute. &#8220;Com m\u00e9todos de treinamento cuidadosamente elaborados e otimiza\u00e7\u00e3o de recursos, criamos com sucesso um modelo de IA local com recursos avan\u00e7ados de racioc\u00ednio.&#8221;<\/p>\n<p>O processo de treinamento do FoxBrain foi realizado com 120 <u><a href=\"https:\/\/www.nvidia.com\/en-us\/data-center\/h100\/\" target=\"_blank\" rel=\"nofollow\"> GPUs H100 da NVIDIA<\/a><\/u>, expandido com <a href=\"https:\/\/www.nvidia.com\/en-us\/networking\/quantum2\/\" target=\"_blank\" rel=\"nofollow\">NVIDIA Quantum-2<\/a> InfiniBand e conclu\u00eddo em apenas quatro semanas. Em compara\u00e7\u00e3o com os modelos de infer\u00eancia lan\u00e7ados recentemente no mercado, o m\u00e9todo de treinamento de modelos mais eficiente e de baixo custo estabelece uma nova marca para o desenvolvimento da tecnologia de IA de <span class=\"xn-location\">Taiwan<\/span>.<\/p>\n<p>O FoxBrain foi desenvolvido com base na arquitetura Meta Llama 3.1 com par\u00e2metros <span class=\"xn-money\">70B<\/span>. Na maioria das categorias do conjunto de dados de teste do TMMLU+, ele supera o Llama-3-<span class=\"xn-location\">Taiwan<\/span>-70B da mesma escala, destacando-se principalmente em matem\u00e1tica e racioc\u00ednio l\u00f3gico (para saber mais sobre o benchmark TMMLU+ do FoxBrain, consulte a Fig. 1). Seguem as especifica\u00e7\u00f5es t\u00e9cnicas e as estrat\u00e9gias de treinamento do FoxBrain:<\/p>\n<ul type=\"disc\">\n<li>Estabeleceu m\u00e9todos de aumento de dados e avalia\u00e7\u00e3o de qualidade em 24 categorias de t\u00f3picos usando tecnologia pr\u00f3pria, gerando 98 bilh\u00f5es de tokens de dados de pr\u00e9-treinamento de alta qualidade para o chin\u00eas tradicional<\/li>\n<li>Tamanho da janela de contexto: <span class=\"xn-money\">128 K<\/span> tokens<\/li>\n<li>Foram utilizadas 120 GPUs NVIDIA H100 para treinamento, com um custo computacional total de 2.688 dias de GPU<\/li>\n<li>Foi empregada uma arquitetura de treinamento paralelo de v\u00e1rios n\u00f3s para proporcionar alto desempenho e estabilidade<\/li>\n<li>Foi utilizada uma t\u00e9cnica exclusiva de Reflex\u00e3o de Racioc\u00ednio Adaptativo para treinar o modelo em racioc\u00ednio aut\u00f4nomo<\/li>\n<\/ul>\n<div class=\"PRN_ImbeddedAssetReference\" id=\"DivAssetPlaceHolder5111\">\n<a href=\"https:\/\/mma.prnewswire.com\/media\/2637733\/Fig_1_TMMLU__benchmark_results_FoxBrain_Meta_Llama_3_1_70B_Taiwan_Llama_70B.html\" target=\"_blank\" rel=\"nofollow\"><img decoding=\"async\" src=\"https:\/\/mma.prnewswire.com\/media\/2637733\/Fig_1_TMMLU__benchmark_results_FoxBrain_Meta_Llama_3_1_70B_Taiwan_Llama_70B.jpg\" title=\"Fig. 1: Resultados do benchmark TMMLU+ do FoxBrain, Meta-Llama-3.1-70B e Taiwan-Llama-70B (PRNewsfoto\/Hon Hai Research Institute)\" alt=\"Fig. 1: Resultados do benchmark TMMLU+ do FoxBrain, Meta-Llama-3.1-70B e Taiwan-Llama-70B (PRNewsfoto\/Hon Hai Research Institute)\" \/><\/a><\/p>\n<\/div>\n<p>Nos resultados dos testes, o FoxBrain apresentou grandes melhorias em matem\u00e1tica em compara\u00e7\u00e3o com o modelo b\u00e1sico Meta Llama 3.1. Ele apresentou um progresso significativo em testes matem\u00e1ticos em compara\u00e7\u00e3o com o Taiwan Llama, atualmente o melhor modelo chin\u00eas tradicional de grande porte, e superou os modelos atuais do Meta da mesma classe no quesito capacidade de racioc\u00ednio matem\u00e1tico. Embora ainda haja uma pequena lacuna no modelo de destila\u00e7\u00e3o do DeepSeek, seu desempenho j\u00e1 est\u00e1 muito pr\u00f3ximo dos principais padr\u00f5es internacionais.<\/p>\n<p>O desenvolvimento do FoxBrain &#8211; desde a coleta, limpeza e amplia\u00e7\u00e3o de dados at\u00e9 o pr\u00e9-treinamento cont\u00ednuo, o ajuste fino supervisionado, o RLAIF e a reflex\u00e3o do racioc\u00ednio adaptativo &#8211; ocorreu gradualmente por meio de pesquisa independente, alcan\u00e7ando benef\u00edcios que se aproximam dos modelos de IA de primeira linha, apesar dos limitados recursos computacionais. Essa pesquisa de grandes modelos de linguagem demonstra que o talento tecnol\u00f3gico de <span class=\"xn-location\">Taiwan<\/span> pode competir com seus colegas internacionais no segmento de modelos de IA.<\/p>\n<p>Embora o FoxBrain tenha sido originalmente projetado para aplicativos internos do grupo, no futuro, o Grupo continuar\u00e1 a trabalhar em conjunto com parceiros de tecnologia para expandir os aplicativos do FoxBrain, compartilhar suas informa\u00e7\u00f5es de c\u00f3digo aberto e promover a IA na fabrica\u00e7\u00e3o, no gerenciamento da cadeia de suprimentos e na tomada de decis\u00f5es inteligentes.<\/p>\n<p>Durante o treinamento do modelo, a NVIDIA ofereceu suporte com o Supercomputador Taipei-1 e consultoria t\u00e9cnica, permitindo que o Hon Hai Research Institute conclu\u00edsse com sucesso o pr\u00e9-treinamento do modelo com o NVIDIA NeMo. O FoxBrain tamb\u00e9m ser\u00e1 um importante mecanismo para promover a atualiza\u00e7\u00e3o das tr\u00eas principais plataformas da Foxconn: Manufatura inteligente. Ve\u00edculos el\u00e9tricos inteligentes. Cidade inteligente.<\/p>\n<p>Os resultados do FoxBrain dever\u00e3o ser divulgados pela primeira vez em uma grande confer\u00eancia durante o NVIDIA GTC 2025 Session Talk &#8220;<a href=\"https:\/\/www.nvidia.com\/gtc\/session-catalog\/?tab.catalogallsessionstab=16566177511100015Kus&amp;search=foxconn#\/session\/1734052072050001Ux0A\" target=\"_blank\" rel=\"nofollow\">Do c\u00f3digo aberto \u00e0 IA generativa: cria\u00e7\u00e3o, personaliza\u00e7\u00e3o e amplia\u00e7\u00e3o de modelos fundamentais<\/a>&#8221; em 20 de mar\u00e7o.<\/p>\n<p><b>Sobre o Hon Hai Research Institute<\/b><\/p>\n<p>O instituto possui cinco centros de pesquisa. Cada centro tem uma m\u00e9dia de 40 profissionais de P&amp;D de alta tecnologia, todos focados na pesquisa e no desenvolvimento de novas tecnologias, no fortalecimento da tecnologia da Foxconn e no fluxo de inova\u00e7\u00e3o de produtos, nas iniciativas para apoiar a transforma\u00e7\u00e3o do <span class=\"xn-person\">Grupo de<\/span> &#8220;m\u00fasculos&#8221; para &#8220;c\u00e9rebros&#8221; e no aumento da competitividade da estrat\u00e9gia &#8220;3+3&#8221; da Foxconn.<\/p>\n<p>Sobre a Foxconn <a href=\"https:\/\/www.honhai.com\/en-us\" target=\"_blank\" rel=\"nofollow\">aqui<\/a>.<\/p>\n<p>Foto &#8211; <a href=\"https:\/\/mma.prnewswire.com\/media\/2637733\/Fig_1_TMMLU__benchmark_results_FoxBrain_Meta_Llama_3_1_70B_Taiwan_Llama_70B.jpg\" target=\"_blank\" rel=\"nofollow\">https:\/\/mma.prnewswire.com\/media\/2637733\/Fig_1_TMMLU__benchmark_results_FoxBrain_Meta_Llama_3_1_70B_Taiwan_Llama_70B.jpg<\/a><\/p>\n<div class=\"PRN_ImbeddedAssetReference\" id=\"DivAssetPlaceHolder0\"><\/div>\n<p id=\"PURL\"><img loading=\"lazy\" decoding=\"async\" title=\"Cision\" width=\"12\" height=\"12\" alt=\"Cision\" src=\"https:\/\/c212.net\/c\/img\/favicon.png?sn=PT37119&amp;sd=2025-03-11\" \/> View original content to download multimedia:<a id=\"PRNURL\" rel=\"nofollow\" href=\"https:\/\/www.prnewswire.com\/br\/comunicados-para-a-imprensa\/hon-hai-research-institute-lanca-um-llm-em-chines-tradicional-com-recursos-de-raciocinio-302398250.html\" target=\"_blank\">https:\/\/www.prnewswire.com\/br\/comunicados-para-a-imprensa\/hon-hai-research-institute-lanca-um-llm-em-chines-tradicional-com-recursos-de-raciocinio-302398250.html<\/a><\/p>\n<p>FONTE  Hon Hai Research Institute<\/p>\n<\/div>\n<p><img decoding=\"async\" alt=\"\" src=\"https:\/\/rt.prnewswire.com\/rt.gif?NewsItemId=PT37119&amp;Transmission_Id=202503110701PR_NEWS_LATAM____PT37119&amp;DateId=20250311\" style=\"border:0px;width:1px;height:1px\" \/><\/p>\n<p>A <b>OESP<\/b> n\u00e3o \u00e9(s\u00e3o) respons\u00e1vel(is) por erros, incorre\u00e7\u00f5es, atrasos ou quaisquer decis\u00f5es tomadas por seus clientes com base nos Conte\u00fados ora disponibilizados, bem como tais Conte\u00fados n\u00e3o representam a opini\u00e3o da <b>OESP<\/b> e s\u00e3o de inteira responsabilidade da <b>PR Newswire Ltda<\/b><\/p>\n","protected":false},"excerpt":{"rendered":"A primeira vers\u00e3o do AI Research Center tem bom desempenho em matem\u00e1tica e racioc\u00ednio","protected":false},"author":1,"featured_media":0,"comment_status":"open","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"_acf_changed":false,"inline_featured_image":false,"_monsterinsights_skip_tracking":false,"_monsterinsights_sitenote_active":false,"_monsterinsights_sitenote_note":"","_monsterinsights_sitenote_category":0,"footnotes":""},"categories":[29],"tags":[],"class_list":["post-107778","post","type-post","status-publish","format-standard","hentry","category-prnewseconomia"],"acf":[],"_links":{"self":[{"href":"https:\/\/bluestudio.estadao.com.br\/agencia-de-comunicacao\/wp-json\/wp\/v2\/posts\/107778","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/bluestudio.estadao.com.br\/agencia-de-comunicacao\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/bluestudio.estadao.com.br\/agencia-de-comunicacao\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/bluestudio.estadao.com.br\/agencia-de-comunicacao\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/bluestudio.estadao.com.br\/agencia-de-comunicacao\/wp-json\/wp\/v2\/comments?post=107778"}],"version-history":[{"count":0,"href":"https:\/\/bluestudio.estadao.com.br\/agencia-de-comunicacao\/wp-json\/wp\/v2\/posts\/107778\/revisions"}],"wp:attachment":[{"href":"https:\/\/bluestudio.estadao.com.br\/agencia-de-comunicacao\/wp-json\/wp\/v2\/media?parent=107778"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/bluestudio.estadao.com.br\/agencia-de-comunicacao\/wp-json\/wp\/v2\/categories?post=107778"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/bluestudio.estadao.com.br\/agencia-de-comunicacao\/wp-json\/wp\/v2\/tags?post=107778"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}