{"id":127141,"date":"2026-04-06T19:12:00","date_gmt":"2026-04-06T22:12:00","guid":{"rendered":"https:\/\/bluestudio.estadao.com.br\/agencia-de-comunicacao\/prnewswire\/gartner-preve-que-ate-2030-realizar-inferencias-em-um-llm-com-1-trilhao-de-parametros-tera-reducao-de-custos-de-mais-de-90-em-relacao-a-2025-aos-provedores-de-ia-generativa\/"},"modified":"2026-04-06T19:12:00","modified_gmt":"2026-04-06T22:12:00","slug":"gartner-preve-que-ate-2030-realizar-inferencias-em-um-llm-com-1-trilhao-de-parametros-tera-reducao-de-custos-de-mais-de-90-em-relacao-a-2025-aos-provedores-de-ia-generativa","status":"publish","type":"post","link":"https:\/\/bluestudio.estadao.com.br\/agencia-de-comunicacao\/prnewswire\/gartner-preve-que-ate-2030-realizar-inferencias-em-um-llm-com-1-trilhao-de-parametros-tera-reducao-de-custos-de-mais-de-90-em-relacao-a-2025-aos-provedores-de-ia-generativa\/","title":{"rendered":"Gartner prev\u00ea que, at\u00e9 2030, realizar infer\u00eancias em um LLM com 1 trilh\u00e3o de par\u00e2metros ter\u00e1 redu\u00e7\u00e3o de custos de mais de 90% em rela\u00e7\u00e3o a 2025 aos provedores de IA Generativa"},"content":{"rendered":"\n<div class=\"xn-content\">\n<p class=\"prntac\"><b><i>Grandes Modelos de Linguagem (LLMs) em 2030 ser\u00e3o at\u00e9 100 vezes eficientes em termos de custo do que os primeiros modelos de tamanho semelhante desenvolvidos em 2022<\/i><\/b><\/p>\n<p><span class=\"legendSpanClass\">S\u00c3O PAULO<\/span>, <span class=\"legendSpanClass\">6 de abril de 2026<\/span> \/PRNewswire\/ &#8212; At\u00e9 2030, realizar infer\u00eancias em um LLM com um trilh\u00e3o de par\u00e2metros ter\u00e1 redu\u00e7\u00e3o de custos de mais de 90% em rela\u00e7\u00e3o a 2025 aos provedores de IA Generativa, de acordo com o Gartner, Inc., empresa de insights de neg\u00f3cios e tecnologia.<\/p>\n<p>Os tokens de IA s\u00e3o as unidades de dados que os modelos de IA Generativa processam. Para os fins desta an\u00e1lise, um token corresponde a 3,5 bytes de dados, ou aproximadamente 4 caracteres.<\/p>\n<p>&#8220;Essas melhorias de custo ser\u00e3o impulsionadas por uma combina\u00e7\u00e3o de avan\u00e7os na efici\u00eancia de semicondutores e infraestrutura, inova\u00e7\u00f5es no design de modelos, maior utiliza\u00e7\u00e3o dos chips, aumento do uso de sil\u00edcio especializado para infer\u00eancia e aplica\u00e7\u00e3o de dispositivos de borda (edge) para casos de uso espec\u00edficos&#8221;, afirma <a href=\"https:\/\/www.gartner.com\/en\/experts\/will-sommer\" target=\"_blank\" rel=\"nofollow\">Will Sommer<\/a>, Diretor Analista S\u00eanior do Gartner.<\/p>\n<p>Como resultado dessas tend\u00eancias, o Gartner prev\u00ea que os LLMs em 2030 ser\u00e3o at\u00e9 100 vezes mais eficientes em termos de custo do que os primeiros modelos de tamanho similar desenvolvidos em 2022.<\/p>\n<p>Os resultados projetados s\u00e3o divididos em dois conjuntos de cen\u00e1rios de semicondutores:<\/p>\n<ul type=\"disc\">\n<li><b>Cen\u00e1rios de ponta (frontier):<\/b> o processamento do modelo \u00e9 baseado em uma representa\u00e7\u00e3o de chips de ponta.<\/li>\n<li><b>Cen\u00e1rios de combina\u00e7\u00e3o legada (legacy blend):<\/b> o processamento do modelo \u00e9 baseado em uma combina\u00e7\u00e3o representativa de semicondutores dispon\u00edveis, referenciada \u00e0s previs\u00f5es do Gartner.<\/li>\n<\/ul>\n<p>Os custos modelados nos cen\u00e1rios de previs\u00e3o de &#8220;combina\u00e7\u00e3o&#8221; s\u00e3o consideravelmente mais elevados do que nos cen\u00e1rios de &#8220;ponta&#8221;, devido \u00e0 menor capacidade computacional.<\/p>\n<p><b>Previs\u00f5es do Gartner para cen\u00e1rios de custo de infer\u00eancia em GenAI <\/b><\/p>\n<div class=\"PRN_ImbeddedAssetReference\" id=\"DivAssetPlaceHolder3783\">\n<a href=\"https:\/\/mma.prnewswire.com\/media\/2950770\/Gartner_Token.html\" target=\"_blank\" rel=\"nofollow\"><img decoding=\"async\" src=\"https:\/\/mma.prnewswire.com\/media\/2950770\/Gartner_Token.jpg\" title=\"Fonte: Gartner (Mar\u00e7o 2026)\" alt=\"Fonte: Gartner (Mar\u00e7o 2026)\" \/><\/a><\/p>\n<\/div>\n<p>T\u00f3picos como esse e outros relacionados a dados e Intelig\u00eancia Artificial, incluindo agentes de IA, governan\u00e7a, lideran\u00e7a, ci\u00eancia de dados e arquitetura de dados, ser\u00e3o destaque durante a <a href=\"https:\/\/www.gartner.com\/pt-br\/conferences\/la\/data-analytics-brazil\" target=\"_blank\" rel=\"nofollow\"><b>Confer\u00eancia Gartner Data &amp; Analytics<\/b><\/a>, que ser\u00e1 realizada nos dias 28 e 29 de abril em S\u00e3o Paulo (SP).<\/p>\n<p><b>Queda nos custos dos tokens n\u00e3o democratizar\u00e1 a intelig\u00eancia de ponta<\/b><\/p>\n<p>No entanto, a queda nos custos por tokens dos provedores de GenAI n\u00e3o ser\u00e1 totalmente repassada aos clientes corporativos. Al\u00e9m disso, a intelig\u00eancia de ponta exigir\u00e1 significativamente mais tokens do que as aplica\u00e7\u00f5es convencionais atuais. Os modelos <a href=\"https:\/\/www.gartner.com\/en\/doc\/best-practices-preparing-for-ai-agent-services-opportunities\" target=\"_blank\" rel=\"nofollow\">ag\u00eanticos<\/a>, por exemplo, exigem de 5 a 30 vezes mais tokens por tarefa do que um chatbot de GenAI padr\u00e3o e podem executar muito mais tarefas do que um humano usando IA Generativa.<\/p>\n<p>Embora a redu\u00e7\u00e3o dos custos unit\u00e1rios dos tokens possibilite recursos de <a href=\"https:\/\/www.gartner.com\/en\/industries\/high-tech\/trends\/top-genai-opportunities-for-tech-products\" target=\"_blank\" rel=\"nofollow\">GenAI<\/a> mais avan\u00e7ados, essas melhorias impulsionar\u00e3o uma demanda desproporcionalmente maior por tokens. Como o consumo de tokens cresce mais r\u00e1pido do que a queda de seus custos, espera-se que os custos gerais de infer\u00eancia aumentem.<\/p>\n<p>&#8220;Os Chief Product Officers (CPOs) n\u00e3o devem confundir a defla\u00e7\u00e3o de tokens b\u00e1sicos com a democratiza\u00e7\u00e3o do racioc\u00ednio de ponta&#8221;, diz Sommer. &#8220;\u00c0 medida que a intelig\u00eancia comoditizada se aproxima de um custo pr\u00f3ximo de zero, a capacidade computacional e os sistemas necess\u00e1rios para suportar o racioc\u00ednio avan\u00e7ado permanecem escassos. Os CPOs que mascararem inefici\u00eancias arquitet\u00f4nicas com tokens baratos hoje descobrir\u00e3o que a escalabilidade ag\u00eantica ser\u00e1 dif\u00edcil de alcan\u00e7ar amanh\u00e3.&#8221;<\/p>\n<p>O valor ser\u00e1 gerado pelas plataformas capazes de orquestrar cargas de trabalho em um portf\u00f3lio diversificado de modelos. Tarefas rotineiras e de alta frequ\u00eancia devem ser direcionadas para modelos de linguagem pequenos e espec\u00edficos de dom\u00ednio, que apresentam melhor desempenho do que solu\u00e7\u00f5es gen\u00e9ricas por uma fra\u00e7\u00e3o do custo quando alinhados a fluxos de trabalho especializados. A infer\u00eancia dispendiosa de modelos de ponta deve ser rigidamente controlada e reservada exclusivamente para tarefas de racioc\u00ednio complexas e de alta margem de lucro.<\/p>\n<p>Clientes do Gartner podem ler mais em <a href=\"https:\/\/www.gartner.com\/document-reader\/document\/code\/851590\/preview\" target=\"_blank\" rel=\"nofollow\">Navigating the Commoditization Trap as Token Costs Fall by Over 90% Through 2030<\/a> e <a href=\"https:\/\/www.gartner.com\/document-reader\/document\/code\/847218\" target=\"_blank\" rel=\"nofollow\">Frontier Scale Models Threaten Software Margins and Solvency<\/a><a href=\"https:\/\/www.gartner.com\/document-reader\/document\/6269483?ref=solrResearch&amp;refval=457771601\" target=\"_blank\" rel=\"nofollow\">.<\/a><\/p>\n<p><b>Gartner \u00e9 a autoridade mundial em IA<br \/><\/b>O Gartner \u00e9 o parceiro indispens\u00e1vel para executivos C-Level e fornecedores de tecnologia \u00e0 medida que implementam estrat\u00e9gias de IA para alcan\u00e7ar suas prioridades de miss\u00e3o cr\u00edtica. A independ\u00eancia e a objetividade dos insights do Gartner proporcionam aos clientes a confian\u00e7a necess\u00e1ria para tomar decis\u00f5es bem fundamentadas e desbloquear todo o potencial da IA. Clientes C-Level est\u00e3o usando a ferramenta de IA do Gartner <a href=\"https:\/\/www.gartner.com\/en\/products\/ask-gartner\" target=\"_blank\" rel=\"nofollow\">AskGartner<\/a> para definir como aproveitar a IA em seus neg\u00f3cios. Com mais de 2.500 especialistas em neg\u00f3cios e tecnologia, 6.000 insights escritos, al\u00e9m de mais de 1.000 casos de uso e estudos de caso de IA, o Gartner \u00e9 a autoridade mundial em IA. Mais informa\u00e7\u00f5es podem ser encontradas <a href=\"https:\/\/www.gartner.com\/en\/ai\" target=\"_blank\" rel=\"nofollow\">aqui<\/a>. <\/p>\n<p><b>Sobre a Confer\u00eancia Gartner Data &amp; Analytics<br \/><\/b>Os analistas do Gartner fornecer\u00e3o an\u00e1lises adicionais sobre tend\u00eancias de Data e Analytics nas Confer\u00eancias Gartner Data &amp; Analytics, que acontecer\u00e3o em 28 e 29 de abril em <a href=\"https:\/\/www.gartner.com\/pt-br\/conferences\/la\/data-analytics-brazil\" target=\"_blank\" rel=\"nofollow\">S\u00e3o Paulo<\/a> (Brasil), 11 a 13 de maio em <a href=\"https:\/\/www.gartner.com\/en\/conferences\/emea\/data-analytics-uk\" target=\"_blank\" rel=\"nofollow\">Londres<\/a> (Reino Unido), 19 a 21 de maio em <a href=\"https:\/\/www.gartner.com\/jp\/conferences\/apac\/data-analytics-japan\" target=\"_blank\" rel=\"nofollow\">T\u00f3quio<\/a> (Jap\u00e3o), 16 e 17 de junho em <a href=\"https:\/\/www.gartner.com\/en\/conferences\/apac\/data-analytics-australia\" target=\"_blank\" rel=\"nofollow\">Sydney<\/a> (Austr\u00e1lia) e 21 e 22 de setembro em <a href=\"https:\/\/www.gartner.com\/en\/conferences\/apac\/data-analytics-india\" target=\"_blank\" rel=\"nofollow\">Mumbai<\/a> (\u00cdndia). Acompanhe  as not\u00edcias e atualiza\u00e7\u00f5es da confer\u00eancia no <a href=\"https:\/\/x.com\/Gartner_inc\" target=\"_blank\" rel=\"nofollow\">X<\/a> e <a href=\"https:\/\/www.linkedin.com\/showcase\/gartner-for-it-leaders\" target=\"_blank\" rel=\"nofollow\">LinkedIn<\/a> usando <a href=\"https:\/\/twitter.com\/search?q=%23GartnerDA&amp;src=typd\" target=\"_blank\" rel=\"nofollow\">#GartnerDA<\/a>. <\/p>\n<p><b>Sobre o Gartner for High Tech Leaders and Providers<br \/><\/b>O Gartner for High Tech Leaders and Providers equipa l\u00edderes de tecnologia e suas equipes com melhores pr\u00e1ticas baseadas em fun\u00e7\u00f5es, insights da ind\u00fastria e vis\u00f5es estrat\u00e9gicas sobre tend\u00eancias emergentes e mudan\u00e7as de mercado para que alcancem suas prioridades de miss\u00e3o cr\u00edtica e construam as organiza\u00e7\u00f5es de sucesso do amanh\u00e3. Para informa\u00e7\u00f5es adicionais, acesse: <a href=\"http:\/\/www.gartner.com\/en\/industries\/high-tech\" target=\"_blank\" rel=\"nofollow\">www.gartner.com\/en\/industries\/high-tech<\/a>. Acompanhe as not\u00edcias e atualiza\u00e7\u00f5es do Gartner for High Tech no <a href=\"https:\/\/twitter.com\/Gartner_inc\" target=\"_blank\" rel=\"nofollow\">X<\/a> e no <a href=\"https:\/\/www.linkedin.com\/showcase\/gartner-for-high-tech\" target=\"_blank\" rel=\"nofollow\">LinkedIn<\/a> usando #GartnerHT.<\/p>\n<p><b>Sobre o Gartner<br \/><\/b>O <a href=\"https:\/\/www.gartner.com\/en\" target=\"_blank\" rel=\"nofollow\"><b>Gartner, Inc.<\/b><\/a> fornece insights objetivos e acion\u00e1veis que impulsionam decis\u00f5es mais inteligentes e um melhor desempenho para as prioridades de miss\u00e3o cr\u00edtica das empresas. Para saber mais, visite <a href=\"https:\/\/www.gartner.com\/\" target=\"_blank\" rel=\"nofollow\">www.gartner.com<\/a>. <\/p>\n<p>Foto &#8211; <a href=\"https:\/\/mma.prnewswire.com\/media\/2950770\/Gartner_Token.jpg\" target=\"_blank\" rel=\"nofollow\">https:\/\/mma.prnewswire.com\/media\/2950770\/Gartner_Token.jpg<\/a><\/p>\n<div class=\"PRN_ImbeddedAssetReference\" id=\"DivAssetPlaceHolder0\"><\/div>\n<p id=\"PURL\"><img loading=\"lazy\" decoding=\"async\" title=\"Cision\" width=\"12\" height=\"12\" alt=\"Cision\" src=\"https:\/\/edge.prnewswire.com\/c\/img\/favicon.png?sn=PT28119&amp;sd=2026-04-06\" \/> View original content to download multimedia:<a id=\"PRNURL\" rel=\"nofollow\" href=\"https:\/\/www.prnewswire.com\/br\/comunicados-para-a-imprensa\/gartner-preve-que-ate-2030-realizar-inferencias-em-um-llm-com-1-trilhao-de-parametros-tera-reducao-de-custos-de-mais-de-90-em-relacao-a-2025-aos-provedores-de-ia-generativa-302735052.html\" target=\"_blank\">https:\/\/www.prnewswire.com\/br\/comunicados-para-a-imprensa\/gartner-preve-que-ate-2030-realizar-inferencias-em-um-llm-com-1-trilhao-de-parametros-tera-reducao-de-custos-de-mais-de-90-em-relacao-a-2025-aos-provedores-de-ia-generativa-302735052.html<\/a><\/p>\n<p>FONTE Gartner<\/p>\n<\/div>\n<p>  <img decoding=\"async\" alt=\"\" src=\"https:\/\/rt.prnewswire.com\/rt.gif?NewsItemId=PT28119&amp;Transmission_Id=202604061805PR_NEWS_LATAM____PT28119&amp;DateId=20260406\" style=\"border:0px;width:1px;height:1px\" \/><\/p>\n<p><strong>T\u00f3picos Relacionados:<\/strong> Not\u00edcias de Feiras Comerciais, Eventos Futuros, Publica\u00e7\u00e3o \/ Servi\u00e7os de Informa\u00e7\u00e3o, Computador\/Eletr\u00f4nica, Intelig\u00eancia Artificial, Semicondutores<\/p>\n<p>A <b>OESP<\/b> n\u00e3o \u00e9(s\u00e3o) respons\u00e1vel(is) por erros, incorre\u00e7\u00f5es, atrasos ou quaisquer decis\u00f5es tomadas por seus clientes com base nos Conte\u00fados ora disponibilizados, bem como tais Conte\u00fados n\u00e3o representam a opini\u00e3o da <b>OESP<\/b> e s\u00e3o de inteira responsabilidade da <b>PR Newswire Ltda<\/b><\/p>\n","protected":false},"excerpt":{"rendered":"Grandes Modelos de Linguagem (LLMs) em 2030 ser\u00e3o at\u00e9 100 vezes eficientes em termos de custo do que os primeiros modelos de tamanho semelhante desenvolvidos em 2022 S\u00c3O PAULO, 6 de abril de 2026","protected":false},"author":1,"featured_media":127142,"comment_status":"open","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"_acf_changed":false,"inline_featured_image":false,"_monsterinsights_skip_tracking":false,"_monsterinsights_sitenote_active":false,"_monsterinsights_sitenote_note":"","_monsterinsights_sitenote_category":0,"footnotes":""},"categories":[27],"tags":[8468],"class_list":["post-127141","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-prnewswire","tag-grandes-modelos-de-linguagem-llms-em-2030-serao-ate-100-vezes-eficientes-em-termos-de-custo-do-que-os-primeiros-modelos-de-tamanho-semelhante-desenvolvidos-em-2022"],"acf":[],"_links":{"self":[{"href":"https:\/\/bluestudio.estadao.com.br\/agencia-de-comunicacao\/wp-json\/wp\/v2\/posts\/127141","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/bluestudio.estadao.com.br\/agencia-de-comunicacao\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/bluestudio.estadao.com.br\/agencia-de-comunicacao\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/bluestudio.estadao.com.br\/agencia-de-comunicacao\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/bluestudio.estadao.com.br\/agencia-de-comunicacao\/wp-json\/wp\/v2\/comments?post=127141"}],"version-history":[{"count":0,"href":"https:\/\/bluestudio.estadao.com.br\/agencia-de-comunicacao\/wp-json\/wp\/v2\/posts\/127141\/revisions"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/bluestudio.estadao.com.br\/agencia-de-comunicacao\/wp-json\/wp\/v2\/media\/127142"}],"wp:attachment":[{"href":"https:\/\/bluestudio.estadao.com.br\/agencia-de-comunicacao\/wp-json\/wp\/v2\/media?parent=127141"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/bluestudio.estadao.com.br\/agencia-de-comunicacao\/wp-json\/wp\/v2\/categories?post=127141"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/bluestudio.estadao.com.br\/agencia-de-comunicacao\/wp-json\/wp\/v2\/tags?post=127141"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}