Quando a IA encontra o hacker: a nova corrida entre fraude e defesa
AGÊNCIA DE COMUNICAÇÃO Conteúdo de responsabilidade da empresa 23 de março de 2026
Em evento em São Paulo, especialistas discutem como o crescimento de ataques com inteligência artificial expõe limites dos modelos tradicionais de proteção e acelera a adoção de hubs de verificação inteligente.
Quando a inteligência artificial (IA) encontra o hacker, os resultados são devastadores. Hoje, mesmo sem conhecimento técnico de programação, criminosos usam novas tecnologias para sofisticar e, ao mesmo tempo, escalar as variadas tentativas de fraudes digitais. A análise é de Gabriel Pato, hacker ético brasileiro, durante o Conexão Certta, evento que reuniu mais de 250 lideranças das áreas de verificação e prevenção à fraude no Brasil, no Hotel Rosewood, em São Paulo. O encontro destacou a urgência de investir em infraestruturas integradas capazes de responder à crescente complexidade dos ataques.
Duran te sua apresentação, Pato reforçou como o avanço das tecnologias tem elevado o nível das ameaças e pressionado equipes e sistemas de segurança. Dados de 2025 da TransUnion demonstram que cerca de 8% da receita das empresas foi perdida em fraudes. Já o Global Cybersecurity Outlook 2025, do Word Economic Forum, aponta que 72% das organizações sentiram um aumento nos riscos cibernéticos no último ano, com fraude digital, phishing e roubo de identidade entre as principais ameaças.
“ O ‘ Vibe Hacking ’ chegou. Já existem atacantes usando IA como operador, não só como copiloto. O criminoso consegue, inclusive, manipular a própria IA para explorar vulnerabilidades e ter acesso a informações sensíveis ”, afirmou o especialista e criador do maior canal sobre hacking ético do Brasil.
Entre as técnicas emergentes, estão práticas como o RAG poisoning, que busca corromper sistemas de inteligência artificial por meio da inserção de dados maliciosos, além do uso crescente de deepfakes e conteúdos sintéticos cada vez mais realistas. Nesse cenário, até mesmo a adoção inicial de IA pelas empresas amplia a superfície de ataque. Segundo relatório da IBM de 2025, 63% das organizações ainda não possuem políticas de governança para gerir o uso da IA ou conter práticas como shadow AI.
Da fragmentação à inteligência integrada
Diante desse contexto, cresce a pressão para que empresas revisem suas estratégias de segurança. Embora 66% dos líderes esperem impacto direto da IA na cibersegurança nos próximos 12 meses, apenas 37% afirmam estar preparados para utilizá-la de forma segura, segundo o levantamento do Word Economic Forum.
Outro desafio relevante, também apontado pelo mesmo relatório, está na gestão de riscos envolvendo parceiros e fornecedores, apontada por 54% das empresas como um d os principais pontos de vulnerabilidade.
Nesse movimento, ganha força uma nova abordagem baseada em infraestruturas integradas, capazes de centralizar e correlacionar diferentes sinais, contextuais e comportamentais, para apoiar decisões em tempo real. O s chamados hubs de verificação inteligente deixam de ser tendência e passam a ocupar um papel estratégico na proteção de empresas e usuários.
Inicialmente, a orquestração de múltiplas ferramentas surgiu como alternativa, principalmente no Brasil, mas mostrou limitações ao exigir alto nível de configuração, curadoria e gestão por parte das empresas. A evolução desse modelo deu origem aos hubs inteligentes, que, em vez de apenas conectar ferramentas, passam a analisar o contexto das transações, ajustar as de cisões de forma mais automatizada e dinâmica, com menor dependência operacional.
Marcelo Sousa, VP de Produto da Certta, destacou três pilares que diferenciam essa nova categoria: autonomia, inteligência e curadoria. “Avançamos ao reunir, em uma única plataforma, diferentes camas de verificação, como faceID com o uso da biometria facial, profileCheck com à análise cadastral e de risco, authID com autenticação multifator e sinais de dispositivo, além de docID e verifAI com a validação documental”, afirmou.
A mudança também reflete uma transformação mais ampla na forma como o mercado enxerga a fraude. Para Yasodara Córdova, pesquisadora e consultora em Privacidade e Identidades digitais, o modelo antifraude tradicional foi desenhado para combater ameaças pontuais. “A fraude foi tratada por muito tempo como incidente. Mas o crime digital hoje é estruturado, escalável e contínuo”, disse.
Yasodara Córdova, pesquisadora e consultora em Privacidade e Identidades digitais, durante o Conexão Certta. Foto: Larissa Caveagna
Em um ambiente mais complexo, o desafio passa a ser equilibrar segurança e experiência do usuário. “Confiança se constrói cama da por camada. Temos as ferramentas e o alinhamento, mas ecossistemas complexos não se defendem a partir de uma única perspectiva. É preciso evoluir na forma como analisamos essas informações”, concluiu a pesquisadora.
A OESP não é responsável por erros, incorreções, atrasos ou quaisquer decisões tomadas por seus clientes com base nos conteúdos ora disponibilizados, bem como tais conteúdos não representam a opinião da OESP e são de inteira responsabilidade da Agência Certta.