O avanço da inteligência artificial tem acelerado ganhos de produtividade e eficiência nas empresas, mas também vem sendo incorporado por grupos criminosos para aprimorar golpes digitais. O movimento tem ampliado a sofisticação de ataques de phishing, que utilizam engenharia social para induzir usuários a compartilhar informações sensíveis, como credenciais e dados financeiros.
A América Latina acompanha essa tendência global. Relatórios recentes de empresas especializadas em cibersegurança indicam que o uso de inteligência artificial generativa contribuiu para uma expansão expressiva desse tipo de ataque. O Threat Landscape Report 2025 aponta que a circulação e o roubo de credenciais na darknet cresceram até 500% em escala mundial, impulsionados por ferramentas baseadas em IA.
Na região latino-americana, o impacto tem sido mais evidente em setores considerados críticos, como o financeiro, o setor público, saúde e serviços essenciais. Segundo o Latin America Threat Landscape Report 2025, os ataques tornaram-se mais direcionados e personalizados, explorando dados comportamentais e contextuais das vítimas.
Para empresas que atuam com soluções avançadas em nuvem e inteligência artificial, o desafio passa a ser duplo: aproveitar o potencial da tecnologia sem abrir novas superfícies de risco. A Xertica.ai avalia que a evolução dos golpes digitais exige uma resposta que vá além de ferramentas isoladas de proteção.
De acordo com Sergio Pohlmann, diretor de Cibersegurança da empresa para o Brasil e América Latina, os ataques atuais utilizam modelos de linguagem para simular comunicações legítimas, adaptar o tom ao perfil do usuário e aumentar as taxas de sucesso. Segundo ele, isso impõe às organizações uma abordagem mais estratégica em relação à proteção de dados e à segurança da informação.
A empresa defende um modelo que combina inteligência artificial aplicada à cibersegurança com governança de dados, arquitetura tecnológica segura e programas contínuos de capacitação interna. O conceito, descrito como “IA blindada”, busca evitar que as próprias ferramentas de IA utilizadas pelas empresas se tornem vetores de vazamento ou uso indevido de informações sensíveis.
Além da camada tecnológica, a capacitação de equipes aparece como fator central. A avaliação é que treinamentos recorrentes, simulações de ataques e políticas internas claras reduzem significativamente a exposição a golpes de engenharia social. A lógica é que, mesmo com sistemas avançados, o fator humano segue como um dos principais pontos explorados por cibercriminosos.
Com a digitalização acelerada na América Latina, a proteção de dados deixou de ser tratada apenas como um tema técnico e passou a integrar decisões estratégicas de negócio. Incidentes de segurança têm impacto direto sobre reputação, continuidade operacional e confiança de clientes e parceiros.
Nesse contexto, especialistas avaliam que o uso responsável da inteligência artificial depende da criação de ambientes seguros, transparentes e alinhados às regulamentações locais. A expectativa é que organizações que integrem inovação tecnológica com práticas robustas de segurança estejam mais preparadas para mitigar riscos e sustentar o crescimento em um cenário de ameaças cada vez mais sofisticadas.









