Kaspersky revela crescimento de deepfakes e clonagem de voz em ciberataques com IA
No mercado ilegal de deepfakes, o custo do conteúdo pode variar de US$ 300 a US$ 20 mil por minuto

Especialistas da Kaspersky alertam que conteúdos de deepfakes e falsificação de voz, também conhecido como deepvoice, já estão sendo usados para contornar os controles de segurança, bem como para manipular informações online e cometer outros ataques. No mercado ilegal de deepfakes, o custo do conteúdo pode variar de US$ 300 a US$ 20 mil por minuto, dependendo de sua qualidade e complexidade. Confira mais detalhes abaixo.

Embora exista benefícios de IA para determinados campos, como marcas e criadores criarem avatares de pessoas reais para produzir anúncios em vários idiomas, o uso de deepfakes para fins maliciosos prejudica outros setores, tal qual o bancário. O roubo de identidade com a ferramenta tem desempenhado um papel importante na fraude financeira, com táticas e aplicativos capazes de burlar mecanismos de verificação biométrica já utilizados por diferentes instituições. Isso permite que invasores obtenham acesso não autorizado a contas bancárias e informações confidenciais.

Os golpistas que querem comprar esse tipo de conteúdo procuram outros criminosos que consigam produzir materiais realistas, de alta qualidade e até mesmo em tempo real – já que simular movimentos, expressões faciais ou vozes de forma fluida é um desafio, pois os algoritmos devem capturar e reproduzir detalhes muito específicos. Por esse motivo, existe um mercado específico para deepfakes na Darknet, onde os vendedores desse malware oferecem serviços para criar conteúdo falso e até tutoriais com dicas de como selecionar o material de origem ou como trocar rostos e vozes para gerar uma falsificação convincente.

Para criar esse tipo de golpe, uma rede generativa pode ser treinada com fotos reais de uma pessoa, gerando inúmeras imagens convincentes para originar um vídeo. As mesmas técnicas de machine learning também podem ser utilizadas para desenvolver vozes artificiais, possibilitando a criação de conteúdo de áudio. Infelizmente, pessoas cujas amostras de voz ou vídeo estão disponíveis online, como celebridades e figuras públicas, estão mais vulneráveis a esses ataques de falsificação de identidade. Como se espera que sua evolução continue, as deepfakes já foram listadas como um dos usos mais preocupantes da Inteligência Artificial.

Isabel Manjarrez, Pesquisadora de Segurança da Equipe Global de Pesquisa e Análise da Kaspersky, explica que a demanda por deepfakes nesse mercado é tão alta que supera a oferta existente. Portanto, em breve, é provável que haja um aumento ainda mais significativo de incidentes relacionados a conteúdo falso de alta qualidade. Isso representa um risco real para o cenário de cibersegurança cibernética uma vez que, de acordo com dados da Kaspersky, dois terços dos brasileiros (66%) não sabem o que é deepfake.

"A exposição de dados pessoais confidenciais online, como imagens de rosto ou áudio, representa um desafio significativo para proteger essas informações contra acesso não autorizado e uso malicioso para criar conteúdo falso ou se passar por outras pessoas. Isso pode causar danos materiais ou monetários, bem como um impacto psicológico e de reputação para as vítimas. Por isso, é fundamental estabelecer diretrizes e padrões claros para a criação e uso de deepfakes, garantindo transparência e responsabilidade em sua implementação. Não há necessidade de temer a IA - é uma ferramenta com grande potencial, mas cabe ao ser humano fazer uso ético dela", conclui Isabel Manjarrez.

A Kaspersky compartilha algumas características que podem ajudar a identificar uma deepfake:

  • A fonte do conteúdo e as informações que você compartilha são suspeitas. Desconfie de e-mails, mensagens de texto ou voz, chamadas, vídeos ou outras mídias que você vê ou recebe, especialmente se eles comunicarem informações estranhas ou ilógicas. Confirme em fontes oficiais de informação.
  • Os movimentos faciais e corporais são incomuns. Desconfie se as expressões no rosto ou no corpo não forem naturais, como piscar estranho ou a completa ausência dele. Verifique se as palavras correspondem aos movimentos dos lábios e se as expressões faciais são apropriadas para o contexto do vídeo.
  • As condições e a iluminação em um vídeo são inconsistentes. Desconfie se detectar anomalias no fundo do vídeo. Avalie se a iluminação do rosto corresponde ao ambiente, inconsistências na iluminação podem indicar manipulação.
  • Áudios falsos podem ter distorções de voz. Preste atenção à qualidade do som. Desconfie se você identificar um tom monótono não natural na voz, se for ininteligível ou se houver ruídos estranhos no fundo.
  • Para nos mantermos protegidos, é importante a informação. Esteja ciente da existência de deepfakes e eduque-se sobre as tecnologias de manipulação digital. Quanto mais consciente você estiver, melhor poderá detectar possíveis fraudes.

(Assessoria)

redacao
Conta Oficial Verificada