Home / Tecnologia / Golpes com deepfake podem gerar prejuízo de R$ 4,5 bilhões

Golpes com deepfake podem gerar prejuízo de R$ 4,5 bilhões

Golpes com deepfake podem gerar prejuízo de R$ 4,5 bilhões

Os golpes com deepfake e biometria fraudada podem causar um prejuízo de R$ 4,5 bilhões no Brasil. Isso porque os sistemas biométricos, que incluem reconhecimento facial, são os preferidos por 73% dos brasileiros, mas enfrentam ameaças constantes.

A popularidade da biometria e os riscos associados

Tokens e senhas já não são os métodos favoritos para acessar dispositivos ou contas pessoais. Atualmente, os sistemas biométricos representam a nova fronteira na autenticação de transações, utilizando impressões digitais, reconhecimento facial e até análise da voz.

De acordo com a Juniper Research, mais de 4,2 bilhões de dispositivos móveis já utilizam algum tipo de biometria ativa. A previsão é que, até o final de 2026, 57% de todas as transações digitais globais serão validadas por esses métodos. No Brasil, uma pesquisa da Accenture revela que 73% dos consumidores se sentem mais seguros usando biometria do que os tradicionais códigos numéricos em aplicativos bancários e carteiras digitais.

No entanto, essa popularidade atrai a atenção de criminosos cibernéticos. “Com o avanço das tecnologias biométricas, empresas e governos vêm reforçando sistemas de segurança com identificações automáticas de indivíduos. Paralelamente, o cibercrime busca técnicas sofisticadas, alimentadas por Inteligência Artificial, capazes de burlar os sistemas de autenticação”, explica Anchises Moraes, Head de Threat Intelligence na Apura Cyber Intelligence S.A.

Níveis de complexidade dos ataques

Segundo o especialista em cibersegurança, os criminosos utilizam desde impressoras de alta resolução até softwares para falsificar características biométricas, desafiando a proteção tecnológica de aplicativos bancários, serviços públicos e plataformas financeiras.

Esses ataques podem ser classificados em cinco níveis de complexidade:

  • Nível 1: Utiliza fotos digitais de alta resolução, vídeos em HD e até máscaras de papel.
  • Nível 2: Baseia-se em bonecos realistas e máscaras 3D de látex ou silicone.
  • Nível 3: Recorre a artefatos ultrarrealistas e cabeças de cera.
  • Nível 4: Envolve a alteração de mapas faciais 3D para enganar os servidores de autenticação quanto à “prova de vida”.
  • Nível 5: Inclui a injeção digital de imagens e vídeos diretamente nos dispositivos, ou mesmo o uso de deepfakes altamente convincentes.

O impacto econômico das fraudes

As fraudes com deepfake e o uso de identidades digitais sintéticas têm crescido no Brasil. Relatórios, como o da Deloitte publicado pelo portal Infochannel, apontam que o prejuízo econômico com fraudes movidas por inteligência artificial pode chegar a R$ 4,5 bilhões até o final de 2025. Além disso, já foram observados crescimentos de mais de 800% no uso de deepfakes.

Caso na China

Um caso emblemático ocorreu na China, onde um empregado de uma estatal foi induzido a transferir US$ 622 mil (cerca de R$ 3,1 milhões) após conversar por vídeo com quem acreditava ser seu próprio CEO. O fraudador usou deepfake em tempo real para replicar a imagem e voz da liderança da empresa, criando uma situação de extrema urgência para forçar as transferências.

As empresas de cibersegurança têm apostado em múltiplas camadas de proteção para mitigar essas ameaças. Uma das principais estratégias é a adoção de sistemas multimodais, que combinam dados de vídeo, áudio, sensores de temperatura, profundidade e análise comportamental, dificultando a ação dos golpistas.

— Anchises Moraes, Head de Threat Intelligence na Apura Cyber Intelligence S.A.

Estratégias de proteção e monitoramento

Ademais, sistemas avançados também integram detecção de deepfakes em tempo real e biometria comportamental, que monitora detalhes como velocidade de digitação, pressão sobre o touchscreen e até a forma como o dispositivo é manuseado.

Outras táticas envolvem técnicas de desafio e resposta dinâmica, com desafios imprevisíveis gerados por IA, e a junção de provas de vida (“liveness”) passivas com ativas – mixando análises automáticas de vídeo com interações em tempo real. Soma-se a isso o monitoramento sistemático de vazamentos, com equipes especializadas vasculhando a dark web e bases de dados abertas em busca de imagens e perfis reciclados em novas tentativas de fraude.

Apesar da sofisticação dos ataques, a resposta das empresas também evolui, demonstrando que a guerra pela identidade digital está apenas começando.

Por isso, é fundamental o trabalho desenvolvido pela Apura em conjunto com outras empresas de cibersegurança, ao monitorar as redes em busca de possíveis ameaças e, quando um ataque for bem-sucedido, avaliar minuciosamente todos os fatores envolvidos para desenvolver e aprimorar ainda mais as táticas defensivas contra cibercriminosos que querem explorar as vulnerabilidades do uso de biometrias.

— Anchises Moraes, especialista da Apura Cyber Intelligence

Marcado:

Deixe um Comentário