Home / Tecnologia / Golpes biométricos: cibercriminosos burlam bancos com deepfakes

Golpes biométricos: cibercriminosos burlam bancos com deepfakes

Golpes biométricos: cibercriminosos burlam bancos com deepfakes

Os sistemas biométricos, como o reconhecimento facial, são cada vez mais populares no Brasil, mas também atraem a atenção de criminosos cibernéticos. Para burlar a segurança dos bancos, eles estão usando desde cabeças de cera até deepfakes.

Adesão à biometria e o aumento dos riscos

De acordo com uma pesquisa da Accenture, 73% dos consumidores brasileiros se sentem mais seguros usando biometria do que senhas numéricas em aplicativos bancários e carteiras digitais. No entanto, esse cenário também abre brechas para golpes.

Mais de 4,2 bilhões de dispositivos móveis já utilizam algum tipo de biometria ativa, segundo a Juniper Research. A previsão é que, até o final de 2026, 57% de todas as transações digitais globais serão validadas por esses métodos.

Com o avanço das tecnologias biométricas, empresas e governos vêm reforçando sistemas de segurança com identificações automáticas de indivíduos. No entanto, esse movimento é acompanhado pelo cibercrime na busca por técnicas sofisticadas, alimentadas por Inteligência Artificial, capazes de burlar os sistemas de autenticação.

— Anchises Moraes, Head de Threat Intelligence da Apura Cyber Intelligence S.A.

Níveis de complexidade dos ataques

Os ataques cibernéticos podem variar em complexidade. Veja os cinco níveis identificados:

  • Nível 1: fotos digitais de alta resolução, vídeos em HD e máscaras de papel.
  • Nível 2: bonecos realistas e máscaras 3D de látex ou silicone.
  • Nível 3: artefatos ultrarrealistas e cabeças de cera.
  • Nível 4: alteração de mapas faciais 3D para enganar os servidores de autenticação.
  • Nível 5: injeção digital de imagens e vídeos diretamente nos dispositivos, ou uso de deepfakes.

Prejuízos bilionários com deepfakes

Fraudes com deepfake e uso de identidades digitais sintéticas têm crescido no Brasil. Relatórios apontam que o prejuízo econômico com fraudes movidas por inteligência artificial pode chegar a R$ 4,5 bilhões até o final de 2025. Crescimentos de mais de 800% no uso de deepfakes já foram observados.

Na China, um caso mostrou o potencial destrutivo desses golpes. Um empregado de uma estatal foi induzido a transferir US$ 622 mil após conversar por vídeo com quem acreditava ser seu próprio CEO. O fraudador usou deepfake em tempo real para replicar a imagem e voz da liderança da empresa.

Estratégias de proteção

Empresas de cibersegurança têm apostado em múltiplas camadas de proteção para mitigar essas ameaças. Uma das principais estratégias é a adoção de sistemas multimodais, que combinam dados de vídeo, áudio, sensores de temperatura, profundidade e análise comportamental.

Além disso, sistemas avançados também integram detecção de deepfakes em tempo real e biometria comportamental, que monitora detalhes como velocidade de digitação, pressão sobre o touchscreen e a forma como o dispositivo é manuseado.

Outras táticas incluem técnicas de desafio e resposta dinâmico, com desafios imprevisíveis gerados por IA, e a junção de provas de vida passivas com ativas. Ademais, cresce o monitoramento sistemático de vazamentos em busca de imagens e perfis reciclados em novas tentativas de fraude.

Por isso se faz fundamental o trabalho desenvolvido pela Apura em conjunto com outras empresas de cibersegurança, ao monitorar as redes em busca de possíveis ameaças e, quando um ataque for bem-sucedido, avaliar minuciosamente todos os fatores envolvidos para desenvolver e aprimorar ainda mais as táticas defensivas contra cibercriminosos.

— Anchises Moraes, especialista da Apura Cyber Intelligence.

Marcado:

Deixe um Comentário