Os sistemas biométricos, como o reconhecimento facial, são cada vez mais utilizados, mas também se tornaram alvo de cibercriminosos. Preferidos por 73% dos brasileiros, esses sistemas enfrentam ameaças que podem gerar golpes de até R$ 4,5 bilhões.
A popularidade da biometria e os riscos
A biometria, incluindo impressões digitais, reconhecimento facial e análise da voz, tem se tornado o método preferido para acessar dispositivos e contas pessoais, superando tokens e senhas. Segundo a Juniper Research, mais de 4,2 bilhões de dispositivos móveis já utilizam algum tipo de biometria ativa. A previsão é que, até o final de 2026, 57% de todas as transações digitais globais sejam validadas por esses métodos. No Brasil, uma pesquisa da Accenture revelou que 73% dos consumidores se sentem mais seguros usando biometria do que códigos numéricos em aplicativos bancários e carteiras digitais.
No entanto, essa popularidade atrai a atenção de criminosos cibernéticos. Anchises Moraes, Head de Threat Intelligence na Apura Cyber Intelligence S.A., explica: “Com o avanço das tecnologias biométricas, empresas e governos vêm reforçando sistemas de segurança com identificações automáticas de indivíduos. No entanto, esse movimento é acompanhado pelo cibercrime na busca por técnicas sofisticadas, alimentadas por Inteligência Artificial, capazes de burlar os sistemas de autenticação”.
Com o avanço das tecnologias biométricas, empresas e governos vêm reforçando sistemas de segurança com identificações automáticas de indivíduos. No entanto, esse movimento é acompanhado pelo cibercrime na busca por técnicas sofisticadas, alimentadas por Inteligência Artificial, capazes de burlar os sistemas de autenticação.
— Anchises Moraes, Head de Threat Intelligence na Apura Cyber Intelligence S.A.
Níveis de complexidade dos ataques
De acordo com o especialista em cibersegurança, os criminosos utilizam desde impressoras de alta resolução até softwares para falsificar características biométricas, desafiando a proteção tecnológica de aplicativos bancários, serviços públicos e plataformas financeiras.
Esses ataques podem ser classificados em cinco níveis de complexidade:
- Nível 1: Utiliza fotos digitais de alta resolução, vídeos em HD e até máscaras de papel.
- Nível 2: Baseia-se em bonecos realistas e máscaras 3D de látex ou silicone.
- Nível 3: Recorre a artefatos ultrarrealistas e cabeças de cera.
- Nível 4: Envolve a alteração de mapas faciais 3D para enganar os servidores de autenticação quanto à “prova de vida”.
- Nível 5: Inclui a injeção digital de imagens e vídeos diretamente nos dispositivos, ou mesmo o uso de deepfakes altamente convincentes, levando sistemas a aceitar a fraude como se fosse atividade orgânica do usuário legítimo.
Crescimento das fraudes com deepfake
As fraudes com deepfake e o uso de identidades digitais sintéticas têm crescido no Brasil. Relatórios, como o da Deloitte publicado pelo portal Infochannel, apontam que o prejuízo econômico com fraudes movidas por inteligência artificial pode chegar a R$ 4,5 bilhões até o final de 2025. Além disso, já foram observados crescimentos de mais de 800% no uso de deepfakes.
Um caso emblemático na China ilustra o potencial destrutivo desses golpes. Um empregado de uma estatal foi induzido a transferir US$ 622 mil (cerca de R$ 3,1 milhões) após conversar por vídeo com quem acreditava ser seu próprio CEO. O fraudador usou deepfake em tempo real para replicar a imagem e voz da liderança da empresa, criando uma situação de extrema urgência para forçar as transferências. O golpe utilizou vídeos públicos do executivo para criar o avatar, e golpes similares vêm sendo relatados desde então.
Como as empresas de cibersegurança estão respondendo
Diante desse cenário, Anchises esclarece que as empresas de cibersegurança têm apostado em múltiplas camadas de proteção para mitigar essas ameaças. Uma das principais estratégias é a adoção de sistemas multimodais, que combinam dados de vídeo, áudio, sensores de temperatura, profundidade e análise comportamental, dificultando a ação dos golpistas. Sistemas avançados também integram detecção de deepfakes em tempo real e biometria comportamental, que monitora detalhes como velocidade de digitação, pressão sobre o touchscreen e até a forma como o dispositivo é manuseado.
Outras táticas envolvem técnicas de desafio e resposta dinâmico, com desafios imprevisíveis gerados por IA, e a junção de provas de vida (“liveness”) passivas com ativas, combinando análises automáticas de vídeo com interações em tempo real. Ademais, cresce o monitoramento sistemático de vazamentos: equipes especializadas vasculham a dark web e bases de dados abertas em busca de imagens e perfis reciclados em novas tentativas de fraude.
Apesar da sofisticação dos ataques, a resposta das empresas também evolui, demonstrando que a guerra pela identidade digital está apenas começando. Por fim, o especialista da Apura Cyber Intelligence conclui:
Por isso se faz fundamental o trabalho desenvolvido pela Apura em conjunto com outras empresas de cibersegurança, ao monitorar as redes em busca de possíveis ameaças e, quando, infelizmente, um ataque for bem-sucedido, avaliar minuciosamente todos os fatores envolvidos para desenvolver e aprimorar ainda mais as táticas defensivas contra cibercriminosos que querem explorar as vulnerabilidades do uso de biometrias.
— Anchises Moraes, especialista da Apura Cyber Intelligence