Em 2025, o Mês da Cibersegurança ganha destaque com a integração entre IA e compliance, elementos que se mostram essenciais para a resiliência digital. A combinação de tecnologia, compliance e cultura digital surge como um caminho para enfrentar os desafios da cibersegurança.
O Brasil, por exemplo, registrou um alto índice de golpes de estelionato em 2024, de acordo com o 19º Anuário Brasileiro de Segurança Pública. Além disso, o país se tornou o maior alvo de ciberataques na América Latina, com meio milhão de ocorrências no primeiro semestre de 2025.
A importância da conscientização e prevenção
Diante desse cenário, a ampliação da eficácia das práticas de segurança digital e de estratégias robustas de prevenção, resposta e educação digital se tornam urgentes. A popularização de ferramentas como a Inteligência Artificial (IA) tem transformado o cenário da cibersegurança, oferecendo ganhos em eficiência e capacidade de resposta a incidentes.
A Nava, especialista em transformação digital e cibersegurança, aponta caminhos para uma adoção ética e resiliente da IA, garantindo que o avanço tecnológico caminhe junto à proteção de dados e à privacidade.
Governança de dados e IA
A implementação de modelos de governança para dados e IA é fundamental para a segurança e para fomentar uma cultura sólida de proteção digital. “Essa governança deve se apoiar em frameworks reconhecidos, como NIST, ISO/IEC 27001/27002, CIS Controls e MITRE ATT&CK, fornecendo bases consistentes para integrar cibersegurança, compliance, privacidade e ética”, destaca Marco Alexandre, Diretor de Cibersegurança da Nava.
O desafio, segundo ele, está em adaptar esses modelos à realidade e às necessidades específicas de cada setor, garantindo a continuidade, integridade e disponibilidade das operações.
Transparência e equidade nos modelos de IA
Além disso, verificações técnicas e avaliações de esquemas de proteção de dados devem ser conduzidas de forma estruturada, com análises rigorosas para evitar a exposição de informações sensíveis e vieses nos resultados.
Um programa eficiente deve incorporar rastreabilidade explicável (XAI), assegurando registros precisos das decisões da IA e reduzindo a falta de clareza algorítmica. “Isso permite que analistas e órgãos regulatórios compreendam os critérios por trás de ações automáticas, como bloqueios de usuários, fortalecendo a confiança nos sistemas”, explica Marco Alexandre.
Medidas adicionais garantem a transparência, equidade e, principalmente, a privacidade dos modelos. Essas avaliações ajudam a reduzir riscos de vazamento, prevenindo a exposição de dados pessoais identificáveis durante o treinamento, e diminuem vulnerabilidades a ataques, como prompt injection e model inversion.
A liderança na era da IA
Por fim, a integração entre inteligência artificial e segurança digital traz novos desafios de gestão e riscos, exigindo troca constante de ideias e decisões estratégicas. A privacidade deixa de ser apenas uma exigência regulatória e se torna uma dimensão central da resiliência organizacional.
“Nesse cenário, cabe às lideranças adotar uma postura proativa e multidisciplinar, em que tecnologia, compliance e cultura evoluem de forma integrada. A era da IA exige sistemas mais capazes e decisões mais conscientes sobre como, e para quem, esse poder será aplicado”, finaliza.