Home / Tecnologia / IA nas empresas: política de uso com a mesma seriedade da LGPD

IA nas empresas: política de uso com a mesma seriedade da LGPD

IA nas empresas: política de uso com a mesma seriedade da LGPD

Em um cenário onde 79,1% dos profissionais brasileiros utilizam inteligência artificial em suas rotinas, mas apenas 23,7% das empresas possuem políticas institucionais sobre o tema, surge um desequilíbrio entre a operação e a responsabilidade. O advogado Enzo Baggio Losso, do Ciscato Advogados Associados, analisa essa questão e propõe que as empresas tratem a política de uso da IA com a mesma seriedade que a LGPD ou o compliance anticorrupção.

Descompasso entre uso e governança da IA

Profissionais de marketing, RH, jurídico e analistas já utilizam a IA em diversas tarefas, mas, segundo Losso, esse avanço tecnológico não tem sido acompanhado por estruturas de controle e governança na maioria das empresas. A pesquisa Panorama Nacional 2025, da Cornerstone Career Services, ABRH-SP e Infojobs, revela esse descompasso, que preocupa reguladores.

A União Europeia aprovou o AI Act em 2024, criando um marco legal para o uso ético da IA. No Brasil, o Projeto de Lei 2.338/2023 propõe regras de transparência e supervisão humana, enquanto órgãos como CNJ e ANPD debatem o tema. No entanto, a governança sobre o uso da IA ainda é uma exceção nas empresas.

Riscos da adoção espontânea da IA

Grande parte das organizações adotou ferramentas de IA de forma espontânea, sem planejamento estratégico, e a tecnologia chegou antes das normas. Essa situação se agrava quando a alta gestão não enxerga os riscos envolvidos, acreditando que criar políticas de governança atrasa a inovação. No entanto, a falta de diretrizes aumenta as chances de falhas que geram passivos jurídicos e danos à reputação.

Um funcionário que usa IA para montar um relatório pode expor dados sigilosos, violando a LGPD. Campanhas geradas por algoritmos podem ser publicadas sem checagem de autoria, infringindo direitos autorais. Em processos seletivos, critérios enviesados por ferramentas automatizadas podem excluir candidatos de forma discriminatória. Até mesmo em pareceres jurídicos, a IA sem supervisão pode levar à circulação de informações incorretas. Sem diretrizes, treinamento ou rastreabilidade, a empresa perde a capacidade de demonstrar diligência.

A responsabilidade continua sendo da empresa, mesmo que a ferramenta tenha sido usada sem autorização da liderança. O dever de controle e supervisão é da organização, e a falta de regras pode ser interpretada como negligência, levando à responsabilização da empresa, como já ocorre em casos de integridade corporativa, assédio e proteção de dados.

O que incluir na política interna de uso da IA?

Segundo Losso, uma política de uso responsável da IA precisa estabelecer limites e finalidades, com cláusulas de confidencialidade nos contratos com colaboradores e fornecedores. Projetos que envolvam dados pessoais devem passar por avaliação de impacto, e as decisões automatizadas precisam ser rastreáveis. O uso de plataformas abertas com dados sensíveis deve ser proibido, e os fornecedores devem garantir a conformidade das ferramentas com as normas em vigor.

É fundamental que a empresa conheça a origem dos dados utilizados, verifique licenças, identifique violações autorais em potencial e mantenha processos de revisão humana, especialmente nas áreas criativas e jurídicas. A ausência de revisão pode levar ao uso indevido de informações, distorções e até plágio.

Para reduzir a exposição a riscos, é crucial ter clareza sobre quem está usando IA, com qual finalidade e sob quais condições. Hoje, muitas dessas ferramentas estão sendo utilizadas sem o conhecimento da alta liderança, reforçando a necessidade de criar mecanismos de reporte, mapeamento de uso e supervisão.

Direcionar a inovação com responsabilidade

A construção de uma governança adaptativa não precisa limitar o uso da tecnologia, mas direcioná-la com responsabilidade. Criar comitês interdisciplinares, registrar fluxos de decisão e envolver jurídico, compliance, TI e RH em medidas que fortaleçam a organização e evitem passivos desnecessários são ações importantes.

Assim como ocorreu com a LGPD e a Lei Anticorrupção, a adesão voluntária abre caminho para a regulamentação, que evolui para a fiscalização e culmina na responsabilização. O uso da IA já entrou nessa trajetória, e o que ainda parece flexível hoje logo será objeto de auditorias, exigências contratuais e decisões judiciais.

As empresas que entenderem isso desde já estarão mais preparadas para crescer com segurança. A IA tem potencial de acelerar resultados, melhorar processos e gerar valor, mas isso só acontece quando ela é usada com critério. O futuro corporativo será digital, mas também precisará se manter regulado, e quem não acompanhar esse movimento corre o risco de ficar vulnerável demais para competir.

O uso da inteligência artificial já entrou nessa trajetória, e o que ainda parece flexível hoje logo será objeto de auditorias, exigências contratuais e decisões judiciais.

— Enzo Baggio Losso, advogado do Ciscato Advogados Associados

Marcado:

Deixe um Comentário