A inteligência artificial (IA) deixou de ser uma promessa futurista e já impacta diversas áreas, desde decisões econômicas até processos políticos. Em 2026, ano de eleições presidenciais no Brasil, a IA deverá ter um marco regulatório consolidado, o que torna o debate sobre sua aplicação ainda mais relevante.
Regulação da IA: entre o medo e a omissão
Os projetos de lei (PLs) em tramitação no Congresso Nacional abordam temas como classificação de risco, responsabilidade civil e transparência algorítmica. No entanto, é crucial que as respostas jurídicas sejam equilibradas, evitando tanto a regulação excessiva quanto a omissão que abre espaço para abusos.
Um dos pontos mais delicados é a classificação de sistemas de IA por grau de risco. A transposição acrítica de modelos internacionais pode gerar insegurança jurídica e burocracia, concentrando poder tecnológico fora do país.
Responsabilidade civil e transparência algorítmica
No campo da responsabilidade civil, a complexidade reside nas cadeias fragmentadas que envolvem desenvolvedores, fornecedores de dados e usuários finais. A solução passa por regimes de responsabilização proporcionais, orientados por deveres de diligência e governança de riscos.
Além disso, a transparência algorítmica deve ser tratada com maturidade, assegurando a explicabilidade dos efeitos, a possibilidade de auditoria independente e a contestação de decisões automatizadas que afetem direitos.
Deepfakes e eleições: uma ameaça à democracia
Um dos maiores desafios jurídicos de 2026 será o uso de deepfakes e conteúdos sintéticos no contexto eleitoral. A evolução dessas tecnologias dificulta a distinção entre o real e o fabricado, permitindo a produção de vídeos e áudios hiper-realistas com potencial de manipulação.
Em um país com forte polarização política e consumo massivo de informação por redes sociais, deepfakes representam uma ameaça concreta à integridade do processo democrático, erosionando a confiança na verdade factual.
Combater deepfakes sem censura
Combater deepfakes não pode significar instituir censura prévia, nem transferir a plataformas privadas o poder de decidir o que pode ou não circular no espaço público. A resposta adequada exige responsabilização posterior, rastreabilidade técnica, deveres de diligência para plataformas e campanhas, educação digital e fortalecimento da Justiça Eleitoral.
Regular o conteúdo sintético não é o mesmo que regular opinião, e confundir essas esferas é um erro que o Direito não pode cometer.
O futuro da IA no Brasil
Em 2026, o Brasil terá uma escolha estratégica: optar por uma regulação simbólica, reativa e excessiva, ou construir um marco jurídico sofisticado, proporcional e baseado em evidência técnica. A regulamentação da inteligência artificial exige proteger direitos fundamentais, garantir segurança jurídica e preservar a competitividade tecnológica do país.
A pergunta central é se o país terá maturidade institucional para regular sem sufocar, proteger sem censurar e inovar sem abdicar da democracia.
*Alexander Coelho é sócio do Godke Advogados, advogado especializado em Direito Digital, IA e Cibersegurança.





