O uso crescente de algoritmos e decisões automatizadas no setor público brasileiro tem levantado questões jurídicas importantes sobre a responsabilidade por erros que afetam diretamente os cidadãos. Levantamentos da OCDE e do Banco Mundial indicam que o Brasil está entre os países que mais avançaram na automação de serviços estatais.
Riscos e transparência
Fábio Ferreira Menezes, advogado especializado em Direito Administrativo, analisa os riscos de viés, falta de transparência e ausência de revisão humana em sistemas utilizados para concessão de benefícios sociais, fiscalizações e modelos preditivos. Ele reforça que, juridicamente, a responsabilidade por falhas permanece com o Estado, mesmo quando a decisão é automatizada.
Pesquisas recentes mostram que pelo menos 67% dos governos nacionais adotam algum tipo de decisão automatizada em políticas públicas, segundo levantamento da OCDE de 2024. Além disso, estudos do GovTech Maturity Index 2023, do Banco Mundial, apontam que o Brasil figura entre os países com maior expansão de automação em serviços estatais.
A rapidez desse movimento reacendeu a discussão jurídica sobre a responsabilização do Estado quando algoritmos tomam decisões que impactam diretamente os cidadãos. Segundo Fábio Ferreira Menezes, o tema exige novas diretrizes de transparência, segurança e governança.
As soluções tecnológicas oferecem ganhos operacionais inegáveis, mas há riscos concretos quando decisões automatizadas produzem efeitos na vida do cidadão sem supervisão, explicabilidade ou critérios de revisão humana. Do ponto de vista jurídico, o Estado não pode transferir sua responsabilidade para o algoritmo. Se há erro, discriminação ou dano, a obrigação de reparar permanece.
— Fábio Ferreira Menezes, advogado
Aplicações e cautela
O debate ganhou força após o crescimento do uso de sistemas de análise de dados para concessão de benefícios sociais, triagem de processos, fiscalização e modelos preditivos na área ambiental e de segurança pública. Um estudo do Alan Turing Institute, de 2023, identificou que 41% dos algoritmos governamentais avaliados apresentavam risco de viés ou falta de explicabilidade. No Brasil, decisões automatizadas também se disseminam com a digitalização de cadastros, cruzamento massivo de dados e uso de modelos estatísticos em auditorias.
Especialistas alertam que a expansão tecnológica exige cautela. A Lei Geral de Proteção de Dados estabelece o direito de revisão de decisões automatizadas, mas a aplicação prática ainda é desigual entre órgãos públicos. Para Menezes, a ausência de parâmetros claros pode gerar insegurança jurídica.
Necessidade de governança
É indispensável que cada órgão adote governança própria, registre como o algoritmo funciona, documente o fluxo de decisão e mantenha supervisão humana qualificada. O cidadão tem o direito de saber como a decisão foi produzida e quais critérios foram usados.
Além dos riscos de erro, há impactos diretos sobre políticas públicas. Segundo o relatório Global Risks Report 2024, do Fórum Econômico Mundial, falhas algorítmicas em governos tendem a aumentar desigualdades, especialmente quando sistemas automatizados classificam pessoas de forma opaca.
Para Menezes, esse cenário reforça a necessidade de auditorias independentes e atualizações constantes. Modelos usados hoje podem não refletir mudanças demográficas, econômicas ou ambientais. Sem revisão periódica, os índices gerados podem estar totalmente desconectados da realidade, criando injustiças ou distorções administrativas.
Diretrizes para segurança jurídica
O advogado defende que o caminho para maior segurança jurídica passa por diretrizes técnicas e operacionais: supervisão humana obrigatória, mecanismos de contestação acessíveis, documentação auditável e relatórios públicos de uso de algoritmos.
A atuação estatal precisa acompanhar o ritmo da tecnologia. O Estado só garantirá isonomia se souber controlar o que delega à máquina e se mantiver capacidade de revisar e corrigir.
Organizações como Banco Mundial e OCDE também recomendam que governos publiquem catálogos de algoritmos, com objetivos, dados utilizados e métricas de desempenho. A ausência desses instrumentos, segundo os estudos mais recentes, aumenta o risco de decisões indevidas, discriminação e judicialização.
Para Menezes, o avanço da automação pública é inevitável, mas não pode ocorrer sem um marco de responsabilidade robusto. “A tecnologia deve servir à administração, não o contrário. Quando uma decisão automatizada causa prejuízo ao cidadão, a responsabilidade permanece integralmente com o Estado. Cabe ao poder público garantir que cada modelo seja transparente, auditável e seguro.”






