Home / Tecnologia / IA treinada por IAs: estudo aponta riscos para empresas e governos

IA treinada por IAs: estudo aponta riscos para empresas e governos

IA treinada por IAs: estudo aponta riscos para empresas e governos

O uso crescente de inteligência artificial (IA) treinada com dados gerados por outras IAs tem levantado alertas sobre a queda de desempenho. Além disso, preocupa a amplificação de vieses e os riscos de decisões equivocadas em sistemas críticos. Pesquisas internacionais já indicam o risco de model collapse, quando novas gerações de modelos passam a operar com menor precisão e diversidade.

O problema da dependência de dados sintéticos

Abner Crivellari, engenheiro de software, especialista em arquitetura de sistemas e fundador da DIOTI, analisa o tema. Segundo ele, a dependência excessiva de dados sintéticos cria ciclos fechados de aprendizado. Ademais, compromete a confiabilidade da IA em contextos corporativos e governamentais, especialmente sem políticas claras de governança e supervisão humana.

Quando a IA começa a aprender predominantemente com conteúdo produzido por outras IAs, ela passa a operar em um ciclo fechado, com menos contato com a realidade. Isso compromete a capacidade de adaptação e aumenta a chance de erros sistêmicos.

— Abner Crivellari, engenheiro de software e fundador da DIOTI

Impacto no mercado corporativo

Estudos recentes indicam que a reutilização contínua de dados sintéticos pode levar à perda progressiva de diversidade e precisão dos modelos. Isso afeta desde motores de busca até sistemas de recomendação e análise de risco. Pesquisadores da Universidade de Oxford e da Universidade de Cambridge demonstraram que esse processo pode desencadear o chamado model collapse. Nesse cenário, cada nova geração do modelo apresenta desempenho inferior à anterior, mesmo mantendo a mesma arquitetura.

Na prática, essa degradação compromete a capacidade de generalização da IA e reduz o reconhecimento de padrões raros, justamente os mais relevantes em contextos críticos. Conforme explica Crivellari, o problema é silencioso: o modelo continua funcionando, mas passa a responder de forma mais rasa e previsível.

O impacto já começa a preocupar o mercado corporativo. De acordo com relatório da Gartner, até 2026, mais de 60% dos dados usados no treinamento de sistemas de IA nas empresas serão sintéticos.

Governança de dados e vieses

O mesmo levantamento alerta que organizações sem políticas claras de governança de dados podem enfrentar decisões enviesadas e perdas operacionais. As áreas mais sensíveis são: crédito, saúde, jurídico e recursos humanos.

Outro efeito observado é a amplificação de vieses. Um estudo do Stanford Institute for Human-Centered AI aponta que modelos treinados com grandes volumes de dados sintéticos tendem a reforçar padrões já existentes, reduzindo gradualmente a diversidade de respostas. Crivellari destaca que, sem dados humanos atualizados, a IA deixa de corrigir distorções e passa a repeti-las em escala.

A importância da combinação de dados

Para Abner, o caminho mais seguro envolve combinar dados sintéticos com bases reais, supervisão humana e auditorias frequentes. Relatórios da OECD indicam que modelos híbridos, submetidos a ciclos contínuos de validação, apresentam desempenho até 25% superior em tarefas complexas, quando comparados àqueles treinados apenas com dados artificiais.

Treinar IA com IA pode acelerar processos no curto prazo, mas não sustenta decisões críticas no longo prazo.

— Abner Crivellari, engenheiro de software e fundador da DIOTI

Marcado:

Deixe um Comentário