Home / Tecnologia / IA corporativa: risco de autonomia sem responsabilidade?

IA corporativa: risco de autonomia sem responsabilidade?

IA corporativa: risco de autonomia sem responsabilidade?

Apesar de quase todas as empresas estarem treinando seus times para usar IA, poucas estão discutindo quem decide, quem supervisiona e quem responde quando a tecnologia erra. O caso recente da Deloitte revela o ponto cego das organizações: adoção sem governança. É preciso repensar a estratégia.

Adoção de IA sem estratégia: um risco para as empresas

Na análise abaixo, Giovanna Gregori Pinto, executiva de RH e fundadora da People Leap, provoca reflexões sobre como treinar pessoas para usar IA sem ter uma estratégia definida e questiona quem define o nível de autonomia aceitável para o uso da IA.

Giovanna Gregori Pinto, executiva de RH e fundadora da People Leap – Créditos: Divulgação

A Deloitte anunciou um mega contrato global com a Anthropic, com o objetivo de implantar o Claude em mais de 500 mil funcionários. No mesmo mês, precisou devolver parte de um contrato governamental por entregar um relatório com erros gerados por IA, incluindo referências que nem existiam.

Esse contraste não é apenas irônico. Ele expõe o ponto cego da corrida corporativa pela inteligência artificial: a crença de que treinar pessoas para usar IA é o mesmo que ter uma estratégia de IA.

Nos últimos meses, em fóruns de RH e inovação, percebo o mesmo padrão: todos discutem adoção, formação e medo, mas quase ninguém discute governança. As empresas estão ensinando seus times a usar ferramentas sem antes decidir para quê, com que grau de autonomia, e quem será responsável quando algo der errado. Sem essas respostas, o “letramento em IA” vira um placebo organizacional e cria a ilusão de preparo, terceirizando o erro.

Definindo o nível de autonomia e responsabilidade

Antes de discutir como treinar, é preciso discutir quem decide e até onde vai o uso. As perguntas estratégicas são outras:

  • Qual o nível de autonomia aceitável para o uso de IA no trabalho?
  • Quem supervisiona os agentes e modelos criados internamente?
  • Como garantir que os dados estejam curados, seguros e atualizados?
  • Quais barreiras impedem que um erro operacional vire um desastre reputacional?

Essas são decisões de poder, não de usabilidade, e se o RH não participa delas, a IA deixa de ser vantagem competitiva e passa a ser risco sistêmico, como vimos no caso Deloitte.

Muitos dizem que o RH deveria liderar a estratégia de IA. Concordo em parte, pois o problema é que poucos RHs têm mandato político ou capacidade técnica para definir políticas de dados, arquitetura de sistemas ou compliance algorítmico. Isso não significa que o RH deva se omitir, mas sim que precisa redefinir seu papel: ser o elo que traduz implicações humanas e culturais das decisões tecnológicas, e não apenas o departamento que ministra treinamentos.

A liderança da IA corporativa não será de quem entende mais de tecnologia, mas de quem entende melhor de autonomia, confiança e accountability. Nesse contexto, existem três estágios da maturidade em IA corporativa:

  1. Adoção espontânea: cada um usa o que quer, do jeito que quer. (Alta velocidade, alto risco.)
  2. Letramento e guidelines: políticas básicas, foco em segurança e uso ético. (Necessário, mas insuficiente.)
  3. Estratégia integrada: IA alinhada a objetivos de negócio e métricas de risco, com governança clara sobre dados e decisões. (É aqui que mora o diferencial competitivo.)

O papel do RH na estratégia de IA

A maioria das empresas ainda está presa no estágio 2, formando usuários sem redesenhar o sistema de responsabilidade. Por isso, treinar sem estratégia é automatizar o passado. Quando o RH se limita a promover “letramento”, o resultado é previsível: usa quem quiser, do jeito que quiser. E basta um relatório mal checado para corroer a credibilidade de uma marca inteira. O futuro do trabalho não será definido por quem usa IA, e sim por quem governa seu uso com coerência entre cultura, risco e propósito.

A pergunta que o RH precisa fazer agora é: Qual é a nossa estratégia para integrar IA ao negócio, e não apenas às pessoas? O RH que ensina IA sem redesenhar como o poder e a responsabilidade se distribuem não está preparando o futuro. Está apenas automatizando o passado.

Sobre a People Leap

A People Leap é a primeira startup focada em descomplicar os processos de RH em startups de tecnologia em crescimento com potencial de escala. Atua como parceira estratégica de fundadores de startups e times de RH oferecendo uma abordagem prática e adaptada à realidade das startups, evitando burocracias e soluções engessadas que não funcionam para empresas em constante transformação.

Sobre Giovanna Gregori Pinto

Graduada em psicologia pela PUC-Campinas, com MBA em gerenciamento de projetos pela FGV, Giovanna Gregori Pinto é fundadora da People Leap e referência em estruturar áreas de RH em startups de tecnologia em crescimento. Com duas décadas de experiência em empresas de cultura acelerada, construiu uma trajetória sólida em gigantes como iFood e AB InBev (Ambev). No iFood, como Head de People – Tech, liderou a expansão do time de tecnologia de 150 para 1.000 pessoas em menos de quatro anos, acompanhando o salto de 10 para 50 milhões de pedidos mensais. Já na AB InBev, como Diretora Global de RH, triplicou o time antes do prazo, elevou o NPS de People em 670%, aumentou o engajamento em 21% e reduziu o turnover de tecnologia ao menor nível da história da companhia.

Marcado:

Deixe um Comentário