Quem supervisiona a IA?

Hoje quero dar um passo além: não apenas refletir sobre o que a IA pode fazer, mas principalmente sobre quem deve supervisionar seu uso e como essa supervisão deveria acontecer.

Ozair Oliveira da Paixão

8/23/20253 min ler

No meu artigo anterior “Inteligência Artificial: entre o progresso e o limite que não pode ser ignorado” destaquei a tensão entre avanço tecnológico e limites humanos. Hoje quero ir além e trazer uma questão crucial: quem deve supervisionar o uso da IA nas organizações – e como essa supervisão deveria se estruturar idealmente?

Onde a IA já gera valor

Segundo dados recentes, 65% das organizações no mundo já utilizam IA generativa ou regulamentação de IA (2024). Os maiores ganhos estão em experiência do cliente, operações de TI, assistentes virtuais e cibersegurança. Empresas que aplicam IA de forma eficaz relatam maior ROI e processos mais eficientes.

Impacto no trabalho e nas competências

Pesquisas apontam que até 25% dos empregos mudarão nos próximos cinco anos. Isso exigirá requalificação em larga escala e um foco crescente em competências sociais, emocionais e de julgamento. A tecnologia muda mais rápido do que nunca, e sem habilidades humanas adequadas, a inovação permanece superficial e frágil.

Sustentabilidade: custos e oportunidades

Atualmente, datacenters consomem cerca de 1,5% da eletricidade global, e esse número pode quase quadruplicar até 2030. É um alerta sério, mas ao mesmo tempo a IA pode ajudar a economizar energia e otimizar processos. A questão, portanto, não é apenas o custo da IA, mas como a usamos de maneira inteligente para uma economia mais sustentável.

Quem supervisiona? (Europa, Reino Unido e EUA)

  • UE: O AI Act introduz regras baseadas em risco e proibições específicas, com supervisão por autoridades nacionais e fiscalização pelo AI Office.

  • Reino Unido: O AI Safety/Security Institute realiza avaliações técnicas e de risco.

  • EUA: O NIST AI RMF + GenAI Profile (2024) oferece uma estrutura de gestão de riscos e supervisão proporcional.

Está claro que supervisão não é luxo, mas necessidade. No entanto, muitas organizações ainda aguardam regulamentação em vez de desenvolver suas próprias estruturas de governança.

Casos práticos: Philips e ING

  • Philips: já adapta seus dispositivos médicos baseados em IA às exigências do AI Act, treinando equipes e estruturando processos de conformidade com foco na segurança do paciente. Em conferências como o HLTH Europe 2024, a diretoria ressaltou que a governança é central para equilibrar riscos e confiança.

  • ING: implementou um processo com 20 etapas para avaliar 140 tipos de risco em cada aplicação de IA. Criou comitês internos (incluindo o CEO) que supervisionam viés, justiça e conformidade de fornecedores. Além disso, escalou o uso de IA generativa em áreas como atendimento ao cliente, compliance e desenvolvimento de software em menos de um ano.

Estes casos provam: governança de IA já está em prática – não é uma abstração.

O olhar ético-cultural

A experiência mostra que a técnica sozinha não basta. Cumprir normas ou montar checklists de compliance é insuficiente quando a cultura organizacional e a liderança permanecem frágeis. O verdadeiro valor surge quando unimos:

  • Cultura organizacional: valores incorporados às práticas, não apenas ao manual.

  • Liderança consciente: executivos que olham além do lucro imediato.

  • Autoconhecimento coletivo: equipes que questionam seus próprios vieses e entendem o impacto de suas escolhas.

Esse alinhamento ético-cultural transforma a governança de IA em algo vivo e sustentável, que vê valor não apenas em lucro, mas também em impacto positivo para pessoas e planeta.

Como deve ser a supervisão? (Modelo)

Um modelo prático inclui:

  • Nível estratégico (Board): comitê de risco em IA (CIO/CTO, CISO, CDAO, Jurídico/DPO, RH).

  • Processos: classificação de riscos, análise de impacto e proporcionalidade por risco.

  • Planeta: monitoramento de consumo energético/CO₂ por caso de uso.

  • Pessoas: aprendizagem contínua em ética e inteligência comportamental.

Empresas que investirem nisso hoje terão vantagem competitiva inegociável nos próximos anos.

Conclusão: progresso ou pseudo-inovação?

Em 2025, é uma ilusão pensar que inovação é apenas técnica. Quem ignora os fatores humanos e sistêmicos pratica, na verdade, uma involução: um retrocesso disfarçado de progresso.

A verdadeira inovação nasce onde tecnologia se conecta à inteligência humana — autoconhecimento, ética e visão sistêmica. Só aí a IA se torna uma aliada que ajuda organizações a crescer, em vez de enfraquecê-las lentamente.

👉 A pergunta central permanece: quantas organizações terão coragem de olhar além da técnica?

#AI #LinkedInNieuws #technologie #menselijkeontwikkeling #zelfkennis #innovatie