Pular para o conteúdo

Liderança artificial: até que ponto as IAs da Albânia e do Japão possuem autonomia de poder?

Nomear algoritmos como líderes soa disruptivo, mas sem transparência no código-fonte surgem dilemas éticos e de governança

Liderança artificial- até que ponto as IAs da Albânia e do Japão possuem autonomia de poder?

Por Diego Nogare

Nos últimos meses, notícias que parecem saídas de um roteiro de Black Mirror se tornaram realidade. A Albânia nomeou uma “ministra” gerada por inteligência artificial para supervisionar licitações públicas, enquanto no Japão, um partido político colocou uma IA como líder. Mas será que estamos realmente diante de tecnologias capazes de exercer liderança? Ou apenas testemunhando a automação de tarefas operacionais sob o disfarce de uma revolução tecnológica?

Antes de tudo, é válido destacar que qualquer análise sobre o que essas IAs “fazem” ou “decidem” é, em alguma medida, especulativa. Isso porque apenas quem tem acesso ao código-fonte e aos detalhes do treinamento de cada modelo pode afirmar, com propriedade, quais são suas reais capacidades e limitações. Sem essa transparência, qualquer afirmação categórica sobre o poder dessas ferramentas carece de fundamento sólido. Ainda assim, é possível refletir sobre seu impacto, considerando questões de ética e governança.

O primeiro ponto a reconhecer é que, por mais sofisticadas que sejam, essas tecnologias ainda operam dentro de parâmetros definidos por seus desenvolvedores. Elas processam grandes volumes de dados, identificam padrões nas informações e oferecem recomendações ágeis — funções extremamente úteis para otimizar atividades burocráticas. Em outras palavras, tratam-se de tarefas que muitas vezes nem chegam a ser trabalho, mas apenas burocracia.

Mas liderança não se resume a eficiência técnica. Ela exige transparência, responsabilidade e capacidade de julgamento ético — dimensões em que a IA ainda está muito aquém. O fato de não haver acesso público ao código-fonte dessas ferramentas – tanto da Albânia, quanto do Japão – significa que não compreendemos como chegam às suas conclusões, quais vieses podem estar embutidos ou quem realmente controla os resultados finais.

Sem clareza sobre o processo, falar em liderança é ilusório. O poder não está nas mãos da tecnologia, mas nos grupos e empresas que a programam e a controlam. O risco é aceitarmos a narrativa da inovação enquanto, nos bastidores, permanecemos sujeitos a interesses humanos.

A autonomia da recém-anunciada “ministra de inteligência artificial” para validar orçamentos e assegurar decisões livres de desvios parece promissora, mas sua eficácia permanece duvidosa. Afinal, o que exatamente ela entende por corrupção? A forma como esse conceito lhe for ensinada determinará os limites de sua atuação, mas é razoável supor que os corruptos logo encontrarão novas maneiras de contornar tais parâmetros. O mesmo ocorre no campo das fraudes financeiras: a capacidade de inovação dos fraudadores costuma acompanhar — e, muitas vezes, até superar — o ritmo de modernização das próprias instituições.

Nomear uma “ministra digital” ou um “líder artificial” soa moderno, arrojado, disruptivo. Gera manchetes, projeta a imagem de um país ou partido na vanguarda tecnológica. Mas na prática, trata-se muito mais de uma estratégia de marketing do que de uma transformação estrutural. A IA não governa: ela apenas executa tarefas dentro de limites bem definidos.

O que ocorre, nesses casos, não é a entrega do poder de decisão às máquinas, mas a delegação de tarefas analíticas e burocráticas, apresentada como se fosse uma revolução. É importante não confundir automação com liderança, nem algoritmos com escolhas éticas.

O avanço da inteligência artificial, sem dúvida, traz benefícios concretos para modernizar processos públicos e privados. Mas acreditar que uma IA pode exercer liderança é ignorar que, sem dimensão humana, não existe governança legítima.

No fundo, não estamos diante de uma revolução política protagonizada por máquinas. Estamos apenas assistindo à substituição de trabalhos básicos sob a fachada de inovação tecnológica. O desafio ético não é aceitar ou rejeitar IAs como líderes, mas entender quem controla esses algoritmos — e, principalmente, em nome de quem eles operam.

Sobre Diego Nogare:

Profissional com mais de 20 anos de experiência na área de Dados, com foco em Inteligência Artificial e Machine Learning desde 2013. É mestre e doutorando em Inteligência Artificial pela Universidade Presbiteriana Mackenzie. Ao longo da carreira, passou por grandes empresas como Microsoft, Deloitte, Bayer e Itaú. Neste último, liderou a estratégia de migração da plataforma de IA para a nuvem, entregando uma solução completa de desenvolvimento em IA para todo o banco.

Liderança artificial- até que ponto as IAs da Albânia e do Japão possuem autonomia de poder?

Inglês: a chave para quem quer se especializar em inteligência artificial