Pular para o conteúdo

Pensamento crítico: o que a IA não pode substituir?

Pensamento crítico- o que a IA não pode substituir?
Adriano Almeida, CEO da Alura

A chegada da inteligência artificial não representa a primeira, e certamente não será a última, grande revolução tecnológica enfrentada pelo mundo dos negócios. Já passamos por transformações profundas: da máquina de escrever ao computador, do fax ao e-mail, do pagamento em dinheiro ao PIX. Cada uma dessas inovações mudou a forma como trabalhamos, nos relacionamos e tomamos decisões.

Mas é preciso reconhecer que a IA traz algo diferente: sua capacidade de alcance é exponencial, assim como a variedade de aplicações que oferece. Diferente das revoluções anteriores, ela não está limitada a uma ferramenta ou setor. Ela atravessa áreas, automatiza processos repetitivos e propensos a erros, analisa dados, cria conteúdos e executa tarefas cognitivas em questão de segundos. Isso explica por que 78% das empresas brasileiras planejam aumentar os investimentos em inteligência artificial até o final de 2025, segundo pesquisa da IBM e da Morning Consult. E não há dúvida: a tecnologia é, de fato, promissora, mas essa corrida à adoção da IA exige um olhar estratégico das lideranças.

A tecnologia evolui, mas sem pensamento crítico, ela nos limita

No entusiasmo da automação, um dado alarmante: 96% dos líderes afirmam não ter tempo para refletir estrategicamente, e 43% sequer conseguem articular suas próprias estratégias, conforme aponta a Rotman School of Business. Em um cenário onde a IA acelera decisões e simplifica fluxos, a escassez de pensamento crítico nas lideranças se torna um risco real, e não apenas para a competitividade, mas para a própria sustentabilidade dos negócios.

Estou passando duas semanas em Stanford, em uma intensa formação executiva. Em uma das sessões, cujo o título era “Organizações Potencializadas por IA”, o professor Amir Goldberg fez uma provocação e simplificação importante sobre como a IA funciona, observando que o resultado do que a IA vai fazer é condicionada ao input que damos para algum modelo, modelo o qual não controlamos, como os modelos da OpenAI, por exemplo. A qualidade desse input reduz ou aumenta a possibilidade de erros (sabe quando vemos a IA respondendo coisas sem sentido?).

Tem até uma fórmula simples matemática para isso:

Resultado = f(dados) + erro

O problema é que estamos muito focados no input dos dados (em nosso prompt), antes de pensarmos criticamente sobre o que buscamos de resultado. Assim, perdemos a chance de ter respostas de qualidade. Temos trocado o pensamento profundo por respostas rápidas, muitas vezes automatizadas. E isso levanta perguntas importantes: será que substituir reflexão por agilidade, e pensamento estratégico por automação, não está sacrificando a profundidade do raciocínio humano?

Indo além, se pararmos para analisar, ao terceirizar o pensamento para ferramentas automatizadas, estamos realmente evoluindo ou apenas empobrecendo nossa capacidade crítica e chamando isso, equivocadamente, de progresso?

Uma coisa é certa: a IA chegou para facilitar rotinas, não para substituir o capital humano, que é outra coisa que temos discutido bastante aqui em Stanford. No entanto, para que essa integração seja benéfica, é essencial dominar as ferramentas com consciência, e isso passa, inevitavelmente, pelo fortalecimento do pensamento crítico. Essa habilidade, cada vez mais rara, é justamente o que garante que a tecnologia seja usada com propósito, contexto e responsabilidade. É o que difere os humanos das máquinas.

Questionar, interpretar e ponderar diferentes perspectivas. São essas as competências que nenhuma máquina consegue replicar com profundidade. O pensamento crítico é o que nos permite avaliar o valor real de uma resposta gerada por IA, identificar vieses e tomar decisões com base em critérios sólidos. Sem essa camada humana, corremos o risco de terceirizar o raciocínio e, com isso, reduzir a nossa capacidade de análise.

E essa preocupação é legítima. Estudos como o da Microsoft em parceria com a Carnegie Mellon University indicam que o uso excessivo da IA pode afetar a cognição humana. Já pesquisas da Universidade de Tulane e de Chicago mostram que a forma como buscamos informações nessas plataformas tende a reforçar crenças pré-existentes, limitando a diversidade de pensamento. Ou seja, ao invés de expandirmos nossa visão de mundo, corremos o risco de nos fechar em “bolhas cognitivas” – ambientes de informação restritos, onde circulam apenas ideias que confirmam o que já acreditamos. Nessas zonas de conforto intelectuais, a suposta eficiência da inteligência artificial acaba validando apenas nossos próprios vieses, sem espaço para novos aprendizados.

O futuro do trabalho depende da forma como escolhemos usar a IA

Nesse contexto, o papel da liderança é fundamental. A gestão da IA não é apenas técnica, é estratégica. Utilizar essas ferramentas de forma crítica significa supervisionar, ajustar e validar suas entregas com um olhar atento ao contexto, ao que realmente está alinhado aos objetivos do negócio. Especialmente no caso das IAs generativas, que evoluem rapidamente. A tecnologia pode ser veloz, mas cabe aos humanos garantir que ela siga na direção certa.

O uso consciente da IA deve liberar tempo para o que realmente importa: o pensamento estratégico, a resolução de problemas complexos e a criação de valor. E isso só acontece quando a tecnologia é usada como meio e não como fim. Líderes, gestores e profissionais que dominarem esse equilíbrio estarão mais preparados para lidar com um cenário de transformação constante e incerteza.

No fim das contas, o futuro do trabalho não será definido apenas pela tecnologia, mas por nossas escolhas frente a ela. Ter um papel ativo nesse processo, a partir do questionamento, aprendizado e ajuste constantemente da rota, é o que garantirá que o pensamento crítico continue sendo nossa maior vantagem competitiva.

Adriano Almeida é CEO da Alura, maior e mais completa escola online de educação em tecnologia do Brasil