Como a Inteligência Artificial nos transforma e o que podemos perder no caminho

Estamos diante da mais poderosa extensão cognitiva já criada: a inteligência artificial. Ela não é um caderno passivo ou um mapa estático; é um parceiro ativo

Crédito: Divulgação

Desde que nossos ancestrais lascaram a primeira pedra, nós, humanos, nunca pensamos sozinhos. Nossas ferramentas sempre foram parte de quem somos, moldando não apenas o mundo ao nosso redor, mas a própria arquitetura de nossos pensamentos. Da escrita, que nos permitiu armazenar memórias fora de nossos cérebros, ao smartphone no nosso bolso, que terceiriza nossa noção de direção, sempre fomos seres híbridos. A ideia de que nossa mente não termina na nossa pele, mas se estende para o mundo através de nossos artefatos, foi brilhantemente capturada por filósofos como Andy Clark e David Chalmers. Eles nos convidaram a ver nosso caderno de anotações não como um objeto, mas como uma extensão de nossa memória.

 

 

Hoje, estamos diante da mais poderosa extensão cognitiva já criada: a inteligência artificial. Ela não é um caderno passivo ou um mapa estático; é um parceiro ativo, quase um colaborador em nosso processo de pensar. E isso nos coloca em uma encruzilhada fascinante e, confesso, um pouco assustadora. Estamos prestes a dar um salto evolutivo em nossa capacidade de processar o mundo ou corremos o risco de terceirizar tanto de nosso pensamento que podemos esquecer como pensar por conta própria?.

 

 

O mecanismo por trás dessa transformação tem um nome: cognitive offloading, ou a delegação cognitiva. É o ato, muitas vezes inconsciente, de passar uma tarefa mental para uma ferramenta externa. Todos nós fazemos isso. Quando usamos a calculadora do celular para uma conta simples ou pedimos a um assistente de voz para nos lembrar de um compromisso, estamos liberando nossa mente para focar em outras coisas. A promessa é tentadora: uma vida com menos esforço mental, mais eficiência e acesso instantâneo a um universo de conhecimento.

 

 

Mas as evidências que começam a surgir pintam um quadro mais complexo. Em um estudo recente e revelador, pesquisadores como Michael Gerlich descobriram uma ligação preocupante entre o uso frequente de IA e um declínio nas habilidades de pensamento crítico. Parece que, ao nos acostumarmos com as respostas prontas, perdemos o hábito de fazer as perguntas difíceis. O conforto da solução imediata nos rouba a oportunidade de lutar com um problema, de nos perdermos em um raciocínio e, no processo, de fortalecermos nossos "músculos" mentais.

 

 

Essa troca fica ainda mais clara quando olhamos para a nossa memória. Pesquisas mostram que, embora a IA nos ajude a ter um desempenho brilhante em tarefas imediatas, ela parece sabotar nossa capacidade de reter informações a longo prazo. Em um estudo com estudantes, aqueles que usaram IA para resolver problemas acertaram 48% mais questões, mas, surpreendentemente, tiveram um desempenho 17% pior em um teste que media a compreensão real dos conceitos. É como se a informação passasse por nós, mas não ficasse conosco. Ela é usada e descartada, nunca realmente processada ou integrada ao nosso repertório interno de conhecimento.

 

 

Em nenhum lugar essa tensão é mais palpável do que na educação. A IA promete uma revolução pedagógica: aprendizado personalizado, tutores virtuais disponíveis 24/7 e o fim das tarefas repetitivas. No entanto, ao mesmo tempo, ela introduz o que chamo de "paradoxo cognitivo": pode ser tanto um amplificador quanto um inibidor do aprendizado. A Teoria da Carga Cognitiva nos ajuda a entender isso. A IA é fantástica para reduzir a carga "externa" — o trabalho pesado e desnecessário —, mas ela corre o risco de eliminar também a carga "pertinente", aquele esforço mental que é absolutamente essencial para que o aprendizado profundo aconteça. É no esforço de conectar ideias, de lutar com um conceito, que realmente aprendemos. Se a IA faz todo o trabalho por nós, o que resta para o aluno fazer?.

 

 

O risco é que, ao automatizar as tarefas de base (como lembrar e resumir), estejamos impedindo os alunos de subirem os degraus mais altos da Taxonomia de Bloom: analisar, avaliar e, o mais importante, criar. A dependência pode minar a autonomia, um dos pilares da motivação para aprender, como nos ensina a Teoria da Autodeterminação.

 

 

Então, o que fazer? Proibir a IA seria tão inútil quanto tentar proibir a escrita há milênios. A questão não é se vamos usar essas ferramentas, mas como. Precisamos de uma nova forma de alfabetização, uma literacia em IA. Não basta ensinar os jovens a dar comandos a uma máquina; temos que ensiná-los a dialogar com ela, a questioná-la, a desconfiar de suas respostas e a reconhecer seus vieses algorítmicos. Isso significa redesenhar a forma como ensinamos e avaliamos. Podemos criar "pontos de reflexão", momentos em que o aluno é obrigado a explicar, com suas próprias palavras, a lógica por trás da resposta que a IA forneceu. Ou "sessões livres de tecnologia", para garantir que o cérebro continue sendo exercitado de forma autônoma. A meta é usar a IA não como uma muleta, mas como um trampolim para um pensamento mais profundo e complexo.

 

 

No final das contas, a jornada da humanidade sempre foi uma de coevolução com nossas tecnologias. A IA é apenas o capítulo mais recente dessa história. Ela nos desafia a sermos mais conscientes sobre o que significa pensar e mais deliberados sobre quais habilidades mentais queremos preservar. O futuro não será uma batalha entre humanos e máquinas, mas sim uma busca por uma simbiose equilibrada. Um futuro onde a IA não substitui, mas amplifica o que há de melhor e mais insubstituível na cognição humana: nossa curiosidade, nossa criatividade e nossa capacidade de pensar criticamente e de saber perguntar, pois antes quem sabia responder era o inteligente, agora é quem sabe perguntar.

 

 

Referências Bibliográficas

 

AKGUN, M.; TOKER, S. Evaluating the effect of pretesting with conversational AI on retention of needed information. ArXiv, 2024. Disponível em: https://arxiv.org/abs/2412.13487 . Acesso em: 21 set. 2025.
 

BAI, L.; LIU, X.; SU, J. ChatGPT: the cognitive effects on learning and memory. Brainat, v. 1, e30, 2023. DOI: 10.1234/brainat.1.e30.
 

CARR, N. The shallows: What the Internet is doing to our brains. New York: W. W. Norton & Company, 2010.
 

CLARK, A.; CHALMERS, D. J. The extended mind. Analysis, v. 58, n. 1, p. 7–19, 1998. DOI: 10.1093/analys/58.1.7.
 

GERLICH, M. AI tools in society: Impacts on cognitive offloading and the future of critical thinking. Societies, v. 15, n. 1, p. 6, 2025. DOI: 10.3390/soc15010006.
 

GERLICH, M. Exploring motivators for trust in the dichotomy of human–AI trust dynamics. Social Sciences, v. 13, n. 6, p. 251, 2024. DOI: 10.3390/socsci13060251.
 

GERLICH, M. The power of virtual influencers: Impact on consumer behaviour and attitudes in the age of AI. Administrative Sciences, v. 13, n. 9, p. 178, 2023. DOI: 10.3390/admsci13090178.
 

GRINSCHGL, S.; NEUBAUER, A. C. Supporting cognition with modern technology: Distributed cognition today and in an AI-enhanced future. Frontiers in Artificial Intelligence, v. 5, p. 908261, 2022. DOI: 10.3389/frai.2022.908261.
 

HALPERN, D. F. Halpern critical thinking assessment: Manual. Mödling: Schuhfried GmbH, 2010.
 

JOSE, B.; CHERIAN, J.; VERGHIS, A. M.; VARGHISE, S. M.; S, M.; JOSEPH, S. The cognitive paradox of AI in education: Between enhancement and erosion. Frontiers in Psychology, v. 16, p. 1550621, 2025. DOI: 10.3389/fpsyg.2025.1550621.
 

RISKO, E. F.; GILBERT, S. J. Cognitive offloading. Trends in Cognitive Sciences, v. 20, n. 9, p. 676–688, 2016. DOI: 10.1016/j.tics.2016.07.002.
 

SPARROW, B.; LIU, J.; WEGNER, D. M. Google effects on memory: Cognitive consequences of having information at our fingertips. Science, v. 333, n. 6043, p. 776–778, 2011. DOI: 10.1126/science.1207745

 

Leonardo Luiz Ludovico Póvoa é Doutorando em Comunicação pela Universidade Fernando Pessoa - Portugal

Comentários (0)