A Construção da Autonomia Crítica na Era da Inteligência Artificial
The Construction of Critical Autonomy in the Age of Artificial Intelligence
A Construção da Autonomia Crítica na Era da Inteligência Artificial
Autor: Susana Isabel Ferreira Luís1
Ao futuro entregarei sempre o melhor do meu passado2
(Álvaro Guerra)
Resumo
Este artigo teórico analisa e reflete sobre a construção da autonomia crítica em contextos de e-learning mediados por inteligência artificial. Para a construção e desenvolvimento do artigo teve-se por base uma revisão de literatura interdisciplinar baseada na psicologia cognitiva, filosofia, neurociência e ciências da educação. Neste artigo discute-se de que modo os sistemas de Inteligência Artificial (IA) podem ampliar ou atenuar o envolvimento cognitivo dos sujeitos. A partir da tese da mente estendida (Clark&Chalmers), da investigação sobre cognitive offloading (Parveen&Kumar; Guingrich et al.), da teoria do reforço (Subramanian et al; Skinner) e de análises socioculturais da digitalização (Haidt; Livingstone), propõe-se um modelo conceptual que relaciona o uso da IA, com a ativação do esforço cognitivo e desenvolvimento da autonomia crítica. Defende-se que o impacto da IA deve ser mediado pela arquitetura pedagógica responsável por enquadrar a sua utilização.
Palavras-chave: inteligência artificial; e-learning; autonomia crítica; externalização cognitiva; inovação paradigmática.
Abstract
This theoretical article analyzes and reflects on the construction of critical autonomy in e-learning contexts mediated by artificial intelligence. The development of this paper is grounded in an interdisciplinary literature review drawing on cognitive psychology, philosophy, neuroscience, and educational sciences. The article discusses how Artificial Intelligence (AI) systems may either enhance or attenuate learners’ cognitive engagement. Based on the extended mind thesis (Clark & Chalmers), research on cognitive offloading (Parveen & Kumar; Guingrich et al.), reinforcement theory (Subramanian et al.; Skinner), and socio-cultural analyses of digitalization (Haidt; Livingstone), a conceptual model is proposed linking AI use, the redistribution of cognitive effort, and the development of critical autonomy. It is argued that the impact of AI should be mediated by the pedagogical architecture responsible for framing its use.
Keywords: artificial intelligence; e-learning; cognitive offloading; critical autonomy; paradigm innovation.
Introdução
A 19 de fevereiro de 1473 nascia Nicolau Copérnico. A sua formulação da teoria heliocêntrica desafiou a visão geocêntrica dominante e provocou uma rutura epistemológica profunda.
Esta rutura funciona como uma metáfora para uma questão contemporânea:
É possível construir autonomia crítica num contexto em que a IA medeia o pensamento?
Será que se vivesse em 2026 Copérnico chegaria à formulação da sua teoria Heliocêntrica, colocando por terra a instituída e fortemente divulgada teoria Geocêntrica? Será que vivendo em 2026 e utilizando a IA como complemento, ferramenta de aperfeiçoamento, se conseguirá uma análise crítica das matérias que se pretendem questionar, uma análise criativa e visionária como a conseguida por Copérnico há 553 anos?
Num cenário educativo cada vez mais apoiado por sistemas algorítmicos, importa interrogar se se estará perante uma extensão das capacidades cognitivas humanas ou perante um processo de substituição do esforço intelectual que nos poderá atrasar a criação e a evolução científica.
Fundamentos Teóricos
Antes de alcançar a resposta apreciemos o caminho.
A Inteligência Artificial, mais vulgarizada entre os portugueses é o ChatGPT, segundo o estudo IA - Impacto e Futuro 2025 coordenado pela Magma, em parceria com a CIP (Confederação Empresarial Portuguesa) e apoio da DSPA (Data Science Portuguese Association), divulgado a 20 de Novembro de 2025, o ChatGPT é ferramenta de IA mais usada em Portugal, Dados referentes a uma amostra de 2762 pessoas, sendo que 81,7% possuem habilitações escolares de nível superior e apenas 5,3% dos sujeitos da amostra tem um elevado nível de preocupação em relação à possibilidade de a IA substituir o seu trabalho. Ninguém foi questionado sobre o receio da IA substituir a sua autonomia crítica ou o receio da IA criar uma dependência emocional e/ou cognitiva ou ainda da IA inibir a criatividade.
O ChatGPT (Gerative Pre-trained Transfomer) foi criado pela empresa Californiana Open AI e lançado em novembro de 2022. O ChatGPT, à semelhança dos seus congéneres é um tipo de LLM (Large Language Model) muito usado na IA Gerativa e Chatbots. Chatbots são softwares que funcionam em ambiente web, capaz de conversar através de texto ou voz com os seus interlocutores humanos.
Em 2023, menos de um ano depois da disponibilização da IA de uma forma abrangente e gratuita, iniciaram-se uma série de polémicas envolvendo a IA, que se fundamentaram na falta de literacia dos utilizadores, na recolha massiva de dados e sobretudo na ausência de base legal que justificasse a utilização e conservação desses dados. Nada referiram relativamente a um prejuízo efetivo na dimensão emocional e cognitiva dos utilizadores, sobretudo os menos letrados digitalmente e os menores de idade.
Sabendo que o ChatGPT e outros semelhantes estão ao alcance de quem tenha um smartphone com internet, é de temer estar-se a criar “um monstro” no sentido de estarem a ser fomentadas dependências emocionais, isolamento social e incapacidade criativa devido a delegação do esforço reflexivo na Inteligência Artificial.
A proposta de Andy Clark e David Chalmers (1998) sustenta que os processos cognitivos podem estender-se para além do cérebro biológico, incorporando artefactos externos. De acordo com a teoria da mente expandida de Andy Clark e David Chalmers as tarefas cognitivas desenvolvem-se nas interações que ocorrem entre os processos internos mentais e o ambiente externo. Com frequência surgem acusações de dependência excessiva de internet e do smarthphone. Esta dependência ou o receio de ficar offline é designado por momofobia.
Segundo Carr, 2020 o processamento cognitivo exterior é uma estratégia para reduzir o processamento cognitivo interno. O efeito deste comportamento tem sido estudado recentemente. O processamento cognitivo externo usa o ambiente como armazém, assim para recordar alguma informação bastará digitar a palavra-chave num equipamento ligado à web e pressionar “enter”. Será este processamento externo benéfico ou prejudicial para o ser humano? Existem estudos que defendem que uma vez que temos uma forma segura de armazenar informação e recordá-la que podemos delegar nas memórias externas o armazenamento de informação irrelevante e libertar espaço na nossa memória para processar informação efetivamente relevante (Runge et al., 2019). A questão coloca-se então em saber se o nosso cérebro consegue à priori classificar a informação como relevante e irrelevante e memorizar apenas a primeira.
Neste enquadramento, sistemas de IA podem funcionar como próteses cognitivas. A questão central deixa de ser se utilizamos ferramentas, mas sim: Quando é que a extensão se transforma em dependência?
Externalização Cognitiva (Cognitive Offloading)
Em 23 de junho de 2025 foi publicado um estudo pela MIT Medial Lab, elaborado ainda com uma pequena amostra (53 sujeitos) mas que deixou claro, através dos dados recolhidos do Eletrencefalograma (EEG) que os sujeitos do grupo aos quais era solicitado que, lessem e analisassem um texto e depois respondessem a uma questão relacionando de forma critica o que leram com a sua opinião e o fizessem usando o ChatGPT, o EEG revelava uma redução da atividade cerebral, relativamente aos sujeitos dos grupos de controlo que não podiam usar o ChatGPT. Após 6 ou 7 meses os utilizadores do ChatGPT tornavam-se cada vez mais inativos, sendo que por altura do final do estudo apenas se limitavam a copiar e colar as respostas solicitadas. Após este estudo a preocupação ficou instalada sobretudo se este uso do ChatGPT chega a sujeitos mais jovens uma vez que cérebros em desenvolvimento correm um risco maior de se tornarem dependentes do conhecimento fornecido numa linguagem assertiva e aparentemente credível.
A literatura sobre externalização cognitiva, incluindo os trabalhos de Parveen e Kumar e de Guingrich et al., demonstra que indivíduos tendem a delegar memória, cálculo e julgamento em sistemas tecnológicos.
Guingrich et al. descrevem o fenómeno de belief offloading na interação humano-IA, evidenciando uma tendência para transferir para o sistema. a responsabilidade pela construção, verificação e fundamentação do conhecimento.
Parveen e Kumar, na sua revisão teórica, identificam um efeito ambivalente na utilização da IA:
Redução da carga da memória de trabalho
Possível diminuição do processamento profundo
Esta ambivalência torna-se particularmente relevante em contextos educativos, onde o esforço cognitivo é condição para consolidação conceptual, não existindo compromete a aprendizagem.
Reforço, Aprendizagem e Condicionamento
Outros estudos realizados pelo mesmo MIT Lab indicam que quanto mais tempo se passa a falar com o ChatGPT, mais solidão é sentida pelos sujeitos. Relativamente a este assunto posso complementar, que a tendência, com o uso, é ir falando com o ChatGPT como se ele fosse uma pessoa (sendo-lhe atribuído género, nacionalidade, nome) mas o que é um facto é que o ChatGPT trata os interlocutores com deferência e ganha pontos na escala de dependência emocional. O ChatGPT está a ser desenvolvido (a grande velocidade e cada vez com maior sofisticação) por forma a criar uma relação com o interlocutor e isso conduz à criação de uma necessidade com forte probabilidade de se tornar viciante.
Os sistemas de IA contemporâneos incorporam frequentemente modelos de reinforcement learning, analisados por Subramanian et al., que apresentam paralelismos estruturais com o behaviorismo de B. F. Skinner.
Em The Technology of Teaching, Skinner conceptualiza a aprendizagem como resultado de contingências de reforço. De modo semelhante, plataformas digitais podem estruturar o comportamento do estudante através de feedback imediato, recompensas simbólicas e otimização de desempenho.
A questão epistemológica emerge então:
Está-se perante metacognição ou perante condicionamento otimizado?
Indícios Empíricos e Sinais Neurocognitivos
Investigações recentes conduzidas pelo MIT Media Lab sugerem redução de ativação neural em tarefas de escrita assistida por IA, quando comparadas com produção autónoma. Embora preliminares, estes resultados levantam hipóteses sobre redistribuição do esforço cognitivo.
Em The Shallows, Nicholas Carr já havia alertado para alterações nos padrões atencionais induzidas pelo ambiente digital.
Mais recentemente, Jonathan Haidt em A Geração Ansiosa analisa impactos psicossociais da hiperconectividade nas gerações mais jovens.
Estas perspetivas convergem na ideia de que o ambiente tecnológico reconfigura ecologias cognitivas.
Estudos do mesmo MIT Lab apontam também que, se bem utilizado, ou seja, se não se permitir que seja o ChatGPT a conduzir a investigação ou o processo de aprendizagem que se pretende alcançar, pode-se evitar as alucinações do ChatGPT e potenciar a aprendizagem, mas isto requer educação ou literacia por forma a usar-se o ChatGPT como uma alavanca e não como um condutor na aquisição de conhecimento. O futuro da IA deve ser comandado pelo cérebro humano e não o inverso.
Contexto Sociopedagógico
A investigação da professora Victoria Livingstone sobre ambientes digitais evidencia tanto riscos como oportunidades na aprendizagem em rede. Livingstone, refere que escrever é um processo intrinsecamente relacionado com o pensamento e o desenvolvimento cognitivo e que por vezes pode ser assustador. Com o apoio da IA que substitui o sujeito na produção escrita, deixam de existir razões para o sujeito se continuar a expor a um processo de desconforto quando este pode ser olvidado com a utilização da IA.
Felizmente os estudantes mais informados sabem que a IA alucina, inventa citações, é limitada na abrangência do seu conhecimento uma vez que é programada/treinada para criar rotinas em um número de dados, cada vez mais denso, mas sem conseguir inovar.
Definição Operacional de Autonomia Crítica
Para efeitos deste artigo, define-se autonomia crítica como:
A capacidade de exercer raciocínio reflexivo, autorregulado e epistemologicamente responsável, mantendo independência avaliativa na interação com sistemas externos de produção de conhecimento.
Esta definição integra quatro dimensões:
Monitorização metacognitiva
Agência epistémica
Competência argumentativa
Resistência à autoridade algorítmica não examinada
A IA articula informação, orientada pelos enunciados que lhe são apresentados (prompts), enviesada pelos algoritmos dos utilizadores o que faz parecer bastante credível as suas respostas. Apesar de conhecedores destas características de pouca fiabilidade, finitude e incapacidade criativa, ainda assim a tentação de estudantes e pesquisadores informados usarem a IA como suporte à escrita dos seus artigos ou trabalhos continua a ser grande... porque utilizar a IA é fácil, rápido e está mesmo ali à mão.
Ted Chiang disse que “Usar o ChatGPT para completar os trabalhos ou artigos escritos é como levar empilhador para uma sala de treino, ajuda a elevar os pesos durante o exercício físico, mas não permite fortalecer os músculos, neste caso a capacidade cognitiva.
Tony Santos Ribeiro, em Práticas Educativas Informais na Sociedade em Rede, analisa os processos formativos emergentes fora da escola formal, salientando a natureza distribuída da aprendizagem contemporânea.
A educação na sociedade em rede oscila entre inteligência coletiva e compulsão pela proximidade digital, colocando a IA como ator epistemológico e não apenas instrumento técnico, o que significa que a IA altera a posição tradicional da tecnologia porque produz textos, sintetiza conhecimento, seleciona informação e formula argumentos, ou seja, intervém na construção do conhecimento tornando-se um ator epistemológico que co-determina o conteúdo cognitivo. Quando a IA se torna ator epistemológico a autoridade cognitiva redistribui-se, a autonomia crítica pode ser fortalecida ou atenuada.
Posicionamento Metodológico
O presente trabalho assume natureza teórico-conceptual, apoiando-se numa síntese interdisciplinar de literatura científica.
Não se trata de um estudo empírico, mas de formulação de hipóteses estruturadas com o objetivo de orientar uma investigação futura, nomeadamente:
Estudos longitudinais sobre o uso intensivo de IA
Análises neuro cognitivas comparativas.
Avaliações do impacto da IA na metacognição.
Conclusão: A Coragem Coperniana em Tempos Algorítmicos
A IA é programada digitalmente, o que significa que é sintática e a sintaxe não é condição suficiente para a semântica, concluindo que implementar um programa não basta para obter uma mente. Segundo esta linha de argumentação é completamente irrelevante a rapidez, a quantidade de memória, e a complexidade da programação. A IA é apenas uma versão sofisticada de uma Máquina de Turing, i.e, máquinas de manipulação de símbolos, não conseguem recordar experiências.
O que conduz à advertência de que apenas devemos usar a IA de forma lúdica, ou controladamente para situações rotineiras, não para fazer psicoterapia ou evoluir no estado de arte relativamente a qualquer assunto, muito menos no conhecimento da forma como o cérebro processa a informação e aprende. E quando usamos a IA devemos também estar conscientes não só das suas limitações, mas também de que estamos voluntariamente a oferecer dados que vão aumentar a capacidade da IA de interagir connosco e influenciar as nossas escolhas de consumo, políticas, religiosas e sociais. Entre outras. Metaforicamente, a IA oferece-nos o fio com o qual construímos uma teia (web) para nos prendermos. É aqui que a legislação deveria ser mais apertada e a literacia mais divulgada por forma a que a IA seja eticamente controlada. Contudo, a IA é um negócio, não é inocente e existe não para nos servir, mas no seu fim último para gerar lucros. Poderá, ao arrepio do RGPD vender informações a outras empresas sobre onde e quem são os seus consumidores, uma vez que do diálogo que constrói com o interlocutor se torna a preferencial conhecedora dos gostos, hábitos e rotinas dos seus utilizadores. Esta reflexão conduz-nos ainda a uma outra questão, que se prende com a utilização da IA por menores de idade, não só porque estão em fase de desenvolvimento cognitivo, não refletem nem fazem juízos acerca da interação que estabelecem com a IA (são presas e presas fáceis) as crianças e jovens estão a entrar e a alimentar um negócio, sem terem criado previamente a capacidade critica para o avaliar e sem capital (financeiro e psicológico) para responder pelos seus atos, por lei e por norma são dependentes de adultos, logo serão esses adultos, conscientes e informados que deverão proteger o superior interesse das crianças e jovens. Neste caso, suponho que os adultos responsáveis pelas crianças e jovens conhecem os perigos de colocar os seus filhos sozinhos numa feira cheia de atrações, nem é permitido por lei, os menores de idade só podem entrar nestes recintos devidamente acompanhados por adultos, então porque os deixam entrar em recintos virtuais completamente sós e sem suporte cognitivo adequado, só porque não se encontram em perigo físico imediato?
Existem estudos que referem ser este o preço da evolução e que estaremos a errar por não permitir a esta nova geração desenvolver-se em contato com a IA e as redes sociais, porque provavelmente eles estarão a iniciar uma nova forma de ser em sociedade e que os adultos da geração X, Y e Z estão a inibir a geração Alpha de evoluir com base em crenças retrógradas. Contudo, Haidt, na Geração Ansiosa, livro que está a influenciar a mudança das políticas do acesso às redes sociais pelas crianças nas escolas, refere que a saúde mental dos jovens, sobretudo meninas, se deteriorou muito desde 2012, sendo registadas mais queixas (o que poderá acontecer por uma facilidade em divulgar as queixas e aceder a quem as recebe), no entanto um dado imutável e irrefutável relaciona-se com o número de suicídios entre os jovens, os dados revelam que por exemplo no Reino Unido as taxas de suicídio entre os jovens de 10 a 24 anos aumentaram especialmente entre as do sexo feminino(93%) de 2013 a 2020. França apresenta uma das taxas de suicídio mais altas entre os jovens na Europa Ocidental. Nos últimos anos, a taxa de suicídio entre os adolescentes (especialmente com idades entre 15 e 19 anos) tem permanecido preocupante, com os serviços de saúde mental sobrecarregados. E os números repetem o mesmo padrão por toda a Europa e América, informações recolhidas de um resumo informativo publicado por Pro Life Europe.
Agora para responder mais sucinta e diretamente à questão colocada no início desta reflexão: se se for crente e até dependente da IA, nunca se irá sair do sistema retroalimentado que ela representa. Copérnico iria confirmar consequentemente a teoria Geocêntrica instituída. Agora se se for corajoso e curioso o suficiente para fechar o ChatGPT e ir à procura das fontes de conhecimento, das pessoas reais com quem construir um diálogo, ou das experiências, então a possibilidade de a IA servir e não dominar a nossa Inteligência aumenta exponencialmente e o ser humano adulto e informado será capaz de criar teorias revolucionárias.
Neste momento é urgente criar uma disciplina de literacia digital, o questionamento constante das fontes de informação e o desenvolvimento da capacidade crítica.
Referências (APA 7.ª ed.)
Carr, N. (2020). The shallows: What the Internet is doing to our brains (Updated ed.). W. W. Norton & Company.
Chiang, T. (2023). ChatGPT is a blurry JPEG of the web. The New Yorker. https://www.newyorker.com
Clark, A., & Chalmers, D. (1998). The extended mind. Analysis, 58(1), 7–19. https://doi.org/10.1093/analys/58.1.7
Kosmyna, N., Hauptmann, E., Yuan, Y. T., Situ, J., Liao, X.-H., Beresnitzky, A. V., Braunstein, I., & Maes, P. (2025). Your brain on ChatGPT: Accumulation of cognitive debt when using an AI assistant for essay writing tasks. arXiv. https://arxiv.org/abs/2506.08872
Livingstone, V. (2024) https://victorialivingstone.substack.com/p/llms-are-terrible-thought-partners (consultado em 20.02.2026)
Magma Studio. (n.d.). Estudo IA – Impacto e Futuro 2025. https://magmastudio.pt/estudo-ia/ (Acedido em 20 de fevereiro de 2026)
Magma Studio, Confederação Empresarial Portuguesa (CIP), & Data Science Portuguese Association (DSPA). (2025). IA – Impacto e futuro 2025. https://www.publico.pt/2025/11/20/enter/noticia/chatgpt-ferramenta-ia-usada-portugal-estudo-2155313
OpenAI. (2022). ChatGPT (Generative Pre-trained Transformer) [Large language model]. https://openai.com
Pro Life Europe. (n.d.). O suicídio juvenil. https://prolifeeurope.org/pt-pt/informa-te/o-suicidio-juvenil/ (Acedido em 21 de fevereiro de 2026)
Público. (2025, 20 de novembro). ChatGPT é a ferramenta de IA mais usada em Portugal, revela estudo. https://www.publico.pt/2025/11/20/enter/noticia/chatgpt-ferramenta-ia-usada-portugal-estudo-2155313# (Acedido em 20 de fevereiro de 2026)
Runge, J., Nowack, P., Kretschmer, M., Flaxman, S., & Sejdinovic, D. (2018). Detecting causal associations in large nonlinear time series datasets. arXiv. https://arxiv.org/abs/1702.07007
Skinner, B. F. (1968). The technology of teaching. Appleton-Century-Crofts.
Nota sobre utilização da IA: referências bibliográficas estilo APA 7th e revisão do conteúdo redigido.
Declaração de Direitos de Autor
Ao submeter este artigo, concordo com a sua publicação sob licença Creative Commons Atribution-nom Commercial International 4.0 (CC-BY-NC)
Susana Luís
22-02-2026
Comentários
Enviar um comentário