IA no Ensino: Grande ajuda ou substituição progressiva dos estudantes?

Perspetivas de dois docentes das áreas de engenharia e de humanidades

Autoria: João Barata (LEAer)

Professor Mário Figueiredo (Fonte: Instituto de Telecomunicações: https://www.lx.it.pt/~mtf/)
Professora Helena Moniz (Fonte: INESC-ID: https://www.hlt.inesc-id.pt/w/Helena_Moniz)

As preocupações atuais com a forma como a inteligência artificial (IA) está a redefinir a aprendizagem dos estudantes levam-nos a questionar até que ponto estas ferramentas estão a alterar algumas das nossas capacidades básicas enquanto alunos: escrita, pesquisa e criatividade. O World Economic Forum coloca a desinformação em primeiro lugar na lista de riscos globais de curto prazo e identifica como competências mais importantes, em 2025, o pensamento analítico, a resiliência e a criatividade, ligadas a perspetivas de futuro dominadas pela IA, big data, redes e cibersegurança [1] [2]. São dados claros sobre a importância destas áreas e da adoção de estratégias que preparem os estudantes para o futuro do mundo do trabalho. Como é possível tirar partido das ferramentas de IA sem comprometer a originalidade? As questões éticas são cada vez mais relevantes e os métodos de avaliação vão ter de se adaptar. Qual será, então, o futuro dos trabalhos académicos? 

Para responder a estas perguntas, o Diferencial entrevistou dois professores da Universidade de Lisboa. Por um lado, Mário Figueiredo, professor catedrático no IST, leciona as cadeiras de Aprendizagem Profunda e de Inteligência Artificial e Sociedade, tendo bastante experiência técnica nestas áreas, no âmbito da engenharia. Na vertente social, Helena Moniz é professora auxiliar no Departamento de Linguística da Faculdade de Letras (FLUL) e investigadora no INESC-ID. Coordena o projeto Bridge AI, centrado na regulamentação da inteligência artificial, e é presidente do Comité de Ética do Center for Responsible AI.

Importância de saber escrever bem

A escrita é um processo fundamental para qualquer estudante, tanto no processo de aprendizagem como na maior parte das formas de avaliação: testes, relatórios, teses, etc.

Mário Figueiredo reconhece que “continua a ser extremamente importante saber escrever bem” por ser uma “maneira de transmitir ideias”, o que, em engenharia, deve ser feito “de forma clara, sucinta e precisa”. Reforça que, mesmo com a ajuda da IA, “para escrevermos aquilo em que estamos a pensar e que queremos exprimir é preciso passar pela dor da escrita” e que “hoje em dia, não há grande desculpa para se ter erros de gramática, ortografia ou sintaxe: cada estudante tem um editor pessoal, sempre pronto e disponível”. Neste sentido, nota uma evolução na escrita dos alunos: “as primeiras versões das teses que recebo já vêm todas, do ponto de vista do inglês, por exemplo, com um nível mais alto”. “É uma evolução positiva em termos do produto final. Ainda estamos para ver se é positiva em termos do processo de aprendizagem, se os alunos, de facto, aprenderam a escrever melhor ou só estão a escrever melhor porque têm acesso a ferramentas.” Considera ainda positivo “tentar extrair conhecimento do processo de correção” quando nos apoiamos na IA como ajuda na escrita. 

Para Helena Moniz, também “é muito importante saber escrever e saber discutir o que se escreve”. Defende que os alunos “têm de se incluir” nos seus textos e que “isso a inteligência generativa não faz”, apesar de ser um “excelente auxiliar”, especialmente “para escrever coisas repetitivas”. “Todos nós somos seres únicos e estar a usar a inteligência generativa para nos expressarmos em todas as ocasiões da nossa vida não me parece ser o mais útil.” Deste modo, os trabalhos realizados pelos alunos devem ter sempre um “cunho decisivo e crítico seu”. Admite existir “muito copy-paste mal feito” e que “é um bocado frustrante para um professor ter trabalhos só iguais”, dando nota de “textos muito mais repetitivos”. Concorda que colocar o nosso cunho pessoal no nosso trabalho pode ser o suficiente para nos diferenciarmos. No caso específico da tradução, área em que leciona, entende que a realização de trabalhos numa língua estrangeira, utilizando IA para a tradução, pode fazer com que se perca o “cunho pessoal” do autor, “a não ser que sejam feitas adaptações”, mais difíceis numa língua não nativa.

Originalidade vs. Correção linguística

O uso de ferramentas de IA na escrita pode ter como consequência uma perda na diversidade dos trabalhos académicos, o que realça a importância de equilibrar a originalidade e a visão crítica do autor com a clareza e correção da IA. Isto torna-se ainda mais relevante quando a avaliação é exclusivamente escrita e é preciso conseguir transmitir a ideia de verdadeira compreensão no próprio trabalho entregue.

Para Mário Figueiredo, esta questão “não tem uma resposta fácil”. Admite existir uma “uniformização” da linguagem nos trabalhos académicos e considera importante que “quem faz o trabalho esteja absolutamente consciente e seja responsabilizado por aquilo que lá está”, sendo capaz de explicar o “porquê de aquilo lá estar” e o “porquê de concordar que aquilo lá esteja”. 

Helena Moniz considera que, em componentes técnicas, “ser técnico significa dominar os termos da área” e, desse modo, “cumprir com a terminologia”. Outros aspetos importantes quando avalia um trabalho técnico são “a clareza, a estruturação e a ordenação das ideias”. “A inteligência artificial também ajuda muito como base para isso.” Por fim, “fica a faltar o vosso espírito crítico sobre o assunto”. Pensa também que, “em todas as áreas científicas, sejam elas mais ou menos técnicas, mais ou menos criativas, há sempre aspetos em que a vossa decisão de alinhamento com a literatura ou com um determinado autor depende de decisões que vão ter de tomar e do vosso espírito crítico”. “Se fizerem copy-paste, o professor vai percebendo que vai ser tudo igual e vamos estar sempre nas mesmas notas.”

Avaliação 

Os métodos de avaliação são sempre um tema caro aos estudantes, especialmente num modelo de ensino centrado em curtos momentos de verificação de conhecimentos. Procurámos saber a opinião dos dois professores sobre como a avaliação deveria adaptar-se ao crescimento da IA.

Mário Figueiredo admite que é necessário “mudar a maneira como se avaliam as coisas”. “A avaliação, neste momento, tem um papel demasiado pesado no ensino e as pessoas estão sempre preocupadas com a avaliação.” Insiste na importância de os alunos realizarem os trabalhos por vontade de aprender e não apenas para serem avaliados, ocasião em que, “obviamente, estão sempre tentados a usar a ajuda da ferramenta” de forma incorreta. “Uma coisa é estudar ou trabalhar para aprender. Outra coisa é estudar ou trabalhar para ser avaliado. Às vezes, as coisas estão alinhadas, mas é importante garantir que estejam alinhadas.” Considera que pode ser benéfico dar mais liberdade de escolha aos alunos nos momentos de avaliação, como na escolha dos temas para trabalhos. Recorda David MacKay, no artigo Everyone Should Get an A, para demonstrar que todos os alunos têm “capacidade de ter 20, podem é demorar mais tempo uns que outros” [3]. Na utopia de MacKay, “as pessoas devem dizer quando é que estão prontas para fazer o exame e não existir uma data de exame”. “E só podem passar se tiverem 20, ou acima de um limite qualquer, que é um pouco como funcionam outro tipo de avaliações, como a carta de condução. Posso demorar mais tempo, posso demorar menos tempo, posso precisar de mais lições, menos lições, mas quando passar, passo com um nível alto.”

Para Helena Moniz, o ponto central é a importância da interação oral. “Se o vosso pensamento estiver estruturado, se falarmos mentalmente connosco próprios para estruturarmos o que queremos dizer, então aí teremos na escrita uma extensão desse pensamento.” Admite ter mudado todo o seu sistema de avaliação: “os projetos têm uma componente escrita mínima, mas são defendidos oralmente e avaliados por toda a turma e pelo professor.” Apesar de “muitos receios no início”, acredita que “o facto de um aluno defender o seu projeto perante os colegas, receber feedback de toda a turma e também do professor faz com que tenha de pensar sobre o assunto, tenha de o verbalizar” e que a escrita tenha, depois, “esse cunho pessoal do seu trabalho”. “Primeiro, tudo é oral, e só depois é que é escrito. Ou então há uma componente mais pequena para a escrita e muito mais valorização da parte oral e da discussão dos trabalhos.”

Transparência na era da IA

O uso de IA na realização de trabalhos académicos pode levantar questões éticas relacionadas com a autoria ou a integridade do autor. É importante existir confiança entre alunos e professores e manter o foco no objetivo primário: aprender. Isto traz para discussão a questão da transparência.

Para Mário Figueiredo, “tudo deve ter transparência”. Apesar de não incentivar nem desincentivar os seus alunos a utilizarem ferramentas de IA, dá o exemplo da cadeira de Aprendizagem Profunda: “temos lá uma norma – ‘se usares o ChatGPT, escreve’ – e a maior parte dos alunos escreve ‘eu usei o ChatGPT para a pergunta 2, para ajudar a fazer o código’, e dizem o que fizeram”. “Se não disserem e nós percebermos que foi feito dessa forma, há um desconto.” Apoia a ideia de que “não vale a pena estar a proibir o uso, é impossível” e que “é preciso haver transparência e saber aproveitar da melhor maneira as potencialidades”. Garante também que não está “preocupado com a qualidade dos trabalhos, porque o objetivo principal numa universidade não é fazer trabalhos de boa qualidade, isso é um subproduto, é que os alunos aprendam, que fiquem a perceber as coisas e que tenham motivação para aprender. Se os trabalhos saírem melhores, mas com muita ajuda artificial, e isso implicar que os alunos tiveram menos envolvimento ao fazer o trabalho, menos participação das suas ideias e, portanto, aprenderam menos no processo, eu acho que isso é um resultado final negativo. Embora o produto seja melhor, o verdadeiro objetivo não está a ser tão bem cumprido, que é aprender.”

Helena Moniz dá também o exemplo da cadeira de Linguística Computacional, em que “os projetos assumem, à partida, que vai ser usada a inteligência artificial e os alunos têm sempre de indicar toda a metodologia utilizada”, sendo “muito explícitos nos sistemas que usaram” e “como usaram”. “É uma boa prática.” Acredita ser “muito inteligente mostrar que conseguem escolher entre vários sistemas, o porquê dessa escolha e como se associa à vossa visão do que vão escrever”. Acrescenta que “esconder que não estou a usar, quando estou a usar, é muito pior do que estar a usar”. “Faz sentido que usem, é um auxiliar excelente, quando bem usado. Mal usado, só por conveniência, sem qualquer tipo de estruturação ou discussão vossa, apenas um copy-paste, aí não vai funcionar.”

Uso ético da IA e papel das universidades 

As preocupações éticas em torno do papel da IA no ensino são tema de debate e tendem a promover o envolvimento de todos os níveis de ensino, incluindo as universidades. Apesar disto, ainda se nota uma grande diversidade de posições sobre o assunto, de instituição para instituição, havendo opiniões divergentes quanto ao grau de intervenção que as universidades devem ter no uso de IA.

Mário Figueiredo diz-se “cético” quanto à oferta formativa em IA na universidade, por duas razões: “geralmente, os alunos já sabem mais, já é quase second nature” e “haver um curso sobre como usar ferramentas de AI corre sempre o risco de cristalizar muito rapidamente, porque essas coisas estão a mudar muito depressa e as pessoas estão a usar no dia a dia, adaptam-se mais facilmente”. Em vez disso, defende a exposição e integração dessas ferramentas no “funcionamento normal das cadeiras”. É também a favor da disponibilização de licenças de IA aos estudantes universitários: “as escolas deviam ter as versões mais altas”. “Uma licença para a universidade seria muito mais barata.”

Helena Moniz acredita que as universidades têm um “papel fundamental” na instrução sobre o uso ético da IA, mas acrescenta que “não são só as faculdades, são todos os níveis de ensino”. “É super importante a literacia em inteligência artificial a todos os níveis e é super importante que a vossa geração cultive este espírito crítico.” Refere que a educação sobre IA ainda tem muito espaço para progredir, mas que “há muita curiosidade dos professores”, destacando também o papel dos “educadores, sociedade civil e cidadãos em geral”. “Nós temos de educar em conjunto, tem de ser um esforço coletivo, um esforço social. É por isso que se diz que os aspetos sociais da inteligência artificial têm de passar por um esforço de ação política, ação social e ação educativa. Não pode ser só uma vertente.” Quanto à oferta de licenças de IA aos alunos pelas faculdades, concorda: “creio que sim, bem orientado, sempre com várias ressalvas e, sobretudo, explicando usos em contextos”. “É super importante os alunos terem acesso a vários modelos e poderem perceber qual deles é mais útil para a tarefa em questão. Porque se eu achar que o ChatGPT é único no mundo, eu não vou perceber diferenças que possam existir entre vários modelos. Só percebem se testarem e se as universidades derem esse espaço de testagem.”

Pesquisa e Criatividade

Os métodos de pesquisa de informação superam a escrita no grau de transformação que têm sofrido nas últimas décadas. É curioso que o primeiro motor de busca – ainda longe do funcionamento que hoje lhes reconhecemos – surgiu apenas em 1990, e o Google em 1998. A IA introduziu uma nova camada de inovação na pesquisa, mas também ao nível da criatividade. Estes modelos estão a superar todas as expectativas no que se refere à criação de conteúdos criativos. Contudo, juntamente com os benefícios, surgem também problemas: a proliferação descontrolada da desinformação e a possível perda de relevância da criatividade humana.

Mário Figueiredo frisa que o que tenta fazer nas aulas é “estimular e mostrar que o assunto é interessante e que faz sentido os alunos terem curiosidade sobre o assunto”. “E, portanto, que o vão estudar, se quiserem saber”, escolhendo informação “de boa qualidade”. “Há informação demais, a variedade é brutal. Como há muita procura, há muita oferta. E nem tudo é bom.” Recorda que “antes o problema era encontrar coisas interessantes – e raramente encontrava coisas mesmo interessantes”. “Agora é: há milhares de coisas interessantes e eu só posso ler duas ou três. Antes tinha que procurar ativamente informação, agora tenho que rejeitar ativamente informação. Acho que agora é preciso ainda mais capacidade crítica, há tanta coisa que a dificuldade está em filtrar.” Quanto à criatividade, concorda que pode estar a surgir um problema, “em parte porque há o risco de as pessoas se sentirem enxurradas de ideias”. “A pessoa acha: ‘nunca vou conseguir ter uma ideia minha’, porque há tanta coisa. Isso, se calhar, é uma ideia falsa, porque o facto de ela ser minha mesmo é tão importante como ser original. Aliás, há quem diga que as boas ideias nunca são originais.” Acrescenta: “quando tenho uma boa ideia, se tiver orgulho nela, gosto de a discutir com outras pessoas”. “E isso, com ferramentas, não tem interesse nenhum.”

Helena Moniz, por seu lado, reconhece a “conveniência de ir buscar informação sem sequer fazer fact check, sem sequer validar se essa informação está bem”, o que “é um problema”. “É preciso validar a informação e, sobretudo, cultivar o espírito crítico dos alunos.” Refere que a existência de muita informação e o desconhecimento sobre fontes de validação têm sido “dos problemas que os meus alunos mais apontam”. Como conclusão, afirma que “é preciso filtrar, validar, confirmar e perceber que um assunto nunca tem só uma visão, tem sempre várias perspetivas”.

Futuro dos trabalhos académicos

Numa nota de futurologia, pediu-se a ambos os professores que partilhassem a sua visão sobre como o crescimento da IA poderá moldar o futuro dos trabalhos académicos. Deixamos, abaixo, as suas respostas na íntegra.

Mário Figueiredo: “Eu acho que é cada vez mais importante as faculdades e as escolas terem a noção de que é muito importante, no ensino, o aspeto emocional e o aspeto da curiosidade, de querer saber por curiosidade, de querer partilhar ideias com outras pessoas e usar essas ferramentas de AI como auxiliares. Vai ser cada vez mais importante a relação entre as pessoas, professores e alunos, não deixando que essas ferramentas diminuam a importância das pessoas falarem umas com as outras, de se relacionarem, de se verem como uma comunidade de pessoas que estão a aprender, a ensinar e a tentar descobrir coisas novas.” 

Helena Moniz: “A futurologia é muito difícil. Eu sou cautelosamente otimista. Em termos de ensino, creio que há muito para desbravar. Obriga a muito mais interação e muito mais diálogo com os alunos. A avaliação também está a mudar em várias universidades no mundo. Na Finlândia, os alunos têm de apresentar o seu trabalho não só aos colegas e ao professor, como também a membros da sociedade. Se pessoas do exterior perceberem o que o aluno está a dizer no seu trabalho, é porque este sabe mesmo do que está a falar. Mais importante do que o relatório escrito são, muitas vezes nestes países, os vídeos ou apresentações que façam e a discussão que tenham com as pessoas, o seu contributo para isso. Vai ser super importante saber porque é que fiz de determinada maneira e saber explicar isso. Obviamente, acho que vão existir cada vez mais ajudas de ferramentas e que os agentes de IA vão levantar imensas questões e desafios éticos. Vai ser necessária não só a competência científica, mas também a educação ética e social, o conhecimento, o olhar crítico e uma perspetiva muito mais complexa e holística. Temos de acelerar na forma como estamos a educar e temos de ser mais disruptivos na educação para esta nova fase dos agentes. Eu vejo um futuro muito sonhador: os alunos como micro-sociedades, a participarem em projetos, a discutirem como se fossem CEOs ou managers desses projetos numa sociedade. Cada um tem de ter essas competências de manager, vai ter de gerir várias ações, mas um bocadinho como micro-sociedades que têm de discutir entre si, tomar decisões e ser muito claros nas decisões que tomam, saber explicar as decisões que tomam.”

Referências:

[1] WEF – Global Risks Report 2025

[2] WEF – Future of Jobs Report 2025

[3] David MacKay – Everyone Should Get an A

Leave a Reply