Autoria: João Carriço (LEQ)
Todos nós – vá, a maioria – temos as nossas histórias de terror sobre uma cadeira no Técnico após a qual nunca voltámos a ser os mesmos. Nestas, tenho a certeza de que a vontade comum é a de esperar por um milagre em vez de estudar, mas como nem todos acreditamos em milagres, resta uma terceira opção mais tentadora: aldrabar. Na verdade, para quê acreditar em divindades cuja existência não conseguimos comprovar, quando podemos recorrer a uma inteligência artificial cuja eficácia – e existência – facilmente observamos?
Numa breve leitura da Bíblia, facilmente encontramos que quem cai em tentação é castigado a longo prazo, por muito favoráveis que as consequências possam aparentar. Mas será que o que acontece no ensino superior segue a mesma lógica? Será tão utópico como “as pessoas que fazem as ações corretas são recompensadas e vice-versa”, ou “sobreviverão” à seleção académica preferencialmente os que seguem o caminho mais fácil?
Limitando-nos ao meio académico, a sensação mais frequente é a de que – como Camões desenvolve na sua Esparsa ao Desconserto do Mundo – quem acaba por “vencer” não é necessariamente quem mais trabalha e melhor se prepara para as avaliações, mas sim quem cria um atalho. Contudo – e voltando à Bíblia – as verdadeiras consequências acabam por vir depois da vida, neste caso, académica: afinal, estamos a estudar para ser engenheiros e arquitetos (ou, alguns de nós, matemáticos) e para lutarmos numa guerra contra muitos outros semelhantes por um emprego, guerra esta em que as competências decisivas certamente não são a capacidade de fotografar um exame à socapa – mas a falta de conhecimentos não é, até aqui, fator de derrota.
Seria uma falácia alegar que o maior uso da inteligência artificial no meio académico é a fraude. Mais frequentemente do que seria desejável, podem haver enunciados pouco claros, os horários de atendimento podem ser poucos a inexistentes, ou o material de estudo pode não ser elucidativo o suficiente, seja por não serem disponibilizadas resoluções ou até mesmo soluções; e, nesses casos, o mais fácil é mesmo recorrer à ajuda de uma inteligência artificial. Não nos esqueçamos também de que podemos usar a inteligência artificial para trabalhos mais mecanizados e, por vezes, penosos, como detetar erros ortográficos ou ajudar a domar o tenebroso LaTeX. Estes usos não só são perfeitamente inofensivos como acabam por ser uma “salvação” para muitos de nós. O que está em questão não é bloquear a inteligência artificial das nossas vidas – porque, mais cedo ou mais tarde, vamos ter de lidar com ela – mas sim integrá-la de forma ética e que não se sobreponha ao trabalho humano.
Entramos no meu primeiro – e, talvez, mais óbvio – argumento, que tanto estou a antecipar: alguém que acabe o curso recorrendo em grande parte à inteligência artificial, ao invés da sua inteligência natural, não está apto para o mercado de trabalho. Claro que robôs desempenham satisfatoriamente alguns ofícios, mas, felizmente, ainda nem todos somos substituíveis por eles, como é o caso da vasta árvore dos ramos da engenharia. E, numa realidade onde pessoas recorrem a chatbots tanto para ter diálogos picantes como para ajuda psicológica ou até para se comprometerem ao matrimónio, recorrer ao Gemini para desenhar um processo industrial parece perfeitamente aceitável. Contudo, se essa opção fosse viável, as empresas decerto não contratariam um engenheiro para o fazer. Se uma inteligência artificial falha ao calcular simples integrais, não deve ser difícil imaginar como funcionaria se desempenhasse todo o trabalho de um engenheiro. A verificação humana é indispensável.
Não querendo colocar a engenharia acima de outras áreas do ensino superior – porque nem sequer com isso concordo – há que sublinhar que é um ofício que requer um elevado conhecimento e uma igualmente desenvolvida capacidade de raciocínio. Não bastasse já ser uma área exigente, falamos do exemplo do Técnico, uma das faculdades mais prestigiadas de todo o país – e ínfame pelo seu grau de dificuldade. E, em breve, teremos um número significativo de “engenheiros” a graduarem-se e a mergulharem de cabeça no mercado de trabalho, carentes das competências que este título pressupõe – porque particularmente mais importante do que saber aplicar o Teorema de Stokes é o processo conducente à sua compreensão, que este “atalho” permite evitar – e aqui nasce o principal problema. Pode parecer uma forma mais fácil de obter uma qualificação para o mercado de trabalho, mas na verdade acaba só por ser um desperdício de tempo e de dinheiro; é comparável a eu, que tenho muito poucas capacidades desportivas, juntar-me a uma equipa profissional de hóquei por via de subornos: seria rapidamente expulso e não poderia exercer a posição que gastei dinheiro para obter.
Não consigo também fugir à questão ética: não é justo, creio que objetivamente, privilegiar alguém que utiliza meios desonestos em detrimento dos demais que optaram pelo percurso honesto (a menos que o objetivo seja uma crítica social retorcida). Acresce que as notas de um aluno são critério de seleção em bastantes bolsas de estudo, de investigação, estágios, e outras iniciativas. Creio que o exemplo a transmitir não deva ser o de que a forma correta de alcançar o sucesso é desafiar a lógica de uma meritocracia. .
Portanto, é evidente que esta tendência tem de ser combatida, mas a grande dificuldade em fazê-lo no meio académico é a de encontrar uma solução que não prejudique a globalidade dos alunos. Já observamos alguns esforços neste âmbito, em particular a realização de provas orais e discussões, nomeadamente em projetos, relatórios e trabalhos escritos. Existem ainda casos em que os elementos de avaliação são dificultados de forma a que uma inteligência artificial não seja capaz de resolvê-los. Contudo, em qualquer destes casos, origina o debate de ser “justo” ou não para, diga-se, quem efetivamente obteve os resultados por uma via honesta. Justifica-se estes alunos terem de ser sujeitos a uma avaliação mais exigente por algo de que não têm responsabilidade? Até onde estaremos a simplesmente selecionar quem efetivamente trabalha e não a dificultar o processo para todos?
Como nota final, acho importante mencionar o caso oposto: da mesma forma que o trabalho dos alunos ser feito por inteligência artificial não é correto, o trabalho dos professores também não deve ser. Os casos – ainda que pouco frequentes – de avaliações preparadas e corrigidas por inteligência artificial incorporam uma despersonalização do que deve ser um trabalho o mais humano possível. A avaliação deve, para além de ser justa e equitativa, ser sensível também ao reconhecimento de diversos fatores externos que a podem influenciar. Ademais, um language learning model não é, decerto, desenhado com o fim de saber física e matemática, muito menos de estar numa posição superior a estudantes destas áreas. Se os erros que o Gemini ou que o ChatGPT cometem quando confrontados com problemas destas áreas não forem argumento suficiente, o facto de que não conhecem o contexto do que foi lecionado nem o que é esperado de um aluno numa avaliação certamente o será.




