Autoria: João Barata (LEAer)
Disponibilizado a 28 de novembro de 2025, o novo Guia para a Utilização Responsável da Inteligência Artificial estabelece orientações relativamente ao uso da IA para toda a comunidade do IST.
Na sessão de divulgação que teve lugar no passado dia 18 de dezembro, parte do Programa Contigo+, Teresa Peña, Diretora Adjunta para as Tecnologias Digitais no Ensino e uma das autoras do Guia, apresentou o documento e os seus objetivos, entre os quais: gerar uma cultura de confiança na utilização da IA, consciencializar para os seus potenciais e riscos, e iniciar uma fase de aprofundamento da literacia nesta matéria, tendo em conta a produtividade científica e a personalização e eficácia do ensino. No Guia, essas intenções materializam-se em vários tópicos centrais:
Experiência e competências
Como ponto de partida, o documento dá nota de um aumento da contratação de trabalhadores com mais experiência profissional no atual contexto de crescimento da IA. Isto servirá para demonstrar a importância crescente da Universidade em “dar mais ênfase à formação para análise e relacionamento entre temas, ao estudo de casos concretos, à promoção do trabalho em equipa, ao desenvolvimento de projeto e adaptação ao novo, em vez da memorização e repetição de conteúdos”.
Tutoria e Curadoria versus Autoria
Neste tema, os autores do Guia alertam para a necessidade de “análise crítica, pesquisa original, verificação e validação humana”. “O conteúdo gerado por IA deve ser sempre revisto e verificado, e usado como assistência ou ajuda/tutoria e não como autoria. Têm de certificar-se sistematicamente as referências ou fontes fornecidas, bem como os processos explicativos ou dedutivos.”
Privacidade de dados
O documento alerta também para o perigo do uso de dados de investigação ou de clientes (que podem ser confidenciais) nos prompts. “Algumas ferramentas permitem fazer uma ‘solicitação de privacidade’ para garantir que os modelos não sejam treinados com os dados dos prompts, mas a responsabilidade permanece sempre do lado do utilizador.” Deve haver também um cuidado com a “divulgação de dados pessoais, informação sensível (como a biométrica), avaliação de estados emocionais, etc.” Aplica-se especialmente esta lógica aos processos de revisão por pares: “Estas ferramentas devem ser utilizadas apenas para fins de tradução ou correção gramatical, e nunca para análise de conteúdo”, já que pode expor informação e ideias dos autores que são confidenciais antes da publicação.
Avaliação justa e fiável na era da IA
Os autores do Guia dão uma grande importância a processos de avaliação de estudantes “mais multivariados e assentes em múltiplas metodologias como discussões de grupo ou apresentações orais, garantindo uma apreciação mais completa e contextualizada do desempenho académico”. “Deve ser pedido ao estudante que explicite a sua contribuição original no trabalho, habituando-o a valorizar a originalidade das ideias e realizações.” O objetivo final será avaliar o pensamento crítico e capacidade de reflexão dos estudantes: “Sugere-se que nas discussões cada estudante faça uma reflexão sobre o que conseguiu alcançar no trabalho/projeto escrito, o que modificaria se recomeçasse a tarefa, ou tivesse que explorar as questões que pode ter deixado ainda em aberto”.
Declaração de Uso
O documento recomenda também a “indicação pelo docente responsável de cada Unidade Curricular, nas plataformas de gestão de ensino e nos enunciados dos trabalhos, do nível de uso da IA autorizado em cada componente de avaliação”. “Sempre que o uso da IA for permitido, o estudante deve explicar no trabalho como foi utilizada a ferramenta”, declaração esta que deverá ser obrigatória.
Níveis de Permissão de Uso
No Guia, são identificados três níveis principais de permissão (ou sistema de semáforos) para o uso da IA:
- Nível 0 (Vermelho) – Uso Proibido: “O uso de qualquer ferramenta de IA é expressamente proibido” e o aluno deverá apresentar a declaração correspondente: “Declaro que este elemento de avaliação foi integralmente realizado sem qualquer recurso a ferramentas de IA”.
- Nível 1 (Amarelo) – Uso Limitado com Declaração incluindo finalidade do uso: Neste nível, “o uso de ferramentas de IA é permitido para tarefas numa componente de avaliação, como geração de ideias, organização de tópicos, brainstorming, revisão linguística, sugestões de estrutura, resumo, entre outras”. É exigida a Declaração de Uso e do fim desse uso, “incluindo, se os docentes o solicitarem, os prompts utilizados”: “Todas as decisões e conteúdo técnico deste trabalho são da minha autoria. Foram utilizadas [listar ferramentas] para [funções]”.
- Nível 2 (Verde) – Uso Totalmente Permitido com Declaração: Aqui, “o uso de ferramentas de IA é livre e incentivado ao longo do projeto/trabalho”. O exemplo da Declaração de Uso é: “Foram integradas ferramentas de IA no desenvolvimento do projeto e na elaboração do seu relatório. Foram utilizadas as ferramentas: [listar ferramentas]”. É realçado a necessidade de existirem elementos de avaliação com este nível de permissão para que os alunos possam “desenvolver a capacidade de integrar ferramentas avançadas de IA no planeamento e realização de processos de engenharia, inovação e resolução de problemas complexos ou abertos”.
O documento apresenta também uma lista com várias ferramentas de IA segundo a sua função (uso geral, apoio ao ensino e ao estudo e apoio à investigação) e algumas estratégias de prompting.
Como “Mensagem principal do Guia”, é reforçada a necessidade de um uso ético da IA e pretende-se impedir que esta promova a degradação do espírito crítico. Pretende-se também promover a curadoria e validação do conteúdo, valorizar o processo cognitivo e a originalidade na aprendizagem (não apenas o resultado final), e mudar o foco do ensino da memorização e repetição para a aplicação. Para os estudantes, a mensagem é que a IA não é para ser usada como um atalho, já que isso não irá permitir que se adquiram competências importantes como aprender com os erros e decidir. Para Professores, é deixada uma mensagem para que, sempre que possível, realizem processos de avaliação multivariados.




