HomeAtenei NordUniv. di TrentoQuando a fare il compito è l’Ia

Quando a fare il compito è l’Ia

Negli ultimi mesi il dibattito sull’intelligenza artificiale nei percorsi universitari si è fatto sempre più vivo. Molti studenti e studentesse ricorrono infatti a ChatGpt e ad altri strumenti basati su Ia per scrivere testi, tradurre, correggere bozze o addirittura generare interi elaborati. Una realtà con cui chi insegna deve confrontarsi: come distinguere un lavoro originale da uno prodotto (anche solo in parte) con l’aiuto degli algoritmi? E soprattutto, come trasformare questa sfida in un’occasione formativa?
Un tema che non poteva che riflettersi anche su questo articolo, scritto a partire da un’intervista con Daniele Agostini, docente di Educazione digitale e collaboratore del Formid, e realizzato – coerentemente e in via del tutto eccezionale – con il contributo dell’intelligenza artificiale.

«All’Università di Trento – spiega Agostini – il personale docente ha a disposizione Turnitin, software internazionale già usato da anni per la rilevazione del plagio e che oggi integra anche una funzione di Ia detection». Caricando gli elaborati su Turnitin, è possibile verificare non solo eventuali copie da fonti esterne, ma anche la probabilità che un testo sia stato generato con l’intelligenza artificiale. Si tratta però di un aiuto da leggere con attenzione. «La loro accuratezza – chiarisce Agostini – è più alta in inglese che in italiano, e in generale occorre interpretare i risultati come indizi, non come prove definitive». Un testo segnalato come “umano al 100%”, ad esempio, potrebbe essere davvero frutto dello studente, ma anche il risultato di un utilizzo esperto di un modello avanzato, capace di eludere i controlli. Al contrario, elaborati brevi o rielaborati con software di correzione rischiano di generare falsi positivi.

Per questo l’Ateneo invita a considerare gli strumenti di rilevazione come un supporto, non come una soluzione automatica. «Il nostro consiglio – continua Agostini – è di non affidarsi esclusivamente al responso del software, ma di leggerlo come una spia, un segnale da approfondire con altre modalità di verifica, ad esempio attraverso un colloquio orale o una prova integrativa». Accanto alla tecnologia, c’è un aspetto altrettanto importante: la formazione del personale docente. 

Negli ultimi due anni il Formid ha organizzato workshop e seminari dedicati, in presenza e online, con interventi di esperte ed esperti esterni e con laboratori pratici. L’obiettivo non è tanto “stanare” l’uso dell’Ia, quanto aiutare chi insegna a comprendere come questi strumenti possano essere integrati nella didattica. «Dai sondaggi emerge che il 60-70% di chi studia utilizza regolarmente l’Ia», sottolinea Agostini. «È un dato di fatto. La vera domanda è come guidare la comunità universitaria verso un uso consapevole e costruttivo».

Ecco perché i percorsi formativi si concentrano soprattutto su come sfruttare l’Ia per migliorare insegnamento e apprendimento. Alcuni esempi riguardano la didattica blended, la progettazione di corsi online aperti (Mooc), o l’uso dell’Ia per alleggerire compiti ripetitivi, liberando tempo da dedicare ad attività più stimolanti. «La pedagogia da tempo ci invita a passare da una didattica centrata sulle sole conoscenze a una centrata sulle competenze», osserva Agostini.

«In questa prospettiva l’intelligenza artificiale può diventare una risorsa preziosa: se ci aiuta a ridurre il carico cognitivo per attività di routine, possiamo concentrare gli sforzi su ciò che conta davvero, come il pensiero critico, la capacità di argomentare, la creatività». Resta naturalmente l’esigenza di chiarezza: ogni docente deve specificare all’inizio del corso quali usi dell’Ia sono accettabili e quali invece non lo sono. Alcuni insegnamenti, come quelli di informatica, possono essere influenzati maggiormente, nel bene o nel male, dall’uso di modelli generativi, ad esempio per la scrittura di codice; altri insegnamenti, magari basati su abilità orali o altre competenze non replicabili dai modelli Ia attuali, subiscono (o beneficiano) meno dei possibili effetti.

Le policy di Ateneo vanno proprio in questa direzione: dare linee guida comuni, ma lasciare autonomia ai singoli corsi. Rilevare l’uso scorretto rimane quindi importante, ma non può essere l’unico obiettivo. «Il rischio – conclude Agostini – è di ridurre tutto a un gioco di guardie e ladri, senza cogliere le potenzialità della tecnologia. La sfida non è solo difendersi, ma accompagnare chi studia nello sviluppo di competenze digitali e di una responsabilità nell’uso dell’Ia».
In altre parole, l’intelligenza artificiale non è solo un problema da risolvere: è anche un’opportunità per ripensare l’insegnamento universitario e renderlo più attuale, inclusivo, coinvolgente e vicino alle esigenze di chi studia e di chi insegna. 

ARTICOLI CORRELATI

Ultime uscite