HomeAtenei NordUniv. di TrentoGenAI e ricerca, con consapevolezza

GenAI e ricerca, con consapevolezza

L’impatto dell’intelligenza artificiale generativa (GenAI) sulle attività di ricerca e, più in generale, sulla vita accademica è già oggi molto significativo. Le ragioni sono evidenti: si tratta di una tecnologia che crea contenuti originali, partendo dai dati di input inseriti dall’utente. Non si tratta di una Ia che classifica o che fa predizioni, né di un motore di ricerca: la sua caratteristica è la generazione di contenuti inediti.

Una ricerca condotta su cinquemila ricercatori (Kwon, Nature, Maggio 2025) ha portato ad esiti sorprendenti: il 90% degli intervistati ha rivelato di usare GenAI per modificare o tradurre un paper, e il 65% ritiene accettabile usarla per scrivere sezioni specifiche di un articolo. Moltissimi di questi modelli sono inoltre usati per individuare idee di ricerca, raccogliere la letteratura su un argomento e farne sintesi, tradurre o migliorare la scrittura di un paper. In qualche caso, la GenAI è utilizzata addirittura per elaborare un articolo o un intero progetto di ricerca.

È evidente che vi sono sostanziali differenze tra un uso dell’intelligenza artificiale a supporto di una ricerca e un uso sostitutivo del lavoro del ricercatore e non è immediato comprendere quando un suo impiego ponga a rischio i valori della research integrity, l’authorship, la accountability.
C’è poi il problema dell’impiego che di questa tecnologia possono fare gli studenti. Recentemente, in occasione di un seminario in una università tedesca, si è discusso di quale sanzione andasse comminata ad uno studente che aveva usato ChatGPT per scrivere la sua tesi: rifare il lavoro o essere radiato.

È evidente insomma che se determinati usi di questa tecnologia possono essere non solo ammessi ma addirittura auspicati per migliorare i risultati della ricerca, si celano nella pratica anche possibili abusi, che sono legati alle caratteristiche di funzionamento e ai limiti tecnologici della GenAI. È stato osservato, per esempio, che, a causa delle c.d. allucinazioni, la capacità di sintetizzare testi può generare errori nella riconduzione dei testi agli autori e che Perplexity attinge spesso a testi non accademici reperiti online. 

Affidare alla GenAI l’ispirazione di idee di ricerca può inoltre restringere l’esplorazione di nuovi scenari. Vi è poi un duplice ordine di problemi: quello della c.d. black box e dei bias, e quello delle possibili violazioni del copyright e della privacy. Il primo non solo rende difficile spiegare i risultati prodotti ma rende anche impossibile rintracciare eventuali restrizioni di contenuti inserite nel sistema (DeepSeek e Grok operano vere e proprie censure su talune informazioni). Oltre alla disinformazione, i sistemi possono produrre poi risultati discriminatori, a causa dei bias contenuti nei dati di addestramento.

Il secondo problema dipende dai contenuti che si caricano nel prompt: molti di questi modelli richiedono di caricare copie dei paper rilevanti per la ricerca o la bibliografia raccolta, ma così facendo questi materiali vengono “ceduti” al fornitore per l’addestramento del sistema. E lo stesso può dirsi per i dati riservati che l’utente può inavvertitamente rilasciare nel sistema. Benché recentemente Co-Pilot e ChatGPT, ad esempio, abbiano previsto sistemi di opting out, altri sistemi non adottano policy simili.

Insomma, i principi di onestà, affidabilità, rispetto e responsabilità che guidano l’attività di ricerca e ne assicurano l’integrità, secondo il Codice Allea, sono a rischio se la GenAI non viene impiegata in modo attento, consapevole e ispirato a pratiche di cross validation: non solo allucinazioni, bias, black box e un uso non trasparente dei sistemi possono minacciare i valori fondanti della ricerca, ma il suo intero ecosistema potrebbe essere compromesso da risultati non affidabili.

Il secondo problema dipende dai contenuti che si caricano nel prompt: molti di questi modelli richiedono di caricare copie dei paper rilevanti per la ricerca o la bibliografia raccolta, ma così facendo questi materiali vengono “ceduti” al fornitore per l’addestramento del sistema. E lo stesso può dirsi per i dati riservati che l’utente può inavvertitamente rilasciare nel sistema. Benché recentemente Co-Pilot e ChatGPT, ad esempio, abbiano previsto sistemi di opting out, altri sistemi non adottano policy simili.

Insomma, i principi di onestà, affidabilità, rispetto e responsabilità che guidano l’attività di ricerca e ne assicurano l’integrità, secondo il Codice Allea, sono a rischio se la GenAI non viene impiegata in modo attento, consapevole e ispirato a pratiche di cross validation: non solo allucinazioni, bias, black box e un uso non trasparente dei sistemi possono minacciare i valori fondanti della ricerca, ma il suo intero ecosistema potrebbe essere compromesso da risultati non affidabili.

Rispetto a questi rischi, l’Università di Trento ha elaborato linee guida tese a contenere possibili condotte contrarie alle buone pratiche di ricerca, rivolte all’intera comunità accademica.
Esse sottolineano alcune regole che devono guidare l’uso di questa tecnologia. Se ne sottolineano due, in questa sede. Il principio della responsabilità, secondo cui chi usa GenAI resta il solo responsabile dei risultati prodotti, anche sotto il profilo delle possibili violazioni delle discipline sul trattamento dei dati e sul copyright. Ciò, del resto, è la naturale conseguenza dell’idea di una Ia che sia volta a migliorare le capacità umane e non a sostituirle. E il principio di trasparenza, secondo cui l’uso di GenAI in ricerca o in didattica deve essere esplicitamente dichiarato.

Le linee guida sono un primo passo, lodevole e fondamentale. Esse meritano ora un dibattito ampio e franco nella comunità accademica, per far emergere le potenzialità e i rischi, anche di deskilling, che questa tecnologia comporta. Come ha osservato la Commissione europea nelle sue Living Guidelines on the Responsible Use of Generative AI in Research (2025) tanto maggiore è l’impiego di GenAI nella ricerca, tanto più forti, infatti, devono essere il controllo umano e la comprensione del suo funzionamento.

di Barbara Marchetti
Professoressa ordinaria di Diritto amministrativo all’Università di Trento

ARTICOLI CORRELATI

Ultime uscite