ChatGPT e plagio accademico, il punto della situazione all'USI

023af7377fd8d9b0fc759810f5a5f9f2.jpg

Servizio comunicazione istituzionale

20 Febbraio 2023

ChatGPT è un sistema, liberamente accessibile, che sfrutta tecniche di machine learning per produrre testi simili al linguaggio naturale umano. Sviluppato da OpenAI basandosi sul modello linguistico GPT-3, ChatGPT permette a chiunque di ottenere una grande varietà di testi, dalla corrispondenza commerciale alla saggista fino a poesia e narrativa, in varie lingue incluso l’italiano. ChatGPT potrebbe quindi essere utilizzato per rispondere alle domande di un esame universitario o nella stesura di ricerche. Per evitare simili casi, l’Università della Svizzera italiana, come altri atenei, sta prendendo alcuni provvedimenti. Le studentesse e gli studenti dell’USI sono stati avvisati che è proibito utilizzare questi strumenti in tutti i lavori di valutazione; si è poi deciso d’inserire una sezione dedicata all’intelligenza artificiale nel corso online sull’integrità accademica che diverse Facoltà chiedono sia seguito prima di poter sostenere un esame; inoltre un gruppo di lavoro sta studiando come identificare eventuali frodi. 

Ne abbiamo parlato con il Prorettore vicario Lorenzo Cantoni e con il Prorettore per l’innovazione e le relazioni aziendali Luca Maria Gambardella, già direttore dell’Istituto Dalle Molle di studi sull’intelligenza artificiale (IDSIA USI-SUPSI). 

 

Professor Cantoni, dal momento che non si copia da un testo già esistente, è possibile considerare “plagio” il ricorso a ChatGPT, oppure siamo di fronte a un nuovo tipo di illecito? 

Quando parliamo di plagio, ci riferiamo abitualmente a un comportamento che presenta due profili problematici: da un lato quello di dichiararsi autori di un testo che non abbiamo prodotto noi, dall’altro quello di violare il diritto del vero autore a che gli venga attribuito il testo stesso. Nel caso di ChatGPT usato per un esame troviamo senz’altro il primo profilo, ma non il secondo, dal momento che OpenAI concede tutti i diritti sul testo prodotto, specificando peraltro che ciò sia fatto senza violare la legge (cfr. https://openai.com/terms/, n. 3a). 

Dal punto di vista accademico, dunque, benché non vi sia un torto compiuto verso il vero autore del testo – ChatGPT – vi è un atto illecito perché il testo non rappresenta il livello di conoscenza di chi se lo attribuisce – si tratti di uno studente a un esame, ma anche di un professore o di un ricercatore in una pubblicazione. 

 

Per evitare il plagio bisogna citare in modo adeguato la fonte. Sarebbe possibile fare lo stesso con ChatGPT, citando chiaramente il contributo dell’intelligenza artificiale all’elaborazione del testo? 

Naturalmente è immaginabile, nella misura in cui tale uso sia sensato e non eccessivo rispetto al prodotto finale. Posso immaginare, per esempio, che qualcuno produca un testo con ChatGPT e poi discuta il risultato, mostrandone elementi di forza e di debolezza. Ma ciò deve essere sempre fatto “a carte scoperte”, chiarendo bene se, come e quanto si è fatto ricorso al sistema di AI. 

 

Sistemi come ChatGPT possono essere utilizzati anche per la revisione del testo, aiutando ad esempio le persone dislessiche o chi non è madrelingua. Simili impieghi potrebbero essere autorizzati? 

Non posso escluderlo in modo assoluto. Si tratta, qui, di aver bene in mente quale sia lo scopo di un esame o test: misurare cioè le conoscenze o competenze della persona che viene esaminata in un certo ambito, e valutare se queste siano sufficienti o meno. Nella misura in cui l’obiettivo può essere raggiunto, non vedo difficoltà. 

 

Come si giustifica il divieto di usare ChatGPT quando viene utilizzato nella scrittura di paper scientifici e, seppure tra forti perplessità, è stato addirittura inserito come co-autore? 

Si tratta di una situazione nuova che richiederà di affinare i nostri strumenti concettuali. Applicherei però, come suggerito sopra, criteri analoghi anche alle pubblicazioni accademiche. 

 

Professor Gambardella, ChatGPT è tutt’altro che perfetto: i testi sono impeccabili dal punto di vista formale ma spesso contengono errori fattuali o vengono citate fonti inesistenti. A cosa si deve questa differenza? 

ChatGPT non è una intelligenza ma un generatore di testi molto efficiente. È stato addestrato facendogli leggere milioni di testi e di conversazioni ed è capace di rispondere a domande di vario tipo. I risultati a livello linguistico sono raffinati ma la correttezza delle risposte non è garantita. Il sistema potrebbe non avere le informazioni necessarie e non si occupa di verificare le fonti. Non ha nemmeno “coscienza” che sta rispondendo in modo sbagliato in quanto si occupa di generare del testo coerente alla domanda, non di verificarne il significato.  

 

È possibile identificare i testi prodotti da ChatGPT con programmi simili a quelli antiplagio attualmente in uso?  

Su questo tema ci sono dei programmi tipo GPTzero che affermano di saperlo fare, ma anche ChatGPT afferma di essere capace di riconoscere un testo prodotto da se stesso. Al momento siamo alle versioni beta sia di ChatGPT che dei sistemi di riconoscimento. Ne aspettiamo l’evoluzione ma siamo attenti anche alla discussione sull’implicazione di questi strumenti nel mondo della scuola e del lavoro. 

 

Per gli utenti l’accesso a ChatGPT è facile come fare una ricerca su Google. Dal lato del fornitore quanto è più oneroso, in termini di potenza di calcolo ed economici?  

Recentemente è stato annunciato che ChatGPT verrà integrato con Bing di Microsoft che ne detiene i diritti commerciali e Google ha annunciato BardAI, un sistema conversazionale che verrà integrato con Google Search. Questo li renderà più vicini alle fonti e agli utenti. Oggi non credo ci siano discussioni sui costi da parte di OpenAI: ricordiamoci che grazie ai milioni di utenti che utilizzano ChatGPT stanno raccogliendo molti dati, nuove conversazioni che verranno utilizzate per allenare e rendere più efficace il sistema. Questo è sufficiente come controparte delle risorse utilizzate. Finirà anche l’utilizzo gratuito? Al momento non si sa ma la riflessione è in corso. 

 

Rubriche