La rivista

Ricerca bene comune

RICERCA ACCADEMICA E INTELLIGENZA ARTIFICIALE: LUCI E OMBRE

L’utilizzo dell’Intelligenza Artificiale nell’ambito della ricerca accademica rappresenta una importante svolta e una profonda revisione dei processi che caratterizzano il panorama scientifico contemporaneo. L’IA, sia come insieme di tecniche e modelli capaci di attingere da una mole enorme di dati, sia nel suo aspetto generativo di inferenze autonome, sta ridisegnando il perimetro degli strumenti della conoscenza e la modalità di validazione dei prodotti accademici. Essa si configura non soltanto come un ausilio tecnico, bensì come un agente che contribuisce alla ridefinizione stessa del metodo scientifico.

Applicazioni e opportunità

L’IA ha iniziato ad essere applicata anche in campo accademico, con lo scopo di velocizzare i lavori di ricerca e scrittura, attività principali per coloro che si occupano di ricerca.

Non solo, di recente l’IA è stata inserita come supporto a studenti e docenti, ne è un esempio Multilearn, una chatbot potenziata sviluppata da Multiversity insieme a Open AI. Negli atenei telematici del gruppo Multiversity (Pegaso, Universitas Mercatorum, San Raffele di Roma) l’IA fornisce un aiuto personalizzato agli studenti, come una sorta di tutor disponibile 24 ore su 24. Tuttavia, l’uso dell’Intelligenza Artificiale da parte delle università telematiche che rispondono a un modello profit e hanno un rapporto docenti/studenti di molto superiore rispetto alle Università tradizionali potrebbe rischiare di cadere in un uso distorto di questa tecnologia, ad esempio affidando a essa lezioni ed esami.

Nelle scienze empiriche, l’applicazione di algoritmi consente di elaborare quantità di dati di ordine superiore rispetto alle capacità umane, individuando connessioni e correlazioni non immediatamente evidenti, o per i quali l’individuazione richiederebbe molto tempo in più.

Ma, l’impatto dell’intelligenza artificiale si estende anche alle discipline umanistiche e sociali con l’analisi automatica di vasti corpora testuali, l’approccio quantitativo alla linguistica, individuando strutture semantiche in larga scala e alla critica letteraria.

L’uso di ChatGPT, un software sviluppato da Open AI, può rendere la ricerca più veloce ed estendersi a molte azioni che possono essere automatizzate, come il riassunto di articoli e documenti, la rapida risposta a domande precise, la traduzione di testi in un’ampia quantità di lingue.

L’Intelligenza Artificiale generativa si configura, quindi, come uno strumento potenzialmente utile per gli accademici, che permette di risparmiare tempo nelle attività più meccaniche e ripetitive e di concentrarsi invece sull’aspetto più creativo e analitico del proprio lavoro[1]

Se tale utilizzo non va di per sé demonizzato e può presentare vantaggi per il lavoro degli accademici, è necessario però porsi alcune fondamentali domande sull’effettiva opportunità del suo utilizzo[2].

Regole, etica e trasparenza

In questi giorni l’Italia ha approvato la prima legge nazionale sull’intelligenza artificiale, 132/2025 “Disposizioni e deleghe al governo in materia di intelligenza artificiale". La legge integra il Regolamento europeo 2024/1689 (c.d. AI Act) pubblicato il 12 luglio 2024 sulla Gazzetta ufficiale dell’Unione Europea, il primo atto normativo sull’utilizzo dell’Intelligenza Artificiale, volto a favorire lo sviluppo e l’adozione di sistemi di IA sicuri e affidabili nel mercato unico dell’UE e allo stesso tempo assicurare il rispetto dei diritti fondamentali dei cittadini[3]. La legge si pone l’obiettivo di promuovere un uso etico e responsabile dell’IA cercando, nel suo uso, di garantire trasparenza, accessibilità e protezione dei dati. Anche in ambito accademico i rischi nell’uso di tale strumento sono innumerevoli. Innanzitutto, i ricercatori devono responsabilmente fornire dati veritieri e non distorti, ciò determina una puntuale verifica della veridicità delle informazioni. L’utilizzo dell’Intelligenza Artificiale generativa in campo accademico fa sorgere comunque delle preoccupazioni legate in particolare alla trasparenza della ricerca. Parte della dottrina ha evidenziato l’importanza di assicurare che, nell’ambito della ricerca e delle pubblicazioni scientifiche, queste tecnologie vengano usate in modo responsabile ed etico: ricercatori, editori e sviluppatori di modelli di IA generativa dovrebbero infatti collaborare per stabilire delle linee guida volte ad assicurare un uso etico, trasparente e responsabile di queste tecnologie. Pertanto, se il manoscritto generato dall’IA includesse dati o contenuti di terze parti, dovrebbe esserne data corretta attribuzione, al fine di rispettare la normativa in materia di diritto d’autore[4].

Uno dei problemi che si potrebbero creare è quello che riguarda la proprietà intellettuale delle informazioni fornite dai sistemi di IA generativa: ci si chiede se in realtà gli sviluppatori di AI abbiano ottenuto o meno l’autorizzazione per i contenuti utilizzati.

Altro aspetto da considerare è quello della paternità dei testi. Per essere riconosciuti come autori o coautori si deve aver preso parte al processo di scrittura.

L’utilizzo dell’Intelligenza Artificiale nella redazione di un testo per una rivista scientifica come si pone, quindi, per tale riconoscimento?

Sfide e prospettive

L’impiego di un’ampia quantità di dati per addestrare i sistemi di IA generativa comporta, inoltre, il rischio di includere anche informazioni non corrette, con la possibile conseguenza di diffondere disinformazione, peraltro anche attraverso testi che dovrebbero avere una certa autorevolezza.

In più, la concentrazione delle risorse tecnologiche in pochi centri di potere economico e accademico può accentuare le disuguaglianze nell’accesso alla conoscenza. Tali problematiche richiedono l’elaborazione di una governance della ricerca basata su principi di equità, trasparenza e responsabilità.

Quindi se l’utilizzo dell’IA in ambito accademico è sicuramente utile per efficienza e produttività, non sempre è fonte di garanzia per quanto riguarda la veridicità e l’accuratezza delle informazioni, così come è ancora da chiarire tutta la questione legata al diritto d’autore e all’attribuzione della paternità dell’opera.


[1]B.D. Lund-T. Wang, Chatting about ChatGPT: how may AI and GPT impact academia and libraries?, in Library hi tech news, 40(3), 2023, 27.

[2] Martina Iemma, in Media Laws, Rivista di diritto dei media, numero speciale I-2024

[3] Regolamento (UE) 2024/1689 del Parlamento Europeo e del Consiglio, 13 giugno 2024, pubblicato in GUUE il 12 luglio 2024. L’AI Act è una proposta di regolamento presentata dalla Commissione Europea il 21 aprile 2021, con lo scopo di instaurare un quadro normativo armonizzato per l’Intelligenza Artificiale nell’Unione Europea; è stato approvato il 13 marzo 2024 dal Parlamento Europeo ed è stato approvato in via definitiva dal Consiglio dell’Unione Europea il 21 maggio 2024; pubblicato in GUUE il 12 luglio 2024, con entrata in vigore il 2 agosto 2024.

[4] Martina Iemma, in Media Laws, Rivista di diritto dei media, numero speciale I-2024

L'autore

Tuscia Sonzini

Rappresentante personale tecnico amministrativo CUN