Negli ultimi anni, sotto gli occhi di tutti, l’intelligenza artificiale ha conosciuto una diffusione massiccia e accelerata, probabilmente senza precedenti rispetto ad altre tecnologie, investendo settori tra loro eterogenei.
L’integrazione dell’intelligenza artificiale nelle istituzioni scolastiche, e più in generale nei contesti educativi, segna con ogni probabilità l’apertura di un capitolo nuovo nell’evoluzione dell’istruzione. L’interesse crescente per tecnologie che promettono di migliorare insegnamento e apprendimento impone una riflessione profonda, capace di coniugare dimensione normativa, scientifica e pedagogica. È l’avvio di una fase che chiede alle scuole un impegno organico di formazione diffusa, alfabetizzazione critica e confronto a livello collegiale; soprattutto, chiede di restituire alla scuola il suo ruolo di laboratorio permanente, non mero luogo di adozione di strumenti, esercitando fino in fondo l’autonomia di ricerca, sperimentazione e sviluppo prevista dall’ordinamento, così da orientare le scelte didattiche e organizzative in modo consapevole, responsabile e coerente con la propria identità educativa.
A livello europeo, sul versante educativo, il percorso programmatico prende recentemente forma nel 2022 con la pubblicazione da parte della Commissione delle Ethical Guidelines on the Use of Artificial Intelligence and Data in Teaching and Learning for Educators, che traducono in consapevolezza operativa e in adozione didattica principi poi recepiti, in via generale, nell’armonizzazione regolatoria europea culminata nel Regolamento (UE) 2024/1689 (meglio noto come “AI Act”), approvato nel 2024.
L’AI Act, fondato su una valutazione graduata del rischio, esclude espressamente pratiche manipolative o discriminatorie, come i sistemi di punteggio e classificazione sociale o personale, e impone trasparenza, tracciabilità e supervisione umana.
Per i sistemi educativi europei, le Linee Etiche del 2022 fissano alcuni capisaldi: centralità dell’agire umano, equità, corretta governance dei dati, consapevolezza, responsabilità e rendicontabilità delle decisioni algoritmiche.
In tale prospettiva, i ministeri competenti in materia di istruzione dei Paesi membri sono chiamati a tradurre i principi dell’AI Act in indirizzi e politiche didattiche coerenti, ponendo al centro l’etica e la persona come misura di ogni innovazione.
In Italia, l’attuazione di tali principi ha trovato un passaggio decisivo nel Decreto ministeriale n. 166 del 9 agosto 2025 (con linee guida allegate diffuse a fine agosto 2025), che introduce le Linee guida per l’uso consapevole dell’intelligenza artificiale a scuola. Tali Linee guida, in continuità con altri documenti di indirizzo del Ministero, pongono la “centralità della persona” e ribadiscono che l’intelligenza artificiale non sostituisce la relazione educativa, ma la sostiene.
In seguito (solo temporalmente) all’adozione delle Linee guida del Ministero dell’Istruzione e del Merito, e su un piano distinto, più ampio e generale rispetto a esse, il Parlamento Italiano ha approvato la Legge n. 132 (Disposizioni e deleghe al Governo in materia di intelligenza artificiale) del 23 settembre 2025, entrata in vigore il 10 ottobre, al termine di un iter che ha visto l’accoglimento di alcuni emendamenti e il rigetto di altri. Le due iniziative condividono il riferimento all’AI Act, ma non sono direttamente consequenziali: la legge offre un quadro nazionale organico e generale sull’intelligenza artificiale, autonomo rispetto al decreto ministeriale, volto a tradurre in disposizioni generali i principi europei.
L'IA e i diritti fondamentali della persona
La Legge 132/2025, pur bisognosa di ulteriori norme attuative, va oltre una semplice “ratifica” dell’AI Act. Inserisce disposizioni articolate nei settori del diritto d’autore, della responsabilità penale e civile, dell’organizzazione della governance nazionale e del sistema di vigilanza. Disciplina ricadute su diritti fondamentali, affrontando temi quali il web scraping (raccolta automatica di dati sul web), l’opacità delle “black box” algoritmiche e la formazione dei modelli di addestramento. Nel diritto d’autore conferma il primato dell’autorialità umana nelle opere generate con l’ausilio dell’intelligenza artificiale, escludendo che algoritmi o tecnologie possano rivendicare diritti autonomi. Interviene inoltre sul codice civile e sul codice di procedura civile per contemperare l’impiego dell’IA con i principi del giusto processo e la tutela dei diritti individuali. Sul piano penale tipizza condotte relative alla diffusione illecita di contenuti generati o alterati con IA e a manipolazioni digitali, inclusi i deepfake. Resta, tuttavia, aperto un nodo concettuale e giuridico: come qualificare le offese quando l’oggetto della rappresentazione non è una persona reale ma una “identità sintetica”, cioè una figura umana inesistente ricreata artificialmente? Si pensi, per esempio, a contenuti illeciti che raffigurano un minore che nella realtà non esiste: in un caso del genere, come si configura un reato “contro la persona” se la persona raffigurata è fittizia, immaginaria? La questione non è meramente teorica, poiché tocca la linea di confine tra tutela della dignità, ordine pubblico, protezione dei minori e tipicità delle fattispecie, e suggerisce possibili ulteriori chiarimenti legislativi o interpretativi giurisprudenziali.
La legge, dunque, delinea una visione d’insieme che non si limita al settore educativo, ma abbraccia aspetti strutturali, etici e di tutela dei diritti che l’intelligenza artificiale porta con sé. Dal punto di vista operativo per la scuola, in quanto Pubblica Amministrazione, la L. 132/2025 rafforza alcune disposizioni del DM 166 richiedendo trasparenza, responsabilità e valutazioni d’impatto sui diritti fondamentali, e delega al Governo ulteriori interventi attuativi, coordinamento con le autorità nazionali sull’intelligenza artificiale e meccanismi di vigilanza.
In un quadro così articolato e in rapida evoluzione, le istituzioni, comprese quelle scolastiche, non devono restare soggetti passivi dell’innovazione tecnologica, ma farsi attori consapevoli, dotati delle competenze necessarie a governare l’adozione dell’intelligenza artificiale in coerenza con i diritti e con le finalità educative.
L'IA e le finalità educative della scuola
La dimensione educativa è il luogo in cui queste norme si incarnano, si intrecciano. Studi internazionali mostrano che l’intelligenza artificiale è già parte integrante dell’esperienza quotidiana degli studenti: circa il 70% dichiara di utilizzare sistemi di intelligenza artificiale almeno occasionalmente nello studio autonomo, mentre il 6% li impiega con continuità. Accanto ai benefici emergono preoccupazioni rilevanti: accuratezza delle informazioni, etica d’uso, impatto sulle relazioni educative.
Gli studenti, in molti casi, dimostrano competenze operative superiori a quelle dei loro insegnanti: sanno fare prompting, cioè formulare richieste efficaci alle IA generative, e individuare rapidamente quale strumento risponde meglio a un compito o a una disciplina. Tuttavia, spesso non possiedono le chiavi critiche per distinguere il falso dal vero, riconoscere le “allucinazioni” algoritmiche o comprendere che la qualità di una risposta dipende dalle fonti che hanno alimentato il sistema. Per questo il ruolo del docente diventa ancor più centrale: orientare, guidare, accompagnare, insegnare a discernere e a riflettere criticamente.
Il ruolo dei docenti e la loro formazione
Come evidenziato dal progetto europeo PAIDEIA nel 2024, tra i docenti persiste una carenza diffusa di AI literacy, intesa come insieme di competenze per comprendere, valutare e utilizzare l’IA in modo didatticamente efficace. Il rapporto invita a promuovere percorsi di formazione fondati su consapevolezza, trasparenza, inclusione e responsabilità etica. Sul piano teorico è utile ricordare che i principi del machine learning (la tecnica alla base di molti sistemi di IA) presentano corrispondenze con le teorie dell’apprendimento, dall’approccio comportamentista centrato sul rinforzo al costruttivismo che valorizza la costruzione autonoma del sapere. In termini pedagogici ciò rinvia alla teoria della Zona di Sviluppo Prossimale di Lev Vygotskij, entro la quale l’IA, se correttamente impiegata e guidata dai docenti, può operare come tutor adattivo, personalizzando i percorsi formativi.
La formazione e l’aggiornamento continuo del corpo docente italiano sono imprescindibili. Non basta la semplice alfabetizzazione digitale: servono riflessione metodologica, pedagogica e valutativa, costruzione di comunità di pratica, confronto collegiale e interdisciplinare. Oggi il divario non corre più soltanto tra chi ha o non ha accesso alla tecnologia, ma tra chi la sa usare e chi la subisce.
In molte scuole il divario più evidente è tra studenti e docenti, spesso a vantaggio dei primi, che maneggiano tecnologie, strumenti e comandi con maggiore disinvoltura. La scuola deve riconoscere questa asimmetria e trasformarla in occasione formativa, riaffermando il ruolo del corpo docente, sia nella collegialità che nell'esercizio didattico individuale, come interprete critico e garante della qualità e della veridicità dell’informazione e della conoscenza. Occorrono consapevolezza, studio, disponibilità a mettersi in discussione e a sostenere un confronto sistematico, perché l’IA non è materia per soli tecnici: riguarda metodo, valutazione, didattica ed etica, ed è una competenza trasversale a ogni disciplina.
Affinché la formazione sia all’altezza della sfida, servono più risorse e una migliore organizzazione dei tempi. I percorsi formativi non dovrebbero dipendere soltanto da fondi aggiuntivi ed episodici, né essere ricavati comprimendo il monte ore funzionali contrattuale dei docenti: così si riducono gli spazi di collegialità proprio mentre questo cambiamento, dovuto anche all’intelligenza artificiale, richiederebbe maggiore confronto. Se la formazione, necessaria e deliberata dalle istituzioni scolastiche autonome, diventa obbligatoria, non può che svolgersi in servizio con adeguato sostegno economico. Sono quindi necessari finanziamenti stabili per garantire qualità e continuità, riconoscimento professionale e tempi distesi, lavoro collegiale, tutoraggio tra pari e accompagnamento metodologico, così da rendere la formazione strutturale e permanente all’interno delle scuole.
In queste condizioni la scuola può governare l’innovazione, non inseguirla, facendo dell’intelligenza artificiale un’occasione di crescita e non un fattore di diseguaglianza. Il tema riguarda direttamente l’equità: dotarsi di competenze adeguate è indispensabile per evitare che si allarghino i divari tra studenti che provengono da contesti familiari in grado di supportare la formulazione delle richieste, controllare e interpretare le risposte, e studenti, spesso più fragili, che vi si affidano come unica àncora o che non dispongono di un adeguato supporto domestico.
Il nodo della valutazione
Resta inoltre aperta la questione della valutazione: come giudicare l’apprendimento quando il prodotto finale può essere generato artificialmente con facilità da una macchina? Una risposta resta nell’applicazione attenta delle norme: oggetto della valutazione è il processo di apprendimento. Occorre valorizzare il percorso più del risultato, la richiesta e l’analisi più della risposta, adottando una docimologia capace di leggere il ragionamento, la qualità delle richieste e le scelte operate, non soltanto l’elaborato, o il compito conclusivo restituito.
Accanto a tutto questo emergono altre riflessioni: la consapevolezza degli equilibri geopolitici, scientifici e tecnologici connessi alle tecnologie di IA; gli impatti sugli assetti globali; gli effetti ambientali ed energetici delle infrastrutture digitali; la necessità di comprendere e contrastare i bias, ossia i pregiudizi di genere e razziali che possono insinuarsi nei sistemi e nei contenuti prodotti.
Il cammino è lungo e complesso, ma ineludibile: richiede un approccio etico, collegiale e condiviso da parte dell’intera comunità educante. Dal 2022 a oggi il quadro è mutato rapidamente: alla diffusione esponenziale dell’intelligenza artificiale si sono affiancate le linee etiche europee per l’istruzione, l’AI Act, il Decreto Ministeriale 166 del 9 agosto 2025 con le relative linee guida e, da ultimo, la Legge n. 132 del 23 settembre 2025, in vigore dal 10 ottobre.
Una sfida tutta umana
La scuola è al centro di questa trasformazione e deve rispondere con competenza e consapevolezza, non rincorrendo le tecnologie ma orientandone l’uso. La sfida dell’intelligenza artificiale non è tecnologica: è anzitutto umana. Si tratta di evidenziare il senso dell’apprendimento, garantire equità, formare cittadini consapevoli e liberi. Senza consapevolezza rischiamo di smarrirci nel riflesso seducente delle tecnologie; con una rotta chiara, ispirata dal mandato costituzionale dell’istruzione, che affida alla scuola il compito di offrire a ciascuno, in base alle proprie capacità, opportunità reali di apprendere e di rimuovere gli ostacoli al pieno sviluppo della persona, l’orizzonte resta visibile.
Nota dell'autore.
Affinché l’etica nell’uso dell’intelligenza artificiale non resti un mero mantra proclamato, è opportuno dichiarare, senza reticenze né timori, l’eventuale impiego di sistemi di intelligenza artificiale nel nostro lavoro quotidiano; si precisa pertanto che parti del presente scritto – in particolare il confronto dei dati nelle pubblicazioni scientifiche consultate, il confronto sui testi normativi analizzati e la revisione dell’interpunzione dell’intero testo – sono state supportate da sistemi di intelligenza artificiale generativa, la cui esplicitazione costituisce un piccolo passo di un approccio etico.
Quadro europeo e documenti istituzionali
Quadro nazionale (Italia)
Commenti e rassegne giuridiche
Ricerche e letteratura scientifica su IA ed educazione