Quando parliamo di Intelligenza Artificiale, spesso immaginiamo una tecnologia neutra, uno strumento utile per personalizzare l’apprendimento, produrre materiali, facilitare l’inclusione. Ma l’IA non è neutra: è lo specchio del mondo che la crea. E qundi, nell’altro senso, è vero anche il contrario: l’Intelligenza Artificiale non crea i problemi ma li eredita dall’essere umano e li rimodella in forma algoritmica. Perciò se il mondo è attraversato da disuguaglianze profonde, l’IA le riflette, le amplifica, talvolta le normalizza.
Nelle aule scolastiche, ad esempio, l’IA può diventare un grande alleato didattico. Può aiutare a differenziare i materiali per studenti con bisogni diversi, può funzionare da tutor personalizzato, può sostenere il docente nell’organizzare contenuti complessi. Ma, come ha ricordato chi studia questi strumenti con sguardo pedagogico, il punto decisivo non è se usare l’IA, ma come usarla. L’IA può sviluppare competenze autentiche solo se guidata da un docente che modella le domande, accompagna il ragionamento, impedisce che lo studente si limiti a chiedere “la risposta giusta” alla macchina. Senza questa mediazione, rischiamo di scivolare in un nuovo comportamentismo digitale: l’illusione che la conoscenza sia un output ben scritto fornito su richiesta. E allora emerge il tema cruciale: di quale IA stiamo parlando? Di quale cultura, di quale sistema di valori, di quali bias essa è portatrice? Una tecnologia costruita su dati che provengono da una società ancora profondamente segnata dalla violenza maschile contro le donne, dal gender gap nel lavoro e nella rappresentazione mediatica, non può che assorbire – spesso inconsapevolmente – le stesse distorsioni. Gli algoritmi di oggi imparano da testi, immagini, statistiche prodotte in un contesto in cui il femminicidio non è un incidente, ma il punto estremo di una struttura culturale che ancora non mette sullo stesso piano uomini e donne. E non si tratta solo di casi limite. Lo vediamo nella ricerca: IA che descrivono le donne con termini più emotivi e meno professionali rispetto agli uomini, algoritmi che associano ruoli di cura al femminile e ruoli scientifici al maschile, sistemi di riconoscimento facciale meno accurati sui volti femminili, bias nelle selezioni del personale automatizzate. Tutto questo non è un problema tecnico: è un problema culturale.
Se l’IA riflette la cultura che la alimenta, allora la scuola è il primo luogo in cui quella cultura può diventare oggetto di lettura critica, decostruzione, trasformazione.
Una scuola che insegna a interrogare l’IA insegna anche a interrogare la realtà. Una scuola che educa a riconoscere un bias algoritmico educa a riconoscere i bias sociali che normalizzano la violenza di genere. Una scuola che insegna a “non farsi usare” dalla tecnologia educa a non accettare passivamente le narrazioni che la società propone sui ruoli, sui poteri, sulle identità.
E allora il punto non è avere paura della tecnologia.
Il punto è costruire una scuola, ma soprattutto una società, capace di guardare l’IA per quello che è: uno specchio. Un amplificatore. Un’occasione.
Un’occasione per ripensare il modo in cui educhiamo, il modo in cui rappresentiamo il mondo e, in definitiva, il modo in cui lo vogliamo cambiare.
Il 25 novembre ricorre la Giornata internazionale per l'eliminazione della violenza contro le donne. Da qualche mese il governo italiano ha riconosciuto il femminicidio come reato autonomo, punito con l'ergastolo. Un passo avanti che rischia di rimanere privo di significato se non si investe in prevenzione, formazione, educazione. Che è già privo di significato se allo stesso tempo viene fatto divieto esplicito di svolgere attività di educazione sessuo-affettiva nella scuola dell’infanzia e nella scuola elementare e viene concesso nella scuola superiore solo dopo il consenso esplicito firmato dalle famiglie. Non possiamo più fare un passo avanti e dieci indietro. Non ci è più concesso, non ci è più perdonato. Non oggi che, dati alla mano, viene uccisa una donna ogni tre giorni.
Come sempre, noi speriamo di essere di ispirazione per tutti voi. E vi auguriamo buona lettura.
Difendere la natura normativa e pedagogica delle Indicazioni Nazionali per difendere la scuola dell’autonomia e della Costituzione.
Dal paradigma della complessità alla disintermediazione digitale: come l’IA sta trasformando cultura, scuola e intelligenza didattica.
Dall’aula al digitale: strategie per un uso consapevole e critico dell’I ntelligenza Artificiale nella pratica didattica.
Opportunità, rischi e nuove sfide per il metodo scientifico.
Come i sistemi di apprendimento automatico consolidano le disuguaglianze nella rappresentazione dei ruoli di genere e cosa possiamo fare per cambiare le cose.
L’intervista a Donata Columbro che, nel suo ultimo libro, spiega perché contare i femminicidi è una questione di potere e di resistenza.