Chi siamo
L’INTELLIGENZA ARTIFICIALE VA A SCUOLA?
In diretta su Famiglia Cristiana
Organizzato da Compagnia delle Opere (educazione)
Emanuele Frontoni, professore di Informatica Università di Macerata e co-director VRAI (Vision Robotics & Artificial Intelligence Lab); Pier Cesare Rivoltella, professore di Didattica e Tecnologie dell’educazione, Università di Bologna, fondatore e presidente della SIREM (Società Italiana di Ricerca sull’Educazione Mediale). Modera Paolo M.G. Maino, dirigente scolastico e responsabile formazione Associazione Di.S.A.L.
L’intelligenza artificiale sta già cambiando le modalità di lavoro nelle scuole e può aiutare gli insegnanti a rispondere alle necessità dei discenti. Quale l’impatto ha la tecnologia – mediata dall’IA – sulla capacità di studiare, di ragionare e di sviluppare il pensiero critico degli studenti? Qual è la sfida cui dirigenti scolastici, educatori e studenti sono chiamati?
L’INTELLIGENZA ARTIFICIALE VA A SCUOLA?
L’INTELLIGENZA ARTIFICIALE VA A SCUOLA?
Giovedì 22 Agosto 2024 ore 18:00
Arena CdO C1
Partecipano:
Emanuele Frontoni, professore di Informatica Università di Macerata e co-director VRAI (Vision Robotics & Artificial Intelligence Lab); Pier Cesare Rivoltella, professore di Didattica e Tecnologie dell’educazione, Università di Bologna, fondatore e presidente della SIREM (Società Italiana di Ricerca sull’Educazione Mediale).
Modera:
Paolo M.G. Maino, dirigente scolastico e responsabile formazione Associazione Di.S.A.L.
Maino. Benvenuti a questo incontro che ripone sul tavolo della nostra attenzione un oggetto che ha realmente sconvolto tanti aspetti della nostra vita all’interno delle scuole. Lo dico soprattutto per degli aspetti anche un po’ minuti. La domanda che ci poniamo di fronte all’intelligenza artificiale, ad esempio, è che senso ha dare una ricerca da fare a scuola? Perché un tempo i nostri ragazzi dovevano fare almeno la fatica di fare un copia e incolla da Wikipedia e magari tagliare qualcosa. Adesso, con l’intelligenza artificiale, si può porre la domanda e in pochi secondi avere un saggio di tot cartelle o tot caratteri ben definito. Si può anche chiedere all’intelligenza artificiale – io l’ho fatto – di scrivere il testo come un ragazzo di 15-16 anni, o di 14 anni, o di 12 anni, quindi anche fare un testo che sia adattato all’età di chi dovrebbe consegnare quel compito. Quindi oggi, in questo incontro che è organizzato da varie associazioni: Disal (Dirigenti scolastici scuole autonome e libere), DS (Didattica e innovazione scolastica), l’Associazione Rischio Educativo, la FOE, cioè la CDO Opere Educative, e che è ospitato qui nell’Arena CDO, abbiamo voluto porre come argomento “L’intelligenza artificiale va a scuola”. In realtà, in parti dei programmi c’è anche un punto di domanda: “L’intelligenza artificiale va a scuola?” È una domanda giustamente aperta e oggi sono molto contento di poterne discutere assieme con Emanuele Frontoni, qui alla mia sinistra, che è professore di informatica all’Università di Macerata e co-direttore del Vision Robotics and Artificial Intelligence Lab (VRAI), con cui appunto cercheremo di capire che cosa sia l’intelligenza artificiale e cercheremo anche di capire che tipo di applicazioni nel campo educativo possiamo approcciare nel nostro lavoro. E lo faremo anche con Pier Cesare Rivoltella, qui dopo Emanuele Frontoni. Pier Cesare Rivoltella è professore di didattica e tecnologia dell’educazione presso l’Università di Bologna ed è fondatore e presidente della Società Italiana di Ricerca sull’educazione mediale, la cui sigla è SIREM. Come dicevo, da quando, in modo particolare, nel novembre del 2022 è stata rilasciata in versione open ChatGPT, il mondo del digitale ha sicuramente subito uno scossone. Questo l’ho capito dopo un po’ di mesi; l’abbiamo subito noi fruitori medi, cioè non tanto chi mastica, come il professor Emanuele Frontoni, da tanti anni di informatica e che quindi da tanti anni sa che cos’è l’intelligenza artificiale. Per me, fino a ChatGPT, era qualcosa che avevo letto in qualche racconto di fantascienza di Isaac Asimov e poco altro. Trovarsi di fronte a un generatore di testi o a un generatore di immagini come MidJourney o anche a generatori video che in pochi secondi restituiscono un risultato che pare oggettivamente creato ex novo da un’intelligenza ci ha oggettivamente stupito. Ci ha stupito, ci ha scandalizzato, ci ha preoccupato. Ci sono anche evidentemente delle implicazioni di carattere sia legale, se vogliamo, ma anche di correttezza formale nella creazione di immagini o testi che in realtà prendono da testi preesistenti, molti dei quali possono anche essere protetti da copyright, per cui ci sono anche problematiche di tutti questi tipi. E quello che ci ha subito interessato nel dialogo con le varie associazioni è che, come dicevo, il tema ha toccato subito da vicino la scuola. E oggi, passati dei mesi, e forse anche già dentro una certa parabola discendente rispetto alla novità portata dall’intelligenza artificiale, è interessante chiedersi che cosa nella nostra quotidianità di uomini di scuola, di docenti, dirigenti scolastici, e che cosa nella quotidianità degli studenti, delle famiglie, tra gli studenti può cambiare o apportare di cambiamento l’utilizzo degli strumenti dell’intelligenza artificiale. Un primo terreno comune: pongo la prima domanda a Emanuele Frontoni, e cioè che cos’è l’intelligenza artificiale o meglio, in che cosa è intelligente l’intelligenza artificiale? Perché alcuni criticano proprio l’aggettivo “intelligente”, tra gli altri anche Chomsky è scettico sul dare questo aggettivo a questi strumenti di generazione di video ed immagini. A te, Emanuele.
Frontoni. Grazie, Paolo, e grazie a tutte e a tutti. Hai detto bene su due fronti. Da un lato, non possiamo dire che tutto ciò che oggi vediamo è nato nel novembre del 2022 con l’arrivo di ChatGPT, perché alcuni di noi si occupano di questa materia da vent’anni e non è che a un certo punto lo Spirito Santo è calato su di noi e ha portato questa innovazione. Dobbiamo quindi tenere in forte considerazione tanta storia che va oltre GPT. L’altro giorno, prima l’ho vista, c’era Mila qui tra noi che organizza il villaggio Ragazzi e con loro abbiamo parlato di tutto ciò che c’è oltre nel mondo dell’intelligenza artificiale. Sono altrettanto d’accordo con te e con tanti altri, che questo termine è spesso fuorviante e anche noi che lavoriamo da vent’anni su questo tema vivremmo molto più tranquilli se tutto si chiamasse “machine learning”, apprendimento di macchina, perché sarebbe tutto molto più tranquillo nella trattazione. Però non ci libereremo mai dal fascino dell’intelligenza artificiale. Un fascino che esiste dal ’56, da quando iniziammo a discutere dei primi concetti con McCarthy, grandi pensatori. Non c’era un computer e già si pensava a questo strumento che sarebbe stato capace di fare tutto ciò che l’uomo sa fare. E qui arrivo alle attenzioni anche didattiche. Mi raccomando, questa di stasera deve essere una santa alleanza tra tutti noi nel cercare di comunicare bene questo mondo, perché stiamo subendo tantissimi temi e il vostro punto interrogativo alla fine del titolo secondo me è perfetto e quantomai corretto. Noi non sappiamo nulla, non abbiamo alcuna evidenza scientifica della cosiddetta intelligenza artificiale generale, quella che sa fare tutto ciò che l’uomo sa fare. Togliamoci dalla testa: non esiste nessun meccanismo che riesca a fare tutto ciò che l’uomo sa fare. E la frase “sa fare tutto ciò che l’uomo sa fare” è una frase molto impegnativa, mentre sappiamo fare bene alcune cose molto specifiche che chiamiamo intelligenza artificiale ristretta e dentro quelle cose specifiche sappiamo, a volte scriviamo nei nostri articoli, avere “superhuman capabilities”, cioè avere delle capacità superiori a quelle dell’uomo ma solo in quel settore. Cioè, se io so riconoscere i nei benigni da quelli maligni, so riconoscere solo quello con quell’algoritmo e quell’algoritmo non è buono a fare didattica, non sa scrivere testi, non guida una macchina, non prende decisioni. Allora, dobbiamo preoccuparci di questo? Credo di no, dobbiamo occuparcene moltissimo, ma non partendo da una posizione di spavento e di paura. E il Meeting di quest’anno ha ripetuto e ripetuto questo messaggio: dentro la comprensione e la consapevolezza della non esistenza di un’intelligenza artificiale generale, se volete, c’è anche una certa tranquillità. Non è vero che ci estingueremo tra tre anni per colpa dell’AI o che verranno sostituiti tutti i nostri lavori e capacità per colpa dell’AI. Questa è una narrazione drammatica, non tanto se fatta tra noi, ma se fatta verso ragazzi molto più giovani che sono nelle nostre classi. E su questo, secondo me, dobbiamo un po’ impegnarci. Allora, per chiudere la risposta a questa domanda, l’alleanza è nel dirci chiaramente che non esiste nessun algoritmo, neanche ChatGPT, che pur se sembra sapere scrivere di tutto, sa solo scrivere, sa solo fare previsioni della prossima parola, del prossimo token più probabile da scrivere in quella frase. E la consapevolezza e l’alleanza sono anche nel dire che questi sistemi sbagliano. Se uno dei miei studenti o un mio ricercatore venisse da me dicendo “il nostro sistema è affidabile al 100%”, la mia risposta sarebbe: “torna a controllare, perché abbiamo sbagliato qualcosa”. Sono sistemi probabilistici, per forza hanno un contenuto di errore. Pensate che abbiamo dovuto inventarci un termine nuovo che si chiama “allucinazione” per dire che a volte questi sistemi sbagliano in maniera talmente grossolana che un essere umano non farebbe mai. Ero con Daniela Lucangeli in un evento congiunto, ho scritto: “mi scrivi chi è Daniela Lucangeli?” Mi ha detto: “Daniela Lucangeli è morta in un incidente nel 2020”. E lei era seduta, viva invece, di fianco a me. Era sbagliato? No, perché era reperibile, una frase credibile, perché una certa Daniela Lucangeli era morta in un incidente stradale. Lui non sa disambiguare, nessun algoritmo ha coscienza semantica su ciò che produce. Qual è la conseguenza di questo? Che o educhiamo a una posizione critica nel vero senso della parola rispetto ai risultati di questi sistemi o anche noi stessi siamo morti di fronte a tutto questo. Per farlo, dobbiamo essere curiosi, e dopo ci tornerò su questo: abbiamo un sacco da studiare.
Maino. Poste queste definizioni, pongo una seconda questione introduttiva a Pier Cesare Rivoltella. Da sempre, Rivoltella è stato incuriosito dagli strumenti digitali applicati al contesto della scuola. E quello che mi colpisce, soprattutto in questi ultimi anni in cui ho avuto anche la fortuna di poter seguire alcune delle sue ricerche e condividere l’organizzazione di alcune proposte per le scuole, è il fatto che il punto di vista con cui Rivoltella guarda il digitale è sintetizzabile in questa domanda: come gli strumenti digitali possono supportare una pedagogia che rimetta al centro la relazione docente-studente? Userei qui una parola che è cara a tanti di noi che frequentano tutti gli anni il Meeting di Rimini, cioè in che modo l’intelligenza artificiale può aiutare perché si creino le condizioni, perché l’educazione possa, almeno come desiderio, essere un avvenimento per il docente e per lo studente. Allora, come domanda introduttiva a Rivoltella, chiedo: cosa vuol dire per voi in università, e qui mi prendo soltanto un minuto per dire che era stata invitata insieme a Rivoltella Chiara Panciroli, che collabora con il professor Rivoltella all’Università di Bologna, ma per motivi familiari non è potuta venire. Ma appunto il lavoro che fanno assieme è veramente un lavoro congiunto molto interessante. Dicevo, cosa vuol dire per voi in università lavorare con l’intelligenza artificiale e quali scoperte, quali potenziamenti, quali novità ha introdotto nel vostro lavoro?
Rivoltella. Buonasera a tutti, grazie della domanda, Paolo. Qui Emanuele credo che mi potrà dare ragione. Penso che in questo momento le università italiane si stiano ancora preoccupando molto del problema. Il tempo della sperimentazione probabilmente è ancora molto di là da venire. Però sicuramente qualcosa si sta facendo. Qualcosa si sta facendo almeno in tre direzioni, credo, che possono tracciare anche delle linee di lavoro, non solo per l’università ma anche per la scuola. Prima direzione è quella degli usi organizzativi dell’intelligenza artificiale, ovvero servirsi dei dati e attraverso gli analitici costruire su questi dati previsioni. Ad esempio, quel che c’è da prevedere nel caso dell’educazione non sono i comportamenti di acquisto del consumatore e quindi non è machine learning di mercato che prova ad orientare gli acquisti, ma ad esempio se i dati che io conosco sono gli esami che il mio studente ha dato o non ha dato, sono determinate difficoltà che sono ricorrenti all’interno del mio database, io attraverso l’intelligenza artificiale, grazie all’intelligenza artificiale, posso utilizzare tutti questi dati per predire precocemente che quello studente potrebbe abbandonare. Se io riesco a prevedere in largo anticipo che quello studente, dai suoi comportamenti, potrebbe abbandonare, posso anche mettere in campo tutta una serie di azioni di orientamento o di riorientamento o di supporto emotivo e cognitivo che mi possano consentire di non farlo abbandonare. Su questo primo versante, il grosso impatto con cui fare i conti è una normativa giustamente restrittiva sulla privacy, che però in questa logica e in questa prospettiva d’uso forse bisognerebbe trovare il modo di rendere più morbida, più flessibile, in modo tale da poter avere un accesso informato a questi dati perché evidentemente questo accesso serve a tutto vantaggio dello studente. E questo è soltanto uno degli aspetti di questi usi organizzativi che fanno parte di quella che Alex Pentland, il direttore del Media Lab del MIT di Boston, ha definito “fisica sociale”. Questo studioso, questo signore, ha fondato questa neoscienza, la fisica sociale, che secondo lui manderà in pensione la ricerca quantitativa, perché se riusciamo a lavorare su tutti i dati di un universo non abbiamo più bisogno di campionare nulla e sicuramente quello che riusciremo a dire lavorando sull’intero universo di dati sarà molto più preciso di quello che avremmo potuto dire se ci fossimo basati su un semplice campione. Secondo versante è quello del supporto alla professionalità. Quindi c’è un uso dell’intelligenza artificiale nei sistemi informativi che supporta la professionalità dell’insegnante, che supporta la professionalità del docente. Grazie all’intelligenza artificiale si possono scrivere verbali, grazie all’intelligenza artificiale si può progettare una lezione, si può strutturare un lesson plan, si può predisporre una prova a risposta multipla. Soprattutto grazie all’intelligenza artificiale è possibile immaginare di restituire un feedback personalizzato al singolo studente senza bisogno di dissanguarsi, soprattutto se il numero degli studenti fosse elevatissimo. E quindi è qualcosa dell’intelligenza artificiale che viene a supporto, viene in soccorso della mia professionalità e la aumenta, la potenzia. Il terzo spazio è quello della didattica, è quello degli usi didattici. Si può ricorrere all’intelligenza artificiale in aula e a casa, vi si può ricorrere sia nella didattica ordinaria e qui poi magari qualcosa Emanuele dirà, ha anche degli usi di personalizzazione dell’intelligenza artificiale che significa: io posso addestrare un sistema a conoscere il mio stile di apprendimento, il mio stile cognitivo, il mio lessico e, grazie a questa conoscenza, consentire a questo sistema di restituirmi contenuti e di affiancarmi nell’apprendimento come se io avessi un tutor in carne ed ossa. Quindi personalizzazione, ma non solo personalizzazione: supporto alla produzione, supporto alla creatività e non ci dimentichiamo tutto il grande ambito del supporto alle diverse forme di disabilità. Quindi la capacità dell’intelligenza artificiale di abilitare soggetti con difficoltà delle più disparate è un’opportunità straordinaria di cui possiamo disporre. Che cosa ci consente di utilizzare tutto questo per il bene? E’ l’intelligenza umana. La prospettiva corretta di lavoro con l’intelligenza artificiale è la prospettiva di una collaborazione tra l’uomo e la macchina, dove però non occorre dimenticarsi che la parte qualificante è l’uomo, perché la macchina risponde a quello che l’uomo suggerisce attraverso il prompting, richiede, problematizza e quindi il governo, la gestione, l’indirizzo, l’orientamento di questa partnership a due deve rimanere dalla parte dell’uomo, con delle competenze da formare che sono soprattutto competenze di consapevolezza critica, fondamentali per non cedere alla tentazione di pensare che l’intelligenza artificiale sia un oracolo e che quindi qualsiasi cosa chieda mi risponda in maniera corretta. Non è vero: ci sono le allucinazioni, ci sono i bias, ci sono i pregiudizi, ci sono le precomprensioni, ci sono mille cose che possono alterare la correttezza della qualità della risposta. Senza senso critico si rischierebbe di rimanere inermi vittime di quello che l’intelligenza artificiale pensa di restituirci.
Maino. Grazie. Parto da queste ultime osservazioni che hai fatto, perché in questo secondo giro di interventi vorrei chiedervi di raccontare alcune delle esperienze di ricerca che avete fatto negli ultimi mesi, negli ultimi anni, ovviamente a tema intelligenza artificiale, ma con questa particolare visuale: quali nuove competenze digitali, trasversali – possiamo anche chiamarle soft skills – sono richieste a un docente o a un dirigente per affrontare questa transizione digitale? E inoltre, quali competenze avete visto che si possono attivare nei docenti nel loro insegnamento e negli studenti nel loro apprendimento grazie all’utilizzo dell’intelligenza artificiale? Cedo prima la parola, invertendo l’ordine, al professor Rivoltella e poi immediatamente dopo al professor Frontoni.
Rivoltella. Quello che in maniera molto rapida vi restituisco è il resoconto di una sperimentazione condotta nell’anno scolastico 2023-2024 proprio in collaborazione con l’associazione Disal, una sperimentazione di integrazione dell’intelligenza artificiale dentro il curriculum scolastico. È un lavoro che si basa su una ricerca di modello che abbiamo fatto insieme con dei colleghi del CNR di Palermo, l’Istituto di Tecnologia Didattica del CNR di Palermo, e che ci ha portato a mettere a fuoco un framework che abbiamo battezzato ESLAI Framework, Episodes of Situated Learning Framework, per l’intelligenza artificiale, prendendo spunto dall’acronimo in inglese degli EAS, degli episodi di apprendimento situato. Che cosa abbiamo fatto? Abbiamo coinvolto 27 scuole, su tutto il territorio nazionale, di diversi ordini e gradi. Abbiamo individuato alcune classi target: alcune seconde del primo ciclo e alcune scuole – statali e non statali – di primo e secondo ciclo; classi target di terza e quarta della scuola primaria, secondo anno di scuole secondarie di primo grado e terza e quarta classe di scuole secondarie di secondo grado. Che cosa abbiamo fatto? Abbiamo lavorato con queste scuole secondo un modello di formazione blended che le ha viste impegnate sia in presenza che soprattutto a distanza, seguite però da un coach e con una strutturazione e articolazione di incontri che ha portato gli insegnanti di queste scuole a ritrovarsi per una due giorni iniziale a Bologna in presenza. Era una due giorni che intendevamo realizzare in presenza anche per consentire agli insegnanti e ai dirigenti di incontrarsi, di fare gruppo, di costruirsi come comunità di apprendimento. E poi abbiamo continuato a lavorare tenendoci in contatto con queste classi attraverso dei webinar, naturalmente lasciando che queste classi lavorassero quest’anno sulla microprogettazione, cioè sulla progettazione di lezioni in diverse discipline basate sull’uso dell’intelligenza artificiale, tutte attraverso il ricorso al metodo EAS. Il risultato di questo primo anno di sperimentazione sono più di 120 episodi di apprendimento situati, dalla prima primaria all’ultimo anno della secondaria, completi di tutti i materiali. Uno degli obiettivi che abbiamo in mente è, attraverso una pubblicazione, renderli disponibili. Alcuni di questi in formato cartaceo, la loro complessità online, in modo tale che siano utilizzabili anche da altri insegnanti che non hanno partecipato alla sperimentazione. Dietro a tutto questo lavoro, che cosa c’era? C’è un concetto, quello di cultura dell’intelligenza artificiale, su cui la comunità europea, ad esempio, sta insistendo moltissimo. Non ci interessa anticipare lo sviluppo di competenze informatiche per avere degli informatici in erba già in seconda elementare e prepararli ad uscire in un mercato dove avranno queste competenze. Il tema è quello di sviluppare cultura dell’intelligenza artificiale come dimensione di una cittadinanza consapevole per la società dell’informazione. Nel nostro caso, abbiamo immaginato un framework della cultura dell’intelligenza artificiale che è costruito su quattro dimensioni di literacy che vedete alle mie spalle. C’è sicuramente una dimensione di literacy tecnica: nella nostra cultura dell’intelligenza artificiale non può non far parte il linguaggio, il lessico. Quando Emanuele ci parla di LLM, di Large Language Models, o quando prima faceva riferimento al fatto che ChatGPT non riesce a fare molte cose, e quindi non sa condurre un autoveicolo, ad esempio, mentre invece un sistema di computer vision sa condurre un veicolo. Quel lessico, quel linguaggio, noi dobbiamo conoscerlo. Come dobbiamo sapere che cosa significa quando ci dicono che un sistema è stato addestrato? O quando ci parlano di un dataset? O quando ci dicono che dentro un dataset ci sono informazioni, ci sono regole. Questo è parte di questa prima dimensione fondamentale. Non basta, c’è una seconda dimensione a cui Emanuele faceva già riferimento, che è importantissima: la dimensione critica. Una cultura dell’intelligenza artificiale matura è consapevole criticamente che tutto ciò che l’intelligenza artificiale produce deve essere analizzato, deve essere analizzato esercitando il sospetto, senza cedere alla tentazione di riconoscere all’intelligenza artificiale alcun effetto di autorità. Terza dimensione, terzo elemento, è la dimensione etica, che ha a che fare con la responsabilità. C’è evidentemente una responsabilità degli sviluppatori, perché la fairness, la correttezza dell’algoritmo dipende da come è stato progettato. Se un’intelligenza artificiale risponde in maniera etica, dipende da come è stato costruito il suo dataset, dipende da come è stato condotto il suo addestramento, quindi c’è una responsabilità dello sviluppatore, ma c’è anche una responsabilità dell’utilizzatore. Questa responsabilità in larga parte ha a che fare con gli usi corretti che quell’utilizzatore saprà fare dell’intelligenza artificiale. C’è una quarta dimensione della cultura dell’intelligenza artificiale, secondo me importantissima, che è quella espressiva: occorre imparare ad esprimersi attraverso questi linguaggi, occorre imparare a co-creare testi, immagini, video in maniera non standard, in maniera non stereotipata, in maniera originale e creativa. Su queste quattro dimensioni abbiamo fatto esercitare gli studenti che gli insegnanti della sperimentazione hanno accompagnato lungo quest’anno. L’obiettivo sul prossimo anno scolastico è di passare dal micro al macro e quindi, dopo aver lavorato sul lesson planning, sulla progettazione della didattica in classe, proveremo a lavorare sul curriculum di scuola.
Frontoni. Grazie, troverete molte sovrapposizioni tra alcune delle mie esperienze e quelle di Pier Cesare. Parto da questa immagine, piccola guida: questi dieci minuti saranno alcune lezioni che pensiamo di aver appreso – e dico “pensiamo” perché il punto interrogativo di cui abbiamo parlato prima deve essere comune a tutti – nessuno di noi ha la soluzione a questo problema o la soluzione a questa opportunità, detto in maniera più chiara. Però alcune cose qua e là abbiamo cercato di metterle in fila anche per preparare questo incontro. Quei volti sono i ragazzi del mio laboratorio, quel VRAI che Paolo ha citato prima. Noi siamo sparpagliati tra tante università italiane e un tempo questi ragazzi erano tutti informatici, tutti nerd, quelli che non scrivono in italiano, non parlano, magliette con scritto “I love Linux” e poco altro. Piano piano, l’evoluzione delle AI ha portato anche il nostro laboratorio ad evolvere, ben prima di ChatGPT. E oggi lì in mezzo trovate biomedici, filosofe e filosofi, Christian ha fatto tre anni di filosofia, due anni di Digital Humanities a Bologna e un dottorato di ricerca in informatica. Daniela ha fatto composizione musicale in conservatorio e oggi fa un dottorato in informatica. La nostra migliore prompt designer, cioè colei che scrive quei prompt per chiedere qualcosa nella generazione di testi e di immagini, è una laureata in lettere con una tesi linguistica. Penso che nessuno di voi si stupisca di questo, o almeno spero che nessuno di voi si stupisca di questo, perché quando avete messo le mani la prima volta su ChatGPT non è che vi hanno chiesto “Ok, adesso dammi il codice Python per funzionare”, ma vi hanno detto “Scrivimi qualcosa in linguaggio naturale”. Allora, spero che l’approccio della scuola, dell’università, della comunità educante sarà un approccio molto trasversale, evitando l’errore di dire “Questo è l’animatore digitale, adesso mettiamo anche questa cosa in quel ghetto che si chiama digitale e che lui fa tutto lui, pensa tutto lui, dalla realtà aumentata fino ad attaccare i cavi dei computer, fino all’intelligenza artificiale”. Noi non collaboriamo su progetti che implichino lavori con la scuola nell’informatica, nelle scienze e nella matematica. Vogliamo solo lavorare in collaborazione con le Humanities e adesso vi racconterò un po’ di casi. Altra piccola nota, più per noi che per voi: tutte le volte che immaginiamo percorsi di orientamento che portino i nostri studenti a percorsi iper-specializzati, penso che oggi sia ancora più chiaro che stiamo facendo un enorme danno a quei ragazzi. E tornando agli informatici, scordiamoci anche questa favola, ne abbiamo parlato questa mattina alle 11 con le aziende dell’informatica: probabilmente saranno loro quelli che subiranno di più l’avvento delle AI. Nessuno scrive più codice software senza una finestra di fianco che ha sistemi di generazione di software che lo aiutano a scrivere software, perché il linguaggio naturale è molto più complicato di scrivere in C, in Java o in Python, per chi sa un po’ di queste cose. E quindi tutti questi sistemi scrivono bene, ma che fine faranno tutte queste grandi competenze di sviluppatori software tra tre anni? Non lo possiamo dire noi, né tantomeno possiamo raccontare ai ragazzi di prima media: “No, diventa sviluppatore software perché lavorerai sicuramente tra dieci anni”. Non è vero, è assolutamente non vero. Allora, questa è la prima metafora: che il nostro lab e la migliore prompt designer, lo ripeto, è una laureata in lettere. L’altra metafora è questa, che torna alla consapevolezza. Io ho frequentato quest’anno parecchie scuole. La mattina, 300 ragazzi alla domanda: “Che mi dite di questa immagine?”, questa è un’immagine della protesta degli agricoltori, della protesta dei trattori a Parigi, “Che mi dite di questa immagine? Che dite? È finta?” qualcuno dice. È generata, dovremmo dire, che è sempre finta, però è un po’ diverso. L’ho pubblicata sul mio LinkedIn, ho scritto “Vero o falso?”. Poco dopo sono iniziati i commenti. “Guardate che fighi questi francesi, altro che noi, non siamo neanche riusciti a bloccare la A14 qua di fianco. Queste sì che sono proteste”. E dall’altro lato, un giorno, durante un evento della CNA, dal fondo ha alzato la mano un agricoltore e mi ha detto: “Prof, voi con questa intelligenza artificiale non sapete fare neanche le balle di fieno, perché se guardate quelle lassù in alto sono più alte del trattore”. Chi è quell’agricoltore? È l’esperto di dominio. Noi non possiamo occuparci di questi temi partendo da un unico dominio disciplinare e smettiamola – ma questo lo dico soprattutto all’università – di continuare a parlare dei dipartimenti, dei settori scientifico-disciplinari, di restare chiusi nei nostri settori. Non ce la faremo mai senza approcci molto aperti e molto interdisciplinari. Qual è la preoccupazione? Che i 300 ragazzi del mattino rispondono “Prof, è finta” dopo tre secondi, dieci secondi. I 150 prof del collegio del pomeriggio, quando ripetiamo quella lezione sulla consapevolezza, c’è qualcuno che secondo me sotto sotto sta pensando che è un complotto e che noi stiamo dicendo che è falsamente finta per screditare gli agricoltori francesi. Allora questo non può esistere, adesso io sono molto diretto, la nostra consapevolezza come comunità educante deve essere molto chiara e molto trasparente. Questo l’avete visto, il Papa col Moncler, il Papa… ne abbiamo fatte parecchie. Dall’altro lato, dentro questa inconsapevolezza, a un certo punto il nostro sistema nazionale ha chiuso, unico al mondo, l’utilizzo di GPT-3.5, vi ricordate? La nostra comunità in 48 ore ha creato Pizza GPT, che è quello che vedete là, tutti gli studenti lo conoscono, perché è stato il loro salvavita. Potevano usare ChatGPT anche se era chiuso. Perché lo racconto? Perché in una scuola anche molto famosa di Milano, una mattina sono arrivato e mi hanno detto: “Prof, noi qui abbiamo fatto un gran lavoro. Abbiamo chiuso la rete Wi-Fi, non possono usare ChatGPT, abbiamo chiuso la rete Wi-Fi, non possono usare Photomath per fare i compiti di matematica”. Questa è una follia. Il proibizionismo dell’AI è una follia. Ma vi ricordo che non è che nasce solo in quella scuola, il nostro garante ha provato a fare questa strada. Lì in mezzo c’è un post molto famoso di un collega siciliano che lavora a Oxford che dice: “Da italiano, ve lo dico io perché gli italiani hanno chiuso l’uso di ChatGPT: perché alla domanda ‘possono mettere l’ananas sulla pizza?’, ChatGPT rispondeva ‘Yes, you can’, sì, puoi farlo, e allora ce la siamo presa così a male da chiuderlo”. E guardate che ancora oggi è la risposta più plausibile che io possa darvi. Per dirvi, esagerando un po’, che chiudere la Wi-Fi per non permettere agli studenti di usare questi strumenti, per me è una follia. E spero che lo sia per tutti voi. Perché dobbiamo cercare un po’ di discutere. Dall’altro lato, e vedete, mentre cito queste cose, l’altra metafora è che ci sono un po’ di compiti per casa. Ovviamente spero che ChatGPT o Claude o Copilot li abbiate provati un po’, però se non l’avete fatto, trovate anche un po’ di nomi. Questo è MidJourney, il generatore di immagini. Io posso scrivere, e lì c’è mio figlio che dorme, lui l’ispiratore: “Mi disegni, Babbo, mi disegni Spider-Man?”. Io posso scrivere su MidJourney: “Mi disegni un bambino di 5 anni con i capelli castani chiari che gioca in una cameretta con Spider-Man?” e quella è l’immagine che viene fuori. Ma quell’immagine ha le mani di Spider-Man, non so se riuscite a vederle, che sono completamente sballate. Allora dobbiamo chiederci, quell’approccio critico che ha detto Pier Cesare prima e che abbiamo già citato più volte, e porci le domande: perché ha quelle zampe da gallina? Perché le mani non vengono mai bene? Perché abbiamo migliaia di combinazioni di queste mali e i nostri sistemi, che si apprendono – e dobbiamo sapere un po’ come apprendono – non sono in grado di generare delle buone mani, che è una banalità, è come le balle di fieno. Scusate, doveva estinguerci in tre anni e non sappiamo neanche ancora disegnare le manine? Ok, quindi anche su questo spero che lavoreremo un po’ di più su questi strumenti. Giacomo torna da me e mi dice: “Finita l’epoca Spider-Man, mi fai Charizard?”. Questo è uno dei 2000 Pokémon che esistono. Io disegno un bambino di 5 anni con i capelli castani chiari che gioca in una cameretta con Charizard. Questo è il risultato. Charizard è bellino? Guardate le mani di Giacomo se riuscite a vederle. Sta così, con gli artigli come Charizard. Non possiamo non avere un approccio critico rispetto a questo. Questa non è un’immagine ben fatta, è una base su cui lavorare, su cui costruire. E i limiti di questi strumenti devono essere competenza di civile utilizzo del digitale, non tecnica. Non dobbiamo commettere l’errore di dire: “Ah no, io di informatica non me ne occupo, né me ne occupo di intelligenza artificiale”. Detto questo, io sono grato di essere in particolare in tutto questo ambiente, perché qualche anno fa, in una convention – qui c’è Luciano, prima ho visto anche Maria Paola, Carlo è stato un po’ l’ispiratore segreto di questa esperienza – ci ha portato a capire come sperimentare nella scuola, ma anche qui ne abbiamo già parlato poco fa. Che ne è venuto fuori? Che dopo tre anni di un dottorato di ricerca in cui Maria Paola Puggioni è venuta via dalla scuola per tre anni, ma è rimasta a scuola per sperimentare, abbiamo avuto la possibilità di misurare scientificamente, non a impressioni, non “funziona, non funziona”, “è bello e brutto”, “ci piace e non ci piace”, l’efficacia del mondo della realtà estesa. Ne è uscito un articolo importante, c’è pure Lorella Gianandrea che tu conosci, che ha partecipato perché l’esperto di valutazione ci serve, e poi ne è uscito un libro. Perché ve lo racconto? Perché abbiamo un enorme bisogno di laboratori a cielo aperto su cui sperimentare, e complimenti per questa iniziativa. E quando sperimentiamo dobbiamo essere molto seri, onesti ed etici. Cioè, se una roba funziona, funziona. Se non funziona, anche se l’ha pensata il dirigente, non funziona. Non è efficace. Non è efficace né come supporto al docente nelle sue attività, né come supporto al nostro studente nella sua didattica. Dobbiamo misurarlo e dirlo. Altrimenti viviamo in mezzo alle mode a dire: “Ma questo mi piace, questo è bello, questo va di moda”. Allora, partendo da questo, abbiamo cercato di andare a guardare tanti elementi di sperimentazione, adesso andrò veloce. Tutta la mediazione linguistica, la stiamo sperimentando in maniera molto forte con un progetto che si chiama “Parlo tutte le lingue del mondo”, dove usiamo sistemi di traduzione a supporto delle segreterie, dei docenti, della comunicazione scuola-famiglia, di tutto il rapporto che la comunità educante ha, perché oggi questi strumenti sono utili, non sono competenze, sono strumenti. A giugno ci hanno detto, sorridendo anche, che il momento più utile dell’anno dell’utilizzo di questi strumenti è stato quando sono arrivati nella primaria, nell’infanzia, i pidocchi. Prima ci dicevano: “Li portavamo fino a giugno, quando arrivava il caldo e morivano di caldo”. Adesso siamo stati capaci di spiegare ad arabi, indiani, cinesi come togliere i pidocchi. Sembra una banalità, ma la ritraggo come metafora per dire che non è per caso che abbiamo liberato il tempo per fare altro, per fare relazioni. Ricordatevi che in questo progetto abbiamo incontrato mamme a cui non puoi neanche tradurre per iscritto perché non leggono, ma gli va tradotto l’audio; la generazione audio, sono strumenti che abbiamo in tasca, è solo trovare una chiave di lettura interessante. Dall’altro lato, questo è Character.ai, non so se lo conoscete, un bravissimo prof di storia e filosofia, che si chiama Paolo, sta lavorando nel portare dentro tante classi questa capacità di dialogo. Dentro questo tool potete farvi una chiacchierata con Cesare, con Platone, con Freud, con chi volete. E nei diversi livelli scolastici ha introdotto l’approccio critico nella chiacchierata con quel filosofo, con quel personaggio storico. Character.ai ci permette di dialogare continuamente con questi strumenti, ma l’approccio didattico che è stato introdotto è estremamente interessante perché è arrivato fino alla personalizzazione. Questi studenti hanno creato loro dei personaggi personalizzando dei large language model. Direte, sarà stato un liceo scientifico? Ma neanche per sogno. C’è una capacità di questi ragazzi, se stimolati, di entrare in questa situazione che è secondo me strabiliante e non possiamo perdere l’occasione di utilizzarlo. Dall’altro lato, la generazione di video, la generazione di contenuti multimediali ci sta permettendo di avviare una sperimentazione in cui è già evidente, dopo il primo anno, che quei contenuti multimediali sono efficaci. Da dove è evidente? Dalle valutazioni, da valutazioni comparative, da valutazioni fatte molto bene, ce l’ha insegnato Gianna Andrea e Maria Paola Pugioni e molti di voi. Io non sapevo neanche cosa fosse una valutazione. Io continuo a bocciare i ragazzi quando vengono all’orale o allo scritto in maniera molto barbara all’università. E in questo, ogni percorso ha la stessa base comune che ha detto Pier Cesare prima. Non possiamo fare a meno di avere un po’ di basi, di literacy, di AI Basics, chiamateli come volete, di questi concetti. Alcune categorie delle AI, alcuni nomi, alcuni approcci etici. Noi siamo cresciuti nelle ingegnerie italiane senza che nessuno ci abbia mai pronunciato la parola “etica”. E ancora oggi l’ingegneria italiana non ha un corso che parli di questi temi, di etica delle tecnologie. Facciamo una fatica enorme a introdurle in quei percorsi, perché fatichiamo ancora dentro questi aspetti interdisciplinari. Allora, se ChatGPT dobbiamo anche essere consci che non è l’unico che esiste, perché questo è LLaMA. LLaMA è di Meta. Qual è la metafora di questa storia? La scuola e le scuole con cui lavoriamo cerchiamo di portarle su dei Large Language Model open source, open source sicuri in cui non c’è un flusso di informazione verso terze parti. E guardate chi ha fatto questa scelta, è Meta, non uno sconosciuto qualsiasi, che rilascia… ora siamo a LLaMA 3, è uscito da qualche settimana, da qualche mese, LLaMA 3 rilascia modelli open source, provate a usarli e provate a personalizzarli, soprattutto in prima istanza per voi, l’ha detto Pier Cesare prima, come supporto alla creazione di verifiche, di contenuti, di personalizzazione della didattica, che stiamo vedendo nelle sperimentazioni ha un’efficacia in termini di tempo molto rilevante. Ma ha bisogno di un po’ di preparazione, eh. Studiare non ce lo toglierà nessuno, fortunatamente. Però dall’altro lato è qualcosa con cui possiamo giocare in classe in tutta sicurezza. Questo è Math.ai. Io di solito vado nelle scuole e racconto quello che vi dirò fra poco, e poi per fare par condicio con gli studenti spaccio questa nuova app che fa compiti di matematica. Anche qui un po’ dobbiamo essere consapevoli, soprattutto noi, comunità educante, degli antidoti, perché questo è Fake Image Detector, è un sito gratuito, ci caricate l’immagine del Papa con Obama o del Papa col Moncler e vi dice: “Guardate, è falsa, è generata”. Un pochino di digitale come antivirus, come è stata la storia del virus e dell’antivirus, deve essere il nostro patrimonio comune, deve far parte di quella cittadinanza digitale, non di conoscenze tecniche. Questo si chiama GPTZero, non so se lo usate, mia moglie, prof di lettere, dice che perdiamo tempo a utilizzarlo perché per capire se un testo è stato scritto da ChatGPT basta vedere se compare la punteggiatura. Non so se confermate o meno. Quindi è molto facile fare detection. Ma se voi mettete su GPTZero un testo scritto, vi dice: “Queste parti sono scritte con AI, queste sono umane, queste… c’è qualche dubbio, questo è sicuramente AI”. Allora anche lì, dialogare ed essere trasparenti a cosa ci ha portato? Ci ha portato che oggi le nostre tesi di laurea ammettono l’utilizzo di questi sistemi a patto di essere trasparenti, di evidenziare le parti scritte con sistemi automatici e di scrivere in nota il prompt e lo strumento che hanno usato per scrivere quel testo. Si capisce benissimo se quei ragazzi hanno capito, perché se sanno porre le domande, se hanno scritto “scrivimi un capitolo sull’intelligenza artificiale”, non ci siamo. Se quella domanda è molto più elaborata, si capisce benissimo quanto sono dentro, a patto di essere trasparenti e questo vale anche tra noi colleghi, eh? Perché se al dirigente, se a Paolo ti mandiamo una bellissima relazione tutta scritta con ChatGPT, ti scriviamo sotto: “Mi sono fatto aiutare da ChatGPT” e tu spero non ti offendi. Se è ben fatta e se siamo stati trasparenti. Chiudo poi questo materiale, magari da link, ce lo scambiamo, ci sono tantissimi strumenti che stiamo sperimentando. Questo forse è quello che ci sta dando più soddisfazione: Perplexity, nella creazione delle verifiche, è molto efficace. Però vorrei chiudere con un ultimo messaggio, che è legato a un progetto che abbiamo realizzato e che consideriamo uno dei più belli. Perché lo uso? Per due motivi. Da un lato, è intelligenza artificiale a supporto dell’inclusione, tema su cui non possiamo far finta di nulla. Perché è inutile dirci che stiamo facendo una scuola inclusiva quando dentro un’aula con 30 ragazzi o con 150, come abbiamo noi, abbiamo due DSA, tre BES, due disabilità, quelli un po’ più bravi e quelli un po’ meno bravi. O siete supereroi o non stiamo facendo nulla di tutto questo. Allora, questi sistemi un po’ ci aiutano. Dall’altro lato, questa è una preghiera, dobbiamo cercare anche una narrazione positiva che stimoli idee positive. Dobbiamo cercare di portare i nostri ragazzi a utilizzare la loro grande creatività per dire: “Ma cosa ci facciamo di utile con questi strumenti?”. Non solo nel mondo e nella didattica della scuola, ma anche là fuori, nel mondo reale, nella società, nelle imprese, nella vita delle persone. Secondo me questo video raccoglie un po’ questa storia, raccoglie un po’ tutte e due le chiavi di lettura. Lo guardiamo un attimo, è nel mondo della SLA, è qualcosa che è anche metaforico per la mia voce, che ogni tanto va e viene, e poi ve lo commento.
Video minuto 58:03
Frontoni. Ecco, queste voci che potete donarci anche voi, da casa, col vostro computer, pronunciate una serie di frasi e donate la vostra voce, addestrano un algoritmo di intelligenza artificiale con tutti gli accenti – il mio marchigiano, quelli bolognesi e tutti gli altri – per generare voci. Quei ragazzi che perdono l’uso della voce la riacquistano grazie a sistemi di intelligenza artificiale che gli permettono, con dei sintetizzatori vocali, di parlare con la loro voce. Pochi mesi fa l’abbiamo presentato al Corriere della Sera con i primi 150 sperimentatori e quei ragazzi ci dicevano: “Prof, adesso chiamo gli amici e gli amici mi riconoscono”, per dire che spesso diamo per scontato alcune delle cose che abbiamo. Però la metafora che c’è sotto è che non possiamo rinunciare a delle chiavi di lettura positive di queste tecnologie, perché quelli avrebbero parlato con la stessa voce metallica di tutti gli altri. Queste situazioni vanno un po’ stimolate, una narrazione positiva ai nostri ragazzi che non dica sempre “aiuto aiuto aiuto”, ma dica anche “sforzatevi di creare idee positive”, è uno dei grandi elementi di cui abbiamo bisogno, perché partire un po’ dal positivo è anche la storia del luogo in cui siamo, non possiamo farne a meno. Dall’altro lato, e qui chiudo, l’esperienza che abbiamo fatto è che di solito le reazioni sono due: tutto questo o mi fa paura, mi preoccupo e sto fermo, oppure sono creativo, me ne occupo e mi metto in moto per cercare di migliorare la qualità della vita delle persone, delle scuole, delle imprese, della società. Io spero che insieme la scuola italiana e la comunità educante italiana riescano a lavorare in questa seconda parte della storia, non preoccupandosi ma occupandosene molto.
Maino. Grazie mille, Pier Cesare ed Emanuele, per quello che ci avete sinteticamente offerto come esemplificazioni. Vorrei chiedervi un’ultima battuta perché mi sembra che il vostro racconto ci dica di una necessità. Adesso l’ho capito meglio. C’è la necessità che le scuole, ogni scuola, sia un luogo di ricerca. Non è semplicemente una possibilità, è una necessità. Quali sono secondo voi le condizioni perché le scuole diventino luoghi di ricerca? Porre questa domanda qui al Meeting, un luogo per eccellenza di incontri, un po’ ci facilita, però poi dobbiamo pensare al nostro capodanno, primo settembre, è il capodanno della nostra vita lavorativa, quando ritorniamo a scuola e ci possiamo trovare di fronte anche a situazioni a volte un po’ preconcette, per cui quello che sa utilizzare certi strumenti può anche essere isolato all’interno di un consiglio di classe, perché è quello che fa un po’ il moderno, sa utilizzare ChatGPT, e gli altri colleghi magari lo invidiano un po’, sono un po’ gelosi perché attira gli studenti e magari li attira anche, e la vulgata diventa questa in modo facile: “ma non li porta alla sostanza”. Allora, per uscire da certe dinamiche di questo tipo mi sembra che scuola come luogo di ricerca voglia dire andare a fondo dell’autonomia all’interno delle singole scuole, che possano cercare alleanze su un territorio molto ampio, perché il digitale ci dà la possibilità di collaborare con tutto il mondo, che ci dia la possibilità di dialogare con qualcuno che ci offra anche gli strumenti per valutare le sperimentazioni che facciamo. Molto preziosa la tua osservazione perché la scuola produce migliaia di dati tutti gli anni e poi spesso non li utilizza. Nei prossimi cinque, dieci anni, che la scuola diventi luogo di ricerca, mi sembra che abbia bisogno di prospettive, di alleanze, che abbia bisogno di un dialogo con l’università e direi anche che le università hanno necessità di un dialogo con le scuole e con il mondo del lavoro. Qualche suggerimento e impressione dal vostro punto di vista su questo?
Rivoltella. Hai detto, credo, già tutto tu. Qui l’intelligenza artificiale non c’entra, è un problema di postura professionale dell’insegnante. Paulo Freire, il grande educatore brasiliano, diceva: “Senza questa inquietudine che mi muove né apprendo, né insegno”. Io credo che ci sia questa questione di inquietudine, inquietudine come cifra professionale dell’insegnante, inquietudine che vuol dire incompiutezza, che vuol dire non rassegnarsi all’immanenza e la trascendenza non bisogna necessariamente cercarla in alto. Comincia sul volto del mio studente, sul volto del mio collega. C’è, credo, un problema che riguarda la formazione iniziale, che riguarda la formazione in servizio, che riguarda più in generale tutto il sistema dell’istruzione e ha a che fare con questo concetto di postura professionale. Secondo me, senza quell’inquietudine lì, è difficile che poi quell’insegnante si renda disponibile a mettersi in una logica di ricerca. Quindi, da una parte, la postura professionale dell’insegnante è fondamentale. Credo che dall’altra parte il dirigente scolastico sia uno snodo altrettanto fondamentale. Se il dirigente scolastico si appiattisce sulla gestione amministrativa, se il dirigente scolastico si lascia rendere vittima del contenzioso, se il dirigente scolastico si limita a garantire un ordinario andamento alla sua scuola – e capisco che già questo è tantissimo, perché oggi il dirigente scolastico vive una complessità folle – ma se il dirigente scolastico non riesce a creare lui le condizioni perché la sua scuola diventi uno spazio di ricerca, allora anche quella postura professionale, se ci fosse, non avrebbe la possibilità di svilupparsi. Io credo che i due protagonisti siano davvero il dirigente da una parte e l’insegnante dall’altra, professionista dell’inquietudine, ma anche il dirigente in fondo deve essere un professionista dell’inquietudine. Alex Pentland, che prima citavo, il fondatore di questa neoscienza, che si chiama fisica sociale, dice del dirigente che deve essere un connettore carismatico. Mi sembra una definizione straordinaria, perché è connettore, perché allestisce ponti, perché costruisce reti, perché deve garantire il sistema di relazioni dentro e fuori che la scuola è. E ci vuole anche carisma. Non un carisma inteso come fascino, molto glamour, ma un carisma inteso come capacità di vision. E una capacità di vision che si sa tradurre in un’identità di mission. E quindi, da una parte, compito per il dirigente è provare a studiare da connettore carismatico, compito per l’insegnante tornare a scoprire dentro di sé quell’inquietudine senza la quale, secondo me, non può fare l’insegnante.
Frontoni. Aggiungo pochi altri spunti. Nella sperimentazione che vi raccontavo che non è legata all’AI ma alle tecnologie del ??? alla fine, la conclusione che Maria Paola Pugioni trae da questi tre anni è che gran parte della questione sta nella mediazione che l’insegnante fa di quella tecnologia, prima l’abbiamo chiamata la dose, ma quanto c’è di digitale, di umano dentro quella mediazione che poi funziona. Questa dose nessuno la sa e non è troppo deterministica e neanche lì c’è una bacchetta magica per dire il 50% funziona. Allora lì c’è il grande valore della sperimentazione che voi portate con tutta la diversità che avete. Detto questo, c’è una fatica enorme perché se continuiamo, anche nei sistemi di verifica, anche nei sistemi di esercizio, a mantenere approcci uguali a quelli che abbiamo usato negli ultimi trent’anni, temo che un po’ facciamo fatica. Non so chi di voi è il prof di matematica, ma Photomath eMath.ai sono due grandi problemi per chi continua a fare una matematica “alla vecchia maniera”, diciamo, con i venti esercizi presi dal manuale da dare per casa e da controllare il giorno dopo. È troppo forte la tentazione, non c’è nulla da fare. Non li convinceremo mai a dire “no, non lo fare per il tuo bene”, ma cosa vuol dire? Allora proviamo a farlo in maniera molto diversa. Lo dico per la matematica, ma vale per tutte le altre discipline. Farlo in maniera molto diversa – e lo dico anche guardando a noi all’università – vuol dire, secondo me, e secondo l’esperienza di questi ultimi anni, farlo molto dentro lavori di gruppo, molto dentro discussioni, molto dentro momenti in cui si faccia tutto ciò che il digitale ci toglie, cioè confrontarsi, stare insieme, toccarsi, in quello che volete. Però questa dose, tra quanto di lavoro insieme, quanto di lavoro digitale, la scopriremo solo con tanta sperimentazione. E per consolarvi, non è che siamo unici, tutte le imprese di stamattina facevano esattamente lo stesso discorso. Perché andate in un’azienda della meccanica, in questo momento, e chiedetegli cosa sta facendo con l’AI, o se ha da qualche parte un elenco di procedure da seguire per applicare l’AI in azienda, non ce li hanno. Anzi, loro sono messi un po’ peggio di noi, perché non sempre hanno quella capacità di apprendere o di imparare a imparare che almeno un pochino noi dovremmo avere, e quindi è molto difficile fare adozione nelle piccole e medie imprese italiane. Nella scuola dovremo essere un po’ più veloci. Ora, queste sperimentazioni finiranno? No. Ma sarebbe anche un peccato, immaginate che noi avessimo veramente le regolette da seguire, da applicare per la buona didattica, per la buona scuola, per la buona personalizzazione della didattica. Saremmo annullati noi, quindi dentro del nostro ruolo, secondo me, sono tutte delle buone notizie. Le cattive notizie ci sono, eh, cioè il fatto che continuiamo così è un disastro. Dentro le buone notizie c’è uno sforzo enorme che dobbiamo fare di cambiare, ma di cambiare tantissimo. Non è un lifting piccolo piccolo, si tratta di rivedere come stiamo in classe con quei ragazzi e come chiediamo a quei ragazzi di stare a casa insieme con noi. Perché è indubbio, penso per tutti noi se siamo qui seduti, che siamo di fronte a un passaggio molto delicato. Se non sapremo compiere questo passaggio – e qui dovremmo essere molto attenti per la responsabilità che abbiamo – creeremo un disastro su queste generazioni. Perché se cresciamo giovani, senza senso critico, che credono che qualcuno ci sta rubando i dati per allenare le AI, che credono che tutto ciò che esce da quei sistemi sia vero, abbiamo creato la base per la disinformazione, per l’antipolitica e per tutto quello che di male vediamo nella società. Quindi, scusatemi anche qua un po’ di dircela in maniera molto franca, se questo lavoro non lo facciamo, non lo facciamo urgentemente e non nascondiamoci nei consigli di classe, nelle classi o nei nostri dipartimenti perché non ne vale la pena, è troppo importante la sfida che abbiamo di fronte per restare fermi o addirittura nasconderci o addirittura fare i complottisti dell’intelligenza artificiale dopo tutti gli altri. Quindi mettiamoci in moto senza pensarci neanche cinque minuti, non aspetterei neanche il primo settembre, la prossima settimana un paio di libri sulle AI, li comprerei.
Maino. Grazie. Mi dai anche modo di dire di non aspettare proprio neanche cinque minuti nel senso che, concluso questo incontro, è possibile continuare un incontro nella saletta qui a fianco con racconti di esperienze di utilizzo di intelligenza artificiale a scuola, per cui chiunque volesse ci si può fermare. Interverranno Luca Pozzi e Anna Rita Silenzi, che sono formatori di Diesse, coordinati da Marina Albanesi. Mi sono collegato alla battuta che ha fatto adesso Emanuele e prima di salutarci e dare un ultimo avviso, mi sembra che ce ne torniamo a casa con almeno queste due parole che sono come una rotta da seguire. Da un lato c’è la necessità di continuare ad essere curiosi o di tornare ad essere curiosi di fronte a questi strumenti. E la seconda parola è collaborazione, perché è richiesta una collaborazione all’interno delle nostre scuole, all’interno dei nostri consigli di classe e, peraltro, è indubbio che nel momento in cui i docenti collaborano sarà molto più facile che gli studenti lo facciano tra di loro, perché lo percepiranno nel lavoro che imposteremo tra dirigenti e docenti all’interno dei singoli consigli di classe nella scuola. Collaborazione che chiede di spaccare definitivamente qualsiasi forma di autoreferenzialità delle nostre scuole. Quello che accade nell’avventura dell’educazione e dell’apprendimento ha un ultimo test decisivo nell’aprirsi al mondo. E quindi costretti dalla necessità di fare i conti con un elemento della realtà che entra prepotentemente nella nostra vita, forse lo è anche l’occasione per riguardare le ricchezze che abbiamo per poterle restituire. Quindi grazie ancora, grazie a tutti quelli che si sono fermati fino adesso, si può continuare un incontro e chiudo con questo avviso che il Meeting ci tiene a dare al termine degli incontri. In questo particolare momento storico, dove sempre più incognite ci fanno chiedere come è possibile costruire dialogo e pace, non potevamo non sentirci provocati e riaccesi da quanto ci ha detto il Cardinale Pizzaballa nel suo intervento all’incontro inaugurale. Per questa ragione il Meeting devolverà parte delle donazioni raccolte nel corso di questa settimana per l’emergenza in Terra Santa. Quindi potete andare tutti nei vari luoghi dove ci sono i “dona ora”, sapendo anche che parte di queste donazioni andranno a supporto di luoghi dove in mezzo alla guerra si prova a dialogare e sono semi di speranza. Grazie Pier Cesare, grazie Emanuele e grazie a tutti voi.