L’ESSENZA DELL’INTELLIGENZA ARTIFICIALE. STRUMENTO O LIMITE PER LA LIBERTÀ?

In diretta su askanews, Avvenire, Famiglia Cristiana, Icaro Tv, Play2000, Radio Vaticana, SkyTg24 Canale 501, Tv2000, Vatican News (ita/eng/esp), Vita

Paolo Benanti, docente Pontificia Università Gregoriana di Roma, esperto di bioetica, etica delle tecnologie e human adaptation, membro del New Artificial Intelligence Advisory Board dell’ONU, presidente commissione per l’Intelligenza Artificiale; Mario Rasetti, professore Emerito di Fisica Teorica del Politecnico di Torino e presidente del Scientific Board di CENTAI; Luca Tagliaretti, direttore esecutivo del Centro europeo di competenza sulla cyber-sicurezza. Introduce Andrea Simoncini, vicepresidente Fondazione Meeting per l’amicizia fra i popoli ETS, professore di Diritto Costituzionale, Università di Firenze

L’Intelligenza Artificiale cambierà il mondo? E se lo farà, lo cambierà in meglio o in peggio? Questa domanda è ormai al primo posto di tutte le agende politiche, economiche, morali e giuridiche nel nostro pianeta. Lo stesso Papa Francesco ha dedicato al tema dell’IA il suo messaggio per la pace di quest’anno e ha ripetuto il suo pensiero davanti ai capi di stato del G7 in Puglia. Come ogni novità prodotta dall’ingegno umano anche l’IA può essere un fattore di crescita e sviluppo ma, allo stesso tempo, come ogni occasione in cui la potenza dell’uomo cresce, occorre che cresca proporzionalmente la sua responsabilità.

Con il sostegno della Regione Emilia-Romagna, Engineering, Amazon, Tracce

L’ESSENZA DELL’INTELLIGENZA ARTIFICIALE. STRUMENTO O LIMITE PER LA LIBERTÀ?

L’ESSENZA DELL’INTELLIGENZA ARTIFICIALE. STRUMENTO O LIMITE PER LA LIBERTÀ?

Giovedì 22/08/2024 ore 17:00

Auditorium isybank D3

Partecipano:
Paolo Benanti, docente Pontificia Università Gregoriana di Roma, esperto di bioetica, etica delle tecnologie e human adaptation, membro del New Artificial Intelligence Advisory Board dell’ONU, presidente commissione per l’Intelligenza Artificiale; Mario Rasetti, professore Emerito di Fisica Teorica del Politecnico di Torino e presidente del Scientific Board di CENTAI; Luca Tagliaretti, direttore esecutivo del Centro europeo di competenza sulla cyber-sicurezza.

Introduce:
Andrea Simoncini, vicepresidente Fondazione Meeting per l’amicizia fra i popoli ETS, professore di Diritto Costituzionale, Università di Firenze

 

Simoncini. Buonasera. Molti si sono stupiti quando all’inizio di quest’anno, di questo anno terribile, anno di guerra purtroppo, il Papa ha deciso di dedicare il messaggio mondiale per la pace al tema dell’intelligenza artificiale. Ma come? Dinanzi alla violenza che torna a trionfare così, che in realtà non si era mai fermata, ma che torna così vicina, di fronte alla minaccia della guerra, dedicare il messaggio sulla pace di inizio anno, all’intelligenza artificiale? E ancora di più, per la prima volta un pontefice decide di partecipare alla riunione del G7, cioè i sette grandi signori potenti della terra, e cosa mette al centro della riflessione? Ancora, l’intelligenza artificiale. Evidentemente c’è qualcosa che sta accadendo, di cui noi siamo parte, siamo profondamente immersi, ma di cui non abbiamo ancora colto tutta la portata. Questa trasformazione digitale è evidentemente qualcosa di più di quello che già, peraltro, ci sta causando, ci sta coinvolgendo. Per usare le parole del Papa al G7: “non solo l’intelligenza, ma il cuore stesso dell’uomo corre il rischio di diventare sempre più artificiale”. E qui entra in gioco il titolo del Meeting di quest’anno, che apparentemente potrebbe sembrare distante, su altri registri. E invece, dinanzi a un mondo in cui un numero sempre maggiore di macchine, di dispositivi tecnici, è progettato per sostituire attività umane, la domanda che si impone, l’interrogativo che rimane lì è: ma cos’è essenziale dell’uomo? Cosa non può essere sostituito da una macchina? Cosa, in questo mondo che sempre più delega a strumenti tecnici le cose che facevamo, non può essere delegato? Ora, nel titolo del Meeting, come spesso succede, c’è anche implicitamente un suggerimento di metodo, che a mio avviso è altrettanto importante. Proprio per questa esplosione, per questa forza travolgente della tecnologia, in questo Meeting ci sono stati già molti incontri sul tema dell’intelligenza artificiale. Per esempio, il tema dei rischi per i giovani, la dipendenza, la deprivazione di sonno che ne deriva. Questo impatto travolgente che ha su tutti noi ha prodotto una reazione, come dire, difensiva. In molti c’è il tono di una paura collettiva, l’idea che forse dovremmo fermare il progresso, tornare indietro. Ecco, il titolo del Meeting, secondo me, invece suggerisce che c’è un’altra strada, probabilmente un po’ più lunga, più complessa, ma sicuramente più umana, più secondo le corde dell’umano, che è quella di porsi seriamente la domanda: bene, di fronte a questa tecnologia, cosa c’è di propriamente umano? Cosa è che resiste in questa trasformazione? L’idea di fondo è che, se teniamo aperte domande così, l’uso di questi strumenti, per persone che tengano aperta questa domanda su di sé, è possibile in maniera responsabile, cioè si possono usare e non essere usati. Questa è un po’ la sfida che vorremmo provare ad affrontare e, per discutere di questo tema, l’essenza dell’intelligenza artificiale, abbiamo questa sera un panel di relatori, panel come si dice negli incontri scientifici, un panel stellare, si può dire, senza eufemismi. Comincio la presentazione: il primo che presento in realtà è ben conosciuto perché è un grande amico del Meeting, Padre Paolo Benanti. Diciamo sempre “non hanno bisogno di presentazioni”, nel suo caso questo è particolarmente vero perché è sicuramente una delle personalità più autorevoli, più ascoltate e più attive sul giudizio e sulla valutazione di questi temi. Ci vorrebbe molto per descrivere tutte le cose che è: docente alla Pontificia Università Gregoriana, esperto di bioetica e etica delle tecnologie e visiting distinguished professor all’Università di Seattle, questa l’ho scoperta oggi, è anche nel board delle Nazioni Unite. Soprattutto, direi, è un grande amico del Meeting perché in un momento molto complicato non fa mancare la sua presenza. Grazie ancora, Paolo. L’altro relatore che abbiamo qui in presenza è un volto nuovo tra i relatori del Meeting ed è l’ingegner Luca Tagliaretti, che attualmente è Direttore Esecutivo dello “European Cyber Security Competence Center”, che ha sede a Bucarest, una delle agenzie europee che si occupa di un tema sul quale lo ascolteremo, la cybersecurity, la cybersicurezza. Ho detto che è un volto nuovo tra i relatori del Meeting, ma non posso dire che è un volto nuovo per il Meeting perché, mi ha spiegato, è stato volontario qui al Meeting. Questo è un messaggio per i volontari: si può fare carriera e poi trovarsi anche qui. E infine, ringrazio, in collegamento con noi il professor Mario Rasetti da Torino. Grazie, professore. Già presidente della “Fondazione ISI”, professore emerito di fisica teorica al Politecnico di Torino e in moltissime altre istituzioni accademiche mondiali, premiato per le sue scoperte nel campo della fisica e, soprattutto, uno dei primi scienziati che ha affrontato il tema dell’intelligenza artificiale in tutte le sue prospettive, soprattutto negli sviluppi più importanti che ha avuto. Per cui veramente è un gruppo di relatori dai quali possiamo attendere un aiuto forte. Allora io comincerei da Padre Benanti. Andando proprio al cuore del nostro tema: qual è l’essenza di questa intelligenza artificiale? Cioè, perché è così importante? Perché ha spinto il Papa a prendere una posizione così netta? Cosa c’è in gioco veramente? E qual è l’impatto su di noi che ha questa trasformazione digitale?

Benanti. Buonasera, ben ritrovati a tutti. È per me un piacere essere qui e esserci in questo spirito di amicizia che è un po’ lo spirito che ho scoperto al Meeting e che mi unisce a tanti di voi. Io non so se posso rispondere a cosa ha spinto il Papa, a questa parte non so rispondere, però provo a dire altro, provo a prendere sul serio questo invito che mi è stato fatto di andare all’essenziale, perché oggi l’intelligenza artificiale è un tema che merita di essere discusso a tutti i livelli, fino al G7 e fino alle Nazioni Unite. Ecco, per rispondere a questa domanda, penso che sia necessario evidenziare due punti. Allora, il primo punto è questo. È accaduto qualcosa alla realtà che ci circonda. Se dovessi scrivere un titolo provocatorio, direi: “La realtà non è più quella di una volta”. Ecco, quando è accaduta questa cosa? È accaduta come momento storico d’inizio, se vogliamo, durante la Seconda Guerra Mondiale, quando all’interno dei laboratori della Bell Labs non è stata solo definita la realtà dell’informazione, ma è stato scoperto e brevettato un altro componente, il transistor, che da quel momento in poi ha cambiato la natura degli oggetti che abbiamo intorno a noi. La cosa ancora più particolare è stato il modello di distribuzione di questa invenzione, che non è stata tenuta strettamente sotto il controllo dei Bell Labs, ma per volere anche dell’amministrazione governativa americana, il transistor è stato dato in licenza d’uso a tutte quelle aziende che avessero mandato i propri ingegneri al costo di 25 mila dollari dell’epoca a fare una settimana di corso presso i Bell Labs. Ecco, questo ha prodotto una “transistorizzazione” della realtà, se mi consentite questo termine difficile, cioè l’inserimento di elementi computazionali all’interno di tutto ciò che esiste. Cosa vuol dire questo? Ecco, passiamo dal “tecnichese” alla vita vissuta, ve lo provo a raccontare con un’esperienza di vita vissuta. A gennaio sono stato invitato da una di queste grandi università americane per un convegno, una di quelle che sta in mezzo agli Stati Uniti. E uno dei grandi professori che mi ha invitato, uno del top 2% degli ingegneri informatici ed elettronici, ha commesso un errore molto grave. Mi ha detto: “Guarda, ti vengo a prendere io all’aeroporto”. Il problema è che io viaggiavo con un volo molto francescano, il che ha significato atterrare in questo aeroporto secondario degli Stati Uniti verso le 2 di notte. Penso che se ne sia pentito, però mi è venuto a prendere con una macchina che è status symbol di quella che è la sua condizione, una macchina di queste elettriche, tutte guidate dal software. Sto facendo delle grandi capriole per non dire “marche”. Fatto questo, mi ha portato in un albergo dove mi ospitavano e qui ho commesso un grave errore. Dopo circa 20 ore di volo, erano le due e mezza di notte, il mio autocontrollo è sceso ai minimi storici. Siamo arrivati all’albergo, provo a scendere dalla macchina, vado verso la portiera e gli faccio: “Scusa, ma come si apre?” Non c’era la maniglia. E lui mi guarda con un sorrisone compiacente e mi dice: “Guarda, basta che premi il pulsante”. E lì è saltato l’autocontrollo. E gli ho detto: “Scusa, ma quindi se prende fuoco la batteria, questa da una macchina diventa un posacenere, perché rimangono solo le nostre ceneri dentro”. Sono tornato lì ad aprile e s’è venduto la macchina, però questa cosa ci dice qualcosa di profondo di quello che è successo. Cioè, la macchina, che era un oggetto definito dal motore, definito dall’hardware, cioè definito dai pezzi che uno comprava quando la ordinava, improvvisamente è diventata una realtà definita dal software grazie al transistor. Cioè, io oggi compro quella macchina che ha dentro tutto l’hardware che gli serve e solo se scarico del software e pago un opportuno abbonamento mensile mi si sbloccano alcune funzioni, ma anche alcune macchine europee sono così. Ormai abbiamo grandi produttori europei che mettono in tutti i sedili il riscaldamento, ma solo se paghi l’abbonamento si attiva, o i fari particolarmente potenti, di cui puoi attivare l’abbonamento d’inverno e disattivarlo d’estate, o una batteria elettrica che serve come sostegno al motore, normalmente, ma se paghi un abbonamento serve come cavalli in più per avere più prestazioni. Ecco, la realtà inizia a essere definita dal software. Questo è interessante! Vi provo a fare un esperimento mentale. Torno adesso da Seattle, l’avete sentito. Sono entrato in uno di quei negozi, molto interessanti, nei quali uno può comprare tutto, non c’è nessuno: fa tutto il computer. Se si rompe quel software, la natura stessa del luogo cambia per sempre. Non è più semplicemente un supermercato, perché niente può più entrare e uscire, diventa un magazzino. Pensate a un ospedale: dopo ci verrà detto qualcosa sulla cybersicurezza. Se uno di questi attacchi informatici, un ransomware, prende possesso dei computer dell’ospedale, la natura del luogo cambia per sempre. Non è più un ospedale: o è una sala d’attesa, o se uno è particolarmente grave diventa una morgue. Ecco, il software definisce la natura della realtà. Questo porta con sé due problemi. Il primo è un problema economico. Ce l’hanno insegnato i grandi produttori di computer. In economia si parla di commodity. La benzina è una commodity dell’auto: tu compra da me l’auto, poi la benzina la metti dove ti pare. Ecco, l’hardware sta diventando una commodity del software: tu compri il tuo computer da chi ti pare, poi il sistema operativo lo metti da me. Ma se il software definisce la realtà, il primo grande problema è: la realtà diventa una commodity del software? E chi possiede il software dice cos’è un oggetto? E cos’è questo? Capite che un software così sofisticato come l’intelligenza artificiale può semplicemente cambiare il controllo. Chi di voi è esperto di diritto, come chi ci modera, sa che il diritto romano associava al possesso di un oggetto tre qualità: usus, abusus e fructus. Posso usare la cosa che possiedo (usus), la posso distruggere (abusus), posso guadagnarne i frutti (fructus): posseggo una zappa, vado a lavorare con la zappa, ne ho i frutti. Questa software-defined reality forse mi lascia l’usus, senz’altro l’abusus, perché se compro uno smartphone lo posso rompere, ma mi sottrae il fructus. Il fructus non è più mio, perché io posseggo l’hardware, ma il software mi è dato solo in licenza. Ecco che quindi stiamo cambiando le catene di potere all’interno del mondo. Parlare di intelligenza artificiale non è più solo parlare di tecnologia, ma parlare di una questione di potere, quindi una questione che ha a che fare con la nostra coesistenza, che ha a che fare con quella cosa così fragile e preziosa che è la nostra democrazia. Ecco perché improvvisamente l’intelligenza artificiale si è mossa dai tavoli degli ingegneri ed è arrivata ad altri tavoli, che sono i tavoli istituzionali. E la grande domanda essenziale è come addomesticare questa tecnologia all’interno di un sistema sociale che crede così tanto nella mediazione dei poteri, che sono le mediazioni dei poteri democratiche. Sembrerebbe già spaventoso così, ma questa è solo metà della risposta. L’altra metà della risposta sul perché sia essenziale è legata a un’altra questione. Il computer nasce in guerra ed è una cosa che serve a risolvere delle equazioni particolarmente complesse, che sono le equazioni differenziali parziali di von Neumann, che consentono a chi lavorava a Fort Alamo all’epoca di capire come dovevano essere messi l’uranio e l’esplosivo per ottenere la prima bomba atomica. E questo era ENIAC. Dall’altra parte dell’oceano, Colossus, in Inghilterra, viene utilizzato per decodificare “Enigma”, il sistema con il quale i nazisti codificavano i messaggi per le loro truppe. Finita la guerra – mai credere a chi fa previsioni tecnologiche – il Watson di IBM dice: “Sì, il computer è stato fondamentale, ma nel mondo ci sarà spazio massimo per 5 o 6 di questi oggetti”. In realtà, il computer si diffonde e si diffonde proprio per l’avvento del transistor, che riesce a rendere più economico e moltiplicabile quella potenza di calcolo. Gli anni ’50 e ’60 dello scorso secolo vedono il diffondersi del computer nelle grandi aziende, cambiandone anche la natura organizzativa; ci si riorganizza per far funzionare il computer. Nel 1980 c’erano due grandi computer: il più grande del mondo era il Pentagono e organizzava le truppe americane, il secondo era in Kentucky nella sede centrale di Walmart e organizzava la grande distribuzione statunitense. Arriva la storia a bussare all’informatica. Nel 1970 nasce la controcultura, conosciamo gli hippie, conosciamo i movimenti studenteschi da noi. Ecco, negli anni ’70 la parola d’ordine era: “Tutto ciò che è centralizzato è male, va ridato il potere ai singoli”. Il computer che si era diffuso negli anni ’50 e ’60 era tutta una potenza di calcolo centralizzata che abitava in alcuni armadi che si chiamavano mainframe. Ed ecco che i ragazzi della controcultura, quelli che potremmo definire gli hippie della Silicon Valley, hanno la stessa idea. Attaccano questo potere computazionale centralizzato, lo vogliono sgretolare e darlo a ciascuno di noi. Nasce il personal computer. Hewlett e Packard in un garage, lo stesso Steve Jobs, Microsoft a Seattle, fanno questo: attaccano questo potere computazionale centralizzato e ci danno il personal computer. È così forte l’impatto culturale del personal computer che il 1º gennaio 1983 il settimanale “Time” decide che l’uomo dell’anno dell’82 non è un uomo, ma è una macchina. Il titolo è “The Computer Moves In”, arriva il computer; e c’è una copertina con un uomo bianco ingrigito, incurvato e un elaboratore, come a dire: “La macchina ha battuto l’umano”. Passano gli anni e, passando gli anni, si arriva agli anni ’90. Negli anni ’90 di nuovo la storia bussa alla porta del computer che da personal è diventato laptop e abita i nostri giorni. È la fine del muro, crolla il muro. Un politologo statunitense, Fukuyama, dice che la democrazia liberale ha vinto, il capitalismo è l’unico modello che rimane. Madeleine Albright convince Clinton che questo significa che, se ci si apre al libero mercato, allora entrerà pure la democrazia liberale, e convince Clinton a far entrare la Cina all’interno del WTO. Dirà Albright in uno dei suoi ultimi corsi all’inizio degli anni Duemila: “Ecco, abbiamo commesso un errore, perché la Cina ha fatto entrare il libero mercato, ma non è diventata più democratica, è solo diventata più ricca”. Chiudiamo gli anni Duemila con un problema, che quell’equazione che aveva caratterizzato l’Occidente alla fine della Seconda Guerra Mondiale – liberal democrazia più libero mercato uguale aumento del benessere – non è più vera, perché si può aumentare il benessere senza aumentare la democrazia. Questo dice che la nostra democrazia subisce o ha meno fascino sul mondo. Arriviamo al nostro secolo e nel primo decennio di questo secolo il potere computazionale assume la sua forma più personale e intima: lo smartphone. Quando qualcuno non crede che lo smartphone sia un potere computazionale intimo, io vi invito a fare un esperimento. Se non credete che lo smartphone è intimo, sbloccate lo smartphone e datelo alla persona alla vostra destra. Se non lo potete fare, è perché quello che c’è dentro è profondamente intimo. E così si chiude il primo decennio di questo secolo. Arrivano le Primavere Arabe, il 2011, e quello che accade, grazie ai social network, ci fa pensare che lo smartphone e il digitale siano il miglior alleato della democrazia. Basta stare insieme, basta parlare ed ecco che improvvisamente diventa vero il voler desiderare qualcosa come le democrazie. Dieci anni dopo, nel 2021, le rivolte di Capitol Hill rompono il sogno e sembra che lo smartphone, il digitale e i social network siano di fatto il peggior nemico delle nostre democrazie: fake news, post-verità e quant’altro. Cosa è accaduto? Beh, questo è oggetto di un mio libro che uscirà a ottobre, ne riparleremo se volete. È accaduto che nel 2012 i social network si quotano in borsa e il mercato dà altre regole. Ma quello che qui mi interessa è un altro elemento, è quello che è accaduto nel 2020. Nel 2020 c’era la pandemia, unico anno in cui non si è fatto il Meeting, o non si è fatto in presenza, mi correggo, e lì ci siamo resi conto però che il digitale aveva surrogato le nostre vite. Potevamo firmare grazie al digitale, potevamo in qualche misura avere riunioni non in presenza ma online, potevamo fare tutta una serie di cose, potevamo andare in banca senza andare in banca, ecco, il digitale, silenziosamente, a partire dal 2014, grazie allo smartphone, ha assorbito le nostre vite. Tutto è digitale. Inizia il terzo decennio, siamo a noi. Il terzo decennio, se vi ricordate, si apre nel 2022-2023 quando la società si accorge che esiste l’intelligenza artificiale con l’arrivo di ChatGPT. Ecco, ChatGPT e l’intelligenza artificiale sono la seconda grande sfida. Perché l’arrivo dell’intelligenza artificiale semplicemente sfoca dove si compiono i processi computazionali. Non sappiamo più se accadono nel nostro potere computazionale locale o in un potere computazionale centralizzato che si chiama cloud. E questo è un problema perché ora il potere computazionale centralizzato sta aspirando tutte le cose che abbiamo digitalizzato e chi detiene quel potere detiene tutto il potere. E allora la domanda è: per vivere l’essenziale dobbiamo affrontare che cosa significa vivere una realtà definita dal software, del quale abbiamo solo una licenza d’uso e non siamo proprietari, dobbiamo affrontare che cosa vuol dire democratizzare il potere computazionale.

Simoncini. Grazie. Ringrazio davvero Padre Paolo perché vi assicuro, non è semplice riuscire a dare un affresco così continuo e completo che spieghi il momento in cui viviamo, come ci siamo arrivati e soprattutto che accenda la luce su questo fenomeno. Oggi è un software che definisce la realtà. Usiamo questi strumenti non solo per fare ma per conoscere, per definire quello che ci circonda. E questo è il dato di fatto, cioè una società che vive sempre di più e dipende sempre di più da questi strumenti. Per questo, e vengo all’ingegner Tagliaretti, a Luca, cresce il tema della sicurezza, cioè un mondo in cui dipendiamo sempre di più da questi strumenti. E non solo perché vediamo purtroppo che la guerra, gli attacchi, il crimine spesso usano questi strumenti, ma anche perché noi stessi dipendiamo. Ecco, questo tema comincia a crescere ed è un po’ il tema sul quale tu lavori.

Tagliaretti. Grazie, innanzitutto volevo iniziare ringraziando il Meeting per l’invito. Come diceva Simoncini, questo per me è un ritorno a casa, io ho fatto il volontario a partire dall’edizione, credo, “Tamburi Beat Messaggi”, cioè negli anni ’80, per chi se lo ricorda.

Simoncini. Che era già “Tamburi Beat Messaggi”!

Tagliaretti. Esatto, infatti mi è piaciuto quando mi sono andato a rileggere i titoli, il Meeting ha sempre avuto questa capacità di anticipare i temi e in qualche modo discutere dei temi in una maniera non superficiale ma approfondita, andando un po’ al cuore delle cose, di quello che ci viene, della nostra società. Quindi grazie per l’invito, grazie per aver messo a tema un argomento così importante, di cui si parla continuamente, ma spesso o sono discorsi fatti in maniera molto superficiale o sono discorsi fatti in club ristretti, quindi molto tecnici o molto legali. È importante invece che ci sia una consapevolezza a livello di tutti, perché questa è quella che ci aiuta a crescere come società, quindi aver messo al centro le ragioni dell’intelligenza artificiale, il ruolo dell’uomo in questa nuova società ibrida è veramente un titolo importante. Si parlava di spazio digitale, noi tutti viviamo, esperienza comune, in due spazi. Uno spazio terreno, quello in cui ci incontriamo oggi, ma lo vediamo, vediamo il professor Rasetti online, in uno spazio digitale. Viviamo anche in uno spazio digitale, che diventa sempre di più lo spazio importante della nostra vita. È dove incontriamo persone, dove facciamo transazioni economiche, dove interagiamo, dove iniziamo anche relazioni, dove interagiamo con l’amministrazione e, soprattutto, è anche lo spazio nel quale ci formiamo opinioni. Quindi è importante che questo spazio digitale sia il più possibile protetto, e non protetto solo da attacchi informatici, protetto anche dal tipo di dati che vengono raccolti, dal tipo di dati a cui il sistema attinge per aiutarci a formarci le opinioni. Questo è il grande tema della disinformazione. Proprio per questo è importante capire cosa si fa per rendere questo spazio più sicuro e quali sono i rischi. Parto dai rischi, parto da un paio di esempi che magari sono alcuni noti, altri meno noti. Padre Benanti ci parlava degli ospedali. Nel febbraio di quest’anno, in Romania, più di 17 ospedali sono stati attaccati con un attacco informatico molto serio: per quasi una settimana operazioni sospese, prenotazioni annullate, impossibilità di fare visite, con anche rischi alle camere di rianimazione e rischi anche per operazioni in corso. Quindi spesso l’attacco fatto anche a una sola entità ha il potere di impattare, di avere un impatto su milioni di persone. Abbiamo più di 800 mila attacchi all’anno, uno ogni 40 secondi, alcuni spesso sono attraverso vettori umani, come email o messaggi che ci arrivano. È importante capire che questo rischio c’è. Un altro esempio: molti di voi si ricorderanno a luglio, il 19 luglio, c’è stato questo grosso incidente informatico con CrowdStrike, questo software di una società americana utilizzato in molte linee aeree, in molti aeroporti, utilizzato da istituti finanziari. Questo non è stato un attacco, però un problema al software ha generato dei disagi in tutto il mondo. Questa è la notizia che tutti sanno. Quello che invece pochi sanno è che nei momenti immediatamente successivi all’incidente, sono cominciati a comparire in rete centinaia di siti che offrivano dei software di riparazione, come dire, dei cerotti digitali che uno poteva scaricare e in qualche modo sistemare l’errore creato da CrowdStrike. In realtà, questi erano tutti vettori di attacchi. Quindi è ovvio che i vettori erano stati preparati in anticipo, ma l’intelligenza artificiale, usata in maniera criminale, ha permesso di creare in pochissimi minuti i siti web, creare il messaggio, poterli lanciare online e quindi creare un messaggio personalizzato per poter attaccare diverse entità. C’è una realtà di cui noi non siamo completamente a conoscenza, di paesi, società, privati che lavora per danneggiarci in maniera criminale. Cosa facciamo? Qual è la risposta che l’Unione Europea ha? Io adesso parlo di questo naturalmente anche per il mio ruolo. Lo spazio digitale è una torta in cui abbiamo attività commerciali, attività di informazione, attività di transazioni personali, di comunicazione. Quindi, in questi anni, a partire dal 2016-2017, un grosso sforzo è stato fatto sia legislativo, di coordinamento, di governance, che di finanziamenti, a partire da alcuni degli atti e dei regolamenti più importanti, di cui forse non vediamo la portata, ma che sicuramente impattano tanto le società e il mondo: il regolamento sui servizi digitali, che in qualche modo limita la diffusione di false informazioni, e quindi dà una responsabilità alle società, al vettore che propaga l’informazione; il Digital Market Act, che riduce il potere di monopolio di alcune società; il NIS, che invece aiuta a rendere le infrastrutture critiche – tra cui gli ospedali di cui abbiamo parlato prima, ma soprattutto le infrastrutture di trasporto, le infrastrutture elettriche e l’energia – più sicure, quindi un obbligo per i paesi e per questi enti governativi a cautelarsi. Un altro regolamento, che è entrato in vigore da poco, sarà firmato probabilmente a settembre, creerà uno scudo digitale, uno scudo cyber, a protezione di tutte le infrastrutture critiche. Si creeranno centri di ascolto in tutti i paesi, collegati con le tecnologie più avanzate, per far sì che le infrastrutture critiche siano protette e che le informazioni siano condivise tra più paesi. Per quanto riguarda l’intelligenza artificiale, quindi il ruolo dell’intelligenza artificiale in questa protezione dei servizi essenziali dello spazio digitale, l’Unione Europea non solo ha creato un regolamento ad hoc, ma ha anche destinato fondi particolari, quasi 4 miliardi da qui al 2027, per aiutare piccole e medie imprese per generare idee, per creare un volano per l’innovazione e la tecnologia che serva a creare uno spazio digitale più sicuro. Ha creato le fabbriche di AI, che sono dei laboratori dove le startup possono testare le loro tecnologie per renderle il più possibile innovative e moderne. Ha creato la rete dei supercomputer, tra l’altro una molto vicina a noi, a Bologna, con il computer Leonardo, uno dei 5 supercomputer più potenti al mondo, il secondo in Europa. Quindi c’è un lavoro fatto alle spalle, fatto di coordinamento, che permette al resto del settore industriale, quindi al resto delle attività di investimento, di poter fare sviluppi dell’intelligenza artificiale che siano utili all’uomo e che siano allo stesso tempo protetti. Per quanto riguarda l’Italia, l’Italia, bisogna dirlo, è uno dei paesi leader in questo. Siamo in Europa il paese con più investimenti. Abbiamo una strategia dell’intelligenza artificiale approvata lo scorso anno, che serve come linea guida per il prossimo quinquennio e che è sicuramente una strategia abbastanza unica in Europa. Investimenti fatti tramite l’Agenzia per la Cybersicurezza Nazionale e l’Agenzia per l’Italia Digitale aiuteranno anche il tessuto imprenditoriale italiano a essere più competitivo, e aiuteranno i cittadini a vivere in uno spazio digitale, che come abbiamo visto è così essenziale, sempre più sicuro e a misura d’uomo.

Simoncini. Grazie perché ci hai anche aiutato a entrare nel merito di come le istituzioni, in particolare le istituzioni europee – questo bisogna ricordarlo, nel panorama del mondo, rispetto al modello americano o al modello cinese – l’Europa, sta tentando una via per affrontare questi temi e garantire la sicurezza, e noi ci muoviamo in questo contesto. Io verrei a questo punto, ringraziandolo ancora per averci dedicato del tempo, al professor Rasetti che è in collegamento. Di nuovo buonasera, professore. Allora, eccolo qua. Professore, lei è uno degli scienziati che ha affrontato nel merito il tema dell’intelligenza artificiale sin dall’inizio. Ecco, qual è il segreto? Come mai questo successo così travolgente? Qual è la forza e, se c’è, qual è la debolezza di questo strumento che così sta cambiando le vite di tutti?

Rasetti.
Guardi, io credo che la vera cosa che sta accadendo è che noi siamo nel mezzo di una grande rivoluzione che è culturale e antropologica allo stesso tempo. In modi diversi, sia lei sia gli speaker, avete citato il fatto che oggi noi abbiamo delle protesi addosso: tutti quanti ci aggiriamo con almeno un cellulare. I numeri sono abbastanza interessanti, nel mondo siamo 8 miliardi di persone, 6 miliardi hanno almeno un cellulare, quindi questo ha aumentato la nostra connettività, la nostra capacità di parlare coi nostri simili enormemente. Ma la rivoluzione è culturale perché questa cosa ci cambia nel profondo i comportamenti e probabilmente sarà anche antropologica, perché l’ambiente influisce sempre sui processi evolutivi, e questa protesi sicuramente non mancherà di farci cambiare in modo diverso. Le ragioni sono varie, alcune di queste sono legate a qualche errore che abbiamo fatto in itinere nel dare i nomi alle cose. Per esempio, io credo che “intelligenza artificiale” sia un nome sbagliato perché non stiamo parlando di intelligenza, stiamo parlando di macchine. Stiamo parlando di macchine, tra l’altro, in un modo un po’ anomalo, perché non sono le macchine con gli ingranaggi, le leve, le viti e i bulloni, ma stiamo parlando di macchine che sono in realtà processi, procedure, regole di calcolo. Noi dovremmo dire “macchine intelligenti” forse, più che non “intelligenza artificiale”. Hanno poco a che fare col cervello. Il cervello umano rimane la più straordinaria e incredibile macchina che esista nell’universo conosciuto, credetemi. Il cervello umano fa cose che noi, quando cerchiamo di quantificarle, quanto cerchiamo di renderle esplicite, non riusciamo neanche a descrivere. Il cervello umano fa operazioni che nel nostro gergo scientifico si chiamano “non Turing-computabili”, che vuol dire che, dati i computer che noi abbiamo oggi, che sono tutte macchine di Turing, cioè macchine basate sulle regole computazionali che ci diede Turing al suo tempo, alcune cose che il cervello umano sa fare non le potrebbero fare, e fra queste ci sono cose fondamentali come l’autocoscienza. L’autocoscienza è quella proprietà che noi abbiamo per cui sappiamo di esistere e qualunque cosa facciamo, la facciamo sapendo che esistiamo per farla e che siamo noi a farla. Ora ci sono dei bellissimi modelli concettuali di autocoscienza. Il più bello forse è dovuto a un neuro scienziato italiano, Giulio Tononi, che ha inventato questo modello teorico, definisce una funzione che chiama Phi. Infatti, il suo libro è intitolato “Phi”, la lettera greca Phi, che misura, la quale funzione dovrebbe misurare, l’autocoscienza. L’ultimo lavoro che io ho pubblicato è un lavoro nel quale si dimostra – purtroppo mi dispiace, lui è un caro amico – si dimostra che il modello di cervello di Tononi non è Turing-computabile, cioè: datemi tutti i computer del mondo, i mainframe, come ricordava Paolo, come si chiamavano un tempo, e quelle cose lì non le potete risolvere. Quindi l’intelligenza artificiale è affascinante perché è un pezzo di proiezione di noi verso l’esterno ed è la nostra caccia al reale. Anche questo chi mi ha preceduto l’ha già messo sul tavolo, ma guardate, io vi racconto una cosa. Avete parlato di ChatGPT. ChatGPT non utilizza soltanto il machine learning, che è la tecnica fondamentale dell’intelligenza artificiale, che suona molto misteriosa, ma è una tecnica tutto sommato banale, cioè voi avete un insieme di dati immenso, da cui dovete estrarre informazione, dovete estrarre conoscenza, e allora vi accorgete che esaminare tutto questo insieme di dati con metodologie ordinarie è impossibile. Quindi che fate? Prendete un sottoinsieme, un piccolo sottoinsieme di quell’insieme, ci lavorate a mano, sudore e sangue, per capire se ci sono delle tendenze, dei trend, dei pattern ripetitivi e così via, e poi cercate di estendere questa comprensione che avete ottenuto su quel sottoinsieme all’intero insieme dei dati. Bene, quello che ChatGPT fa è usare una versione più complessa di questo processo che si chiama deep learning. Per essere più preciso, deep reinforced learning, cioè una macchina che conosce in maniera approfondita e non è altro che un’iterazione del machine learning tante volte. Succede questo, che mentre magari al primo passaggio sapete qual è l’ambiente a cui questi dati si riferiscono, nei passaggi successivi voi ogni volta fate riferimento a un ambiente che non è quello di partenza, ma è quello costruito nel processo di machine learning precedente, il machine learning lo iterate perché iterando lo fate sempre meglio. Cosa capita? Capita questo. Il nostro machine learning ricorda molto – ho visto nella platea tantissimi giovani che mi fa piacere di vedere e loro saran freschi di studi di filosofia – ricordate il mito della caverna di Platone? Platone ci dice: attenzione, noi non conosciamo la realtà, conosciamo una cosa che si può omologare alle ombre che la realtà proietta sul fondo di una caverna. Noi siamo diventati abilissimi a studiare le ombre proiettate sul fondo della caverna. Ma lì siamo già lontani dalla realtà, stiamo dando una rappresentazione di una rappresentazione quando capiamo come funzionano le ombre. Il deep learning questo processo lo itera N volte, quindi siamo a N passi dalla realtà, non c’è più la realtà, c’è un buco nero, c’è una scatola nera, anche un po’ un buco nero perché quando uno ci entra non esce più. E se a qualcuno che ha programmato un pezzo di deep learning chiedete che cosa sta facendo la macchina in questo momento, che processi computazionali sta eseguendo, quella persona non è in grado di dirvelo. E se qualcosa va male, non può intervenire, non è in grado di intervenire. Il processo è diventato un black box, una scatola nera. Tutto questo è quello che ci eccita e che ci interessa e che in qualche modo esprime alcune caratteristiche dell’intelligenza artificiale – scusi, ci ho messo un po’ a rispondere alla sua domanda – che sono queste. L’intelligenza artificiale sono macchine, cioè processi computazionali, che ci permettono di fare cose e quindi di aiutare l’uomo a fare cose che l’uomo fa con la testa e non con le mani. L’intelligenza artificiale è inevitabile, è inevitabile perché ogni giorno nella nostra vita quotidiana abbiamo a che fare con una quantità di dati che è spaventosa. Sapete quanti dati sono stati generati, messi in circolazione, trattati, confrontati e così via negli ultimi dodici mesi? Un dato di Cisco ci dice, ve lo dico con il mio linguaggio tecnico e poi ve lo traduco, 300 zettabyte. Uno zettabyte vuol dire mille miliardi di gigabyte, mille miliardi di miliardi di byte. Per dirvelo come dico ai miei studenti, se voi un byte lo identificate con un carattere di stampa, uno zettabyte vuol dire 360 miliardi di volte un libro come “Guerra e Pace”, un libro di 1.500 pagine. Quindi noi produciamo quantità di dati mostruosi. Con l’avvento dell’internet delle cose ne produrremo sempre di più. E l’altro numero inquietante qui diventa quello che si chiama il tempo di raddoppio, cioè in quanto tempo produciamo tanti dati quanti in tutta la storia dell’umanità fino a quel momento? Negli ultimi dodici mesi questo tempo di raddoppio è stato dell’ordine di otto mesi. Ma con l’ “internet delle cose”, stanno entrando in rete 150 miliardi di dispositivi che saranno in grado di generare dati, leggerli, interagire con chi genera dati di altra natura. Il tempo di raddoppio diventerà dodici ore. Cioè noi in mezza giornata genereremo, produrremo tanti dati quanti in tutta la nostra storia fino al giorno prima. Quindi non c’è modo di evitare questo processo. L’intelligenza artificiale non è, come qualcuno ha detto, magari sperandoci, una bolla come i famosi tulipani del 1660 in Olanda. No, non sarà una bolla, ma sarà un processo che andrà controllato se vogliamo conservare tutte le nostre proprietà di umani, perché quei dati lì o li tratta una macchina, o una macchina ci aiuta a estrarne la ricchezza che contengono, oppure sono perduti. La differenza rispetto al tulipano è che qui le cose si evolvono con una velocità che non ha precedenti. Non ha precedenti. Pensate, se voi guardate l’indice, la curva che dà l’indice di sviluppo dell’umanità nel tempo, partendo da 8.000 a.C. e arrivando ai giorni nostri, quindi un arco di 10.000 anni, scoprite che quella curva quasi non ha storia fino al 1700 d.C. Non ha quasi storia, ci sono alcune piccole oscillazioni intorno al Medioevo e al Rinascimento. Poi, nel 1770, che è la data dell’invenzione della macchina a vapore di Watt, quella curva ha un’impennata e comincia a crescere esponenzialmente. E quando arrivate ai giorni nostri questo esponenziale è così ripido che quasi la vostra curva è una retta verticale. Allora cosa fate? Prendete il logaritmo e, per vedere come va davvero la curva negli ultimi anni, andate a guardare il logaritmo. E con molta preoccupazione vi accorgete che sta avvenendo esattamente quello che è avvenuto prima. Siamo nel mezzo di un ginocchio, di quel ginocchio avvenuto con la macchina a vapore, con l’inizio della rivoluzione industriale. Siamo nel mezzo di un ginocchio analogo, all’uscita del quale ci dobbiamo aspettare una crescita esponenziale. Ma siamo in scala logaritmica, quindi sarà l’esponenziale di un’esponenziale. E credetemi, è un tipo di crescita che non sapete descrivere. Se io lo faccio in base N, in base 2 per semplicità, e immagino N passi di tempo, 2 alla sesta fa 64, che è una crescita drammatica: partite da 1, arrivate a 64 in 6 passi. Ma se la crescita fosse doppia esponenziale, 2 elevato 2 alla N, e N uguale a 6, voi avreste qualcosa come 20 miliardi di miliardi di miliardi, 20 volte 10 alla 18, un numero di 19 cifre.

Simoncini. Professore, la ringrazio e penso che ci abbia consentito di cogliere questa esplosione, e soprattutto quindi la ringrazio molto per essere stato con noi e l’aspettiamo sicuramente la prossima volta in presenza, come ci ha promesso durante i contatti precedenti. Grazie ancora. Dunque, di fronte a questa descrizione, è inevitabile con questi numeri e con questi dati che noi non possiamo pensare di fare un passo indietro. Allora, io vorrei adesso, avviandoci alla conclusione di questo nostro incontro, cercare di capire in positivo: qual è il compito? Tu dirigi un’agenzia che ha come tema aumentare le competenze, la conoscenza.

Tagliaretti. Mi riallaccio immediatamente a quello che diceva il professor Rasetti, che ringrazio per l’intervento molto interessante, e mi riallaccio al tema del governo di questa tecnologia, compresa la parte delle competenze. Spesso noi ci poniamo davanti al tema dell’intelligenza artificiale in modo binario, quindi vantaggi vs svantaggi, utilizzi vs rischi, modello europeo vs modello nordamericano e così via. In realtà, come diceva anche il professor Rasetti, la domanda secondo me va leggermente modificata. Bisogna partire da un dato di fatto: l’età dell’intelligenza artificiale è iniziata, è iniziata 15 anni fa, non è iniziata adesso. Adesso è visibile perché grazie a ChatGPT è molto più disponibile anche a tutti. Questo processo però è iniziato già da parecchi anni, sta esplodendo e dobbiamo farci i conti. Quindi, partendo da questo dato di fatto, che è una realtà ineluttabile, come possiamo noi, come società, come individui, far sì che i benefici di questa tecnologia siano massimi e i rischi siano minimi? Qual è il compito che noi abbiamo sia come società, quindi anche come istituzioni, e come paesi e come individui? Il professore spesso parla di “algoretica” nei suoi incontri, cioè il disegno di un nuovo modo di interagire con le macchine, con l’intelligenza artificiale. L’approccio che è stato fatto recentemente del regolamento sull’intelligenza artificiale è unico nel mondo. Innanzitutto perché è l’unico, non ce ne sono altri. Ci sono stati tentativi fatti dall’Inghilterra, dagli Stati Uniti nel 2023, che io ho interpretato più come il tentativo di essere i primi a produrre qualcosa, però alla fine non hanno portato veri risultati alla società. Il regolamento sull’intelligenza artificiale che è stato fatto dal nostro Parlamento Europeo, anche se ci sono voluti 4-5 anni, quindi un tempo molto lungo, è unico perché ha una valenza globale. Il regolamento si applica a tutte le società, a tutti i produttori, indipendentemente da dove sono, se però producono e mettono nel mercato europeo tecnologie a base di intelligenza artificiale. È unico anche perché è antropocentrico, lo possiamo dire, cioè pone al centro degli sforzi la persona umana, i diritti fondamentali della persona umana. Partendo dai diritti fondamentali si cerca di capire quali sono i rischi che i diversi sistemi hanno una volta implementati sulle persone e quindi si definiscono degli usi dell’intelligenza artificiale non permessi. Per esempio, alcuni degli usi non permessi, vietati, sono quelli del social scoring, cioè della classificazione delle persone sulla base di criteri informatici oscuri, come ci sono in alcuni paesi asiatici. L’utilizzo, per esempio, e qui ci si ricorda il film Minority Report, di tecnologie che permettono di fare una previsione sul rischio di crimini di una persona, sistemi che esistono che da noi non verranno mai utilizzati. Sistemi che permettono la manipolazione delle emozioni, anche questi in circolazione: è uscito qualche settimana fa sui giornali, quindi è notizia pubblica, che Amazon lo scorso anno ha installato dei software all’interno delle telecamere in alcune stazioni ferroviarie inglesi per poter monitorare le reazioni e le emozioni dei passeggeri davanti a dei cartelli pubblicitari. L’idea era quella di capire quale messaggio pubblicitario avesse più successo. Questo da noi, grazie all’approccio che abbiamo creato, unico, non sarà mai possibile. Questa è già una limitazione, un governo della tecnologia. È molto complesso perché c’è la parte tecnologica di cui abbiamo parlato, c’è la parte di formazione, di educazione, c’è anche la parte di regolamento. Ci sono poi tecnologie che possono essere immesse nel mercato e che tutti aspettiamo, che però devono essere controllate, regolamentate. Pensiamo alle tecnologie di guida assistita. Il professor Benanti ci raccontava degli Stati Uniti, ci sono a San Francisco questi taxi famosi, Waymo, che sono completamente automatici. Tecnologie che permettono alle macchine di andare senza guidatore devono essere testate in precedenza. Tecnologie che aiutano la chirurgia o che permettono la selezione del personale senza fare discriminazioni. Questi sono usi dell’intelligenza artificiale che sono permessi ma che devono essere in qualche modo verificati prima, quindi registrati, testati, ci deve essere una sorta di bollino di garanzia. A me piacerebbe vedere, so che è impossibile, però una sorta di bollino che ci dica “questa è una cosa che è stata fatta grazie all’intelligenza artificiale”, perché a noi sfugge quanto questa tecnologia sia ormai pervasiva in tutto e vediamo spesso solo i rischi ma non ci concentriamo su quali siano i benefici. Questa posizione un po’ binaria, certo, aiuta a capire quali sono gli estremi, non sempre aiuta il dialogo, perché crea delle contrapposizioni. E poi c’è l’ultima serie di tecnologie, che sono invece quelle che non richiedono nessun tipo di autorizzazione, ma che richiedono una comunicazione, trasparenza. Quindi se io ho a che fare con un chatbot, telefono o mando una email a una compagnia aerea e la risposta mi arriva in automatico, devo sapere che sto interagendo con una macchina e non con una persona. O se utilizzo ChatGPT per fare una traduzione, per fare una revisione di un testo, devo saperlo. In questo caso è ovvio che è una macchina, però in alcuni casi non è così ovvio. La trasparenza è necessaria. Quindi queste sono le tre categorie principali e poi c’è tutta una categoria di utilizzi dell’intelligenza artificiale che sono invece assolutamente consentiti e che non richiedono nessun tipo di regolamentazione. Pensiamo all’utilizzo, per esempio, dei filtri antispam nei computer o nella grafica dei videogiochi, ci sono tantissimi esempi, e questi sono utilizzi che il regolamento permette senza nessun tipo di controllo. Spesso, quando si parla di questo binomio, di questa contrapposizione tra i diversi sistemi, favorire la ricerca o proteggere i diritti fondamentali, in realtà il regolamento permette la ricerca di tutti i tipi di intelligenza artificiale, quello che non permette è l’utilizzo. Io la vedo un po’ come una zona a traffico limitato di una città, dove alcune automobili che non hanno permessi non possono entrare e poi abbiamo una serie di permessi che permettono alle macchine di entrare se sono testate e così via. Altro paragone che avevo sentito, Professore glielo rubo, è quello della rotonda, non come un incrocio, ma come la possibilità di permettere a tutte le tecnologie di entrare in circolo. Quindi questo è un po’ l’approccio che abbiamo come società. Come individui, cosa dobbiamo fare? Il professore ci diceva, l’era della rivoluzione dell’intelligenza artificiale è arrivata, noi dobbiamo guidarla, dobbiamo in qualche modo essere di controllo. Dobbiamo essere al centro di questa rivoluzione. La volontà, il progetto, la progettualità, la visione è nostra. Noi dobbiamo fare in modo che quello che la tecnologia ci dà, venga utilizzato nel modo più possibile consono agli usi che servono a noi come società. Abbiamo una responsabilità anche come Paese. Ogni volta che c’è una rivoluzione, siamo in una rivoluzione industriale, è come se ci fosse data una nuova possibilità di metterci in gioco. Quindi, come Paese Italia, come individui, ogni volta che c’è un tipo di evento come questo, noi possiamo rimetterci in gioco e diventare protagonisti di questa rivoluzione, diventare protagonisti anche del nostro futuro tecnologico. Spesso si dice che la cybersecurity è un gioco di squadra. Noi siamo la squadra sicuramente più forte, io sono molto tecno-ottimista sul fatto che se ci mettiamo insieme, come stiamo facendo anche in questo evento di oggi, nella direzione di acquistare più consapevolezza, possiamo massimizzare i benefici e ridurre i rischi per il futuro.

Simoncini. Paolo, le istituzioni provano a mettere regole per aiutarci, c’è questo ruolo della persona?

Benanti. È bello fare questo tipo di discorso in un luogo come il Meeting, dove si trovano così tante forti passioni per l’uomo e per l’impegno educativo. Mi permetto di dire che questa storia del bollino sui prodotti dell’intelligenza artificiale c’è già, è presente nel disegno di legge che è passato in Parlamento, o meglio, è in fase di analisi in Parlamento e nasce anche dal lavoro delle Commissioni, grazie all’insistenza dell’onorevole Barachini del Dipartimento dell’Editoria, proprio per tutelare un diritto cognitivo delle persone. Ma ripartiamo da quello che il professor Rasetti, amico oltretutto, ha iniziato a dire. Siamo più di 8 miliardi, 8 miliardi e 100 milioni al momento, secondo le statistiche ufficiali di ieri. Di queste, più di 6 miliardi hanno un cellulare, il che significa che il 75% dell’umanità utilizza una macchina programmabile. Stando alle statistiche ufficiali e agli ultimi report, in questo momento al mondo ci sono 27 milioni e 600 mila persone che sono in grado di programmare queste macchine, di parlare il linguaggio delle macchine, il che significa che il 99,65% dell’umanità è analfabeta riguardo a qualcosa che media tra noi e l’esecuzione del potere come nel potere computazionale. Ecco, questa è un’emergenza educativa. Non significa che domani dobbiamo saper tutti programmare, ma significa che se noi diamo questo potere allo 0,35% dell’umanità, stiamo creando una disuguaglianza enorme, con una piccolissima frazione di persone che sono i nuovi sacerdoti di questa nuova capacità di far accadere le cose ed escludendo tutti gli altri. Quindi, la prima vera grande rivoluzione, la prima vera grande cyberdifesa di questo spazio digitale è l’educazione e l’impegno educativo, che è una cosa fondamentale perché noi apparteniamo a una specie unica. Io ho passato la mia infanzia a disegnare funghi rossi con cerchi bianchi, e per istinto non lo sapevo che erano tossici, me l’hanno dovuto insegnare dopo. Ecco, se noi non trasmettiamo queste competenze alle generazioni successive, saranno semplicemente sprovviste di queste competenze. Ma questa è solo metà della storia. L’altra metà della storia è che ormai, già da settembre, i sistemi operativi dei nostri computer, qualunque marca voi compriate, saranno infusi di intelligenza artificiale. Significa che l’intelligenza artificiale abiterà nella nostra quotidianità e questo ci apre ad alcuni problemi. Il primo problema è questo: se io prendo possesso del vostro computer, sul quale c’è un’intelligenza artificiale che funziona più o meno come ChatGPT, e gli dico: “Mi puoi dire tutte le cose che posso utilizzare per ricattare Paolo Benanti?” ecco che vi arrivano una serie di selfie in cui sono a pranzo con una serie di persone e mangiano in modo smodato. In realtà, il computer è molto più reattivo a tirar fuori cose che voi non vorreste che tirasse fuori. Entro e prendo possesso del computer di un amministratore delegato e gli chiedo: “Mi puoi dire tutti i segreti industriali che sono conservati là dentro?” E lui, obbediente, me li dice in pochi minuti. Ma ancora peggio, cosa accade se un’organizzazione criminale prende possesso di una serie di computer di ciascuno di noi dotati di queste funzioni intelligenti? Si può pensare a un attacco a sciame, adattativo nel tempo contro le infrastrutture critiche che è in grado di mettere in ginocchio un paese. Allora, che quello che sta per accadere, cioè questa dinamizzazione grazie a sistemi come questi di tutti i nostri device, ci deve fare interrogare su come garantire una sicurezza che sia intergenerazionale, che sia un accesso alla democrazia intergenerazionale con l’educazione, ma soprattutto che sia una capacità di costruire quei guardrail fondamentali per evitare che queste macchine così utili vadano fuori strada. Noi siamo la generazione che deve decidere di questo.

Simoncini. Ringraziando ancora i nostri speaker a questo incontro, nel chiudere segnalo solo un punto che penso sia già emerso alla coscienza di tutti. La parola chiave che emerge in chiusura è “educazione”, cioè questo mondo va capito, va compreso per poterlo usare, altrimenti inevitabilmente si è usati. Questo aspetto della conoscenza, dell’educazione, mi pare che sia veramente, come dicevi tu, Paolo, nelle corde di un luogo come questo, che ha sempre richiamato la centralità di questa dinamica che c’è nella vita. Se posso, qui al Meeting accadono cose strane, certe volte anche particolari. Se vi capita di andare nel villaggio ragazzi, troverete che c’è un laboratorio fatto con i ragazzi delle medie in cui stanno scrivendo una serie utilizzando ChatGPT come spunto per favorire la creatività dei ragazzi, cioè non per chiedergli di creare la serie, non per copiare il compito, ma per farsi aiutare nella scrittura creativa. Ecco, io penso che noi da questa fase difensiva dobbiamo passare proprio a questa idea di proposta. Esistono luoghi in cui anche questa tecnologia può essere usata in questo modo, e per questo ringrazio ancora una volta e chiedo un applauso al Professor Rasetti, all’Ingegner Luca Tagliaretti e a Padre Paolo Benanti. Ringraziandoli ancora, ricordo che noi, a differenza delle big tech di cui parliamo, non abbiamo tutte queste risorse economiche, anzi noi ci fondiamo sull’autofinanziamento. Per cui, ricordo a tutti di cogliere l’occasione: troverete le postazioni “Dona Ora” per sostenere il Meeting, e vi ricordo in particolare, vi prego di prendere nota, che in questo particolare momento storico, dove sempre più incognite ci fanno chiedere come sia possibile costruire dialogo e pace, non potevamo non sentirci provocati da quanto ci ha detto il Cardinal Pizzaballa nel primo giorno. Per questa ragione, il Meeting devolverà parte delle donazioni raccolte nel corso di questa settimana per l’emergenza in Terrasanta, e per questo vi chiedo se è possibile uno sforzo ulteriore. Grazie ancora e buonasera.

Data

22 Agosto 2024

Ora

17:00

Edizione

2024

Luogo

Auditorium isybank D3
Categoria
Incontri