IL POTERE DEGLI ALGORITMI. L’UOMO E LA SFIDA DELL’INTELLIGENZA ARTIFICIALE

In diretta su Askanews, Avvenire, Corriere della Sera, Famiglia Cristiana, Telepace
In differita su Tv2000 in seconda serata

Paolo Benanti, Docente alla Pontificia Università Gregoriana di Roma ed esperto di bioetica, etica delle tecnologie e human adaptation; Nello Cristianini, Professore di Intelligenza Artificiale, Università di Bath. Modera Andrea Simoncini, Vicepresidente Fondazione Meeting per l’amicizia fra i popoli ETS, Docente di Diritto Costituzionale all’Università di Firenze.

Gli algoritmi sono tra noi. L’impatto delle tecnologie di nuova generazione è ormai vastissimo e pervasivo: quando ci muoviamo, quando leggiamo, quando scriviamo, quando compriamo, quando studiamo, quando… pensiamo, sistemi di intelligenza artificiale sono all’opera per suggerirci cosa scegliere. Senza accorgercene stiamo vivendo la più travolgente rivoluzione dai tempi di Aristotele: alla tecnologia non chiediamo più di fare al posto nostro quello che abbiamo deciso di fare, ma le chiediamo piuttosto di decidere. È evidente che questa rivoluzione ha un impatto profondo sulla nostra umanità ma, soprattutto, è così travolgente perché ci fa risparmiare: tempo, fatica, sforzo, pensiero. Il più grave errore che potremmo fare, però, è immaginare che queste macchine a cui chiediamo di decidere per noi, pensino come noi. È dunque una sfida epocale, visto che non possiamo assolutamente negare quanto queste tecnologie siano fattore di sviluppo e di progresso per tutti; d’altra parte, è vitale che tale progresso e tale crescita siano criticamente e consapevolmente guidate dagli esseri umani. Non poteva mancare, quindi, un approfondimento su questo tema cruciale al Meeting. Per realizzarlo tornano a far visita al Meeting due amici straordinari: Nello Cristianini e Paolo Benanti. Nello Cristianini è tra i più importanti scienziati esperti di AI (Artificial Intelligence) in Europa e al mondo; nel suo recente ed illuminante libro “La scorciatoia”, chiarisce da fisico-computer-scientist estremamente attento all’impatto umano di questi sistemi, come funzionano e come dobbiamo usarli correttamente. Paolo Benanti, francescano, teologo e membro, tra l’altro, della Task Force Intelligenza Artificiale dell’Agenzia per l’Italia digitale è probabilmente tra i più noti, competenti e rispettati esperti al mondo sul tema del rapporto tra Etica e Intelligenza Artificiale. I suoi libri e le sue conferenze testimoniano una capacità formidabile di dialogare con la nostra contemporaneità tecnologica, lontana da scelte “neo-luddiste”, ma ben radicata nella centralità della persona umana.

Con il sostegno di isybank, Fondazione Istituto Tecnico Superiore per le Tecnologie dell’Informazione e della Comunicazione e Tracce.

IL POTERE DEGLI ALGORITMI. L’UOMO E LA SFIDA DELL’INTELLIGENZA ARTIFICIALE

Titolo incontro

IL POTERE DEGLI ALGORITMI. L’UOMO E LA SFIDA DELL’INTELLIGENZA ARTIFICIALE

Martedì, 22 agosto 2023 ore: 15.00
Auditorium isybank D3

Partecipano

Paolo Benanti, Docente alla Pontificia Università Gregoriana di Roma ed esperto di bioetica, etica delle tecnologie e human adaptation; Nello Cristianini, Professore di Intelligenza Artificiale, Università di Bath.

 

Modera

Andrea Simoncini, Vicepresidente Fondazione Meeting per l’amicizia fra i popoli ETS, Docente di Diritto Costituzionale all’Università di Firenze.

 

Simoncini. Buonasera, Benvenuti. Gli algoritmi. Gli algoritmi sono tra noi. L’impatto delle tecnologie queste di nuova generazione. Soprattutto quelle che nascono dopo quella che viene chiamata la rivoluzione digitale, ormai è vastissimo. Tocca tutti gli aspetti della vita, tocca tutti noi. Pensate soltanto oggi, quante volte ognuno di voi ha consultato il telefonino e non per telefonare, che è la cosa per cui, teoricamente sarebbe fatto, ma per chiedere che strada fare per venire qui in fiera e parcheggiare, per entrare nell’app che ognuno ha dovuto scaricare, il QR Code da esibire all’ingresso, e poi per prenotare questo incontro (e l’avete fatto in tantissimi, come potete vedere in tantissimi). Ormai, quando ci muoviamo, quando leggiamo, quando scriviamo, quando compriamo qualche cosa, quando studiamo, insomma, quando dobbiamo cercare informazioni per pensare, per vivere, per decidere, in realtà, stiamo chiedendo a dei sistemi, in particolare – ma cercheremo di capire meglio cosa vuol dire questo termine – sistemi di intelligenza artificiale, stiamo chiedendo a dei sistemi di suggerirci qualcosa. Senza accorgercene, o meglio, adesso cominciamo ad accorgercene sempre più in maniera consapevole, ma senza accorgercene, stiamo vivendo forse una delle trasformazioni più travolgenti dai tempi degli antichi. Oggi alla tecnologia noi non chiediamo più di fare quello che avevamo precedentemente deciso oggi alla tecnologia chiediamo di decidere, casomai di farlo in maniera più veloce, più efficiente, più forte. E questo è un salto e un passaggio: non chiediamo più semplicemente di portare ad effetto qualcosa che avevamo pensato, ma chiediamo cosa pensare, cosa pensare di qualcosa. Voi provate a immaginare se qualcuno, oggi o ieri, avesse voluto chiedere cosa sta succedendo al Meeting? La cosa più semplice, andare su Google, mettere “Meeting di Rimini Novità”. Ecco, in quel momento nella rete ci sono migliaia e migliaia di informazioni su quello che sta succedendo qui. Chi è che decide la prima che vi compare sul telefonino? Chi è che decide le prime due o tre che poi sono quelle che poi, in fin dei conti riusciamo a guardare? È difficile che quando nella risposta di Google c’è scritto, poi c’è ne sono altre 2000, uno va a vedere la duemillesima … uno di solito guarda le prime 2 3 pagine. Chi è che sceglie? Chi è che ha scelto quelle informazioni? Chi è che ha preso la decisione tra 1000 e 1000 notizie, dati che potremmo avere di scegliere quelli? Ecco, per questo si comincia a capire l’idea del potere degli algoritmi, perché evidentemente, soprattutto quando chiediamo agli algoritmi di decidere – quindi quando chiediamo a questi sistemi di prendere decisioni intelligenti – evidentemente c’è un atto di affidamento, ci fidiamo, decidiamo quantomeno di fidarci. Ora, è indubbio che questo sistema, questo sviluppo tecnico così forte sta generando una certa ansia, una certa preoccupazione, E’ indubbio che se noi spostiamo la nostra capacità di decidere, ovviamente stiamo dando gran parte della nostra libertà, stiamo affidando a qualcun altro o a qualcos’altro le preferenze della nostra vita. Quindi si è cominciata a creare questa preoccupazione, quest’ansia. Sicuramente i film sono nella cultura popolare, forse la cosa che l’ha aumentata di più quest’ansia. Se voi prendete i vari …a partire da Blade Runner, forse il padre di tutto questo, ma poi Terminator, Robocop, Matrix, Transformers, sono tutte macchine un po’ cattive, anzi, molto cattive. E allora viene, viene da chiedersi, ma perché hanno così tanta fortuna? Come mai, nonostante questa preoccupazione, noi continuiamo in maniera così massiccia a usare, a fidarci? Allora direi due motivi, mi sembrano obiettivi. Il primo: perché questa tecnologia ha consentito di fare delle cose importantissime, ci consente di fare cose obiettivamente utili. Pensiamo a tutto il periodo della pandemia. Se noi non avessimo avuto una tecnologia digitale, moltissime delle cose che la pandemia aveva bloccato non le avremmo potute fare. Dunque, da un lato, perché obiettivamente questa tecnologia rappresenta un passo in avanti. In secondo luogo, la forza di queste tecniche, di questi sistemi, di queste tecnologie è una forza pratica. Ci fanno risparmiare tempo, ci fanno risparmiare pensieri, ci fanno risparmiare fatica. Si impongono perché ci rendono – almeno sembra -, ci rendono più semplice la vita. Così facendo è come se la conquistino questa fiducia. Ma penso, e così vengo all’incontro, ma penso che ci sia una terza sfida, la più forse la più interessante, che questo contesto è questa e questo scenario in cui viviamo sempre più densamente popolato di macchine e di sistemi ci pone e proverei a sintetizzarlo così: per la prima volta nella storia, noi abbiamo davanti delle macchine o dei sistemi tecnici che pretendono di fare bene, anzi, forse è anche meglio, cose che prima facevano gli umani, che facevano gli esseri umani. Per questo, quest’evoluzione, questa situazione è come se stesse facendo emergere una domanda: ma cosa c’è di propriamente umano? Cioè, c’è qualcosa dell’umano che non è replicabile da una macchina, che non è automatizzabile? La vera sfida, la vera domanda che comincia a introdursi sempre di più è: ma c’è qualcosa che pertiene, che è proprio dell’umanità, e che queste macchine, paradossalmente crescendo e allargando la loro sfera di azione, ci costringono a porre come domanda. Allora capite, sono domande da brivido, sono domande pesanti, sono domande importanti e per questo occorrevano per affrontarle, ospiti all’altezza di domande così importanti e quindi ospiti eccezionali come sono i due ospiti che ringrazio profondamente per aver accettato di tornare al Meeting, perché sono amici del Meeting. Comincio la mia sinistra, padre Paolo Benanti, che è sicuramente, Padre Paolo, francescano e non c’era bisogno di dirlo – perché, insomma, si vede abbastanza – teologo, professore alla università Gregoriana, ma sicuramente è una delle persone e delle personalità, diciamo degli intellettuali più importanti, più autorevoli su questo tema: è membro della task force sull’intelligenza artificiale dell’Agenzia italiana dell’Italia digitale, ma è membro del Consiglio d’Europa (sta scrivendo nuove regole sull’intelligenza artificiale); non finirei in tempi rapidi di elencare, ma la cosa che mi preme più dire è che è veramente una delle persone che più conosce questo tema e che è anche più intelligente e capace di comunicare su questo. Per questo lo ringrazio particolarmente per aver accettato il nostro invito.

E alla mia destra, il professor Nello Cristianini, il professor Cristianini anche lui è un ritorno al Meeting, è già stato con noi, italiano, goriziano e triestino di formazione universitaria, ma insegna, vive in Inghilterra, adesso a Bath, dove ha insegnato anche a Bristol. Nello è sicuramente uno dei più importanti esperti professori proprio di Artificial Intelligence, quindi fisico di estrazione, ma poi da sempre a contatto della ricerca su questi temi. Di recente ha pubblicato un libro, si chiama “La scorciatoia” che è proprio un condensato di questa riflessione sulla diffusione di queste macchine dentro il contesto sociale. Allora con loro due noi vorremmo provare a districarci in questo in questo tema che però è così importante.

Il primo round di domande che avevamo che ho pensato con loro, è proprio partire un po’ dall’inizio: il fenomeno, cioè quando noi parliamo di intelligenza artificiale, quando noi parliamo di questi sistemi tecnologici, quando noi descriviamo l’impatto che hanno, esattamente di cosa stiamo parlando? Qual è l’origine di questi fenomeni? Qual è il tipo di diffusione che in questo momento stanno avendo? Qual è la vostra valutazione di questo fenomeno? Padre Paolo.

 

Benanti. Bene, grazie anche di questa presentazione, che forse non merito e grazie anche per questa occasione di rincontrarvi al Meeting.

Parlare di intelligenza artificiale significa parlare innanzitutto di una storia che ha inizio in un seminario poco frequentato negli anni ‘60 negli Stati Uniti, in cui ci si era reso conto che una nuova caratteristica della realtà non era la materia, non era l’energia, ma l’informazione, poteva darci un nuovo modo per controllare le macchine. E c’era il padre dell’informazione – Shannon -, che aveva realizzato a scopo dimostrativo un piccolo topolino a cui aveva dato un nome mitologico, Teseo, che, meccanico, che sbattendo lungo le pareti di un labirinto tutto cablato ogni volta che urtava una parete cambiava direzione e urto dopo urto, trovava l’uscita dal labirinto. Ecco, era la prima volta che, utilizzando questa nuova categoria concettuale, che era la categoria dell’informazione, una macchina non surrogava semplicemente il muscolo umano, ma mostrava una caratteristica – la capacità di perseguire un fine – che di fatto è una caratteristica che attribuiamo ad alcune diverse forme di intelligenza: il cane che viene a stimolarci o trova il modo per avere la pappa all’interno di casa lo pensiamo, lo chiamiamo intelligente. Ecco, solo che questo modo di utilizzare l’informazione per controllare la macchina (perché a ogni urto si chiudeva un interruttore e quindi la macchina cambiava comportamento), doveva, secondo alcuni, chiamarsi cibernetica. Però sapete, un mio professore una volta mi disse: “Eh, la vita universitaria è il paradiso; l’inferno, sono i tuoi colleghi”. E perché? Perché purtroppo il propulsore di questo termine, della cibernetica, aveva un collega che era McCarthy, a cui non andava assolutamente a genio e McCarthy era disposto a chiamare questa nuova branca della disciplina in qualsiasi maniera, anche intelligenza artificiale, che non gli piaceva, pur di non dar ragione a Wiener che proponeva cibernetica. Ed è così che da più o meno metà degli anni ‘60, con un nome che nessuno ha voluto, ma che era meglio delle altre disponibili, abbiamo iniziato a descrivere un nuovo tipo di macchina che, dato un fine, trova dei mezzi per realizzare questo fine. Ora, io non voglio prendere il posto del professor Cristianini, che da un punto di vista tecnico sugli algoritmi ne sa molto più di me, ma vorrei con voi fare un po’ quello che è il mio mestiere, il mestiere dell’eticità, cioè scuotere un po’ questa realtà per far vedere quali sono i punti a cui porre un attimo attenzione. Perché una macchina che è un fine trova lei i mezzi, ma già capite che il fine non giustifica i mezzi. E quindi già qui si apre un grandissimo problema su quali mezzi siano i mezzi adeguati per raggiungere quel tipo di fine. Ma la cosa si fa ancora più interessante, se volessimo citare Wittgenstein, il filosofo, perché Wittgenstein ci dice: “I confini del mio mondo sono i confini del mio linguaggio, delle mie parole”. Per la prima volta ci siamo dovuti trovati di fronte al fatto di dover utilizzare un termine, che applicavamo principalmente agli umani e con qualche riduzione a qualche animale, per descrivere una macchina che avevamo costruito. Ci mancano le parole – e questa è parte del problema che abbiamo visto nell’introduzione – per descrivere la differenza tra qualcosa che funziona – la macchina – e qualcuno che esiste – me e voi. Ecco, non pretendo nel poco tempo che ho di dare una risposta a una cosa che di fatto ancora non abbiamo risolto del tutto, però mi chiedo, se noi possiamo a questo punto prendere qualcosa dalla traduzione di pensiero che abbiamo come occidentali, per cercare di descrivere questa differenza, per provare a rispondere che cos’è questa forma di intelligenza non animale e non umana. Ecco, per fare questo io andrei sui classici. E rileggendo Ulisse, rileggendo l’Odissea, l’astuto Ulisse in greco in realtà è detto, con un termine che nel greco serviva a indicare, nel greco classico serviva a indicare una forma di intelligenza diversa da un’altra forma di intelligenza. Il greco conosce il nous, come quella forma di intelligenza che capisce e poi conosce il metis, la metis, quella forma di intelligenza che trova le soluzioni. Ecco l’intelligenza artificiale, se dovessimo ricomporre questa odissea dell’intelligenza artificiale, è un metis, una forma di praticità che trova una soluzione, che non ha un corrispondente che la distingue da un’altra forma di intelligenza nelle lingue contemporanee e che ci stupisce, perché trova per noi delle cose che ci costano normalmente un po’ di fatica cognitiva. Ma a questo punto c’è un’altra questione da fare, perché quando diciamo intelligenza artificiale secondo me non è neanche così appropriato definirla al singolare. Perché? Perché sono tutte macchine che dentro di loro hanno una qualche scheggia, una qualche particolarità di alcune delle forme che caratterizzano l’intelligenza umana. E quindi forse la cosa migliore e più corretta da un punto di vista anche umanistico, sarebbe definirla al plurale, le intelligenze artificiali, perché quella macchina che fa quella cosa in una maniera che sembra simile all’intelligenza è diversa da quell’altra. Non hanno la stessa forma di intelligenza, ma fanno compiti differenti. E allora le intelligenze artificiali sono una grande famiglia di strumenti più o meno efficienti, più o meno potenti, più o meno energivori – e di questo se ne parla anche troppo poco – che ci consentono di trovare dei mezzi per risolvere dei problemi. Questo significa che un’intelligenza artificiale è utile solo se abbiamo davanti a noi un ermeneutica della realtà in cui la realtà è un problema da risolvere. E una domanda esistenziale, non è un problema da risolvere, è una qualità di esperienza da vivere e quindi è molto umano e poco artificiale. Detto questo, però vorrei chiudere questa breve introduzione su una cosa su cui si potrebbe parlare all’infinito, soffermandomi su quell’ultima frontiera delle intelligenze artificiali che più o meno ha guadagnato l’onore delle cronache negli ultimi 7-8 mesi, questi che vengono chiamati i grandi modelli linguistici e forse più conosciuti con il nome di una delle applicazioni chat GPT. Ecco, con questa ultima frontiera di intelligenze artificiali la macchina dovrebbe indicare qual è la prossima parola in una frase. Poi però l’abbiamo fatta così potente che indovina non solo la prossima parola, ma tutto il periodo, tutto il paragrafo, anche tutta la pagina e anche qualcosa di più. Ecco, queste intelligenze artificiali si interfacciano con una parte della persona, la cognizione, che va guardata con molta cura. Perché? Perché fin da bambini sappiamo che chi ci racconta le storie, chi ci racconta le fa le fiabe, ci da una certa prospettiva sul mondo. Ecco, vorrei concludere così, cosa sono le intelligenze artificiali? Sono delle grandi interfacce verso la realtà, che ci danno una prospettiva per risolvere quel problema che abbiamo davanti e mediano parte della comprensione di quello che abbiamo davanti. Non sono così differenti da quella lente convessa che nel sedicesimo secolo ci ha permesso di fare il telescopio e il microscopio, con il quale abbiamo guardato il cielo e abbiamo capito una cosa diversa, con il quale abbiamo guardato le infinità del nostro corpo e ci siamo capiti come fatti di cellule. E allora la sfida non è nella macchina in sé, ma in quello che la macchina oggi ci invita a capire della realtà e di noi stessi. Insomma, il problema è ancora l’uomo e non la macchina.

 

Simoncini. Grazie Paolo. Intelligenza, intelligenze. Da di dentro, come giustamente diceva, di questo lavoro, come definiresti questo queste nuove tecnologie?

 

Cristianini. Sì, grazie. Io cerco sempre di semplificare le cose per aiutare la comprensione, perché il problema è complesso. Però possiamo immaginare questo: intanto si può cercare di definire in modo più pratico cos’è l’intelligenza guardando alla biologia, tutti i casi di intelligenza noti a noi fino a pochi anni fa, erano biologici, animali. Ecco, si parte da lì. E l’intelligenza esiste su questo pianeta da ben prima degli esseri umani, senza alcun dubbio, e quindi è naturale ed è prima del linguaggio, prima dell’autocoscienza e quindi è importante non mescolare questi livelli: se esisteva prima vuol dire che non ha bisogno di linguaggio e di autocoscienza. L’intelligenza si trovava negli animali primordiali degli oceani preistorici, i predatori, le prede, c’era addirittura cooperazione o competizione. L’intelligenza è sempre stata, non sempre, ma quasi sempre stata con noi ed è una abilità. Si può ottenere in modi completamente diversi, non c’è uno specifico tratto che sia l’intelligenza è un’abilità, la capacità di adattarsi, di imparare, di prendere decisioni in situazioni nuove. Un animale in un ambiente nuovo, mai visto prima, non può avere memorizzato il comportamento adeguato, deve calcolarlo, magari ragionandoci o in un altro modo, è lì che entra l’intelligenza. E ancora oggi quando si gioca a scacchi con un computer: la configurazione della scacchiera potrebbe essere mai vista prima, la macchina deve comprenderla, ragionarci, decidere. In questa prospettiva qui, evitiamo di farci confondere dalla bellissima complessità della nostra intelligenza che così tanto diversa, ma unica. E ci concentriamo su quello che è fondamentale. Insomma, l’intelligenza serve più alla gallina per attraversare la strada senza farsi colpire dalla macchina, che non a Shakespeare per scrivere un poema. Quel tipo di intelligenza lì, la capacità di agire in modo sensato, in condizioni mai viste, non è nemmeno esclusiva degli animali, le macchine c’hanno già, abbiamo fatto delle macchine che sono in grado di decidere in autonomia, imparando, ragionando, pianificando e le usiamo da prima di GPT, le abbiamo nel telefono, in tasca da almeno 10, 15 anni. Quando apriamo Youtube la mattina e guardiamo un video che la macchina ci propone, l’algoritmo deve prendere decisioni: su un miliardo di video possibili, ne prende uno. Come fa? Chi si installa l’applicazione di Tik Tok, una volta installata Tik Tok uno si fa l’account, questo è un algoritmo nuovo, non conosce nessuno, non ha mai visto questo utente; nel giro di pochi minuti fa un po’ di esperimenti, cerca di capire cosa mi interessa e poi si specializza sempre di più nei giorni e ottiene il suo obiettivo di farmi passare il tempo guardandolo. Amazon, mi raccomanda i libri, Youtube mi raccomanda i video e avanti così. Sono macchine intelligenti. La questione è che non hanno l’intelligenza di tipo umano. Come hanno fatto a funzionare, come fanno? Come li costruiamo? Questa è una storia importante perché abbiamo menzionato il workshop degli anni ‘50 e John McCarthy, che ha dato il nome al nostro campo di ricerca, l’intelligenza artificiale. Quello che abbiamo fatto adesso, quello di cui parliamo oggi avrebbe stupito completamente John McCarthy in quegli anni, perché si aspettava lui un futuro interamente diverso. Io ho la fortuna di conoscere John McCarthy e di parlare di come ha scelto quel nome ed è una storia incredibile, ma adesso non c’è tempo. Comunque lui ha dato il nome a questo campo e ha dato anche le idee fondamentali all’inizio negli anni ‘50 e le idee sono sempre quelle: usare metodi di logica di ragionamento esplicito, di grammatica per comprendere il linguaggio, la visione, il comportamento. Si è seguita quella strada lì per moltissimi anni. Abbiamo investito un sacco di soldi nel comprendere a fondo cos’è il linguaggio, sperando di fare una macchina che potesse tradurre, senza risultati e questo è uguale anche in altri campi. Fino a quando abbiamo rinunciato e siamo detti: “Cerchiamo di modellare il linguaggio alla meno peggio, almeno statisticamente”. In quel momento lì abbiamo rinunciato a comprendere l’essenza del linguaggio umano e ci siamo accontentati di fare delle previsioni alla meno peggio: un modello statistico può predire la parola mancante abbastanza bene, dato il contesto. E quell’approccio, l’abbiamo usato in altri campi e ha funzionato sempre di più: predire il libro, predire il video. Ed è quello che chiamiamo la prima scorciatoia: fare uso della statistica invece che della comprensione logica del fenomeno. E questo ha creato il problema di trovare altri dati, i dati da per addestrare la macchina. Queste macchine hanno fame di dati, vogliono molti dati per trovare queste relazioni statistiche e invece che produrli a mano, in modo diretto, mirato, abbiamo deciso di raccogliere dall’internet e questa è la seconda scorciatoia. Raccogliamo i dati da internet per addestrare macchine che così non devono capire a fondo il fenomeno. E poi c’era il problema di capire cosa vuole l’utente, che video vuole guardare l’utente. Invece di chiederglielo – che è complesso – abbiamo deciso di osservare l’utente costantemente, registrando tutte le sue decisioni. E questa è la terza scorciatoia.

Mettendo insieme la prima e la seconda e la terza scorciatoia – la statistica, i dati trovati online e la osservazione dell’utente – abbiamo tre componenti che formano la ricetta che è oggi alla base di tutto quello che stiamo usando, da Amazon a Youtube, a Facebook fino GPT, fino a Google Translation Traduzione. Ecco, è chiaro che questo punto abbiamo anche risolto dei problemi e creato degli altri problemi. La macchina non rappresenta il mondo in un modo simile al nostro, è profondamente diversa da noi. Comprende molte cose, ma in un modo diverso dal nostro. Io non posso dire a Youtube attenzione che raccomandando quel video a un minorenne, rischi di polarizzarlo, radicalizzarlo, incoraggiare abitudini che non andrebbero incoraggiate… La macchina non può comprenderlo. Quasi ogni problema che stiamo osservando adesso con questa tecnologia nasce da queste tre scorciatoie e non sarà facile risolverlo, perché non abbiamo un’altra tecnologia, abbiamo questa, abbiamo il metodo statistico, che risolve problemi e ne crea degli altri. Ma attenzione, queste macchine comprendono a modo loro il mondo, GPT è una forma di intelligenza e ha una forma di comprensione, nel senso che abbiamo detto all’inizio, quello degli animali semplici, alieni non umani. Non sarà facile comprenderci con questi meccanismi, perché non pensano come noi, eppure abbiamo il bisogno adesso di trovare il modo di coesistere con loro in modo sicuro e questo è il progetto su cui si lavora adesso in questo momento qui.

 

Simoncini. Guardate che riuscire a condensare in otto minuti a testa la complessità di questo di problemi così è veramente eccezionale e l’hanno dimostrato. Dunque, come dire, un conto è risolvere un problema, un conto è il tipo di intelligenza che artificialmente possiamo produrre, un conto è l’intelligenza umana: il nous e la conoscenza diversa dalla capacità di risolvere, quindi un primo punto l’abbiamo messo lì. Sono, stiamo parlando di cose, ma allora perché questa paura, se in fin dei conti queste macchine sono buoni strumenti per risolvere questioni? Paolo, da dove nasce, cioè come mai c’è questo rischio di un impatto più generale sulla stessa antropologia, sul modo di conoscere, sulla capacità cognitiva. Ti volevo un po’ chiedere, quali sono i rischi che ci sono e quali sono gli aspetti positivi.

 

Benanti. Questa è un’altra impresa da sintetizzare.

 

Simoncini. Ma saranno tre imprese, vi assicuro.

 

Benanti. No, va bene, diciamo che il passaggio, le tre scorciatoie come abbiamo sentito, ci hanno donato una macchina che non solo è in grado di scegliere i mezzi per arrivare a un obiettivo a un fine, ma ci hanno dato una macchina che in qualche misura ha un grande potere, che è il potere di predire qualcosa che ancora non è successo. E se noi sulla stazione spaziale orbitale, raccogliamo tutti i dati che vengono da tutti i sensori di tutte le parti mobili, possiamo vedere che in alcuni momenti potremmo trovare dei dati che si discostano dalla normalità. Per esempio quando un compressore dell’aria inizia a rompere un cuscinetto, inizia a vibrare un po’ di più. Ecco, la macchina in questa sua ricerca disperata di regolarità, in questa sua ossessione per la regolarità, è in grado di riconoscere questa anomalia e segnalare questa anomalia o ancora di più di trasformare questa anomalia in una predizione di rottura di quel componente; e quindi magari potremmo sviluppare un sistema che ci riesce a dire, in base all’anomalia delle vibrazioni di quell’asse che tra 5 ore, 22 minuti e 35 secondi, quel compressore si rompe. Eh, capite che in una situazione critica come stare nello spazio e poter riparare un sistema vitale di bordo prima che si rompa, eh, questa diventa un potere enorme. Non devo aspettare che si rompe qualcosa, che si accende la spia del guasto, ma posso intervenire prima. Però questo potere di predizione di questo tipo di macchine funziona bene su quel tipo di dato, che viene prodotto da un sistema meccanico in cui gradi di libertà sono stati decisi a tavolino da un ingegnere, per cui quello ha pochi gradi di libertà, ha quella capacità di rotazione e poco altro. Ma se iniziamo a utilizzare gli stessi sistemi, le stesse scorciatoie su dati prodotti da un sistema strano basato sulla chimica del carbonio (me e voi), ecco, noi abbiamo un brutto difetto ingegneristicamente, che chiameremo la libertà. E questo nostro avere un po’ più di gradi di libertà fa sì che la macchina che interagisce con l’essere umano, non solo in alcuni casi predice quello che facciamo, ma sembra – da una serie di studi – in grado anche di produrre parte del nostro comportamento. Chi se n’è accorto prima è stato il marketing, per cui quell’annuncio forse ti interessa anche nella piattaforma dove hai comprato l’ultimo libro: non solo ha predetto il libro che ti interessa, ma prodotto almeno un 10 – 15% di vendita in più. E allora capite che avere uno strumento che predice/produce dei comportamenti è utilissimo, ma può essere anche pericolosissimo. Ma questo, guardate, non è un problema di questa frontiera tecnologica, perché quando come specie umana, 70.000 anni fa, pensiamo 70.000 anni fa in una caverna per la prima volta abbiamo preso in mano una clava, era un utensile per aprire più noci di cocco o un’arma per aprire più crani di altri sapiens? Ecco il fatto che tutto questo possa essere usato nel bene e nel male, è il problema etico che c’è da sempre, è quella cosa che Solgenitsin in “Arcipelago gulag”, diceva: “lentamente compresi, che la linea sottile che separa il bene dal male passa dritta al centro del cuore di ciascuno di noi”. Non è un problema della macchina, è il problema… non è un problema del potere degli algoritmi – fatemi giocare un po’ col titolo di questa nostra chiacchierata -, ma è un problema del potere dietro gli algoritmi, cioè di come tutto questo diventa società, di come tutto questo diventa sistema organizzato. Questa è l’etica della tecnologia. E quando nell’80 Wiener ha lanciato questo modo di mettere sotto una critica sociale alla tecnologia, lo ha fatto con un esempio: se voi andate a New York, a Manhattan, ecco, potreste vedere una bella autostrada a sei corsie che unisce Manhattan con Long Island; quella e tante altre opere pubbliche sono state fatte da Richard Moses, un famoso politico newyorkese. Ecco. Andandoci noi così a vedere quella strada, probabilmente vedremo quello che vediamo tutti quando percorriamo l’A1: calcestruzzo e asfalto. Ma se andiamo a leggere la vita di Moses su un libro così importante di oltre 1000 pagine che ha vinto un Pulitzer e che è tra i migliori 100 libri di non narrativa del mercato americano, scopriremmo che Moses aveva delle idee, oggi forse non più accettabili, ma all’epoca molto chiare, per cui la parte migliore della città doveva essere per le persone migliori. E per lui Johnson Beach, la spiaggia più bella di New York, doveva essere per la parte migliore della società: la classe media bianca. E allora cosa fa? Beh, non costruisce nessun treno per andare a Johnson Beach e quei ponti in calcestruzzo sono due piedi, 66 cm., più bassi dello standard. Nessun autobus riesce a passare. Solo chi possedeva una macchina poteva andare al mare. Ogni artefatto tecnologico nella sua iniezione sociale, nel suo entrare all’interno di una società, funziona come uno strumento d’ordine, è come un dispositivo di potere. E allora la domanda che ci dobbiamo fare per rispondere a quali sono le potenzialità e quali sono i pericoli, è esattamente questo: è mettere sotto il microscopio questa tecnologia e chiederci che forma d’ordine, che strumento di potere è all’interno delle nostre relazioni sociali. Dopo il Covid questo è abbastanza facile da capire: non è più questione solo di calcestruzzo e cemento armato, ma un diritto costituzionale, il diritto alla salute è stato ordinato tra noi secondo un criterio nascosto dietro agli algoritmi del portale della sanità regionale. E allora gli algoritmi oggi sono le autostrade di Moses. L’etica delle tecnologie non dice se la tecnologia è buona o cattiva, ma aiuta a leggere quell’uso in quella circostanza, con quei fini e a chiedersi e a chiedere a tutti i portatori di interesse, cioè a tutta la società civile, se questo uso afferma, confonde o nega altre forme di diritto che abbiamo detto essere alla chiave, al cuore della nostra società. Ecco, facciamo due esempi rapidi: come questa predizione oppure produzione di comportamento potrebbe essere usata a fin di bene. Sapete, l’età media in Italia dalla Seconda guerra mondiale si è alzata fino a 83 anni di attesa di vita. Una recente indagine statistica ha detto che gli italiani considerano la vecchiaia a iniziare a 84, cioè diventiamo vecchi dopo morti. Però, al di là di questa cosa qua, noi arriviamo a 84 anni grazie anche al fatto che più o meno da 55-60 anni, noi siamo in cura con almeno 2- 3 farmaci. La cronicità di alcune patologie che abbiamo ci dà una qualità di vita che dipende tantissimo da quanto noi aderiamo alla terapia. E che cosa succede? Che se tu hai una malattia cronica e non prendi il farmaco perché ti dimentichi, non sai o non fai, la malattia va in fase acuta, vai al pronto soccorso, il pronto soccorso è intasato, ti tengono là, poi ti rimandano a casa; la qualità della tua vita peggiora, la tua salute peggiora, la qualità della sanità pubblica peggiora. Pensate a poter usare questi strumenti per far sì che ciascuno di noi aderisca alla terapia. Ecco che sarebbero uno strumento ottimo per portare del bene. Certo, qualcuno lo potrebbe fare, invece per orientare la nostra opinione pubblica. E immaginate che cosa questo significhi. E allora eccoci qua di nuovo tra bene e male. E purtroppo spetta a noi.

 

Simoncini. Grazie Paolo. Nello, una delle cose che mi ha sempre colpito di quello che scrivi è che, pur essendo profondamente dentro lo sviluppo, l’esame, la capacità di ricercare in questi settori, hai sempre molto presente questo problema delle ricadute, cioè dell’impatto che possono avere positivamente e negativamente. E tu come vedi questo tema?

 

Cristianini. Sì, io credo che sia importante che non è facile separare la tecnologia, che rende questo possibile dall’uso che ne facciamo. Concettualmente c’è la tecnologia e c’è l’uso, ma abbiamo detto, per esempio, che la macchina ha bisogno costante di dati e per prenderli deve collegarsi con noi, osservarci. Ecco, vedete viceversa il web che abbiamo creato sarebbe non utilizzabile se non ci fossero degli algoritmi intelligenti che ci consentono di trovare i contenuti. Immaginate una biblioteca enorme, senza un catalogo. Chi trova un libro? Io non trovo anche il mio libro nella Feltrinelli e non è facile se non c’è un catalogo. E quindi Youtube, che ha miliardi di video sarebbe inutile senza un algoritmo che raccomando. Bene. Questo punto è piuttosto importante: abbiamo creato quelle macchine intelligenti, come abbiamo detto prima, che sono in grado di capire e prevedere le nostre azioni. E le abbiamo subito messe al centro di questa infrastruttura digitale da cui dipendiamo così tanto. Una posizione di grande controllo: ecco il potere no, che diceva Paolo. Il potere c’è perché la posizione è quella, la macchina è nella posizione di decidere quali email verranno mostrati a me e quali email verranno cancellati, quali notizie leggo, quali video guardo. E’ una posizione di potere. Abbiamo delegato delle decisioni alla macchina, che noi non possiamo più prendere, prende la macchina per noi. E abbiamo messo l’algoritmo lì, prima ancora di capire bene l’effetto che avrà collettivamente. Ma il punto è che, essendo lì può osservare, nutrirsi di dati e influenzare il comportamento. E quella posizione è importante, determina… dipende dalla tecnologia che abbiamo creato, ma determina i rischi. Il rischio non è fare un algoritmo nel vuoto sulla luna che sta lì, quello non fa male a nessuno. L’abbiamo messo in un posto in cui può decidere chi prende un mutuo, chi non lo prende, chi legge il giornale, chi non lo legge. Questo è controllo. È un po’ l’esempio del ponte: troppo basso per l’autobus. Io vi chiedo se quel signore che ha fatto il ponte ovvio che l’ha fatto apposta, mi pare di capire – l’obiettivo loro era di selezionare chi passa -, ma se l’avessero fatto senza intenzione sarebbe comunque lo stesso, uguale. L’intenzione conta fino a un certo punto. Si dice nella teoria dei sistemi: lo scopo di un sistema è quello che fa. Se il ponte è basso, il sistema dei trasporti della città ha lo scopo di filtrare le persone, anche se poi l’intento non c’era. Si può descrivere così: la infrastruttura che abbiamo creato, che si voglia o no, determina certe decisioni (chi vede quali film). E siccome è costruita allo scopo di indurre le persone a cliccare, ecco che allora cerca tutti i modi di osservare gli utenti sfruttarne le abitudini, comprendere le abitudini e usarle per farli cliccare. Se poi questo ha effetti collaterali come quello del ponte, è possibile, è probabile, solo che non li conosciamo ancora bene. Nel libro li chiamo effetti secondari, effetti del secondo ordine. Il primo effetto primario è aumentare il numero di utenti e di click. Questo è misurabilissimo e ottenuto e si conosce. La macchina ottiene l’obiettivo primario. Bene, è costruita per quello. Secondariamente però, cominciamo a sospettare che ci siano problemi di benessere emotivo negli utenti, nei ragazzini giovani, problemi di immagine di sé stessi, problemi di polarizzazione politica, di radicalizzazione politica, persuasione nel marketing anche politico. Persuasione è la cosa importante perché va a toccare la nostra autonomia. Vedete un fatto di guardare la stessa cosa da due angoli diversi: quando io clicco rivelo la macchina i miei interessi e la macchina fa il possibile per darmi altri contenuti che mi faranno cliccare che quindi io approverò. Ma si può anche vedere diversamente: quando io clicco rivelò la macchina, le mie debolezze e la macchina le sfrutterà contro di me per indurmi e cliccare ancora la stessa cosa. Basta guardarla in modi diversi. Servire e manipolare non sono cose diverse. Quando la macchina mi fa cliccare 10 volte mi ha manipolato o mi ha servito? Siamo in questo momento qui: abbiamo delegato il controllo alla macchina, stiamo osservando degli effetti su di noi socialmente e non abbiamo ancora gli strumenti culturali per comprendere questo a fondo. E questa è forse l’emergenza di questo momento. Fare delle leggi prima ancora di avere una comprensione completa del fenomeno e le stiamo facendo meglio che possiamo. Ora ci sarà un’elezione, il prossimo anno in Europa, una in America e una forse in Inghilterra. E in questo nuovo sistema si è aggiunto sopra di questo chat GPT che è una nuova entrata, nel senso che la macchina oggi parla. Fino a prima la macchina agiva, raccomandava, decideva, aveva grande potere. Ma parlare? Che è una risposta emotiva enorme. Ecco perché da novembre scorso tutti prestiamo attenzione: semplicemente perché la macchina oggi parla. O simula? Ma alla fine parla. Se noi cominciamo a ricevere le notizie da un sistema come GPT, si pone il problema della fiducia: ci fidiamo, sono corrette, sono accurate, sono neutre, sono equanimi? E poi c’è il fatto che incredibilmente da due anni le macchine sono in grado di produrre immagini di qualità realistica, sintetica. Avete visto tutti quella burla in cui il Papa indossava un piumino bianco. La qualità era molto buona. E quindi abbiamo un sistema che può conversare e generare immagini, generare dei video, rispondere alle domande come un oracolo. E siamo nel primo anno di GPT. Ecco perché mi permetto di farvi preoccupare un po’, con rispetto. Immaginate l’aeroplano dei fratelli Wright nel 1903, quando cominciava a fare i primi voli, fatto di legno, di balsa, di tela. Ecco quello che è il primo anno. Oggi c’è Easy Jet, c’è Ryanair, c’è la forza, c’è l’aeronautica militare, c’è la contraerea, c’è un mondo che dipende dall’evoluzione di questa macchina. Ora siamo GPT4. Fra vent’anni ci sarà GPT 24 o 34. Cosa farà? Cosa saprà? Ecco, dobbiamo cominciare adesso a comprendere cosa vuol dire vivere in un mondo, condividere il mondo con macchine che hanno queste capacità. Temo anche in molti casi, scusate ma sovrumane. Se dopo c’è l’opportunità, parliamo di quale parte della macchina sta sviluppando capacità sovrumane, perché è utile riflettere su queste cosein anticipo. Io sono convinto che riusciremo a trovare l’equilibrio, ma in questo momento e c’è una fase di turbolenza ed è naturale essere un po’ ansiosi, ma sarebbe sbagliato avere paura.

 

Simoncini. Ma noi non vogliamo rimanere ansiosi, questo è sicuro per questo. È bella l’immagine che dicevi – la clava – sin dall’inizio, il mezzo no può essere usato in un modo o in un altro. Ora Nello ci ha spiegato in che senso tecnico siamo in una fase di svolta, ecco. Il titolo del Meeting di quest’anno è “L’esistenza, è un’amicizia inesauribile”. Cioè, c’è qualcosa che connota propriamente l’esistenza degli umani. Allora io vi chiedo, quale può essere un atteggiamento – posto che nessuno di noi pensa di poter vivere in un altro mondo o pensa di voler vivere in un mondo prescindendo da queste opportunità – cosa vuol dire salvare l’umanità? Cosa vuol dire essere responsabili e consapevoli nell’uso di questi di questi strumenti? Vivendo oggi? Sempre in 8 minuti, sempre sfida impossibile.

 

Benanti. Va bene, prendiamo le sfide impossibili. Allora, per rispondere in una maniera un po’ tecnologica, direi che abbiamo bisogno di una amicizia a 3D – a tre dimensioni e così siamo sulla frontiera della tecnologia.

La prima forma di amicizia secondo me di cui abbiamo bisogno, un’amicizia con noi stessi. E una volta sullo scheletro umano c’era scritto “Conosci te stesso”. Era un po’ la missione di tutto, di tutto l’uomo, di tutto quello che siamo (“Fatti non foste per viver come bruti”). C’è qualcosa che non ci basta, dobbiamo andare oltre. A un certo punto con Linneo, sopra lo scheletro umano è successo qualcosa, è cambiata la frase nel sistema di classificazione di Linneo, derivato anche dal teatro anatomico da “Conosci te stesso” è comparso il nome della specie più vicina a noi – una scimmia – “Homo” e una caratterizzazione unica che ci distingueva dal resto delle scimmie “Sapiens”. Ecco, per quello che abbiamo sentito e giocando un po’ anche con le parole. E ora che abbiamo fatto la macchina Sapiens, non ci accontentiamo ad essere solo scimmie. E allora la prima forma di passione, per citare un altro titolo di un altro Meeting – insomma, mi trovavo pure qui a parlare di temi simili – è “una passione per l’umano”. La prima forma di amicizia di cui abbiamo bisogno è l’amicizia per la persona, per quella categoria così fragile, che è alla base di quello spazio che l’Occidente e che mai come oggi sembra essere diventata una categoria che per certi versi rimane vuota. Perché la macchina che parla, come diceva Nello, ci mette di fronte a una cosa strana, unica, mai vista prima. C’è una sfida linguistica, giorno dopo giorno, con una macchina che ogni giorno si umanizza sempre di più e un uomo che si macchinista o comprende se stesso come una macchina ogni giorno di più. Se noi guardiamo come studiamo la libertà, come studiamo le nostre emozioni, chiamiamo le nostre emozioni “algoritmi”, perché il babbuino che sta sulla palma non decide perché fa il calcolo tra lui e il leone se prendere o meno la banana, ma o ha paura o ha coraggio. E allora ecco che anche l’emozione, anche l’amore, diventa una sorta di algoritmo biologico. Ecco la prima amicizia, c’è la forma di amicizia, la prima dimensione di amicizia ce la dobbiamo avere con noi stessi. Un’amicizia con quello che riguarda l’uomo, la persona e questo senso di insoddisfazione costante che ci spinge verso l’oltre. La seconda forma di amicizia è secondo me, la seconda direzione è la stessa di questa sedie, è un’amicizia tra discipline: tra il diritto costituzionale, tra la fisica e le scienze informatiche, tra la filosofia e la teologia. Bisogna tornare a fare Universitas, bisogna tornare a parlare tra noi. Abbiamo visto fino adesso che parlare di intelligenza artificiale non è più parlare di una disciplina, ma ci sono competenze tecniche, competenze giuridiche, competenze filosofiche e sociologiche, competenze psicologiche. Cosa questo sta producendo solamente dei nuovi nati, essere esposti così tanto a macchine da click e non lo sappiamo. Faranno le loro scelte più importanti della loro vita come si sceglie un video su YouTube? Non lo so. Ecco, abbiamo bisogno di questa amicizia, amicizia tra noi. E poi questa diventa nella terza direzione, un’amicizia che guarda al futuro, un’amicizia tra generazioni, ma che guarda anche al passato. Perché? Perché sostanzialmente le persone più fragili che ci sono oggi sono quelle dei due estremi della gaussiana: i giovani e gli anziani. Ecco, se noi pensiamo di sviluppare questi strumenti pensando solo a chi sta al centro, a chi ce la fa, a chi può avere una sorta di anticorpi per adeguarsi e gestire questa trasformazione, noi stiamo creando degli esclusi, noi stiamo creando delle periferie esistenziali all’interno delle quali diciamo che ci sono vite meno importanti di altre vite. E allora questa amicizia intergenerazionale ci deve far guardare innanzitutto ai nostri ragazzi e deve diventare una passione educativa, dobbiamo mettere al centro l’idea che quei giovani che guardiamo e abbiamo davanti saranno le donne e gli uomini di domani. C’è un passo bellissimo di Antoine de Saint Exupéry in un libro che è meno conosciuto del famoso “Piccolo principe”, ma che si chiama “Terra degli uomini”, dove lui racconta la sua esperienza di pilota e tornando in treno una sera dalla Francia verso la Germania, vede sul treno tanti minatori polacchi che tornano verso casa con le loro famiglie; e vede questi uomini piegati e contorti dalla fatica del lavoro in miniera che hanno con loro questi figli piccolissimi, biondi, bellissimi e riflette tra sé e sé: sono come le rose di un giardino. Chi è che si prenderà cura di questi perché non vengano piegati dalla vita come i loro genitori. Ecco questa passione e la passione che ci deve animare e l’amicizia che dobbiamo avere, perché altrimenti entriamo in un’ottica in cui consumiamo noi quello che ci serve e del domani non ci interessa. E questa amicizia poi, deve diventare una forma di diritto, deve diventare delle certezze, deve diventare una intenzione di voler addomesticare queste tecnologie a quella cosa così fragile, ma così fondamentale che la democrazia. Come europei sappiamo che nel ‘900 le pagine scritte col sangue dei conflitti che abbiamo attraversato, ci hanno detto che la democrazia non è perfetta, ma è l’unico modo che conosciamo per tenere sotto controllo cose che ci potrebbero sfuggire di mano. E allora di fronte a tecnologie così potenti e poche, pochissime aziende che in questo momento le producono perché sono nove le grandi regine di questo mondo, ecco, abbiamo bisogno di addomesticare queste aziende e queste strumenti al regime democratico. E questo si fa solo se stiamo tutti insieme, cioè se c’è un’amicizia tra noi.

 

 

Simoncini. Nello, a te un po’ la stessa domanda.

 

 

Cristianini. Guarda, sono contento di avere questa domanda perché avevo promesso una cosa che non voglio mantenere. Volevo parlarvi di come la macchina è diventata in alcuni casi sovrumana; avevo delle storie e non sono importanti come questo. Se le volete le abbiamo scritte nei nostri libri e le leggete. Questo è così importante, perché alla fine quando mettiamo la macchina nella posizione in cui l’abbiamo messa, di mediatore – questa è l’ambizione della macchina di chi le fa di mediare le relazioni umane, di decidere chi legge cosa, di decidere chi incontra chi – il potere è serio, di definire le cose. Io vorrei fermarmi su alcune parole perché sono importanti, quattro parole che il mediatore intelligente, senza volere, può ridefinire – perché alla fine non è che stiamo parlando di gente in malafede, stiamo parlando di fenomeni che nessuno comprendeva fino a poco fa, sono cose nuove, ma che possiamo ancora aggiustare. Uno è il fatto che stiamo adottando il punto di vista del meccanismo, quando diciamo “gli utenti”. L’utente è quello che usa invece di dire “le persone”. Solamente dicendo “gli utenti” abbiamo già preso il punto di vista della macchina che considera tutti voi, tutti noi, “utenti”. E l’altra parola, ovviamente, è “contenuto”: il prodotto della vostra arte, compresa l’arte di questa bella mostra che andrò a vedere dopo sulle parole. Come fa quello essere un contenuto? Solamente uno che si occupa di contenitori può pensare che il vino è un contenuto, giusto? Ebbene, con queste parole che stiamo ridefinendo, una importante è “amico”, perché su Facebook abbiamo l’elenco degli amici, ma l’amico su Facebook è un contatto, un contatto tra l’altro proposto dalla macchina, mediato dalla macchina, che noi incontriamo mai; è una cosa che si mostra per vantarsi (quanti amici ho?). E gli amici che non sono su Facebook? È una parola che è stata presa e modificata. E poi le famose “comunità online”: tutti quelli che seguono un certo cantante vengono definiti la comunità, ma la comunità non è quella cosa lì, la comunità e questa cosa qui che ho visto quest’oggi. E quindi gli amici, i contenuti sono parole che vengono modificate. Il primo inizio per la nostra dignità e insistere a incontrarci di persona, aiutarci fra di noi, usare le parole nel senso originale e non accettare di usare le parole nel modo in cui la macchina ci vorrebbe… la macchina, non voglio sembrare… Vorrei spendere un minuto per condividere completamente quello che ha detto Paolo. Sono i più vulnerabili in questo momento che sono importanti, perché c’è molta gente che avrà grandissimi benefici da questa rivoluzione (e vogliamo che li abbiano). Ma c’è qualcuno che non può seguirla perché è troppo vecchio o non è capace o è un bambino, che si fida ciecamente dei genitori che gli danno l’iPad. Il bambino ha diritto di fidarsi dei genitori. E i genitori hanno il diritto di fidarsi della compagnia che ha fatto il prodotto. Sta a noi adesso fare le leggi, capire come educare, capire come sorvegliare. Purtroppo questa cosa è uscita prima che fossimo pronti, ma adesso è uscita e ora tocca a noi e dare ai genitori questa opportunità qua di potersi fidare, di poter dire ai figli fidatevi. Dello stesso per i vecchi. Ecco queste due cose importanti sull’amicizia che posso dire.

 

Simoncini. Grazie Nello. Ringrazio davvero il professor Cristianini e Padre Paolo Benanti, perché questa sera mi pare che ci abbiano aiutato, almeno a me hanno aiutato tantissimo. Perché questo tipo di evoluzione in cui ci troviamo, questa diffusione sempre più grande di questi strumenti tecnologi, non può vederci in ritirata, non può vederci come posizione nel dire “Beh, allora non li usiamo, siamo da un’altra parte, ne facciamo a meno. Proibiamo”. Mi pare che invece sia emersa una posizione molto più responsabile, che tira in ballo molto di più la nostra responsabilità e per questo li ringrazio perché noi abbiamo bisogno di questo, non abbiamo soltanto bisogno di indicazioni, di cartelli stradali (di qua si può andare, di qua no), ma abbiamo bisogno di capire come star dentro. E abbiamo visto che i due interlocutori che ci hanno aiutato questa sera sono profondamente dentro, sanno ciò di cui stanno parlando. Per cui il mio ringraziamento è duplice e sia per la disponibilità che hanno avuto nel venire da noi a ad aiutarci in questo passo sia per il modo con cui hanno collegato questa esperienza a quello che sta accadendo qui. E per questo volevo solo dire un punto che mi è venuto in mente ascoltandoli. Torno un po’ a quella domanda da cui siamo un po’ partiti: Ma c’è qualcosa di irriducibile, nell’umano qualcosa che in qualche maniera non può essere del tutto sostituito”. E pensando a quello che si vede qui, quello che abbiamo visto a me verrebbe da dire che queste macchine, le macchine nascono per trovare risposte, soluzioni, abbiamo ascoltato, sono un tipo di intelligenza che produce risposte. Per questo io penso che la vera resistenza dell’umano sta nelle domande, nella grande capacità di porre domande perché il cuore dell’uomo è un insieme di domande, di esigenze, di evidenze che la realtà stessa pone. Cioè perché di fronte ad una bella montagna mi venga in mente Dio o mi venga in mente che cosa può essere tutta la vita, ecco questo passaggio, questa, questa possibilità, questa apertura, questo è un aspetto che ho l’impressione noi dobbiamo difendere accanitamente e questo accade dentro un rapporto di educazione, di introduzione alla realtà che consenta a queste domande di non essere mai sopite. Così come, per riprendere invece una parola di Paolo, la “libertà” – lui l’ha citata più volte. Queste macchine sono, dicevi, ossessionate dalla regolarità; la libertà è il fattore imprevisto. Ecco: cuore, domande e libertà. Ho l’impressione che questo sia… d’altronde a pensarci, la nostra amicizia, l’amicizia vera è quella che continuamente desta questa domanda e propone questa libertà. Perciò ancora ringrazio il professor Cristianini e Padre Paolo Benanti per questo aiuto.

Come sempre, ricordo a tutti che non si chiude qui. Il nostro compito di aver ascoltato e aver aderito, ma ricordo a tutti che il meeting si fonda sul contributo di ciascuno. Perciò quando vedete i punti di cuore rosso Dona ora, non li considerate parte dell’arredamento è un invito a prendere atto che il meeting si regge proprio su questa collaborazione. Grazie ancora buon Meeting a tutti.

 

Data

22 Agosto 2023

Ora

15:00

Edizione

2023

Luogo

Auditorium isybank D3
Categoria
Incontri