Rimini, 22 agosto 2024 – Alle 17:00, nell’Auditorium isybank D3 della Fiera di Rimini, si è tenuto il convegno “L’essenza dell’intelligenza artificiale. Strumento o limite per la libertà?”, un incontro che ha esplorato le profonde implicazioni etiche e sociali dell’intelligenza artificiale (IA) nel contesto attuale. Organizzato con il sostegno della Regione Emilia-Romagna, Engineering, Amazon e Tracce, l’incontro ha visto la partecipazione di Paolo Benanti, docente alla Pontificia Università Gregoriana di Roma e membro del New Artificial Intelligence Advisory Board dell’ONU; Mario Rasetti, professore emerito di Fisica Teorica del Politecnico di Torino e presidente del Scientific Board di CENTAI; e Luca Tagliaretti, direttore esecutivo del Centro europeo di competenza sulla cyber-sicurezza. A moderare l’incontro è stato Andrea Simoncini, vicepresidente della Fondazione Meeting per l’amicizia fra i popoli ETS e professore di Diritto Costituzionale all’Università di Firenze.
Simoncini ha richiamato l’attenzione sull’importanza del tema trattato, sottolineando come l’intelligenza artificiale sia ormai diventata una delle principali sfide del nostro tempo: «Molti si sono stupiti quando papa Francesco, in un anno segnato dalla guerra, ha deciso di dedicare il messaggio mondiale per la pace al tema dell’intelligenza artificiale», evidenziando come la trasformazione digitale non riguardi solo la tecnologia, ma anche il cuore dell’uomo. Simoncini ha poi introdotto il panel, definendolo «stellare» per l’autorevolezza dei partecipanti ed ha ancora evidenziato che l’intelligenza artificiale, lungi dall’essere solo una questione tecnica, rappresenta una sfida che coinvolge la nostra stessa essenza umana: «Di fronte a un mondo in cui un numero sempre maggiore di macchine è progettato per sostituire attività umane, la domanda fondamentale è: cosa c’è di essenziale nell’uomo che non può essere replicato da una macchina?».
Il primo a intervenire è stato Benanti, che ha sottolineato come la nostra realtà sia sempre più definita dal software, un cambiamento che ha radicalmente trasformato il nostro rapporto con il mondo. Il relatore ha spiegato che questa “transistorizzazione” della realtà, iniziata durante la Seconda Guerra Mondiale con l’invenzione del transistor, ha portato a una situazione in cui il software non solo controlla le macchine, ma definisce anche la natura stessa degli oggetti che ci circondano. «La realtà non è più quella di una volta», ha detto, evidenziando come l’intelligenza artificiale rappresenti un ulteriore passo in questa direzione, mettendo in discussione il nostro controllo sugli oggetti e persino sulla nostra stessa vita. Benanti ha raccontato un aneddoto personale per illustrare come la tecnologia abbia invaso ogni aspetto della nostra esistenza, trasformando le nostre esperienze quotidiane in modi che spesso non comprendiamo appieno: «Oggi, la realtà è definita dal software. Se questo si rompe, cambia la natura stessa del luogo in cui ci troviamo», ha osservato, facendo riferimento ai rischi legati alla cyber-sicurezza e alla vulnerabilità delle infrastrutture digitali.
Benanti ha anche sollevato preoccupazioni riguardo al controllo esercitato da chi possiede il software, sottolineando come questo stia cambiando le catene di potere all’interno della società. Ha ricordato che il diritto romano associava al possesso di un oggetto tre qualità: usus, abusus e fructus. «Nella nostra realtà definita dal software, rischiamo di perdere il controllo sui frutti delle nostre azioni, mentre chi possiede il software mantiene il controllo completo», quindi fondamentale è l’importanza di democratizzare il potere computazionale per garantire che le tecnologie rimangano al servizio della società e non viceversa.
Tagliaretti ha proseguito il dibattito, concentrandosi sui rischi legati alla cyber-sicurezza in un mondo sempre più interconnesso. Ha parlato delle sfide che le istituzioni devono affrontare per proteggere le infrastrutture critiche e garantire la sicurezza delle informazioni in un contesto in cui gli attacchi informatici sono in costante aumento. «Viviamo in un’epoca in cui dipendiamo sempre di più dagli strumenti digitali, e questo rende la sicurezza una priorità assoluta», ha osservato, citando esempi concreti di attacchi informatici che hanno avuto un impatto devastante su ospedali e infrastrutture critiche. Tagliaretti ha sottolineato l’importanza di un approccio integrato alla sicurezza, che coinvolga non solo le istituzioni, ma anche le imprese e i singoli cittadini. «L’Unione Europea sta facendo passi avanti significativi in questo campo, con regolamenti che mirano a proteggere le infrastrutture critiche e a promuovere l’innovazione tecnologica in modo sicuro», ha aggiunto, evidenziando il ruolo di iniziative come il Digital Market Act e l’utilizzo di supercomputer come Leonardo, uno dei più potenti al mondo e secondo in Europa per calcolo computazionale, per supportare lo sviluppo dell’intelligenza artificiale in modo sicuro e controllato.
Tagliaretti ha inoltre parlato dell’importanza della trasparenza nell’utilizzo dell’intelligenza artificiale, sottolineando come i cittadini debbano essere informati quando interagiscono con sistemi basati su IA. «La trasparenza è fondamentale per garantire che la tecnologia rimanga al servizio dell’uomo e non diventi uno strumento di manipolazione o controllo», ha affermato, ribadendo la necessità di un’educazione diffusa per preparare la società alle sfide del futuro digitale.
Quindi Rasetti ha chiuso il dibattito con una riflessione sulla natura dell’intelligenza artificiale, definendola non solo una rivoluzione tecnologica, ma anche culturale e antropologica. «L’intelligenza artificiale sta trasformando profondamente il nostro modo di vivere e di pensare. Non si tratta solo di nuove tecnologie, ma di un cambiamento radicale che coinvolge la nostra stessa natura», ha spiegato. Rasetti ha criticato l’uso del termine “intelligenza artificiale”, sostenendo che sarebbe più corretto parlare di “macchine intelligenti”, poiché queste tecnologie, per quanto avanzate, non possono replicare le capacità cognitive e l’autocoscienza umana: «Il cervello umano rimane la macchina più straordinaria e complessa dell’universo conosciuto. L’intelligenza artificiale, per quanto avanzata, non può eguagliare la nostra capacità di autocoscienza e di comprensione profonda del mondo».
Rasetti ha anche discusso del processo di deep learning, paragonandolo al mito della caverna di Platone, dove conosciamo solo le ombre della realtà e non la realtà stessa. «Il deep learning ci porta sempre più lontano dalla realtà, creando un sistema di scatole nere che sono difficili, se non impossibili, da comprendere appieno», ha spiegato, sollevando preoccupazioni riguardo alla capacità di controllare e regolare queste tecnologie. Nonostante ciò, Rasetti ha sottolineato l’importanza di continuare a sviluppare l’intelligenza artificiale, poiché i dati generati dalla nostra società sono in costante aumento e richiedono nuovi strumenti per essere gestiti e utilizzati in modo efficace: «Non possiamo evitare questa rivoluzione. Dobbiamo imparare a convivere con l’intelligenza artificiale e a sfruttarne le potenzialità per il bene comune».
Il convegno si è concluso con un invito a riflettere sul ruolo dell’educazione nel preparare le future generazioni a convivere con l’intelligenza artificiale. Simoncini ha sottolineato che la conoscenza e la comprensione sono essenziali per evitare di essere sopraffatti dalla tecnologia: «Solo attraverso l’educazione possiamo garantire che l’intelligenza artificiale rimanga uno strumento al servizio dell’uomo e non diventi un limite alla nostra libertà».