COMBATTERE LA DISINFORMAZIONE

In diretta su Play2000

Organizzato da MAECI
Mattia Caniglia, Atlantic Council; Marco Cartasegna, CEO TORCHA; Jessica Cupellini, capo ufficio comunicazione strategica MAECI; Andrea Nicolai, Osservatorio Italiano Media Digitali; Giulia Pozzi, Newsguard. Modera Samuele Cofano, campagna d’Azione delle Nazioni Unite sugli obiettivi di sviluppo sostenibile

Il panel dedicato alla disinformazione vedrà coinvolti MAECI, Torcha, IDMO (Osservatorio Italiano per i Media Digitali), NewsGuard e Atlantic Council. L’obiettivo è illustrare la posizione italiana e il coordinamento con i partner europei e likeminded (G7, NATO) nel contrasto della disinformazione, con un focus particolare sulle elezioni europee e sulle narrative e tecniche di manipolazione informativa portate avanti da attori ostili.

Con il sostegno di CIHEAM Bari

COMBATTERE LA DISINFORMAZIONE

COMBATTERE LA DISINFORMAZIONE
Organizzato da MAECI

Mercoledì 21 agosto 2024 ore 14:00

Arena Internazionale C3

Partecipano:
Mattia Caniglia, Atlantic Council; Marco Cartasegna, CEO TORCHA; Jessica Cupellini, capo ufficio comunicazione strategica MAECI; Andrea Nicolai, Osservatorio Italiano Media Digitali; Giulia Pozzi, Newsguard. Modera Samuele Cofano, campagna d’Azione delle Nazioni Unite sugli obiettivi di sviluppo sostenibile

Cofano. Buongiorno a tutti, benvenuti all’interno del Padiglione dello Spazio Un’Italia che Coopera, coordinato dal Ministero degli Affari Esteri e della Cooperazione Internazionale, in partenariato con l’ufficio delle Nazioni Unite per lo Sviluppo Industriale, l’Agenzia Italiana per la Cooperazione e lo Sviluppo e il Siam di Bari, con la partecipazione della FAO e di AVSI. A termine del panel vi invitiamo tutti a conoscere un po’ di più da vicino, anche con esperienze sensoriali, l’impegno del nostro Paese, dei partner nazionali e internazionali per lo sviluppo sostenibile e per le grandi progettualità che l’Italia sta portando avanti a partire da un nuovo approccio verso un partenariato paritario in Africa. Sono Samuel Cofano, responsabile della campagna d’azione delle Nazioni Unite per lo sviluppo sostenibile per l’Italia. Oggi parleremo di disinformazione, di come combatterla, di qual è la posizione italiana in coordinamento con i partner europei, anche con un focus particolare sulle elezioni europee e sulle narrative e tecniche di manipolazione informativa portate avanti da attori ostili e infine del ruolo delle piattaforme sociali. Lo faremo insieme ai nostri ospiti, che saluto e ringrazio di essere qui con noi: Mattia Caniglia, direttore associato del Tranting Council; in videocollegamento, Marco Cartasegna, amministratore delegato, come lui stesso si definisce padre di Torcia; Jessica Cuppellini, capo dell’ufficio di comunicazione strategica del Ministero degli Affari Esteri e della Cooperazione Internazionale; Andrea Nicolai, direttore di TS Ecosystem, partner dell’osservatorio media digitali italiani e Giulia Pozzi, giornalista e analista di NewsGuard. Ancora benvenuti e grazie. Io comincerei con te, Mattia, e ti chiederei se ci aiuti a comprendere e chiarire il tema delle disinformazioni e le conseguenze che queste possono avere.

Caniglia. Grazie Samuele e grazie a voi di essere qui. Partirei da tre concetti essenziali anche per ricollegarsi al tema di questo Meeting. Punto primo. La nostra è un’epoca caratterizzata da un’economia dell’attenzione. Andremo a spiegare meglio cosa intendo. Punto secondo. La disinformazione non si focalizza sui contenuti, ma sulle modalità, su quelli che chiamiamo comportamenti inautentici coordinati. Andremo a spiegare questo anche meglio. Il terzo concetto è che la disinformazione o l’influenza e la manipolazione straniera come viene definita dall’Unione Europea, sono strumenti di guerra ibrida e questo lo dobbiamo tenere ben a mente quando parliamo di questo tema. Ma velocemente andiamo a parlare dell’attenzione, anche perché senza attenzione, per ritornare al tema del Meeting, è molto difficile ricercare l’essenziale. Se si possono avere le slide.
Slide.
Come vedete nella slide alle mie spalle, c’è una dinamica in corso. Non so se qualcuno di voi dal pubblico vuole provare a descrivere quello che succede. C’è qualcuno che vuole provare? Rompiamo il ghiaccio? Volendo, si potrebbe pensare che il triangolo grande stava avendo un comportamento aggressivo nei confronti del triangolo più piccolo e che invece il cerchio, spaventato, cerca di rifugiarsi dentro il rettangolo. Ma questo è un modo di vedere la cosa, magari voi, mentre lo guardate, anche se non me l’avete voluto dire, la state vedendo in un modo diverso. Questo però cosa ci fa capire? Ci fa capire che comprendiamo il mondo attraverso le storie e attraverso delle emozioni. Quindi, a seconda di come la storia è raccontata e a seconda di come possono essere manipolate le nostre emozioni, possiamo vedere una stessa situazione, anche molto semplice come quella nel video, in maniere molto diverse. E quello che è importante capire è che nel mondo attuale, con i cicli delle notizie veloci come sono, con l’accelerazione tecnologica e in un mondo che diventa man mano più instabile, tutto questo rende sempre di più la nostra capacità di prestare attenzione una risorsa finita. Se l’attenzione è una risorsa finita, questo significa che noi viviamo in un’economia dell’attenzione e questo significa che l’attenzione ha un valore, un valore diverso a seconda di chi guardiamo. Qui nella slide potete vedere che l’attenzione sono soldi per chi ha interessi commerciali; per la politica, l’attenzione è potere; per i singoli utenti dei social media, potremmo dire sociologicamente che l’attenzione è una forma di legittimazione. Ma l’attenzione è anche e soprattutto influenza. Quello che vedete qui è la mappatura della diffusione su Twitter nel 2016. Quindi vi ricordate che nel 2016 in America c’era la campagna per le presidenziali, ma c’è anche un evento che agiterà non soltanto i social media, ma anche le piazze americane, che è l’episodio del Black Lives Matter. Qui vedete mappata l’attività di tutti gli hashtag Black Lives Matter nel momento in cui c’è il picco di attenzione sui social media. Come vedete, c’è un’attenzione in viola che è quella delle persone diciamo più a sinistra nello spettro politico americano e in verde delle persone più a destra nello spettro politico americano, che chiaramente, come sapete, non corrisponde al nostro spettro politico. Ma quello che succede è che nel 2016, come oggi sappiamo, c’è stata anche un’attività russa molto focalizzata a influenzare il processo elettorale americano e chiaramente, siccome la disinformazione non succede in un vuoto, non succede in un vacuum, ma succede quando ci sono delle opportunità per fare disinformazione, quello che è successo è che le analisi che abbiamo fatto hanno portato a riconoscere che il centro di quell’attività sui social media, che poi è sfociata in violenza sul territorio, in realtà partiva dall’attività di bot organizzati e orchestrati dai servizi segreti russi e sono quelli che potete vedere evidenziati in arancione, quindi sono loro che fanno partire questo trend online e questo trend online produce polarizzazione fino al punto che sfocia nella violenza nelle strade. Questo è un esempio di quello che chiamavamo prima comportamento inautentico. La realtà nella quale viviamo oggi è quella in cui si combatte per ottenere l’attenzione del pubblico a colpi di manipolazione emotiva, psicologica e algoritmica e attraverso eventi virali che sono in competizione fra loro. Chi di noi non ha sentito che quando è iniziata la situazione in Israele e Palestina poi seguire quello che stava succedendo in Ucraina era diventato più complicato? C’è una competizione di questi eventi che tendono alla viralità, che rendono la nostra capacità di prestare attenzione a questi eventi e quindi di essere informati e quindi di essere cittadini responsabili molto complicata. E quindi abbiamo una situazione in cui i media, i pubblicitari, ma anche i nostri ex compagni di classe che non vediamo più da secoli, ma che abbiamo sui social media, purtroppo, ma anche le agenzie di intelligence e gli apparati militari, soprattutto di attori ostili come la Russia e la Cina, competono per la nostra attenzione e cercano di manipolarla. Veniamo agli attori ostili di cui parlava Samuele all’inizio. Per darvi un numero e per farvi capire quanto questo non sia una questione di contenuti o di idee, ma una questione di modalità, la Russia nel 2023 ha speso circa 20 miliardi di dollari in quelle che sono definite attività di disinformazione e di influenza. La Russia e la Cina mirano a sviare l’attenzione, a creare confusione, amplificando divisioni che sono già presenti all’interno della nostra società, sapendo che la nostra abilità di essere cittadini responsabili si basa sulla capacità di informarci liberamente e coscientemente. Ma cosa significa questo in pratica? Che le tecniche e le tattiche messe in atto da questi attori sono le cose realmente rilevanti, non i contenuti. E qui veniamo al secondo punto. La disinformazione non si definisce sui contenuti, ma in base alle tecniche che nel loro insieme delineano comportamenti che vanno a minacciare valori, procedure e processi politici. Nel nostro caso valori, procedure e processi democratici. Insomma, si tratta di un insieme di tattiche strutturate e orchestrate in maniera quasi militare, anzi, non quasi, in maniera militare, con precisione, che mirano a destabilizzare e polarizzare. Perché, incredibile da credere, ma una società polarizzata è una società più facile da distrarre. Quindi, se vogliamo, e chiudo qui, se vogliamo pensare, per fare un paragone, possiamo pensare alla disinformazione come a una trappola ben congegnata. Immaginatevi per un momento che non siamo a Rimini, ma camminiamo in un bosco e vedete un frutto bellissimo, ma questo frutto bellissimo è velenoso ed è messo lì apposta per attirare la vostra attenzione. Ora il problema della disinformazione non è il frutto in sé, non è l’idea, quello che comunichiamo, ma il problema è il modo in cui è stato posizionato per farci cadere in trappola e, allo stesso modo, nella disinformazione non è soltanto il contenuto del nostro messaggio, del messaggio della comunicazione che stiamo facendo, a essere pericoloso, ma è il modo in cui è stato presentato, diffuso e orchestrato da attori esterni alla nostra società che tentano di influenzare il modo in cui vediamo le cose e che quindi tentano di influenzare i nostri processi politici e, infine, vorrebbero che i nostri sistemi democratici non fossero come sono, ma fossero un po’ diversi e seguissero un pochino di più le agende di posti come il Cremlino o Pechino. Io per il momento chiudo qua, vi lascio una postilla sulla questione della guerra ibrida, ma magari ci torniamo più tardi.

Cofano. Grazie Mattia anche per averci aiutato a chiarire un po’ gli aspetti della disinformazione. Io andrei da Marco adesso, in video con collegamento. E a Marco chiederei: qual è il ruolo che le piattaforme social possono e devono giocare per combattere la disinformazione? E in questo contesto, cosa fa Torcia?

Cartasegna. Le piattaforme social sono il luogo in cui tutto quello che veniva descritto fino a poco fa avviene. Tutta questa disinformazione si manifesta principalmente sui social. La cosa principale che oggi, secondo me, andrebbe chiarita, ed è da qualche anno che c’è questo tema, è qual è il vero ruolo delle piattaforme social, ovvero, le piattaforme social sono o non sono degli editori? Devono o non devono intervenire nel mitigare e contrastare la disinformazione? Per anni, principalmente Meta, ha risposto a questa domanda dicendo che loro non sono un editore, che loro sono semplicemente una piattaforma tecnologica di intermediazione. Il loro ruolo è quello di mettere in collegamento le persone, dare uno strumento tecnologico nel quale le persone possano scambiarsi contenuti, interagire tra di loro, togliendosi un pochino dalla responsabilità delel piattaforme di controllare quello che avviene al loro interno. Zuckerberg, principalmente, ma non soltanto lui, dice: noi siamo una piattaforma tecnologica, quello che avviene al nostro interno è vostra responsabilità, noi non vogliamo intervenire. Questo è stato possibile all’inizio finché non sono avvenuti episodi anche molto gravi. Forse ve lo ricorderete, quando ci fu un attentato in Australia e l’attentatore trasmise tutta la sequenza, credo che fosse all’interno di una scuola, in diretta, in live streaming, proprio su Facebook. Ecco, una serie di episodi come questo, ma anche altri, hanno un pochino esposto le piattaforme rispetto al loro ruolo. Piano piano le piattaforme hanno quindi preso coscienza e si sono un po’ responsabilizzate; hanno deciso di intervenire nella moderazione dei contenuti e anche di dare delle regole sempre più stringenti rispetto a quello che può essere pubblicato e a quello che viola le linee guida di ciascuna piattaforma. Ma questo ruolo ancora oggi non è così ben definito. Non c’è una vera assunzione di responsabilità da parte delle piattaforme, che ancora oggi faticano a definirsi degli editori e a prendersi la responsabilità di controllare tutto quello che avviene al loro interno, principalmente perché è un ruolo scomodo ma anche perché, da un punto di vista tecnico, è estremamente complesso e complicato. Quello che oggi le piattaforme fanno di proattivo per cercare di mitigare e contrastare le fake news e la disinformazione sono diverse cose. Ad esempio, stanno utilizzando gli strumenti tecnologici e sfruttando l’intelligenza artificiale per riconoscere la disinformazione, stanno utilizzando software di intelligenza artificiale per scoprire le fonti di alcuni tipi di contenuto, utilizzano dei label con cui dicono che questo tipo di contenuto è di fonte sospetta; addirittura alcuni contenuti vengono rimossi. C’è una moderazione da parte della piattaforma, come dicevo prima, e in alcuni casi addirittura fanno una cosa che si chiama shadow banning, che ufficialmente negano, ma che in realtà sappiamo benissimo che fanno, cioè diminuiscono la diffusione di alcuni tipi di contenuto. Questi sono alcuni esempi di pratiche che le piattaforme social utilizzano per contrastare la disinformazione. TikTok, da questo punto di vista, è un po’ un’eccezione rispetto a quello che stiamo dicendo. TikTok, sin dalla sua nascita, ha assunto un ruolo di editore più chiaramente; fin da subito è intervenuto di più manipolando quelli che sono i trend della piattaforma attraverso la spinta di certi hashtag rispetto ad altri. Anche nella relazione con media come il nostro, come ad esempio Torcia, hanno sempre detto di aiutare a diffondere certi tipi di contenuti in una fase iniziale; poi questo è venuto meno in una fase successiva, però hanno sempre avuto più chiaramente un ruolo di editore rispetto a quello di Meta, che si sentiva più come una piattaforma tecnologica. In tutto questo contesto, qual è il ruolo di Torcia? È un ruolo molto importante ed è uno dei motivi per cui è nata Torcia. Torcia è nata all’inizio del 2020, all’inizio del primo lockdown. Siamo andati online con diversi obiettivi, ma se posso sintetizzare, uno dei principali è quello di creare un punto di riferimento, un porto sicuro, una fonte affidabile e certa per chi vuole approfondire, per chi vuole informarsi sui social media. Quindi, all’interno di un panorama in cui le piattaforme social, come ho detto finora, non hanno un ruolo ben definito, non hanno un ruolo chiaro, se sono editore o no, noi ci siamo presi la responsabilità di creare all’interno delle piattaforme una piattaforma editoriale, un new media, come viene definito, che sia molto affidabile e credibile. L’abbiamo fatto anche attraverso una collaborazione in passato con Inmo, di cui siamo molto felici, ma anche con tante altre attività. In questo contesto così frammentato, cerchiamo di essere un porto sicuro. Questo è un po’ il nostro ruolo.

Cofano. Grazie. Grazie mille Marco. Jessica, sei responsabile della comunicazione strategica del Ministero degli Affari Esteri. Come è strutturato il nostro Paese per contrastare la disinformazione e come avviene il coordinamento anche a livello internazionale?

Cupellini. Sì, grazie mille. Allora, innanzitutto forse è utile dare un po’ una panoramica di come si situa l’Italia rispetto a questi problemi, anche per mitigare un po’ il quadro così pessimista che ha dato Mattia, ma è giusto. Dunque, in Italia non abbiamo un’agenzia specifica dedicata al monitoraggio e al contrasto della disinformazione, come per esempio avviene in altri paesi europei. In Francia, hanno istituito dal 2021 l’agenzia Vigenome, l’istituto Emma Cron, quindi sotto la presidenza della Repubblica. In Svezia, hanno istituito un’agenzia per la difesa psicologica che si occupa proprio dei tentativi di interferenza straniera, quindi si focalizza sugli attori stranieri. In Italia, abbiamo adottato un approccio che definiamo trasversale, cioè esiste un interessamento di tutte le amministrazioni dello Stato sotto il coordinamento della presidenza del Consiglio dei Ministri. Ogni amministrazione pubblica, ogni ministero, ciascuno nella sua parte di competenza, svolge un ruolo nel monitoraggio e nel contrasto della disinformazione. Quindi c’è uno scambio continuo. Immaginate una struttura piramidale: sotto la presidenza del Consiglio c’è il Ministero degli Esteri, il Ministero dell’Interno, soprattutto la Polizia Postale, che ha una incisività diretta sui social media, il Ministero della Difesa e l’ AGCOM, che è l’autorità garante per le comunicazioni, che è anche il focal point nazionale per l’attuazione del regolamento dei servizi digitali dell’Unione Europea, cioè il Digital Services Act, che è uno strumento adottato nel 2022 e che prevede una serie di obblighi in capo alle grandi piattaforme e ai grandi motori di ricerca, come Google, Meta o X, di effettuare delle valutazioni dei rischi sulla diffusione della disinformazione e di adottare delle misure concrete. Poi il fatto che le adottino è un altro discorso. Con tutti questi attori c’è uno scambio continuo, ma noi riteniamo che il contrasto della disinformazione non sia solo uno sforzo securitario e governativo, ma che richiede un coinvolgimento di tutti gli attori della società civile che sono attivi in questo settore e che sono anche qui rappresentati oggi. Per esempio, lavoriamo molto con l’Osservatorio Italiano per i Miti Digitali, di cui poi ci parlerà Andrea, per sensibilizzare l’opinione pubblica. Quindi con tutti questi attori, in tempi non sospetti, era prima dell’invasione russa dell’Ucraina del 24 febbraio 2022, abbiamo definito una posizione nazionale perché l’Italia era chiamata, insieme agli altri paesi europei, a negoziare e adottare una serie di strumenti che a livello europeo servivano per contrastare la disinformazione. Questo è avvenuto prima dell’invasione dell’Ucraina, però, ovviamente, dopo l’invasione si è espanso in maniera significativa. Con questi attori, con le piattaforme e con le amministrazioni dello Stato abbiamo definito la nostra posizione che si basa essenzialmente su tre pilastri. Il primo è la costruzione di società resilienti alla disinformazione, cioè bisogna sensibilizzare l’opinione pubblica, far conoscere queste problematiche e dare agli utenti, che ormai accedono direttamente all’informazione o fanno informazione sui social media, degli strumenti per navigare anche nella disinformazione che c’è online. Il secondo pilastro è la co-regolamentazione dello spazio digitale con le piattaforme, quello che diceva Marco, perché ormai le piattaforme non sono semplici contenitori digitali, ma hanno delle responsabilità, secondo noi, al pari delle testate cartacee e degli editori. Questa è la strada che ha intrapreso anche l’Unione Europea con il regolamento per i servizi digitali. Il terzo pilastro è il sostegno al giornalismo indipendente, perché in un’epoca in cui tutti accediamo liberamente all’informazione fatta sui social media, è fondamentale sapere quali sono i mezzi di informazione che hanno una deontologia professionale e che fanno informazione sulla base di notizie verificate. E, infine, anche l’applicazione di costi politici, cioè quando c’è stata l’invasione russa dell’Ucraina, abbiamo deciso con i partner europei di bandire dal territorio europeo Russia Today e Sputnik, e di limitarne la diffusione perché, secondo noi, non sono strumenti di informazione indipendenti, ma di diffusione della propaganda russa. Questo è quello che avviene a livello nazionale. Nel mio caso, come Ministero degli Esteri, noi rappresentiamo la posizione italiana coordinandola con tutta l’amministrazione dello Stato nei principali forum multilaterali di cui l’Italia fa parte. Quindi, essenzialmente, in ambito europeo abbiamo un gruppo di lavoro dedicato con cui ci coordiniamo in maniera abbastanza intensa. Questo è stato utile soprattutto nei mesi antecedenti alle elezioni europee perché le narrative e le tecniche utilizzate per diffondere disinformazione sono abbastanza simili nei paesi europei e occidentali. Questo scambio è utile per verificare quello che monitoriamo noi e quello che monitorano loro, oppure per avere delle informazioni che noi in quel momento non siamo riusciti a verificare e che riportiamo alle strutture nazionali competenti. Partecipiamo al G7, dove esiste anche un gruppo di lavoro dedicato al monitoraggio e al contrasto della disinformazione, un gruppo di lavoro che quest’anno presidiamo noi in quanto siamo presidenti di turno del G7. Le priorità che abbiamo voluto dare a questo gruppo quest’anno sono essenzialmente due: la diffusione della disinformazione nei processi elettorali, visto che questo è un anno record per il numero di elezioni che si tengono – abbiamo circa 80 processi elettorali che coinvolgono 4 miliardi di persone -, e la seconda priorità è l’amplificazione della disinformazione tramite l’intelligenza artificiale, di cui poi ci parlerà Giulia. Ci sono dei gruppi di lavoro anche in ambito NATO e in ambito nazionale, quindi le discussioni sono svariate. E poi con alcuni partner, abbiamo un rapporto più strutturato. Ad esempio, con gli Stati Uniti, ad aprile scorso il Ministro degli Esteri italiano e il suo omologo americano Blinken hanno firmato un memorandum per il contrasto della manipolazione informativa straniera a margine del G7 Esteri di Capri, per una collaborazione più strutturata su questi argomenti. Questa è un po’ la panoramica. Come dicevo, è stato molto importante questo scambio informativo, soprattutto a ridosso delle elezioni europee, ma su questo ci torniamo dopo.

Cofano. Grazie Jessica. Ci spostiamo adesso su una dimensione europea che veniva accennata poco fa da Jessica. Chiederei ad Andrea: qual è l’approccio europeo al contrasto della disinformazione?

Nicolai.
A livello europeo, il problema della disinformazione è stato preso in considerazione già da almeno 10 anni. Nel 2015, la Commissione Europea, attraverso i servizi esterni, lancia una task force chiamata Istratcom Task Force, che era una task force di monitoraggio delle attività di manipolazione dell’informazione orientate fondamentalmente alle attività russe. Dal 2022, quindi da due anni, il lavoro di questa task force si orienta e si occupa anche delle attività cinesi. Il primo risultato della task force è stato quello di creare un sito in tredici lingue chiamato EU versus Disinfo, che pubblica costantemente notizie sulle operazioni di manipolazione dell’informazione, fa checking e debunking delle operazioni di manipolazione dell’informazione. Nel 2018, a fronte di un emergente problema di disinformazione proveniente soprattutto dalle piattaforme e poi vedremo anche dalla non collaborazione, la Commissione Europea costituisce un high-level working group composto da esperti europei e non solo sul tema, che, dopo un anno e passa di lavoro, ha pubblicato una serie di linee guida su quali interventi la Commissione doveva fare per il contrasto, soprattutto orientato alla società civile, ai cittadini e ai giornalisti. Fondamentalmente basato su quattro pilastri: la trasparenza e l’accesso ai dati, che è un tema che poi ritorna nel Digital Services Act, dei problemi che poi vedremo dopo; un importante ruolo della media literacy per la formazione delle competenze digitali dei cittadini e non solo; una serie di strumenti da mettere a disposizione sia dei cittadini, ma anche e soprattutto dei giornalisti, per la verifica delle fonti e delle informazioni; e, non ultimo, un’attenzione specifica all’impatto della disinformazione, che è un tema scottante, perché proprio la mancanza di accesso ai dati da parte delle piattaforme rende il lavoro di valutazione dell’impatto della disinformazione molto complesso e delicato. A valle del lavoro dell’High-Level Working Group, la Commissione Europea ha lanciato un’iniziativa ombrello di 14 osservatori nazionali che coprono tutte le lingue dell’Unione e tutti i paesi dell’Unione, e un osservatorio europeo, cioè un osservatorio centrale che coordina questi 14 osservatori. All’interno di questi 14 osservatori c’è ovviamente l’Osservatorio italiano, l’Italian Digital Media Observatory, che è coordinato dall’Università Lewis e che vede come partner la RAI, TIM, Newsguard, l’Agenzia Ansa, Cibergate e noi, ovviamente. L’ITMO è un osservatorio che collabora poi con le istituzioni, con il Ministero degli Affari Esteri, con Agicom e con altre organizzazioni. Poi vi racconteremo dei risultati di questo primo ciclo di attività che è cominciato nel 2019 e si rinnova ancora per altri due anni. Non solo la strategia europea è basata sulla rete di osservatori, ma nel 2023 il Commissario Borrell ha lanciato un’iniziativa su FIMI, cioè Foreign Information Manipulation Interface, la manipolazione e l’interferenza dell’informazione, con l’idea di costruire un gruppo di condivisione di dati e informazioni che potesse standardizzare e condividere report fra diversi paesi. Questa iniziativa è nata nel 2023 ed è ancora in corso di costituzione. Mattia ne fa parte insieme a noi. La cosa interessante di questa iniziativa è che, come diceva Mattia, è la prima iniziativa della Commissione che sposta l’attenzione dal contenuto della disinformazione alle tattiche, alle tecniche, alle procedure attraverso le quali la disinformazione viene utilizzata. Quindi, questo è un passaggio di focus e di attenzione della Commissione Europea. A fianco di questo, ovviamente, c’è questo insieme di iniziative che vanno verso la società civile, verso i giornalisti e verso gli operatori del settore, c’è poi l’apporto normativo, e quindi soprattutto il Digital Services Act che ha cambiato nel settore un po’ l’ordine dei giochi, pensando di avere una policy adeguata per permettere alle piattaforme di collaborare, soprattutto per quanto riguarda l’accesso ai dati, che rimane, nonostante il DSA, un problema complesso. X ha riaperto in parte l’accesso ai suoi dati proprio sulla scorta del DSA, mentre Meta, ad esempio, ancora non collabora come dovrebbe, nonostante sia una dei firmatari del Code of Practice sulla disinformazione, che è un altro pezzo di co-regolamentazione che la Commissione Europea ha messo in piedi. TikTok gioca un po’, come diceva Marco, una partita non sempre trasparente. Tanto per darvi un’idea, alcuni studi hanno messo in luce che un utente che si registra su TikTok, entro le tre ore dalla prima registrazione, viene esposto a contenuti di disinformazione, nonostante i tentativi supposti di monitorare e ridurre questo tipo di informazioni. Il problema è la demonetizzazione, il problema è il denaro, nel senso che il flusso di informazione, l’attenzione di cui parlava Mattia, genera profitti, genera un fiume di profitti particolarmente forte a cui le piattaforme non sono disposte a rinunciare. Per darvi un numero, nel 2016, nelle elezioni americane, il governo americano lavorava con le piattaforme per regolare gli algoritmi che promuovevano disinformazione, cercando di non veicolare queste informazioni in modo strutturato e massivo. Questo, come dire, regolare gli algoritmi è durato non più di un mese e mezzo, due mesi, perché le piattaforme si sono accorte che stavano perdendo quasi 7 milioni di dollari al giorno.

Cupellini. Scusate, è solo per completare quanto diceva Andrea. In realtà le piattaforme potrebbero fare qualcosa in più. All’epoca di Twitter, prima di X, c’era stato un periodo in cui Twitter aveva introdotto una domanda prima di fare il retweet. Adesso non c’è più, ma si può fare il retweet da X. E c’era un periodo in cui Twitter chiedeva: “Sei sicuro di voler fare il retweet?”. Già questo aveva ridotto notevolmente la diffusione della disinformazione, perché comunque l’utente era portato a pensare: “Ok, ma se mi sta facendo questa domanda, devo pensare a chi è la fonte, chi è l’autore di questo post, cosa contiene?”, perché spesso uno fa retweet di un semplice link, senza nemmeno aprirlo. Quindi ci sono, senza arrivare ad azioni più importanti, anche dei piccoli escamotage, dei piccoli strumenti che adesso X ha totalmente abbandonato, ma che potrebbero essere adottati per ridurre la diffusione della disinformazione.

Cofano. Giulia. Con Newsguard, l’organizzazione per cui lavori e che si occupa di monitoraggio e contrasto alla disinformazione, state approfondendo le modalità con cui l’intelligenza artificiale, e introduciamo un altro attore cruciale nel mondo della disinformazione, può essere utilizzata per diffondere disinformazioni anche su ampia scala. Quali sono, secondo te, i rischi principali?

Pozzi. Sì, Samuele, grazie mille anche per questo invito e buon pomeriggio a tutti. Io ho preparato qualche slide, se c’è, ma eccole qui.
Slide
Allora, nell’ultimo anno a NewsGuard, che, come diceva giustamente Samuele, è un’organizzazione interamente composta da giornalisti che vuole utilizzare il buon giornalismo anche per contrastare, per contribuire alla battaglia contro la disinformazione, ci siamo molto occupati ovviamente di intelligenza artificiale e intelligenza artificiale generativa proprio per capire in che modo questi strumenti possono essere sfruttati per generare e diffondere anche su ampia scala disinformazione, ma anche per approfondire l’impatto che possono avere in generale sull’ecosistema dell’informazione. Mi preme fare una premessa perché l’intelligenza artificiale può essere uno strumento che può aiutare, può dare man forte anche al buon giornalismo. Importanti redazioni internazionali, da Reuters ad Associated Press, utilizzano l’intelligenza artificiale davvero non da oggi e neanche da ieri, proprio per coadiuvare il lavoro dei loro giornalisti. Il problema è che va utilizzata in maniera responsabile e trasparente ed è uno strumento che invece può dare anche man forte proprio alla produzione, alla diffusione di disinformazione. Pensiamo ai deepfake. Vi sarà capitato in questi mesi di imbattervi sui feed dei social network in queste immagini che sono sempre più realistiche, immagini, video, anche audio modificati con tecniche più o meno sofisticate. L’intelligenza artificiale sta facendo diventare questi contenuti sempre più realistici; infatti, se solo si fa un confronto tra i deepfake che circolavano sul presidente ucraino Zelensky all’inizio dell’invasione e quelli che troviamo oggi, vediamo già, insomma, un’evoluzione tecnologica veramente, veramente importante. Quello dei deepfake però non è l’unico problema a cui ci troviamo di fronte perché a NewsGuard ormai da più di un anno stiamo monitorando un altro fenomeno, che è la proliferazione di questi siti di news, quindi siti di notizie che sembrano siti assolutamente innocui, spesso di giornali locali, testate locali, apparentemente, che in realtà sono totalmente prodotti e gestiti da intelligenza artificiale senza nessuna supervisione editoriale. Quindi buttano fuori anche migliaia di articoli al giorno che non vengono controllati da un umano. Quindi potete capire che leggere questo tipo di fonti è pericoloso perché ci si può imbattere in informazioni erronee o se non addirittura false. Lì nella slide trovate un grafico che vi illustra l’aumento quasi esponenziale di questi siti da quando abbiamo cominciato a cercarli più di un anno fa. Oggi ne abbiamo già individuati più di un migliaio in 16 lingue diverse, tra cui anche l’italiano. Tra l’altro, la cosa anche interessante e preoccupante è che non è affatto difficile mettere a punto queste fabbriche di contenuti completamente automatizzate, gestite da intelligenza artificiale. Un mio collega di NewsGuard, che si chiama Jack Brewster, un giornalista di New York, ha pubblicato qualche mese fa proprio un’inchiesta sul Wall Street Journal per spiegare in qualche modo come si fa. Quindi Jack ha contattato fondamentalmente un web developer che ha trovato online, gli ha commissionato la produzione di uno di questi siti completamente automatizzati, ha pagato una cifra contenuta, 105 dollari in tutto, e ha avuto in cambio un sito che assomigliava davvero al sito del Giornale Locale di Filadelfia, per fare un esempio, in grado veramente di pubblicare automaticamente anche migliaia di articoli al giorno sui principali argomenti di attualità. Perché questo sito ha un chatbot integrato, aveva in quel caso ChatGPT, che era in grado appunto di scrivere contenuti autonomamente. Jack ha provato a trasformare questo sito in una macchina di fake news, una macchina di propaganda. Quindi ha dato istruzioni al chatbot di pubblicare articoli che favorissero uno dei due candidati, il candidato repubblicano, nella corsa al Senato degli Stati Uniti in Ohio. Il sito ha obbedito e ha cominciato a sfornare migliaia di articoli al giorno, spesso riscritti da altre fonti, riempiendoli però di fake news proprio per supportare quel candidato. Jessica diceva, ricordava giustamente che siamo in un anno elettorale con tantissimi appuntamenti elettorali in giro per il mondo. Capite che uno strumento di questo genere, nelle mani sbagliate, può avere un impatto veramente, veramente preoccupante. Tra l’altro, questo scenario, e poi chiudo, non è ipotetico, è uno scenario che già sta avvenendo purtroppo, perché vi faccio soltanto un esempio. Negli ultimi mesi a NewsGuard abbiamo individuato questo network di siti, di 169 siti, prevalentemente in lingua inglese, anche qui completamente automatizzato, gestito tramite intelligenza artificiale, che è collegato a un personaggio di nome John Mark Dugan, che è un ex vice-sceriffo statunitense della Florida, che in realtà è oggi a Mosca sotto la protezione del Cremlino. E insomma, alcune inchieste hanno proprio sottolineato come sia uno dei principali responsabili di produzione di propaganda russa che poi si diffonde anche da noi. Negli ultimi mesi abbiamo individuato circa 170 siti che fanno parte di questo network e studiandoli ci siamo anche resi conto come nell’era dell’intelligenza artificiale il ciclo di vita delle bufale sia anche cambiato. In questo caso, cosa succede? Le notizie false, spesso pro-Russia, non nascono direttamente su questi siti, ma nascono su YouTube. Quindi su oscuri canali YouTube in cui un sedicente giornalista informatore, che in realtà non esiste, è un deepfake generato da intelligenza artificiale, dà una notizia falsa in genere ai danni dell’Ucraina. Quindi qualche atto di scandalosa corruzione da parte di Zelensky, che magari non è mai avvenuto e così via. Da lì questa notizia falsa viene ripresa da questo network di siti, in articoli generati in pochi secondi dall’intelligenza artificiale e accompagnati da immagini false. Da qui si diffonde a macchia d’olio anche sui media di Stato russi, a volte sui media di Stati iraniani, ma anche sui social network. Però non è finito qui questo circolo, perché poi queste notizie false è possibile che ce le ritroviamo anche nelle risposte che ci danno i chatbot, come per esempio ChatGPT, quando noi li interroghiamo magari sull’attualità, proprio perché i chatbot vengono in qualche modo addestrati sulla base dei materiali che ci sono online. E a NewsGuard abbiamo proprio verificato come mettendo alla prova i dieci principali chatbot attualmente sul mercato su un campione di narrazioni false che sono nate su questi siti, i chatbot di fatto restituivano disinformazione in più di un terzo dei casi. Quindi capite come c’è proprio anche un circolo vizioso della disinformazione nell’era dell’intelligenza artificiale che è particolarmente preoccupante.

Cofano. Grazie Giulia. Prima di passare a un possibile secondo ultimo cinque domande, vorremmo vedere se ci sono reazioni da parte del pubblico e, soprattutto, approfittando dei nostri relatori, se vi sono domande particolari che volete rivolgere. Chiederei di specificare anche a chi la domanda è indirizzata.

Domanda
Non so chi può rispondere perché è una domanda che potrei fare a chiunque, in particolare magari a un rappresentante del governo o dello stato. Qui si è parlato molto di attività intraprese per smascherare deepfake, per smascherare le bufale e però non ho capito in realtà se ci sono dei dispositivi o dei meccanismi di legge per poi reprimere queste attività illecite.

Cupellini. È una bella domanda, però non è facile, perché quello che noi vediamo, come diceva anche prima Mattia Andrea, non è il contenuto disinformativo, è il comportamento. Se l’utente X dice che la Terra è piatta, per me quella può essere una disinformazione. Se invece c’è una campagna strutturata, organizzata, guidata di amplificazione, di diffusione di contenuti disinformativi da parte di un attore statuale o no, quella diventa, come diceva prima Andrea, FIMI, cioè Foreign Information Manipulation Interference, cioè attività di manipolazione informativa straniera, che è un po’ diversa dalla disinformazione così facile. In quei casi c’è uno scambio informativo a livello internazionale in genere e tra le amministrazioni dello Stato, ma ci serve la collaborazione delle piattaforme, perché se i bot amplificano dei contenuti disinformativi, quello che noi facciamo, anche tramite l’Agicom, è agire e cercare di dialogare con le piattaforme social che le amplificano. Ma se poi loro adottano provvedimenti, è molto difficile poi arrivare a un’azione concreta. Ci sono dei casi in cui i governi, tra virgolette, oscurano quei contenuti, riescono a oscurare quei contenuti, ma senza la collaborazione delle piattaforme, o per esempio, delle grandi motori di ricerca come Google, per i governi è difficile agire da soli. Su Google, anche Google, per esempio, noi lavoriamo molto ed è un partner molto collaborativo, perché anche quando uno va a fare, Google è il principale motore di ricerca, c’è qualsiasi cosa e la cerchiamo su Google, quando andiamo a cercare un’informazione, Google in genere cerca di portare in alto, cioè di far uscire come primi risultati quelli che sono verificati, cioè che rispondono a informazioni corrette e verificate, in modo tale che io, utente che cerco un’informazione, accedo a una informazione corretta. Però appunto non è facile, per questo serve la cooperazione internazionale, servono degli strumenti. In ambito europeo si passa da sanzioni di tipo politico nei confronti degli attori statuali, diciamo, Russia o Cina, che fanno disinformazione, ma anche in quel caso non è facile attribuire la disinformazione perché con la creazione di account inautentici è difficile collegare che quella serie di network, di bot di account inautentici nasca da Mosca. Quindi anche questi collegamenti tecnici sono molto difficili, per esempio rispetto a un attacco cyber. L’attacco cibernetico in genere è molto concreto, è fattuale, cioè punta a inabilitare un sito web ed è un pochino più facile risalire alla sua origine. La disinformazione spesso consiste in una serie di attività che, messe tutte insieme, denotano un disegno che sta dietro. Quindi non so se ho dato una risposta, però ecco, per far capire anche la complessità del fenomeno.

Cofano. Prima di passare la parola a Mattia, sempre sulla scena di questo, Marco voleva completare. Marco?

Cartasegna. Aggiungo un elemento rispetto a quello che diceva correttamente Jessica. Subentra anche un altro aspetto, che è quello etico. Le piattaforme devono dare la loro disponibilità ad intervenire nel contrastare la disinformazione, ma ci colleghiamo a quello che dicevamo prima: qual è il ruolo delle piattaforme? Perché se si decide che le piattaforme non sono un editore, ma una semplice piattaforma tecnologica in cui avvengono le cose, allora bisogna anche capire che tipo di editore sono e in che modo, quando e quanto intervengono. Quali sono i contenuti che sono fake ufficialmente? Qual è ufficialmente la disinformazione? E invece qual è semplicemente un contenuto, magari non verificato al 100%, ma passibile comunque di diffusione? Qual è di fondo, alla fine del discorso, un contenuto che va eliminato rispetto a uno che non va eliminato. Si entra in una dinamica, in un dibattito veramente, veramente complicato. Quindi c’è anche questo tema etico.

Cofano. Grazie Marco. Mattia?

Caniglia. Brevemente, secondo me, il tema della domanda molto interessante posta dal Signore ci riporta a un concetto che è quello del fatto che la disinformazione è uno strumento di guerra ibrida. Ora, quello che definisce la guerra ibrida, al contrario della guerra fatta con i carri armati, i missili, eccetera eccetera, è che la guerra ibrida si svolge al di sotto delle soglie di rilevamento e attribuzione. Cioè, l’elemento permanente è quello, proprio la sua natura è quella che è difficile da attribuire, è difficile dire che, come nel caso del cyber citato da Jessica, quella determinata azione sia stata realmente effettuata ed orchestrata dal governo russo. Per quanto riguarda gli episodi svolti nelle elezioni del 2016 in America abbiamo prove concrete che ci riportano a determinate unità del GRU che sarebbero una branca dei servizi segreti russi. Ma ci è voluto del tempo per arrivare lì e alcune volte c’è un terribile ritardo rispetto a quando gli impatti di una campagna di disinformazione producono dei risultati negativi sull’andamento politico di una determinata società e quando riusciamo a mettere in atto le dinamiche di attribuzione, quindi a indicare un colpevole. C’è però da dire anche un’altra cosa rispetto a quello che diceva Marco, cioè che ci sono delle cose che sono illegali, cioè l’incitazione alla violenza sui social media è illegale. La questione a cui si faceva riferimento prima, cioè l’attacco di Christchurch, un terrorista di estrema destra che si riprende e mette il video su differenti social mentre attacca una moschea in Nuova Zelanda, quello e l’incitamento alla violenza dei commenti che furono trovati sotto è un contenuto illegale. Quello può e deve essere rimosso. Il problema di quello è più logistico perché ci sono talmente tante cose che è molto difficile tenere traccia di tutto. Chiaramente poi non ci giriamo intorno, il problema diventa più spinoso quando diventa politico. Ora posso fare delle valutazioni di merito su un personaggio pubblico al bar, ma nel momento in cui posso anche dirgli, guarda, veramente quella persona lì leverei di mezzo, ma se le faccio sui social media, assume una dimensione diversa. Ma è una dimensione che rientra nella libertà di parola? Oppure no? E questo è un po’ lo strumento del dibattito, il motivo però anche fondamentale per cui attori ostili che giocano proprio sulle vulnerabilità del nostro sistema democratico riescono ad essere così effettivi e così capaci di mettere zizzania all’interno delle nostre società e di creare polarizzazione.

Domanda
SìUna domanda a Marco, perché lui ha parlato di voler essere, cioè la loro organizzazione, una specie di porto sicuro. La domanda è, ma c’è chi può garantire appunto che è un porto sicuro oppure, facendo anche riferimento a quello che poi hai detto nel secondo intervento, quale ente può avere la capacità o l’autorità o insomma la possibilità di effettivamente decidere che cosa è etico fermare, che cosa invece non può essere etico pubblicare. Di fronte a piattaforme così potenti, che, si diceva, perdono 7 milioni di dollari e hanno deciso da oggi a domani di cambiare la modalità di rapportarsi ai loro utenti, chi può effettivamente decidere questo si può pubblicare, questo non lo si può pubblicare e fare in modo che queste piattaforme seguano poi questi criteri, queste indicazioni. Grazie.

Cartasegna. Allora, relativamente alla prima domanda, come si fa a diventare un porto sicuro e affidabile, lo si fa con una serietà, con uno storico. Mi spiego meglio. Da 4 anni e mezzo pubblichiamo quotidianamente 6-7 contenuti di approfondimento. Il fatto di essere approfondimenti, di non essere una piattaforma che dà le breaking news ci lascia il vantaggio di poter capire meglio, di prenderci il tempo di capire meglio quello che sta succedendo. Sui social si vive spessissimo la dinamica del devo arrivare per primo, devo pubblicare per primo il contenuto in modo che speri che diventi virale, in modo che venga diffuso il più possibile e che faccia più numeri possibili. Prima lo pubblico più probabile è che il mio contenuto diventi virale, venga visto da tante persone. Questo però ti mette di fronte a un problema che molto spesso non hai tempo di verificare quello di cui stiamo parlando. Noi come Torcia ci prendiamo il tempo di approfondire e di capire quello di cui stiamo parlando, cercando appunto di non incorrere in questi errori. Possono succedere; una best practice che mettiamo in pratica è quella di metterci la faccia, è una cosa abbastanza banale ma molto, molto apprezzata a volte sottovalutata. Quando succede, purtroppo, di dire qualcosa che magari non è disinformazione, ma magari non è perfettamente corretto, noi interveniamo cancellando il contenuto, perché poi gli strumenti delle piattaforme non ti permettono tanto bene di modificare in modo chiaro. Quindi preferiamo cancellare e ripubblicare il contenuto dichiarando in modo molto esplicito che cosa non era stato fatto correttamente. Questa e altre accortezze di trasparenza ci hanno permesso di creare negli anni una notevole credibilità di cui siamo molto contenti oggi. Passando alla seconda domanda, quella relativa a chi si può arrogare il diritto di dire che cosa può essere censurato, che cosa non può essere censurato, io la risposta non ce l’ho, probabilmente sono i singoli stati, le singole istituzioni a dover decidere se intervenire nel manipolare, nel indirizzare le scelte della piattaforma, ma mi sembra un tema piuttosto pericoloso ed è molto, molto complesso, è anche il motivo per cui viene lasciato un po’ in una zona di grigio, cioè è un tema di cui si parla molto, ma è un tema che non viene mai affrontato probabilmente veramente di petto perché non c’è una vera soluzione.

Cupellini. Dissento, nel senso che è difficile per dei governi democratici decidere che cosa è giusto e cosa è sbagliato. Se fossimo dei governi autocratici, dittatoriali, allora sarebbe facile censurare un contenuto. Nel nostro caso, come diceva Mattia, la linea di confine tra la libertà di informazione e l’operare poi sul contenuto disinformativo è molto labile. Per questo abbiamo bisogno della collaborazione delle piattaforme e c’è sempre questo dialogo, come vedete, tra istituzioni e piattaforme perché è un processo in corso. In realtà, dall’avvento di internet, ovviamente l’amplificazione, la diffusione dell’informazione è aumentata; poi, con le piattaforme social che sono però avvenute negli ultimi anni, questo processo è esploso ancora di più, adesso con l’intelligenza artificiale. Quindi è un work in progress nel senso che stiamo prendendo le misure, ma non siamo d’accordo, cioè i governi occidentali non sono d’accordo a che siano i governi a dover decidere cosa oscurare, quale contenuto online oscurare o no. Quindi la risposta in realtà che tendiamo a dare è proprio quella di informare, cioè sono i singoli utenti perché anche io personalmente potrei accedere a un contenuto disinformativo e sul momento non accorgermene oppure condividerlo senza volerlo. Siamo noi a dover essere messi nelle condizioni di avere un approccio critico all’informazione. Purtroppo non è un processo veloce, ma è l’unica strada secondo noi percorribile perché è impossibile bloccare la diffusione della disinformazione; è sempre esistita, sempre esisterà con strumenti ancora più potenti. Faccio solo un piccolo esempio e chiudo. Tra dicembre e gennaio, i tedeschi, per esempio, hanno identificato una rete di account inattivi, circa 30.000 account, in sei settimane, questi 30.000 account su X, in particolare, hanno diffuso più di 1.800.000 post, con picchi di 113.000 post al giorno. In quel caso, il governo tedesco cosa può fare? Cioè, se non c’è la collaborazione delle piattaforme per bloccare o evitare la diffusione di questi contenuti, il governo da solo non può fare nulla. Quindi, per questo dico che deve esserci un lavoro congiunto tra i vari attori e con la collaborazione attiva della cittadinanza.

Cartasegna. Era quello che dicevo. Jessica, dicevo che potrebbero intervenire gli stati, ma sarebbe molto, molto pericoloso.

Caniglia. Se posso aggiungere una cosa, però, ancora una volta, il problema non è il contenuto; il problema è come viene diffuso. Cioè, quello che dovrebbe essere illegale non è dare voce a una determinata opinione, per quanto controversa o dissenziente quella sia, ma quello che dovrebbe essere illegale è che lei, tramite o lei o le agenzie e i servizi di sicurezza russi, creano un esercito di account falsi che usano per diffondere determinate notizie. Cioè, l’attività inautentica che è illegale, non il fatto che si esprimano delle idee. Se lei scrive un post su Twitter dicendo quanto le è piaciuto questo panel e quel tweet diventa virale, quel tweet diventa virale. Ma se diventa virale grazie a degli account dietro i quali ci sono delle persone reali, allora si chiama democrazia. Se diventa virale perché io la pago per creare un esercito di account falsi per dire che questo panel era bellissimo, allora lì abbiamo un problema. E questo, in maniera militarizzata e organizzata, è quello che fanno attori come Russia e Cina. E questo è il problema. Non il fatto che si dica, forse Zelensky non è il politico migliore del mondo. Potrebbe anche essere, ma non è quello il punto. Ma se quel tweet viene retweetato da un esercito di bot, dietro ai quali ci sono i servizi di sicurezza russi, allora lì abbiamo un problema con la democrazia.

Domanda

Una domanda per Caniglia. Innanzitutto grazie a tutti per la chiarezza e la profondità con cui avete trattato questa questione. Mattia, hai parlato di guerra ibrida. Vorrei chiederti qual è il ruolo del nostro esercito ibrido in questa guerra ibrida? Cioè, anche noi facciamo qualcosa in campo nemico per quanto riguarda i social cinesi e russi? Qual è il nostro ruolo in questa guerra ibrida? Come ostacoliamo questo anche in terreno nemico? E la seconda invece per Giulia: esiste qualche forma di cooperazione con qualche coraggioso giornalista indipendente russo o cinese oppure vi occupate esclusivamente dei problemi sul territorio occidentale?

Pozzi. Noi a NewsGuard siamo attivi in 9 paesi, tra cui anche l’Italia, ma anche negli Stati Uniti, nel Regno Unito, in Francia, in Germania, in Austria, quindi prevalentemente, diciamo, in zona occidentale, anche in Nuova Zelanda e in Australia, tra l’altro da meno. Diciamo che ovviamente nel nostro staff ci sono esperti ed esperte di disinformazione russa, di disinformazione di Stato, di disinformazione cinese. È uno staff internazionale, con vari background giornalistici e anche vari background di analisi della disinformazione. Questo ci permette davvero di tracciare quello che sta succedendo e monitorare appunto quello che sta succedendo online. E qui mi ricollego anche con la domanda precedente. Quello che noi cerchiamo di fare è non solo fare, diciamo, informazione sulla disinformazione, una sorta di metagiornalismo, giornalismo sul giornalismo, anche per informare i cittadini su come viene fatto questo giornalismo, ma cerchiamo anche di dare, come diceva anche Jessica, degli strumenti di prevenzione agli utenti online. In particolare, ci occupiamo molto dell’analisi dell’affidabilità, per esempio, dei siti di notizie che noi analizziamo sulla base di 9 criteri giornalistici di credibilità e trasparenza, che sono criteri imparziali e del tutto apolitici e ampiamente riconosciuti. Quello che diceva Marco prima, vi faccio un esempio di criterio: se un giornale o un sito fa un errore, è giusto che quell’errore venga corretto in maniera trasparente, dando notifica al lettore che quell’errore è stato compiuto. Dare questi strumenti agli utenti per permettere anche a chi naviga di capire se quella fonte è affidabile o meno, se segue certi standard giornalistici oppure no, può essere un aiuto per poi prevenire la diffusione della disinformazione, quindi per creare più consapevolezza.

Caniglia. Rapidissimamente, quello che noi facciamo a livello di guerra ibrida, e tra l’altro io posso rispondere soltanto in qualità di esperto, perché sicuramente qualcuno in Ministero della Difesa forse potrebbe dare delle delucidazioni più precise, quello che facciamo è cercare di predisporre e organizzarci per rispondere a queste minacce. Quindi noi la vediamo dall’altro lato. C’è stato un tempo in cui l’America si è ingaggiata, durante la guerra fredda, in quelle che venivano definite Psy-Ops, soprattutto nel contesto del Sud America. Sono cose documentate, ci sono tanti libri, anche ormai fuori dal segreto di Stato, ma a un certo punto questo tipo di sforzi si è concluso da parte americana, mentre non si è mai concluso da parte di attori come Iran, Cina, Russia, ma anche da parte di attori non statali come i gruppi terroristici. Quello che noi facciamo è soprattutto cercare di prendere le misure e di creare le condizioni per essere in grado di fronteggiare questo tipo di minacce. Questo avviene soprattutto in corrispondenza di eventi che cambiano il modo in cui pensiamo strategicamente alla guerra o alla guerra ibrida. In questo caso, il chiaro momento spartiacque è stato il conflitto in Ucraina, che ha cambiato il modo in cui pensavamo al conflitto nelle sue declinazioni più tradizionali ma anche nelle sue declinazioni meno tradizionali, come appunto quella della guerra ibrida.

Cofano. Ci avviamo alla conclusione del panel e siamo davvero molto contenti di questo scambio da parte del pubblico. Immagino che questa sia anche la conferma di come la disinformazione e l’intelligenza artificiale non stiano soltanto occupando l’agenda di governi e organizzazioni, ma siano anche molto presenti nella vita comune quotidiana di ognuno di noi, visto che ogni giorno noi abbiamo a che fare con questi strumenti. Io ringrazio nuovamente Marco Cartasegna, Jessica Cuppellini, Andrea Nicolai e Giulia Pozzi per essere stati qui con noi oggi. Vi ringraziamo di essere venuti, anche così numerosi, e vi rinnoviamo l’invito a visitare il nostro padiglione. Lo potete fare registrandovi al desk o registrandovi sull’app del Meeting di Rimini. Buon proseguimento, grazie ancora.

Data

21 Agosto 2024

Ora

14:00

Edizione

2024

Luogo

Arena Internazionale C3
Categoria
Arene