Walter Quattrociocchi è uno dei soci fondatori di Logon, nonché Professore Ordinario di Informatica alla Sapienza Università di Roma dove dirige il Center for Data Science and Complexity for Society. Nonostante si occupi di dinamiche di diffusione dell’informazione online, di polarizzazione e altre dinamiche comportamentali, nonostante il suo CV sia stracolmo di pubblicazioni sulle riviste più prestigiose, usate anche da alti enti normativi e istituzionali, nonostante sia membro di numerosi tavoli di lavoro nazionali e internazionali su questi temi…Nonostante tutto questo, le sue esternazioni sui social non sono “sempre” configurabili come buone pratiche, anzi. E il suo senso dell’umorismo surreale miete di continuo nuove vittime. Insomma Walter risulta una figura “divisiva” e polarizzante per molti. Però, però…nei giorni scorsi, ha pubblicato un lungo post in cui espone valide argomentazioni in modo (quasi) razionale e pacato. Per non perdere il momento magico, abbiamo pensato di approfondire un po’ i temi di quel post con una lunga chiacchierata.
Partiamo da uno dei leitmotiv delle tue esternazioni più caustiche: come (non) approcciarsi ai problemi relativi alle piattaforme e all’impatto dei dati sulla società…
Spesso sono stato interpellato (sia in ambito nazionale che internazionale) sulla questione dell’impatto dei dati e delle piattaforme sulla società. La prima cosa che ho sempre portato all’attenzione è che non si può tentare di normare qualcosa senza capire come funziona. Dovrebbe essere pacifico che non si può risolvere un problema se non lo si sa definire e quindi comprendere. Faccio un esempio completamente inventato giusto per rendere più chiara la questione. I navigatori ci hanno cambiato la vita. Soprattutto per quelli come me a cui non hanno installato il senso dell’orientamento alla nascita (si, a volte mi perdo pure per i Castelli Romani, la cui capitale è Frattocchie). Ora immaginiamo ci sia una tavola rotonda per capire come questi navigatori influenzino la nostra vita. Alla tavola rotonda vengono invitati degli “esperti”. Uno degli esperti dice “nessuno sa come funziona l’algoritmo del navigatore”. Appena detta la frase tutti gli studenti al primo anno di informatica vengono presi da un attacco di panico e da crisi di pianto isterico pensando al povero Dijkstra che hanno studiato per l’esame di algoritmi. Anche qui, non è difficile capire che l’impostazione fantasiosa che porta l’esperto non informa ma disinforma chi vuole capire o normare un fenomeno.
Capisci bene che in queste circostanze affrontare in maniera costruttiva temi delicati è impresa ardua e faticosa, anche perché non c’è modo di articolare un discorso in maniera concreta perché tutto si perde in mille rivoli di opinioni/impressioni personali che non sono aderenti alla realtà. Infatti, nei vari consessi sull’impatto delle piattaforme spesso si discute senza inquadrare il problema sulla base delle evidenze scientifiche che abbiamo su questi fenomeni.
Mi trovi totalmente d’accordo sul fatto che non si possa cercare una soluzione a questi problemi senza definizioni chiare e basandosi e su un inquadramento del problema che si fondi (anche) sulle informazioni scientifiche più aggiornate. Ma allora non sarebbe meglio che i decision makers si interfacciassero direttamente con il mondo della ricerca, con gli esperti? E qual è invece il ruolo dei giornalisti in questo contesto?
Hanno un ruolo nella definizione delle mode, creano l’hype, che poi porta le questioni sui tavoli politici. E definiscono gli opinion leader, spesso con criteri che non prevedono la valutazione di competenza sul tema. E l’esposizione mediatica di quel presunto esperto piuttosto che di quell’altro rischia di diventare anche criterio di selezione per i tavoli di lavoro. Quindi hanno un ruolo indiretto, ma comunque di rilievo.
Quindi arriviamo a quello che è un altro dei punti nodali: chi è che decide chi è l’esperto? A chi devono rivolgersi i policymaker quando si tratta di normare, che si tratti di piattaforme di social networking o di Intelligenza Artificiale?
Possiamo cominciare da chi non è da considerare esperto: l’esperto non è chi si sa vendere bene, la persona che ci piace, quando non siamo in grado di capire se ne sa o meno, l’importante è che ci piaccia (fenomeno noto come confirmation bias). In ambito giornalistico e poi politico mi sembra che purtroppo il criterio di scelta prevalente sia questo. Va bene, ma almeno diamo un occhio al cv di chi ci piace.
Ma quindi ci troviamo in un circolo vizioso? L’esperto lo deve scegliere solo chi è esperto?
A mio avviso il criterio rilevante, pur con tutti i suoi limiti, è il riconoscimento della comunità scientifica, che si misura in pubblicazioni su testate ad alto impatto. E poi c’è la responsabilità individuale: uno dei paletti davanti a cui anche l’accademico dovrebbe fermarsi è quello di comportarsi da “tuttologo” : l’abbiamo visto durante il COVID, puoi essere esperto e preparato nel tuo campo specifico, ma se ti viene chiesto di esprimerti su temi che esulano da questo campo, meglio non rispondere oppure si cade nelle opinioni personali.
Durante la pandemia mi era capitato di leggere un articolo che descriveva il concetto di umiltà epistemica come virtù intellettuale. Una virtù “che si basa sulla consapevolezza che la nostra conoscenza è sempre provvisoria e incompleta e che potrebbe richiedere una revisione alla luce di nuove prove”. Di solito qui mi interrompi dicendo che “a fare catechismo poi la gente si annoia”. Però credo che sarebbe molto utile che anche gli accademici avviassero una seria riflessione sui limiti del loro sapere, che lavorassero sul piano delle metacognizioni, proprio per evitare l’overconfidence che li porta a esprimersi al di fuori del loro campo. Ma anche nel loro campo, il rischio è che si esprimano senza considerare che la scienza non è fatta di dogmi, ma richiede una continua riflessione proprio su ciò che potrebbe disconfermare le proprie certezze.
Ma senza deviare troppo, torniamo a quello che è il campo di indagine di cui sei propriamente esperto: misinformation e fake news. In sintesi quali sono i dati su cui basare un’analisi e la ricerca di soluzioni?
Nell’ambito delle fake news si insiste a pensare che il problema sia la competizione tra informazione vera e informazione falsa. Un mondo in cui ci sono i cattivoni che diffondono informazioni false per ingannare le persone e farle votare male, mentre i giornalisti buoni che provano a raccontare la verità non vengono ascoltati. E la soluzione sarebbe quella di fornire informazioni vere al posto di quelle false, in pratica il deficit model, portato avanti da giornalisti e divulgatori scientifici.
Mi sembra che ridurre il problema della misinformation alla disinformation sia una specie di cospirazionismo: il problema complesso diventa la sua versione semplificata in bianco e nero (in questo caso l’informazione vera o falsa) e poi si trova un capro espiatorio o lo si immagina. Il capro espiatorio è utile per non pensare che siamo anche noi parte del problema; l’ipersemplificazione, il pensiero dicotomico, sono tutti sintomi della nostra intolleranza per l’ambiguità e l’incertezza.
Gli studi per ora (e con una certa unanimità) ci confermano che il problema è decisamente più articolato. Riassumendo in breve abbiamo:
A) un mare magnum di informazioni che circolano su internet e sulle piattaforme social;
B) gli algoritmi delle piattaforme a causa del modello di business, hanno la funzione di intrattenere i clienti-utenti;
C) la tendenza umana a selezionare informazioni che aderiscono al proprio modo di vedere scartando versioni distanti (il confirmation bias rafforzato molto dai punti A e B).
La domanda immancabile quindi è: ma quindi allora il fact-checking non serve?
Il fact-checking serve, serve per chi è predisposto, per chi cerca informazione di qualità, ma fatica a trovarla. Come faccio a dirti che non serve il fact checking? Se esistono i blog di debunking che in pratica fanno fact checking a 360 gradi su tutto, è evidente che interessa. Il problema è che il fact checking non lo fanno proprio i giornalisti che ormai sono dei blogger come altri.
Il fact checking non risolve comunque il problema del rumore pazzesco, tanto che forse dovremmo cominciare a ragionare non tanto in termini di misinformation ma di entropia informativa. L’idea è più o meno questa – la svilupperemo nei prossimi articoli e ricerche – c’è una notizia che si dirama in infiniti rivoli e narrazioni, finché il rumore è tale che alla fine l’utente lascia perdere, abbandona la discussione.
Subito dopo la domanda che segue è, ma allora come si esce da questa apocalisse?
Se siamo d’accordo sul fatto che sono i punti sopra A, B e C a causare il problema, in primis tocca rivedere il concetto di media literacy. Non si risolve spiegando alle persone quali sono le fonti giuste, ma va rideclinata nell’ottica di rendere consapevoli le persone di tutti i meccanismi che i nostri cervelli mettono in atto quando siamo nell’ambiente online. Una delle proposte, a mio avviso, più interessanti e fondate per risolvere questo problema è quella del prebunking proposto da Sander van der Linden, uno psicologo sociale di Cambridge. Riprendendo la metafora della misinformation come virus che si diffonde, lui propone questo modello di “vaccinazione” contro le fake news: tutti siamo vulnerabili, possiamo essere tratti in inganno ma se diventiamo più consapevoli dei nostri meccanismi di funzionamento possiamo migliorare e cascarci di meno. Questa vaccinazione parte proprio da spiegare quali sono i tentativi di inganno che possono essere messi in atto in questo contesto, in pratica capire come funzioni tu e come funziona l’ambiente che stai navigando. Nel suo libro Fullproof propone questo modello e identifica “6 gradi di manipolazione” – le strategie utilizzate per ingannare le persone e far loro credere anche le cose più incredibili .
E in che modo invece si può intervenire a livello di regolamentazione delle piattaforme? (una volta risolta la faccenda degli esperti). Quali sono le principali criticità?
Il punto di partenza è quello di inquadrare tutto all’interno della rivoluzione che è stata aperta con la disponibilità dei dati. Gli stessi LLM (ChatGPT per capirci) sono una fase di questa rivoluzione dei dati e ce ne saranno altre ancora. Prendiamo proprio la questione dell’Intelligenza Artificiale, se la collochi nel contesto della rivoluzione dei dati allora diventa chiaro che non ha senso regolamentare il singolo prodotto, ChatGPT che oggi fa questo e quello, perché domani il prodotto è già cambiato: i dati sono il perno di tutto, non i singoli prodotti sviluppati a partire dai dati.
Le grandi piattaforme social hanno introdotto un nuovo business model basato sui dati, perché, disponendone in grandi quantità, la targettizzazione della pubblicità è diventata più precisa, più scientifica, non deve più basarsi su indagini qualitative più o meno “creative”. E ora questo modello di business deve essere normato, perché è nuovo e perché l’obiettivo di queste grandi aziende non è fare beneficenza, ma guadagnare dai dati: le piattaforme hanno miliardi di utenti che sono clienti da intrattenere (e trattenere all’interno delle piattaforme) per vendere pubblicità.
Poi ci sarebbe da capire e definire il ruolo delle piattaforme e qui si apre veramente un abisso che non è mai stato articolato. Le piattaforme sono editori? Probabilmente no, è difficile inquadrarle in recinto per cui esse siano responsabili dei contenuti che vi circolano sopra. Difficile perché ci sono miliardi di utenti, ognuno con le sue credenze e idiosincrasie e perché non c’è modo di fare un controllo efficace considerando la mole di contenuto che viene prodotta, e il machine learning si è rivelato inefficace.
Infatti, le piattaforme stesse sono terrorizzate da questo punto. Ogni volta che si menziona “responsabilità editoriale” si eclissano.
In termini dei sistemi complessi il fatto che dal mare magnum fortemente entropico emergano dei colossi che poi dominano tutto, è pacifico, si sa da 30 anni che funziona così, cioè che sarebbero emersi Facebook e Amazon. Infatti, Albert-László Barabási aveva predetto proprio questo: che internet avrebbe preso la struttura ad hub, con pochi hub che governano tutto a seconda dell’interazione. Tuttavia però si apre un altro problema: dove collochiamo geograficamente la legislazione di piattaforme che si muovono su scala globale?
Prendiamo il concetto di privacy: negli Stati Uniti, in Europa, in Asia è concepito in modi completamente diversi. E qui ci vogliono gli esperti di diritto, ma la situazione per ora è in stallo. Io ti posso dire quali sono i limiti tecnici, ma per il resto l’unica cosa che ho capito, da profano, è che il concetto di privacy non dipende tanto dal dato in sé, quanto dal tipo di conoscenza che si riesce a estrarre dalla combinazione dei dati, quindi dipende da quanto evolve la tecnica algoritmica. E la tecnica algoritmica oggi è una cosa, tra due ore è già un’altra cosa.
E quindi come si risolve secondo te?
Le piattaforme si sono prodigate proponendo un meccanismo che passa sotto il nome di autoregolamentazione. In sostanza fanno del loro meglio cercando di non creare situazioni scomode per loro (scomodo si intende qualunque cosa che richiami anche lontanamente la paura atavica della responsabilità editoriale). Definiscono standard, nominano board di esperti indipendenti per levarsi la patata bollente di dover decidere cosa ha diritto di essere pubblicato o meno sulla piattaforma, usano algoritmi per controllare se un contenuto è adeguato (con i famosi casi in cui quadri o sculture vengono censurate perché mostrano nudità). Altre volte, per convenienza, si sono spinte anche in situazioni abbastanza difficili come il ban dell’ex presidente degli Stati Uniti. È un potere enorme, che a mio avviso mal si concilia con una banale prassi di autoregolamentazione.
Invece quello che mi sembra avere senso è il concetto di co-regolamentazione che più o meno consiste nel definire un’entità istituzionale sovranazionale che tuteli i diritti dei cittadini nella fruizione delle piattaforme, si preoccupi di definire quali sono i criteri ammissibili e quali no e che poi vigili sull’effettiva implementazione di questi paletti con le piattaforme stesse. Serve un organismo formato da esperti di diverse discipline che stia al passo con i cambiamenti continui che la rivoluzione dei dati sta generando, non si può fare una regolamentazione una volta per tutte perché le piattaforme, i prodotti, i servizi continuano a cambiare. Per raggiungere questi obiettivi tale entità però dovrebbe avere il potere di accedere ai dati delle piattaforme per poterli analizzare e di poter multare in maniera pesante le infrazioni.