Intelligenza Artificiale, Rana Bollita e Democrazia in pericolo
Questo articolo è stato scritto alcuni giorni fa, prima dei fatti accaduti a Washington. Mentre attendeva di essere pubblicato ciò che è accaduto a Washington l’ha reso attualissimo.
I social media sono gestiti da algoritmi che costruiscono la realtà intorno a noi per come ci piace, ci creano delle zone di comfort con i gruppi di persone più affini per opinioni, abitudini e gusti ma in modo pericoloso ci spingono a perdere “dimistichezza” con il confronto delle idee e con le opinioni diverse. La nostra Democrazia entra in crisi se non abbiamo una cultura aperta al confronto e se ci rinchiudiamo nelle nostre “microzone” di comfort e crediamo solo alla nostra “verità”, magari tralasciando l’oggettività dei fatti per inseguire le nostre convinzioni.
Qualche giorno fa mentre ascoltavo sopra pensiero musica su Spotify l’algoritmo di Spotify ha cominciato a mettere musica simile a quella che avevo deciso di ascoltare, come spesso accade se non si ha un abbonamento. Non era il brano o l’album che volevo ascoltare ma molto simile, molto vicino al genere e alla melodia che avevo impostato. In qualche modo mi metteva a mio agio. Gli algoritmi delle big tech creano una zona di comfort per ognuno di noi sulla base dei dati che hanno in nostro possesso e questo sta creando una società con sempre meno elementi condivisi.
Mi sono trovato nella situazione tipica di quando cerco un film di Netflix e non mi fa vedere tutto lo sterminato catalogo ma solo i film o le serie che si avvicinano meglio a ciò che mi piace, a ciò che ho già visto. Ho così la possibilità di scegliere tra film e serie che mi mettono di più a mio agio, una selezione che è stata addestrata sulla base dei miei comportamenti passati. Amazon pure ci fa vedere una selezione del catalogo di film e serie che più si avvicina a noi, come ci consiglia prodotti dal suo marketplace sulla base delle informazioni raccolte dalle nostre ricerche ma perfino ascoltando al microfono ciò che diciamo ed estraendo da questi discorsi prodotti o esigenze che ci vengono puntualmente riproposti in termini di pubblicità di prodotti su Amazon.
Quando passo del tempo su Facebook o su Instagram non vedo tutti i post dei miei amici, vedo solo ciò che l’algoritmo ha selezionato in base ai miei interessi, alle mie curiosità, tutto ciò che consente di rimanere a mio agio, tranquillo e sereno. In alcuni casi la presenza di post o articoli che suscitano la mia indignazione sono fatti vedere anche ai miei amici più affini così che insieme, possiamo commentare o protestare, tra il circolo di persone che la pensa più o meno nello stesso modo e che si indigna insieme contro qualcosa che disturba la tranquillità della nostra più o meno piccola comunità.
Anche quando facciamo una ricerca su Google o Bing non vediamo tutti i risultati possibili ma solo quelli che il motore di ricerca ha individuato più pertinenti a noi, così come se andiamo in una pagina di quotidiano vediamo pubblicità diverse a secondo di come siamo stati profilati. Ognuno ha la sua “realtà” che non è la realtà.
I dati e la profilazione che vengono continuamente raccolti dal telefono, dalla navigazione su internet, dalla registrazione delle nostre conversazioni sono trasformati attraverso complessi algoritmi in parametri che composti tra loro danno luogo alla creazione della nostra zona di comfort.
La Rete, l’invenzione che quando ho personalmente scoperto alla fine degli anni ’80 mi permetteva di avere una finestra su culture, abitudini, paesi molto diversi dal mio e che prometteva all’umanità di metterla a confronto con le diversità presenti sul pianeta nei fatti si è trasformata in miliardi di zone di comfort ove ogni singolo abitante connesso trova la sua comodità.
L’applicazione estensiva dell’intelligenza artificiale nella proliferazione e la più grande raccolta di dati che sia mai avvenuta, consentono in ogni momento di profilare chiunque. Quando compare la finestrella dei cookie e vediamo la lista dei “fornitori” che ci chiedono dati essa è composta da centinaia di aziende a noi sconosciute che sono presenti in decine di paesi diversi, in quelle aziende potrebbero nascondersi pericolosi servizi segreti di paesi esteri o aziende di prodotti di largo consumo. Attraverso la raccolta di quei dati e la loro elaborazione ognuno di noi viene mappato per potergli offrire i prodotti di cui ha bisogno, fargli vedere la pubblicità che più fa al caso suo, i film che o mettono a suo agio, i post degli amici con cui condivide di più le idee, ecc.
Questa “fantastica realtà” mediata dall’intelligenza artificiale ricorda molto la “rana bollita” del racconto di Chomsky. In quel racconto si parla di una rana che viene messa in una pentola di acqua fredda e poi viene acceso il fuoco, man mano che l’acqua si scalda la rana prova sempre più il piacere di un tepore confortevole senza tuttavia accorgersi che l’acqua ha raggiunto una temperatura di ebollizione e che la farà morire bollita.
Ci troviamo in un certo senso nella stessa situazione della rana, abbiamo algoritmi che ci creano la nostra microzona di comfort ma stiamo annientando la nostra società, la nostra democrazia e perfino la nostra stessa intelligenza. Come persone abbiamo bisogno di confrontarci con la diversità, essere stimolati da ciò che non conosciamo e che magari in un primo tempo ci mette a disagio. Questo ci consente proprio di superare la nostra zona di comfort e di raggiungere una nuova situazione di equilibri nella quale abbiamo allargato i nostri orizzonti e la nostra capacità. Ma anche le nostre democrazie non possono vivere se non c’è una cultura e dei valori condivisi tra larghe masse di persone.
Come possono coesistere decine di milioni di persone sotto una stessa bandiera se non hanno un insieme di valori e idee condivise? Possono milioni di microzone di comfort che condividono i loro valori diversi l’una dalle altre, le loro credenze, le loro idee vivere in pace tra loro o non si creano continuamente delle aree di conflitto? E d’altra parte i casi di conflitto e manipolazione dovuti ai social media non sono pochi, da quelli più gravi come la persecuzione dei royinghia, al caso di Cambridge Analitica, alla presunta manipolazione del voto presidenziale USA con l’elezione di Trump. Ma c’è anche la proliferazione come mai prima di gruppi nazisti, organizzazioni no-vax o terrapiattisti che riescono a trovare adepti e associarsi in gruppi nei quali la loro informazione autoreferenziale diventa un vero e proprio “enclave informativo”, costruisce un terreno di valori e idee condivise, una identità di gruppo. Questi gruppi si rafforzano proprio dal fatto che gli algoritmi dei social contribuiscono ad amplificare le loro convinzioni non tanto sulla base di evidenze empiriche/scientifiche ma solo perché eliminano tutto ciò che non rientra nella loro zona di comfort che è una “realtà artificiale”. Così fa anche con tutti noi, tutti noi crediamo di vedere la realtà ma veniamo continuamente e progressivamente “cotti” nell’acqua come la rana bollita. Siamo sempre più convinti che abbiamo ragione per il fatto che nulla ci compare nel darci una evidenza contraria, non veniamo posti a confronto con altre idee e con la diversità.
Gli algoritmi di intelligenza artificiale il più delle volte sono addestrati sulla base delle informazioni storiche e grazie ad algoritmi statistici (o a tecniche come le reti neurali) possono stimare il comportamento futuro di eventi o interessi o tendenze di persone o, meglio, cosa ci piace o non ci piace, cosa siamo portati a fare e cosa non siamo portati a fare, cosa potrebbe disturbarci e cosa no. Questo anche se noi ci siamo trovati a fare sempre in un certo modo non perché non ci piacerebbe cambiare ma semplicemente perché non abbiamo mai avuto l’opportunità di conoscere qualcosa di differente. Viene così meno la grande forza delle civiltà aperte che ci pongono di fronte situazioni nuove, elementi di disagio, ci spingono ad uscire dalla nostra zona di comfort ma ci consentono di crescere e conoscere nuove situazioni che migliorano la nostra conoscenza.
Tornando alla mia esperienza con Spotify a me piacciono generi musicali molto diversi e mi piace conoscerne altri, sono molto aperto e curioso e cerco sempre di conoscere qualcosa di nuovo di confrontarmi anche se poi non tutto rimane tra le cose che amo fare. L’algoritmo di Spotify invece mi ha proposto una realtà limitata, chiusa anche se confortevole.
Il tema della profilazione e “algoritmizzazione” di Internet, dei social e dei nostri consumi e abitudini di vita è un tema che ha un impatto diretto sulla nostra democrazia che infatti negli ultimi anni è sempre più in crisi. Non di rado ci siamo allarmati durante il periodo elettorale che “i russi” potessero manipolare l’opinione pubblica attraverso fake news diffuse sui social media. Ma lo stesso potrebbe benissimo accadere se a manipolare le notizie fossero strutture opache “occidentali”, movimenti politici che volessero spostare l’opinione pubblica su posizioni estreme. La crescita di movimenti estremi e sempre più chiusi alla diversità come i neonazisti tedeschi, ormai tra i primi partiti politici eletti in Germania, dovrebbe allarmarci molto di più di quanto lo siamo.
La nostra democrazia è capacità di conoscere, rispettare e in integrare (senza soffocarla) la diversità. Lo sviluppo maggiore delle democrazie occidentali si è avuta con i grandi partiti di massa e la crescita del mass-media con la loro capacità di creare framework condivisi grazie al cinema, alla tv o alla radio. Anche questi strumenti sono possibili manipolatori (basta vedere l’uso dei mass media che è stato fatto nella Germania di Hitler) e dunque non è pensabile tornare al passato, bisogna piuttosto porsi il problema di come fermare la deriva verso la profilazione di massa e la creazione di microzone di comfort. Perfino il conflitto tra idee, quando non trascende, ha contribuito in modo rilevante alla crescita di una visione condivisa e di una cultura della mediazione tra posizioni diverse, alla ricerca delle ragioni dell’altro per poterle comprendere o criticarle. Oggi non abbiamo nessuna ricerca delle ragioni dell’altro da fare, ognuno vive e amplifica le proprie convinzioni nella sua zona di comfort.
Stiamo lasciando una tecnologia potente come l’Intelligenza artificiale completamente nelle mani di aziende private che la usano per interessi commerciali, la politica comincia ad occuparsene negli USA e in Europa e in qualche altro paese non certo in Italia dove, non si affronta né il problema di come aumentare la conoscenza tecnologica, né tantomeno di aprire una riflessione e mettere in cantiere iniziative volte ad indirizzare ciò che accade nell’interesse del Paese.
Se non vogliamo finire come la rana bollita dobbiamo agire con determinazione per fermare questo uso della profilazione, se l’unico obiettivo delle tecnologie è l’indice di profitto e vale qualsiasi stratagemma per arrivarci non abbiamo creato un sistema capitalista migliore, non abbiamo costruito una società di libero mercato ma abbiamo creato una pericolosa deriva che non sappiamo dove ci porta ma certo i segnali non sono positivi.
È necessario limitare, governare e talvolta fermare la raccolta di dati che viene fatta dalle diverse aziende, mettere dei limiti e dei vincoli ai soggetti che raccolgono dati per la profilazione e ai soggetti che vendono dati per business (ad esempio sottoponendole ad una autorizzazione delle autorità garanti sulla privacy, a controlli pervasivi e a campione sull’uso dei dati e a chi vengono venduti e come). Le autorità preposte a garantire la nostra privacy debbono essere più attive nel contrasto e nel governo dei dati, gli stessi parlamenti lo devono essere. Forse il sistema delle autorità garanti dovrebbe essere rivisto, il GDPR non sembra aver soddisfatto tutte le sue promesse.
È necessario agire presto per limitare il ruolo dei social media e delle piattaforme di streaming nella “manipolazione” dei contenuti e forse ripensare il ruolo dei mass-media che, con tutti i loro difetti, hanno contribuito a costruire grandi opinioni pubbliche condivise, democrazie integrate e una condivisa idea di società.
In questo delicato passaggio di decennio ci troviamo di fronte ad una pandemia che ci ha fatto capire quanto pericolose sono le informazioni, si è parlato di “infodemia”, quanto danno possono arrecare gruppi di individui organizzati secondo credenze dogmatiche e chiuse, senza riscontro dai fatti (no vax, chi credeva che il virus non esistesse, chi credeva nell’uso terapeutico della candeggina). Abbiamo il dovere di garantire la libertà di espressione ma soprattutto di mettere di fronte ai fatti e al confronto tra loro le diverse opinioni, far uscire tutti dalle loro zone di comfort.
L’Intelligenza Artificiale e la scienza dei dati sono tra le tecnologie più innovative e promettenti che abbiamo a disposizione ma lasciate in balia di interessi spregiudicati o alla deriva di un utilizzo senza governo possono arrecare danni enormi ai nostri sistemi democratici, alle persone, alla società nel suo complesso. La speranza è che la seconda decade del III millennio ci spinga tutti a mettere sulla strada giusta tecnologia, democrazia e società.