La cifra politica dei DATA: an artificial revolution

Ogni mattina ci si sveglia e le cose sono cambiate, scriveva Umberto Eco a proposito della cultura di massa. Impossibile non estendere questo assunto alla società digitale, al regno dei data. “An Artificial Revolution” di Ivana Bartoletti vuole essere un viaggio nelle questioni politiche implicite nei dati e nella tecnologia. “I dati — argomenta l’autrice — hanno le stesse caratteristiche del capitale: accumulazione, diseguaglianza, patriarcato”. Affermazioni forti, da indagare. Come ci svegliamo, come ci sveglieremo nella πόλις domani?
Proponiamo la versione integrale dell’intervista all’autrice, pubblicata il 31 maggio scorso su La Lettura del Corriere della Sera, firmata da Luigi Ippolito.

“Ho scritto questo libro perché sono così appassionata di tecnologia che voglio che funzioni per tutti»: Ivana Bartoletti spiega in questo modo il suo An Artificial Revolution: On Power, Politics and AI («Una rivoluzione artificiale: potere, politica e Intelligenza artificiale»), lanciato la scorsa settimana con la Indigo Press nel regno Unito sotto forma di ebook, disponibile su Amazon e Google, e in uscita in libreria in forma cartacea a inizio settembre. Una disamina delle implicazioni dell’intelligenza artificiale concepita da un’esperta italiana, trapiantata da anni a Londra, che oggi è technical director per la Privacy di Deloitte, il colosso multinazionale della consulenza e dei servizi professionali, e che al lavoro scientifico unisce la militanza politica che l’ha portata a diventare presidente della Fabian Society, la più antica fondazione della sinistra britannica, oltre che lanciare il network Women Leading in AI, che si batte per ampliare la presenza femminile nelle nuove tecnologie. «In questo preciso momento — continua Bartoletti — pochi umani, principalmente maschi, stanno pilotando la tecnologia che pilota tutti noi. Il mio libro argomenta che abbiamo bisogno di rimettere la politica e le idee al posto di guida».

An Artificial Revolution vuole essere un viaggio nelle questioni politiche implicite nei dati e nella tecnologia: laddove si offre una diversa prospettiva su dati e capitale, squilibri di potere e geopolitica. «I dati — argomenta l’autrice — hanno le stesse caratteristiche del capitale: accumulazione, diseguaglianza, patriarcato». Un lavoro teorico particolarmente tempestivo in questo momento di pandemia: «La nostra risposta al coronavirus — aggiunge — è costruita sugli ecosistemi tecnologici descritti nel libro, fatti di “datificazione” e sorveglianza, e sulle dinamiche di potere sottese al nostro mondo digitale. Il dibattito attorno alle app di tracciamento è un chiaro esempio: come sfruttiamo il valore dei dati per la salute pubblica è una questione cruciale del nostro tempo». Bartoletti sostiene che va ripensato il concetto di privacy perché non c’è nulla di più collettivo di un pezzo di informazione personale: «Non sono a mio agio con una privacy vista solo come diritto individuale, dobbiamo concepirla come un valore collettivo: proprio nella pandemia abbiamo visto che c’è qualcosa di collettivo nei dati privati».

L’intelligenza artificiale è entrata nelle nostre vite: Alexa è nelle nostre case. Ma non è un caso che l’assistente virtuale sia sempre una donna…

«Quella rappresentata da Alexa è una forma di servitù digitale: lei non è lì per contraddirti, non può ribattere, può solo eseguire i comandi. Ormai anche i bambini le impartiscono ordini. E il motivo è che a programmarla sono i maschi».

Si dice spesso infatti che occorre aumentare la presenza femminile nel settore delle nuove tecnologie. 

«Sì, ma non basta dire che servono più donne nell’intelligenza artificiale. Il discorso sulle donne che dovrebbero studiare più materie Stem (scienza, tecnologia, ingegneria, matematica) è abbastanza inutile: poi conta chi è amministratore delegato, non le programmatrici». 

E dire che la tecnologia doveva rappresentare una forma di liberazione. 

«Il paradosso è che dicono di voler usare l’intelligenza artificiale proprio per neutralizzare i bias, i pregiudizi sedimentati: ma in realtà i dati non sono neutri, riflettono secoli di gerarchie. Costruire un databaseimplica delle scelte. E ogni scelta è un atto di violenza». 

Sarebbe a dire? 

«Guardiamo a come l’intelligenza artificiale viene utilizzata nel campo delle risorse umane, per decidere assunzioni e licenziamenti. Oppure dalle banche, per stabilire chi avrà diritto a un finanziamento o a un mutuo per comprare casa. Per finire con l’invasività delle tecniche di riconoscimento facciale. Il biasdipende anche dai parametri di arrivo che si stabiliscono. Quando si include un’informazione o la si esclude si prendono decisioni che possono essere guidate dall’ideologia. Spesso usiamo i dati di ieri per decidere il futuro». 

Che cosa si può fare per contrastare le distorsioni dell’intelligenza artificiale? 

«Ci sono soluzioni tecniche, modelli matematici, ma la soluzione tecnica non è tutto: è qui che entra in gioco il discorso sulla diversità, perché la distorsione è un risultato della società. L’Intelligenza artificiale è una questione di potere: può servire a cambiare le relazioni esistenti o a perpetuare le diseguaglianze. Ma la strada da percorrere consiste nell’affrontare le diseguaglianze nella società: altrimenti, ora come ora, non è possibile superare i bias, i preconcetti insiti nella programmazione. La soluzione non può che essere politica, perché tutti i prodotti tecnologici hanno una natura politica. Occorre sfidare la presunta santità dei dati: i dati sono utili, ma non sono neutrali, rappresentano la società come è ora».

In concreto? 

«Si deve partire da una moratoria sulle tecniche di riconoscimento facciale. L’intelligenza artificiale viene utilizzata in modo punitivo: la sorveglianza è concentrata su determinati segmenti della popolazione. Pensiamo ad Amazon Prime, che non rifornisce determinate zone: si disegna così una nuova mappa dell’apartheid. Gli strumenti per prevedere il rischio hanno conseguenze tremende».

Chi deve farsi carico del ripensamento dell’intelligenza artificiale? 

«La questione dell’Intelligenza artificiale va affrontata come il disarmo nucleare: con regole e accordi internazionali. Non stiamo parlando di un futuro lontanissimo, di scenari da Terminator, ma del qui e ora: l’intelligenza artificiale è dovunque attorno a noi, nei navigatori satellitari, nei telefoni, solo che non ce ne rendiamo conto appieno. Non sono i robot del futuro che ci devono preoccupare, ma che cosa i dati possono fare già adesso. L’Intelligenza artificiale è un fatto ma anche un’ideologia. Il mantra di un mondo data-driven, guidato dai dati, è sbagliato: la tecnologia ha fatto cose meravigliose ma abbiamo visto anche sviluppi preoccupanti, dalla manipolazione delle notizie alla mercificazione delle personalità. Se l’intelligenza artificiale è deresponsabilizzata, ci mettiamo su una via senza ritorno. Il rischio è che siamo noi che finiamo per adattarci alle macchine invece del contrario».

Bastano le regole? 

«C’è sicuramente un livello normativo: ma poi c’è una questione pre-normativa. Perché utilizziamo l’intelligenza artificiale? Quali sono gli obiettivi? Dobbiamo mettere la politica al posto di guida, chiederci dove andare, stabilire una strategia. Ma i politici di oggi non sembrano capire davvero il problema (e forse non gliene possiamo fare neppure una colpa): anche per questo le questioni sull’Intelligenza artificiale vengono presentate apposta come cose troppo complesse. Invece no, se ne deve parlare anche a casa: dobbiamo appropriarci di questo spazio, affrontarlo prima che sia troppo tardi».

È arrivato il momento di rallentare?

«Rallentare lo sviluppo dell’intelligenza artificiale non è la soluzione: deve essere governata. Dobbiamo andare oltre i principi astratti e puntare a trattati globali, per decidere come l’Intelligenza artificiale debba essere circoscritta dai valori umani: solo perché qualcosa è tecnicamente fattibile non significa che vada necessariamente fatta». Luigi Ippolito, per La Lettura del Corriere della Sera, 31 Maggio 2020

Pubblicità

Rispondi

Inserisci i tuoi dati qui sotto o clicca su un'icona per effettuare l'accesso:

Logo di WordPress.com

Stai commentando usando il tuo account WordPress.com. Chiudi sessione /  Modifica )

Foto di Facebook

Stai commentando usando il tuo account Facebook. Chiudi sessione /  Modifica )

Connessione a %s...