Altro che robot killer, i veri rischi dell'AI sono i pregiudizi

John Giannandrea, capo dell'intelligenza artificiale di Google, rilancia il problema di dati e algoritmi viziati. La prima sfida da affrontare per costruire sistemi davvero utili

I posti di lavoro persi (ci ha fatto una copertina recente perfino il New Yorker). L’impatto economico. Le implicazioni etiche. Tutto assolutamente giusto, sono ambiti che l’intelligenza artificiale investirà, rivoluzionandoli. Tuttavia, stando almeno a John Giannandrea, scozzese classe 1965, capo delle ricerche e dell'intelligenza artificiale di Google – e dunque al vertice di una delle compagnie che più di tutte e da più tempo stanno investendo in questo settore – i problemi fondamentali non sono quelli. E neanche il timore di fantascientifici robot killer, armi intelligenti o guerre nucleari scatenate a piacimento dalle menti intelligenti, come paventato poco tempo fa dal solito Elon Musk. No, per Giannandrea il problema sono i pregiudizi. Quelli che gli algoritmi basati sul machine learning potrebbero acquisire e iniettare nei milioni di decisioni che compiono ogni minuto nei più diversi compiti. Per nostro conto.

Insomma, gli scenari non sono tanto di tipo cinematografico, per così dire (la dittatura dei robot, la singolarità e così via). Piuttosto, si legano a una sterminata quantità di pericoli insiti nel modo in cui questi sistemi assumeranno le decisioni che spettano loro. Soprattutto quelle più piccole e all’apparenza meno preoccupanti. “La vera questione che riguarda la sicurezza, se vogliamo chiamarla così, è che se forniamo a questi sistemi dei dati compromessi, loro stessi saranno compromessi”. Anzi, per dirla tutta Giannandrea, a una recente conferenza di Google dedicata proprio al rapporto fra esseri umani e AI, non parla di compromessi ma di “biased”: informazioni pregiudizievoli. Sbagliate, scorrette, girate solo da un lato. Di più: viziate.

Un problema montante, nel senso che potrebbe diventare sempre più significativo con l’espandersi dei settori interessati. Dal diritto, come abbiamo visto diverse volte, alla medicina (idem). Non solo: un problema che assumerà contorni preoccupanti – e che per questo va affrontato per tempo – anche in virtù di un altro “gap”, per chiamarlo così. Quello delle persone senza competenze tecniche a cui verrà affidato il compito di occuparsi di questi sistemi. Lasciando così il campo a modelli matematici che ritaglieranno le nostre esistenze. La denuncia è arrivata lo scorso luglio da un gruppo di ricercatori insieme all’American Civil Liberties Union, che hanno lanciato un tentativo di identificare e sottolineare i pregiudizi algoritmici con il programma AI Now.

Il problema è semplice: se queste distorsioni dei dati reali rimangono sopite nelle profondità di questi algoritmi, cioè se nessuno si prende il peso di intervenire e correggerli, allora possono sbocciare conseguenze molto serie. Specialmente per certi settori di utenza. Ma anche per uno sviluppo realmente utile di queste tecnologie: una macchina che funziona male non serve a nessuno. Ad esempio, secondo Kate Crawford della AI Now Initiative, ricercatrice di Microsoft, dei problemi già si verificano in sistemi che effettuano valutazioni finanziarie e legali negli algoritmi proprietari. Chi deve essere intervistato per ottenere un posto, chi può ottenere un prestito, chi un mutuo. Molte di queste analisi sono sempre più effettuate automaticamente, almeno allo stadio iniziale: se si portano dietro dei problemi, tenderanno a produrre effetti nefasti.

È fondamentale essere trasparenti sulla produzione dei dati che usiamo e cercare i pregiudizi nascosti al loro interno. Altrimenti costruiremo sistemi viziati” insiste il manager scozzese di Mountain View. Al fondo c’è d’altronde una questione di fiducia. Basti pensare al sistema Compas, realizzato dalla società Northpointe, utilizzato in ambito giudiziario per stabilire la tendenza di un imputato a essere recidivo. E dunque a poter o meno fruire di una qualche forma di libertà sulla parola, come si dice nel sistema statunitense. Un’inchiesta di ProPublica ha scoperto che quel modello di valutazione automatizzato può produrre discriminazioni nei confronti delle minoranze di colore della popolazione.

I problemi sono di vario tipo. Da una parte ci sono ovviamente l’opacità e la complessità del settore, che al momento rimane una sorta di scatola chiusa nei confronti della quale non solo gli utenti finali ma anche gli stessi ingegneri faticano a guardare dentro. Occorre che data scientist e ingegneri meno esperti su certi algoritmi abbiano la possibilità di intervenire per “ripulire” gli algoritmi con cui si trovano alle prese, ma che magari non hanno sviluppato, da elementi distorti e inquinati. Ci ha per esempio provato la ricercatrice di Google Maya Gupta col progetto GlassBox. Dall’altra ci sono i conflitti d’interesse delle compagnie che sviluppano e sfruttano queste soluzioni: non è un caso che DeepMind, la società britannica acquistata da Big G qualche anno fa, abbia appena lanciato una sorta di dipartimento interno ma autonomo e indipendente al quale affidare l’indagine su questo tipo di ricadute. Cioè sulle implicazioni morali.

Un problema, quello delle distorsioni, sottolineato da molti esperti. Karrie Karaholios, docente di informatica all’università dell’Illinois, ha presentato allo stesso evento di cui ha dato conto la Mit Technology Review una ricerca in cui si dimostra quanto questo genere di storture siano diffuse anche negli algoritmi più semplici. Alcune notizie di cronaca legate ai social network ce ne danno per esempio evidenza, nonostante gli sforzi delle piattaforme. Per Karaholios uno degli esempi più lampanti è proprio la gestione della newsfeed di Facebook.

Occorre insomma porsi delle domande ben precise: l’attività dei software con cui ci confrontiamo e lavoriamo ogni giorno è il più neutrale possibile nei nostri confronti o veicola un qualche genere di sotto testo, predilezione, preferenza nascosta, anche involontariamente? A che genere di dati attinge? Non c’è bisogno di arrivare al distopico progetto Sesame Credit del governo cinese, che raccogliendo dati dalle piattaforme controllate da Tencent o su Alibaba punta a sfornare una sorta di identikit del buon cittadino della repubblica popolare. E non è neanche del tutto il caso di Cathy O’Neill, autrice del libro Weapons of Math destruction, nel quale si domanda se gli algoritmi non minaccino la democrazie e le nostre esistente. Si tratta più che altro di questioni quotidiane sovrintese e orchestrate da questi sistemi che possono, volenti o nolenti, ridurre gli spazi dei diritti. Occorre proteggerli costruendo queste soluzioni nel migliore dei modi.