Discriminati dall’algoritmo di Uber?

Mentre in Italia si discute del ban di UberPop, delle regole del trasporto pubblico e del costo sociale generato dallo sfruttamento di lavoratori pagati molto poco, ad Oxford, in una conferenza su Web e Social Media (ICWSM) si discute assieme agli scienziati computazionali a proposito delle diseguaglianza che Uber genera...

Mentre in Italia si discute del ban di UberPop, delle regole del trasporto pubblico e del costo sociale generato dallo sfruttamento di lavoratori pagati molto poco, ad Oxford, in una conferenza su Web e Social Media (ICWSM) si discute assieme agli scienziati computazionali a proposito delle diseguaglianza che Uber genera sul lato degli utenti.

Sì, perché quanto pagate per il trasporto viene generato da un algoritmo e non sulla base di una tariffa unitaria di trasporto; varia quindi in base ad una serie di contrappesi e regole che non sono trasparenti perché celate, appunto, dietro l’algoritmo. Si tratta di uno di quei casi in cui, come utenti, abbiamo a che fare con una black box: prenotiamo attraverso una app pigiando un pulsante e non sappiamo che cosa esattamente produca il prezzo che pagheremo. E a parità di luogo, auto e tragitto potremmo pagare una cifra diversa da qualcuno che ha prenotato 5 minuti prima.

Lo racconta in modo efficace Christo Wilson, College of Computer and Information Science Northeastern University, nello science slam serale, uno di quegli eventi in cui i ricercatori competono con brevi talk sulle loro ricerche, presentando “Take Me Home Tonight: An Insider's Guide to Uber” dove spiega un funzionamento base dell’algoritmo progettato a San Diego che divide le tariffe per zone della città, cambia offerta ogni 5 minuti e introduce improvvisi e momentanei sconti che viviamo come casuali.

A volte quindi basterebbe aspettare qualche secondo per fare un viaggio più conveniente, oppure attraversando la strada potremmo entrare in una zona diversa ed avere una tariffa agevolata. Ma si tratta di dati che non conosciamo e che restano chiusi nella “scatola nera” dell’algoritmo e che alla fine classifichiamo sotto l’idea di “caso”. Invece, come sottolinea, Wilson “Ci troviamo di fronte ad un problema di trasparenza. L’algoritmo cambia regolarmente, quindi non so se altre persone stanno ottenendo gli stessi risultati”.

In fondo è uno dei tanti esempi di un digital divide che si produce in modo inconsapevole attraverso l’utilizzo quotidiano di applicazioni o attraverso siti di acquisto online.

Come utenti di servizi online percepiamo il web o le app come delle semplici vetrine che ci mostrano cosa possiamo acquistare e a quanto e non siamo consapevoli che la persona seduta accanto a noi accedendo nello stesso momento allo stesso servizio potrebbe trovarsi di fronte ad una vetrina allestita diversamente e con offerte speciali.

Ci poniamo poco il problema di come aumentare la nostra consapevolezza sui meccanismi di acquisizione ed elaborazione dell’informazione o di come questa viene messa in relazione. Ci troviamo così di fronte ad un contesto sociale connesso in cui si combinano l’inconsapevolezza per la natura algoritmica del mezzo e la segretezza delle logiche degli algoritmi, che sono coperti da proprietà intellettuale delle imprese. In questo modo gli algoritmi restano una black box sottratta ad un dibattito pubblico: se non diventeranno per noi un tema socialmente rilevante non riusciremo a costruire un approccio critico che consenta di evidenziare i vincoli di non neutralità che li caratterizzano. Se non proviamo ad aprire quella scatola o a pretendere che venga in qualche modo aperta, ci troveremo a vivere nuove discriminazioni e piccole ingiustizie che attribuiremo al caso e non ad una consapevole progettazione da parte delle imprese.