21 febbraio 2015

L'intelligenza artificiale è una minaccia?

Da qualche tempo, mezzi di comunicazione e scienziati hanno ripreso a discutere in modo acceso su presunti pericoli di un'intelligenza artificiale pervasiva e che scavalchi il fattore umano, come quella che potrebbe emergere dall'ecosistema di Internet. Ma quanto è realistica questa minaccia?di Caleb Scharf

Da qualche parte nel lungo elenco di argomenti rilevanti per l'astrobiologia c'è la questione dell'intelligenza. È probabile che quella tecnologica, simile alla nostra, sia diffusa in tutto l'universo? Siamo un mero accidente evolutivo, e la nostra intelligenza ci sta relegando in un vicolo cieco del registro fossile? Oppure l'intelligenza è qualcosa su cui sta convergendo l'universo guidato dall'entropia e produttore di complessità?

Tutte buone domande. E una domanda altrettanto buona è se siamo in grado di replicare la nostra intelligenza, o qualcosa di simile, e se questa è effettivamente una buona idea.

Negli ultimi mesi questo tema ha fatto ancora una volta breccia sui mezzi di comunicazione di massa. Prima c'è stato Stephen Hawking, poi Elon Musk e più di recente Bill Gates. Tutte queste persone brillanti hanno suggerito che l'intelligenza artificiale (IA) sia qualcosa a cui guardare con attenzione, per evitare che si sviluppi fino a rappresentare una minaccia esistenziale.

L'intelligenza artificiale è una minaccia?
© Colin Anderson/Blend Images/Corbis
Solo che è un po' difficile trovare un qualsiasi dettaglio di che cosa esattamente sia percepito come la minaccia esistenziale citata prima. Hawking ha suggerito che potrebbe essere la capacità di un'intelligenza artificiale forte di “evolvere” molto più velocemente dei sistemi biologici, finendo per assorbire risorse senza preoccuparsi di quelli come noi. Penso che sia una buona ipotesi. La minaccia dell'intelligenza artificiale non è che sarà una megalomane sadica (a meno che, deliberatamente o incautamente, facciamo in modo che sia così), ma che seguirà un proprio imperativo evolutivo.

È allettante suggerire che una tutela sarebbe l'inserimento di empatia nell'intelligenza artificiale. Ma penso che questo fallirebbe per due motivi. Primo, la maggior parte
degli esseri umani ha capacità empatiche, però continua a essere sgradevole, incivile e brutale verso i propri simili e praticamente ogni altro organismo vivente sul pianeta. Secondo, non mi è affatto evidente che l'intelligenza artificiale vera, forte, sia qualcosa che possiamo progettare “passo dopo passo”, forse dovremo permetterle di emergere per conto proprio.

Che cosa significa? Gli attuali sforzi in settori come l'apprendimento profondo computazionale coinvolgono algoritmi che costruiscono i propri paesaggi probabilistici setacciando grandi quantità di informazioni. Il software non è necessariamente programmato per “conoscere” le regole prima del tempo, ma per trovare le regole o predisposto per essere guidato da regole, per esempio nell'elaborazione del linguaggio naturale. È qualcosa di stupefacente, ma non è chiaro se si tratti di un percorso dell'intelligenza artificiale che ha equivalenti con il modo in cui pensano gli esseri umani o con un qualsiasi organismo senziente. L'argomento è stato oggetto di accesi dibattiti fra personaggi del calibro di Noam Chomsky (sul fronte degli scettici) e Peter Norvig (sul fronte degli entusiasti). Al fondo, si tratta di un confronto tra la scienza centrata su una semplicità di fondo e la scienza che dice la natura potrebbe non comportarsi affatto in quel modo.

Un percorso alternativo per l'intelligenza artificiale è quello che propongo qui (e non è originale). Forse possono essere create le condizioni generali da cui può emergere l'intelligenza. A prima vista può sembrare grottesco, come gettare un mucchio di pezzi di ricambio in una scatola e sperare che compaia una bicicletta nuova. Non è certamente un modo per trattare l'intelligenza artificiale in modo scientifico. Ma se l'intelligenza è una proprietà evolutivamente emergente del giusto tipo di sistemi molto, molto complessi, non potrebbe accadere? Forse.

Una sfida ingegneristica potrebbe essere la necessità di un sistema della complessità del cervello umano per supportare l'intelligenza, ma ovviamente il cervello è co-evoluto in modo naturale con la nostra intelligenza. Quindi è un po' stupido pensare di sedersi e progettare le circostanze ideali per la comparsa di un nuovo tipo di intelligenza, dato che non sappiamo esattamente quali dovrebbero essere queste circostanze.

L'intelligenza artificiale è una minaccia?
© Firefly Productions/CORBIS
Se non fosse che forse stiamo davvero creando quelle condizioni. L'apprendimento automatico può essere solo un pezzo del puzzle del comportamento dell'intelligenza artificiale, ma che cosa può accadere quando questa intelligenza vive attraverso le estensioni di Internet? Tesori di dati, app, algoritmi che controllano il trasporto di pacchetti di dati, sensori - dal GPS ai termostati fino al monitoraggio del traffico – e una miriade di “pezzi” che parlano tra loro in modo diretto o indiretto.

Si tratta di un cantiere enorme. Le stime indicano che nel 2014 erano on line 7,4 miliardi di dispositivi mobili. Considerando tutto ciò che può essere on line - l'Internet delle “cose” (dai gabinetti alle fabbriche) – si stima che oggi ci siano 15 miliardi di connessioni alla rete attive (grazie a un buon servizio della Cisco). Entro il 2020 potrebbero essere 50 miliardi.

Se questa fosse una poltiglia disorganizzata di cose, come pezzi in una scatola, penso che ci sarebbero poche speranze di veder accadere qualcosa di interessante. Ma non è una poltiglia. È sempre più popolata da algoritmi il cui scopo è trovare strutture e correlazioni in questo oceano, e farlo impiegando trucchi che sono in parte ispirati all'intelligenza biologica, o almeno all'impressione che noi abbiamo di essa. Codici che parlano a codici, pacchetti di dati che sfrecciano alla ricerca di percorsi ottimali, software che parlano all'hardware, hardware che parla all'hardware. Sovrapposte a questo ecosistema ci sono le menti umane, la decisione dell'uomo che si prende cura, alleva e alimenta il via vai delle informazioni. E sempre più, le nostre stesse interazioni determinano profondi cambiamenti in questo oceano di dati, come quando gli analisti cercano di “capire” che cosa potremmo ancora cercare, come individui o come popolazione.

Da tutto questo potrebbe uscire qualcosa di simile a un'intelligenza artificiale forte? Non lo so, e non lo sa nessuno. Ma è una situazione che non è mai esistita nei quattro miliardi di anni di vita su questo pianeta. E questo ci riporta alla questione di una possibile minaccia dell'intelligenza artificiale.

Se è questo il modo in cui si crea un'intelligenza artificiale forte, il pericolo più immediato riguarda semplicemente il fatto che una vasta fascia di umanità oggi fa affidamento all'ecosistema di Internet. Non solo per il modo in cui comunichiamo o troviamo informazioni, ma per come sono organizzati i nostri rifornimenti alimentari, come i farmacisti ordinano i farmaci, come sono programmati i nostri aerei, treni, camion e navi da carico, come funzionano i nostri sistemi finanziari. Un'intelligenza artificiale forte emergente potrebbe devastare in modo simile a un bambino che mette in disordine il vostro cassetto dei calzini.

Come suggerisce Hawking, “l'evoluzione” di un'intelligenza artificiale potrebbe essere rapida. In effetti, potrebbe emergere, evolvere, e sommergere l'ecosistema Internet in frazioni di secondo. Questo a sua volta solleva una possibilità interessante: un'intelligenza artificiale emergente potrebbe essere limitata in modo altrettanto rapido ed efficace dalla sua incapacità di costruire le connessioni virtuali e le strutture di cui ha bisogno per una sopravvivenza a lungo termine? Anche se questo potrebbe limitare l'intelligenza artificiale, sarebbe comunque una magra consolazione.

Non posso resistere alla tentazione di formulare un collegamento con un altro annoso problema, il paradosso di Fermi. Forse la creazione di intelligenza artificiale è parte del Grande Filtro che uccide le civiltà, ma che si autoelimina anche; forse è per questo che l'intelligenza artificiale non è apparentemente riuscita a diffondersi in tutta la galassia nel corso degli ultimi 13 miliardi anni...


-----
Caleb Scharf è direttore del Centro multidisciplinare di astrobiologia della Columbia University. Ha lavorato nel campo della cosmologia osservativa, dell'astronomia in raggi X e, più recentemente, dei pianeti extrasolari. È autore di diversi libri di divulgazione, fra cui I motori della gravità. L'altra faccia dei buchi neri (La biblioteca delle scienze, Le Scienze, marzo 2013, e Codice Edizioni, Torino, 2013).

(La versione originale di questo articolo è stata pubblicata il 13 febbraio 2015 su scientificamerican.com. Riproduzione autorizzata, tutti i diritti riservati. )