Il volto oscuro della Rete

I metadati utilizzati da Google e da altri siti internet sono tema di dibattito in molte sedi. Negli ultimi mesi sono state molte le pubblicazioni che hanno affrontato direttamente o tangenzialmente l’argomento: dall’analisi, a cura di Federico Rampini, dello sfruttamento economico dei Big data da parte delle multinazionali dell’informatica, all’indagine di David Quammen sulla diffusione delle malattie in Africa. Alcuni studiosi stanno provando a utilizzare i metadati nella ricerca scientifica e perfino nella valutazione dei paper accademici: con quali scenari futuri?
 
Da settimane su vari siti che frequento, compare la pubblicità per il libro Big data. Una rivoluzione che trasformerà il nostro modo di vivere e già minaccia la nostra libertà di Viktor Mayer-Schonberger e Kenneth N. Cukier. Se ci si mettono anche Feltrinelli (Federico Rampini, Rete padrona. Amazon, Apple, Google & co. Il volto oscuro della rivoluzione digitale) e Apogeo (Alessandro Rezzani, Big data. Architettura, tecnologie e metodi per l’utilizzo di grandi basi di dati), comincerò a sentirmi perseguitata.
Nell’era dei Big data, quella réclame non depone a favore dell’intelligenza artificiale che li analizza, anche se pare che stia facendo progressi. Semmai dovrebbe propormi Il capitale nel XXI secolo di Thomas Piketty (Feltrinelli) o Spillover di David Quammen (Adelphi), e innanzitutto Caso, probabilità e complessità di Angelo Vulpiani (Ediesse), con l’apparato di indici, bibliografia ragionata e glossario che contraddistingue la collana. Così imparo qualcosa su come si costruiscono gli indici di ricchezza iniqua, di qualità dell’ambiente, del rischio di epidemie o di alluvioni, passando da quelli sulle nazioni più educate, corrotte o felici. Tutte quelle classifiche e tendenze che dovrebbero aiutare le Ong come Action Aid (e molte altre di cui non faccio parte) a persuadere i governanti a adottare misure a volte contraddittorie e i cittadini a esserne soddisfatti o scontenti a ragion veduta.
L’ambivalenza è d’obbligo. Quammen inizia la panoramica mondiale delle zoonosi emergenti, le malattie che ci trasmettono gli animali, ora che siamo in sette miliardi, e contro le quali pochi di noi hanno difese immunitarie, con una storia poco nota in Italia: la mobilitazione per localizzare la fonte della febbre emorragica equina scoppiata in allevamenti del Queensland e della costa nord-occidentale dell’Australia, distanti centinaia di chilometri. Il caso aveva gettato nel panico gli australiani a metà degli anni novanta, dopo che un allevatore ne era morto, un altro era stato salvato per un pelo e venivano abbattuti centinaia di cavalli. Veterinari, virologi, epidemiologi scoprirono quasi subito che a essere portatrici sane del virus erano le volpi volanti, pipistrelli stupendi con un’apertura alare di oltre un metro che si nutrono di frutta e di sicuro non mordono altri animali, tolto l’animalista che ne raccoglie un esemplare ferito e cerca di curarlo. Se bruca sotto un albero che ospita le volpi volanti, capita – molto di rado – che un cavallo si infetti e contagi i vicini di stalla con i quali viene a contatto. Appena prima che gli australiani sterminassero le volpi volanti passando sul corpo degli animalisti, si scoprì che questi ultimi erano privi degli anticorpi del virus Hendra, nonostante i morsi occasionali. Gli esseri umani vengono contagiati solo da un cavallo malato, l’unico animale “amplificatore”. Da allora ci sono casi di febbre emorragica equina ogni anno, e però l’eutanasia del paziente e la quarantena dell’allevamento ne impediscono la diffusione.
Le prime epidemie di Ebola risalgono agli anni settanta, ma il “serbatoio primario” del virus è ancora ignoto. Per realizzare modelli in grado di prevedere, e di contrastare, la diffusione del virus in Africa occidentale e oltre (o del virus di Marburg, ancora più letale), gli epidemiologi dispongono di una misera quantità di informazioni sugli spostamenti delle persone, sulle loro abitudini, sulle cerchie di parenti e amici: tutti dettagli che nei Paesi ricchi banali motori di ricerca prelevano dalle conversazioni sui social network o dalle parole più cercate con Google, e dai quali gli algoritmi estraggono configurazioni e previsioni. Per Ebola, per esempio, non c’è neanche un milionesimo delle informazioni scambiate su Twitter che durante l’uragano Sandy hanno permesso al sindaco di New York di evitare una tragedia.
La lezione di Spillover, scritto prima che Ebola arrivasse in una grande città e causasse la strage annunciata negli anni settanta dal virologo Karl Johnson – per esempio – è che la povertà di dati è letale. Per di più, in Africa le burocrazie locali hanno impedito l’accesso ai pochi che c’erano.
Médecins sans frontières, agenzie delle Nazioni Unite, Ong, ricercatori facevano campagna per la “trasparenza” e negli stessi mesi in altri Paesi facevano campagna per il suo contrario: il rispetto della vita privata, per esempio dei volontari che tornavano a casa, in buona salute o per essere curati, e dei loro parenti e amici.
L’ambivalenza accompagna altre novità che ci fanno insieme comodo e paura, dal fuoco in poi, e sembra giustificata. In una ricerca del 2014, due collaboratori di Piketty, Emmanuel Saez e Gabriel Zucman, analizzano la concentrazione della ricchezza negli Stati Uniti dal 1913 al 2013. Trovano che lo 0,1% della popolazione ne detiene oggi il 16%, in tutto circa 16.000 famiglie, non citate per nome, ma facili da identificare. Se un giorno gli americani decidessero di prendere la Bastiglia invece di occupare Wall Street, in Rete troverebbero chi portare alla ghigliottina. Se volessero ridistribuire un po’ del capitale finanziario accumulato saprebbero a chi applicare la tassa di successione auspicata da Bill Gates e da suo padre.
A meno che gli Stati Uniti adottino la normativa europea in vigore da quest’estate che prevede la cancellazione, da parte dei gestori dei motori di ricerca, dei link a notizie che ci riguardano, rese pubbliche da altri o da noi, su nostra richiesta. Per ora è applicabile solo ai siti europei, e quindi è inefficace, ma Google si avvale di 8.000 legali che decidono della validità della richiesta e quali link rimuovere. «The Guardian» ha dovuto cancellare alcuni paragrafi su un calciatore condannato per bustarelle in nome del “diritto all’oblio”, altri quotidiani commenti lasciati sotto qualche articolo da qualcuno che rivelava di sé, senza nascondersi dietro un nick o usare sistemi di crittografia come Tor, cose diventate poi imbarazzanti.
Al contempo, in Europa come negli Stati Uniti, cittadini contrari al diritto all’oblio vogliono che sul sito del loro comune sia indicato se e dove abitano dei condannati per molestie sessuali su minorenni, una volta scontata la pena.
Lo sfruttamento economico dei Big data è il tema di Rete padrona. Come i grandi fratelli della National Security Agency, smascherati dal colossale leak di Edward Snowden, una manciata di multinazionali dell’informatica sorveglia attività e rapporti sociali per indurre a consumi spensierati o almeno a cliccare su qualche réclame. Sono il volto meno “oscuro della Rete”, trovo, perché possiamo sottrarci ai cookie s, snobbare le offerte, diffidare delle manipolazioni del nostro umore. Se sappiamo quali studi utilizzano per renderci più suggestionabili, aumenta la probabilità che abbiano un effetto boomerang.
Erano studi coperti da segreto industriale, ma nel luglio scorso il direttore del dipartimento di data mining di Facebook, Adam Kramer, un ricercatore della Cornell University e un suo studente, ne hanno pubblicato uno sui «Proceedings of thè National Academy of Sciences», una delle riviste più diffuse perché copre all’incirca tutte le discipline. Durante un esperimento in doppio cieco, per una settimana a 689.000 utenti di Facebook divisi in due gruppi sono state distribuite a caso buone e cattive notizie. Dai loro commenti successivi è emersa l’acqua calda: le “emozioni negative e positive” si diffondevano a macchia d’olio per giorni. Molti utenti hanno protestato, il signor Kramer si è scusato:
«Posso dirvi che il nostro scopo [notare il passaggio del soggetto dal singolare al plurale. N.d.A.] non è mai stato quello di turbare nessuno. Posso capire come mai alcune persone siano preoccupate, i miei coautori e io siamo molto dispiaciuti per il modo in cui l’articolo ha descritto la ricerca e per l’ansia che esso ha suscitato. Con il senno di poi, i benefici di quell’articolo di ricerca possono non giustificare tutta quell’ansia».
Benefici per chi, non si sa.
Per le Ong che lottano contro la fame, i volti oscuri sono altri. Stanno per lo più sul Cloud, protetti dai curiosi da chiavi d’accesso sofisticate. Da qualche anno le multinazionali agro-alimentari sfruttano i Big data negli Stati Uniti e in via sperimentale nei Paesi poveri dove, stando a quelli della Banca Mondiale, hanno sottratto ai contadini locali 57 milioni di ettari coltivabili – insieme all’acqua per irrigarli – con le pratiche illegali dette “land grabs”.
I produttori di sementi, fertilizzanti, fitofarmaci, macchinari hanno sempre preso nota delle necessità e dei problemi del cliente, ci mancherebbe. Con queste note, Monsanto, Cargill, Dupont, McCormick e altri hanno costruito serie lunghe oltre un secolo di statistiche sulle variazioni delle rese di anno in anno. Le incrociano con le registrazioni delle temperature e delle precipitazioni degli uffici meteo locali, le analisi dei suoli, la biologia molecolare e la genetica delle varie piante e dei loro patogeni che trovano nella letteratura scientifica. Così vendono agli agricoltori prodotti personalizzati, macchine programmate per identificare località e bisogni di ogni singola pianta e per accudirla automaticamente. Prodotti più cari, per riflettere il valore aggiunto da tanto sapere predittivo. Molti agricoltori si sono ribellati e uniti in cooperative, dal Montana alla California, passando dal Texas, dove nessuno si aspettava una simile rivoluzione. Lottano per riprendersi i propri dati e gestirli loro, la proprietà privata non si tocca.
Nei libri usciti finora mancano le cooperative rosse dei texani e i programmi informatici più ambiziosi, quelli che dovrebbero spremere significato dai Big data, decidere quale ricerca scientifica effettuare e il valore o meno dei suoi risultati. Sono applicazioni dell’intelligenza artificiale che, nelle sue varie declinazioni e reincarnazioni, stentano a decollare da un decennio.
Per fortuna. Al momento sono affette da una sorta di solipsismo, prefigurano una torre d’avorio blindata in cui le analisi della letteratura precedente «accelerano le scoperte», sturano il «collo di bottiglia» degli umani «inclini all’errore» (come scrivono Gil, Greaves, Hendler e Hirsh in Amplify scientific discovery with artificial intelligence. Many human activities are a bottleneck in progress, pubblicato su «Science» del 10 ottobre 2014). Al posto di curiosità, serendipity, associazione fortuita di idee, gioco di parole, chose vue mentre si fa tutt’altro. Il caso e la contingenza, insomma. Negli anni sessanta, il fisico Richard Feynman invita a cena un amico e – quelle horreur – rompe gli spaghetti prima di cuocerli. Si meraviglia perché invece di rompersi in due a metà della curva si rompono in tre pezzi, due dei quali più corti. Lo ricorda vent’anni dopo nel libro «Sta scherzando Mr Feynman!» senza aver trovato una spiegazione. Altri vent’anni dopo, Basile Audoly e Sébastien Neukirch, due giovani matematici francesi, rompono a loro volta chili di spaghetti Barilla infilati uno per uno in piccole morse applicando alle estremità una forza misurata con la massima precisione. Ne filmano la sorte con una cinepresa da 450 fotogrammi al secondo, risolvono sperimentalmente l’equazione di Kirchhoff per le “onde flessurali” e costringono gli ingegneri a riscrivere le regole per la costruzione di ponti e grattacieli.
Difficile che un computer colleghi gli spaghetti ai grattacieli, ma la memoria non lo tradisce mai. Il Watson Discovery Advisor dell’IBM suggerisce scoperte alle aziende farmaceutiche interpretando milioni di articoli. Hanalyzer, Wings, Eureqa, Sunfall fanno altrettanto in altri settori. Solo che in biologia e discipline derivate, oltre il 50% dei risultati pubblicati non sono riproducibili.
Nel luglio scorso, settecento neuroscienziati hanno escluso che il computer Blue Gene, anch’esso dell’IBM, potesse scoprire terapie per le malattie neurodegenerative interpretando la letteratura passata e proiettandola su una simulazione digitale del cervello umano. Hanno bloccato così il programma bandiera europeo Human Brain Project, finanziato con 1,2 miliardi di euro dal 2013 al 2020. L’ideatore, Henry Markram dell’università di Losanna, che per “sviluppare il progetto” ha ricevuto i primi duecento milioni, accusa i suoi critici di essere rimasti nel Novecento, di temere il “nuovo paradigma”, la rivoluzione che sta per travolgerne metodi, concetti, pratiche e gerarchie.
La simulazione di organi al computer prima di crescere “organoidi” in vitro, magari parti della corteccia cerebrale, è già avviata da un po’ e non deve nulla al Progetto cervello di topo ideato e diretto da Markram, anche questo finanziato dalla Commissione Europea. Quel progetto si è arenato nel 2008 senza risultati di cui vantarsi. A meno di includervi gli algoritmi che Markram tenta di brevettare da allora, per sostituire i redattori dell’editoria scientifica. Interpretano gli articoli mandati dagli scienziati, li valutano degni o meno di pubblicazione sulle riviste Frontiers, di proprietà di una fondazione di Markram e in parte del gruppo Nature che unisce su una piattaforma informatica case editrici dal prestigio variabile.
Se la probabilità di valore fornita dall’algoritmo non raggiunge un certo livello (deduco dalle richieste di brevetto, poco esplicite), il programma estrae da un elenco i nomi di due persone alle quali mandare l’articolo per la peer review. Alcuni risultati confermano la validità di una vecchia equazione applicata ai calcolatori: garbage in = garbage out, entra pattume = esce pattume. Di recente Frontiers ha pubblicato la descrizione improbabile di un caso clinico, scritta da chi sostiene che gli esorcismi curino l’autismo e, con l’aiuto di candidati che auto-certificano le proprie competenze, un articolo che nega il legame causale tra l’Hiv e l’Aids.
In attesa che l’intelligenza artificiale meriti il proprio nome, sembra che l’editoria scientifica e la ricerca che la nutre vadano lasciate agli umani troppo umani, come l’editoria tout court e pensando a Ebola forse di più.