Un decoder per il libro (batteries not included)

Il superbestseller è ancora di carta, e conquista nuovi record, ma si aprono i grandi interrogativi sull’accesso alla conoscenza, sul monopolio dell’informazione «utile», sulle biblioteche digitali e sugli aspetti cognitivi della lettura multitasking e multitestuale.

Mr Dan Brown compare nel cielo editoriale il 15 settembre 2009, nell’emisfero angloamericano. E uno fra i libri più attesi del decennio, e la prova del nove per lo scrittore: nei cinque anni da quel fenomeno che fu il Codice da Vinci, tutti i libri pubblicati da Mr Brown sono stati ripescati dalla backlist, titoli praticamente spariti dal mercato ma riproposti grazie al fatto che l’autore era diventato un marchio di fabbrica. Il marketing di The Lost Symbol non abbandona le vie già battute: conto alla rovescia enfatizzato dai media, massima segretezza sul contenuto per creare aspettativa, niente edizioni in contemporanea in altre lingue, 6,5 milioni di copie la prima tiratura per il mercato americano, 1 milione per quello inglese. Come arriva nei punti vendita, The Lost Symbol accende la miccia alla guerra degli sconti e, grazie a questa, conquista nuovi record nella storia mondiale del libro: è il titolo di fiction adulti che vende più velocemente nei primi giorni di uscita (il record assoluto resta ancora in mano alla Rowling, che nel campionato editoriale gioca nella sezione ragazzi); alza l’asticella degli sconti nel mercato del Regno Unito, con una media, secondo Nielsen, del 56,7% e punte del 73,7% (ovvero tre sterline in meno di titoli analoghi in mass market) per conquistare il record delle svendite nella storia dell’editoria britannica, così che anche il prezzo di copertina diventa un «simbolo perduto». Solo nel 2008 – anno senza megaseller – gli sconti sono costati al mercato inglese 527,8 milioni di sterline; dunque, grazie a Mr Brown, il 2009 conquisterà anche il record di mancati guadagni, «margine svaporato» grazie alla spirale delle promozioni.
Fin qui la storia è già vista, quella commerciale s’intende, e simile in diversi aspetti a quella di Harry Potter nel 2007. La fotografia conferma un particolare non secondario dei mercati a prezzo libero: quando c’è il titolo giusto, vendere quanto più possibile nel minor tempo possibile, anche se a oltre due mesi dall’uscita Il simbolo perduto è ancora al secondo posto delle classifiche anglofone, scalzato dal podio in UK, ironia della sorte, dall’ultima edizione del Guinness dei primati. In anni non certo brillanti, quando passa un libro da milioni di copie tutta la filiera potrebbe guadagnare di più e meglio. Quindi, perché scontare così tanto un libro che probabilmente si sarebbe venduto comunque? Philip Stone, analista del mercato, ha scritto su «The Bookseller»: «Bisogna fare un grande sforzo mentale per comprendere come tutti i principali retailers, catene librarie, supermarket e on line, coinvolti in questa irragionevole guerra dei prezzi possano trarne un vantaggio economico, come possano guadagnarci». Già, ma cosa c’è da dimostrare? Semplificando, le grandi catene della grande distribuzione e i grandi retailer on line come Amazon si accollano una buona parte della percentuale dello sconto offerto ai clienti, vendono sottocosto pur di portare acquirenti nei loro punti vendita: l’occasione è ghiotta e per i potentati del retail non è un grande sforzo. Si rovina il mercato alle librerie? È concorrenza e i libri glieli ha venduti proprio chi considera la libreria il suo principale canale di vendita. Le catene librarie devono giocoforza adeguare i prezzi, al ribasso; le librerie indipendenti sono tagliate fuori dalla competizione: riescono comunque a venderne qualcuno con sconti compresi tra il 15% e il 40%. Il megaseller, ancora una volta, non è il problema, ma il sintomo del disordine di un mercato non regolamentato.
Nei mercati a prezzo fisso come Francia e Germania (dove Dan Brown ha venduto 400.000 copie in lingua originale prima che uscisse la traduzione, a metà ottobre) il 2009 dovrebbe passare come un anno non facile, ma neppure catastrofico; in quello italiano, a prezzo fisso «flottante», visto che le promozioni si avvicendano per tutto l’anno e il nuovo progetto di legge pare sancire lo status quo – 15% di sconto e promozioni tutto l’anno (in Francia è il 5%, in Germania neanche quello, per almeno 18 mesi dall’uscita) –, le previsioni non sono delle migliori: alla fine del secondo trimestre si registrava -2,2% a valore e -4,4% a copie (Nielsen/AIE), con un tiepido segnale di ripresa in ottobre. Dopo un anno di grande attenzione ai costi, e con pochi bestseller da grandi numeri, i principali editori hanno deciso di scommettere tutto sull’ultimo trimestre ingolfando di novità – come è già successo – libreria e grande distribuzione. I conti si faranno nei primi mesi del 2010. Ma tant’è, i tempi son difficili, non si va per il sottile.
L’editoria italiana ha attraversato una piccola rivoluzione nel 2009. GeMS, protagonista dell’annata, continua ad allargare la sua costellazione: acquista Bollati Boringhieri, entra con il 35% in Fazi, mette il fiato sul collo di Rizzoli e si avvicina al quotidiano «il Fatto Quotidiano», tramite la partecipata Chiarelettere. Non basta: Messaggerie, che controlla GeMS, stringe un’alleanza con Giunti sul retail. La nuova società, con quote paritetiche, accoglie il 100% della catena di librerie Giunti al Punto, l’82% di Opportunity (distributore nella grande distribuzione), il 100% di Fastbook (grossisti e catena di librerie Ubik), il 50% di Altair (librerie Melbookstore) e il 100% di Internet Bookshop. In Mondadori Gian Arturo Ferrari lascia il trono a Riccardo Cavallero, già al vertice di Random House Mondadori, la joint venture spagnola con Bertelsmann; Effe 2005, la holding Feltrinelli, mette a regime l’acquisto della maggioranza di Pde (ottobre 2008), la sua rete distributiva dedicata. Per l’Italia si tratta di cambiamenti importanti, i cui esiti sono però ancora da vedere nella loro completezza.
In un anno segnato da parecchi segni «meno» (a giugno il mercato editoriale librario segnalava -2,2% a valore e -4,2% a copie rispetto al 2008), il trend è lievemente positivo, nel primo semestre, per la lettura (+1,1%, AIE) e per il canale libreria (+1,2%, Nielsen); un fatto confortante per i piccoli editori ma forse ancor più per i medi editori rimasti «indipendenti», che raccolgono i frutti di un lavoro strategico iniziato da tempo. Due esempi per tutti, senza voler far torto a nessuno: nella fiction, e/o riesce a coniugare novità, catalogo, autori bestseller come la Barbery o Schmitt e l’attività americana di Europa Editions, nata come una scommessa e oggi diventata una piccola, solida realtà nel più grande mercato del mondo. Nella saggistica l’esempio paradigmatico viene da Raffaello Cortina che, nel non facile segmento della saggistica alta, presidia il settore della psicologia, delle neuroscienze e di alcuni aspetti delle scienze sociali; ha da poco inaugurato un proprio sito di vendite on line dedicato all’accademia e agli specialisti, ma riesce anche nelle tirature maggiori, come è il caso di Vito Mancuso, bestseller nel 20072008 con Inanima e il suo destino e ancor oggi maratoneta capace di incontrare il pubblico dei forti lettori (in crescita del 2%, AIE).
Fin qui la cronaca.
Nel firmamento dell’editoria internazionale brilla sempre più luminosa la cometa del digitale. Comunque la si giri e dovunque ci si giri, la questione del digitale è sempre lì: una partita a Risiko che si è fatta però sempre più complicata, perché la querelle sul libro elettronico non è più solo una scommessa sulle potenzialità di «prodotti» come il reader portatile, l’e-book (2% del mercato statunitense, secondo le stime ottimistiche del Book Industry Study Group, 2009) e la gestione dei diritti (d’autore, d’editore, d’edizione), su come proteggerli dal punto di vista normativo e legislativo, e quindi come evitare che la pirateria affondi il mondo del libro così come è successo per l’industria discografica.
La questione del digitale va vista anche, e subito, da almeno tre prospettive, tutte interconnesse. Prima questione: la conoscenza e l’informazione veicolata da internet, ma prodotta altrove, e l’informazione e i contenuti prodotti direttamente su internet.
Fra cronaca e attualità scegliamo i casi che riassumono gli ultimi mesi ma saranno al centro dei prossimi anni, lasciando da parte le questioni tecnologiche, gli standard e i modelli di business legati agli e-book. Su questi basta una nota sola: alla fine dello scorso anno i modelli di reader portatili erano arrivati a una cinquantina, ma il fatto principale è che Amazon, leader di mercato degli e-book con un modello di business chiuso (i libri, 350.000 titoli, arrivano solo da Amazon e possono essere letti e scaricati solo sul suo reader, il Kindle, e su nessun altro tipo di device) ha deciso di uscire dagli Stati Uniti e di sbarcare nel resto del mondo, e Barnes & Noble, la più grande catena del mondo, è uscita con Nook, il suo reader e il suo sito di vendita per gli e-book.
Nello stesso periodo (ottobre 2009) Google ha annunciato la nascita di Google Editions, una libreria on line per la vendita di e-book (500.000 titoli), operativa nella prima metà del 2010, destinata a tutti gli altri reader e in aperta concorrenza con Amazon e B&N. Ma questo è ancora commercio e marketing. Altra cosa è il contenzioso tra gli editori e Google sulla sua immensa biblioteca on line (una stima di 10 milioni di titoli, 7 dei quali, dichiara Google, accessibili per intero), iniziato nel 2008 e risolto praticamente in via definitiva lo scorso dicembre. Se tutto fila liscio, i libri della biblioteca (parte in catalogo, gran parte fuori catalogo, parte fuori diritti), saranno consultabili a pagamento, o gratuitamente per i fuori diritti, secondo formule da perfezionare. Ma questo vale solo per gli Stati Uniti. L’Europa ha infatti dato un primo stop al progetto di Google per quanto riguarda i libri europei scansiti nelle biblioteche americane e, a fine novembre, aperto un piano di rilancio di Europeana, la biblioteca digitale promossa dalla Commissione Europea nel 2005, aperta alla fine del 2008, ma ancora in fase «beta», con solo l’l% del patrimonio librario scansito e comunque limitato ai fuori diritti. Procede intanto il progetto di Libreka!, la biblioteca digitale del governo tedesco e Gallica, la versione «numérique» della biblioteca nazionale francese.
La situazione si commenta da sé: da una parte un soggetto privato come Google, che ha investito molto per concentrare nelle sue mani la più grande porzione di «conoscenza» digitalizzata attualmente disponibile, nasconde l’anima imprenditoriale (a suo modo benemerita) dietro il filantropismo; dall’altra le istituzioni comunitarie del Vecchio continente tentano di guadagnare il terreno perduto con un progetto nel segno e con la garanzia del pubblico servizio, sovranazionale ma, per adesso, con le gambe corte (per fortuna ci sono Francia e Germania che si danno da fare). La posta in gioco è quella dell’accesso al sapere, ma il boccino resta in mano a Google, il motore che, tra l’altro, convoglia oltre il 65 % delle ricerche mondiali sulla Rete: anche questa, senz’altro, una modalità perfettamente in tema. Ma torniamo alla biblioteca, a Google Book Search: cosa potrebbe succedere se la proprietà di Google cambiasse per finire nelle mani di imprenditori più aggressivi, o se dovesse fallire? È giusto che tutta questa concentrazione di sapere sia di un’azienda che basa i suoi ricavi sulla pubblicità?
La questione dell’accesso al sapere diventa ancora più importante per quanto riguarda la conoscenza scientifica, quella professionale e tutto il grande settore dell’educational; per chiarirne i termini prendiamo in considerazione le dimensioni e il ruolo dei grandi gruppi editoriali, così come li propone la terza indagine condotta da Wischenbart (2009) sui primi 52 gruppi editoriali del mondo, pari a oltre il 70% del mercato mondiale del libro. Rispetto all’anno precedente l’avvicendarsi nelle posizioni in classifica (vedi R. Cardone, L’algoritmo del libro futuro, Tirature 2009) non ha registrato variazioni di rilievo; nel complesso, gli editori di scolastica e professionale – già da tempo sull’on line con riviste e prodotti e servizi digitali – rappresentano oltre il 59% del fatturato dei mogul del libro. Se restringiamo il campo alle pubblicazioni scientifiche, lo snodo più importante del sapere contemporaneo, quello più legato a interessi, brevetti e ricerca, le migliaia di testate specialistiche digitali i cui abbonamenti costano decine di migliaia di dollari, vediamo come anche queste siano di fatto una biblioteca a pagamento, gestita da aziende private e quotate in borsa. «Quest’anno abbiamo speso quasi tre milioni di dollari per abbonarci a una serie di riviste scientifiche edite da tre case editrici: Elsevier, Wiley e Springer» ha detto a «Livres Hebdo» Robert Danton, direttore della più grande biblioteca universitaria del mondo, quella di Harvard. «Non è giusto che gli scienziati che alimentano con i loro articoli queste pubblicazioni – senza di loro, non esisterebbero – siano costretti a pagare somme astronomiche, tramite la biblioteca, per poterle leggere. L’alternativa è il modello proposto dal Cern europeo, dove sono le università e i centri di ricerca che potrebbero attribuire il processo di validazione e quindi di edizione delle ricerche, e stabilire un prezzo equo per tutti.» Ma anche Harvard è un ente privato, la seconda organizzazione no profit del mondo, con un giro d’affari di 26 miliardi di dollari e legata a doppio filo con le più importanti industrie medico-farmaceutiche e tecnologiche del mondo. Certo, c’è la garanzia che non è scalabile in borsa, ma è senz’altro al centro di enormi interessi privati.
Solo guardando da questa prospettiva, l’avvento dell’editoria digitale su grande scala dovrebbe spingere a una radicale riflessione su come gestire la conoscenza, e garantirne l’accesso, nel prossimo futuro.
Un filone di riflessione in questo senso è già attivo dai primi anni novanta, ma praticamente ignorato dalle cronache. Gli studi sui commons, i «beni comuni», come un marciapiede, un banco di sardine in mezzo all’Atlantico, Internet o come potrebbe essere concepita la ricerca scientifica, sono da tempo concentrati sul ruolo dell’editore, della proprietà intellettuale, della veicolazione dei testi, sulla funzione delle biblioteche e dei soggetti, pubblici e privati, che gestiscono l’educazione e la formazione. Secondo gli studiosi dei commons la conoscenza non può e non deve essere privatizzata e, al contrario di quanto si possa credere, in questo primo scorcio di epoca digitale le maglie del libero accesso sono diventate più strette; la conoscenza «utile», nelle mani di pochi, è diventata più difficile da raggiungere. I server di tutto il mondo, compresi quelli delle case editrici, girano su Linux, un sistema operativo aperto, e gli inventori del protocollo TCP/lP, la chiave di volta di Internet, non hanno ottenuto, né chiesto, una lira dalla loro scoperta. Ma l’editoria libraria sente odore di zolfo quando si parla di Open Access, Open Content, Creative Commons, perché il copyright è ancora il nervo centrale, operativo e ideologico-giuridico con cui l’editoria concepisce se stessa. Non avrebbe senso cancellare con un colpo di spugna il copyright, il ruolo dell’editoria e un riconoscimento economico agli autori, ma è anche vero che il modello esistente non può restare inalterato, tanto più nell’epoca digitale, perché il sapere deve essere una risorsa tanto più condivisa quanto più le società si trovano di fronte alle emergenze ambientali, geopolitiche, umanitarie, energetiche. A capofila di queste riflessioni non ci sono hacker arrabbiati o visionari sostenitori del no copyright, ma Elinor Ostrom, classe 1933, insignita del premio Nobel per l’economia 2009 proprio per i suoi studi sui commons (La conoscenza come bene comune, a cura di Paolo Ferri, Bruno Mondadori, 2009).
Eppure, se Internet è un bene comune, e la lettura digitale lo sta diventando in modo esponenziale, sarebbe opportuno chiedersi come il nostro cervello risponde alle sollecitazioni sempre più intense della lettura multitestuale e multitasking. Due recenti studi hanno indagato a fondo, grazie alla neuroimaging i comportamenti del «cervello che legge» perché, come dice Maryanne Wolf: «Il cervello umano non è nato per leggere. L’invenzione della scrittura ha riorganizzato il cervello e allargato i confini del nostro modo di pensare, ma per leggere ognuno deve creare nuovi circuiti». (Proust e il Calamaro, Vita & Pensiero, 2009). Per capire perché ci sono lettori forti e lettori deboli è necessario conoscere come si arriva alla «lettura profonda», prosegue la Wolf, neuroscienziata cognitiva della Tufts University del Massachusetts, dove dirige il Center for Reading and Language Research. «La lettura profonda è la capacità di “andare oltre” il testo: andare oltre l’informazione legata alle parole, sviluppare deduzioni e inferenze, arrivare a una conclusione. È l’integrazione tra quello che l’autore ha scritto e la nostra mente, l’insieme della nostra esperienza, che produce il senso dell’“andare oltre”, la realizzazione di ciò che “secondo noi” quell’autore vuole dire. Mi chiedo se la distrazione che viene dagli aspetti multipli dell’informazione ci faccia deviare da altri tipi di letture a complemento di quella che stiamo facendo, così come dalla capacità di “andare oltre il testo”, di immaginare.»
La cosa è particolarmente importante nelle fasi dell’apprendimento della lettura, un processo neurobiologico che parte da zero in ogni essere umano e si sviluppa in modo diverso di fronte a scritture e linguaggi differenti. Cosa succede ai «nativi digitali», a chi arriva all’apprendimento della lettura dopo aver passato i primi anni davanti a Internet, televisione e videogiochi? «Essendo diventati lettori esperti, sottostimiamo sistematicamente le difficoltà della lettura. L’immagine sposta l’attenzione dal testo. In un mondo dominato dallo zapping, il bambino non impara a restare attento per lunghi periodi» scrive lo scienziato cognitivo Stanislas Dehaene (I neuroni della lettura, Raffaello Cortina, 2009).
Oggi come oggi, non c’è nessuna prova, nessuno studio approfondito che abbia indagato dal punto di vista cognitivo la lettura digitale; non sappiamo se i digitai native, divisi tra il linguaggio contratto dei messaggi sul cellulare, su Twitter o su altri social network, l’iPod perennemente acceso, e l’iPhone dove scorrono immagini, filmati, fotografie, e la vastità di Internet saranno in grado di sviluppare, magari a modo loro, quella lettura profonda senza la quale non ci si impadronisce di storie, concetti, significati; non sappiamo se l’erosione dell’attenzione possa portare, anche negli adulti, a un’ulteriore riduzione della capacità di leggere e a compromettere la capacità di riflettere, di tendere relazioni, perfino di rilassarsi (Maggie Jackson, Distracted, Prometheus Books, 2008); non sappiamo se la moltiplicazione di forme e supporti della lettura digitale si possa liquidare con la convinzione, non dimostrata, che ci abitueremo a leggere su uno schermo, integrando immagini e suoni. Potrebbe essere il caso, questo è il punto, di pensare per tempo a una nuova pedagogia della lettura, soprattutto per le giovani generazioni.
Purtroppo, il publishing e tutti i produttori e trasformatori di contenuti digitali non sono interessati a questo aspetto.
Jane Friedman, presidente e ad di HarperCollins per dodici anni, pioniere del digitale e ora impegnata nel lancio di Open Road Integrated Media, una piattaforma innovativa per produrre e distribuire contenuti multimediali di nuova generazione, non ha dubbi: «No, nessuna ricerca» sostiene la Friedman in un’intervista per il «Giornale della Libreria» a dicembre 2009. «Quello che ho è la mia esperienza nel publishing, un’esperienza che è transitata per tutti i supporti e tutti gli approcci, da quelli tradizionali a quelli più innovativi. Non sappiamo cosa possa produrre questo passaggio, questa “rottura” tra lettura tradizionale e lettura digitale, che include anche filmati, immagini, suoni, o addirittura musica mentre si legge. Possiamo solo pensare attentamente a quello che dobbiamo fare: e una cosa è chiara, il libro è su un piatto della bilancia e il marketing sull’altro. Penso che dobbiamo tentare, sperimentare diversi approcci, e raccogliere dati dall’esperienza sul campo. Le altre società che fanno un lavoro simile al nostro sono società che lavorano sulla tecnologia, la nostra esperienza è editoriale, è la nostra differenza. Sarà il mercato, saranno i consumatori a farci sapere cosa dobbiamo fare».
Se la transizione verso il digitale manterrà quello che promette, niente sarà come prima nel giro di pochi anni. In questo cantiere, la grande macchina della creazione, elaborazione e distribuzione dell’informazione e della conoscenza sta prendendo forma, ma oggi come oggi, non sappiamo niente di come sarà, come funzionerà, di quante stanze dei bottoni avrà bisogno e chi schiaccerà questi bottoni; perché è un mercato, non un’azienda con qualcuno che decide per tutti. Come per molti giocattoli tecnologici, «batteries not included», le batterie non sono incluse: deve mettercele l’industria dei contenuti, il comparto tecnologico e, soprattutto, le istituzioni e la società civile; le batterie dobbiamo mettercele noi.