La digitalizzazione in Europa

Mentre la causa tra Google e gli editori Usa resta ferma in attesa del pronunciamento del giudice, in Norvegia, Germania, Francia le biblioteche nazionali disegnano nuovi modelli di gestione dei diritti per le opere digitalizzate. Con un paradosso: oltreoceano ci sono le risorse per gli investimenti ma non l’accordo sui diritti, in Europa ci sono gli accordi, ma non le risorse. E in Italia? Scarseggiano i fondi per la gestione ordinaria delle biblioteche, figuriamoci per la digitalizzazione. Perciò suscita molto interesse un recente accordo tra il Ministero dei Beni culturali e il solito Google…
 
Il dibattito sulle biblioteche digitali è tornato, nell’ultimo anno, ad avere il suo centro in Europa. Di là dell’oceano, la transazione tra Google ed editori e autori americani è decisamente in panne. Lo scorso anno avevo concluso il diario di «un anno di Google Books» riferendo della previsione di una accelerazione della causa, iniziata nel lontano 2005. Alla fine del 2009 era stato presentato un nuovo accordo transattivo (Settlement) tra le parti, ma una nuova ondata di obiezioni ha investito anche la versione emendata. A febbraio si è tenuta l’udienza per ascoltare le parti, dopo di che il giudice si è riservato di decidere e, da allora, nessuna notizia è più uscita dal segreto della sua camera di consiglio.
Siamo dunque a celebrare il lustro di una disputa legale che Antonella De Robbio, anagrammando le cifre in una suggestione cinematografica, ha intitolato 2010 Odissea Google libri («Biblioteche Oggi», aprile 2010). Con buona pace di tutti coloro che in Europa, anche ai massimi livelli istituzionali, avevano salutato il Settlement come uno strumento di efficienza, magari da imitare. Cinque anni di causa senza che si scorga la fine, possono seriamente essere presi a modello? E se anche domattina l’accordo fosse approvato così com’è, sarebbe un affare sui diritti d’autore pari a 125 milioni di dollari, di cui però solo 41 vanno a remunerare gli aventi diritto, gli altri 84 essendo dispersi in spese legali, di notifica e per la gestione tecnica dei dati. Con cifre del genere, può essere seriamente presentato – come in molti continuano a fare – come la via maestra per ridurre i costi di transazione? Se una qualsiasi società di gestione collettiva chiedesse i due terzi dei diritti incassati per coprire i costi di transazione, ci sarebbe un solo sano di mente che parlerebbe di efficienza?
A me sembra, piuttosto, che la vicenda dimostri che questioni del genere non possono essere risolte in tribunale. Si perde tempo e denaro. Meglio allora altri terreni di confronto, persino il vituperato dibattito politico tipico della vecchia Europa.
È allora in Europa che val la pena di tornare per fissare i termini del problema e intravedere qualche bozza di soluzione. Anche perché l’Europa è così variegata, composta di diversi mercati editoriali definiti dalle aree linguistiche, e diversi contesti giuridici definiti dagli stati nazionali, che variamente si incrociano, così che inevitabilmente le soluzioni sono diverse e possono essere messe a confronto.
I termini del problema, dunque: la discussione nasce dalla volontà di conservare e rendere accessibile il patrimonio culturale (in genere, ma qui mi limiterò a parlare di quello conservato nei libri), che ha fatto balenare l’idea di progetti di digitalizzazione su larga scala dei patrimoni delle biblioteche. La cosa è più facile per le opere in pubblico dominio, mentre per quelle protette, e quindi per larga parte della produzione del Novecento, la gestione dei diritti implica alti costi di transazione, perché onerosa può essere la ricerca degli aventi diritto, e talvolta questi non si trovano affatto. Non è in discussione, quindi (almeno in principio), l’esistenza del diritto, ma il modo più pratico di gestirlo.
Problema dei costi di transazione non è del resto così nuovo e ha, specie in Europa, una risposta che da più di un secolo si chiama «gestione collettiva». Quando le transazioni individuali sono troppo onerose, società di autori ed editori, su mandato di questi, ne prendono in carico la gestione. Nulla di nuovo o di controverso, nei suoi princìpi generali. Il fatto è che, nei nuovi ambienti digitali, e nello specifico dei programmi di digitalizzazione, l’ambito di applicazione delle nuove licenze e i termini che esse possono avere devono essere definiti ex novo.
Assumendo un criterio cronologico, il viaggio tra le esperienze europee deve iniziare dal Nord. Dalla Norvegia, in particolare. Già nel 2007 la Biblioteca nazionale e la società di gestione collettiva in ambito letterario (Kopinor) hanno firmato un accordo per regolare i diritti in un programma sperimentale di digitalizzazione su larga scala, denominato Bokhylla.no (scaffale librario). I termini di questo accordo sono interessanti da leggere con il senno di poi. Il modo in cui sono definiti i confini della licenza ricalca la tradizione, basata su un principio generale per cui sono affidati a gestione collettiva diritti che non vai la pena gestire individualmente, perché non in competizione con il normale sfruttamento delle opere e – singolarmente – di scarso interesse economico. Applicando lo stesso criterio al caso delle biblioteche digitali, il risultato è una serie di restrizioni agli usi consentiti sulle opere digitalizzate. Così Bokhylla comprende qualsiasi opera, indipendentemente dal fatto se sia in commercio o no, senza distinzioni (anche se sono escluse le novità più recenti e in prima applicazione l’accordo riguarda solo i libri pubblicati in alcuni decenni, il più recente dei quali è quello degli anni novanta del Novecento). Ma sono assai limitati gli usi concessi in licenza. La Biblioteca nazionale può digitalizzare i libri e metterli in rete, ma questi sono accessibili solo per utenti norvegesi, e solo per essere letti su schermo senza download o stampa. Sostanzialmente, applicandosi il contratto a qualsiasi tipo di libro, si cercano utilizzi che non siano in concorrenza con le vendite, e che anzi – secondo alcuni – possano esserne un veicolo di promozione.
In Norvegia il modello giuridico che sostiene l’accordo è quello delle Extended Collective Licenses (eCL), tipico dei paesi del Nord Europa. Secondo questo sistema, quando una società di gestione dimostra di essere ampiamente rappresentativa di una categoria di aventi diritto può sottoscrivere contratti che vincolano anche i non aderenti (dal che si parla di «licenze estese», appunto), salvo il diritto per questi ultimi di «chiamarsi fuori» (opt out) dall’accordo.
La proposta di accordo transattivo sulla vicenda Google ha indirettamente suggerito una strada diversa: che il principio della non concorrenza tra usi licenziati dalla società di gestione collettiva e il normale sfruttamento commerciale delle opere possa essere ricercato non nella tipologia di usi, ma nelle categorie di libri. Se un’opera, infatti, è fuori commercio – in senso pieno, cioè se gli aventi diritto non hanno più interesse a commercializzarla – l’autore, cui in genere i diritti sono tornati, può essere disponibile a licenziarne l’uso più ampio, come la messa a disposizione in Internet senza limitazioni. Si tratta allora di distinguere tra tipi di opere invece che tra tipi di usi.
Le discussioni politiche nell’ultimo anno in alcuni paesi europei sembrano seguire questa strada. La più significativa ha prodotto interessanti risultati in Germania. Le associazioni di editori e di autori, la società di gestione collettiva VG Wort e la Biblioteca nazionale hanno convenuto uno schema per cui quest’ultima può digitalizzare le opere pubblicate prima del 1965, a condizione che non siano più in commercio. Lo schema non richiede dunque, per le opere fuori commercio, un’autorizzazione titolo per titolo, anche se all’avente diritto rimane la possibilità di rivendicare l’opera e impedirne la messa on line, il che ha rilevanza soprattutto a difesa del diritto morale dell’autore, che comprende il diritto all’inedito e al ritiro dal commercio. Una sorta di diritto all’oblio che, peraltro, è un tema assai delicato nella gran parte dei paesi europei, per le opere proprie o degli avi scritte in contesti storici affatto diversi dagli attuali, quando regimi non democratici inducevano produzioni librarie conseguenti.
Al momento, il meccanismo tedesco è valido solo per le opere di editori e autori iscritti a VG Wort (il che vuol dire la gran parte degli editori e diverse decine di migliaia di autori), ma è in discussione un meccanismo legale che renda possibile l’applicazione erga omnes, sempre restando fermo il diritto di opt out. Verrebbe introdotta quindi una sorta di «licenza estesa», sul modello nordico, anche se il meccanismo legale dovrebbe essere diverso, basato su una limitazione di responsabilità da parte della società di gestione, che di fatto trasformerebbe il diritto pieno dell’autore in un diritto a una equa remunerazione e a chiedere ex post la rimozione dalle collezioni delle biblioteche.
Nel contesto giuridico delle Extended Collective Licenses si stanno muovendo invece la Biblioteca nazionale e gli aventi diritto danesi. La discussione al momento (ottobre 2010) è ancora agli inizi, ma la soluzione che sembra prendere corpo ricalca quella tedesca: non sarà necessario chiedere l’autorizzazione caso per caso per le opere fuori commercio pubblicate prima di una certa data, non ancora fissata. In aggiunta, sembra che vi sia una tendenza a restringere ulteriormente l’ambito di applicazione alla sola saggistica.
Seguendo gli stessi princìpi, con una soluzione tecnica ancora diversa, si sta ragionando in Francia. Di nuovo, il criterio è autorizzare collettivamente la digitalizzazione delle opere fuori commercio edite prima di una certa data, che in questo caso sarà probabilmente più recente. Qui, la tecnica su cui si sta ragionando è quella di istituire una «licenza obbligatoria», fermo restando il diritto di opt out in capo agli aventi diritto, ma anche dei meccanismi di opt in, laddove per esempio un autore di un’opera successiva alla data limite voglia aderire all’accordo.
Tecniche legali diverse, dunque, ciascuna in linea con la tradizione giuridica del paese (il che peraltro denuncia a mio avviso l’incapacità dell’Unione europea di influenzarne l’evoluzione), ma tutte seguendo gli stessi princìpi generali. Dove la distinzione tra opera in commercio e fuori commercio diventa fondamentale. Una volta enunciato il principio, tuttavia, determinare titolo per titolo se un’opera è in commercio non è certo un problema da poco, quando il numero di opere coinvolte è molto alto. Le fonti disponibili, infatti, forniscono questa informazione a livello di libro, non di opera, e non tengono in considerazione l’esistenza di più edizioni della stessa opera. Peraltro, proprio il digitale rischia di creare ulteriori problemi, in quanto uno degli ambiti di applicazione è proprio quello di ripubblicare on line o in print on demand opere finite fuori commercio nell’edizione a stampa. Per tener traccia delle relazioni tra opere e quindi determinare lo status di «fuori commercio» a livello di opera sono necessari strumenti nuovi rispetto a quelli esistenti. Il progetto Arrow (www.arrow –net.eu), coordinato dalla Associazione italiana editori, si è concentrato in questi anni soprattutto su questo aspetto, e in Germania e Francia, se gli accordi andranno in porto, molto probabilmente utilizzeranno per la loro gestione proprio gli strumenti sviluppati in Arrow. Ma la strada è ancora lunga perché il sistema funzioni al 100% per tutti i paesi europei. Laddove le banche dati informative sono meno efficienti rispetto ai paesi leader nei mercati editoriali (compreso il nostro, va ricordato), si dovranno inventare soluzioni ancor più innovative.
Gli accordi tra le parti, a quanto pare, non sono difficili da raggiungere. Quando ci si è messi intorno a un tavolo partendo dal reciproco rispetto degli interessi e delle posizioni, si sono raggiunti accordi soddisfacenti per entrambe le parti. Il punto è, tuttavia, che fatti gli accordi non ci sono al momento i piani di digitalizzazione cui applicarli, per mancanza di fondi.
Si sarà notata, infatti, una differenza molto importante tra i diversi casi europei citati e gli Stati Uniti: da questa parte dell’oceano la discussione è con le biblioteche, e quindi per utilizzi non commerciali, negli Usa si parla di accordi tra privati, per utilizzi commerciali. Ma ciò implica una seconda differenza, che è tutta nella disponibilità finanziaria. Google ha dimostrato di avere un interesse concreto e quindi di essere pronto a fare adeguati investimenti (il volume complessivo non è noto, ma l’ordine di grandezza è certamente nelle centinaia di milioni di dollari). I governi europei devono fare i conti invece con le ristrettezze di bilancio di un periodo di crisi e, un po’ in tutti i paesi, i fondi dati alle biblioteche per questo tipo di progetti sono praticamente azzerati, nonostante tutta la retorica che si fa attorno a Europeana e dintorni. Persino in Francia, che in questi anni è stato il paese che con più convinzione ha fatto seguire i fatti (e i denari) agli annunci, lo schema per finanziare i nuovi programmi di digitalizzazione che dovrebbero coinvolgere le opere del Novecento dovrebbe essere quello del «grande prestito». Lo scoglio è trovare il modello commerciale che possa far rientrare dagli investimenti, così da restituire quanto prestato. E lo schema quindi meramente «bibliotecario» (usando il termine nel senso più nobile, di pubblico servizio senza fine di lucro alla comunità dei lettori) non sarebbe più applicabile. Ma, a quel punto, quali alternative vi sono? Il mercato editoriale è interessato, per definizione, a investire sulle opere correnti: lo sta facendo con convinzione in molte parti d’Europa. Le pubblicazioni marginali, i «fuori commercio» accumulatisi, non senza ragione, in decenni editoriali, sono alternativamente una questione di servizio pubblico o di megainiziative commerciali basate appunto sulla quantità, e quindi l’esaustività, così da sfruttare tanto le potenziali economie di scala sul mercato pubblicitario, quanto gli effetti di «coda lunga», come si usa dire («far denaro vendendo poche copie di molti libri invece che molte copie di pochi libri»), con tutti i rischi di acquisizione di posizione dominante che in questo caso possono nascere.
La situazione sembra dunque vivere una doppia impasse. Da un lato ci sono le risorse per gli investimenti ma non l’accordo sui diritti, e si sono cercate scorciatoie in terreni rivelatisi labirinti senza uscita; dall’altro lato ci sono gli accordi, ma non le risorse. Se ne uscirà? Difficile dirlo. Senza far previsioni per il futuro, si possono cogliere alcuni segnali, per quanto contraddittori. E lo si può fare tornando finalmente al nostro paese.
L’Italia, come il resto d’Europa, soffre per la mancanza di fondi per le biblioteche. Anzi peggio, se si considerano i tagli al personale e al bilancio corrente della Biblioteca nazionale di Firenze – vicenda sulla quale si è accesa di recente l’attenzione della stampa, e sulla quale voglio cogliere l’occasione per esprimere la mia personale solidarietà verso chi ne subisce le conseguenze, e il disappunto verso un governo che fa queste scelte.
Scarseggiano i fondi per la gestione ordinaria delle biblioteche, figuriamoci per i piani di digitalizzazione. La risposta che si è voluto dare, su impulso in particolare del direttore generale Mario Resca, con competenze non alle biblioteche ma alla valorizzazione dei Beni culturali, è stata pragmatica e suggerisce alcuni elementi pratici di quella via mista – di partnership pubblico privato – che pure a Bruxelles è un obiettivo perennemente proclamato.
Nei confronti dell’iniziativa di Google il Ministero per i Beni e le Attività culturali ha risposto sfuggendo alla logica della scelta tra «arrendersi al nemico» e «far da sé». Ha deciso invece di negoziare al meglio le condizioni di un contratto che potesse essere di soddisfazione per entrambe le parti. Le biblioteche italiane hanno patrimoni tra i più preziosi al mondo, così che la posizione negoziale è certamente di forza, accentuata dalla scelta del Ministero di negoziare centralmente per l’insieme delle biblioteche, il che è un inedito, in quanto in passato Google aveva sempre fatto accordi con le singole biblioteche, secondo la più classica logica del divide et impera.
I termini del contratto non sono del tutto noti, perché il Ministero ha accettato di siglare una clausola di riservatezza che è uno dei punti deboli della vicenda, giustamente criticata sia nel resto d’Europa sia internamente. Ma da quanto è stato pubblicato e da quanto mi ha riferito lo stesso Mario Resca in un’intervista nient’affatto reticente – le principali condizioni sono molto innovative.
Il punto chiave è l’assenza di esclusiva: le biblioteche che aderiranno potranno concedere analoghe condizioni ad altri operatori; l’unica limitazione, ovvia, è data dal fatto che non potranno cedere a concorrenti di Google i file da questi prodotti.
Nel lungo periodo, è a mio avviso ancor più importante la decisione di far rimanere nella sfera delle biblioteche nazionali la gestione dei metadati bibliografici dei libri che saranno digitalizzati. Non è solo garanzia di qualità (in genere il livello dei metadati di Google Books è «orribile», secondo la definizione di Geoff Nunberg, dell’università di Berkeley), ma anche una scelta strategica: controllare le informazioni è un prerequisito per gestire l’intero programma.
Il terzo elemento di novità è l’impegno di Google a fornire alla biblioteca i file generati dal processo di digitalizzazione, in più formati, cosicché potranno essere pubblicati anche nei portali delle biblioteche, oltre a servire per i programmi di conservazione di lungo periodo. Il controllo dei metadati e il possesso dei file consentiranno anche di indicizzare i patrimoni italiani digitalizzati all’interno di Europeana, rafforzando la nostra posizione nel progetto europeo.
L’accordo è limitato a opere in pubblico dominio (vi rientrano solo opere pubblicate prima del 1868) e dunque non c’entra con il tema della gestione dei diritti di cui stiamo qui discorrendo. Tuttavia, al momento di presentazione del progetto, entrambe le parti (Google con più insistenza) hanno sottolineato che in futuro, «a seguito di accordi con le parti» e «nel pieno rispetto della legislazione nazionale ed europea», potranno essere estese a opere del Novecento. In qualche modo si rovescia la logica di cui sopra: prima si trovano le risorse e poi, più nel concreto, si parlerà di gestione dei diritti. Con un cambiamento notevole: la «finalità non commerciale» degli accordi del resto d’Europa non si darebbe in questo caso. Pertanto, pur con il vantaggio di precedenti assai simili, si tratterebbe di inoltrarsi su terreni parzialmente vergini. Vedremo.
Al momento, l’impressione – pur smentita dalle dichiarazioni ufficiali – è che bisognerà aspettare le decisioni del giudice Chin, presso la Corte di New York, sul Settlement con gli editori e autori Usa, prima che Google si sieda seriamente al tavolo con gli aventi diritto europei. Il che, se non altro, ci consente di riflettere su alcuni luoghi comuni: «il digitale accelera ogni cosa», «le innovazioni nei mercati sono rapidissime», «la giustizia americana è velocissima»… Qui siamo a riflettere, da un anno all’altro, sulle stesse cose. Senza che accada nulla in concreto.