samedi 12 décembre 2015

Projet de loi pour une République numérique : un bon thriller pour les chercheurs

[Mise à jour du 12 décembre : ajout d'une note 1 en fin d'article sur le régime de libre réutilisation des données de la recherche, ou comment un régime de réutilisation similaire à celui des licences Creative Commons fait son entrée dans la loi]

[Article remanié/corrigé le 11 décembre à 11h15, principalement pour ce qui touche aux données de la recherche]


Depuis quelques jours, plusieurs nouveaux épisodes sont venus enrichir la saga du projet de loi Lemaire. La semaine dernière, le gouvernement répondait aux contributions qui n'ont pas été retenues dans le cadre de la consultation numérique. Mercredi 9 décembre, de nouveaux rebondissements ont émaillé la série : le gouvernement a rendu public un avis extrêmement critique du Conseil d'Etat sur le texte, tandis que le gouvernement a soumis à l'Assemblée Nationale la version définitive du projet de loi, qui sera débattu par les parlementaires en procédure accélérée.
Le même jour, la commission européenne a dévoilé sa "vision" pour moderniser les règles du droit d'auteur dans le cadre de la révision de la directive "Infosoc". Or parmi les propositions formulées, issues pour partie du rapport de la députée Julia Reda, figure l'exception de Text and Data Mining, tant réclamée par les chercheurs.
Tous ces ingrédients réunis permettent de concocter un bon thriller...


Text and Data Mining : l'invité-fantôme qui est là sans être là


Par Bonnybbx. CC0. Source : Pixabay

On peut se demander pourquoi l'exception de fouille de données, présente dans l'une des versions de l'avant-projet qui avait "fuité" cet été, ne figure toujours pas dans la dernière version du projet de loi. Des éléments de réponses sont à trouver dans les motivations apportées par le gouvernement au rejet de certaines propositions lors de la consultation. En fait, la réponse est toujours la même (voyez ici, , ou encore ) :

Il y a aujourd’hui un consensus pour reconnaître que le text and data mining (TDM) représente un enjeu majeur d’innovation, mais aussi de positionnement concurrentiel pour la recherche, notamment vis-à-vis de pays comme le Royaume-Uni. La voie contractuelle, qui nécessiterait une négociation éditeur par éditeur, s’est montrée inadaptée à ce jour pour permettre l’application des techniques de TDM à de grands ensembles de corpus, à des fins de recherche.

La voie législative, qui introduirait une nouvelle exception au droit d’auteur, supposerait pour sa part de mettre en place des garanties permettant de répondre aux inquiétudes des éditeurs, en particulier face au risque de dissémination des copies numériques. Cette garantie pourrait être offerte par l’intermédiation d’un tiers de confiance. A cet égard, il est à noter que la Bibliothèque nationale de France (BnF) s’est d’ores et déjà portée candidate pour jouer un tel rôle.
La concertation entre le ministère de l’éducation nationale de l’enseignement supérieur et de la recherche et le ministère de la culture et de la communication se poursuit sur ces questions, dans le contexte de la révision en cours de la directive européenne sur le droit d’auteur.
Le gouvernement ne ferme pas totalement la porte à la possibilité d'une telle exception, mais il ne veut pas perturber les discussions en cours au niveau de l'Union Européenne sur l'exception de TDM. Contrairement au Royaume-Uni, il fait dépendre sa consécration par la loi et sa mise en oeuvre, de l'adoption préalable par le Conseil de l'UE, de la prochaine directive sur le droit d'auteur.

Mais l'UE est-elle vraiment déterminée à consacrer une exception de Text and Data Mining ? On peut, à l'instar de la League of European Research Universities (LERU), en douter :

[The Commmunication] says that the Commission is assessing options and will consider legislative proposals. The Commission has had years to consider options and proposals. It is time to stop considering and to start implementing. The time for action is now. LERU is disappointed that the legislative programme is not addressed in a more convincing and coherent way.


Droit d'exploitation secondaire : le Conseil d'Etat est son ennemi...


Zombie attack

Le texte soumis pour avis au Conseil d'Etat prévoyait un "droit d'exploitation secondaire" ("Zweitverwertungsrecht" dans la loi allemande de janvier 2014 dont s'inspire très fortement le texte) au profit des auteurs, les autorisant à mettre à disposition gratuite leurs articles dans la version éditeur finale du manuscrit acceptée pour publication, passé un délai de 6 mois pour les Sciences, Techniques, Médecine (STM), et 12 mois en Sciences Humaines et Sociales (SHS).
Mais dans l'avis du 3 décembre, rendu public par le gouvernement le 9, le Conseil d'Etat expédie sauvagement cette possibilité au nom du principe de la territorialité des lois :
En ce qui concerne la mise à disposition gratuite sur l’internet des résultats de recherches financées sur fonds publics, prévue par l’article 14, le Conseil d’Etat a relevé que l’impact d’une telle mesure sur les contrats futurs entre éditeurs et auteurs tenait à son caractère d’ordre public, lequel ne peut jouer que sur le territoire français, alors que l’effet de la diffusion sur l’internet est mondial. Cette incohérence lui a paru faire obstacle à l’adoption de cette mesure.
Le raisonnement paraît curieux; le Conseil d'Etat estime que, puisque la diffusion des articles via Internet atteint potentiellement une audience mondiale, il ne devrait pas être possible de légiférer (nationalement) sur le statut des articles de recherche. Est-ce à dire que les lois votées récemment par l'Allemagne, l'Italie, l'Espagne ou bien l'Argentine ou les Etats-Unis devraient être invalidées ?

Heureusement, dans un twist digne des meilleures intrigues, le gouvernement n'a pas suivi l'avis du Conseil d'Etat, de sorte que l'actuel article 17 maintient la possibilité d'une diffusion en accès libre des travaux scientifiques financés sur fonds publics (au moins 50 %), au terme d'une durée d'embargo inchangée : 6 mois en STM, 12 mois en SHS.

L'étude d'impact de la loi prévoit en outre un plan d'accompagnement des revues en SHS à la transition vers le libre accès, qui pourrait être mis en oeuvre dès 2016. "Le plan, ciblé sur les revues de recherche de haut niveau, s'adresse aux revues françaises, voire francophones, sélectionnées sur une base scientifique". Deux options seront offertes : "passage à une barrière mobile ramenée à 12 mois, ou libre accès immédiat, options qui peuvent être panachées en fonction du choix des revues".


Données de la recherche : elles sont entrées par la grande porte, leurs ennemis les feront peut-être sortir par la fenêtre...



Crasch

Dans la précédente version du texte, les données de la recherche étaient qualifiées de "choses communes" au sens de l'article 714 du Code Civil :
Il est des choses qui n'appartiennent à personne et dont l'usage est commun à tous.
Des lois de police règlent la manière d'en jouir.
Cette qualification avait pour mérite de faire resurgir au détour d'un article, la notion de commun de la connaissance, et ce, en dépit de la disparition de l'ex-aticle 8 qui consacrait plus globalement un "domaine commun informationnel". Le concept de "choses communes" permettait également d'ancrer la notion de commun dans un temps long, qui trouve ses origines dans le droit romain.

Le Conseil d'Etat a rejeté la qualification de "choses communes" en l'absence d'une véritable étude d'impact :

En outre, le Conseil d’Etat n’a pu retenir cette disposition ainsi que celle qui qualifie de « choses communes » au sens de l’article 714 du code civil les données issues de recherches financées sur fonds publics et qui permet la libre réutilisation de ces données une fois publiées, au motif qu’il n’a pas disposé d’une véritable étude des impacts positifs ou négatifs, juridiques aussi bien qu’économiques qu’on peut en attendre.

Avant la publication de l'avis du Conseil d'Etat, d'autres critiques sur la notion de "choses communes" avaient été émergé ici ou là. Du point de vue du droit, Me Jean Martin, avocat chargé par le Conseil Supérieur de la Propriété Littéraire et Artistique (CSPLA) de produire un rapport sur la notion de domaine commun informationnel, avait soulevé la question de l'articulation entre Code Civil et Code de la Propriété Intellectuelle, sur la base de la définition jurisprudentielle complexe de "lois de police". D'un point de vue philosophique, Dardot et Laval ont démontré que le Commun doit se définir comme la résultante d'une activité commune de co-construction et non comme une chose en soi, déterminée par nature.

Le gouvernement a donc remanié le texte en évacuant la notion de "choses communes". Après cet énième remaniement du texte, les communs informationnels sortent du dispositif de la loi par la petite porte. Le nouveau texte maintient néanmoins un régime de libre réutilisation pour les données de la recherche:
« II. – Dès lors que les données issues d’une activité de recherche, financée au moins pour moitié par des dotations de l’État, des collectivités territoriales, des établissements publics, des subventions d’agences de financement nationales ou par des fonds de l’Union européenne, ne sont pas protégées par un droit spécifique, ou une réglementation particulière, et qu’elles ont été rendues publiques par le chercheur, l’établissement ou l’organisme de recherche, leur réutilisation est libre.

« III. – L’éditeur d’un écrit scientifique mentionné au I ne peut limiter la réutilisation des données de la recherche rendues publiques dans le cadre de sa publication.

« IV. – Les dispositions du présent article sont d’ordre public et toute clause contraire à celles-ci est réputée non écrite. »
Cependant, en l'état, le régime de libre réutilisation appliqué aux données de la recherche n'est pas totalement garanti. Le texte dit bien : dès lors que les données de la recherche "ne sont pas protégées par un droit spécifique". L'exposé des motifs est encore plus précis : "dès lors que ces données ne sont pas protégées par un droit spécifique, comme par exemple un droit de propriété intellectuelle". Le texte envisage probablement des cas où les données de la recherche sont des images ou des sons sur lesquels les auteurs détiennent des droits de propriété intellectuelle et n'en autorisent pas explicitement la libre réutilisation, s'ils n'ont pas opté pour l'apposition d'une licence Creative Commons.[1]

La formulation n'est pas totalement claire, et laisse la possibilité d'un autre type de conflit : le texte ne fait pas formellement barrage au droit des bases de données. Le producteur d'une base pourrait invoquer le droit sui generis de producteur de base de données, pour revendiquer la captation des données sous-jacentes aux articles déposés dans la base de données.

Le § III a probablement été conçu comme une réponse, un pare-feu. Il prévoit que l'éditeur scientifique ne peut limiter la réutilisation des données de la recherche. Deux types de réserves peuvent être apportés. D'abord, le renvoi au § I laisse à penser que ne sont envisagées que les données "sous-jacentes" à chaque article. Quid des jeux de données déposés de façon autonome sur des plates-formes dédiées mises à disposition par des éditeurs scientifiques ? Dans ce cas de figure, l'éditeur scientifique est-il en mesure de revendiquer son droit de producteur de base de données ? Ensuite, du fait que le § I porte sur les articles pris isolément, il n'est pas certain que le dispositif du § III bloque le déclenchement du mécanisme du droit des bases de données, qui porte sur un corpus de documents mis à disposition sur une plate-forme. La formulation du § III mériterait donc d'être précisée.

On peut espérer que l'article sera remanié prochainement lors des discussions, même limitées (puisque le texte sera voté en procédure accélérée) sur les bancs de l'Assemblée et du Sénat. D'immanquables nouveaux twists sont à prévoir...

[1] Mise à jour du 12 décembre. Je m'aperçois qu'il y a quelque chose d'un peu absurde à dire que les données de la recherche seraient donc libres d'utilisation... sauf si elles ne sont pas. C'est un peu comme si, en cette période d'état d'urgence, on réécrivait l'article 1 de la Déclaration des Droits de l'Homme et du Citoyen de la façon suivante : "Les hommes naissent et demeurent libres et égaux en droits.. dès lors qu'ils ne sont pas emprisonnés ni traités de façon inégale." Ou bien les données de la recherche sont libres de réutilisation et en ce cas, aucun droit de propriété intellectuelle ne peut en limiter la libre réutilisation, ou bien elles sont placées sous un faux régime de libre réutilisation, révocable à merci dès lors que les auteurs y opposent des droits de propriété non assortis d'une autorisation expresse de libre réutilisation.
Il faudrait exactement comprendre ce qu'entendent les rédacteurs par "Dès lors que les données issues d’une activité de recherche (..) ne sont pas protégées par un droit spécifique, ou une réglementation particulière". En dehors des droits de propriété intellectuelle, d'autres droits peuvent être mobilisés.


Ce qu'il faut surtout retenir de la formulation du § II de l'article 17, c'est que les données de la recherche sont désormais placées sous un régime de libre réutilisation. Cela signifie qu'il ne sera pas nécessaire de demander une autorisation expresse pour réutiliser les jeux de données. A y bien réfléchir, Cela revient à placer les données de la recherche sous un régime de réutilisation semblable à celui qui sous-tend les Creative Commons.

Précisons que ce régime ne dispensera pas du respect de certains droits réservés, comme par exemple la mention de la paternité ou de la source des données.
In fine, deux des amendements que le collectif SavoirsCom1 avait proposés ont été partiellement repris sous une formulation certes très différente, dans le texte déposé à l'Assemblée :
« Lorsqu’il s’agit de données de la recherche au sens qui en est donné par l’OCDE dans le rapport paru en 2007 et intitulé « Principes et lignes directrices de l’OCDE pour l’accès aux données de la recherche financée sur fonds publics », les chercheurs ne peuvent revendiquer de droits de propriété intellectuelle sur les jeux de données, hormis apposer une licence imposant la mention de la paternité et le partage à l’identique. » 
(...) 
« Les chercheurs ne peuvent revendiquer de droits d’auteur sur les jeux de données, hormis apposer une licence imposant la mention de la paternité et le partage à l’identique. »

En proposant ces deux amendements, nous avions à l'esprit la licence CC-BY-SA: Creative Commons, mention de la paternité et partage à l'identique.

Si les données de la recherche sont placées sous un simple régime de libre réutilisation, la condition de partage à l'identique est évacuée. En revanche, la formulation du projet de loi permet d'englober les cas de réutilisation des jeux de données sans mention de la source/paternité. Cela correspond à des licences du type CC0 (Creative Commons Zéro) ou PDDL (Public Domain Dedication and Licence).

Le parallèle avec les licences de type Creative Commons s'arrête là : avec la loi numérique, on passe du terrain du contrat à celui de la loi.









lundi 9 novembre 2015

Open Data et Open Access dans le projet de loi Lemaire : avancées et limites

[Mise à jour: le 24 novembre 2015, la Commission Mixte Paritaire n'a finalement pas retenu l'amendement du sénateur Hugues Portelli visant à placer les données de la recherche sous un régime dérogatoire.]


Axelle Lemaire, secrétaire d'Etat chargée du Numérique, a dévoilé vendredi dernier la dernière version du projet de loi pour une République numérique. Parmi les mesures positives, figure le raccourcissement des délais d'embargo pour le partage gratuit des articles scientifiques, notamment via des dépôts dans des archives ouvertes: en réponse aux fortes demandes exprimées par la communauté scientifique, le CNRS en tête, les délais repassent de 24 à 12 mois pour les sciences humaines et sociales, et de 12 à 6 mois pour les sciences, les techniques et la médecine.

En revanche, il est à regretter que l'exception de Text and Data Mining, présente dans la première mouture de l'avant-projet de loi qui avait "fuité" cet été, ait définitivement disparu, en dépit des promesses du Secrétaire d'Etat en charge de l'Enseignement Supérieur et de la Recherche.

Mais ce sur quoi je voudrais insister (à nouveau) ici, c'est que, nonobstant des avancées significatives en matière d'Open Data, des zones grises subsistent, du fait des contradictions qui découlent de certaines dispositions non compatibles avec un autre texte, le projet de loi de transposition de la directive Public Sector Information de 2013, porté par la Secrétaire d’État Clotilde Valter. Tels la divinité Janus bifrons, les projets de loi Valter et Lemaire regardent dans deux directions opposées.


Janus-Vatican.JPG

Janus-Vatican“ par Fubar Obfusco - Public Domain. Wikimedia Commons.


Open Data : le droit des bases de données neutralisé


Parmi les nouveaux articles ajoutés, figure un article 5 qui comprend deux dispositions nouvelles de nature à faciliter l'ouverture et la réutilisation des données publiques. La première porte précisément sur les relations entre ouverture des données et droit des bases de données.

I. - L’article 11 de la loi du 17 juillet 1978 portant diverses mesures d'amélioration des relations entre l'administration et le public et diverses dispositions d'ordre administratif, social et fiscal est remplacé par les dispositions suivantes: 

« Art. 11. - Sous réserve de droits de propriété intellectuelle détenus par des tiers, les droits des administrations mentionnées à l’article L. 300-2 du code des relations entre le public et l’administration au titre des articles L. 342-1 et L. 342-2 du code de la propriété intellectuelle ne peuvent faire obstacle à la réutilisation, au sens de l’article 10, du contenu des bases de données que ces administrations ont obligation de publier en application du 3° de l’article L. 312-1 du code des relations entre le public et l’administration.»
Le nouvel article permet de neutraliser les revendications des administrations qui formeraient un barrage contre la réutilisation de leurs données publiques numérisées, en revendiquant le droit sui generis de producteur de bases de données. Cela mettrait un terme à la jurisprudence consacrée récemment par la Cour Administrative d'Appel de Bordeaux dans l'arrêt du 26 février 2015, Société NotreFamille.com c/ Conseil Général de la Vienne, confirmant le jugement rendu en première instance par le Tribunal Administratif de Poitiers l'année précédente.


Vers une simplification des conditions de réutilisation


Reprenant en partie un amendement proposé par le CNNum, le même article vise à imposer aux administrations une liste fermée de licences-types destinées à être apposées aux jeux de données libérés :

III. - L’article 16 de la même loi est complété par un alinéa ainsi rédigé: « Pour les réutilisations à titre gratuit, les administrations mentionnées à l’article L. 300-2 du code des relations entre le public et l’administration recourent à une licence figurant sur une liste fixée par décret. Lorsqu’une administration souhaite recourir à une licence ne figurant pas sur cette liste, cette licence doit être préalablement homologuée par l’Etat, dans des conditions fixées par décret.»

Une politique Open Data digne de ce nom n'est possible que si elle s'accompagne d'une clarification des conditions de réutilisation: si chaque administration concocte sa propre licence ad hoc, la réutilisation devient inutilement complexe, voire impossible.


Données de la recherche : le chat de Schrödinger 


Les données de la recherche sont consacrées par la loi Lemaire au rang de "choses communes", conformément à l'amendement déposé par le collectif SavoirsCom1:

« II. – Les données de la recherche rendues publiques légalement issues d’une activité de recherche financée au moins pour moitié par des fonds publics et qui ne sont pas protégées par un droit spécifique sont des choses communes, au sens de l’article 714 du code civil

Les données de la recherche sont rendues inappropriables... Mais un amendement récemment présenté contre l'avis du gouvernement par le Sénateur Hugues Portelli, dans le cadre du vote de la loi Valter de transposition de la directive Public Sector Information, a précisément pour effet de placer les données de la recherche sous un régime dérogatoire au principe général d'ouverture des données publiques: 
« Art. 11. – Par dérogation au présent chapitre, les informations figurant dans des documents produits ou reçus pas des établissements et institutions d’enseignement et de recherche dans le cadre de leurs activités de recherche peuvent être réutilisées dans les conditions fixées par ces établissements et institutions. »


Comme le chat de Schrödinger (merci à @calimaq pour cette jolie métaphore), les données de la recherche sont mortes et vivantes, ou plutôt libres et non-libres en même temps: d'un côté les universités ont la faculté d'en limiter la réutilisation (PJL Valter remanié par Portelli), de l'autre les données de la recherche sont des communs de la connaissance, des choses communes, inappropriables en droit, ce qui exclut que les universités puissent restreindre les conditions de leur réutilisation (PJL Lemaire).




Disparition du Domaine Commun Informationnel : vive le Copyfraud !


Les données de la recherche ont désormais le statut de choses communes, soit en d'autres termes, le statut de communs de la connaissance. Mais précédemment, le projet de loi Lemaire consacrait de façon plus large un "domaine commun informationnel". L'ex-article 8 qui le définissait, avait pour objectif de "protéger les ressources communes à tous appartenant au domaine public contre les pratiques d’appropriation qui conduisent à en interdire l’accès". A contrario, maintenant que l'article a disparu, il sera toujours possible pour les administrations de faire ce que la loi n'interdit pas explicitement. La porte reste ouverte au Copyfraud, qui consiste en la revendication abusive de droits sur des œuvres, notamment des œuvres du domaine public, de façon à en restreindre l'accès ou la réutilisation. 

Or le Copyfraud est non pas simplement toléré, mais conforté, voire consacré, par le projet de loi Valter: le texte autorise la perception de redevances sur le produit de la numérisation d’œuvres, y compris des œuvres du domaine public en deux dimensions. Dans le match Lemaire/Valter, au round "Copyfraud", le projet de loi Valter l'emporte par KO (mais bien sûr, tant qu'aucun des deux textes n'est voté, rien n'est joué).

Fencing (1890) (14757509586).jpg
 Licensed under No restrictions via Wikimedia Commons

Reste une question. Nous avons vu plus haut que le nouvel article 5 du projet de loi Lemaire a pour objectif de bloquer la revendication par les bibliothèques, musées ou archives, du droit sui generis des producteurs de bases de données sur les jeux de données issus de la numérisation de leurs fonds. Est-ce que l'article 5 serait de nature à freiner voire bloquer le Copyfraud ? Que nenni ! Le droit est un sport de combat dont les règles du jeu sont à géométrie variable: il suffira aux institutions culturelles nostalgiques de l'exception culturelle, de quitter le terrain du droit des bases de données pour continuer le combat sur le terrain de l'article 3 de la loi LemaireValter [1],  et la partie sera gagnée !

Voilà comment des textes législatifs s'enchaînent, de l'exception culturelle à ce qu'il faudra bien peut-être appeler un jour "l'exception LemaireValter [1]" en passant par le droit des bases de données, de façon à offrir, sous couvert d'un changement permanent, la garantie d'une inaltérabilité des pratiques des institutions culturelles, du moins des plus réfractaires d'entre elles à l'ouverture des données culturelles.

[1] Correctif du 12 novembre. Ah là, là, confondre Lemaire et Valter, ce n'était pas gentil pour Axelle Lemaire, à qui je présente ici mes sincères excuses. (A Mme Valter aussi quand même).

mardi 13 octobre 2015

Anne Frank est morte et elle ne cesse de mourir


Il en est de la disparition d'un être comme de certaines séparations amoureuses : elles ne cessent de nous hanter, pour d'excellentes ou de moins bonnes raisons. On aimerait ne jamais connaître les mauvaises.

Considérez par exemple la manière dont le Fonds Anne Frank prétend défendre l'œuvre de l'auteur du Journal, manière contestable d'un point de vue juridique mais également éthique, comme on va le voir.


Description de cette image, également commentée ci-après
« Original Book Copy » par Gonzalort1Travail personnel. Sous licence CC BY-SA 3.0 via Wikimedia Commons.

Au départ, il y a ce constat: la Fondation Anne Frank tente par tous moyens de faire reculer l'entrée du Journal dans le domaine public. Pour plus de détails, je vous invite à lire deux billets d'Olivier Ertzscheid, sur son blog affordance.infoLe premier est un cri de colère contre la politique adoptée par le Fonds Anne Frank, en même temps qu'une magnifique déclaration d'amour à l'œuvre d'Anne Frank; le second fait le point sur la polémique qui s'en est suivie.

1) Une œuvre composite ?


Voici le premier argument avancé par le Fonds Anne Frank pour reculer l'entrée de l'œuvre d'Anne Frank dans le domaine public :
Il va sans dire que les droits d’auteur du texte original d'Anne Frank appartiennent fondamentalement à l'auteur, Anne Frank elle-même. Deux versions du journal ont été publiées : la première en 1947, compilée par Otto Frank, et la seconde en 1991, compilée par Mirjam Pressler. Ces publications sont des adaptations réalisées respectivement par Otto Frank et Mirjam Pressler, et ceux-ci sont donc les propriétaires des droits d'auteur de ces adaptations, qui transforment dans les faits les écrits originaux d'Anne Frank en versions lisibles.
Ainsi donc, Anne Frank ne serait pas le seul auteur de son Journal, puisque le fait de "compiler" (ou plutôt "censurer" pour Otto, le père) les versions ouvrirait droit au bénéfice d'Otto Frank et de Mirjam Pressler à la qualité de co-auteurs ? Cela ne revient-il pas à dire qu'Anne n'est pas vraiment l'auteur à part entière du Journal ? Comment la Fondation peut-elle s'enorgueillir de défendre la mémoire d'Anne avec de pareilles considérations ?

Sur le plan juridique, le discours de la Fondation revient à considérer Le Journal comme une œuvre composite. "Est dite composite l'œuvre nouvelle à laquelle est incorporée une œuvre préexistante sans la collaboration de l'auteur de cette dernière" (art. L 113-2 du Code de la Propriété Intellectuelle). Ce statut emporte des conséquences considérables en ce qui concerne la durée de protection : 70 ans après la mort de l'auteur de l'œuvre dérivée (50 dans certains pays comme le Canada). Or le premier "auteur" de la première œuvre "composite", Otto Frank, est décédé en 1980, ce qui nous reporte à 2050 pour une entrée dans le domaine public. Quant à Mirjam Pressler, elle est toujours en vie... Voilà pourquoi la Fondation claironne fièrement (et un peu trop vite) que "les écrits originaux d'Anne Frank, ainsi que les versions imprimées originales, resteront protégés pendant encore de nombreuses décennies".

Relisez la dernière phrase et remarquez par quel stupéfiant jeu de bonneteau, les "écrits originaux" d'Anne Frank (rédigés entre 1942 et 1944) sont insidieusement agrégés aux œuvres composites, si œuvres composites il y a. "Insidieusement", car normalement, les composantes d'une œuvre composite sont protégées séparément. Le point de départ de la durée de protection devrait donc être différent pour les écrits originaux d'Anne Frank d'une part, pour les compilations d'Otto Frank et de Mirjam Pressler d'autre part. Autrement dit, même en admettant que les versions d'Otto Frank et de Mirjam Pressler soient des œuvres composites, cela ne devrait rien changer au fait que les écrits originaux entreront dans le domaine public en 2016, 70 ans après la disparition d'Anne Frank.

Du coup, la Fondation, qui manifestement aime faire son shopping avec les articles de lois, s'essaie ensuite à un autre argumentaire.

2) une oeuvre posthume ?

Les écrits originaux d'Anne Frank n'ayant été publiés pour la première fois que dans les années 1980, ils sont toujours protégés pour plusieurs décennies.

Quoi ? Est-ce à dire que la première version publiée en 1947 par Otto, le père d'Anne Frank, n'était pas suffisamment "originale" ? N'est-ce pas laisser la porte ouverte aux révisionnistes de tout poil que d'invoquer un défaut d'authenticité ?

Sur le plan juridique, la Fondation Anne Frank s'aventure sur un autre terrain cette fois. Considérer que seuls les écrits publiés dans les années 1980 sont "originaux", permet, par un second tour de passe-passe, de conférer à ces versions plus tardives le statut d’"œuvres posthumes". Du coup, cela permet d'étendre la durée de protection à compter de la date de la nouvelle publication (apparemment 50 ans pour les œuvres posthumes aux Pays-Bas, ce qui nous reporte à 2030 au plus tôt)

Seulement on se heurte à une nouvelle incohérence par rapport à ce qui a été dit précédemment. Ou bien la version de Mirjam Pressler est une oeuvre composite, et il faut attendre 70 ans après le décès de cet "auteur" pour que l'oeuvre regagne le domaine public. Ou bien il s'agit d'une œuvre posthume, et en ce cas, Anne Frank en est l'unique auteur. 

Plus globalement, invoquer le statut d'œuvre posthume pour les écrits publiés dans les années 1980, lors même que l'œuvre a été publiée une première fois dès 1947 sous une version certes expurgée, n'a pas de sens. La première publication ôte aux suivantes le qualificatif d' "inédites". Si un procès se fait jour, il est peu probable que la Fondation obtienne gain de cause devant des tribunaux.



3) le point Godwin? (Ou pas loin...)

En protégeant activement les droits d'auteur, l'AFF [le Fonds Anne Frank] s'efforce de préserver l'utilisation authentique, dans le respect et l'intégrité, de l'oeuvre d'Anne Frank.
En caricaturant un peu, l'implicite du discours pourrait se résumer ainsi : "si vous laissez entrer Le Journal d'Anne Frank dans le domaine public, vous nous empêchez de protéger l'œuvre et vous faites le jeu des révisionnistes et des négationnistes qui s'empareront du texte d'Anne Frank pour le triturer en tous sens". Je ne m'appesantirai pas sur ce point déjà amplement traité ici ou . Rappelons simplement que le droit moral, perpétuel et incessible, permet aux ayants-droit de préserver l'intégrité de l'œuvre. Par ailleurs, le droit d'auteur n'est pas forcément le meilleur outil de régulation des propos négationnistes. Il existe dans certains pays, en France notamment, un encadrement de la liberté d'expression par un ensemble de lois qui punissent l'incitation à la haine raciale, les.propos antisémites ou négationnistes.


***


Bref, à plusieurs égards, l'attitude des gestionnaires du Fonds Anne Frank a pour effet de commettre précisément ce qu'ils visent à dénoncer. En prétendant reculer l'entrée du Journal d'Anne Frank dans le domaine public, ils offensent plutôt qu'ils n'assurent le respect de l'oeuvre et de la mémoire d'Anne Frank. Nous laisserons le mot de la fin à l'avocat Guillaume Sauvage:

Il me semble que les arguments qu'utilisent les ayants-droit pour empêcher que l'œuvre ne tombe dans le domaine public pourraient justement avoir des effets pervers. Si un tribunal devait reconnaître plusieurs auteurs au Journal, cette décision serait susceptible d'apporter de l'eau au moulin de ceux qui contestent son authenticité.



Post-Scriptum : Je comprends le sentiment d'exaspération d'Olivier Ertzscheid qui l'a conduit à mettre en ligne les fichiers des traductions françaises du Journal d'Anne Frank. Pour ma part, je fais le choix de ne pas diffuser ces liens, simplement parce que ces traductions, au contraire des écrits originaux, sont sous droits et ne se sont donc pas encore élevées dans le domaine public. 

mercredi 30 septembre 2015

Domaine Public, Open Data, et Open Access dans le projet de loi pour une République numérique

Après la mise en ligne de la dernière version du projet de loi Lemaire, l'heure est à la consultation citoyenne. C'est l'occasion de saluer les prémices d'un grand texte, qui pour la première fois fait entrer dans le périmètre législatif les communs informationnels.

C'est aussi l'occasion de pointer un certain nombre de points manquants ou à améliorer. L'occasion encore de s'interroger sur l'articulation entre l'ambitieux projet de loi et les textes qui l'ont précédé, qu'il s'agisse de textes de loi, de rapports  ou de déclarations. Dans ce qui suit, on ne s'intéressera qu'au Titre I du projet, intitulé "La circulation des données et du savoir".


Projets de loi Lemaire et Valter : le domaine public pris en étau


Le moins qu'on puisse dire est que le cap fixé par le gouvernement en matière d'open data n'est pas toujours bien lisible. Voici un aperçu de l'alternance des signaux positifs et négatifs émis par le gouvernement ces derniers jours. Le 18 juin 2015, après avoir reçu le rapport du Conseil National du Numérique, le Premier Ministre présentait à la Gaîté Lyrique les grandes lignes de la Stratégie numérique pour la France, comportant notamment un volet orienté open data, et un autre, orienté plus spécifiquement open access ("Favoriser une science ouverte par la libre diffusion des publications et des données de la recherche").

Sur ce, une première version du projet de loi Lemaire était divulguée par des canaux non officiels. Le texte intégrait très largement les recommandations du Conseil National du Numérique présentées le 18 juin, en faveur notamment de l'ouverture des données publiques.

Mais c'est alors que paraît à la fin du mois de juillet, le projet de loi de transposition de la directive PSI (Public Sector Information) de 2013, projet déposé en catimini par la Secrétaire d’État chargée de la Réforme de l’État et de la Simplification, Clotilde Valter. Le texte est actuellement discuté au Parlement, et l'on est en droit de s'interroger sur la cohérence du calendrier législatif, qui consiste à soumettre au vote sans plus attendre, le projet de loi de transposition avant le texte d'Axelle Lemaire, qui lui, ne sera pas discuté sur les bancs de l'Assemblée avant 2016. Les deux textes portent pourtant tous deux, intégralement pour l'un, en partie pour l'autre, sur le renforcement et l'élargissement de l'ouverture des données publiques. Par voie de conséquence, on se retrouve en ce début du mois d'octobre, dans une situation bien étrange, où deux textes portant sur des thématiques communes sont débattus simultanément en deux endroits différents de l'hexagone: sur les bancs de l'hémicycle par les représentants de la Nation pour l'un, par les citoyens sur le web pour l'autre.

La précipitation du gouvernement à soumettre au vote le projet de loi Valter s'explique en fait, comme l'explique le collectif Regards Citoyens, par le dépassement par la France de la date-limite de transposition et par la crainte d'encourir une amende. Quoi qu'il en soit, le projet de loi Valter comporte comme on va le voir, des dispositions incompatibles avec certaines des promesses du projet de loi numérique porté par Axelle Lemaire.

Retour au mois d'août. Quelques jours après le dépôt du projet de loi Valter, le gouvernement publie son "Plan d'action national pour la France pour une action publique 2015-2017 : pour une action publique transparente et collaborative", où l'on voit figurer au premier rang des engagements : "Publier en open data les données des collectivités territoriales". Le préambule du texte est une ode à l'ouverture et à la réutilisabilité des données : "Le partage et la mise à la disposition de tous d’informations mais également de données ouvertes et réutilisables (« open data ») dessinent par ailleurs une réelle évolution de nos pratiques démocratiques, impliquant de plus en plus largement la société civile."

Or le projet de loi Valter, non conforme sur ce point aux dispositions de la directive, n'impose nullement la mise à disposition des données publiques dans un format ouvert. Comme l'a relevé le collectif Regards Citoyens, "seules les données relatives au prix des redevances (art. 5) et aux accords d’exclusivité (art. 2.2) seraient publiées sous un format ouvert, un comble !"

Bref, on le constate, beaucoup de "Valls-hésitations" voire d'incohérences de la part de ce gouvernement, qui conduisent à une situation ubuesque : sur deux points essentiels, la loi Valter qui fait l'objet en ce moment-même d'une première lecture à l'Assemblée, est en train de saper l'esprit de la future loi numérique, voire de vider par avance le texte de sa substance.

Non seulement, le texte n'implique pas d'obligation de diffuser les données publiques dans un format ouvert, mais aussi, loin d'aller dans le sens de l'ouverture par défaut des données publiques avec un objectif général de gratuité, il fait la part belle aux possibilités de redevances (article 3).

Par surcroît, le projet de loi Valter est lourd de conséquences pour tout ce qui touche à la numérisation des œuvres du domaine public. S'il est vrai que l'article 1 du projet de loi abroge l'article 11 de la loi CADA de 1978 qui consacre l'exception culturelle, il n'en reste pas moins que l'article 2 rend possibles les accords d'exclusivité d'une durée supérieure à dix ans pour les besoins de la numérisation de ressources culturelles, et que l'article 3, qui énonce un principe général de gratuité, prévoit une exception quand la réutilisation "porte sur des informations issues des opérations de numérisation des fonds et collections des bibliothèques, y compris des bibliothèques universitaires, des musées et archives, et des informations qui y sont associées lorsque celles-ci sont commercialisées conjointement". Est donc validée la possibilité pour les institutions culturelles, d'imposer des redevances sur la réutilisation du produit de la numérisation d'oeuvres du domaine public.

C'est dire qu'avec le projet de loi Valter, tel qu'en l'état, l'exception culturelle a de beaux jours devant elle, et la pratique du copyfraud, qui consiste en la revendication abusive de droits sur des œuvres, notamment du domaine public, pourrait être à la fête pendant encore bien longtemps. Ajoutons que sur ce point, le projet de loi Valter ne fait que suivre la directive PSI, qui, comme nous l'avions montré, fait courir un risque au domaine public en autorisant les établissements culturels à restreindre la réutilisation des œuvres du domaine public numérisé.

Trois exceptions manquantes...


Trois exceptions importantes étaient attendues, qui ne figurent hélas pas dans la version du texte proposé à la consultation citoyenne.

L'exception pédagogique


Dans son rapport "Ambition numérique" dévoilé en juin, le Conseil National du Numérique insistait sur le caractère inapplicable de l'exception pédagogique en l'état, et sur son inadéquation au déploiement des MOOCs :

64. Faire évoluer et clarifier l’exception pédagogique pour une meilleure adéquation avec les usages numériques

L’application de l’exception pédagogique a été introduite dans le droit français en 2006 par la loi DADVSI et s’organise autour de protocoles d’accord conclus entre les établissements et les organismes représentants les titulaires des droits. Dans l’état actuel, l’exception pédagogique est perçue par les enseignants comme un dispositif trop complexe pour pouvoir être pleinement compris et exploité. Les enseignants s’inquiètent d’une insécurité juridique qui freine les usages, en particulier numériques ; les éditeurs estiment que l’action du Centre Français de la Copie a désormais clarifié le paysage, ce que démontrerait l’usage massif du dispositif. À minima, un bilan serait à établir en commun, avant un travail de communication auprès de toutes les parties prenantes.
Le numérique risque de rendre cette tâche encore plus compliquée pour les enseignants, dans le cadre de l’utilisation du potentiel des TICE (blogs, wikis, réseaux sociaux, etc.) et de la production de MOOCs ou autres cours en ligne, qui ont vocation à être mise en ligne et donc en accès libre. Il semble donc nécessaire d’engager une réflexion collective sur le recours à l’exception pédagogique dans le cadre de formations ouvertes à tous.

  Exception de panorama


Tant qu'une telle exception ne sera pas consacrée par la loi, il ne sera pas possible de reproduire à titre informatif dans la version française de Wikipedia des monuments architecturaux sous droits. A l'heure actuelle, un tel acte de partage constitue un acte de contrefaçon. Le seul rempart contre cette rigidité de la loi est à trouver dans la théorie jurisprudentielle de l'accessoire. Il est à déplorer que la liberté de panorama ait disparu du projet de loi, lors même que le rapport "Ambition numérique" lui consacrait un paragraphe entier et que les deux versions précédentes du projet comportaient un article à ce propos.


Exception de Text and Data Mining 


N'en déplaise à Richard Malka pour qui "une telle exception au droit d’auteur n’est nullement nécessaire alors que les éditeurs autorisent déjà l’usage de leurs banques de données dans le cadre de licences contrôlées", une exception en faveur de la fouille de données est indispensable pour la recherche. Tant qu'aucune exception n'est mise en place, les éditeurs, en tant que producteurs de bases de données, ont le champ libre pour organiser la captation des résultats de la recherche et en dicter les conditions de réutilisation.
Captation d'autant plus inacceptable quand on sait que la recherche française est financée majoritairement sur fonds publics.

Faiblesse de la définition du domaine commun informationnel


Comme l'a bien noté @Calimaq, la formulation de la définition du domaine commun informationnel n'en garantit pas la protection effective. En l'état du texte, de simples conditions générales d'utilisation (ou la revendication du producteur de la base de données du droit sui generis des bases de données ?) suffiraient à faire tomber la protection :
I. Relèvent du domaine commun informationnel :
1° Les informations, faits, idées, principes, méthodes, découvertes, dès lors qu’ils ont fait l’objet d’une divulgation publique licite, notamment dans le respect du secret industriel et commercial et du droit à la protection de la vie privée, et qu’ils ne sont pas protégés par un droit spécifique, tel qu’un droit de propriété ou une obligation contractuelle ou extracontractuelle ;
 Qui plus est, la disparition de la notion de domaine public consenti, présente dans la première version du texte, ampute le domaine commun informationnel de ses éléments les plus vivants : œuvres sous licence Creative Commons, œuvres volontairement déposées sous licence CC0, etc.
 

La perspective d'un droit de l'open science s'éloigne...


Le tableau global s'assombrit encore lorsqu'on se penche sur la façon dont sont appréhendés les résultats de la recherche scientifique. Non seulement l'exception de Text and Data Mining a disparu du texte, mais les données de la recherche ne sont pas explicitement présentées comme des éléments du domaine commun informationnel.

Par surcroît, la proclamation du principe de libre accès aux résultats de la recherche apparaît elle-même comme de portée incertaine, dans la mesure où, tout comme dans la loi allemande de 2013, le dépôt en accès libre des articles scientifiques dépend d'une simple faculté laissée aux chercheurs et ne revêt pas de caractère obligatoire :
Lorsque un écrit scientifique, issu d’une activité de recherche financée au moins pour moitié par des fonds publics, est publié dans un périodique, un ouvrage paraissant au moins une fois par an, des actes de congrès ou de colloques ou des recueils de mélanges, son auteur, même en cas de cession exclusive à un éditeur, dispose du droit de mettre à disposition gratuitement sous une forme numérique, sous réserve des droits des éventuels coauteurs, la dernière version acceptée de son manuscrit par son éditeur et à l’exclusion du travail de mise en forme qui incombe à ce dernier, au terme d’un délai de douze mois pour les sciences, la technique et la médecine et de vingt-quatre mois pour les sciences humaines et sociales, à compter de date de la première publication. Cette mise à disposition ne peut donner lieu à aucune exploitation commerciale.
Quant à la durée d'embargo, elle est deux fois plus longue que celle préconisée par l'Union européenne. Comme le souligne Christine Ollendorff dans sa contribution, "les délais de douze et vingt-quatre mois vont à l'encontre de la recommandation de la Communauté Européenne du 17 juillet 2012 qui propose six mois pour les sciences, techniques et médecine et douze mois pour les sciences humaines et sociales." Certains vont plus loin dans le diagnostic et proposent la suppression pure et simple des embargos.

L'impossibilité de réutilisation commerciale briderait considérablement l'activité des laboratoires, dont une partie non négligeable de l'activité consiste précisément à valoriser commercialement leurs travaux de recherche (point 3  de la contribution de Renaud Fabre au nom du CNRS). C'est tout le contraire qu'il faudrait envisager : permettre les conditions optimales de la réutilisation des résultats de la production scientifique.

Par ailleurs, il ne suffit pas de mettre à disposition gratuitement les résultats de la recherche, encore faut-il que les conditions de réutilisation soient prévues explicitement. Comme l'explique très bien la Déclaration de Budapest BOAI 10 de 2012, "l'accès « gratis » est supérieur à l'accès payant, l'accès « gratis » sous licence libre étant lui-même supérieur au seul accès « gratis »".

Ce qui nous amène au dernier point, qui constitue ma contribution personnelle au débat. Passés les délais d'embargos (s'ils existent), les articles pourraient intégrer le domaine commun informationnel. Les articles se verraient apposer automatiquement une licence de type CC-BY, licence Creative Commons qui comporte pour seule et unique condition celle de mentionner la paternité au moment de la réutilisation.  Mesure qui paraît nécessaire, sine qua non on laisse le champ libre aux éditeurs scientifiques, en situation d'imposer unilatéralement aux chercheurs, par l'édiction de règles abusives, les conditions de réutilisation de leur travaux. Et si la licence CC-BY semble préférable à beaucoup d'autres, c'est parce qu'elle est l'une des plus ouvertes. C'est pourquoi la Déclaration de Budapest  de 2012 fait de la licence CC-BY la licence par excellence du mouvement open access. La citation précédente se poursuit ainsi :
L'accès « gratis » est supérieur à l'accès payant, l'accès «gratis» sous licence libre étant lui-même supérieur au seul accès «gratis», et, enfin, l'accès sous licence libre de type CC-BY ou équivalente est préférable à un accès sous une licence libre qui serait plus restrictive.







    dimanche 7 juin 2015

    Boucles d'Or et les Data

    "Il était une fois une maman ours, un papa ours et un petit ours qui habitaient une belle maison dans la forêt. Un jour, maman ours prépara une soupe délicieuse. Comme elle était trop chaude, les trois ours partirent se promener". (1)

    The Story of the Three Bears

    Peu de temps après, qui se présente devant la maison ? Boucles d’Or. Elle est très fatiguée, alors elle décide d’entrer pour se reposer un peu.

    Boucles d’Or ne le sait pas encore, mais quand elle sera plus grande, elle sera chercheuse au CNRS. Elle a déjà la fibre scientifique : elle teste tout ce qu’elle voit et elle compare les objets, les évalue et les classe par ordre de grandeur. Elle s’assoit sur la grande chaise, qu'elle trouve trop haute, sur la chaise moyenne, qui s'avère un peu bancale, et sur la petite chaise, qu’elle trouve parfaite mais qu'elle finit par casser. Elle goûte la soupe du grand bol, qu’elle trouve trop chaude, puis la soupe du bol moyen, qu’elle trouve trop salée, puis la soupe du petit bol, qu’elle trouve parfaite et qu'elle boit entièrement. C'est alors que notre scientifique en herbe voit trois lits et elle ne peut s’empêcher de refaire une expérience : elle s’allonge dans le grand lit qu’elle trouve trop dur, elle s'allonge dans le lit moyen qu’elle trouve trop mou, puis dans le petit lit qui se trouve être parfait. Boucles d'Or s'endort aussitôt.

    A ce stade de l'histoire, et dans une certaine mesure, les trois ours n’existent que dans le regard de Boucles d’Or : ce sont ses hypothèses qui donnent corps à l’idée des trois ours, c’est son regard qui établit un ordre de hiérarchie entre les ours ou entre les objets. Les hypothèses de Boucles d’Or s’agrègent en trois masses : Small Data pour le petit ours, Medium Data pour la maman ours et Big Data pour le papa ours.

    Boucles d’Or s'est endormie dans le petit lit du petit ours. Les trois ours reviennent de leur promenade et leurs voix la réveillent. Apeurée, elle s’enfuit. Dans certaines versions du conte, le départ de Boucles d'Or n'est pas aussi brusque : Papa Ours (Big Daddy ou Big Data) indique à Boucles d'Or son chemin. Quoi qu'il en soit, il y a plusieurs façons d’interpréter la fuite ou le départ de Boucles d'Or.

    Goldilocks 1912

    Ou bien il faut y voir une signification d’ordre épistémologique. Quand Small Data, Medium Data et Big Data réveillent Boucles d'Or, c'est comme si un Nouveau Monde remplaçait l'Ancien. Désormais, Small Data, Medium Data et Big Data prennent le pouvoir; les données sont les seules maîtresses à bord de la maison-laboratoire. Le réveil brutal de Boucles d'Or correspond à l'irruption brutale des données dans le cadre de la méthode scientifique usuelle. La nouvelle méthode ne consiste plus à émettre des hypothèses puis à les tester par des expériences. La nouvelle manière de faire de la science part de données sans hypothèse et sans modèle. Comme le dit le journaliste Chris Anderson, « avec suffisamment de données, les chiffres parlent d'eux-mêmes ». Les données prennent le pas sur les hypothèses. 

    Ou bien encore, sans que cela soit contradictoire avec la précédente interprétation, si Boucles d'Or s'enfuit, c'est qu'elle est punie pour sa désinvolture : elle s’est assoupie en oubliant de conserver quelque part dans un coin de sa mémoire la somme des données d’expérience accumulées.

    Mais cette dernière hypothèse est infirmée par le fait que l’histoire de Boucles d’Or a perduré à travers le temps. Il faut donc supposer que, après s’être enfuie dans les bois, Boucles d’Or a rencontré un conteur qui a gardé trace de son expérience. C’est grâce au récit de ce conteur, que la description de l’expérience de Boucle d’Or et les données sous-jacentes non seulement ne se sont pas perdues, mais ont été disséminées, partagées et finalement réutilisées, comme je viens de le faire. Le conteur/compteur, c’est le bibliothécaire.

    (1) Version d'Annelore Parot

    vendredi 15 mai 2015

    "Les Regrets" de Cédric Kahn ou l'amour au temps de l'hyperconnexion

    A quoi ressemblent une relation ou une rupture amoureuses à l'ère de l'hyperconnexion ? Le numérique, en tant qu'ensemble d'hyperliens ou d'objets connectés, permet-il de consolider l'union ou de conjurer la séparation? Telles sont les questions passionnantes posées par le film "Les Regrets" de Cédric Kahn (2009).





    Certes, dans le film, les protagonistes ne sont pas équipés de téléphones de dernière génération. Pas de smartphones, mais des téléphones filaires parfois antiques, ou de simples téléphones mobiles permettant tout au plus... de téléphoner et d'envoyer des SMS. Il n'en reste pas moins que les téléphones jouent un rôle tellement important dans l'action du film, qu'ils apparaissent comme la métonymie de nos relations à l'heure de l'hyperconnexion : la capacité que permettent les outils numériques de joindre et de garder contact avec n'importe qui à toute heure du jour ou de la nuit (même dans une chambre d'hôpital aux côtés d'une mère agonisante).

    Dès la scène de la rencontre, le téléphone fait son entrée. Quinze ans après leur rupture, lorsque Mathieu (Yvan Attal) revoit Maya (Valeria Bruni-Tedeschi) dans la rue, elle est absorbée dans une conversation téléphonique et ne le voit pas immédiatement. Scène fugitive qui pourrait illustrer l'idée souvent rebattue selon laquelle les technologies coupent leurs adeptes du contact avec la "vie réelle".

    Mais à l'inverse, d'autres événements montrent que le téléphone permet de créer de nouvelles connexions ou de maintenir des liens. C'est lui qui permet à Maya de renouer contact avec Mathieu retourné pour quelques jours dans la maison de sa mère. C'est lui qui permettra à Maya de joindre Mathieu au café dans lequel ils s'étaient donné rendez-vous, pour s'excuser de son retard et lui proposer de se retrouver chez elle, dans une ferme isolée. On apprendra plus tard qu'une situation assez semblable avait conduit à la séparation des amants, quinze ans plus tôt  : Mathieu avait attendu Maya deux heures dans un bar, et ne la voyant pas venir avait décidé que c'était la fin de leur relation. Le téléphone a donc permis d'éviter que ne se reproduise le trauma initial, de bloquer le retour du Même.

    La scène de séparation à la gare est l'une des plus belles scènes du film. Sur le quai, Maya fait ses adieux définitifs à Mathieu. Elle doit partir en Amérique du Sud avec sa fille et son compagnon. A peine le train a-t-il démarré, Mathieu envoie un SMS. "As-tu des regrets ?" demande-t-il. Maya répond par un autre SMS : "Je n'ai que des regrets". Les scènes de séparation sur un quai de gare sont devenues un cliché cinématographique. Mais l’immixtion du téléphone dans la scène permet de revisiter le motif éculé. Le téléphone permet de pointer la contradiction du sentiment amoureux : "nous nous séparons même si je n'ai que des regrets". Mais ce que nous dit aussi cette scène, c'est que le téléphone permet de maintenir un lien entre les amants au moment-même où la rupture est prononcée. C'est ce que les linguistes appellent une contradiction performative, c'est-à-dire "lorsqu'on agit d'une manière qui dément les propos que l'on tient au moment où l'on agit". Le téléphone permet également d'exprimer par des mots le "off" de la séparation. Les amants désunis échangent en temps réel sur la façon dont ils vivent les choses de l'intérieur. L'intime devient "extime", la séparation est en même temps une communion. 

    On pourrait encore multiplier les exemples. Ou bien chercher ailleurs des contre-exemples. D'une certaine manière, le film de Jérome Bonnell "Le temps de l'aventure" (2013) se présente comme le double inversé du film de Cédric Kahn. Pour Alix Aubane (Emmanuelle Devos), "l'aventure" commence lorsqu'elle oublie le chargeur de batterie de son téléphone dans sa chambre d'hôtel. Il lui reste les cabines téléphoniques pour contacter son compagnon, mais celui-ci est injoignable. C'est justement cette rupture des télécommunications qui ouvre dans la vie d'Alix la possibilité d'une nouvelle rencontre : celle d'un inconnu entraperçu dans un train (Doug, interprété par Gabriel Byrne). Le scénario du film de Bonnell semble fonctionner à partir d'une idée simple: l'amour trouve sa possibilité dans un lâcher prise avec le quotidien, quand les liens sont distendus. 

    Le film de Cédric Kahn explore la dimension inverse : que se passe-t-il lorsqu'il est toujours possible de garder contact avec l'autre, lorsque l'autre est toujours immédiatement "joignable"? Difficile de dire si, au final, le téléphone agit comme un adjuvant efficace pour prémunir les amants de la rupture, ou si, au contraire il catalyse la désagrégation perpétuelle du couple. Mathieu et Maya vont de ruptures en réconciliations, de réconciliations en ruptures, et la fin ouverte ne donne aucune réponse. A moins que le film de Cédric Kahn n'arrive à cette conclusion un peu amère: les moyens de communication permettraient, pour parler comme Guy Debord, de "réunir le séparé en tant que séparé"...

    Ironie de l'histoire: le chanteur Philippe Katerine, qui fait partie du casting du film, devait signer quelques années plus tard, en 2012, une chanson hilarante sur la vie contemporaine d'un "accro" du smartphone :



    dimanche 10 mai 2015

    Régression du partage

    [Traduction d'un billet publié le 7 mai par Kevin Smith, Directeur de l'Office of Copyright and Scholarly Communication de la Duke University sur le blog Scholarly Communications@Duke]




    "L'annonce faite par Elsevier à propos de sa nouvelle politique en matière de droit d'auteur, est un chef-d'oeuvre de double langage : tout en proclamant que la compagnie est en train de "lâcher la bride à la puissance du partage", elle immobilise en fait le partage en lui mettant une laisse, et même autant de laisses que possible. Il s'agit d'un recul de l'open access et il est important d'appeler les choses par leur nom.

    Pour rappeler le contexte, depuis 2004 Elsevier a autorisé les auteurs à auto-archiver sans délai la version finale acceptée de leur manuscrit dans un dépôt institutionnel. En 2012, Elsevier a tenté d'ajouter une mesure stupide et digne de tomber immédiatement dans les oubliettes, pour punir les institutions qui avaient adopté une politique de libre accès : l'éditeur a prétendu révoquer les droits d'auto-archivage des auteurs issus de ces établissements. Ce fut un effort vain pour saper les politiques d'open access. Clairement, Elsevier espérait que ses sanctions décourageraient l'adoption de telles politiques. Cela n'a pas été le cas. Les auteurs académiques ont continué à plébisciter la voie verte en tant que politique par défaut pour la diffusion du savoir. En seulement une semaine, à la fin du mois dernier, les Universités de Caroline du Nord, de Chapel Hill, de Penn State, et de Dartmouth ont toutes adopté de telles politiques.

    Pour tenter de recoller à la réalité, Elsevier a annoncé la semaine dernière qu'il faisait disparaître sa restriction punitive qui s'appliquait uniquement aux auteurs dont les institutions s'étaient montrées suffisamment téméraires pour soutenir l'open access. L'éditeur qualifie maintenant cette politique de «complexe» - elle était juste ambiguë et inapplicable - et affirme qu'il va «simplifier» les cas de figure pour les auteurs publiant chez Elsevier. En réalité, l'éditeur est tout simplement en train de punir n'importe quel auteur qui serait assez fou pour publier selon les termes de cette nouvelle licence.

    Deux principales caractéristiques de cette régression en termes d'ouverture doivent être soulignées. Premièrement, Elsevier impose un embargo d'au moins un an sur tout auto-archivage de la version finale auteur, et ces embargos peuvent aller jusqu'à quatre ans. Deuxièmement, lorsque la durée s'est finalement écoulée et qu'un auteur peut rendre son propre travail disponible par le biais d'un dépôt institutionnel, Elsevier dicte maintenant la façon dont cet accès doit être contrôlé, imposant la forme la plus restrictive des licences Creative Commons, la licence CC-BY-NC-ND pour tout dépôt en green open access.

    Ces embargos constituent la caractéristique principale de cette nouvelle politique, et ils sont à la fois compliqués et draconiens. Loin de rendre la vie plus simple pour les auteurs, ces derniers doivent maintenant naviguer à travers plusieurs pages web pour enfin trouver la liste des différentes périodes d'embargo. La liste elle-même fait 50 pages, puisque chaque revue a son propre embargo, et surtout, on constate à l'évidence un effort pour étendre de façon considérable la durée par défaut. De nombreuses revues américaines et européennes ont des embargos de 24, 36 et même 48 mois. Il y a beaucoup d'embargos de 12 mois, mais on peut supposer que ce délai est imposé parce que ces journaux sont déposés dans PubMed Central, où 12 mois est la durée maximale d'embargo autorisée. Maintenant cette durée maximale d'embargo s'impose également aux auteurs en tant qu'individus. Pour beaucoup d'autres revues, un embargo encore plus long, qui n'est absolument pas étayé par la preuve qu'il serait nécessaire pour maintenir la viabilité des journaux, est désormais la règle. Et il y a une poignée de journaux, tous d'Amérique Latine, d'Afrique et du Moyen-Orient, d'après ce que je peux voir, où aucun embargo n'est imposé; je me demande si c'est le résultat de règles spécifiques à chaque pays ou tout simplement un calcul cynique portant sur la fréquence réelle de l'auto-archivage de ces journaux.

    L'autre effort pour gérer au plus près l'auto-archivage par le biais de cette nouvelle politique, consiste à exiger que tous les auteurs qui font preuve de persévérance et qui souhaitent, après la période d'embargo, déposer leur manuscrit final dans un dépôt institutionnel, doivent apposer une clause de non-exploitation commerciale et de non-modification de leurs travaux dans la licence associée à chaque article. Ceci, bien sûr, limite encore davantage la réutilisabilité de ces articles pour un partage effectif et pour le progrès de la science. C'est un aspect supplémentaire qui montre que la nouvelle politique est exactement l'inverse de la façon dont Elsevier la présente ; c'est un recul par rapport au partage et un effort pour faire retourner à son point d'inertie le mouvement vers une science plus ouverte.

    La croissance rapide des politiques de libre accès dans les établissements américains et dans le monde suggère que de plus en plus de chercheurs veulent rendre leur travail aussi accessible que possible. Elsevier pousse fortement dans la direction opposée, en essayant de retarder et de limiter le partage du savoir autant qu'il le peut. Il semble clair qu'ils ont l'espoir de contrôler les conditions de ce partage, de façon, tout à la fois, à en limiter l'impact supposé sur leur modèle d'entreprise et, finalement, à le tourner si possible à leur profit. Ce dernier objectif peut être une plus grande menace pour l'open access que les détails des embargos et les licences. En tout cas, il est temps, je crois, de réfléchir à nouveau au boycott d'Elsevier, soutenu par de nombreux auteurs scientifiques il y a quelques années; avec cette nouvelle salve tirée contre les valeurs de la science ouverte, il est encore plus impossible d'imaginer un auteur un tant soit peu responsable décider de publier chez Elsevier."


    NB: pour prolonger la réflexion, voir aussi la réaction de Steven Harnad sur son blog.











    jeudi 7 mai 2015

    PNB-Adobe: consécration d'un "DRM mental" (mais pas que...)

    C'est le 6 mai qu'a au lieu la journée internationale contre les DRM. L'occasion de revenir sur ces mesures techniques apposées à un grand nombre de fichiers de livres numériques acquis par les bibliothèques. Mais l'idée de ce billet trouve également son origine dans des discussions récentes menées avec deux représentants commerciaux de sociétés spécialisées dans la revente d'e-books.

    Le premier interlocuteur m'a présenté son offre dans le détail. Si je devais la résumer en une formule, ce serait : "DRM land". Des DRM partout, omniprésents... Un vrai enfer sur terre pour les lecteurs, en fait :
    • Chaque livre correspond en moyenne à 400 "crédits"/an renouvelables​
    • 1 crédit = 1 usager 24 h sur 1 livre
    • Les livres sont proposés soit en streaming, soit en téléchargement, sachant qu’1 téléchargement = 1 crédit et que le pdf est chronodégradable
    • Les livres ne peuvent être lus qu'avec le logiciel Adobe Digital Edition​
    • Le lecteur doit se créer un compte personnel sur Adobe Digital Edition
    • Si les 400 crédits sont épuisés, le livre est rendu "indisponible" par le logiciel 
    • 1'usager ne peut s’authentifier avec son compte Adobe que sur 6 postes maximum​
    • Le pdf téléchargé (et chronodégradable) ne peut être lu que sur l’appareil de destination initiale, ce qui signifie que si le lecteur télécharge une première fois le livre emprunté depuis un poste de la bibliothèque, il l'a dans le baba : il ne pourra plus l'ouvrir depuis son poste à la maison
    A moitié assommé et suffoqué par l'avalanche de ces conditions plus limitatives les unes que les autres de la liberté du lecteur, j'ai demandé candidement quel était le pourquoi du comment. La réponse qui m'a été donnée semblait provenir d'un discours bien rôdé et se résumait à : "C'est pour sauver l'édition française; elle fait face à une crise économique et les DRM sont le moyen de l'endiguer".

    Gavin protests
    Gavin protests. Par Karen Rustad. Mis à disposition selon les termes de la licence CC-BY 2.0. Source: Flickr

    La discussion avec le second revendeur d'e-books a été plus brève mais tout aussi instructive. Il s'agit d'un revendeur qui est en phase de démarrage d'activité et c'est pourquoi son discours n'était pas bien assuré. A ma question inquiète et fiévreuse : "Rassurez-moi, vous êtes capable de fournir des e-books en accès illimité ​si possible sans DRM, hein ?", le représentant commercial m'a répondu: "La loi nous oblige à apposer des DRM". Là, j'ai eu quelques secondes de panique : avais-je manqué le vote d'une nouvelle loi passée en douce qui rend les DRM obligatoires ? La discussion se poursuit et finalement mon interlocuteur convient que l'apposition de DRM n'est pas imposée par la loi. Elle répondrait néanmoins à la demande de bon nombre d'éditeurs français.

    Naissance d'un "DRM mental"


    Que montrent ces deux discussions? Que, depuis quelques mois, paraît comme aller de soi l'assertion selon laquelle les DRM sont nécessaires pour sauver l'édition française. A en croire ce discours, un monde sans DRM n'est plus possible.

    Et si ce discours décomplexé apparaît au grand jour, c'est ce qu'on pourrait appeler "l'effet Valois". Le 8 décembre 2014, le Ministère de la Culture a signé et a fait signer par les bibliothèques de lecture publique, les représentants des associations professionnelles et des collectivités territoriales, une liste de 12 "Recommandations pour une diffusion du livre numérique par les bibliothèques publiques". Certes, les recommandations portent des réserves sur les mesures techniques de protection :

    7. Reconnaître que les systèmes de gestion des droits numériques sont légitimes pour réguler les usages des livres numériques en bibliothèque publique, mais qu’ils ne doivent pas rendre l’accès aux œuvres moins aisé. Les systèmes de gestion des droits numériques contribuent à la protection du droit d’auteur et permettent de gérer le service de prêt numérique.Pour autant, le recours à des systèmes de gestion de droits ne doit pas rendre totalement impossibles les usages autorisés par la loi pour les bibliothèques et leur public. La conception de systèmes de gestion et de protection des droits numériques permettant une interopérabilité maximale et un accès aux œuvres le plus aisé possible doit être encouragée et leur adoption privilégiée.Les mesures techniques de protection ne sont pas l’unique système de gestion et de protection des droits numériques. D’autres types de dispositifs que ceux qui sont communément utilisés aujourd’hui dans les offres aux collectivités peuvent être adoptés s’ils garantissent un service de qualité ou permettent de l’améliorer, dans le respect du droit d’auteur.
    Il n'en reste pas moins que l'esprit général des recommandations se résume au choix de privilégier la voie contractuelle au détriment de la voie légale en matière de prêt d'e-books en bibliothèque de lecture publique. L'Etat se garde bien de légiférer, ce qui laisse le champ libre aux acteurs les plus puissants du marché de l'édition pour imposer leurs conditions aux bibliothèques. Ce qu'on pourrait résumer de la façon suivante : "pour la fixation des prix et le choix d'apposer des DRM, c'est open bar..."

    Derrière les recommandations du Ministère se profile le déploiement du projet "Prêt Numérique en Bibliothèque" (PNB) porté par la société interprofessionnelle Dilicom et adossé techniquement aux DRM développés par la société Adobe. En gestation puis en expérimentation depuis 2012, PNB est financé par le Conseil National du Livre (CNL), dont la tutelle est le Ministère de la Culture. Bien que présenté comme la solution miracle pour le prêt de livres numériques en bibliothèques, le projet PNB appelle comme on va le voir un certain nombre de critiques sérieuses...

    En soutenant financièrement le projet PNB, puis en signant les 12 recommandations pour la diffusion du livre numérique, le Ministère de la Culture a conféré aux DRM une consécration non pas légale, mais quasi-légale (d'où la confusion de mon second interlocuteur). Il a contribué à la constitution de ce qu'on peut appeler avec @Calimaq un "DRM mental". Désormais, un imaginaire collectif s'est modelé autour de la conviction que les DRM ont toute leur place en bibliothèque... puisque le principe même en a été validé par la rue de Valois.

    Est-ce un hasard ? Dans la communication officielle autour de PNB, il n'est jamais fait mention des DRM fournis par la société Adobe. Cela s'explique sans doute d'abord par la volonté d'effacer au maximum la mention des intermédiaires techniques, afin de donner au projet l'aspect plus ou moins neutre d'un programme national déconnecté de la sphère privée. Cela s'explique aussi du fait que la solution technique Adobe Digital Edition a, comme on le verra, plutôt mauvaise presse dans d'autres pays. Pour la suite du propos, dans un souci de clarté, nous parlerons non pas du projet "PNB", mais du projet "PNB-Adobe".

    Les raisons juridiques et éthiques de refuser les DRM Adobe


    Comme l'a bien montré le journaliste Nicolas Gary, en rajoutant une couche de droits sur les contenus numériques, la suite logicielle Adobe Digital Edition rend ces contenus illisibles depuis le système d'exploitation Linux. Les DRM d'Adobe ont donc pour effet de convertir les fichiers EPUB en un format propriétaire.
    Le constat de fait se heurte à la lecture à la lettre du texte le plus récent encadrant le contrat d'édition. L'Arrêté du 10 décembre 2014 pris en application de l'article L. 132-17-8 du code de la propriété intellectuelle et portant extension de l'accord du 1er décembre 2014 entre le Conseil permanent des écrivains et le Syndicat national de l'édition sur le contrat d'édition dans le secteur du livre précise les conditions de l'exploitation permanente et suivie de l'édition imprimée et numérique de l'œuvre. Pour l'édition numérique, l'éditeur est tenu de :
    • La rendre accessible dans un format technique exploitable en tenant compte des formats usuels du marché et de leur évolution, et dans au moins un format non propriétaire.
    • La rendre accessible à la vente, dans un format numérique non propriétaire, sur un ou plusieurs sites en ligne, selon le modèle commercial en vigueur dans le secteur éditorial considéré.
    Apposer des DRM Adobe sur un livre numérique revient à exclure la possibilité de proposer ce contenu "dans un format non propriétaire". Les DRM d'Adobe sont donc non conformes à la législation la plus récente.

    Et c'est pas fini...

    Sauf dans le cas où l'on est Ministre de l'Intérieur et que l'on fait des déclarations ahurissantes pour dire que la vie privée n'est pas une liberté fondamentale, (le ministre devrait refaire des études de droit : aucun étudiant de droit de fin de première année de licence n'oserait proférer une pareille ineptie...), il est du devoir de tout citoyen de s'inquiéter quand une mesure technique est de nature à porter atteinte à la vie privée. Or un scandale récent a démontré que le DRM d'Adobe est parfaitement invasif dans ce domaine: le DRM permet la collecte non seulement de données sur le livre que le lecteur est en train de lire, mais sur l'ensemble des livres stockés sur son terminal. Une collecte d'autant plus inquiétante que la firme Adobe a été victime par le passé d'attaques informatiques visant notamment à subtiliser les données personnelles des lecteurs.

    Et c'est pas fini...


    Les raisons pratiques de refuser PNB-Adobe


    La firme américaine Adobe est familière des pratiques qui consistent à procéder à des mises à jour inopinées de son système logiciel sans se préoccuper des problèmes de compatibilité pour ses clients, éditeurs ou lecteurs. Alertées par leurs lecteurs, les éditions Gallimard, directement touchées par une mise à jour survenue en janvier 2014, n'ont pas eu de mots assez durs pour qualifier ces "pratiques autocratiques déplorables".

    Non seulement les mises à jour auxquelles Adobe procède sans crier gare menacent de rendre les e-books illisibles du jour au lendemain, mais, même dans le cas général où aucun problème technique ne bloque l'accès du lecteur aux fichiers acquis, le maniement du logiciel Adobe Digital Edition s'avère complexe. D'après une étude récente menée auprès d'usagers par les experts de la société "tea" (the ebook alternative):
    Le constat est sans appel : aucun utilisateur ne réussira à créer son compte Adobe sans aide. Voici les statistiques liées aux manipulations réalisées pendant l’étude et à l’utilisation d’un compte Adobe :

    26% ne comprennent pas la différence avec le compte libraire ;

    22% pensent qu’il s’agit d’une sorte de Reader ;

    30% ne comprennent pas et ne font rien ;

    18% font ce qui est nécessaire sans comprendre (et parviennent à créer leur compte avec aide)

    4% connaissent déjà (et parviennent à créer leur compte avec aide)

    0% arrivent à créer leur compte ADOBE sans aide


    Et c'est pas fini...

    Les raisons économiques de refuser PNB - Adobe


    Il suffit de se reporter à l'analyse rendue par RéseauCAREL en février 2015 pour se convaincre que le modèle financier promet de mauvaises surprises pour les bibliothèques :

    La péremption des jetons [gérée par le DRM Adobe Digital Edition] joue ici aussi un très mauvais rôle, ce critère augmentant encore le surcoût du numérique par rapport au titre papier puisque pour beaucoup de titres, ce ne sera pas par le nombre de jetons du lot qu’il faudra diviser le prix du titre pour obtenir le coût unitaire d’un prêt ; un titre prêtable 30 fois par exemple pourrait très bien, à cause de cette contrainte temporelle, n’être dans les faits prêté que 10 ou 15 fois dans le temps imparti par la licence et donc le coût réel du prêt unitaire pour ce titre sera encore multiplié par 2 ou 3 !

    Et c'est pas fini...

    Le collectif SavoirsCom1 a récemment pris sa calculette et a fait les comptes: si les bibliothèques desservant des villes de 40 000 à 100 000 habitants n'achetaient en version numérique que les nouveautés qu'elles achètent déjà en format papier, il leur en coûterait entre 490 000 € et près de 1,3 millions d'€. Voilà une nouvelle qui tombe mal au moment où l'Etat baisse considérablement ses dotations à destination des collectivités territoriales...



    Un monde sans DRM est possible...


    Pour finir, rappelons qu'un monde sans DRM est possible. Sur son blog, Hervé Bienvault dénombre au 15 avril 2015, 166 éditeurs français sans DRM, auxquels il faut ajouter 80 éditeurs pure players.
    En Allemagne, le Börsenverein, l'équivalent de ce qui résulterait de la fusion en France de notre Syndicat National des Editeurs et de notre Syndicat de la Librairie Française, a indiqué en février 2015 son souhait d'abandon des DRM. Plus récemment encore, DuMont, l'une des plus grandes maisons d'édition indépendantes allemandes, a annoncé sa décision d'abandonner les DRM à l'automne 2015 et de les remplacer par des watermarks, tatoutages numériques qui ne présentent pas pour les lecteurs les mêmes difficultés techniques que les DRM.
    Autre possibilité : le rapport remis à la Commission européenne par la députée Julia Reda propose de rendre obligatoire la communication du code source ou des spécifications d’interopérabilité des DRM, de façon à offrir la possibilité de vérifier que les DRM ne sont pas un cheval de Troie permettant d'entrer dans l'intimité du lecteur, et qu'ils ne bloquent pas l'utilisation du contenu selon le terminal utilisé.