Note du traducteur : dans un souci de précision, quand il est fait mention de téléchargements, il s’agit dans ce cas d’« uploads », donc lorsqu’un utilisateur sauvegarde un contenu sur une plateforme, et non pas de celle-ci sur son ordinateur. Cette nuance est importante dans le contexte de cet article.

Depuis que la Commission européenne a présenté sa très controversée proposition de forcer les plateformes Internet à utiliser des machines à censurer, le monde du droit d’auteur et des droits voisins attend avec impatience la position du Parlement européen. Aujourd’hui, la personne en charge de piloter la réforme des droits d’auteur et droits voisins au Parlement, Axel Voss, a finalement publié le texte qu’il veut que le Parlement avance.

C’est un feu vert pour les machines à censurer : M. Voss a gardé la proposition écrite à l’origine par son collègue allemand de parti, l’ancien commissaire au numérique Günther Oettinger, presque intégralement intact.

En faisant cela, il rejette les appels de tout le spectre politique pour arrêter les machines à censurer. Il ignore un an et demi d’intenses débats académiques et politiques pointant les nombreux défauts flagrants de la proposition. Il rejette le travail de plusieurs comités du Parlement qui se sont opposés aux filtrage des téléchargements, et son prédécesseur et collègue de parti, la députée Comodini qui avait correctement identifié les problèmes il y a presque un an. Il balaye les préoccupations concernant la légalité de la proposition que plusieurs gouvernements nationaux ont exprimées au Conseil. Et il s’oppose à l’accord de coalition du nouveau gouvernement allemand récemment publié – coalition comportant son propre parti, l’Union Chrétienne Démocrate – où les obligations de filtrages sont rejetées car disproportionnées.

Photo © European Union (utilisé avec autorisation)

[Lire la proposition de compromis d’Axel Voss PDF]

Cela n’a de compromis que le nom. La proposition de M. Voss contient tous les éléments problématiques de l’idée originale des machines à censurer, et en ajoute de nouvelles. Voici la proposition en détails :

1. Obligation de licenciement

Ce que dit la proposition : Toutes les applications et tous les sites Internet où les utilisateurs peuvent mettre en ligne et publier du contenu multimédia doivent avoir une licence pour tout le contenu (paragraphe-1a). Ces plateformes sont considérées comme « communiquant au public » tous ces téléchargements, ce qui signifie que celles-ci sont directement responsables des infractions au droit d’auteur et droits voisins commises par leurs utilisateurs, comme si c’était leurs propres employés qui mettaient en ligne ce contenu.

C’est un ajout étrange à la proposition de la Commission, qui est impossible à mettre en œuvre dans la pratique : De qui exactement les plateformes sont-elles supposées obtenir des licences ? Alors qu’il existe quelques sociétés de collecte qui représente les créateurs professionnels dans certains domaines comme la musique ou les films, qui pourraient vendre des licences englobant le travail de beaucoup de créateurs, d’autres secteurs n’ont aucune société de collecte.

Imaginez une plateforme dédiée à l’hébergement de logiciels, comme GitHub. Il n’y a pas de société de collecte pour les développeurs et personne n’a jamais eu le besoin d’en fonder une. Mais alors, d’où GitHub, qui héberge et donne accès à des logiciels sous droit d’auteur mis en ligne par ses utilisateurs, pourrait obtenir une licence ? Avoir des négociations de licence avec tous les développeurs, parce qu’un jour quelqu’un pourrait mettre en ligne leur logiciel sur GitHub sans autorisation ? Si la plateforme n’obtient pas de licence pour tous les contenus soumis au droit d’auteur et droits voisins possiblement mis en ligne dans le futur, ils seront alors responsables dès que quelqu’un le mettra en ligne. C’est un moyen fiable de tuer le modèle économique de la plateforme en Europe.

Ces licences impossibles à obtenir ne concernent par ailleurs que les utilisations non commerciales : Si la plateforme acquiert une licence comme prévu, alors les utilisateurs qui ont mis en ligne le contenu ne seront pas responsables qu’à condition que le téléchargement soit à visée non commerciale. Les publications commerciales, comme les entreprises, peuvent toujours être poursuivis par les ayants droit sur les réseaux sociaux.

2. La machine à censurer est ici pour rester

Ce que dit la proposition : Toutes les plateformes hébergeant et donnant accès publiquement à des « quantités significatives » de contenu mis en ligne par les utilisateurs doivent empêcher des contenus soumis au droit d’auteur identifiés par les ayants droit d’être mis en ligne.

Bien entendu, il n’y a que deux moyens de faire ça : a) embaucher une armée de singes entraînés pour regarder tous les contenus mis en ligne par les utilisateurs et les comparer manuellement aux informations des ayants droit ou b) installer des filtres aux téléchargement. L’article qui crée cette obligation ne mentionne plus explicitement les technologies de reconnaissance de contenu, mais sont toujours mentionnés dans d’autres parties du texte, ce qui rend clair que les filtres sont ce à quoi Voss pense.

Il n’y a pas de définition sur ce que quantité « significative » signifie. La Commission a été largement critiquée pour requérir des machines à censurer sur les plateformes avec des « grandes quantités » de contenu, suivant l’idée erronée que seules les grandes entreprises avec des revenus suffisant hébergent des grandes quantités de contenu, ignorant complètement la diversité de plateformes populaires spécialisées. Personne ne doute que Wikipedia, DevianArt, Bandcamp ou fotocommunity possèdent de « grandes quantités » (par millions) de de contenus, mais cela ne fait pas d’eux de grandes ou rentables entreprises. En fait, Wikipedia, l’une des plateformes les plus populaires, n’est pas géré par une entreprise à but lucratif.

Comment remplacer « grand » par le potentiellement plus large « significatif » est censé améliorer quoi que ce soit reste flou.

3. Un tout petit problème avec les droits fondamentaux

L’unique indication que M. Voss a porté attention à la critique du public est qu’il admet qu’il pourrait y avoir un petit problème avec les droits fondamentaux. En effet, la Cour de justice européenne a précédemment jugé qu’une obligation de filtrer tout ce qui est mis en ligne par les utilisateurs viole le droit fondamental à la vie privée, à la liberté d’expression, à la liberté d’information et à la liberté de gérer une entreprise. En choisissant l’un de ces droits, apparemment aléatoirement, il indique dans son projet que les mesures de filtrage ne doivent comporter aucun traitement de données à caractère personnel, afin de protéger la vie privée des utilisateurs. Aussi admirable que cela puisse être, elle est aussi en contradiction directe avec ce qui vient ensuite :

Parce que les filtres vont invariablement supprimer du contenu qui est légal, par exemple sous une exception au droit d’auteur et droits voisins, les utilisateurs sont censés avoir accès à un mécanisme de recours pour blocage excessif. Mais comment exactement une plateforme peut-elle offrir ce recours à l’utilisateur si elle n’est pas autorisée à utiliser des données personnelles ? Enregistrer quels contenus d’utilisateur ont été victime des filtres requiert déjà une utilisation des données personnelles. Comment un utilisateur peut-il se plaindre d’une suppression erronée si la plateforme n’est pas autorisée à enregistrer quels contenus ont été supprimés.

Ça devient mieux : Devinez qui doit décider de ce qui advient de la plainte de l’utilisateur à propos d’une suppression erronée ? Vous avez deviné : L’ayant droit qui a demandé à bloquer le contenu. A coup sûr il feront un arbitre impartial.

Au moins, les utilisateurs sont censés pouvoir aller au tribunal si le mécanisme de recours échoue. Cependant, cela être inefficace, car les exceptions au droit d’auteur et droits voisins ne constituent pas des droits légaux contre les ayants droit, donc une cour pourrait décider de ne pas remettre en ligne des contenus supprimés, même s’ils ont été mis en ligne sous une exception légale au droit d’auteur et droits voisins.

Ce dont les utilisateurs ont besoin, c’est d’une règle juridique claire selon laquelle les exceptions au droit d’auteur et droits voisins constituent les droits des utilisateurs – exactement comme l’avait suggéré la précédente rapporteuse sur le droit d’auteur, Therese Comodini.

4. Une surveillance généralisée très spécifique

Lorsque la Cour de justice a rendu illégal les obligations de filtrage, elle a également souligné que la loi de l’UE interdit toute loi qui force les hébergeurs à faire de la « surveillance généralisée », vérifiant tous les fichiers mis en ligne par les utilisateurs depuis toujours. Dans une tournure résolument orwellienne, Voss postule que vérifier tous les contenus d’utilisateurs pour savoir s’ils sont identiques au travail protégé par un droit d’auteur particulier, ce n’est pas une surveillance générale mais spécifique. Seule la « surveillance abstraite » devrait être interdite, ce qui signifie probablement regarder des fichiers mis en ligne de manière aléatoire sans rien chercher en particulier.

Cet argument est identique à celui utilisé par la Commission européenne devant la Cour de justice lorsqu’elle défendait le filtrage des téléchargements – et a perdu. (Le paragraphe 58 de cette contribution de la Commission à la Cour de justice européenne pour l’affaire Scarlet vs. SABAM contient la même interprétation erronée sur ce que la surveillance généralisée signifie en pratique).

5. Quelques exceptions

Dans une dernière tentative pour se racheter, Voss mentionne dans un argumentaire que l’obligation de filtrage ne devrait pas s’appliquer aux services d’accès à Internet, aux sites de e-commerce comme eBay, sites de recherche où les ayants droit déposent généralement eux-mêmes leur propre travail comme arXiv, ou encore les services cloud où le contenu n’est pas accessible publiquement, comme Dropbox. Cette clarification est la bienvenue, bien qu’elle ait un pouvoir légal limité, car les argumentaires ne sont pas juridiquement contraignants et ne sont supposés donner que des indications aux états membre pour la transcription de la proposition dans leur propre droit national. Mais plus important : cette exception ne concerne que l’obligation de filtrage, pas l’obligation de licence.

Ces plateformes devraient toujours acquérir des licences auprès des ayants droit lorsque le contenu mis en ligne par l’utilisateur est publiquement accessible, parce qu’elles seraient toujours considérées comme communiquant au public. Mais comment ces plateformes pourraient-elles se protéger de poursuites judiciaires des ayants droit si elles ne peuvent pas obtenir de licence pour tout contenu qui pourrait être mis en ligne ? Elles devront tout de même recourir à un filtre.

6. Des parties critiques restent inchangées

De grande parties des éléments les plus critiqués de la proposition de la Commission sont restées inchangées par le rapporteur Voss, tel que l’infâme argumentaire 38 (2), où la Commission déforme le régime de responsabilité limité de la directive e-commerce, stipulant essentiellement que toute plateforme qui utilise un algorithme pour trier les œuvres mises en ligne par ordre alphabétique ou fournit une fonction de recherche doit être considérée comme « active » et donc responsable des actions de ses utilisateurs. Le seul changement que M. Voss a fait à cette section est de nature cosmétique. S’il a corrigé quelques erreurs grammaticales dans tout le texte de la Commission, cela reste la seule chose qu’il a corrigée.

* * *

Il n’est pas trop tard pour arrêter les machines à censurer !

Heureusement, Axel Voss ne peut pas décider de la position du Parlement à lui seul. Il va devoir s’assurer une majorité dans le comité des affaires juridiques (JURI), qui votera fin mars ou en avril. Deux autres comités se sont déjà fortement opposés aux obligations de filtrage, et plusieurs membres de JURI ont déposé des amendements pour supprimer ou améliorer considérablement l’Article.

Il est maintenant temps d’appeler vos députés à rejeter la proposition de M. Voss! Vous pouvez utiliser des outils comme SaveTheMeme.net fait par une ONG des droits numériques Bits of Freedom ou ChangeCopyright.org de Mozilla pour appeler gratuitement les membres du comité des affaires juridiques. Ou regardez les députés européens de votre pays et envoyez-leur un mail.

Mais le plus important, parlez-en! Demandez aux médias locaux de parler de cette loi. Internet tel que nous le connaissons est en danger.

Dans les limites permises par la loi, l'auteur a levé tout droit d'auteur et droits voisins sur ce travail.

Comments closed.