Cabinet d’avocats franco-belge, moderne et humain,
au service de la création et de l’innovation

9 pôles d’activités dédiés au
droit de la création et de l’innovation

Nos activités scientifiques & académiques

Faisons connaissance !

Un procès en vue ?
Lisez le guide destiné à mieux vous préparer

Le portail du droit des technologies, depuis 1997
Powered by

Un site pour tout savoir sur le RGPD
Powered by

Arrêt « Glawischnig-Piesczek »: la Cour de justice met fin à la passivité quasi-systématique des hébergeurs

Publié le par

Le juge peut étendre une injonction de retrait adressée à un hébergeur aux informations dont le contenu est identique à celui déclaré illicite, quel que soit l’émetteur. Le juge peut étendre une injonction de retrait adressée à un hébergeur aux informations dont le contenu est similaire en substance à celui déclaré illicite, pour autant que l’hébergeur ne soit pas amené à procéder à une appréciation autonome dudit contenu. La question de savoir si cette faculté laissée au juge est limitée à l’hébergeur ou peut être mise en œuvre à l’égard des autres intermédiaires, n’a pas de réponse certaine

« Vider l’océan avec un seau ! ». Telle est l’image démotivante qui vient à l’esprit de quiconque tente de nettoyer les réseaux sociaux d’un contenu diffamatoire. Le même désespoir saisit celui qui exerce son droit à l’oubli à l’égard d’un moteur de recherche et se retrouve contraint d’introduire des dizaines de demandes ultérieures pour signaler les nouveaux liens à déréférencer par identité de motif.

C’est cette problématique qui fut soumise à la Cour de justice par l’Oberster Gerichtshof (Cour suprême autrichienne). Une députée avait obtenu en référé une injonction à l’encontre de Facebook, lui enjoignant de cesser la publication et/ou la diffusion du contenu illicite identifié, mais également des messages contenant les mêmes allégations ou des allégations de « contenu équivalent ». Le juge d’appel confirme, s’agissant des allégations identiques, mais il infirme en ce qui concerne les allégations de contenu équivalent : à l’égard de celles-ci, Facebook ne doit agir que si ces contenus sont portés à sa connaissance par la requérante au principal, par des tiers ou d’une autre manière. Avant de trancher en dernière instance, l’Oberster Gerichtshof sollicite la CJUE sur l’interprétation à donner à l’article 15 de la directive sur le commerce électronique. L’arrêt, rendu par la 3ème chambre le 3 octobre 2019, présente le plus grand intérêt.

La section 4 de la directive sur le commerce électronique

Les articles 12 à 15 forment ensemble la section 4 (intitulée « responsabilité des prestataires intermédiaires ») de la directive sur le commerce électronique. Les articles 12 à 14 contiennent les règles matérielles relatives à la responsabilité de l’intermédiaire dans trois cas spécifiques : le simple transport (art. 12), le stockage dit caching (art. 13) et l’hébergement (art. 14), tandis que l’article 15 précise qu’aucun des trois ne peut se voir imposer d’obligation générale de surveillance.

Dans la mesure où il s’agit d’activités différentes, les conditions prévues par chacun des articles diffèrent. Dans son arrêt Mc Fadden, la Cour confirme que « (…) les dérogations de responsabilité prévues à ces dispositions sont soumises à des conditions d’application différentes en fonction du type d’activités concerné ». En ce qui concerne en particulier les hébergeurs (art. 14), l’absence de responsabilité n’est acquise qu’à condition que :

  1. le prestataire n’ait pas effectivement connaissance de l’activité ou de l’information illicites et, en ce qui concerne une demande en dommages et intérêts, n’ait pas connaissance de faits ou de circonstances selon lesquels l’activité ou l’information illicite est apparente ; ou
  2. le prestataire, dès le moment où il a de telles connaissances, agisse promptement pour retirer les informations ou rendre l’accès à celles-ci impossible.

La spécificité de chaque activité explique que les exceptions diffèrent également : à l’égard du simple transport et du caching, les articles 12 et 13 n’affectent pas la possibilité, pour un État membre, « d’exiger du prestataire qu’il mette un terme à une violation ou qu’il prévienne une violation », tandis qu’à l’égard de l’hébergeur, l’article 14 n’affecte pas la possibilité « d’exiger du prestataire qu’il mette un terme à une violation ou qu’il prévienne une violation et n’affecte pas non plus la possibilité, pour les États membres, d’instaurer des procédures régissant le retrait de ces informations ou les actions pour en rendre l’accès impossible ».

Au-delà de ces divergences, les articles 12 à 14 présentent plusieurs éléments communs :

  1. leur objectif. Chacun crée un régime de (non-)responsabilité particulièrement favorable au profit d’un intermédiaire spécifique ;
  2. le critère de neutralité. Dans l’arrêt Google France, se référant au considérant 42, la Cour a jugé que les dérogations ne couvrent que l’activité du prestataire qui revêt un caractère « purement technique, automatique et passif », impliquant que ledit prestataire « n’a pas la connaissance ni le contrôle des informations transmises ou stockées » (point 113), ce qu’elle décrit aussi comme un comportement « neutre » (point 114). Elle a répété sa position dans l’affaire L’Oréal, au sujet des places de marché (eBay en l’occurrence). C’est la même logique qui lui a permis, dans l’arrêt Papasavvas, d’exclure de la notion d’hébergeur, la société éditrice de presse à l’égard de son site Web « dès lors qu’elle a connaissance des informations publiées et exerce un contrôle sur celles-ci ».
  3. l’absence d’obligation générale de surveillance. L’article 15 vise les trois intermédiaires susmentionnés, et interdit aux États membres de leur imposer une « obligation générale de surveiller les informations qu’ils transmettent ou stockent, ou une obligation générale de rechercher activement des faits ou des circonstances révélant des activités illicites »
  4. la possibilité de se voir imposer un devoir de collaboration. Le même article 15 permet toutefois aux États membres de mettre à charge de ces trois intermédiaires « l’obligation d’informer promptement les autorités publiques compétentes d’activités illicites alléguées qu’exerceraient les destinataires de leurs services ou d’informations illicites alléguées que ces derniers fourniraient ou de communiquer aux autorités compétentes, à leur demande, les informations permettant d’identifier les destinataires de leurs services avec lesquels ils ont conclu un accord d’hébergement ».

Une interprétation pragmatique de la surveillance

L’arrêt commenté est le premier que rend la Cour au sujet de l’article 15. Il était d’autant plus attendu. En substance, la question consistait à déterminer la portée d’une injonction adressée à un hébergeur sur pied de l’article 15, sur le plan matériel (l’injonction se limite-t-elle au message illicite ou aux autres contenus identiques ou équivalents ?), personnel (l’injonction peut-elle viser d’autres personnes que l’auteur du message d’origine ?) et territorial (l’injonction peut-elle être ordonnée au nouveau mondial ?

Sur la base des principes rappelés ci-dessus, trois approches sont possibles :

  1. une première doctrine, qui suggère une attitude purement passive des intermédiaires au motif que (1) l’intermédiaire n’est pas le juge de l’illicéité ; (2) le critère de neutralité systématiquement relevé par la Cour s’oppose à toute immixtion dans la gestion du contenu ; (3) l’article 15, qui interdit d’imposer une obligation générale de surveillance, s’oppose à l’idée d’attribuer au prestataire un objectif à atteindre (tel que la suppression d’un message et de ses variantes non-identifiées au moment de l’émission de l’injonction).
  2. une seconde doctrine, proactive, selon laquelle (1) dès l’instant où une décision judiciaire (même provisoire) existe, l’illicéité ne se discute plus ; (2) le critère de neutralité ne s’applique que pour définir l’intermédiaire ratione personae et non pour juger de l’opportunité de sa réaction une fois qu’il a connaissance d’un problème ; (3) seule une obligation générale de surveillance est interdite, ce qui ne doit pas empêcher des mesures spécifiques.
  3. une troisième doctrine, à mi-chemin, selon laquelle on peut traiter différemment les intermédiaires au sens des articles 12 et 13 d’une part, et l’hébergeur au sens de l’article 14 d’autre part.

En substance, dans l’arrêt commenté, la Cour a rejeté la première approche. Pour le reste, il subsiste un doute.

La Cour commence par trancher la question de l’obligation « générale » de surveillance : renvoyant au considérant 47 de la directive, elle souligne qu’une telle interdiction ne concerne pas les obligations de surveillance « applicables à un cas spécifique » (point 34), ce qui peut être le cas d’une information précise, stockée par l’hébergeur concerné à la demande d’un certain utilisateur de son réseau social, dont le contenu a été analysé et apprécié par une juridiction compétente de l’État membre qui, à l’issue de son appréciation, l’a déclarée illicite (point 35).

Elle s’attache ensuite à analyser la compatibilité de la théorie du « cas spécifique » aux limites matérielle et personnelle extensives suggérées par la juridiction de renvoi. Vu la nature des réseaux sociaux et les outils de partage et de rediffusion qui les caractérisent, la Cour estime qu’il est légitime que la juridiction nationale puisse étendre l’injonction aux informations dont le contenu est identique à celui déclaré illicite, quel que soit l’émetteur. Il en découle une sorte de droit de suite sur le contenu identique partagé ou repris par des tiers : la suppression du premier entraine la suppression du deuxième, et ainsi de suite pour tout contenu identique.

Le plus innovant est toutefois à venir. En effet, la Cour avait été saisie d’une question spécifique sur les informations de contenu équivalent, c’est-à-dire « des informations véhiculant un message dont le contenu reste, en substance, inchangé et, dès lors, diverge très peu de celui ayant donné lieu au constat d’illicéité » (point 39). La Cour n’imagine pas qu’il soit possible d’assurer la finalité de l’injonction (faire cesser un acte illicite et en prévenir la réitération ainsi que toute nouvelle atteinte aux intérêts concernés), si ses effets étaient limités aux contenus identiques. Elle suggère de s’attacher au contenu du message plutôt qu’aux mots ou leur combinaison, sous peine de conduire la personne concernée à devoir multiplier les procédures aux fins d’obtenir la cessation des agissements dont elle est victime (point 41). Il n’a pas échappé à la Cour que la mise en œuvre de son arrêt n’ira pas sans susciter de nombreuses difficultés. Pour elle, la réponse est dans la qualité de la rédaction de l’injonction : il importe, dit-elle, que « les informations équivalentes (…) comportent des éléments spécifiques dûment identifiés par l’auteur de l’injonction, tels que le nom de la personne concernée par la violation constatée précédemment, les circonstances dans lesquelles cette violation a été constatée ainsi qu’un contenu équivalent à celui qui a été déclaré illicite ». On comprend à la lecture de l’arrêt que la frontière est franchie dès l’instant où « l’hébergeur concerné [doit] procéder à une appréciation autonome dudit contenu » (point 45).

Des doutes malgré tout

L’arrêt va changer du tout au tout la situation des réseaux sociaux. Étant donné la rédaction du dispositif, l’arrêt semble devoir s’appliquer à tous les hébergeurs (et pas uniquement aux réseaux sociaux). Il sera désormais possible, pour autant que l’injonction soit formulée avec soin et précision, d’agir une fois pour toute afin d’obtenir l’arrêt effectif de la (re)diffusion et du partage de contenus illicites.

La Commission européenne se montre toutefois prudente. Ainsi, dans sa réponse du 22 novembre 2019 au projet de loi français sur les discours haineux, elle indique que l’arrêt commenté « concernait un élément spécifique d’un contenu diffamatoire qui avait été jugé illicite par un tribunal national. L’obligation du fournisseur de service d’empêcher la rediffusion d’un tel contenu faisait également suite à une injonction délivrée par ce tribunal. (…) ». Elle constate que le projet de loi notifié « intervient dans un contexte différent et ne respecte pas les conditions susmentionnées » et craint qu’en conséquence « les plateformes en ligne seraient en pratique contraintes d’appliquer un filtrage automatique et général de tout leur contenu, ce qui serait incompatible [avec la directive] ».

Vu la fréquence des astreintes, on peut imaginer un nombre important de recours car l’expérience montre que malgré le plus grand soin apporté à la rédaction de l’injonction, le diable se cache dans les détails: un smiley souriant accolé à un message dénigrant suffit-il à en faire un trait d’humour ? Un conditionnel qui remplace la conjugaison initiale permet-il de transformer une affirmation en question ? Un mot ajouté (« incroyable », par exemple) indique-t-il à suffisance une prise de distance ? Ces exemples tirés de la pratique montrent la difficulté de l’appréciation.

Plus délicate encore est la délimitation de la portée de l’arrêt, au-delà du cas de figure des hébergeurs.

La Cour était saisie d’une demande d’interprétation de l’article 15 qui s’applique, on l’a vu, à tous les intermédiaires visés aux articles 12 à 14. Faut-il en conclure que l’arrêt s’applique pareillement à tous ces intermédiaires ? Ou à l’inverse, l’article 15 a-t-il une portée à géométrie variable en fonction du type d’intermédiaire visé ?

Le doute est permis en raison du contexte et de la motivation. Au niveau du contexte, la Cour était saisie d’une demande d’interprétation de l’article 15 appliqué à un hébergeur, et sa réponse reprend cette précision. Au niveau de la motivation, on ne peut que souligner : (1) les nombreux renvois à l’article 14 ; (2) la question du « cas spécifique » et de la façon dont il est libellé, qu’il est malaisé de transposer à un fournisseur d’accès ou de caching ; (3) l’argument lié à l’effet utile de l‘injonction, que la Cour analyse sous le prisme d’un réseau social dont on sait qu’il présente de nombreuses spécificités non-transposables ; (4) le problème du contenu équivalent, qui peut être lu et compris quand il s’agit d’une diffamation (cas au principal, fréquent vis-à-vis des hébergeurs), mais qui prend souvent une forme différente pour ce qui concerne les autres intermédiaires confrontés à une demande de filtrage de fichiers envoyés et reçus ; (5) le problème que pose le principe de neutralité, surtout lorsqu’il est appliqué aux contenus équivalents. La Cour préserve le principe en soulignant que l’injonction ne peut pas amener l’hébergeur concerné à « procéder à une appréciation autonome dudit contenu », mais cette limite risque d’être plus difficile à manipuler par un fournisseur d’accès amené à filtrer des fichiers.

À cela s’ajoute un problème de texte : seul l’article 14 permet aux États membres « d’exiger du prestataire qu’il mette un terme à une violation ou qu’il prévienne une violation » et « d’instaurer des procédures régissant le retrait de ces informations ou les actions pour en rendre l’accès impossible ». Les articles 12 et 13 ne leur permettent que « d’exiger du prestataire qu’il mette un terme à une violation ou qu’il prévienne une violation », ce qui semble aller moins loin.

Par ailleurs, même si ce n’est pas exprimé comme tel, les articles 12 et 13 visent des intermédiaires qui participent à la transmission dynamique de l’information, là où l’article 14 s’applique à un prestataire qui dispose, à un moment donné, de l’information litigieuse sur des serveurs qu’il contrôle. Au demeurant, les considérants 43 à 45 traitent ensemble des articles 12 à 13, tandis que l’hébergeur trouve dans le considérant 46 une explication qui lui est propre, ce qui semble conforter cette subdivision.

En définitive, la portée de l’arrêt commenté dépend pour beaucoup de l’influence qu’il aura, dans le futur, sur la jurisprudence de la Cour en matière de filtrage appliqué aux intermédiaires visés aux articles 12 et 13. Sans entrer dans les détails, signalons que dans l’arrêt Scarlet Extended, la Cour a jugé que les dispositions pertinentes des directives 2001/29 et 2000/31, eu égard aux droits fondamentaux applicables, s’opposent à une injonction adressée à un fournisseur d’accès à Internet de mettre en place un système de filtrage, s’appliquant à toutes les communications électroniques, à l’égard de toute sa clientèle, à titre préventif, à ses frais exclusifs et sans limitation dans le temps. Dans l’arrêt SABAM, elle a jugé que lesdites dispositions du droit de l’Union s’opposent à une injonction analogue, adressée à un prestataire de services d’hébergement. Dans l’arrêt UPC Telekabel Wien, la Cour a jugé que ces dispositions ne s’opposent pas, sous certaines conditions, à une mesure qui enjoint à un fournisseur d’accès à Internet de bloquer l’accès des utilisateurs à un site Internet spécifique.

L’arrêt commenté marque-t-il le début d’un processus de responsabilisation accrue de tous les intermédiaires ? Il est trop tôt pour le dire, mais il serait dommage de ne pas finir cette note en signalant au lecteur que la Cour n’a pas rendu son arrêt « par accident » : l‘avocat général Szpunar l’invitait expressément à se montrer plus réservée, de sorte qu’elle a posé un acte clair et conscient en épousant au plus près la thèse du plaignant au principal.

Plus d’infos?

En lisant l’arrêt rendu et les conclusions de l’AG, tous les deux disponibles en annexe.

Cet article a fait l’objet d’une publication dans le journal de droit européen: E. Wery, « Arrêt « Glawischnig-Piesczek » : la Cour de justice met fin à la passivité quasi systématique des hébergeurs », J.D.E., 2020 nº 2, p. 65-68.


Droit & Technologies

Annexes

Arrêt de la CJUE-GLAWISCHNIG-PIESCZEK

file_download Télécharger l'annexe

Conclusions de l’avocat général

file_download Télécharger l'annexe

Soyez le premier au courant !

Inscrivez-vous à notre lettre d’informations

close

En poursuivant votre navigation sur notre site, vous acceptez l’utilisation de cookies afin de nous permettre d’améliorer votre expérience utilisateur. En savoir plus

OK