Cabinet d’avocats à Bruxelles et Paris
Leader en droit de l’innovation depuis 30 ans

Un procès en vue ?
Lisez le guide destiné à mieux vous préparer

Le portail du droit des technologies, depuis 1997
Powered by

Un site pour tout savoir sur le RGPD
Powered by

Les réseaux sociaux peuvent-ils encore prétendre être des « hébergeurs » ?

Publié le par 5 vues

Deux condamnations de Meta en quelques jours aux États-Unis relancent la question : les réseaux sociaux peuvent-ils encore être considérés comme de simples hébergeurs, neutres et passifs, alors qu’ils organisent activement la circulation et l’affichage des contenus, dans le but de capter l’attention du visiteur et le garder le plus longtemps possible devant son écran,…

Deux condamnations de Meta en quelques jours aux États-Unis relancent la question : les réseaux sociaux peuvent-ils encore être considérés comme de simples hébergeurs, neutres et passifs, alors qu’ils organisent activement la circulation et l’affichage des contenus, dans le but de capter l’attention du visiteur et le garder le plus longtemps possible devant son écran, afin de monétiser davantage l’audience. À mesure que s’impose ce que nous appellons le « supra-contenu », fondé sur des flux personnalisés et algorithmisés, le statut d’hébergeur des réseaux sociaux devient de plus en plus difficile à défendre.

Deux condamnations en moins d’une semaine.

Au Nouveau-Mexique, Meta (Facebook, Instagram, WhatsApp) a été condamnée à 375 millions $ pour avoir mis en danger des mineurs, notamment en facilitant leur exploitation et en trompant les utilisateurs quant à la sécurité de ses plateformes.

En Californie, un jury a condamné Meta (et Google en tant que propriétaire de YouTube) à environ 6 millions $ pour avoir conçu des plateformes addictives causant des dommages psychologiques à une mineure.

Les dossiers sont différents :

  • Dans le premier cas, l’action est menée par l’Etat du Nouveau-Mexique qui soutenait que les outils de recommandation pouvaient orienter des mineurs vers des contenus ou profils dangereux, et que Meta, qui connaissait les risques, n’a pas mis en place des mesures suffisantes et a au contraire minimisé publiquement le danger.
  • Dans le second cas, c’est l’algorithme qui est critiqué. Le dossier concerne une femme devenue fortement dépendante aux réseaux sociaux (Instagram, YouTube), qui soutenait que les plateformes sont délibérément conçues pour maximiser le temps d’écran (scroll infini, autoplay, notifications), ce qui a entrainé une dépendance qui est source d’anxiété, troubles du sommeil et détresse psychologique.

Toutefois, ces dossiers ont un point commun : ils contribuent à relancer le débat sur la qualité d’hébergeur des réseaux sociaux.

Depuis 20 ans, les réseaux sociaux se considèrent comme des hébergeurs, afin de bénéficier d’une responsabilité allégée.

Les « hébergeurs » bénéficient d’un régime de responsabilité light prévu dans la directive sur le commerce électronique (art. 14).

En substance, ils ne sont pas responsables des contenus hébergés tant qu’ils n’ont pas effectivement connaissance de l’activité ou de l’information illicites et que, une fois prévenus, ils agissent promptement pour retirer les informations ou rendre l’accès à celles-ci impossible.

Il y a donc deux étapes (cumulatives) dans le raisonnement :

1) Premièrement, pour relever du champ d’application de l’article 14, le prestataire doit fournir un service de la société de l’information qui consiste en un « hébergement », et son comportement doit se limiter à celui d’un « prestataire intermédiaire ».

2) Deuxièmement, l’hébergeur ne doit pas avoir effectivement connaissance de l’activité illicite ou, dès le moment où il en a connaissance, il doit agir promptement pour retirer les informations ou rendre l’accès à celles-ci impossible.

Les réseaux sociaux défendent bec et ongle leur statut d’hébergeur … et on les comprend vu les avantages que cela procure.

Pour être un hébergeur, il faut être un prestataire intermédiaire, c’est-à-dire neutre et passif.

C’est la première étape : l’article 14 ne protège que le prestataire qui fournit un service de la société de l’information qui consiste en un « hébergement », et dont le comportement se limiter à celui d’un « prestataire intermédiaire ».

Dans Google France, se référant au considérant 42, la CJUE a jugé que les dérogations ne couvrent que l’activité du prestataire qui revêt un caractère « purement technique, automatique et passif », impliquant que ledit prestataire « n’a pas la connaissance ni le contrôle des informations transmises ou stockées » (§ 113), ce qu’elle décrit aussi comme un comportement « neutre, en ce que son comportement est purement technique, automatique et passif, impliquant l’absence de connaissance ou de contrôle des données qu’il stocke. » (§ 114).

Elle a répété sa position dans L’Oréal au sujet des places de marché (eBay en l’occurrence), jugeant que :

  • Pour que le prestataire d’un service sur Internet puisse relever du champ d’application de l’article 14 de la directive 2000/31, il est essentiel qu’il soit un « prestataire intermédiaire » au sens voulu par le législateur dans le cadre de la section 4 du chapitre II de cette directive (voir arrêt Google France et Google, précité, point 112).
  • Il n’en va pas ainsi lorsque le prestataire du service, au lieu de se limiter à une fourniture neutre de celui-ci au moyen d’un traitement purement technique et automatique des données fournies par ses clients, joue un rôle actif de nature à lui confier une connaissance ou un contrôle de ces données (arrêt Google France et Google, précité, points 114 et 120).
  • Le simple fait que l’exploitant d’une place de marché en ligne stocke sur son serveur les offres à la vente, fixe les modalités de son service, est rémunéré pour celui-ci et donne des renseignements d’ordre général à ses clients ne saurait avoir pour effet de le priver des dérogations en matière de responsabilité. Lorsque, en revanche, il a prêté une assistance, consistant notamment à optimiser la présentation des offres à la vente en cause ou à promouvoir ces offres, il y a lieu de considérer qu’il a non pas occupé une position neutre entre le client vendeur concerné et les acheteurs potentiels, mais joué un rôle actif de nature à lui conférer une connaissance ou un contrôle des données relatives à ces offres. Il ne saurait alors se prévaloir, s’agissant desdites données, de la dérogation en matière de responsabilité visée à l’article 14 de la directive 2000/31.

C’est la même logique qui a permis à la CJUE, dans Papasavvas, d’exclure de la notion d’hébergeur, la société éditrice de presse à l’égard de son site Web « dès lors qu’elle a connaissance des informations publiées et exerce un contrôle sur celles-ci ».

Les critères de « neutralité » et « passivité » sont des concepts faciles à comprendre, mais difficile à appliquer : vont-ils évoluer ?

L’expérience montre que les concepts de neutralité et de passivité, qui transparaissent des arrêts repris supra, sont extrêmement difficiles à appliquer en pratique, avec une insécurité juridique énorme et des divergences entre les pays européens qui appliquent pourtant la même directive.

Conscient de ceci, l’avocat général de la CJUE a profité récemment de l’affaire AGCOM pour ouvrir une nouvelle perspective. Bien que le dossier porte plus directement sur une question de jeux d’argent, il pose incidemment la question de la responsabilité de l’hébergeur.

Pour l’avocat général, « la ‘neutralité’, prise isolément, peut ne pas être le critère le plus approprié pour déterminer si un prestataire de services d’hébergement relève de l’article 14 » car« on peut se demander si les prestataires de services d’hébergement pourraient jamais être considérés comme entièrement ‘neutres’. En principe, un prestataire de services d’hébergement qui tire des recettes publicitaires de sa plateforme est intéressé par une augmentation du nombre d’utilisateurs et de vues. »

Il s’interroge de la même manière sur le critère de passivité, relevant que « la dichotomie du rôle passif ou actif semble insuffisante pour tenir compte des activités exercées par un tel prestataire, en particulier dans un domaine en constante évolution ».

Il précise toutefois que « conformément à la jurisprudence, tant la neutralité que la passivité impliquent un modèle commercial qui repose a priori sur une absence de connaissance ou de contrôle du contenu ».

Il en conclut que « la neutralité et la passivité devraient être comprises par référence au contenu que les créateurs mettent en ligne sur une plateforme », ce qui l’amène à proposer une nouvelle grille d’appréciation qui tourne autour du contenu et du contrôle exercé sur celui-ci.

Pour lui, le prestataire n’est pas neutre : 1) s’il participe à la rédaction, à la création et à la sélection de contenus ; 2) s’il contrôle ou examine les contenus avant leur téléversement ; 3) s’il les optimise.

En revanche, le prestataire est neutre : 1) s’il est rémunéré pour ces services ; 2) s’il met en œuvre des mesures techniques pour détecter les contenus illicites ; 3) s’il propose certaines fonctions d’affichage sur sa plateforme.

Cette nouvelle grille, pour intéressante qu’elle soit, ne facilitera pas beaucoup la tâches des plaideurs :

  • Comment déterminer ce qui relève de « l’optimisation des contenus » (pas neutre) ou de « certaines fonctions d’affichage » (neutre) ?
  • Comment distinguer la « sélection des contenus » (pas neutre) de « certaines fonctions d’affichage » (neutre) ?
  • Comment faire la distinction entre les « fonctions d’affichage » (neutre) et l’impact qu’elles ont sur la « rédaction », la « création » ou la « sélection » du contenu (pas neutre) ? La première question que se pose le créateur de contenu n’est-elle pas : comment créer mon contenu pour qu’il soit affiché le plus possible en tenant compte de l’algorithme du réseau concerné ?

L’appel à un changement d’échelle afin de prendre en compte le modèle « d’économie de l’attention » sur lequel reposent les réseaux sociaux.

Nous avons plaidé, dans un précédent article, pour un changement d’échelle.

Le point de départ de cette proposition est un constat : l’économie actuelle des plateformes ne repose plus sur le stockage de contenus individuels, mais bien sur l’organisation de leur circulation.

Les réseaux reposent sur une économie de l’attention : le but est de capter l’attention du visiteur et la conserver aussi longtemps que possible, grâce à des contenus sélectionnés et personnalisés susceptibles de lui plaire, afin de le garder sur le réseau et monétiser davantage l’audience.

Dans ce modèle, le contenu individuel compte moins que le flux dans lequel il s’inscrit.

Pour le dire de façon un peu moqueuse : peu importe le petit chat tout mignon qui apparait sur le profil de Gaspard, du moment que le contenu est centré sur les chats ; peu importe la qualité de la recette qui apparait sur le profil de Zoé, du moment que le contenu est centré sur la cuisine. Dans l’un et l’autre cas, le réseau social connait les centres d’intérêt du visiteur grâce à la collecte de milliers d’informations personnelles, et il le retient autant que possible par l’affichage proactif de contenus qui lui plaisent.

Il faut donc distinguer deux niveaux.

Le premier est celui du contenu individuel : « un » message spécifique publié par un créateur de contenu ; « une » recette de cuisine ; « une » vidéo de chat.

Le second est ce que nous désignons sous l’appellation supra-contenu, qui correspond aux systèmes de recommandation, aux classements algorithmiques, aux mécanismes de mise en avant, à la personnalisation, au défilement à l’infini, au démarrage automatique des vidéos, à l’accueil « pour toi », etc. Le supra-contenu est un magma, un agrégat, un ensemble de contenus sélectionnés qui sont structurés en un flux qui détermine ce que les utilisateurs voient, dans quel ordre et avec quelle intensité, dans le but de créer de la valeur par la monétisation d’une audience retenue devant son écran aussi longtemps que possible.

L’importance du supra-contenu est tout sauf marginale. Il constitue désormais le mode d’organisation dominant des grandes plateformes telles que Facebook, Instagram, TikTok ou YouTube. Là où ces services reposaient initialement sur une logique d’abonnement ou de réseau (voir les contenus de ses amis ou des comptes suivis), ils ont déplacé leur centre de gravité vers le supra-contenu.

Le supra-contenu n’est pas un simple décor. Il produit des effets très concrets et mesurables, tant sur les utilisateurs que sur les créateurs.

Du côté des utilisateurs, ce sont des mécanismes précis : sur TikTok, quelques secondes d’arrêt sur une vidéo suffisent à orienter immédiatement le fil « Pour toi » vers des contenus similaires ; sur Instagram, le passage d’un Reel à l’autre sans interruption crée une consommation continue ; sur Facebook, des publications de comptes inconnus sont insérées entre celles des proches pour maintenir l’engagement.

Du côté des créateurs, l’effet est tout aussi structurant. L’inclusion du contenu individuel dans le supra-contenu conditionne la visibilité, et donc les revenus. Il en résulte une adaptation très concrète des pratiques : formats courts (souvent quelques secondes à une minute) pour maximiser la rétention ; accroches immédiates dans les premières secondes (“hooks”) pour éviter que l’utilisateur ne passe au contenu suivant ; publication à des horaires optimisés ; utilisation de musiques, hashtags ou tendances identifiées comme favorisées par l’algorithme ; standardisation progressive des contenus (mêmes formats, mêmes rythmes, mêmes codes visuels), etc.

On observe le même phénomène sur les plateformes de streaming. Pour générer un revenu, la chanson doit être jouée un certain nombre de secondes (environ 30 secondes sur Spotify). Le format musical s’adapte en conséquence. Des introductions très courtes, des refrains qui arrivent plus tôt, des morceaux globalement plus courts (souvent 2 à 3 minutes) et des structures plus simples et répétitives. De plus, les chansons sont souvent conçues autour de segments courts susceptibles de devenir viraux sur les réseaux. En somme, la création musicale s’aligne de plus en plus sur une logique d’optimisation de l’attention, comparable à celle qui structure les flux des réseaux sociaux.

En d’autres termes, le supra-contenu ne se contente pas d’organiser la visibilité des contenus : il influence en amont leur production même. Il agit comme un cahier des charges, en amont de la création, qui influence directement ce qui est créé en aval et la manière dont c’est créé, pour aboutir à des contenus qui maximisent leur chance d’exister économiquement.

Sans en être certain, il semble que la proposition de l’avocat général dans le dossier AGCOM reste centrée sur le contenu individuel ; si tel est le cas (l’arrêt qui sera rendu aidera peut-être à y voir clair), c’est une occasion manquée d’adapter la définition de l’hébergeur au fonctionnement actuel des réseaux sociaux.

La fin du statut d’hébergeur pour les réseaux sociaux ?

La condamnation de Meta aux USA est un puissant message : les réseaux sociaux sont délibérément conçus pour maximiser le temps d’écran, peu importe les conséquences pour l’utilisateur (parfois jeune), au point d’engager la responsabilité du réseau dans les phénomènes d’addiction. Une réformation en appel n’y changera rien : peut-être n’y aurait-il pas de faute établie (Meta la conteste vigoureusement), mais le modèle fondé sur l’économie de l’attention est une réalité.

Comment maximiser ce temps d’écran ? Dans le modèle actuel : essentiellement grâce au supra-contenu.

Vu cette évolution, il nous semble qu’en appliquant les critères traditionnels de neutralité ou de passivité, il devient difficile de prétendre encore au statut d’hébergeur. Que ce soit dans Google France, L’Oréal ou Papasavvas, la Cour renvoie au « contrôle » exercé sur les contenus. Or, l’économie de l’attention est indissociable d’une forme de contrôle du contenu. Certes, Il ne s’agit pas d’une autorisation préalable, mais ce n’est pas ce que la Cour exige pour perdre la neutralité. Si le contrôle est effectif et significatif – ce qu’il est sans nul doute – la neutralité disparait.

On arrive sans doute à la même conclusion avec la proposition de l’avocat général : il nous semble que le supra-contenu ne relève pas d’une « fonction d’affichage », mais bel et bien de « l’optimisation » et de la « sélection » des contenus et même, indirectement, de « la création et la rédaction » des contenus.

En définitive, les réseaux sociaux sont aujourd’hui tiraillés entre :

  • D’une part, leur modèle économique, qui repose sur l’économie de l’attention pour monétiser l’audience, laquelle nécessite de retenir le visiteur, ce qui est possible au travers de différents moyens dont la maitrise du supra-contenu est un élément décisif.
  • D’autre part, leur modèle juridique destiné à bénéficier du statut d’hébergeur, qui repose tout entier sur un principe : se tenir aussi éloigné que possible des contenus.

Concilier les deux nous parait difficilement tenable.

Droit & Technologies

Soyez le premier au courant !

Inscrivez-vous à notre lettre d’informations

close

En poursuivant votre navigation sur notre site, vous acceptez l’utilisation de cookies afin de nous permettre d’améliorer votre expérience utilisateur. En savoir plus

OK