Enews Legipresse

Recevez la newsletter et entrez dans le Club Légipresse
Valider
Valider l'adresse e-mail pour inscription à l'E-news

Le club Légipresse

Les 2 derniers inscrits
Marie Albrich-Sales

Doctorante contractuelle
Atalante Gabelli

Sans emploi

Vidéos

02/09/2016
Fabrice Arfi, Médiapart

Forum 2015 - Informer n'est pas un délit

Toutes les vidéos
Accueil > Communications électroniques > Réseaux sociaux, médias en ligne et partage de contenus : le temps de la responsabilité et de la régulation - Compte rendu du Forum Légipresse du 15 novembre 2019 - Communications électroniques

Communication numérique
/ Chroniques et opinions


05/03/2020


Réseaux sociaux, médias en ligne et partage de contenus : le temps de la responsabilité et de la régulation - Compte rendu du Forum Légipresse du 15 novembre 2019



Directive droit d'auteur, proposition de loi Avia de lutte contre la haine en ligne, application de la loi de 1881 aux médias sociaux, lutte contre la manipulation de l'information, RGPD, publicité en ligne, influenceurs, droit à l'oubli, droit voisin des éditeurs… Tous ces sujets posent la question de la responsabilité des acteurs, de la régulation des plateformes et des contenus. Ils étaient au cœur des débats du Forum Légipresse qui s'est tenu à l'auditorium de la Maison du Barreau de Paris le 15 novembre 2019.

 

La loi du 22 décembre 2018 relative à la lutte contre la manipulation de l'information, la proposition de loi Avia visant à lutter contre les contenus haineux sur internet, les nouvelles lignes directrices de la Commission nationale de l'informatique et des libertés (CNIL) en matière de cookies, la création d'un droit voisin au profit des éditeurs et agences de presse ou la jurisprudence de la Cour de justice de l'Union européenne (CJUE) en matière de droit au déréférencement, illustrent la volonté de responsabiliser les auteurs de contenus numériques, les opérateurs de réseaux sociaux et les médias en ligne et de renforcer le contrôle des contenus diffusés sur internet.

Toujours centré sur « une question d'actualité du droit des médias », le Forum Légipresse portait cette année sur le thème : « Réseaux sociaux, médias en ligne et partage de contenus : le temps de la responsabilité et de la régulation ». Les travaux de la journée étaient structurés en quatre tables rondes respectivement consacrées à la responsabilité du fait des contenus haineux ou illicites diffusés sur les réseaux sociaux ; aux difficultés de conciliation entre « droit à l'information, droit à l'oubli et protection des données personnelles » ; aux enjeux du partage des contenus et de la valeur au regard de la propriété intellectuelle et de la liberté d'expression ; et à la publicité en ligne.

Comme l'a souligné le vice-bâtonnier Basile Ader en introduction des débats, ces différentes thématiques soulèvent de nombreuses interrogations relatives aux « risques de censure privée » des contenus numériques, à l'étendue des compétences du Conseil supérieur de l'audiovisuel (CSA) et à l'office du juge dans ce nouvel environnement. Les diverses interventions de la journée et les riches débats qui les ont accompagnées(1) ont montré que la nouvelle architecture de la responsabilité et de la régulation en ligne (I) ne privait pas le juge de son rôle fondamental dans le contrôle des contenus numériques (II).

I - Nouvelle architecture de la responsabilité et de la régulation en ligne

La nouvelle architecture de la responsabilité et de la régulation en ligne repose sur la responsabilisation des acteurs privés de l'internet (A) et sur l'extension de la régulation publique des médias numériques (B).

A - Responsabilisation des acteurs privés de l'internet

Soumis à des obligations renforcées pour lutter contre la manipulation de l'information, les opérateurs de plateformes en ligne font ou feront prochainement l'objet de nouvelles obligations en matière de lutte contre les contenus haineux (1) et en ce qui concerne le partage de contenus protégés (2) par le droit d'auteur et les droits voisins.

1 - Lutte contre les contenus haineux

Comme l'a expliqué Madame Laetitia Avia, députée LREM, auteur et rapporteur de la proposition de loi visant à lutter contre les contenus haineux sur internet, ce texte tend à élaborer « un nouveau cadre de régulation des plateformes à forte viralité » pour combattre le « sentiment d'impunité à l'égard des contenus haineux ». Le texte voté par l'Assemblée nationale(2) (version du texte telle qu'adoptée au 15 nov. 2019, mais non définitive) impose aux opérateurs de plateformes numériques dont l'activité dépasse certains seuils une obligation de retrait, de blocage ou de déréférencement, dans un délai de 24 heures à compter de leur notification, des contenus « manifestement haineux » diffusés en ligne. Cette obligation est pénalement sanctionnée par la création d'un nouveau délit de non-retrait des contenus manifestement illicites. Tenus à des obligations de moyens pour assurer la transparence, l'information des utilisateurs et la mise en place de modérateurs, les plateformes ont une obligation renforcée en matière de coopération avec les autorités judiciaires. La faculté accordée au CSA d'infliger aux opérateurs de plateformes, en cas de retrait insuffisant ou excessif de contenus haineux notifiés, une sanction pécuniaire pouvant atteindre 4 % de leur chiffre d'affaires annuel mondial, permettra, selon Madame Avia, d'éviter une « censure privée » ou une « sur-censure » des contenus numériques.

Le texte proposé pose la question de l'évolution « vers une pré-responsabilité éditoriale des plateformes », envisagée par le Professeur Emmanuel Dreyer au regard des deux types d'obligations nouvelles qui leur sont imposées. L'obligation de retrait, de blocage et de déréférencement des contenus « manifestement haineux » notifiés n'est pas choquante mais soulève, selon l'orateur, trois difficultés majeures. L'identification des contenus haineux repose sur une énumération légale limitative donc arbitraire, les difficultés de qualification des contenus risquant de faire obstacle à l'efficacité du mécanisme. Les services concernés sont les réseaux sociaux, plateformes collaboratives et moteurs de recherche les plus importants, et non l'ensemble des fournisseurs d'hébergement. L'obligation de réaction des opérateurs, dans un délai de 24 heures à compter de la réception de la notification des contenus haineux « manifestement illicites » pose la question de l'appréciation de l'effectivité de cette réception et, en l'absence de sanction, les obligations de mention du retrait et de conservation des contenus retirés sont laissées au bon vouloir des plateformes. Quant au devoir de coopération des opérateurs de plateformes dans la lutte contre les contenus haineux en ligne, le dispositif prévu est, selon le Professeur Dreyer, « quelque peu défaillant ». Les procédures et moyens d'appréciation des contenus dont la mise en œuvre est obligatoire sont principalement humains et subsidiairement technologiques. L'obligation des opérateurs d'organiser une voie de recours interne contre leurs décisions n'est encadrée par aucune procédure contradictoire qui éviterait une censure excessive. L'obligation de mettre en œuvre « les moyens appropriés pour empêcher la rediffusion de contenus » manifestement haineux n'est pas claire. La disposition qui confère à l'autorité administrative le pouvoir de demander, sans nouvelle action en justice, le blocage ou le déréférencement de sites miroir dupliquant des contenus haineux dont la diffusion et la reprise ont été judiciairement interdites, traduit moins, pour M. Dreyer, un désengagement de l'État que la protection par l'autorité publique d'un intérêt privé.

Exprimant le point de vue des plateformes, M. Anton Battesti, responsable des affaires publiques de Facebook France, a rappelé que l'opérateur avait, depuis six ans, massivement investi dans les moyens de détection des contenus illicites. Facebook a adopté un corps de règles propres à la plateforme, s'est dotée d'une équipe de 35 000 modérateurs humains et a amélioré la détection automatique des contenus illicites. Pour offrir des garanties en cas de retrait abusif, l'opérateur a renforcé les mécanismes d'appel. La vraie difficulté est, pour M. Battesti, la construction d'une régulation adaptée aux évolutions technologiques. Favorable à la mise en place, à la charge des opérateurs de plateformes, d'obligations de moyens contrôlées par le CSA, Facebook est plus réservé sur le délai de 24 heures et sur le montant élevé de la sanction du non-retrait. L'intervenant a indiqué que Facebook allait créer les dispositifs de signalement obligatoires et embaucher les personnes requises. Mais le vote de cette loi ambitieuse devrait, selon M. Battesti, s'accompagner de l'adoption des moyens financiers nécessaires et de la saisine du Conseil constitutionnel, utile pour l'interprétation des textes.

2 - Partage de contenus protégés

« La nouvelle responsabilité des plateformes de partage de contenus », prévue par l'article 17 de la directive (UE) 2019/790 du 17 avril 2019 sur le droit d'auteur et les droits voisins dans le marché unique numérique (MUN)(3) a été analysée par le professeur Valérie-Laure Benabou. Elle a expliqué que le système d'exonération de responsabilité mis en place repose sur « un mécanisme à trois étages » comportant une licence contractuelle pour la mise à disposition des contenus, une obligation de filtrage des contenus notifiés par les titulaires de droits et des mécanismes de conciliation des intérêts des titulaires de droits et des droits des utilisateurs. L'application de l'article 17 soulève, selon Madame Benabou, plusieurs incertitudes, en raison des contradictions existant entre le texte de la directive et le projet de transposition figurant dans le projet de réforme de la communication audiovisuelle(4). La définition des « fournisseurs de services de partage de contenus en ligne » concernés par le dispositif, les modalités d'appréciation de la fourniture d'une « quantité importante » de contenus protégés et les personnes visées par l'application du droit exclusif ne sont pas les mêmes dans les deux textes.

À la différence de l'article 17 de la directive MUN, son article 15 relatif au droit voisin des éditeurs de presse a déjà été transposé en droit français par la loi du 24 juillet 2019(5). Dans le cadre d'un débat assez animé sur « la mise en œuvre du droit voisin des éditeurs », le professeur Benabou a rappelé que le droit instauré au profit des éditeurs de publications de presse est un droit exclusif, d'une durée de deux ans, sur les utilisations en ligne de ces publications, autres que les liens hypertexte et « l'utilisation de mots isolés ou de très courts extraits ». Avant même l'entrée en vigueur du nouveau droit, Google, qualifié de « mauvais joueur » par le bâtonnier Jean Castelain, a annoncé son intention de modifier ses services pour que ses usages des publications de presse entrent dans le bénéfice de l'exception relative aux courts extraits.

M. Benoît Tabaka, responsable des affaires publiques de Google France a expliqué que le rôle du moteur de recherche est de permettre l'accès à l'information. Google n'est pas « un mauvais joueur ». Il envoie aux éditeurs de presse un trafic qui a de la valeur. Les extraits qui apparaissent dans le moteur de recherche constituent, pour Google, une incitation des internautes à aller sur les plateformes de presse et, pour les éditeurs, une captation par Google de la valeur de leurs contenus. M. Tabaka a précisé que la modification apportée aux services du moteur de recherche pour se conformer au nouveau droit voisin ne consiste pas en un déréférencement des contenus. La visualisation par défaut est réduite au lien hypertexte, mais l'ordre des résultats affichés ne change pas. L'intervenant doute que le droit voisin puisse régler une problématique de monétisation, d'autant que le contenu de Google News est difficilement monétisable. Google est rémunéré à la performance et le prix de la publicité en ligne est, surtout en France, dérisoire.

M. Marc Feuillée, vice-président de l'Alliance de la presse d'information générale, président du SPQN et directeur général du Groupe Figaro, a souligné l'importance du droit voisin pour les éditeurs de presse et pour l'avenir de l'information et des médias en France et dans les démocraties occidentales. Confrontés au recul de leurs revenus digitaux et progressivement évincés du marché de la publicité en ligne, les éditeurs de presse ont besoin, pour pouvoir rémunérer leurs journalistes, d'une troisième source de revenus. Concédant que le droit voisin n'est pas nécessairement le bon outil pour assurer le partage de la valeur, M. Feuillée a expliqué que ce droit avait été institué par la loi faute pour les éditeurs d'avoir pu trouver un accord durable avec les plateformes. La mise en œuvre du droit voisin ne doit pas se cristalliser sur le conflit entre les éditeurs et Google puisque la directive vise l'ensemble des « fournisseurs de services de la société de l'information ». Mais cette opposition doit conduire à privilégier une approche collective, internationale ou européenne, et à mettre en place un ou plusieurs organismes de gestion collective chargés de déterminer les conditions d'autorisation, de rémunération et de répartition des sommes perçues.

Représentante de la Fédération européenne et internationale des journalistes, Madame Sarah Bouchetob a insisté sur le rôle des journalistes dans le processus législatif qui a conduit à l'adoption du nouveau droit voisin. Satisfaits de la directive qui reconnaît aux auteurs le droit à « une part appropriée des revenus » et du texte français qui accorde aux journalistes professionnels « une part appropriée et équitable de la rémunération », les journalistes sont déçus de la décision prise par Google pour contourner la législation. Selon eux, l'assiette de la rémunération du droit voisin devrait inclure tous les revenus générés par les plateformes, tirés de la publicité et de la vente des données personnelles. Quant aux modalités de répartition de cette rémunération entre éditeurs et journalistes, les journalistes, qui souhaiteraient obtenir une proportion de 50 %, revendiquent des clefs de répartition justes, claires et harmonisées au niveau européen. Favorables à la gestion collective du droit voisin, les journalistes insistent sur la nécessaire transparence des usages, des revenus et du mode de calcul de la rémunération des auteurs, conformément aux obligations imposées par les textes aux éditeurs et aux sociétés de gestion collective de partager avec les journalistes les informations fournies par les plateformes.

Certains opérateurs de plateformes ont choisi d'« anticiper la mise en œuvre du droit voisin des éditeurs ». M. Mickaël Réault, CEO de Sindup, a expliqué que la « plateforme de veille stratégique et e-réputation » procède à l'agrégation de 50 millions de sources d'information disponibles sur les réseaux sociaux ou provenant de bases de données non accessibles en ligne et reproduites dans le système, avant de rediffuser l'information via des liens hypertexte. Afin d'éviter « une guerre juridique et technologique » avec les éditeurs de presse et de trouver un mode de fonctionnement rémunérateur pour eux sans être dissuasif pour la plateforme, un accord commercial a été conclu. La plateforme verse une redevance forfaitaire par contrat client et envoie au CFC une déclaration trimestrielle pour permettre une exacte répartition des sommes perçues.

Les moteurs de recherche ont également une responsabilité particulière dans la mise en œuvre du droit au déréférencement consacré par la CJUE dans l'arrêt Google Spain. Chargé de dresser un « état des lieux » des demandes de déréférencement et d'évoquer les « perspectives » du droit à l'oubli, M. Benjamin du Chaffaut, directeur juridique adjoint chez Google, a expliqué que la mise en œuvre du droit au déréférencement dans les conditions précisées par la CJUE dans ses arrêts du 24 septembre 2019(6), conduisait à une augmentation de la fonction éditoriale des moteurs de recherche et au renforcement de leur rôle dans la mise en balance des droits, qui ne relève pas de leurs missions mais de celles du juge. Limité, dans sa portée territoriale, aux versions européennes du moteur de recherche saisi, le déréférencement peut, dans le pays où la demande est formulée, être renforcé par des mesures complémentaires de blocage émanant du moteur de recherche ou des juridictions nationales sur le fondement de leur droit interne. Quant au déréférencement de liens vers des contenus comportant des données sensibles, il n'est pas automatique mais, à la demande de la personne concernée, il doit être obligatoirement accordé par le moteur de recherche après mise en balance des droits en présence.

B - Extension de la régulation publique des médias numériques

Les évolutions législatives récentes et à venir induisent un élargissement des compétences du CSA (1) en matière de communication au public en ligne et une multiplication des interventions de la CNIL (2) relatives à la protection des données personnelles sur les réseaux numériques.

1 - Élargissement des compétences du CSA

« Le CSA, nouveau régulateur des plateformes de contenus » était le thème de l'intervention du président de l'instance de régulation de l'audiovisuel, M. Roch-Olivier Maistre. Après avoir rappelé que le contrôle du régulateur porte sur les services de contenus et non sur les contenus eux-mêmes, l'orateur a expliqué que l'institution était « en train de muter ». Cette évolution est imputable à la modification de la Directive « Services de médias audiovisuels » qui étend le champ de la régulation aux plateformes de contenus audiovisuels et aux réseaux sociaux et à trois interventions successives du législateur national. La loi de lutte contre la manipulation de l'information a confié au CSA un rôle de recommandation et de supervision des plateformes. La proposition de loi Avia charge l'instance de régulation de veiller au respect de leurs obligations en matière de lutte contre les contenus haineux. Le projet de réforme de l'audiovisuel va encore accroître les pouvoirs du CSA, renommé Autorité de régulation de la communication audiovisuelle et numérique (ARCOM), et transformer l'architecture de cette régulation par la fusion du CSA avec la Hadopi et son articulation avec l'ARCEP.

Il s'agit, selon le président Maistre, d'un « changement historique » car « un nouveau modèle de régulation est en train de se dessiner ». Intermédiaire entre le modèle étatiste chinois et le modèle ultralibéral américain, il tend à concilier la liberté de communication et les principes du pacte républicain, pour répondre à la demande d'une plus forte régulation des médias numériques, émanant tant de l'opinion publique que des plateformes elles-mêmes. À Maître Christophe Bigot qui s'inquiète de l'intervention du CSA dans la qualification de propos relevant de la loi de 1881, sans les garanties d'impartialité d'une procédure judiciaire, M. Maistre répond que « le CSA n'est pas dans le rôle du juge ». Selon lui, la proposition de loi Avia fait le départ entre l'office du juge judiciaire à qui incombe le contrôle de l'obligation de retrait des contenus manifestement haineux et l'intervention de l'autorité publique indépendante, chargée, sous le contrôle du juge administratif, de superviser les obligations de moyens des plateformes.

2 - Multiplication des interventions de la CNIL

Appelée à intervenir sur le « traitement de données aux fins de journalisme : état des lieux et perspectives », Madame Anne Debet, professeur à l'Université Paris Descartes et membre de la CNIL, a souligné la constante augmentation du nombre de recours à l'instance de régulation en l'absence de réponse des organes de presse aux demandes des personnes concernées par des traitements de données personnelles, fondées sur l'exercice de leurs droits d'opposition ou d'effacement.

L'équilibre entre liberté d'expression et droit à la protection des données personnelles est une question ancienne, prise en compte par l'article 9 de la directive 95/46/CE du 24 octobre 1995, transposé en 2004 à l'article 67 de la loi de 1978. Elle est désormais abordée par son article 80, issu de la transposition de l'article 85 du RGPD, qui pose le principe d'une conciliation légale du droit à la protection des données personnelles et du droit à la liberté d'expression et d'information, mais assortit ce principe d'une longue liste de dérogations, admises dans le cadre de traitements réalisés à des fins journalistiques.

La rédaction de cet article soulève, selon Madame Debet, deux questions relatives au champ d'application des dérogations et à leur portée en droit français. La CJUE a une acception très large des « traitements aux fins de journalisme », qui déterminaient le champ d'application des dérogations admises par l'article 9 de la directive 95/46/CE alors que l'article 80 de la loi française exclut les seuls traitements mis en œuvre aux fins « d'exercice à titre professionnel, de l'activité de journaliste, dans le respect des règles déontologiques de cette profession ». Quant à la portée des dérogations, le RGPD est très vague et le droit national conserve une grande importance. L'article 80 de la loi française écarte le droit de rectification mais l'obligation d'assurer l'exactitude des données impose leur mise à jour, dont on peut se demander si elle inclut la prise en compte spontanée des suites judiciaires d'une affaire. L'exercice du droit d'opposition doit être motivé par la situation particulière de la personne qui l'invoque et le droit à l'effacement est inapplicable si le traitement est nécessaire à l'exercice du droit à la liberté d'expression et d'information. Le nouveau droit de suite pourrait justifier une demande de ré-indexation des pages web modifiées pour éviter la réapparition du résultat non modifié. Pour l'intervenante, la CNIL se trouve dans une position délicate. Saisie de nombreuses plaintes contre les refus d'effacement de contenus par les éditeurs, elle fait preuve de réserve à l'égard des organes de presse, rarement contrôlés et sanctionnés.

La CNIL joue également un rôle majeur de régulation de la publicité en ligne. « Les nouvelles lignes directrices de la CNIL, les modalités de recueil du consentement » de l'internaute au dépôt de cookies ont fait l'objet de deux interventions successives de Maître Etienne Drouard et de Madame Clémence Scottez, cheffe du service des affaires économiques de la CNIL. Maître Drouard a mis l'accent sur les incertitudes juridiques du régime actuel de recueil du consentement de l'internaute en matière de cookies, en raison des divergences existant entre les règles du RGPD et les dispositions de la directive « Vie privée et communications électroniques », dite ePrivacy, du 12 juillet 2002 modifiée en 2009. La directive interdit le dépôt ou la lecture d'informations dans le terminal de l'utilisateur sans son consentement et autorise les cookies destinés à transmettre une communication électronique ou « strictement nécessaires » pour la fourniture d'un service « expressément demandé » par l'utilisateur. Mais à la différence du RGPD, elle ne définit pas les motifs légitimes ou les circonstances justifiant l'utilisation licite de cookies. Pour Maître Drouard, l'harmonisation par le RGPD de la protection des données suppose un « toilettage de la directive ePrivacy » car les acteurs ont besoin de clarté juridique. En juillet 2019, la CNIL a publié une délibération incluant des lignes directrices(7) et, après une phase de concertation sans sanction, elle va adopter une nouvelle recommandation. Maître Drouard juge néanmoins « catastrophique » cette « phase transitoire entre deux textes », marquée par l'illisibilité du droit et l'insécurité juridique.

Madame Clémence Scottez a rappelé que la nécessité du consentement des internautes, imposée en 2009 par la modification de la directive ePrivacy, avait conduit à l'adoption d'une Recommandation en 2013. L'entrée en vigueur du RGPD, qui modifie la définition du consentement et exige qu'il soit exprimé « par une déclaration ou par un acte positif clair », a suscité un développement très opaque des pratiques de recueil du consentement. À la demande des professionnels et de la Commission européenne, la CNIL a transformé la recommandation de 2013 en lignes directrices, sans attendre, compte tenu de l'urgence, l'adoption du futur règlement ePrivacy. Ces nouvelles lignes directrices comportent un rappel de l'état du droit et des recommandations pratiques. Désormais, la poursuite de la navigation sur un site ne suffit plus à l'expression valide du consentement à l'utilisation de cookies. Ce consentement doit porter sur une finalité déterminée et concerner des entités précises indiquées aux utilisateurs. Les responsables de traitement doivent conserver la preuve du consentement donné. L'utilisation de certains traceurs à des fins de traitement statistique est considérée comme nécessaire à la fourniture du service. Inscrites dans l'approche, plus normative que répressive, de la CNIL sur la question des cookies, les lignes directrices vont être complétées par une nouvelle recommandation(8) accordant aux professionnels un délai d'adaptation de six mois.

Dans une intervention intitulée « Économie de la donnée et protection de la vie privée : point d'équilibre », Madame Corinne Denis, présidente d'honneur du GESTE, a mis l'accent sur les enjeux économiques et politiques, pour l'avenir des médias français et européens, de la réglementation des cookies et des modalités d'obtention du consentement de l'internaute. Admettant le caractère intrusif de certains cookies, l'intervenante en a souligné l'importance pour le développement de l'intelligence artificielle, le ciblage des internautes et l'augmentation de la publicité programmatique. Dans un marché publicitaire dominé par les GAFA et où le programmatique représente les deux tiers du display, la faculté d'utiliser des cookies est, pour les médias français et européens, une question de survie. Dans leur tentative commune pour concurrencer les grands opérateurs, les médias français font figure de précurseurs. Ils ont créé différentes plateformes partagées de gestion des invendus, d'achats en ligne ou d'enregistrement du consentement des internautes. Pour Madame Denis, le durcissement des modalités d'obtention du consentement de l'utilisateur au dépôt de cookies risque de faire baisser le programmatique et de menacer l'avenir des médias.

II - Rôle fondamental du juge dans le contrôle des contenus numériques

Chargé de contrôler les décisions prises par les opérateurs de plateformes et par les instances de régulation, le juge fait, plus que jamais, figure de garantie contre les risques de censure privée ou publique des contenus numériques. Son rôle demeure fondamental dans l'appréciation des contenus diffusés (A) en ligne et la conciliation des droits concurrents (B) sur les réseaux numériques.

A - Appréciation des contenus diffusés

Dans l'appréciation des contenus diffusés en ligne, l'office du juge est particulièrement important pour l'interprétation des contenus haineux (1) et la qualification des nouvelles pratiques (2).

1 - Interprétation des contenus haineux

Appelée à s'interroger sur « le rôle du juge » en matière de « lutte contre la haine en ligne », Madame Anne-Marie Sauteraud, présidente de chambre à la Cour d'appel de Paris (pôle 2 – ch. 7), a rappelé que le juge doit appliquer les nombreux textes (loi de 1881, LCEN, article 11 de la Déclaration des droits de l'homme et du citoyen, article 10 de la Convention européenne…), qui garantissent la liberté d'expression et permettent des « restrictions nécessaires et proportionnées » à l'exercice de cette liberté, notamment pour lutter contre l'incitation à la haine. Tout en admettant la nécessité d'adapter les textes anciens à la répression des discours de haine en ligne, la magistrate a souligné que différentes lois étaient déjà intervenues en ce domaine pour allonger le délai de prescription, permettre la requalification de certaines infractions, et faciliter les poursuites et les sanctions. Les lois nouvelles de lutte contre la manipulation de l'information ou contre les contenus haineux en ligne font aussi une place importante au juge.

L'examen de la jurisprudence montre le rôle essentiel du juge dans l'application et l'adaptation à internet (sites d'organes de presse, blogs, forums, liens hypertextes…) des règles de responsabilité du droit de la presse, particulièrement en ce qui concerne l'identification du directeur de publication de sites d'associations diffusant des discours de haine ou l'interprétation des messages publiés, souvent sans réflexion, sur les réseaux sociaux. Pour Madame Sauteraud, les nombreuses décisions récentes rendues par la Cour d’appel de Paris en matière de provocation à la discrimination, à la haine ou à la violence raciale illustrent, avec les difficultés pour caractériser l'existence, exigée par la Cour de cassation pour la constitution du délit de l'article 24, alinéa 7, de la loi de 1881, d'une « exhortation explicite ou implicite », la nécessité, pour éviter l'arbitraire, de procéder à une application nuancée du droit et de laisser au juge un rôle dans l'appréciation des discours de haine.

La création, par la proposition de loi Avia, d'un nouveau délit de non-retrait des contenus « manifestement haineux » va en ce sens. Il en est de même de l'obligation renforcée de coopération des plateformes avec les autorités judiciaires. La volonté de renforcer « l'efficacité de la réponse pénale à l'égard des auteurs de contenus haineux en ligne » justifierait, selon la députée Avia, la création d'un « parquet numérique », maîtrisant à la fois le numérique et la loi de 1881, sans remettre en cause les compétences de la 17e chambre pour les affaires sensibles. Spécialisée en matière de discours de haine et de cyber-harcèlement sans être investie d'une compétence nationale, la juridiction désignée serait saisie par un dépôt de plainte en ligne et pourrait statuer par ordonnance pénale pour les affaires simples, le cœur de ses compétences portant sur le traitement des raids numériques. Vice-procureur au Tribunal de grande instance de Paris, Madame Aude Duret s'est interrogée sur champ des compétences du futur parquet numérique, assez imprécis et paradoxal puisque le cyber-harcèlement est une infraction de droit commun. Faute des moyens matériels et humains nécessaires, la juridiction désignée risque d'être rapidement engorgée par ce contentieux de masse au détriment de la sanction des comportements visés.

2 - Qualification des nouvelles pratiques

« Usurpation d'identité numérique, cyber-harcèlement, revenge porn… », les délits institués par le législateur pour réprimer ces nouvelles pratiques en ligne renforcent la place du juge dans l'appréciation des contenus numériques. Chargé de donner des « éclairages sur la nouvelle criminalité de l'internet », Maître Nicolas Verly a expliqué que la cybercriminalité englobe « toutes les infractions pénales tentées ou commises à l'encontre ou au moyen d'un système d'information et de communication, principalement internet »(9). Dans le cadre des réseaux sociaux, constituent des atteintes contre le système le piratage de comptes ou le vol de données personnelles, respectivement incriminés par les articles 323-1 et suivants et 226-16 et suivants du code pénal. Quant aux infractions commises au moyen du système, il peut s'agir, sur les réseaux sociaux, de la publication de contenus généraux comme les discours de haine ou, selon la typologie proposée par Maître Verly, d'atteintes portées à l'identité, à l'intimité, à la dignité, à la réputation ou à la tranquillité des utilisateurs.

Le délit d'usurpation d'identité de l'article 226-4-1 du code pénal couvre les atteintes à l'identité numérique des utilisateurs de réseaux sociaux commises par la création de faux comptes ou de faux profils. Outre les atteintes à l'intimité de la vie privée, incriminées par les articles 226-1 et 2 du code pénal, l'atteinte à l'intimité sexuelle est prise en compte par l'article 226-2-1 du code pénal, dont l'alinéa 2 permet d'appréhender le revenge porn en ligne en réprimant la diffusion, sans l'accord de la personne concernée, de paroles ou d'images à caractère sexuel captées avec son consentement. Relevant des atteintes à la dignité, le happy slapping est incriminé par l'article 222-33-3 du code pénal, qui punit l'enregistrement et la diffusion d'images de violence, sur internet notamment. De nombreuses atteintes à la réputation commises en ligne contre des personnes ou des groupes peuvent être poursuivies à titre de diffamations ou injures. Parmi les atteintes à la tranquillité commises sur les réseaux sociaux, les menaces relèvent de l'article 222-17 du code pénal. Le swatting, canular téléphonique consistant à faire inutilement intervenir les forces de l'ordre chez un particulier pour lui nuire, peut être réprimé sur le fondement de l'article 322-14 du code pénal relatif aux fausses alertes. Quant au cyber-harcèlement moral ou sexuel, la portée en est étendue, par les articles 222-33-2-2 et 222-33 du code pénal, au cyber-harcèlement de meute pratiqué sur les réseaux sociaux. Pour Maître Verly, la création d'un parquet numérique ou d'une chambre spécialisée en matière de criminalité numérique n'est pas nécessaire, car la 17e chambre a intégré les nouvelles technologies.

Outre les pratiques illicites en ligne, le juge devra sans doute procéder à la qualification juridique des influenceurs et des contenus diffusés par eux sur les réseaux numériques. Dans leur intervention sur « les influenceurs, nouveaux porte-paroles des marques : contrats, obligations et statut » Maître Fabien Honorat et M. Stéphane Bouillet, Président de l'agence de marketing d'influence Influence4You, ont souligné les incertitudes relatives à la définition, au statut et à la responsabilité de ces nouveaux acteurs de l'internet, qui profitent de leur notoriété sur les réseaux sociaux pour diffuser des contenus sponsorisés par des marques. Défini par la déontologie publicitaire, l'influenceur n'est pas appréhendé par le droit. Il publie des contenus de formes très diverses qui peuvent être éditoriaux, commerciaux ou publicitaires selon qu'ils sont diffusés avec ou sans contrepartie financière ou en nature et qu'ils font ou non l'objet d'un contrôle prépondérant de la marque. Les frontières entre ces trois catégories de contenus sont floues et il appartiendra au juge d'en tracer les contours.

Les juridictions devront aussi se prononcer sur le statut des influenceurs. Ni la qualification de mannequin, au sens de l'article L. 7123-2 du code du travail, ni la qualité d'artiste-interprète, tel que défini à l'article L. 212-1 du code de la propriété intellectuelle, ne semblent adaptées à l'activité des influenceurs dont l'image n'est pas nécessairement utilisée et dont la prestation ne consiste pas toujours en une interprétation personnelle et artistique. Quant à la responsabilité des influenceurs, le juge pourra être amené, dans l'application des règles de droit encadrant la publicité, à apprécier la licéité de contenus diffusés par les influenceurs sur des réseaux sociaux fréquentés par les jeunes, en particulier au regard de l'interdiction des pratiques commerciales déloyales, de nature, selon l'article 121-1 du code de la consommation, à « altérer de manière substantielle le comportement économique du consommateur normalement informé et raisonnablement attentif et avisé ».

B - Conciliation des droits concurrents

Comme l'a rappelé Madame Sauteraud, il revient à l'autorité judiciaire de fixer les limites de la liberté d'expression en recherchant un équilibre entre cette liberté et d'autres principes. Le juge doit procéder à une balance des intérêts, notamment entre protection des données personnelles et liberté d'information (1) ou entre droit d'auteur et liberté d'expression (2).

1 - Protection des données personnelles et liberté d'information

« Le droit des données personnelles, très hégémonique » pourrait, selon Maître Bigot, finir par réguler tous les contenus sur internet, au détriment du droit spécial prévu pour l'encadrement de la liberté d'expression. Le conflit entre le principe de liberté d'expression et le droit des données personnelles qui accorde à la personne un droit de contrôle sur toutes les données qui la concernent est, pour Maître Bigot, un « combat inégal ». L'apport de la jurisprudence est donc fondamental. Selon Madame Debet, la CNIL renvoie vers les tribunaux les nombreux auteurs de plaintes contre les refus de désindexation de contenus par des organes de presse. En matière de déréférencement, la CJUE admet qu'un juge puisse ordonner, sur le fondement de son droit national, un déréférencement mondial ou allant au-delà de ce qu'impose le droit européen.

Chargé d'évoquer « l'équilibre entre protection des données personnelles et liberté de l'information dans la jurisprudence » européenne et française, Maître Bigot a rappelé que la Cour européenne des droits de l’homme (CEDH) met le droit à l'oubli numérique à l'épreuve de l'article 10 de la Convention européenne. Le droit à l'anonymisation d'archives de presse doit être mis en balance avec la liberté d'expression des médias et le droit du public à l'information. Pour la CEDH, le droit de retrait d'informations personnelles et la liberté d'expression sont des droits imbriqués et d'égale valeur. La constitution et la mise à disposition d'archives sur internet étant « une fonction accessoire » de la presse, l'anonymisation d'un reportage est jugée moins attentatoire à la liberté d'expression que sa suppression. L'arrêt Google Spain de la CJUE porte, pour Maître Bigot, « un déséquilibre complet entre droits de la personne et liberté d'expression ». En faisant prévaloir, sauf situations particulières, le droit à la protection des données personnelles sur le droit à l'information, cet arrêt porte une triple atteinte à la liberté d'expression : celle du moteur de recherche, qui devient un élément au service de la communication des personnes ; celle du public, privé de l'accès à l'information en cause ; et celle des médias référencés dans le moteur de recherche. Les juridictions françaises ne sont pas entrées dans une logique de protection absolue des données personnelles. La Cour de cassation a jugé que l'anonymisation ou la désindexation d'archives numériques imposées à un organe de presse porte une atteinte excessive à la liberté de la presse. Elle considère que, pour assurer la mise en balance des intérêts et l'application du principe de proportionnalité, une demande de déréférencement doit faire l'objet d'une appréciation concrète tenant compte de l'environnement informatif de la demande. Les multiples demandes de déréférencement, dont beaucoup invoquaient une atteinte à la réputation pour contourner la loi de 1881, ont fait l'objet d'appréciations contrastées des juges du fond. La Cour d’appel de Paris considère désormais qu'une demande de déréférencement doit concilier la protection des données personnelles et la liberté d'expression. Conformément à la jurisprudence de la Cour de cassation en matière de vie privée, elle recherche « le juste équilibre entre intérêt des internautes et droit à la liberté d'expression ».

2 - Droit d'auteur et liberté d'expression

Chargé de s'interroger sur le thème « Droit d'auteur et liberté d'expression : de la balance des intérêts au conflit de juridictions ? », Maître Vincent Varet a évoqué la question de la compatibilité des décisions rendues sur le sujet par la CEDH et la CJUE, en comparant l'évolution de leurs jurisprudences respectives à un match de rugby entre les deux juridictions. L'orateur a expliqué que, jusqu'aux arrêts de la CJUE du 29 juillet 2019, « la CEDH domine le terrain ». La Cour européenne considère que la liberté d'expression peut justifier une limite externe au droit d'auteur et permettre l'utilisation sans autorisation d'une œuvre protégée. La manière dont le juge national applique le droit d'auteur est jugée contraire à la liberté d'expression si la CEDH estime qu'une dérogation au droit d'auteur est nécessaire en dehors des exceptions légales. Depuis l'arrêt Klasen du 15 mai 2015, les juges du fond appliquent la solution de la CEDH et la liberté d'expression est invoquée, dans toutes les affaires en cours, comme un moyen autonome pour justifier l'utilisation non autorisée d'œuvres protégées.

Au cours de la « deuxième mi-temps », qui débute, selon Maître Varet, avec les arrêts de juillet 2019, « la CJUE reprend l'avantage ». Saisie de la question de savoir si la liberté d'expression peut justifier des exceptions au droit d'auteur non prévues par la loi, la CJUE considère que l'équilibre entre droit d'auteur et liberté d'expression a été tracé par la Directive « société de l'information » qui définit les exceptions au droit d'auteur dont certaines sont justifiées par la liberté d'expression. L'ajout d'autres exceptions remettrait en cause l'effectivité de l'harmonisation européenne. Dans le match entre les deux juridictions, dont les solutions opposées s'imposent au juge national, une « troisième mi-temps » pourrait permettre, selon Maître Varet, une conciliation entre leurs approches respectives. Face à deux droits d'égale valeur, la CEDH reconnaît aux États une marge d'appréciation importante. Les hypothèses où la liberté d'expression pourra prévaloir sur le droit d'auteur seront rares car les exceptions au droit d'auteur sont conçues pour favoriser la liberté d'expression. La CJUE interprétera plus largement une exception visant à promouvoir la liberté d'expression. Sa position pourrait ainsi favoriser, via la jurisprudence de la CEDH, une harmonisation européenne de toutes les exceptions au droit d'auteur.

***

« Rendez-vous incontournable des praticiens du droit de la communication », le dernier Forum Legipresse a été d'une telle richesse que la synthèse en est difficile. « Le temps d'une journée », il a été question de responsabilité et de régulation des réseaux sociaux, des médias en ligne et des plateformes de partage de contenus. À défaut d'avoir fait l'unanimité des participants, les différents thèmes abordés au cours de ce « temps d'échange et de réflexion » ont mis en lumière les menaces et les garanties de la liberté d'expression dans ce nouvel environnement juridique, pour le plus grand intérêt des spécialistes du droit des médias et des réseaux sociaux réunis à cette occasion.

5 mars 2020 - Légipresse N°379
7350 mots
> Commenter
Ajouter un commentaire
Titre du commentaire :
Message :
Envoyer