Imprimer
Autres documents liés

Rapport | Doc. 15537 | 23 mai 2022

Le contrôle de la communication en ligne: une menace pour le pluralisme des médias, la liberté d’information et la dignité humaine

Commission de la culture, de la science, de l'éducation et des médias

Rapporteur : M. Frédéric REISS, France, PPE/DC

Origine - Renvoi en commission: Doc. 15041, Renvoi 4496 du 6 mars 2020. 2022 - Troisième partie de session

Résumé

La communication en ligne est devenue un élément essentiel de la vie quotidienne des citoyens. C’est pourquoi il est inquiétant de constater qu’une petite poignée de grandes entreprises technologiques contrôlent de facto les flux d’informations en ligne. Pour remédier à la domination de quelques intermédiaires d’internet sur le marché numérique, les États membres devraient recourir à la législation antitrust. Les questions cruciales pour les intermédiaires d’internet et pour le grand public sont la qualité et la variété des informations, ainsi que la pluralité des sources disponibles en ligne.

L’utilisation de l’intelligence artificielle et des filtres automatisés pour la modération des contenus n’est ni fiable ni efficace. Le rôle et la présence nécessaire des décideurs humains, ainsi que la participation des utilisateurs dans l'élaboration et l’évaluation des politiques de modération de contenu sont cruciaux. La législation devrait lutter contre les «contenus illicites» et éviter d'utiliser des notions plus larges comme celle de «contenus préjudiciables».

Les États membres doivent trouver un équilibre entre la liberté des entreprises économiques privées et leur droit de développer leurs propres stratégies commerciales, incluant l’utilisation de systèmes algorithmiques, et le droit du grand public de communiquer librement en ligne, en ayant accès à un large éventail de sources d’information. Les intermédiaires d’internet doivent assumer leurs responsabilités pour garantir un flux d’informations en ligne libre et pluraliste, respectueux des droits humains.

A. Projet de résolution 
			(1) 
			Projet
de résolution adopté à l’unanimité par la commission le 10 mai 2022.

(open)
1. L’Assemblée parlementaire estime que la politique de la communication doit être ouverte, transparente et pluraliste; elle doit se fonder sur l’accès sans entrave aux informations d’intérêt public et sur la responsabilité de ceux qui diffusent l’information dans la société. Elle constate que la communication en ligne est devenue un élément essentiel de la vie quotidienne des citoyens et s’inquiète du fait qu’une petite poignée d’intermédiaires d’internet contrôlent de facto les flux d’informations en ligne. Cette concentration entre les mains de quelques sociétés privées leur donne un pouvoir démesuré dans les domaines économique et technologique, ainsi que la possibilité d’influer sur presque tous les aspects de la vie privée et sociale des gens.
2. Des questions se posent sur la capacité et la volonté d’un oligopole économique et technologique de garantir la diversité des sources d’information et le pluralisme des idées et opinions en ligne, sur l’opportunité de confier à l’intelligence artificielle la tâche de surveiller le pluralisme en ligne, sur la capacité réelle des cadres juridiques et des institutions démocratiques mis en place à empêcher la concentration du pouvoir économique, technologique et informationnel de se convertir en un pouvoir politique non démocratique. En effet, alors que la communication électorale se déplace vers la sphère numérique, celui qui contrôle la communication en ligne pendant les campagnes électorales peut devenir une force politique redoutable. Les électeurs risquent d'être gravement affectés dans leurs décisions par des informations trompeuses, manipulatrices ou fausses.
3. Les principaux facteurs de risque dans ce contexte sont les suivants: le manque de transparence des nouvelles formes de publicité en ligne, qui peuvent trop facilement échapper aux restrictions applicables à la publicité dans les médias traditionnels, comme celles visant à protéger les enfants, la moralité publique ou d'autres valeurs sociales; le fait que les journalistes, dont le comportement est guidé par des pratiques éditoriales et des obligations éthiques solides, n’endossent plus le rôle de contrôleurs d’accès; et la quantité croissante des désinformations en ligne, en particulier lorsqu’elles sont diffusées de façon stratégique dans le but d’influencer les résultats des élections.
4. D’un point de vue économique, les effets de réseau et les économies d’échelle créent une forte tendance à la concentration du marché. Dans le contexte d’une concurrence oligopolistique induite par la technologie, les inefficacités et les défaillances du marché peuvent s’expliquer par l’utilisation du pouvoir de marché pour décourager l’entrée de nouveaux concurrents, par la création d’obstacles au changement de service ou par les asymétries d’information. Par conséquent, pour remédier à la domination de quelques intermédiaires d’internet sur le marché numérique, les États membres devraient recourir à la législation antitrust. Cela peut permettre aux citoyens d'avoir un plus grand choix lorsqu'il s'agit de choisir, dans la mesure du possible, des plateformes susceptibles de mieux protéger leur vie privée et leur dignité.
5. Parmi les quelques solutions innovantes pour atténuer le pouvoir des intermédiaires d’internet, on peut citer l’option pour les usagers d’accéder, dans la mesure du possible, à des services, de les consulter et de les recevoir, de la part de fournisseurs tiers de leur choix qui classeraient et/ou fourniraient des contenus suivant une classification faite au préalable par l’utilisateur lui-même et pourraient l’alerter en cas de contenu violent, choquant ou dangereux.
6. Au-delà du modèle économique, les questions cruciales pour les intermédiaires d’internet et pour le grand public sont la qualité et la variété des informations, ainsi que la pluralité des sources disponibles en ligne. Les intermédiaires d’internet utilisent de plus en plus des systèmes algorithmiques, qui sont utiles pour effectuer des recherches sur internet, créer et diffuser automatiquement des contenus, identifier les contenus potentiellement illégaux, vérifier les informations publiées en ligne et modérer la communication en ligne. Cependant, les systèmes algorithmiques peuvent être utilisés de manière abusive ou malhonnête pour façonner les informations, les connaissances, la formation d’opinions individuelles ou collectives et même des émotions et des actions. Associé à la puissance technologique et économique des grandes plateformes, ce risque devient particulièrement grave.
7. Avec l’émergence des intermédiaires d’internet, les contenus préjudiciables se propagent à très grande vitesse sur la toile. Les intermédiaires d’internet devraient être particulièrement attentifs à leur devoir de diligence lorsqu'ils produisent ou gèrent les contenus disponibles sur leurs plateformes ou lorsqu'ils jouent un rôle de conservateur ou d'éditeur, tout en évitant de supprimer les contenus de tiers, à l'exception des contenus clairement illégaux.
8. L’utilisation de l’intelligence artificielle et des filtres automatisés pour la modération des contenus n’est ni fiable ni efficace. Les grandes plateformes ont déjà un lourd passif de décisions de modération erronées ou préjudiciables à l’égard de contenus terroristes ou extrémistes. Les solutions aux défis politiques que sont les discours de haine, la propagande terroriste et la désinformation sont souvent multifactorielles; dès lors, l’obligation légale de la modération automatisée est une réponse inadaptée et incomplète. Il importe également de bien identifier et préciser le rôle et la présence nécessaire des décideurs humains, ainsi que la participation des utilisateurs dans l'élaboration et l’évaluation des politiques de modération de contenu.
9. Aujourd'hui, on observe une tendance à la réglementation des plateformes de médias sociaux. Si un contrôle démocratique accru est nécessaire, la réglementation promulguée dans la pratique confère souvent un pouvoir et une liberté d’action trop étendus aux autorités publiques en ce qui concerne la circulation de l’information, ce qui met en danger la liberté d'expression. Le législateur devrait chercher à renforcer la transparence et se concentrer sur les processus et les opérations des entreprises plutôt que sur le contenu proprement dit. En outre, la législation devrait lutter contre les «contenus illicites» et éviter d'utiliser des notions plus larges comme celle de «contenus préjudiciables».
10. Si les législateurs choisissent d'imposer des réglementations très lourdes à tous les intermédiaires d’internet, y compris les nouvelles petites entreprises, cela pourrait consolider la position des grands acteurs qui sont déjà sur le marché. Dans un tel cas, de nouveaux acteurs auraient peu de chance d'entrer sur le marché. Par conséquent, il est nécessaire d'adopter une approche progressive, pour adapter différents types de réglementations aux différents types de plateformes.
11. L'Assemblée parlementaire rappelle que, dans sa Recommandation CM/Rec(2018)2 sur les rôles et les responsabilités des intermédiaires d’internet, le Comité des Ministres du Conseil de l'Europe précise que toute législation devrait définir clairement les pouvoirs accordés aux autorités publiques à l’égard des intermédiaires d’internet; et la Recommandation CM/Rec(2020)1 sur les impacts des systèmes algorithmiques sur les droits de l'homme confirme que les normes de l'État de droit doivent être maintenues dans le cadre des systèmes algorithmiques.
12. Les intermédiaires d’internet doivent assurer un certain degré de transparence des systèmes algorithmiques qu’ils utilisent, car cela peut avoir un impact sur notre liberté d’expression. Dans le même temps, en leur qualité d’entreprises privées, ils doivent pouvoir jouir de leurs droits légitimes au secret commercial, sans préjudice d'une transparence effective et des droits humains. Les États membres doivent trouver un équilibre entre la liberté des entreprises économiques privées et leur droit de développer leurs propres stratégies commerciales, incluant l’utilisation de systèmes algorithmiques, et le droit du grand public de communiquer librement en ligne, en ayant accès à un large éventail de sources d’information. Ils doivent également reconnaître que la suppression de contenu n'est pas en soi une solution aux préjudices sociétaux, car une modération de contenu plus rigoureuse peut déplacer le problème du discours de haine en ligne vers des plateformes moins populaires plutôt que de s'attaquer à ses causes.
13. Les intermédiaires d’internet ont la responsabilité de garantir la protection des droits des utilisateurs, qui incluent la liberté d’expression. Par conséquent, les États membres doivent veiller à ce que les intermédiaires d'internet soient tenus pour responsables des systèmes algorithmiques qu’ils développent et utilisent pour la production et la distribution automatisées des informations, ainsi que de leurs lignes de financement et les politiques qu’ils mettent en œuvre pour créer des flux d’information et lutter contre les contenus illégaux.
14. En particulier, sur la base des normes internationales et de la législation nationale, les intermédiaires d’internet devraient assumer des responsabilités spécifiques concernant la protection des utilisateurs contre la manipulation, la désinformation, le harcèlement, les discours de haine et toute expression portant atteinte à la vie privée et à la dignité humaine. Le fonctionnement des intermédiaires d’internet et les évolutions technologiques qui sous-tendent leur mode opératoire doivent être guidés par des principes éthiques élevés. D’un point de vue juridique et éthique, les intermédiaires d’internet doivent assumer leurs responsabilités pour garantir un flux d’informations en ligne libre et pluraliste, respectueux des droits humains.
15. En conséquence, l’Assemblée appelle les États membres du Conseil de l’Europe:
15.1. à rendre leur législation et leur pratique conformes à la Recommandation CM/Rec(2020)1 sur les impacts des systèmes algorithmiques sur les droits de l'homme et à la Recommandation CM/Rec(2018)2 sur les rôles et les responsabilités des intermédiaires d’internet;
15.2. à examiner si les réglementations et outils de concurrence générale existants permettent de combattre efficacement la concentration du pouvoir économique et technologique entre les mains de quelques intermédiaires d’internet;
15.3. à utiliser la législation antitrust pour forcer les monopoles à céder une part de leurs actifs et à réduire leur domination sur les marchés numériques;
15.4. à développer une approche réglementaire progressive pour adapter différents types de réglementations aux différents types d’intermédiaires d’internet, dans le but d'éviter de pousser de nouveaux acteurs en dehors du marché ou de leur permettre d’arriver sur le marché;
15.5. à combattre le problème du comportement anticoncurrentiel sur les marchés numériques en renforçant l’application de la réglementation sur les fusions et les abus de position monopolistique;
15.6. à garantir que toute législation imposant des obligations et des restrictions aux intermédiaires d’internet et ayant une incidence sur la liberté d’expression des utilisateurs vise exclusivement à lutter contre les «contenus illicites» et à éviter les notions plus larges comme celle de «contenus préjudiciables»;
15.7. à veiller à ce que la modération uniquement automatisée ne soit pas autorisée par la loi; à cet égard, à encourager les intermédiaires d’internet, par le biais de mesures juridiques et politiques:
15.7.1. à permettre aux utilisateurs de choisir des moyens de communication directs et efficaces qui ne reposent pas uniquement sur des outils automatisés;
15.7.2. à veiller à ce que, lorsque des moyens automatisés sont utilisés, la technologie soit suffisamment fiable pour limiter le taux d'erreurs quand des contenus sont considérés à tort comme des contenus illicites;
15.8. à garantir que la modération imposée par la loi prévoie la présence nécessaire de décideurs humains et intègre des garanties suffisantes pour que la liberté d’expression ne soit pas entravée;
15.9. à encourager, par le biais de mesures juridiques et politiques, la participation des utilisateurs dans l'élaboration et l’évaluation des politiques de modération de contenu;
15.10. à garantir que la réglementation promulguée pour assurer la transparence des systèmes automatisés de modération de contenu se fonde sur une définition claire du type d’informations qu’il est nécessaire et utile de divulguer et des intérêts publics qui légitiment ces obligations;
15.11. à soutenir l’élaboration et le respect d’un cadre général d’éthique des intermédiaires d’internet, incluant les principes de transparence, de justice, de non-malfaisance, de responsabilité, de vie privée et de droits et libertés des utilisateurs;
15.12. à encourager les intermédiaires d'internet, par le biais de mesures juridiques et politiques, à lutter contre le discours de haine en ligne en envoyant des messages d'avertissement aux personnes qui propagent le discours de haine en ligne ou en invitant les utilisateurs à réviser les messages avant de les envoyer; à encourager les intermédiaires d'internet à ajouter de telles lignes directrices aux codes de conduite traitant du discours de haine;
15.13. à envisager d’adapter leur législation et leurs politiques électorales au nouvel environnement numérique en révisant les dispositions relatives à la communication électorale; à cet égard, à renforcer la responsabilité des intermédiaires d’internet en matière de transparence et d’accès aux données, à promouvoir un journalisme de qualité, à autonomiser les électeurs vers une évaluation critique des actions de communication électorale et à développer l’éducation aux médias.

B. Exposé des motifs par M. Frédéric Reiss, rapporteur

(open)

1. Introduction

1. Dans sa Résolution A/HRC/RES/32/13 du 1er juillet 2016, le Conseil des droits de l’homme des Nations Unies a affirmé que «[…] les droits dont les personnes jouissent hors ligne doivent être aussi protégés en ligne, en particulier le droit à la liberté d’expression, qui est applicable indépendamment des frontières et quel que soit le média que l’on choisisse, conformément aux articles 19 de la Déclaration universelle des droits de l’homme et du Pacte international relatif aux droits civils et politiques». Ce faisant, il rappelle ses Résolutions A/HRC/RES/20/8 du 5 juillet 2012 et A/HRC/RES/26/13 du 26 juin 2014 sur la question de la promotion, de la protection et de la jouissance des droits humains sur internet.
2. Internet est une plateforme technologique qui peut être utilisée à différentes fins et proposer toute une gamme de services très différents. À ce titre, internet ne peut pas être considéré comme un média comparable à la presse, à la radio et à la télévision, mais plutôt comme une plateforme de distribution propice aux interactions entre plusieurs types de fournisseurs et d’utilisateurs.
3. En plus d’être un espace dédié à ce que l’on a coutume d’appeler la communication publique, internet permet aussi d’exploiter différents outils de communication privée (courrier électronique et services de messagerie privée). Il a ainsi donné naissance à de nouvelles formes hybrides de communication, qui présentent des caractéristiques des deux (par exemple, les applications qui autorisent la création de petits groupes ou de communautés et la diffusion interne de contenus).
4. Outre sa fonction de communication, internet se révèle par ailleurs un outil très puissant pour faciliter le déploiement de l’économie dite numérique. La pandémie de covid-19 a particulièrement stimulé les achats en ligne ou l’offre dématérialisée de biens et de services économiques, créant ainsi de nouveaux espaces où de nouveaux modèles commerciaux peuvent prospérer.
5. Ces dernières années, une catégorie bien spécifique d’acteurs en ligne a pris une place centrale dans la plupart des débats juridiques et politiques.
6. En 2018, le Comité des Ministres du Conseil de l’Europe a adopté une recommandation sur les rôles et les responsabilités des intermédiaires d’internet 
			(2) 
			Disponible
en ligne sur: <a href='https://rm.coe.int/0900001680790e37'>https://rm.coe.int/0900001680790e37</a>., évoquant «une grande diversité d’acteurs dont le nombre ne cesse de s’étendre» qui:
«facilitent les interactions sur l’internet entre les personnes physiques et morales en exerçant des fonctions diverses et en proposant des services variés. Certains connectent les utilisateurs à l’internet, assurent le traitement d’informations et de données ou hébergent des services en ligne, y compris pour du contenu généré par les utilisateurs. D’autres agrègent des informations et permettent de faire des recherches; ils donnent accès à des contenus et des services conçus ou gérés par des tiers, les hébergent et les indexent. Certains facilitent la vente de biens et de services, notamment de services audiovisuels, et rendent possibles d’autres transactions commerciales, y compris les paiements.»
7. Les intermédiaires sont devenus des acteurs de premier plan dans le processus de diffusion et de distribution de tout type de contenus. Le terme «intermédiaires» recouvre un large éventail de fournisseurs de services en ligne, dont le stockage, la distribution et le partage en ligne, les médias sociaux, la collaboration et les jeux, sans oublier la recherche et le référencement 
			(3) 
			Voir la catégorisation
complète et détaillée proposée par Joris van Hoboken, João Pedro
Quintais, Joost Poort, Nico van Eijk, «Hosting intermediary services
and illegal content online. An analysis of the scope of article
14 ECD in light of developments in the online service landscape»,
Commission européenne – Direction générale des réseaux de communication,
du contenu et des technologies, et IVIR (University of Amsterdam-Institute
for Information Law) 2018. Disponible en ligne sur: <a href='https://op.europa.eu/en/publication-detail/-/publication/7779caca-2537-11e9-8d04-01aa75ed71a1/language-en'>https://op.europa.eu/en/publication-detail/-/publication/7779caca-2537-11e9-8d04-01aa75ed71a1/language-en</a>..
8. Le présent rapport porte sur ce que l’on appelle communément les fournisseurs de services d’hébergement, et en particulier sur ceux qui ont tendance à s’engager dans la modération de contenu granulaire. Cela comprend les services fournis par les plateformes de médias sociaux comme Facebook ou Twitter, les plateformes de partage de contenu comme YouTube ou Vimeo, et les moteurs de recherche comme Google ou Yahoo.
9. Ces fournisseurs jouent un rôle important en tant que facilitateurs de l’exercice du droit des usagers à la liberté d’expression. Pour autant, il n’en demeure pas moins que le rôle et la présence des intermédiaires en ligne soulèvent deux grandes questions. Premièrement, la multiplicité des économies d’échelle, des économies de gamme et des effets de réseau favorise un niveau élevé de concentration, qui peut aussi conduire à d’importantes défaillances du marché. Deuxièmement, les plus grands acteurs de ces marchés sont clairement devenus de puissants contrôleurs d’accès aux principaux forums de discussion. Comme dans le cas des acteurs concentrés – une question qui reste à résoudre à bien des égards – exerçant un pouvoir de goulet d’étranglement dans le champ des médias traditionnels (notamment le secteur de la radiodiffusion), les valeurs telles que la dignité humaine, le pluralisme, la liberté d’expression 
			(4) 
			Le terme «liberté d'expression»
est utilisé ici dans le sens que lui donne l'article 10 de la Convention
européenne des droits de l’homme, à savoir: «Toute personne a droit
à la liberté d'expression. Ce droit comprend la liberté d'opinion
et la liberté de recevoir ou de communiquer des informations ou
des idées sans qu'il puisse y avoir ingérence d'autorités publiques
et sans considération de frontière». doivent faire l’objet d’une attention particulière et être au cœur des débats juridiques et politiques sur la réglementation des plateformes.
10. L’objet du présent rapport est d’approfondir ces questions en mettant particulièrement l'accent sur les possibilités de préserver les valeurs susmentionnées, dans un contexte où aucune contrainte inutile et disproportionnée n'est imposée et où différents modèles commerciaux peuvent prospérer au profit des utilisateurs et de la société dans son ensemble.
11. Mon analyse prend appui sur le rapport d’expert de M. Joan Barata 
			(5) 
			Chercheur,
Programme sur la réglementation des plateformes, Cyber Policy Center,
Université de Stanford., que je remercie chaleureusement pour son travail remarquable. J’ai aussi pris en compte les contributions d’autres experts 
			(6) 
			M. Paddy
Leerssen, Doctorant à l'Université d'Amsterdam et Non-résident au
Centre pour l’internet et la société, Université de Stanford-Centre
for Internet and Society; 	Mme Gabrielle
Guillemin, Juriste principale à ARTICLE 19, Londres; M. Paul Reilly,
Maître de conférences en médias sociaux et société numérique, directeur
adjoint de l'apprentissage et de l'enseignement, École d'information,
Université de Sheffield; 	Mme Eliska
Pirkova, Access Now, analyste des politiques européennes et responsable
mondiale de la liberté d'expression, Bruxelles. et de plusieurs membres de la commission.

2. Les services d’hébergement: une activité économique dotée de pouvoirs de contrôle

2.1. Les plateformes et la domination du marché

12. Les plateformes en ligne sont de nouveaux acteurs particulièrement importants dans la sphère publique, principalement au niveau de leur pouvoir de marché. Elles fonctionnent en s’appuyant sur ce que l’on appelle les effets de réseau: plus une plateforme a d’utilisateurs, plus les avantages pour les utilisateurs sont nombreux et plus les services deviennent intéressants pour eux. Ces effets de réseau sont transversaux, au sens où les avantages ou services reçus par une partie des utilisateurs (les utilisateurs des médias sociaux, par exemple) sont subventionnés par d’autres participants (les annonceurs). Au vu de cette principale caractéristique, il est évident que le succès de ces plateformes dépend de la captation d’une masse critique et, à partir de là, de l’accumulation du plus grand nombre possible d’utilisateurs finaux.
13. Dans un récent rapport sur les défaillances et les nuisances du marché en ligne, l’autorité britannique de régulation OFCOM a observé qu’outre les effets de réseau évoqués, les entreprises bénéficient d’économies de coûts grâce à leur taille (économies d’échelle) ou à leur implantation dans une gamme de services (économies de gamme) 
			(7) 
			Ofcom, «Online market
failures and harms – an economic perspective on the challenges and
opportunities in regulating online services», 28 octobre 2019. Disponible
à l’adresse suivante: <a href='https://www.ofcom.org.uk/data/assets/pdf_file/0025/174634/online-market-failures-and-harms.pdf'>www.ofcom.org.uk/data/assets/pdf_file/0025/174634/online-market-failures-and-harms.pdf</a>.. L’utilisation des données et des algorithmes est un autre élément d’une grande importance économique. En effet, la collecte de données relatives aux habitudes et aux caractéristiques des utilisateurs permet non seulement d’améliorer l’expérience de ces derniers grâce à des services personnalisés, mais aussi de proposer des publicités plus ciblées à partir d’une connaissance approfondie des préférences et besoins des consommateurs. Cela implique de collecter le plus grand nombre de données possible auprès des utilisateurs, tout en dissuadant ces derniers de rechercher d’autres services. En plus de tous ces éléments, il convient de signaler que les modèles commerciaux deviennent de plus en plus complexes et sophistiqués, les grandes plateformes en ligne combinant souvent plusieurs offres de services: médias sociaux, recherche, places de marché, partage de contenu, etc. De ce fait, l’identification des marchés pertinents aux fins de l’évaluation de la concurrence peut devenir éminemment complexe.
14. Toujours d’un point de vue strictement économique, les effets de réseau et les économies d’échelle créent une forte tendance à la concentration du marché. Dans ce contexte de concurrence oligopolistique induite par la technologie, les inefficacités et les défaillances du marché peuvent s’expliquer par l’utilisation du pouvoir de marché pour décourager l’entrée de nouveaux concurrents, par la création d’obstacles au changement de service ou par les asymétries d’information 
			(8) 
			Voir Bertin Martens,
«An Economic Policy Perspective on Online Platforms», Centre commun
de recherche, Commission européenne, 2016. Disponible à l’adresse
suivante: <a href='https://ec.europa.eu/jrc/sites/jrcsh/files/JRC101501.pdf'>https://ec.europa.eu/jrc/sites/jrcsh/files/JRC101501.pdf</a>..
15. En juin 2019 aux États-Unis, la commission judiciaire de la Chambre des représentants a lancé une enquête bipartite sur la concurrence des marchés numériques. La sous-commission sur les lois antitrust, le droit commercial et le droit administratif s’est intéressée à la position dominante d’Amazon, Apple, Facebook et Google ainsi qu’à leurs pratiques commerciales, afin de comprendre comment leur pouvoir affecte l’économie et la démocratie américaines. Par ailleurs, la sous-commission a passé en revue les lois antitrust existantes, les politiques publiques sur la concurrence et les niveaux actuels d’application afin de déterminer leur efficacité pour faire face au pouvoir de marché et aux comportements anticoncurrentiels observés sur les marchés numériques. Les membres de la sous-commission ont identifié un vaste éventail de réformes à étudier de manière plus approfondie en vue de préparer de nouvelles initiatives législatives. Ces réformes porteraient notamment sur la lutte contre les comportements anticoncurrentiels sur les marchés numériques, le renforcement de l’application des lois sur les fusions et la monopolisation, et l’amélioration de l’application des lois antitrust par d’autres réformes 
			(9) 
			Le rapport
final publié en 2020 est disponible à l’adresse suivante: <a href='https://judiciary.house.gov/issues/issue/?IssueID=14921'>https://judiciary.house.gov/issues/issue/?IssueID=14921</a>..
16. Au niveau de l’Union européenne, les commissaires européens Margrethe Vestager et Thierry Breton ont présenté mi-décembre 2020 deux grandes propositions législatives: la législation sur les services numériques et la législation sur les marchés numériques 
			(10) 
			<a href='https://ec.europa.eu/digital-single-market/en/digital-services-act-package'>https://ec.europa.eu/digital-single-market/en/digital-services-act-package</a>.. La législation sur les marchés numériques vise à harmoniser les réglementations en vigueur dans les États membres afin de prévenir plus efficacement la formation de goulets d’étranglement et l’imposition de barrières à l’entrée du marché unique numérique 
			(11) 
			La
nouvelle réglementation définira des critères objectifs pour qualifier
une grande plateforme en ligne de «contrôleur d’accès» et établira
des obligations pour ce type de plateforme dans différents domaines,
notamment: permettre à des tiers d’interagir avec leurs propres
services dans des situations spécifiques; permettre aux entreprises
utilisatrices d’accéder aux données générées par leurs activités
sur leur plateforme; fournir aux entreprises qui font de la publicité
sur leur plateforme les outils et les informations nécessaires pour
que les annonceurs et les éditeurs puissent effectuer leur propre
vérification indépendante des annonces publicitaires hébergées par
le contrôleur d’accès; ou autoriser les entreprises utilisatrices
à promouvoir leur offre et à conclure des contrats avec leurs clients
en dehors de leur plateforme..

2.2. Les plateformes et le pouvoir informationnel

17. Le pouvoir des plateformes en ligne dépasse le seul cadre économique. Même aux États-Unis, où les décisions prises par les plateformes qui affectent – et parfois restreignent – la liberté d’expression bénéficient d’une solide protection constitutionnelle, la Cour suprême a déclaré que les plateformes de médias sociaux servaient de «place publique moderne», offrant à de nombreuses personnes leurs «principales sources d’information sur l’actualité» et un moyen d’explorer «la pensée et les connaissances humaines» 
			(12) 
			Packingham
c. Caroline du Nord, 137 S. Ct. 1730, 1737 (2017), cité dans Daphne
Keller, «Who Do You Sue? State and Platform Hybrid Power over Online
Speech», Hoover Working Group on National Security, Technology,
and Law, Aegis Series Paper no 1902 (29
janvier 2019), disponible à l’adresse suivante: <a href='https://www.lawfareblog.com/who-do-you-sue-state-and-platform-hybrid-power-over-online-speech'>www.lawfareblog.com/who-do-you-sue-state-and-platform-hybrid-power-over-online-speech</a>..
18. Les dispositions légales et réglementaires qui s’appliquent aux discours hors ligne doivent en principe être également appliquées et mises en œuvre pour les discours en ligne, y compris les contenus diffusés via les plateformes en ligne. L’application de restrictions légales générales en matière de contenu vis-à-vis des plateformes en ligne – et la responsabilité qui en découle – constitue un domaine spécifique de dispositions juridiques qui, en Europe, est principalement couvert par la directive sur le commerce électronique (dans le cas de l’Union européenne 
			(13) 
			Directive
2000/31/CE du Parlement européen et du Conseil du 8 juin 2000 relative
à certains aspects juridiques des services de la société de l’information,
et notamment du commerce électronique, dans le marché intérieur.) et les normes établies par le Conseil de l’Europe. L’annexe à la Recommandation CM/Rec(2018)2 du Comité des Ministres aux États membres sur les rôles et les responsabilités des intermédiaires d’internet, déjà citée, précise que toute législation «devrait définir clairement les pouvoirs accordés aux autorités publiques à l’égard des intermédiaires d’internet, en particulier lorsque ces pouvoirs sont exercés par les forces de l’ordre» et que toute action des autorités publiques adressée à des intermédiaires d’internet qui pourrait entraîner une limitation de l’exercice de la liberté d’expression, doit respecter les «trois tests» énoncés à l’article 10 de la Convention européenne des droits de l’homme (STE no 5).
19. Par ailleurs, les fournisseurs d’hébergement modèrent généralement les contenus selon leurs propres règles privées. La modération des contenus consiste en une série de mécanismes de gouvernance qui structurent la participation à une communauté afin de faciliter la coopération et de prévenir les abus. Les plateformes cherchent à promouvoir la bonne tenue des débats et des interactions afin de faciliter la communication entre utilisateurs 
			(14) 
			James Grimmelmann,
«The Virtues of Moderation», 17 Yale
J.L. & Tech (2015). Disponible à l’adresse suivante: <a href='https://digitalcommons.law.yale.edu/yjolt/vol17/iss1/2'>https://digitalcommons.law.yale.edu/yjolt/vol17/iss1/2</a>.. Elles prennent ces décisions sur la base d’une série de principes et de normes internes. Parmi les exemples de ces systèmes de modération, citons les standards de la communauté Facebook 
			(15) 
			<a href='https://www.facebook.com/communitystandards/'>www.facebook.com/communitystandards/</a>., les règles et politiques de Twitter 
			(16) 
			<a href='https://help.twitter.com/fr/rules-and-policies'>https://help.twitter.com/fr/rules-and-policies</a>. ou le règlement de la communauté YouTube 
			(17) 
			<a href='https://www.youtube.com/howyoutubeworks/policies/community-guidelines/'>www.youtube.com/howyoutubeworks/policies/community-guidelines/</a>.. Dans tous les cas, il est clair que les plateformes ont le pouvoir de façonner et de réglementer le discours en ligne au-delà des dispositions du droit national, et ce de manière très puissante. La suspension unilatérale des comptes de l’ancien président des États-Unis Donald Trump sur plusieurs grandes plateformes de médias sociaux en a été une manifestation évidente. Le pouvoir discrétionnaire dont disposent les entreprises d’envergure mondiale comptant des milliards d’utilisateurs pour fixer et interpréter les règles privées qui régissent le discours légal est considérable. Ces règles ont une incidence à la fois locale et mondiale sur la façon dont les faits, les idées et les opinions sur diverses questions d’intérêt public sont diffusés.
20. De nombreux auteurs et organisations ont alerté sur le fait que les intermédiaires font la promotion de contenus afin de maximiser l’implication et la dépendance des utilisateurs, le ciblage comportemental et une certaine polarisation 
			(18) 
			Elettra
Bietti, «Free Speech is Circular», Medium, 1er juin
2020. Disponible en ligne à l’adresse suivante: <a href='https://medium.com/berkman-klein-center/free-speech-is-circular-trump-twitter-and-the-public-interest-5277ba173db3'>https://medium.com/berkman-klein-center/free-speech-is-circular-trump-twitter-and-the-public-interest-5277ba173db3</a>.. D’un autre côté, il convient aussi de préciser que la compréhension par le public des opérations de suppression de contenu des plateformes, même parmi les chercheurs spécialisés, reste limitée et que ce déficit d’information laisse les décideurs relativement démunis pour répondre aux préoccupations relatives aux plateformes, au discours en ligne et à la démocratie. Si des améliorations récentes concernant la divulgation d’informations par les entreprises ont pu atténuer ce problème, il reste encore beaucoup à faire 
			(19) 
			Daphne
Keller et Paddy Leerssen, «Facts and Where to Find Them: Empirical
Research on Internet Platforms and Content Moderation», dans N.
Persily et J. Tucker, Social Media and
Democracy: The State of the Field and Prospects for Reform. Cambridge
University Press 2020.. Cela étant dit, il y a aussi lieu de signaler que les grandes plateformes ont déjà un lourd passif de décisions de modération erronées ou préjudiciables à l’égard de contenus terroristes ou extrémistes 
			(20) 
			Voir Jillian C. York
et Karen Gullo, «Offline/Online Project Highlights How the Oppression
Marginalized Communities Face in the Real World Follows Them Online», Electronic Frontier Foundation,
6 mars 2018 (<a href='https://www.eff.org/deeplinks/2018/03/offlineonline-project-highlights-how-oppression-marginalized-communities-face-real'>www.eff.org/deeplinks/2018/03/offlineonline-project-highlights-how-oppression-marginalized-communities-face-real</a>), Billy Perrigo, «These Tech Companies Managed to Eradicate
ISIS Content. But They’re Also Erasing Crucial Evidence of War Crimes», Time, 11 avril 2020 (<a href='https://time.com/5798001/facebook-youtube-algorithms-extremism/?xid=tcoshare'>https://time.com/5798001/facebook-youtube-algorithms-extremism/?xid=tcoshare</a>), et «When Content Moderation Hurts», Mozilla, 4 mai 2020 (<a href='https://foundation.mozilla.org/en/blog/when-content-moderation-hurts/'>https://foundation.mozilla.org/en/blog/when-content-moderation-hurts/</a>)..
21. Les plateformes ne se contentent pas de fixer et d’appliquer des règles privées concernant le contenu publié par leurs utilisateurs. Elles mènent également des activités de surveillance approfondies au sein de leurs propres espaces et jouent un rôle fondamental dans la détermination des contenus visibles en ligne et des contenus qui, bien que publiés, restent cachés ou peu connus. Certes, les utilisateurs sont libres de choisir directement le contenu fourni par les fournisseurs d’hébergement en ligne (accès aux profils et aux pages des autres utilisateurs, outils de recherche, intégration, etc.); pour autant, les propres systèmes de recommandation des plateformes sont extrêmement influents dans la mesure où ils occupent une place centrale dans leurs interfaces et sont devenus des éléments incontournables de la découverte de contenu 
			(21) 
			Voir l’analyse récente
et approfondie de ces questions dans Paddy Leerssen, «The Soap Box
as a Black Box: Regulating Transparency in Social Media Recommender
Systems», European Journal of Law and
Technology, Vol. 11, no 2
(2020).. Étant donné que les résultats finaux des recommandations sont le fruit d’une interaction bilatérale entre les utilisateurs – leurs préférences, leurs préjugés, leurs antécédents, etc. – et les systèmes de recommandation eux-mêmes, il importe de ne pas négliger le rôle majeur de contrôleur d’accès joué par ces derniers dans la hiérarchisation, l’amplification ou la restriction des contenus.
Graphic
22. Sur la base des considérations précédentes, il convient de souligner, premièrement, qu’aucun système de recommandation n’est ou ne peut être considéré comme fonctionnant sur une base totalement neutre, ni prédéterminé dans ce sens. Cela tient non seulement à l’influence des préférences des utilisateurs, mais aussi au fait que les politiques de contenu des plateformes sont souvent fondées sur un mélange complexe de différents principes: stimuler l’engagement des utilisateurs, respecter certaines valeurs d’intérêt public – qu’elles soient véritablement cultivées par les plateformes ou qu’elles résultent de pressions exercées par les décideurs et les législateurs – ou adhérer à une notion précise du droit à la liberté d’expression. En réalité, le seul cas où des politiques de modération de contenus pourraient être qualifiées de «neutres» serait probablement l’absence de telles politiques. Toutefois, demander aux plateformes d’héberger – sans catégorisation ni critères préétablis – une masse de contenus bruts soumis à la seule exigence de respecter la loi reviendrait à les transformer en dépotoirs où spams, désinformation, pornographie, pro-anorexie et autres informations nuisibles seraient constamment proposés à l’utilisateur. Ce scénario n’est guère séduisant, ni pour les utilisateurs ni pour les entreprises. En outre, l’expérience de ce type d’initiatives – comme 4chan ou 8chan aux États-Unis – a montré que, parmi d’autres options, les plateformes de cette nature sont souvent utilisées par des groupes qui défendent des valeurs antidémocratiques, remettent en cause la légitimité des processus électoraux et diffusent des contenus contraires aux principes fondamentaux de la dignité humaine – du moins de la manière dont ce principe est compris et protégé en Europe.
23. Deuxièmement, quelle que soit la précision avec laquelle un outil automatisé, algorithmique ou même d’apprentissage automatique est conçu, il peut être arbitrairement difficile de prédire ce qu’il peut faire. Il n’est pas rare d’obtenir des résultats imprévus, et les facteurs et les dysfonctionnements qui les provoquent ne peuvent être corrigés qu’une fois détectés. Certains de ces résultats ne sont pas sans menacer gravement les droits humains, notamment en ce qui concerne le durcissement de situations discriminatoires: un article scientifique sur les technologies de détection du langage abusif a révélé les preuves d’un biais racial systématique, dans tous les ensembles de données, contre les tweets écrits en anglais afro-américain, ce qui crée un risque évident de traitement négatif disproportionné du discours des utilisateurs afro-américains des médias sociaux 
			(22) 
			Thomas
Davidson, Debasmita Bhattacharya et Ingmar Weber, «Racial Bias in
Hate Speech and Abusive Language Detection Datasets», Proceedings of the Third Workshop on Abusive
Language Online, Association for Computational Linguistics,
2019. Disponible sur: <a href='https://arxiv.org/pdf/1905.12516.pdf'>https://arxiv.org/pdf/1905.12516.pdf</a>..
24. La troisième observation renvoie à la notion d’irréductibilité informatique (computational irreducibility) en rapport avec les ensembles de règles éthiques/juridiques. En résumé, on ne peut pas raisonnablement s’attendre à ce qu’un ensemble fini de principes ou de règles informatiques qui contraignent les systèmes automatisés de sélection de contenus se comporte toujours exactement en fonction d’un système raisonnable de principes et de règles juridiques et/ou éthiques, ni à ce qu’il serve ses objectifs. Les normes informatiques généreront toujours de nouveaux cas imprévus et de nouveaux principes devront donc être définis pour les gérer 
			(23) 
			Pour plus d’informations
sur l’imprévisibilité et l’irréductibilité, veuillez consulter la
transcription de l’intervention de Stephen Wolfram «Optimizing for
Engagement: Understanding the Use of Persuasive Technology on Internet
Platforms» devant la sous-commission du Sénat américain pour les
communications, le technologies, l’innovation et internet, le 25 juin
2019. Disponible sur: <a href='https://www.commerce.senate.gov/services/files/7A162A13-9F30-4F4F-89A1-91601DA485EE'>www.commerce.senate.gov/services/files/7A162A13-9F30-4F4F-89A1-91601DA485EE</a>..

2.3. Des exemples précis: la désinformation et les élections

25. Le présent rapport ne peut pas couvrir le phénomène de désinformation, de malinformation et de mésinformation sous toutes ses dimensions.
26. La notion de désinformation, qui est la plus répandue, couvre les discours qui ne relèvent pas des formes de discours déjà illégales (diffamation, discours de haine, incitation à la violence), mais qui peuvent néanmoins être néfastes 
			(24) 
			Commission européenne,
«Final report of the High-Level Expert Group on Fake News and Online
Disinformation», 2018. Disponible à l’adresse suivante: <a href='https://digital-strategy.ec.europa.eu/en/library/final-report-high-level-expert-group-fake-news-and-online-disinformation'>https://digital-strategy.ec.europa.eu/en/library/final-report-high-level-expert-group-fake-news-and-online-disinformation</a>.. D’après la Commission européenne, la désinformation désigne les informations dont on peut vérifier qu’elles sont fausses ou trompeuses, qui sont cumulativement créées, présentées et diffusées dans un but lucratif ou dans l’intention délibérée de tromper le public, et qui sont susceptibles de causer un préjudice public 
			(25) 
			Code
européen de bonnes pratiques contre la désinformation. Disponible
à l’adresse suivante: <a href='https://digital-strategy.ec.europa.eu/en/policies/code-practice-disinformation'>https://digital-strategy.ec.europa.eu/en/policies/code-practice-disinformation</a>.. Elle est dans tous les cas problématique, car elle a une incidence directe sur la démocratie, elle affaiblit le journalisme et certaines formes de médias traditionnels, elle crée d’importantes bulles de filtre et chambres d’écho, elle peut rejoindre des formes hybrides d’agression internationale via l’utilisation de médias contrôlés par l’État, elle crée son propre mécanisme d’incitation financière, elle engendre un certain tribalisme politique et elle peut être facilement automatisée. La lutte contre la désinformation, surtout lorsqu’elle est diffusée par des plateformes en ligne, doit passer par une analyse large et complète intégrant des perspectives, des principes et des intérêts divers et complémentaires.
27. Par ailleurs, il convient également de noter que le problème n’est pas tant le phénomène de désinformation ou les fake news en tant que tel, mais plutôt les effets qui en découlent – à savoir la manipulation du public, souvent à des fins politiques (mais pas nécessairement) 
			(26) 
			Voir Paul Bernal, «Misunderstanding
misinformation: why most fake news regulations is doomed by failure»,
British Association of Comparative Law, 29 janvier 2021. Disponible
sur: <a href='https://british-association-comparative-law.org/2021/01/29/misunderstanding-misinformation-why-most-fake-news-regulation-is-doomed-to-failure-by-paul-bermal/'>https://british-association-comparative-law.org/2021/01/29/misunderstanding-misinformation-why-most-fake-news-regulation-is-doomed-to-failure-by-paul-bermal/</a>.. Par conséquent, plutôt que de vouloir réglementer le contenu de la désinformation, il semble important d’orienter les règles sur les causes et les conséquences de celle-ci 
			(27) 
			Voir Kate Starbird,
Ahmer Arif et Tom Wilson, «Disinformation as Collaborative Work:
Surfacing the Participatory Nature of Strategic Information Operations»,
Université de Washington, 2019. Disponible sur: <a href='http://faculty.washington.edu/kstarbi/Disinformation-as-Collaborative-Work-Authors-Version.pdf'>http://faculty.washington.edu/kstarbi/Disinformation-as-Collaborative-Work-Authors-Version.pdf</a>.. Comme l’a indiqué la Rapporteuse spéciale des Nations Unies sur la promotion et la protection du droit à la liberté d’opinion et d’expression, Irene Khan, dans son premier rapport présenté au Conseil des droits de l’homme sur les menaces que fait peser la désinformation sur les droits humains, les institutions démocratiques et le processus de développement 
			(28) 
			Voir <a href='https://documents-dds-ny.un.org/doc/UNDOC/GEN/G21/085/65/PDF/G2108565.pdf?OpenElement'>https://documents-dds-ny.un.org/doc/UNDOC/GEN/G21/085/65/PDF/G2108565.pdf?OpenElement</a>., «la désinformation tend à prospérer là où les droits de l’homme sont réprimés, où le régime d’information publique manque de robustesse et où la qualité, la diversité et l’indépendance des médias sont faibles».
28. La désinformation étant directement liée au droit à la liberté d’expression, une attention excessive portée aux mesures juridiques, et en particulier aux mesures restrictives, pourrait avoir des effets regrettables sur le libre-échange d’idées et les libertés individuelles. D’après la Déclaration conjointe sur la liberté d’expression, les «fausses informations», la désinformation et la propagande, adoptée le 3 mars 2017 par le Rapporteur spécial, le Représentant sur la liberté des médias de l’Organisation pour la sécurité et la coopération en Europe (OSCE), le Rapporteur spécial sur la liberté d’expression de l’Organisation des États américains (OEA) et le Rapporteur spécial sur la liberté d’expression et l’accès à l’information de la Commission africaine des droits de l’homme et des peuples (CADHP) 
			(29) 
			Disponible à l’adresse
suivante: <a href='https://www.osce.org/files/f/documents/6/8/302796.pdf'>www.osce.org/files/f/documents/6/8/302796.pdf</a>., les interdictions générales de diffusion d’informations fondées sur des notions vagues et ambiguës, y compris les «fausses nouvelles» ou les «informations non objectives», sont incompatibles avec les normes internationales relatives aux restrictions à la liberté d’expression. Les acteurs étatiques ne doivent pas faire, parrainer, encourager ou diffuser des déclarations dont ils savent ou doivent raisonnablement savoir qu’elles sont fausses (désinformation) ou qui témoignent d’un mépris imprudent pour des informations vérifiables (propagande). Les acteurs étatiques doivent, conformément à leurs obligations juridiques nationales et internationales et à leurs devoirs publics, veiller à diffuser des informations fiables et dignes de foi, notamment sur des questions d’intérêt public telles que l’économie, la santé publique, la sécurité et l’environnement. Enfin, les autorités publiques doivent promouvoir un environnement de communication libre, indépendant et diversifié, y compris la diversité des médias, assurer la présence de médias de service public forts, indépendants et dotés de ressources suffisantes, et prendre des mesures pour promouvoir l’éducation aux médias et au numérique.
29. À cet égard, de nombreux experts et organisations internationales ont particulièrement mis en garde contre la façon dont les «désordres de l’information» (selon la terminologie du Conseil de l’Europe 
			(30) 
			Claire Wardle et Hossein
Derakhshan, «Les désordres de l’information: Vers un cadre interdisciplinaire
pour la recherche et l’élaboration des politiques», Conseil de l’Europe,
2017. Disponible à l’adresse suivante: <a href='https://rm.coe.int/rapport-les-desordres-de-l-information-/1680935bd4'>https://rm.coe.int/rapport-les-desordres-de-l-information-/1680935bd4</a>.) venaient bouleverser l’écosystème de la communication au point d’affecter gravement les électeurs dans leurs décisions par des informations trompeuses, manipulatrices ou fausses destinées à influencer leur vote 
			(31) 
			Voir Krisztina Rozgony,
«The impact of the disinformation disorder (disinformation) on elections.
Rapport pour la Commission européenne pour la démocratie par le
droit (Commission de Venise)». CDL-LA(2018)002. 26 novembre 2018.. Les principaux facteurs de risque dans ce contexte sont les suivants: le manque de transparence des nouvelles formes de publicité en ligne, qui peuvent trop facilement échapper aux restrictions applicables à la publicité sur les médias traditionnels, telles que celles destinées à protéger les enfants, la morale publique ou d'autres valeurs sociales; le fait que les journalistes, dont le comportement est guidé par des pratiques éditoriales saines et des obligations éthiques, ne sont plus ceux qui jouent le rôle de contrôleurs d’accès; et l'éventail croissant de désinformations, y compris d'informations électorales, disponibles en ligne, en particulier lorsqu'elles sont diffusées stratégiquement dans le but d'influencer les résultats des élections.

3. Les solutions possibles

30. Je présenterai dans les paragraphes suivants les grands principes, valeurs et normes des droits de l'homme qui, selon moi, pourraient être envisagés pour trouver des solutions appropriées et adéquates aux différents problèmes mentionnés ci-dessus.
31. En ce qui concerne le pouvoir économique des plateformes, il importe d’évaluer si le droit général de la concurrence peut être utile pour traiter tout ou partie de ces questions, sans pour autant négliger le fait, déjà évoqué, que l’identification des marchés pertinents aux fins de l’évaluation de la concurrence peut devenir particulièrement complexe. La diversité et la flexibilité des modèles commerciaux et des services proposés par un vaste éventail de plateformes rendent nécessaire une analyse au cas par cas ainsi que l’examen éventuel de solutions adaptées ex post, telles que la portabilité des données ou l’interopérabilité des plateformes, par exemple. Il convient d’étudier et de définir soigneusement les interventions possibles afin d’éviter tout résultat involontaire et préjudiciable, notamment en ce qui concerne les incitations à l’entrée et à l’innovation.
32. Il est important de rappeler qu’un petit nombre de solutions innovantes pour atténuer le pouvoir des plateformes ont déjà été présentées par des experts de ce que l’on peut appeler le «choix algorithmique». Ces solutions consistent notamment à donner aux utilisateurs la possibilité de recourir aux services de fournisseurs de classement tiers de leur choix (pas ceux de la plateforme qu’ils utilisent), qui peuvent utiliser d’autres méthodes et mettre l’accent sur d’autres types de contenu; ou à laisser aux utilisateurs le choix d’appliquer les critères de fournisseurs tiers, qui affichent un contenu selon un classement préalablement effectué par les utilisateurs eux-mêmes 
			(32) 
			Voir
l’intervention de Stephen Wolfram citée précédemment.. Dans une contribution récente, Francis Fukuyama et d’autres auteurs proposent que la réglementation oblige les plateformes en ligne à permettre aux utilisateurs d’installer ce que l’on appelle communément un «intergiciel». Il s’agit d’un logiciel fourni par un tiers et incorporé aux plateformes dominantes, destiné à traiter et à trier le contenu présenté aux utilisateurs. Cela pourrait ouvrir la porte à un groupe diversifié d’entreprises concurrentielles susceptibles de personnaliser l’expérience virtuelle des utilisateurs. De l’avis des auteurs, cela atténuerait le contrôle éditorial – considérable à l’heure actuelle – des plateformes sur le contenu et l’étiquetage ou la censure des discours et permettrait à de nouveaux fournisseurs d’innover et de proposer des services qui sont actuellement dominés par les plateformes (marchés des intergiciels) 
			(33) 
			Francis Fukuyama, Barak
Richman, Ashish Goel, Roberta R. Katz, A. Douglas Melamed et Marietje
Schaake, «Middleware for dominant digital platforms: a technological
solution to a threat to democracy», Freeman Spogli Institute, université
de Stanford, 2020. Disponible à l’adresse suivante: <a href='https://fsi-live.s3.us-west-1.amazonaws.com/s3fs-public/cpc-middleware_ff_v2.pdf'>https://fsi-live.s3.us-west-1.amazonaws.com/s3fs-public/cpc-middleware_ff_v2.pdf</a>.. Cette solution soulève un grand nombre de questions intéressantes, mais sa mise en œuvre ne doit pas ignorer plusieurs dimensions importantes, notamment en ce qui concerne la protection des données.
33. La législation peut réglementer le filtrage (par tout moyen, humain, automatisé ou les deux) en obligeant les plateformes à filtrer certains contenus, sous certaines conditions, ou en interdisant le filtrage d’autres contenus. Une telle réglementation aurait pour but ultime d’influencer le comportement des utilisateurs en imposant des obligations aux plateformes 
			(34) 
			Voir Giovanni Sartor
et Andrea Loreggia, «The impact of algorithms for online content
filtering or moderation», Commission des droits des citoyens et
des affaires constitutionnelles du Parlement européen, 2020. Disponible
à l’adresse suivante: <a href='https://www.europarl.europa.eu/thinktank/fr/document.html?reference=IPOL_STU%282020%29657101'>www.europarl.europa.eu/thinktank/fr/document.html?reference=IPOL_STU%282020%29657101.</a>. Ce type de législation doit contenir suffisamment de garanties pour que les effets recherchés ne portent pas atteinte de manière inutile et disproportionnée aux droits humains, notamment à la liberté d’expression. En tout état de cause, toute législation imposant des obligations et des restrictions aux plateformes et ayant une incidence supplémentaire sur le discours des utilisateurs doit viser exclusivement à lutter contre les contenus illicites et éviter les notions plus larges telles que les «contenus préjudiciables». En d’autres termes, elle ne peut pas autoriser ni établir des interventions de l’État qui seraient autrement interdites si elles étaient appliquées à d’autres moyens de diffusion ou de publication de contenu.
34. En ce qui concerne l’utilisation de l’intelligence artificielle et des filtres automatisés en général pour la modération de contenu, il importe de comprendre qu’aujourd’hui, dans les principaux domaines de la modération, la technologie de pointe n’est ni fiable ni efficace. Les décideurs politiques doivent également reconnaître le rôle des utilisateurs et des communautés dans la création et la diffusion de contenus préjudiciables. Les solutions aux défis politiques que sont les discours de haine, la propagande terroriste et la désinformation sont forcément multidimensionnelles. Dès lors, rendre la modération automatisée obligatoire par la loi est une réponse inadaptée et incomplète 
			(35) 
			Emma
Llansó, Joris van Hoboken et Jaron Harambam, «Artificial Intelligence,
Content Moderation, and Freedom of Expression», Transatlantic Working
Group on Content Moderation Online and Freedom of Expression. 26 février
2020. Disponible à l’adresse suivante: <a href='https://www.ivir.nl/publicaties/download/AI-Llanso-Van-Hoboken-Feb-2020.pdf'>www.ivir.nl/publicaties/download/AI-Llanso-Van-Hoboken-Feb-2020.pdf</a>.. Il est également important de bien identifier et préciser le rôle et la présence nécessaire des décideurs humains 
			(36) 
			Une étude
récente du Comité ad hoc sur l’intelligence artificielle (CAHAI)
du Conseil de l’Europe établit que la supervision par les êtres
humains peut être assurée par plusieurs mécanismes de gouvernance,
comme ceux des humains «dans la boucle» (human-in-the-loop,
HITL), «sur la boucle» (human-on-the-loop, HOTL)
ou «aux commandes» (human-in-command,
HIC). L’approche HITL désigne la possibilité d’une intervention
humaine à tous les cycles décisionnels du système. L’approche HOTL
désigne la possibilité d’une intervention humaine au cours du cycle
de conception du système et du suivi de son fonctionnement. L’approche
HIC désigne la possibilité de superviser l’activité globale du système
d’IA (y compris son impact économique, sociétal, juridique et éthique
au sens large) et celle de décider quand et comment utiliser le
système dans telle ou telle situation. «Vers une réglementation
des systèmes d’intelligence artificielle. Perspectives internationales
sur l’élaboration d’un cadre juridique fondé sur les normes du Conseil
de l’Europe dans le domaine des droits de l’homme, de la démocratie
et de l’État de droit» (décembre 2020). Disponible à l’adresse
suivante: <a href='https://rm.coe.int/prems-107420-fra-2018-compli-cahai-couv-texte-a4-bat-web/1680a0c17b'>https://rm.coe.int/prems-107420-fra-2018-compli-cahai-couv-texte-a4-bat-web/1680a0c17b.</a>, ainsi que la participation des utilisateurs et des communautés dans l’établissement et l’évaluation des politiques de modération de contenu 
			(37) 
			Voir
les propositions et les conclusions incluses dans le rapport de
Ben Wagner, Joanne Kübler, Eliška Pírková, Rita Gsenger et Carolina
Ferro, «Reimagining content moderation and safeguarding fundamental
rights. A study on community-led platforms», The Greens/EFA. Mai
2021. Disponible à l’adresse suivante: <a href='https://extranet.greens-efa.eu/public/media/file/1/6979'>https://extranet.greens-efa.eu/public/media/file/1/6979</a>..
35. En ce qui concerne le cas spécifique des processus électoraux, la Commission européenne pour la démocratie par le droit (Commission de Venise) a recommandé une série de mesures: la révision des règles et règlements sur la publicité politique en matière d’accès aux médias et de dépenses; le renforcement de la responsabilité des intermédiaires d’internet en matière de transparence et d’accès aux données; la promotion d’un journalisme de qualité; et l’autonomisation des électeurs vers une évaluation critique des actions de communication électorale afin de prévenir l’exposition à des informations fausses, trompeuses et préjudiciables, ainsi que vers l’acquisition de connaissances dans le domaine numérique par l’éducation et la sensibilisation 
			(38) 
			Voir le rapport déjà
mentionné «The impact of the disinformation disorder (disinformation)
on elections»..
36. Outre les instruments juridiques, plusieurs organisations gouvernementales et non gouvernementales aux niveaux national, régional et international ont élaboré des lignes directrices en matière d’éthique ou d’autres instruments de droit souple sur l’intelligence artificielle, au sens large. Bien qu’il n’y ait toujours pas de consensus autour des règles et des principes que pourrait comporter un système d’éthique de l’intelligence artificielle, la plupart des codes sont fondés sur les principes de transparence, de justice, de non-malfaisance, de responsabilité et de respect de la vie privée 
			(39) 
			Sur ces questions,
voir l’étude du CAHAI, mentionnée précédemment.. Le Comité consultatif de la Convention du Conseil de l’Europe pour la protection des personnes à l’égard du traitement automatisé des données à caractère personnel (STE no 108, «Convention 108») a adopté le 25 janvier 2019 les «Lignes directrices sur les incidences de l’intelligence artificielle sur la protection des données». Elles sont fondées sur les principes de la Convention et plus particulièrement sur la licéité et la loyauté du traitement, la définition de la finalité, la proportionnalité du traitement des données, la prise en compte de la protection des données dès la conception (privacy by-design) et par défaut, la responsabilité et la démonstration de la conformité (accountability), la transparence, la sécurité des données et la gestion du risque 
			(40) 
			Disponible à l’adresse
suivante: <a href='https://rm.coe.int/lignes-directrices-sur-l-intelligence-artificielle-et-la-protection-de/168091ff40'>https://rm.coe.int/lignes-directrices-sur-l-intelligence-artificielle-et-la-protection-de/168091ff40</a>..
37. Le 8 avril 2020, le Comité des Ministres du Conseil de l’Europe a adopté sa Recommandation CM/Rec(2020)1 aux États membres sur les impacts des systèmes algorithmiques sur les droits humains. Cette recommandation réaffirme avant tout que les normes de primauté du droit qui régissent les relations publiques et privées, comme la légalité, la transparence, la prévisibilité, la responsabilité et la surveillance, doivent également être préservées dans le contexte des systèmes algorithmiques. Elle rappelle également que lorsque les systèmes algorithmiques sont susceptibles d’avoir des effets négatifs sur les droits humains, y compris sur les processus démocratiques ou sur l’État de droit, ces effets engagent les obligations des États et les responsabilités du secteur privé vis-à-vis des droits humains. Elle établit donc une série d’obligations pour les États à l’égard des cadres juridiques et institutionnels; de la gestion des données; de l’analyse et de la modélisation; de la transparence, de la responsabilité et des recours effectifs; des mesures de précaution (y compris les études d’impact sur les droits humains); et de la recherche, de l’innovation et de la sensibilisation du public. Outre les responsabilités des États, la recommandation énumère également celles qui incombent aux acteurs du secteur privé dans les domaines déjà cités et en particulier le devoir de diligence raisonnable en matière de droits humains.
38. La Commission européenne, en réponse aux demandes et exigences répétées des autres institutions de l’Union européenne, de la société civile et de l’industrie, a récemment proposé un nouvel ensemble de règles concernant l’utilisation de l’intelligence artificielle. De l’avis de la Commission, ces règles renforceront la confiance des citoyens dans l’intelligence artificielle, les entreprises gagneront en sécurité juridique et les États membres ne verront aucune raison de prendre des mesures unilatérales susceptibles de fragmenter le marché unique 
			(41) 
			Proposition
de règlement établissant des règles harmonisées en matière d’intelligence
artificielle (Artificial Intelligence
Act), publiée le 12 mai 2021. Disponible à l’adresse
suivante: <a href='https://digital-strategy.ec.europa.eu/en/library/proposal-regulation-laying-down-harmonised-rules-artificial-intelligence-artificial-intelligence'>https://digital-strategy.ec.europa.eu/en/library/proposal-regulation-laying-down-harmonised-rules-artificial-intelligence-artificial-intelligence</a>.. Il n’est pas possible de décrire et d’analyser la proposition dans le cadre du présent rapport. Il convient de noter toutefois qu’elle intègre essentiellement une approche fondée sur le risque, sur la base d’une définition horizontale et prétendument évolutive de l’intelligence artificielle. Fondée sur différents niveaux de risque (risque inacceptable, risque élevé, risque limité et risque minime), la proposition présente une série d’obligations graduées, en tenant particulièrement compte des impacts possibles sur les droits humains. La Commission propose que les autorités nationales compétentes en matière de surveillance du marché supervisent les nouvelles règles, dont la mise en œuvre sera facilitée par la création d’un comité européen de l’intelligence artificielle. La proposition prévoit en outre le recours à des codes de conduite facultatifs dans certains cas.
39. Les entités qui ont recours à l’automatisation dans la modération de contenu doivent être tenues d’exercer une plus grande transparence sur leur utilisation de ces outils et les conséquences qu’ils ont sur les droits des utilisateurs 
			(42) 
			Voir les récentes propositions
faites dans ce domaine par le rapport de l’UNESCO, «Letting the
Sun Shine In. Transparency and Accountability in the Digital Age»
(2021). Disponible à l’adresse suivante: <a href='https://unesdoc.unesco.org/ark:/48223/pf0000377231'>https://unesdoc.unesco.org/ark:/48223/pf0000377231</a>.. Ces règles doivent être en mesure d’inciter à leur application pleine et concrète 
			(43) 
			Daphne Keller, «Some
humility about transparency», CIS Blog.
19 mars 2021. Disponible à l’adresse suivante: <a href='http://cyberlaw.stanford.edu/blog/2021/03/some-humility-about-transparency'>http://cyberlaw.stanford.edu/blog/2021/03/some-humility-about-transparency</a>.. Avant d’adopter une règle ou un règlement juridique, il convient d’avoir une compréhension correcte et commune du type d’informations qu’il est nécessaire et pertinent de divulguer par le biais des obligations de transparence, ainsi que des intérêts publics qui légitiment ces obligations. Par ailleurs, les organisations de la société civile et les régulateurs doivent pouvoir disposer de connaissances et d’une expertise suffisantes pour évaluer correctement les informations qu’ils sont susceptibles de demander dans le cadre de leurs fonctions et responsabilités. La législation sur les services numériques proposée au niveau de l’Union européenne comprend des dispositions remarquables visant à établir des obligations de transparence vis-à-vis des plateformes en ligne –graduées en fonction de leur taille. Ces obligations de transparence portent notamment sur les conditions générales (article 12), les activités de modération du contenu et les utilisateurs (articles 13 et 23), l’exposé des motifs des décisions de désactiver l’accès ou de supprimer certains éléments de contenu spécifiques (article 15), la publicité en ligne (article 24) et les systèmes de recommandation (article 29).
40. La transparence des recommandations sur les médias sociaux a été classée en trois grandes catégories: les divulgations destinées aux utilisateurs, qui visent à canaliser les informations vers les utilisateurs individuels afin de les responsabiliser par rapport au système de recommandation de contenu; la surveillance gouvernementale, qui désigne une entité publique chargée de contrôler les systèmes de recommandation pour vérifier leur conformité aux normes réglementées par l’État; et les partenariats avec le monde universitaire et la société civile, qui permettent à ces parties prenantes d’effectuer des recherches et de critiquer les systèmes de recommandation. Outre ces domaines, les experts ont également plaidé en faveur d’un régime solide en ce qui concerne l’accès du public 
			(44) 
			Paddy Leerssen, «The
Soap Box as a Black Box: Regulating Transparency in Social Media
Recommender Systems», European Journal
of Law and Technology, vol. 11, no 2
(2020). Voir également le rapport de Damian Tambini et Eleonora
Maria Mazzola, «Prioritisation Uncovered. The Discoverability of
Public Interest Content Online», Conseil de l’Europe, 2020. Disponible
à l’adresse suivante: <a href='https://rm.coe.int/publication-content-prioritisation-report/1680a07a57'>https://rm.coe.int/publication-content-prioritisation-report/1680a07a57</a>..
41. D’autres domaines sont concernés par la transparence dans la conception et l’utilisation de l’intelligence artificielle. Premièrement, on peut citer la relation entre le développeur et l’entreprise: les deux parties doivent partager des informations et avoir une compréhension commune du système à développer et des objectifs qu’il va remplir. Deuxièmement, aussi précises et ciblées que soient les obligations légales et réglementaires, il pourrait être important de pouvoir compter sur des mécanismes de contrôle appropriés indépendants (visant également à éviter de longues procédures contentieuses devant les tribunaux), capables d’examiner toute demande spécifique de transparence pour protéger efficacement certains domaines d’intérêt public ou privé légitime (par exemple, la protection des secrets commerciaux). Troisièmement, les mécanismes de contrôle indépendants doivent s’appuyer sur des outils appropriés d’évaluation des résultats (tant au niveau quantitatif que qualitatif) afin d’examiner minutieusement l’opportunité et l’efficacité des règles en place. Ces outils doivent porter en particulier sur l’identification des dysfonctionnements, des résultats imprévus (faux positifs) et des impacts sur les droits humains.

4. Conclusions

42. La communication en ligne est devenue un élément essentiel de la vie quotidienne des citoyens. C’est pourquoi il est inquiétant de constater qu’une petite poignée d’intermédiaires d’internet contrôlent de facto les flux d’informations en ligne. Cette concentration entre les mains de quelques sociétés privées leur donne un pouvoir démesuré dans les domaines économique et technologique, ainsi que la possibilité d’influer sur presque tous les aspects de la vie privée et sociale des gens.
43. Pour remédier à la domination de quelques intermédiaires d’internet sur le marché numérique, les États membres devraient recourir à la législation antitrust. Cela peut permettre aux citoyens d'avoir un plus grand choix lorsqu'il s'agit de sites qui protègent leur vie privée et leur dignité.
44. Les questions cruciales pour les intermédiaires d’internet et pour le grand public sont la qualité et la variété des informations, ainsi que la pluralité des sources disponibles en ligne. Les intermédiaires d’internet utilisent de plus en plus des systèmes algorithmiques, qui peuvent être utilisés de manière abusive ou malhonnête pour façonner les informations, les connaissances, la formation d’opinions individuelles ou collectives et même des émotions et des actions. Associé à la puissance technologique et économique des grandes plateformes, ce risque devient particulièrement grave.
45. L’utilisation de l’intelligence artificielle et des filtres automatisés pour la modération des contenus n’est ni fiable ni efficace. Les grandes plateformes ont déjà un lourd passif de décisions de modération erronées ou préjudiciables à l’égard de contenus terroristes ou extrémistes. Les solutions aux défis politiques que sont les discours de haine, la propagande terroriste et la désinformation sont souvent multifactorielles. Il importe également de bien identifier et préciser le rôle et la présence nécessaire des décideurs humains, ainsi que la participation des utilisateurs dans l'élaboration et l’évaluation des politiques de modération de contenu.
46. Aujourd'hui, on observe une tendance à la réglementation des plateformes de médias sociaux. Le législateur devrait chercher à renforcer la transparence et se concentrer sur les processus et les opérations des entreprises plutôt que sur le contenu proprement dit. En outre, la législation devrait lutter contre les contenus illicites et éviter d'utiliser des notions plus larges telles que les contenus préjudiciables.
47. Si les législateurs choisissent d'imposer des réglementations très lourdes à tous les intermédiaires d’internet, y compris les nouvelles petites entreprises, cela pourrait consolider la position des grands acteurs qui sont déjà sur le marché. Dans un tel cas, de nouveaux acteurs auraient peu de chance d'entrer sur le marché. Par conséquent, il est nécessaire d'adopter une approche progressive, pour adapter différents types de réglementations aux différents types de plateformes.
48. Les États membres doivent trouver un équilibre entre la liberté des entreprises économiques privées et leur droit de développer leurs propres stratégies commerciales, incluant l’utilisation de systèmes algorithmiques, et le droit du grand public de communiquer librement en ligne, en ayant accès à un large éventail de sources d’information.
49. Enfin, les intermédiaires d’internet devraient assumer des responsabilités spécifiques concernant la protection des utilisateurs contre la manipulation, la désinformation, le harcèlement, les discours de haine et toute expression portant atteinte à la vie privée et à la dignité humaine. Le fonctionnement des intermédiaires d’internet et les évolutions technologiques qui sous-tendent leur mode opératoire doivent être guidés par des principes éthiques élevés. D’un point de vue juridique et éthique, les intermédiaires d’internet doivent assumer leurs responsabilités pour garantir un flux d’informations en ligne libre et pluraliste, respectueux des droits humains.
50. Le projet de résolution que j'ai préparé s'appuie sur ces considérations.